2025년 6월 10일 AI 트렌드

‘AI커닝’ 허락한 컬리 “개발자, 코딩시험 챗GPT 써도 된다”

최근 국내 이커머스 스타트업 컬리가 채용 과정에서 개발자들이 코딩 테스트 중 챗GPT와 같은 AI 도구를 사용할 수 있도록 허용하는 파격적인 결정을 내렸습니다. 이는 대다수 국내 주요 IT 기업들이 코딩 테스트에서 AI 사용을 금지하는 것과는 대조적인 행보로, AI 기술의 중요성과 코딩 분야에서의 AI 활용 능력 증대에 따른 변화를 반영한 것입니다. 기사는 이러한 결정이 단순히 채용 방식의 변화를 넘어, 개발자의 역할이 AI 도구를 효과적으로 활용하는 능력까지 포함하는 방향으로 진화하고 있음을 시사한다고 분석합니다. 또한, 코딩 교육 시장에서도 AI를 활용한 코딩 교육이 확산되고 있으며, 비IT 전공자들까지도 AI 기반 코딩 학습에 대한 관심이 높아지고 있는 추세라고 강조합니다.


컬리의 이번 결정은 단순히 하나의 기업이 채용 방식을 바꾼 것을 넘어, 다가올 IT 산업의 미래를 미리 보여주는 중요한 신호탄이라고 생각합니다. 과거에는 순수한 코딩 실력이 개발자의 핵심 역량이었다면, 이제는 AI라는 강력한 조력자를 얼마나 잘 활용하는지가 더욱 중요해지고 있습니다. AI는 더 이상 선택이 아닌 필수가 되어가고 있으며, 이는 개발자들에게 새로운 기회이자 도전으로 다가올 것입니다.

개인적으로, 이번 변화는 개발자들이 반복적이고 단순한 작업에서 벗어나 더 창의적이고 문제 해결 중심적인 역할에 집중할 수 있게 해줄 것이라고 기대합니다. 또한, 기업 입장에서는 AI 활용 능력을 갖춘 인재를 선발함으로써 개발 생산성을 극대화하고 혁신을 가속화할 수 있을 것입니다. 코딩 교육 시장 역시 이러한 흐름에 발맞춰 AI 기반의 학습 콘텐츠를 더욱 강화해야 할 것이며, 개발자를 꿈꾸는 이들이라면 AI 도구 활용법을 적극적으로 익히는 것이 필수적이라고 조언하고 싶습니다. 컬리의 이번 시도가 국내 IT 업계 전반에 어떤 변화의 바람을 불러올지, 앞으로의 행보가 더욱 기대됩니다.

메타·구글 “LLM은 매개변수당 3.6비트 기억…학습 데이터 더 늘면 일반화 능력 강화

LLM의 기억력, 생각보다 한정적?! AI 학습의 새로운 방향성 제시!

최근 Meta, Google DeepMind, Cornell University, Nvidia의 공동 연구 결과가 발표되어 LLM(거대 언어 모델)의 메모리 용량과 일반화 능력에 대한 흥미로운 사실이 밝혀졌습니다. ‘언어 모델은 얼마나 기억하는가’라는 제목의 이 연구는 GPT 스타일 모델이 매개변수당 약 3.6비트의 정보를 저장하는 고정된 메모리 용량을 가지고 있음을 보여줍니다.

LLM의 기억력, 생각보다 한정적?! AI 학습의 새로운 방향성 제시!

최근 Meta, Google DeepMind, Cornell University, Nvidia의 공동 연구 결과가 발표되어 LLM(거대 언어 모델)의 메모리 용량과 일반화 능력에 대한 흥미로운 사실이 밝혀졌습니다. ‘언어 모델은 얼마나 기억하는가’라는 제목의 이 연구는 GPT 스타일 모델이 매개변수당 약 3.6비트의 정보를 저장하는 고정된 메모리 용량을 가지고 있음을 보여줍니다.

이 연구는 패턴을 제거한 무작위 비트 문자열을 사용하여 트랜스포머 모델을 훈련시키는 혁신적인 방법을 통해 모델의 기억 능력을 정확하게 측정했습니다. 훈련 데이터의 양을 늘려도 모델의 메모리 용량은 증가하지 않지만, 일반화 능력은 향상되어 특정 정보를 재현할 가능성이 줄어든다는 사실이 드러났습니다. 이는 더 큰 데이터셋이 더 안전한 일반화를 이끌어내어 AI 모델이 민감하거나 저작권이 있는 자료를 복제할 우려를 줄일 수 있음을 시사합니다.

이 글은 카테고리: AI 트렌드에 포함되어 있습니다. 고유주소를 북마크하세요.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다