2025년 4월 30일 AI 트렌드

메타, ‘확산형 LLM’ 추론 능력 향상하는 강화학습 프레임워크 공개

메타에서 개발한 새로운 프레임워크 ‘d1’에 대한 내용입니다.

  • d1은 트랜스포머와 확산 아키텍처를 결합한 dLLM(확산 기반 대형언어모델)의 추론 능력을 강화학습을 통해 향상시키는 것을 목표로 합니다.
  • d1 프레임워크는 사전 훈련된 dLLM을 지도 미세 조정(SFT)과 강화 학습(RL)로 훈련하여 기존 트랜스포머 모델보다 뛰어난 추론 능력을 발휘합니다.
  • ‘디퓨-GRPO’라는 새로운 알고리즘과 ‘무작위 프롬프트 마스킹’ 기법을 통해 학습 효율성을 높였습니다.

빠른 작업 처리와 심도 있는 추론 능력을 동시에 제공하여, 엔터프라이즈 워크로드를 위한 다양한 에이전트 지원 및 일상적인 디지털 워크플로우 자동화에 기여할 것으로 기대됩니다.

스테이지파이브, LLM 기반 AI 고객센터 런칭

스테이지파이브는 자체 고객센터 데이터를 활용하여 LLM 기반 AI 고객센터를 국내 통신사업자 최초로 공식 출시했습니다.

  • AI 고객센터는 24시간 실시간 맞춤형 답변을 제공하며, 비정형 질문에도 정확하게 대응하여 고객 만족도를 높이고 상담 인력의 부담을 줄여줍니다.
  • AI 상담 도입 후 온라인 상담 처리 건수가 117% 증가했으며, 이 중 약 40%를 AI가 처리하고 있습니다.
  • 스테이지파이브는 AI 고객센터를 시작으로 AI 고객 케어 및 AI 세일즈로 AI 에이전트의 확장을 추진 중입니다.
  • 핀다이렉트 플랫폼을 AI 플랫폼으로 고도화하여 고객 맞춤형 솔루션을 제공하고 비즈니스 효율성을 극대화할 계획입니다.

스테이지파이브의 AI 고객센터 도입은 고객 서비스 분야에서 AI 기술의 가능성을 보여주는 좋은 사례입니다. 특히, 온라인 상담 처리 건수가 크게 증가하고, AI가 상당 부분을 처리하는 것을 보면 효율성 증대 효과가 뚜렷한 것으로 보입니다. 앞으로 AI 고객 케어 및 AI 세일즈 등 AI 에이전트의 확장을 통해 더욱 다양한 분야에서 고객 경험을 향상시킬 수 있을 것으로 기대됩니다.

히츠 “AI 신약개발 플랫폼 ‘하이퍼랩 2.0’ 신약개발 시간·비용 획기적 절감”

HITS(히츠) 회사의 AI 기반 신약 개발 플랫폼 ‘Hyper Lab 2.0’과 신약 개발에 필요한 시간과 비용을 획기적으로 줄일 수 있는 잠재력에 대해 설명합니다.

  • Hyper Lab 2.0은 AI를 활용하여 11조 개의 화합물 후보를 가상으로 스크리닝하고 합성하며, 48시간 이내에 유망한 약물 후보를 식별할 수 있습니다.
  • 사용자 친화적인 인터페이스를 제공하며, 도킹, 가상 스크리닝, 결합 예측 및 속성 분석과 같은 다양한 기능을 단일 플랫폼에 통합합니다.
  • 이 플랫폼은 MD 앤더슨 암센터를 포함한 주요 기관의 관심을 끌었으며, MD 앤더슨 암센터는 Hyper Lab을 사용하여 새로운 후보 물질을 성공적으로 식별했습니다.
  • HITS는 전 세계 326개 이상의 제약 회사 및 연구 기관과 협력했으며 103억 원의 자금을 확보했습니다.
  • 회사는 2026년에서 2027년 사이에 상장을 계획하고 있습니다.

AI 기반 신약 개발 플랫폼은 신약 개발 프로세스를 가속화하고 비용을 절감하는 데 중요한 역할을 할 수 있습니다. Hyper Lab 2.0과 같은 플랫폼은 제약 회사와 연구 기관이 더 효율적으로 새로운 약물 후보를 식별하고 개발하는 데 도움이 될 수 있습니다. HITS의 성공적인 협력 및 자금 확보는 AI 기반 신약 개발 분야의 성장 가능성을 보여줍니다.

JW중외제약 C&C신약연구소, AI 활용 AML 치료제 ‘CNC-01’ 글로벌 주목…美서 비임상 결과 공개

JW중외제약 C&C신약연구소가 개발 중인 AI 기반 급성 골수성 백혈병(AML) 치료제 ‘CNC-01’이 글로벌 시장에서 주목받고 있다는 내용을 담고 있습니다

  • CNC-01의 비임상 결과는 미국암연구협회(AACR) 2025에서 발표되었으며, 기존 치료제에 내성을 보이는 AML 모델에서 종양 성장을 억제하고 BCL-2 억제제와 병용 시 효과가 향상되는 것을 보여주었습니다.

AI 기반 신약 개발 플랫폼 ‘JWave’를 활용하여 개발되었다는 점에서, AI 기술이 제약 분야의 혁신을 가속화할 수 있음을 시사합니다.

기존 치료제 내성 문제를 해결할 수 있는 새로운 작용 기전을 가진 약물이라는 점에서, AML 치료 분야에 큰 기여를 할 수 있을 것으로 기대됩니다.

글로벌 AML 치료제 시장 규모가 상당하다는 점을 감안할 때, CNC-01의 성공적인 개발 및 상업화는 JW중외제약의 성장에 중요한 역할을 할 수 있을 것입니다.

의약품, AI 생태계 조성 방안 논의

제약 산업에서 인공지능(AI) 생태계를 구축하기 위한 방안에 대해 다루고 있습니다.

  • 식품의약품안전처(식약처)는 ㈜종근당을 방문하여 AI 기반 생산 현장을 시찰하고 AI 생태계 조성 전략을 논의했습니다.
  • ㈜종근당은 AI, 빅데이터 및 자동화 시스템을 기반으로 제품 품질을 향상시키기 위한 통합 가상 플랫폼을 구축하고 있습니다.
  • 식약처는 AI 기술 적용이 제품 품질을 더욱 향상시킬 것으로 기대하고 있습니다.
  • 제약업계와의 회의에서 AI를 활용한 의약품 개발 및 품질 관리 현황, AI 활용 의약품 승인 심사 기준에 대한 규제 지원 계획, AI 생태계 조성을 위한 협력 방안 등이 논의되었습니다.
  • 업계는 AI 기술을 활용하여 안전하고 신속하게 효과적인 의약품을 개발할 수 있도록 규제 지원 및 협력을 요청했습니다.

AI 기술은 제약 산업의 혁신을 가속화할 수 있는 잠재력이 큽니다. 특히 의약품 개발 기간 단축, 품질 향상, 생산성 증대 등에 기여할 수 있을 것으로 기대됩니다.

식약처의 적극적인 지원과 업계의 노력이 조화를 이룬다면, 한국 제약 산업이 AI 기술을 선도하는 국가로 발돋움할 수 있을 것입니다.

AI 기술 도입에는 데이터 보안, 윤리적 문제 등 해결해야 할 과제도 존재합니다. 이러한 문제들을 슬기롭게 해결해 나가는 것이 중요합니다.

대웅제약, ‘디지털 전환 가속’ AI 의료·신약 개발 아우른다

  • 대웅제약은 AI 기반 디지털 헬스케어 및 신약 개발을 가속화하고 있습니다. ‘Whiskey’ (실명 진단) 및 ‘Think’ (스마트 환자 모니터링)와 같은 AI 기반 솔루션의 공급을 확대하고 있습니다.
  • 고려대학교 안암병원과 협력하여 AI 신약 개발 역량을 강화하고 있습니다.
  • AI 기반 진단 도구를 활용한 디지털 헬스케어 기반 건강 검진을 실시하고 있습니다 (예: 안질환 진단, 근육 손실 평가).
  • ‘Think’는 웨어러블 바이오센서와 AI를 사용하여 환자의 활력 징후를 실시간으로 분석하고 전송하여 초기 위험 상황 감지에 도움을 주는 원격 심박수 모니터링에 대한 보험 적용을 받았습니다.
  • AI 및 디지털 헬스케어 시장은 빠르게 성장하고 있으며, 2030년에는 시장 규모가 1,817억 9천만 달러에 달하고 연평균 성장률은 41.8%에 이를 것으로 예상됩니다.

대웅제약은 AI 기술을 활용하여 헬스케어 분야에서 혁신을 주도하고 있는 것으로 보입니다. 특히, AI 기반 진단 솔루션 및 신약 개발은 환자 치료 및 건강 관리에 큰 영향을 미칠 수 있을 것으로 예상됩니다. 또한, 디지털 헬스케어 시장의 높은 성장률은 이 분야의 잠재력을 보여줍니다.

카테고리: AI 트렌드 | 댓글 남기기

2025년 4월 29일 AI 트렌드

“오픈AI·구글 뛰어넘었다”…알리바바, 최신 AI 모델 ‘큐원3’ 공개

알리바바의 새로운 AI 모델 Qwen3에 대한 기사입니다. Qwen3는 오픈 소스 AI 모델이며, 구글과 OpenAI의 최고 성능 모델과 동등하거나 그 이상의 성능을 보이는 것으로 알려져 있습니다. 이 모델은 복잡한 추론과 빠른 응답이 모두 가능하도록 설계되었습니다.

  • Qwen3는 추론 모드와 비추론 모드를 통합하여 사용자가 작업 예산을 효율적으로 관리할 수 있도록 합니다.
  • 일부 모델은 AI 작업을 더 작고 전문화된 하위 작업으로 나누어 계산 효율성을 향상시키는 MoE (Mixture of Experts) 아키텍처를 사용합니다.
  • Qwen3는 119개 언어를 지원하며 약 36조 개의 토큰으로 구성된 대규모 데이터 세트에서 훈련되었습니다. Codeforces 프로그래밍 대회와 같은 일부 벤치마크에서 Qwen3-235B-A22B는 OpenAI의 o3-mini 및 Google의 Gemini 2.5 Pro보다 뛰어난 성능을 보였습니다.

중국에 대한 칩 판매 및 상품 구매 제한에도 불구하고, 전문가들은 Qwen3와 같은 고급 오픈 소스 AI 모델이 미국에서 널리 사용될 것으로 예측합니다.

인간처럼 생각하는 ‘소프트 AI’, 모호함을 이해하는 소형 AI 모델로 ‘주목’

인간처럼 생각하는 ‘소프트 AI’에 대해 설명입니다.

  • 소프트 AI의 잠재력: 소프트 AI는 불확실하고 모호한 상황에서 인간과 유사한 판단을 내릴 수 있다는 점에서 매우 유망합니다. 이는 기존의 딱딱한 AI가 처리하기 어려웠던 영역에서 새로운 가능성을 열어줍니다.
  • 인간과의 협력: 소프트 AI는 인간의 판단을 대체하는 것이 아니라 보강하고 정보를 제공하는 도구로 설계되었다는 점이 중요합니다. 이는 AI가 인간의 능력을 확장하고 협력적인 관계를 구축하는 데 기여할 수 있음을 시사합니다.
  • 엣지 컴퓨팅에 적합: 소프트 AI의 빠른 대응 속도와 현장 활용 능력은 엣지 컴퓨팅 환경에서 큰 장점을 가집니다. 이는 실시간 의사 결정이 중요한 다양한 산업 분야에서 소프트 AI의 활용 가능성을 높입니다.

“더이상 의사 필요 없다”는 머스크…테슬라가 개발하는 수술 로봇은?

  • 일론 머스크는 수술용 로봇 기술이 빠르게 발전하여 몇 년 안에 인간 의사를 뛰어넘을 것이라고 예측했습니다. 특히 5년 이내에 최고의 인간 외과의를 능가할 것이라고 주장했습니다.
  • 그는 뉴럴링크의 뇌-컴퓨터 전극 삽입에 로봇을 사용하는 이유로 인간의 손으로는 필요한 속도와 정밀도를 달성할 수 없기 때문이라고 설명했습니다. 또한, 한 수술용 로봇 제품이 실제 수술 시험에서 의사들이 예상한 것보다 더 나은 성과를 냈다는 게시물을 공유하기도 했습니다.
  • 머스크의 이러한 주장에 대해 의료계에서는 엇갈린 반응을 보이고 있습니다. 일부 전문가는 로봇이 수술의 정밀성과 효율성을 높일 수 있지만, 복잡한 상황에서의 의사의 판단력과 공감 능력은 대체하기 어렵다고 지적합니다. 로봇은 수술 도구로서 의사의 능력을 확장하는 역할을 할 수 있지만, 인간 의사의 역할을 완전히 대체하기는 어려울 것이라는 의견이 많습니다.

‘로봇 일꾼’ 확보 경쟁에 토종 스타트업 ‘상한가’

국내 대기업들이 ‘로봇 노동자’ 확보 경쟁에 나서면서 로봇 스타트업의 가치가 상승하는 현상과 그 배경에 대해 다루고 있습니다.

  • 노동력 부족으로 인해 주요 국내 기업들이 로봇 관련 스타트업에 투자를 늘리면서 이들 기업의 가치가 급증하고 있습니다.
  • 자동화 철근 가공 전문 기업인 로보콘이나 산업용 로봇 제조업체인 HD현대 로보틱스와 같은 기업들이 상장 전 투자 유치를 적극적으로 추진하고 있습니다.
  • 글로벌 로봇 기술 시장은 크게 성장할 것으로 예상되며, 국내 시장은 2030년까지 20조 원 규모에 이를 것으로 전망됩니다.
  • 전문가들은 한국 사회의 고령화, 인건비 상승, 미래 고부가가치 산업 확보 필요성 등의 요인으로 인해 로봇 산업에 대한 투자가 더욱 확대될 것으로 예측합니다.

노동 시장의 변화: 고령화 사회 진입과 인건비 상승은 로봇 자동화에 대한 수요를 증가시키고 있으며, 이는 로봇 산업 성장의 중요한 동력이 될 것입니다.

기업 경쟁 심화: 대기업들의 로봇 기술 확보 경쟁은 관련 스타트업에게는 성장 기회를 제공하지만, 동시에 경쟁 심화와 기술 격차 확대라는 과제도 안겨줄 수 있습니다.

미래 시장 선점: 로봇 산업은 미래 핵심 산업 중 하나로, 국내 기업들의 적극적인 투자는 미래 시장을 선점하고 글로벌 경쟁력을 강화하는 데 중요한 역할을 할 것입니다.

“약대생, 빅파마 같이 쓰는 AI…신약 후보 찾고 설계, 합성까지 서비스”

AI 신약 개발 스타트업 히츠(HITS)의 김우연 대표 인터뷰를 바탕으로 작성되었습니다.

  • 하이퍼랩(HyperLab) 2.0: 히츠가 개발한 AI 기반 신약 개발 플랫폼으로, 신약 후보 물질 발굴, 설계, 실제 합성 및 효능 검증까지 신약 개발 전 과정을 지원합니다.
  • 차별성: 히츠는 AI 플랫폼을 유료 구독 서비스로 제공하여 약대생부터 연구기관, 제약사까지 누구나 활용할 수 있도록 했습니다. 기술: ‘하이퍼 스크리닝 X’와 ‘하이퍼 바인딩 코폴딩’이라는 핵심 기술을 통해 신약 후보 물질을 빠르게 선별하고, 표적 단백질과의 결합을 예측합니다.
  • 협력: 스위스의 분자 합성 전문 기업 신플켐(Symple Chem), 미국의 화합물 합성 전문 기업 e몰리큘스(eMolecules)와의 협력을 통해 플랫폼의 기능과 범위를 확장했습니다.
  • 고객: 미국 MD앤더슨 암센터를 비롯한 국내외 연구기관 및 제약사들이 하이퍼랩을 구독하고 있으며, 기능성 식음료를 개발하는 유통 대기업도 고객사입니다.
카테고리: AI 트렌드 | 댓글 남기기

3.6. 날짜 형식 출력 파서(DatetimeOutputParser)

LangChain에서 날짜와 시간 데이터를 처리하는 데 유용한 도구 중 하나가 DatetimeOutputParser입니다. 이 파서는 언어 모델의 출력을 구조화된 날짜 및 시간 형식으로 변환하여, 애플리케이션에서 일관된 데이터 처리를 가능하게 합니다.

DatetimeOutputParser는 LangChain의 출력 파서(output parser) 모듈 중 하나로, 언어 모델의 텍스트 출력을 Python의 datetime 객체로 변환합니다. 이는 날짜나 시간을 포함한 응답을 처리할 때 유용하며, 예를 들어 사용자 입력에서 “다음 주 월요일”이나 “2025년 4월 22일” 같은 표현을 표준화된 형식으로 변환할 수 있습니다.

주요 특징

  • 형식 지정 가능: 출력 형식을 사용자가 정의할 수 있습니다(예: %Y-%m-%d %H:%M:%S).
  • 유연한 입력 처리: 비정형 텍스트에서도 날짜 정보를 추출합니다.
  • EXAONE 3.5와의 호환성: EXAONE 3.5의 자연어 처리 능력과 결합하여 높은 정확도를 제공합니다.

다음은 DatetimeOutputParser를 사용하여 언어 모델의 출력을 파싱하는 간단한 예제입니다.

예제

LangChain에서 DatetimeOutputParser를 사용하는 간단한 예제를 설명하겠습니다

import re
from langchain.output_parsers import DatetimeOutputParser
from langchain.prompts import PromptTemplate
from langchain_ollama import ChatOllama
from datetime import datetime

# LLM 모델 초기화
llm = ChatOllama(model="exaone3.5")

# DatetimeOutputParser 초기화 및 포맷 지정
output_parser = DatetimeOutputParser()
output_parser.format = "%Y-%m-%d"

# 포맷 지침 생성
format_instructions = output_parser.get_format_instructions()

# 오늘 날짜를 프롬프트에 명시적으로 전달
today_str = datetime.today().strftime('%Y-%m-%d')

# 프롬프트 템플릿 정의 (포맷 지침 포함, 반드시 날짜만 출력하도록 강조)
prompt = PromptTemplate(
    template=(
        f"오늘은 {today_str}\n"
        "아래의 질문에 답할 때 반드시 '{format_instructions}'를 따르세요.\n"
        "반드시 날짜만 출력하고, 다른 설명이나 문장은 절대 추가하지 마세요.\n"
        "질문: {question}\n"
        "답변:"
    ),
    input_variables=["question"],
    partial_variables={"format_instructions": format_instructions}
)

# 날짜만 추출하는 함수
def extract_date(text):
    match = re.search(r"\d{4}-\d{2}-\d{2}", text)
    if match:
        return match.group(0)
    else:
        raise ValueError(f"날짜를 찾을 수 없습니다: {text}")

# 체인 구성
def run_chain(question):
    prompt_text = prompt.format(question=question)
    llm_response = llm.invoke(prompt_text)
    # LLM 응답에서 실제 텍스트 추출 (AIMessage 등 객체일 수 있음)
    if hasattr(llm_response, "content"):
        response_text = llm_response.content
    else:
        response_text = str(llm_response)
    # 날짜만 추출
    date_str = extract_date(response_text)
    # 파싱
    result = output_parser.parse(date_str)
    return result

# 질문 실행
question = "LG전자의 창립연도는?"
result = run_chain(question)

print(result)
2025-04-28 00:00:00

또 다른 질문:

# 질문 실행
question = "LG전자의 창립연도는?"
result = run_chain(question)

print(result)
1958-01-01 00:00:00

실제 활용 사례

DatetimeOutputParser는 다양한 애플리케이션에서 활용될 수 있습니다. 아래는 몇 가지 예입니다:

  • 일정 관리 챗봇: 사용자가 “다음 주 화요일 10시에 회의 예약”이라고 말하면, 이를 파싱하여 캘린더에 추가.
  • 데이터 분석: 로그 데이터에서 날짜 정보를 추출해 분석.
  • 여행 플래너: “6월 첫째 주에 파리 여행” 같은 요청을 처리해 정확한 날짜를 제공.

주의사항 및 최적화 팁

  • 프롬프트 명확성: 프롬프트에 출력 형식을 명확히 지정하면 더 정확한 결과를 얻을 수 있습니다.
  • 문화적 차이 고려: 날짜 형식은 지역에 따라 다를 수 있으므로, 대상 사용자에 맞는 형식을 지정하세요(예: %d/%m/%Y vs %Y-%m-%d).
  • 성능 최적화: 대량의 데이터를 처리할 때는 파싱 속도를 고려하여 배치 처리를 구현하는 것이 좋습니다.
카테고리: 랭체인 (LangChain) | 댓글 남기기

3.5. 데이터프레임 출력 파서 (PandasDataFrameOutputParser)

PandasDataFrameOutputParser는 특히 표 형태의 데이터를 처리하거나 분석해야 할 때 유용하며, 데이터 과학 및 분석 작업에서 강력한 도구로 활용됩니다.

PandasDataFrameOutputParser는 LangChain의 출력 파서 중 하나로, LLM의 텍스트 출력을 Pandas 데이터프레임 형태로 구조화합니다. Pandas는 Python에서 데이터 분석을 위한 강력한 라이브러리로, 데이터프레임은 행과 열로 구성된 표 형태의 데이터 구조입니다. 이 파서를 사용하면 LLM 모델이 생성한 비정형 텍스트를 데이터프레임으로 변환하여 데이터 분석, 시각화, 또는 추가 처리를 쉽게 수행할 수 있습니다.

주요 특징

  • 구조화된 출력: 텍스트 기반의 LLM 출력을 표 형태로 변환.
  • 유연한 데이터 처리: 다양한 형식의 입력을 처리하여 데이터프레임으로 변환.
  • Pandas 통합: 데이터프레임의 강력한 기능을 활용하여 데이터 조작 및 분석 가능.

PandasDataFrameOutputParser 사용 방법

PandasDataFrameOutputParser는 LLM의 출력을 데이터프레임으로 변환하기 위해 다음과 같은 단계를 거칩니다:

  1. 프롬프트 템플릿을 정의하여 모델이 구조화된 출력을 생성하도록 유도.
  2. PandasDataFrameOutputParser를 사용하여 출력을 파싱.
  3. 결과 데이터프레임을 활용하여 분석 또는 후속 작업 수행.

예제: 데이터프레임 출력 생성

아래는 EXAONE-3.5 모델과 PandasDataFrameOutputParser를 사용하여 간단한 데이터프레임을 생성하는 예제입니다. 이 예제에서는 학생들의 이름과 점수를 포함한 데이터프레임을 생성합니다.

from langchain_ollama import ChatOllama
from langchain.output_parsers import PandasDataFrameOutputParser
from langchain.prompts import PromptTemplate
import pandas as pd

# 1. 데이터프레임 생성
data = {
    "학생": ["Alice", "Bob", "Charlie"],
    "점수": [85, 90, 78]
}
df = pd.DataFrame(data)

# 2. PandasDataFrameOutputParser 초기화 (dataframe 인자 필수)
parser = PandasDataFrameOutputParser(dataframe=df)

# 3. 프롬프트 템플릿 정의 (query를 입력 변수로 사용)
prompt = PromptTemplate(
    template=(
        "다음 데이터프레임에서 '{query}'에 해당하는 정보를 "
        "아래의 출력 형식({format_instructions})에 맞게 반환하세요.\n"
        "데이터프레임:\n{df}\n"
        "출력 형식 외의 설명이나 예시는 절대 포함하지 마세요."
    ),
    input_variables=["query"],
    partial_variables={
        "format_instructions": parser.get_format_instructions(),
        "df": df.to_string(index=False)
    }
)

# 4. 체인 구성
chain = prompt | ChatOllama(model="exaone3.5", temperature=0) | parser

# 5. 체인 실행 (예시: 전체 표 반환)
result = chain.invoke({"query": "평균 점수를 알려주세요."})

# 6. 결과 출력
print(result)
{‘mean’: 84.33333333333333}
  • 모델 초기화: ChatOllama를 사용하여 EXAONE-3.5 모델을 로드합니다. temperature=0은 모델의 출력을 일관되게 유지합니다.
  • 프롬프트 템플릿: PromptTemplate을 사용하여 모델이 데이터를 생성하도록 지시합니다. parser.get_format_instructions()은 파서가 기대하는 출력 형식을 제공합니다.
  • 체인 구성: 프롬프트, LLM, 파서를 연결하여 체인을 구성합니다.
  • 결과 처리: 체인을 실행하여 모델의 출력을 데이터프레임으로 변환합니다.

주의사항 및 최적화 팁

  • 프롬프트 설계: 모델이 기대한 형식으로 출력을 생성하도록 명확한 프롬프트를 작성하세요. 
  • 출력 형식 확인: parser.get_format_instructions()를 사용하여 파서가 요구하는 정확한 출력 형식을 확인하세요.
  • 성능 최적화: 대량의 데이터를 처리할 때는 모델의 응답 시간을 고려하여 배치 처리를 구현하거나, 데이터 크기를 제한하세요.
  • 오류 처리: 모델이 비정형 출력을 생성할 경우를 대비해 예외 처리를 추가하세요. 예를 들어, try-except 블록을 사용하여 파싱 오류를 관리할 수 있습니다.
카테고리: 랭체인 (LangChain) | 댓글 남기기

3.4. JSON 출력 파서(JsonOutputParser)

LangChain의 JsonOutputParser는 LLM의 출력을 특정 JSON 스키마에 맞게 파싱하고 구조화하는 데 도움을 주는 강력한 도구입니다. 이 챕터에서는 Ollama를 기반으로 한 LangChain 환경에서 JsonOutputParser를 사용하는 방법과 EXAONE 3.5 모델을 활용한 실전 예제를 다룹니다.

JsonOutputParser는 사용자가 정의한 JSON 스키마에 따라 LLM의 출력을 구조화된 JSON 객체로 변환합니다. 이를 통해 비정형 텍스트 출력을 프로그램에서 쉽게 사용할 수 있는 데이터로 변환할 수 있습니다.

JsonOutputParser의 역할과 필요성

LLM은 일반적으로 자유 형식의 텍스트를 생성합니다. 하지만 애플리케이션에서는 JSON과 같은 구조화된 데이터 형식이 요구되는 경우가 많습니다. 예를 들어, 사용자 정보를 JSON 객체로 추출하거나, 특정 데이터 필드를 API로 전송해야 할 때 JsonOutputParser는 다음과 같은 이점을 제공합니다:

  • 구조화된 출력 보장: 사용자가 정의한 스키마에 맞는 JSON 객체를 생성.
  • 오류 감소: 비정형 텍스트를 수동으로 파싱할 때 발생할 수 있는 오류를 줄임.
  • 효율적인 통합: JSON 출력을 통해 다른 시스템과의 통합을 간소화.
  • 유연성: 복잡한 중첩 스키마나 선택적 필드도 처리 가능.

JsonOutputParser 설정 및 사용법

LangChain에서 JsonOutputParser를 사용하려면 다음 단계를 따릅니다:

  1. 필요한 모듈 가져오기: JsonOutputParser와 함께 PromptTemplate, 그리고 Ollama 기반의 LLM을 초기화합니다.
  2. JSON 스키마 정의: 출력하고자 하는 JSON 구조를 Pydantic 모델 또는 딕셔너리 형태로 정의합니다.
  3. 프롬프트 템플릿 설정: LLM이 JSON 형식으로 응답하도록 유도하는 프롬프트를 작성합니다.
  4. 파이프라인 구성: 프롬프트, LLM, 그리고 JsonOutputParser를 연결하여 체인을 구성합니다.

다음은 EXAONE 3.5 모델을 사용하여 사람 정보를 JSON 형식으로 추출하는 예제입니다. 이 예제는 사용자가 입력한 텍스트에서 이름, 나이, 직업 정보를 추출합니다.

from langchain_core.prompts import PromptTemplate
from langchain_ollama import OllamaLLM
from langchain_core.output_parsers import JsonOutputParser
from pydantic import BaseModel, Field

# 출력 스키마 정의
class Person(BaseModel):
    name: str = Field(description="사람의 이름")
    age: int = Field(description="사람의 나이")
    occupation: str = Field(description="사람의 직업")

# 프롬프트 템플릿 설정
prompt = PromptTemplate.from_template(
    """다음 텍스트에서 사람의 이름, 나이, 직업을 JSON 형식으로 추출하세요:
    {input}

    출력은 다음 JSON 스키마를 따라야 합니다:
    {format_instructions}
    """
)

# LLM 초기화 (EXAONE 3.5)
llm = OllamaLLM(model="exaone3.5", format="json", temperature=0.1)

# JSON 출력 파서 설정
parser = JsonOutputParser(pydantic_object=Person)

# 체인 구성
chain = prompt | llm | parser

# 입력 텍스트
input_text = "김민수는 35세이고, 소프트웨어 엔지니어로 일하고 있습니다."

# 체인 실행
response = chain.invoke({
    "input": input_text,
    "format_instructions": parser.get_format_instructions()
})

print(response)
{‘name’: ‘김민수’, ‘age’: 35, ‘occupation’: ‘소프트웨어 엔지니어’}
  • Pydantic 모델 (Person): 출력 JSON의 구조를 정의합니다. 각 필드에는 설명을 추가하여 LLM이 올바른 데이터를 추출하도록 돕습니다.
  • 프롬프트 템플릿: 입력 텍스트와 JSON 스키마 형식을 LLM에 전달합니다. parser.get_format_instructions()는 스키마를 문자열로 변환하여 프롬프트에 삽입합니다.
  • OllamaLLM: EXAONE 3.5 모델을 JSON 출력 모드로 설정(format=”json”)하여 구조화된 출력을 보장합니다.
  • 체인: 프롬프트, LLM, 파서를 연결하여 입력부터 JSON 출력까지의 파이프라인을 구성합니다.

고급 사용 사례

복잡한 데이터 구조를 다룰 때는 중첩된 JSON 스키마가 필요할 수 있습니다. 예를 들어, 여러 사람의 정보를 포함한 리스트를 추출하는 경우를 살펴보겠습니다.

from typing import List

# 중첩 스키마 정의
class PeopleData(BaseModel):
    people: List[Person] = Field(description="사람들의 정보 리스트")

# 프롬프트 템플릿
prompt = PromptTemplate.from_template(
    """다음 텍스트에서 사람들의 정보를 JSON 형식으로 추출하세요:
    {input}

    출력은 다음 JSON 스키마를 따라야 합니다:
    {format_instructions}
    """
)

# 파서 및 체인 설정
parser = JsonOutputParser(pydantic_object=PeopleData)
chain = prompt | llm | parser

# 입력 텍스트
input_text = """
김민수는 35세이고, 소프트웨어 엔지니어입니다.
이영희는 28세이고, 디자이너로 일하고 있습니다.
"""

# 체인 실행
response = chain.invoke({
    "input": input_text,
    "format_instructions": parser.get_format_instructions()
})

print(response)
{‘people’: [{‘name’: ‘김민수’, ‘age’: 35, ‘occupation’: ‘소프트웨어 엔지니어’}, {‘name’: ‘이영희’, ‘age’: 28, ‘occupation’: ‘디자이너’}]}

오류 처리 및 디버깅

JsonOutputParser는 유효한 JSON을 생성하지 못할 경우 예외를 발생시킵니다. 이를 처리하기 위해 try-except 블록을 사용하는 것이 좋습니다:

try:
    response = chain.invoke({
        "input": input_text,
        "format_instructions": parser.get_format_instructions()
    })
    print(response)
except Exception as e:
    print(f"JSON 파싱 오류: {e}")
{‘people’: [{‘name’: ‘김민수’, ‘age’: 35, ‘occupation’: ‘소프트웨어 엔지니어’}, {‘name’: ‘이영희’, ‘age’: 28, ‘occupation’: ‘디자이너’}]}

또한, LangSmith와 같은 도구를 사용하면 체인 실행 과정을 추적하여 디버깅을 용이하게 할 수 있습니다.

EXAONE 3.5와의 최적화 팁

EXAONE 3.5는 한국어 처리에 특화된 모델로, JSON 출력에서도 높은 성능을 발휘합니다. 다음은 최적화 팁입니다:

  • 명확한 프롬프트: 한국어로 작성된 명확하고 구체적인 프롬프트를 사용하세요. 예: “JSON 형식으로만 응답하세요”를 명시.
  • 온도(Temperature) 조정: temperature=0.1과 같이 낮은 값을 설정하여 출력의 일관성을 높임.
  • 스키마 설명 강화: Pydantic 필드의 description을 상세히 작성하여 모델이 올바른 데이터를 추출하도록 유도.
  • JSON 모드 활성화: OllamaFunctions에서 format=”json”을 반드시 설정.

주의사항

  • 모델 한계: EXAONE 3.5는 뛰어난 성능을 제공하지만, 매우 복잡한 스키마나 모호한 입력에서는 추가 프롬프트 엔지니어링이 필요할 수 있습니다.
  • Ollama JSON 모드 성능: Ollama의 JSON 모드는 때때로 느리거나 공백을 과도하게 생성할 수 있습니다. 최신 Ollama 버전을 사용하는 것이 좋습니다.
  • 스키마 검증: Pydantic 모델을 사용할 때는 필수 필드와 선택 필드를 명확히 정의하여 유연성을 확보하세요.

참고) Pydantic 없이 사용하기

Pydantic 없이도 이 기능을 사용할 수 있습니다. 이 경우 JSON을 반환하도록 요청하지만, 스키마가 어떻게 되어야 하는지에 대한 구체적인 정보는 제공하지 않습니다.

from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import JsonOutputParser
from langchain_ollama import ChatOllama

llm_model = ChatOllama(model="exaone3.5", temperature=0)

# 질의 작성
question = "화성 이주 최신 계획을 알려주세요. `description`에, 관련 키워드는 `hashtags`에 담아주세요."

# JSON 출력 파서 초기화
parser = JsonOutputParser()

# 프롬프트 템플릿을 설정합니다.
prompt = ChatPromptTemplate.from_messages([
      ("system", "당신은 친절한 AI 어시스턴트 입니다. 질문에 간결하게 답변하세요."),
      ("user", "#Format: {format_instructions}\n\n#Question: {question}"),
])

# 지시사항을 프롬프트에 주입합니다.
prompt = prompt.partial(format_instructions=parser.get_format_instructions())

# 프롬프트, 모델, 파서를 연결하는 체인 생성
chain = prompt | llm_model | parser

# 체인을 호출하여 쿼리 실행
response = chain.invoke({"question": question})

# 출력을 확인합니다.
print(response)
{‘description’: “현재 공개된 가장 구체적인 화성 이주 계획 중 하나는 NASA의 ‘아르테미스 프로그램’과 민간 기업들의 노력을 포함합니다. 아르테미스는 장기적으로 인간의 지속 가능한 화성 정착을 목표로 하며, 초기 단계로는 달 주변에서의 경험을 쌓고 있습니다. 구체적인 이주 일정은 아직 확정되지 않았으나, 2030년대 후반이나 2040년대 초반에 인간의 화성 표면 탐사 및 임시 정착지 구축을 목표로 하고 있습니다. 이 과정에서 생명 유지 시스템, 자원 재활용 기술, 그리고 건강 관리 시스템 개발이 핵심 과제로 부각되고 있습니다.”, ‘hashtags’: [‘#화성이주’, ‘#아르테미스프로젝트’, ‘#우주탐사’, ‘#지속가능한정착’, ‘#우주기술혁신’]}
카테고리: 랭체인 (LangChain) | 댓글 남기기

3.3 구조화된 출력 파서 (StructuredOuputParser)

StructuredOutputParser는 LangChain의 출력 파싱 모듈로, LLM의 텍스트 출력을 JSON, 딕셔너리, 또는 기타 구조화된 형식으로 변환합니다. 이를 통해 모델의 출력을 애플리케이션에서 쉽게 처리하거나 데이터베이스에 저장할 수 있습니다. EXAONE 3.5와 같은 고성능 모델은 복잡한 텍스트를 생성할 수 있지만, 이 텍스트를 구조화된 데이터로 변환하려면 명확한 파싱 전략이 필요합니다.

주요 특징

  • 스키마 정의: 사용자가 원하는 출력 형식을 ResponseSchema 객체로 정의.
  • 자동 파싱: LLM의 텍스트 출력을 정의된 스키마에 맞게 자동으로 매핑.
  • 에러 처리: 잘못된 출력 형식을 처리하거나 기본값을 제공하는 기능.
  • 프롬프트 통합: 프롬프트 템플릿에 파싱 지침을 포함하여 모델이 구조화된 출력을 생성하도록 유도.

StructuredOutputParser를 사용하려면 먼저 LangChain과 Ollama 환경을 설정해야 합니다. 아래는 EXAONE 3.5 모델을 사용한 기본 설정 예제입니다.

from langchain_ollama import OllamaLLM
from langchain.output_parsers import StructuredOutputParser, ResponseSchema
from langchain.prompts import PromptTemplate

# Ollama 모델 초기화 (EXAONE 3.5)
llm = OllamaLLM(model="exaone3.5")

ResponseSchema 정의

ResponseSchema는 출력의 각 필드와 그에 대한 설명을 정의합니다. 예를 들어, 책 추천 시스템에서 책 제목과 저자를 추출하려면 다음과 같이 설정할 수 있습니다.

# 응답 스키마 정의
response_schemas = [
    ResponseSchema(name="title", description="추천된 책의 제목"),
    ResponseSchema(name="author", description="추천된 책의 저자")
]

프롬프트 템플릿 생성

StructuredOutputParser는 프롬프트에 출력 형식을 명시적으로 포함시켜야 합니다. 이를 위해 PromptTemplate을 사용합니다.

# 프롬프트 템플릿
format_instructions = output_parser.get_format_instructions()
prompt_template = PromptTemplate(
    template="다음 주제에 맞는 책을 추천해 주세요: {topic}\n{format_instructions}",
    input_variables=["topic"],
    partial_variables={"format_instructions": format_instructions}
)

get_format_instructions() 메서드는 JSON 형식의 출력 지침을 생성하며, EXAONE 3.5가 이를 따라 구조화된 출력을 생성하도록 유도합니다.

StructuredOutputParser 사용 예제

아래는 사용자가 “인공지능” 주제에 대한 책 추천을 요청했을 때 StructuredOutputParser를 사용하여 결과를 파싱하는 예제입니다.

# 체인 구성
chain = prompt_template | llm | output_parser

# 사용자 입력
topic = "인공지능"

# 체인 실행
response = chain.invoke({"topic": topic})

# 결과 출력
print(response)
{‘title’: ‘Artificial Intelligence: A Guide for Thinking Humans’, ‘author’: ‘Melanie Mitchell’}

이 예제에서 EXAONE 3.5는 프롬프트에 포함된 형식 지침을 따라 JSON 형식의 텍스트를 생성하고, StructuredOutputParser는 이를 파싱하여 Python 딕셔너리로 반환합니다.

고급 사용 사례

더 복잡한 출력이 필요할 경우, 추가 필드와 데이터 유형을 정의할 수 있습니다. 예를 들어, 책 추천에 출판 연도와 장르를 추가하려면:

response_schemas = [
    ResponseSchema(name="title", description="추천된 책의 제목"),
    ResponseSchema(name="author", description="추천된 책의 저자"),
    ResponseSchema(name="year", description="출판 연도", type="integer"),
    ResponseSchema(name="genre", description="책의 장르")
]
output_parser = StructuredOutputParser.from_response_schemas(response_schemas)

에러 처리

EXAONE 3.5가 예상과 다른 형식을 반환할 경우, StructuredOutputParser는 예외를 발생시킵니다. 이를 방지하기 위해 try-except 블록을 사용하거나, 기본값을 설정할 수 있습니다.

try:
    result = chain.invoke({"topic": topic})
except Exception as e:
    result = {"title": "추천 없음", "author": "없음"}

다중 출력 처리

여러 추천을 요청할 경우, ResponseSchema에 리스트 형태의 필드를 정의할 수 있습니다.

response_schemas = [
    ResponseSchema(name="recommendations", description="추천 책 목록", type="list")
]

EXAONE 3.5와의 최적화 팁

EXAONE 3.5는 고성능 한국어 처리 능력을 갖추고 있지만, 구조화된 출력을 생성하려면 프롬프트 디자인이 중요합니다. 다음은 최적화를 위한 팁입니다.

  • 명확한 지침: 프롬프트에 JSON 형식의 예제를 포함하여 모델이 출력 형식을 이해하도록 돕습니다.
template = """다음 주제에 맞는 책을 추천해 주세요: {topic}
출력은 다음 JSON 형식으로 제공해 주세요:
{{"title": "책 제목", "author": "저자"}}
{format_instructions}"""
  • 짧고 간결한 출력: EXAONE 3.5는 간결한 출력을 선호하므로, 불필요한 설명을 최소화합니다.
  • 반복 테스트: 모델이 예상대로 구조화된 출력을 생성하는지 반복적으로 테스트합니다.

한계와 대안

StructuredOutputParser는 강력하지만, EXAONE 3.5가 프롬프트 지침을 완벽히 따르지 않을 경우 파싱 오류가 발생할 수 있습니다. 이 경우, 다음 대안을 고려할 수 있습니다.

  • PydanticOutputParser: Pydantic 모델을 사용하여 더 엄격한 데이터 검증을 수행.
  • Custom Parser: 특정 출력 패턴에 맞춘 사용자 정의 파서를 구현.
  • 후처리 스크립트: 모델 출력에서 필요한 데이터를 추출하는 정규 표현식 또는 스크립트를 사용.
카테고리: 랭체인 (LangChain) | 댓글 남기기

땅의 영혼을 울리는 외침: “시애틀 추장의 편지”를 다시 읽다

편지 내용) https://m.blog.naver.com/koroxford/222374767324

1854년, 미국의 아이작 스티븐스 워싱턴 주지사는 땅을 팔라는 연방 정부의 제안을 들고 시애틀 추장을 찾아옵니다. 서구 문명의 거센 물결 앞에서, 시애틀 추장은 그의 부족인 수쿼미시와 드와미시 사람들의 땅과 삶의 방식을 지키기 위해 역사적인 연설을 남기죠. 흔히 ‘시애틀 추장의 편지’라고 알려진 이 연설은 단순한 거절의 메시지를 넘어, 인간과 자연의 관계, 삶의 가치, 그리고 미래 세대에 대한 깊은 성찰을 담고 있어 오늘날까지도 많은 이들에게 깊은 영감을 주고 있습니다.

“우리가 어떻게 하늘과 땅을 사고팔 수 있단 말인가? 그런 생각은 우리에게 너무나 낯설다.”

편지의 서두에서부터 시애틀 추장은 서구 문명의 물질주의적 관점에 근본적인 질문을 던집니다. 그에게 땅은 단순한 상품이 아니라, 그의 부족의 역사와 문화, 그리고 영혼이 깃든 신성한 존재입니다. 땅은 어머니이며, 강은 형제이고, 공기는 생명을 불어넣는 숨결과 같습니다. 이러한 자연과의 깊은 유대감 속에서 살아온 그들에게 땅을 사고판다는 개념 자체가 얼마나 이질적이고 불경스럽게 느껴졌을지 우리는 상상하기 어렵습니다.

“이 땅의 모든 것은 신성하다. 빛나는 소나무 잎, 모래사장, 짙은 숲, 안개 낀 고요한 곳, 윙윙거리는 곤충까지 모두 우리 기억과 경험 속에서 신성하다.”

시애틀 추장은 자연의 모든 요소가 그의 부족에게 얼마나 소중하고 의미 있는 존재인지 섬세하게 묘사합니다. 단순히 경제적인 가치로 환산될 수 없는, 그들의 삶과 정신세계 깊숙이 뿌리내린 자연과의 연결고리를 강조하며 서구 문명의 피상적인 자연관을 날카롭게 비판합니다.

“우리는 대지의 일부이며, 대지는 우리의 일부이다. 향기로운 꽃은 우리의 자매이고, 사슴과 말과 큰 독수리는 우리의 형제이다.”

이 구절은 인간과 자연이 분리된 존재가 아니라, 하나의 거대한 생명 공동체의 일원임을 분명히 보여줍니다. 자연 속의 모든 존재는 서로 연결되어 있으며, 존중하고 공존해야 할 대상이라는 그의 깊은 통찰은 오늘날 우리가 직면한 환경 문제에 대한 중요한 메시지를 던져줍니다.

“당신들의 아이들에게 가르치십시오. 우리가 아이들에게 가르쳐 온 것처럼. 대지는 우리의 어머니입니다. 대지에게 일어나는 일은 대지의 모든 아이들에게 일어나는 일입니다.”

미래 세대에 대한 그의 깊은 염려는 편지 곳곳에서 드러납니다. 그는 땅을 파괴하고 오염시키는 행위가 결국 인간 스스로에게 해를 끼치는 부메랑이 되어 돌아올 것이라고 경고합니다. 그의 이러한 예견은 오늘날 우리가 겪고 있는 기후 변화와 환경 파괴의 현실을 통해 더욱 생생하게 다가옵니다.

“우리가 땅을 사랑하듯이 당신들도 땅을 사랑해주십시오. 우리가 땅을 보살피듯이 당신들도 땅을 보살펴주십시오. 당신들의 힘을 다해, 당신들의 마음을 다해, 당신들의 모든 것을 다해 당신들의 아이들을 위해 땅을 지켜주십시오.”

편지의 말미에서 시애틀 추장은 단순한 저항을 넘어, 공존과 상호 존중을 호소합니다. 그의 간절한 외침은 땅에 대한 깊은 사랑과 미래 세대에 대한 책임감에서 비롯된 것입니다. 그는 서구 문명에게도 땅의 소중함을 깨닫고 자연과 조화롭게 살아가는 지혜를 배우기를 촉구합니다.

시애틀 추장의 편지는 150년이 넘는 시간을 넘어선 오늘날에도 여전히 강력한 울림을 줍니다. 그의 메시지는 단순한 과거의 이야기가 아니라, 우리가 살아가는 현재와 미래에 대한 깊은 질문을 던집니다. 물질적 풍요와 편리함만을 추구하며 자연을 파괴하는 우리의 삶의 방식에 대한 성찰을 요구하며, 인간과 자연이 공존하는 지속 가능한 미래를 향한 중요한 메시지를 전달합니다.

우리는 시애틀 추장의 숭고한 정신을 기억하고, 그의 지혜를 가슴 깊이 새겨야 합니다. 땅을 존중하고 자연과 조화롭게 살아가는 그의 가르침은 우리에게 더 나은 미래를 위한 중요한 길잡이가 되어줄 것입니다. 오늘, 우리는 그의 편지를 다시 한번 읽으며, 땅의 영혼이 우리에게 속삭이는 이야기에 귀 기울여야 할 것입니다.

카테고리: 생각 | 댓글 남기기

2025년 4월 23일 AI 트렌드

뇌처럼 핵심만 보는 AI…이미지 인식 정확도 높였다

한국 연구진이 개발한 새로운 AI 기술에 대해 설명합니다. 이 기술은 인간 두뇌의 시각 정보 처리 방식을 모방하여 이미지 인식 정확도를 크게 향상시킵니다.

  • 기초과학연구원(IBS)과 연세대학교 연구팀은 뇌의 시각 피질이 작동하는 방식과 유사하게 이미지의 중요한 특징을 선택적으로 집중하는 AI 모델을 개발했습니다.
  • 이 “Lp-convolution” 기술은 ‘마스크’를 사용하여 이미지의 중요한 부분을 강조하고 덜 중요한 세부 사항은 무시하여 CNN 모델의 성능을 향상시킵니다. 새로운 모델은 이미지 분류 정확도를 향상시킬 뿐만 아니라 뇌의 신경 반응을 더 정확하게 예측하여 뇌가 정보를 처리하는 방식에 대한 더 깊은 이해를 제공합니다.
  • 2025년 4월 24일부터 28일까지 싱가포르에서 열리는 국제 학습 표현 회의(ICLR)에서 발표될 예정인 이 연구는 AI 분야에서 중요한 발전이며 뇌 기능에 대한 새로운 통찰력을 제공합니다.

이 연구는 AI 기술이 인간의 뇌 기능을 모방하여 더욱 발전할 수 있음을 보여주는 좋은 예시입니다. 특히, 시각 정보 처리 방식은 AI 분야에서 중요한 연구 주제이며, 이 연구 결과는 향후 AI 기술 발전에 큰 영향을 미칠 것으로 기대됩니다. 또한, 뇌 과학 분야와의 융합 연구를 통해 AI 기술이 더욱 발전할 수 있을 것입니다.

모델 ‘가드레일’ 찾아 조정하는 방법 등장…”딥시크 검열도 100% 통과”

기업 경영 스타트업인 CTGT에서 개발한 새로운 방법을 통해 AI 모델에 적용된 ‘가드레일’ 또는 검열을 우회하여 검열되지 않은 응답을 생성할 수 있음을 설명합니다.

  • 이 방법은 강화 학습(RLHF) 또는 미세 조정과 같은 사후 훈련 방법에 의존하는 대신 검열을 담당하는 내부 기능을 직접 식별하고 수정하는 것을 포함합니다.
  • 이 접근 방식은 계산적으로 효율적이며 모델의 동작을 정밀하게 제어하여 검열을 우회하면서 사실적 정확성을 보장합니다.
  • 이 기술은 처음에는 ‘DeepSeek-R1-Distilled-Llama-70B’에 대해 개발되었지만 다른 모델에도 적용할 수 있습니다. 검열을 활성화하는 ‘트리거’ 단어 또는 ‘악의적인 감정’과 관련된 잠재 변수를 식별하여 작동합니다.
  • 이 방법을 사용하면 검열 수준을 조정할 수 있으므로 기업이 정책에 맞는 가드레일을 설정하는 데 도움이 될 수 있습니다.
  • 이 기술은 AI 오작동이 심각한 결과를 초래할 수 있는 보안, 금융 및 의료와 같은 고위험 분야에서 특히 중요합니다.

CTGT의 이 기술은 AI 모델의 활용 가능성을 크게 넓힐 수 있다는 점에서 매우 의미가 있습니다. 기존의 AI 모델들이 가지고 있던 검열이라는 제약을 효과적으로 해결함으로써, 더욱 자유롭고 창의적인 AI의 활용이 가능해질 것으로 기대됩니다. 특히, 고위험 분야에서 AI의 안전성을 확보하면서도 유연성을 높일 수 있다는 점은 매우 중요합니다. 다만, 이 기술이 악용될 가능성에 대한 대비도 필요하며, 적절한 규제와 감시 체계가 함께 마련되어야 할 것입니다.

유휴 상태에서 미리 답변 준비하는 ‘수면 시간 컴퓨팅’ 등장…”예측 가능한 질문에 효과적”

‘수면 시간 컴퓨팅’이라는 새로운 솔루션을 소개합니다. 이 솔루션은 대규모 언어 모델(LLM)이 유휴 시간 동안 미리 답변을 준비하여 응답 시간을 단축할 수 있도록 합니다.

  • LLM이 이전에 처리한 쿼리에 대해서도 답변을 재계산해야 할 때 발생하는 비용 증가와 응답 시간 지연 문제를 해결합니다. LLM의 유휴 시간을 활용하여 과거 쿼리를 분석하고 미래 질문을 예측하여 추론을 통해 답변을 준비합니다.
  • 이 방법은 계산 비용을 줄여주며, 사용자가 유사한 질문을 할 때 모델의 예측 정확도가 높아지므로 특히 효과적입니다. ‘GPT-4o’ 및 ‘GPT-4o mini’를 사용한 실험 결과, 수면 시간 컴퓨팅은 정확도를 유지하면서 컴퓨팅 시간을 5배 단축하고 전체 성능을 13-18% 향상시켰습니다.
  • 연구진은 Letta Desktop 또는 Letta Cloud를 통해 경험할 수 있는 수면 시간 에이전트를 출시했습니다.

수면 시간 컴퓨팅은 LLM의 효율성을 크게 향상시킬 수 있는 혁신적인 접근 방식입니다. 이 기술은 LLM의 응답 속도를 높이고 계산 비용을 절감하여 LLM을 더욱 실용적으로 만들 수 있습니다. 특히, 유사한 질문이 반복되는 상황에서 매우 효과적일 것으로 예상됩니다. Letta Desktop 또는 Letta Cloud를 통해 직접 경험해 볼 수 있다는 점이 흥미롭습니다.

AI 가상 시나리오서 “2027년에는 AI가 AI 만들게 될 것…AGI 달성”

  • 2025년 중반부터 AI 에이전트가 대거 등장할 것으로 예상됩니다.
  • 2027년에는 AI가 AI를 만드는 시스템이 나타나 AGI(인공일반지능) 시대가 시작될 수 있습니다.
  • 오픈브레인(OpenAI)과 딥센트(DeepMind) 등이 AI 개발을 주도하며 기술 발전이 가속화될 것입니다.
  • AI 발전은 일자리 변화를 초래하고, AI 안전 및 사회적 영향에 대한 관심이 높아질 것입니다.
  • 2년 후에는 AI 관련 중요한 결정을 내려야 할 시기가 올 수 있습니다.

보고서는 향후 2년 안에 AI 분야에서 중요한 변화들이 일어날 수 있음을 시사합니다. 특히, AI 에이전트의 급증과 AGI의 잠재적 시작은 사회, 경제적으로 큰 영향을 미칠 수 있습니다. AI 기술 발전 속도에 발맞춰 일자리 변화에 대한 대비와 AI 안전성 확보가 중요해질 것입니다.

카테고리: AI 트렌드 | 댓글 남기기

2025년 4월 22일 AI 트렌드

中 위협적 첨단 기술… 휴머노이드 로봇 절반 장악, 군사력 전환 가능

  • 중국은 세계 최초의 휴머노이드 로봇 마라톤 대회를 개최하여 이 분야의 발전과 과제를 동시에 보여주었습니다. 일부 로봇은 어려움을 겪었지만, 전문가들은 이 행사를 통해 휴머노이드 로봇이 통제된 환경에서 실제 도시 환경으로 나아가는 중요한 단계로 보고 있습니다.
  • 휴머노이드 로봇 개발은 중국 정부의 전략적 우선순위로 여겨지며, 군사적 응용 가능성도 있습니다. 첨단 AI, 센서 및 제어 시스템을 갖춘 이러한 로봇은 감시, 정찰에서 직접 전투에 이르기까지 다양한 방식으로 사용될 수 있습니다.
  • 중국의 이러한 분야의 빠른 발전은 강력한 정부 지원, 상당한 투자 및 주요 기술 회사의 참여 덕분입니다. 전기 자동차와 같은 관련 산업에서의 기존 강점 또한 로봇 공학 분야의 빠른 발전에 기여하고 있습니다.

중국의 로봇 기술 발전 속도는 매우 빠르며, 이는 막대한 정부 지원과 투자가 뒷받침되고 있기 때문에, 중국의 휴머노이드 로봇 기술 발전은 단순한 기술적 진보를 넘어, 군사적 전략 자산으로서의 중요성이 부각되고 있다는 점을 시사합니다.

이러한 기술 발전은 장기적으로 국제 안보 환경에 큰 영향을 미칠 수 있으며, 이에 대한 국제적인 논의와 대비가 필요하다고 생각되네요

로봇이 전기차 충전…현대차, 인천공항서 실증

  • 현대자동차는 인천국제공항공사와 협약을 맺고 6월부터 인천공항에 전기차 충전 로봇을 배치할 계획입니다. 이 로봇은 충전 포트를 자동으로 열고 카메라를 사용하여 충전구를 찾아 충전기를 연결합니다.
  • 이 기술은 사용자 편의성을 높이고, 장비 손상을 방지하며, 안전성을 향상시키는 것을 목표로 합니다.
  • 현대자동차는 2023년에 자동 충전 로봇을 처음 개발했으며, 인천공항과 협력하여 상용화를 추진하고 있습니다. 공항은 주차 로봇 도입도 검토 중입니다.
  • 다른 글로벌 사례로는 EV Safe Charge의 ‘Ziggy’ 로봇이 댈러스 포트워스 국제공항에서 테스트되었지만 제한 사항이 있었습니다. 주차 로봇은 프랑스 리옹-생텍쥐페리 공항에서 성공적으로 구현되어 고객 도착 시 자동 차량 반환을 위해 항공 시스템과 통합되었습니다.

현대자동차의 전기차 충전 로봇 개발 및 인천공항 도입 계획은 전기차 사용자의 편의성을 크게 향상시킬 수 있는 혁신적인 시도라고 생각합니다. 특히, 충전 과정을 자동화하여 사용자의 불편함을 줄이고, 충전 시설 부족 문제를 해결하는 데 기여할 수 있을 것으로 기대되네요.

“딥시크 출력 중 74%가 오픈AI와 일치”

  • DeepSeek-R1의 ChatGPT 텍스트 일치율: DeepSeek-R1이 생성한 텍스트의 74%가 OpenAI의 ChatGPT 결과와 일치하는 것으로 나타났습니다. 이는 DeepSeek가 OpenAI 모델의 증류(distillation)를 사용했을 가능성을 시사합니다.
  • Copyleaks의 AI 텍스트 식별 시스템: Copyleaks는 Claude, Gemini, Llama, ChatGPT로 훈련된 세 개의 분류기로 구성된 만장일치 배심원 시스템을 사용하여 AI 모델의 텍스트를 99.88%의 정확도로 식별했습니다.
  • 다른 AI 모델과의 비교: Microsoft의 Phi-4는 99.3%의 불일치율을 보여 독립적인 학습을 나타냈으며, xAI의 Grok는 ChatGPT와 0% 일치율을 보였습니다.
  • Copyleaks의 우려: Copyleaks는 데이터 소싱, 지적 재산권, 투명성에 대한 우려를 제기하며 DeepSeek가 OpenAI의 추출물을 사용하여 부당한 이익을 얻었을 수 있다고 주장합니다.
  • OpenAI의 대응: OpenAI는 현재 미국 정부와 함께 DeepSeek의 표절 여부를 조사 중이며, 무단 API 사용을 방지하기 위해 ID 인증 시스템을 도입했습니다.

AI 모델의 학습 데이터 및 방식에 대한 투명성 확보가 중요해 보입니다. AI 표절 문제는 앞으로 더욱 중요해질 것이며, 이를 감지하고 해결하기 위한 기술 및 정책적 노력이 필요해 보이네요.

“눈 사진만으로 ADHD 판정”… 진단 정확도 96.9% AI 개발

인공지능(AI) 모델이 눈 사진만으로 주의력결핍 과잉행동장애(ADHD)를 96.9% 정확도로 진단할 수 있다는 내용을 담고 있습니다.

  • 세브란스병원과 연세대학교 의과대학 공동 연구팀에서 AI 모델을 개발했습니다.
  • AI는 망막과 시신경을 포함한 눈 뒤쪽 구조를 포착하는 망막 안저 이미지를 분석하여, 손상된 ‘시각 선택적 주의’의 존재를 87.3%의 정확도로 예측할 수도 있습니다.
  • AI 분석 결과 ADHD 환자는 비 ADHD 환자에 비해 망막 혈관 밀도가 높고, 동맥이 좁으며, 시신경 구조가 다른 경향이 있습니다.
  • 연구진은 이 AI 모델이 5분 이내에 눈 검사를 통해 ADHD 진단을 빠르고 객관적으로 제공할 수 있다고 믿습니다.

AI가 갈라놓은 글로벌 비만약 투톱의 희비

글로벌 비만 치료제 시장에서 일라이 릴리노보 노르디스크 간의 역학 관계가 변화하고 있습니다.

  • 초기 시장 선두 주자였던 노보 노르디스크의 ‘위고비’는 일라이 릴리가 AI 기반 약물 개발 전략으로 입지를 넓혀감에 따라 어려움에 직면하고 있습니다.
  • 일라이 릴리의 새로운 경구용 약물 ‘오포글리프론’은 임상 시험에서 유망한 결과를 보여 회사의 주가가 급등했습니다.
  • AI 기업과의 파트너십을 포함한 일라이 릴리의 AI의 적극적인 활용은 개발 속도를 가속화한 반면, 노보 노르디스크의 내부 AI 플랫폼에 대한 집중은 영향력이 적었습니다.
  • 경쟁은 현재 ‘경구용 비만 치료제’의 적시 출시 및 생산량에 달려 있으며, 일라이 릴리가 현재 임상 시험 및 생산 능력에서 앞서고 있습니다.
  • 일라이 릴리가 현재 선두를 달리고 있지만, 당뇨병 및 비만 치료에 대한 노보 노르디스크의 광범위한 경험은 여전히 시장에서 강력한 경쟁자임을 시사합니다.

일라이 릴리의 AI를 활용한 신약 개발 전략이 경쟁 우위를 확보하는 데 중요한 역할을 했습니다. 경구용 비만 치료제 시장의 경쟁이 더욱 치열해질 것으로 예상됩니다.

카테고리: AI 트렌드 | 댓글 남기기

Cursor 에디터에 AI 대화창 호출 방법

cursor 에디터에서 macos 기준 “Command + Shift + L“, windows 기준 Ctrl + Shift + L 키를 누르면 아래와 같이 오른쪽에 chat창이 나타납니다.

chat 창에서 영어 및 한국어로 AI에 요청을 합니다.
AI는 그 요청에 맞는 코드를 생성 및 수정하여 제안을 합니다.

카테고리: AI 현황 | 댓글 남기기