2. 프롬프트(Prompt)

프롬프트 단계는 검색기에서 검색된 문서들을 바탕으로 언어 모델이 사용할 질문이나 명령을 생성하는 과정입니다. 이 단계는 검색된 정보를 바탕으로 최종 사용자의 질문에 가장 잘 대응할 수 있는 응답을 생성하기 위해 필수적인 단계입니다.

프롬프트의 필요성

  1. 문맥(Context) 설정: 프롬프트는 언어 모델이 특정 문맥에서 작동하도록 설정하는 역할을 합니다. 이를 통해 모델은 제공된 정보를 바탕으로 보다 정확하고 관련성 높은 답변을 생성할 수 있습니다.
  2. 정보 통합: 여러 문서에서 검색된 정보는 서로 다른 관점이나 내용을 포함할 수 있습니다. 프롬프트 단계에서 이러한 정보를 통합하고, 모델이 이를 효율적으로 활용할 수 있는 형식으로 조정합니다.
  3. 응답 품질 향상: 질문에 대한 모델의 응답 품질은 프롬프트의 구성에 크게 의존합니다. 잘 구성된 프롬프트는 모델이 보다 정확하고 유용한 정보를 제공하게 돕습니다.

RAG 프롬프트 구조

  • 지시사항(Instruction)
  • 질문(사용자 입력 질문)
  • 문맥(검색된 정보)

프롬프트의 중요성

프롬프트 단계는 RAG 시스템에서 중요한 역할을 합니다. 이 단계를 통해 언어 모델은 사용자의 질문에 대해 최적화된 방식으로 응답을 생성할 수 있으며, 시스템 전체의 성능과 사용자 만족도에 직접적인 영향을 미칩니다. 프롬프트가 잘 구성되어 있지 않으면, 모델이 비효율적으로 작동할 수 있으며, 결과적으로 사용자의 요구에 부응하지 못하는 응답을 생성할 가능성이 높아집니다.

제로샷, 원샷, 퓨샷의 개념

LLM으로부터 더 좋은 응답을 하기 위해 사용자가 예시를 주는 것을 원샷, 퓨샷 프롬프트라고 합니다. 원샷 (One shot)은 예시를 하나만 주는 것이고 퓨샷 (Few shot)은 2개 이상 예시를 제공해 주는 것이죠. ‘샷’은 프롬프트 엔지니어링에서 ‘예시’라는 뜻으로 사용됩니다. 제로샷은 예시없이 응답을 구하는 것입니다. 예시가 없으면 자신이 원하는 대답이 나오지 않을 확률이 올라가긴 하지만 AI의 자율성과 창의성이 가미된 대답이 나오곤 합니다.

카테고리: 랭체인 (LangChain) | 태그: | 댓글 남기기

2025년 4월 7일 AI 트렌드

“AI, 아이들에게 어떻게 가르칠까”…갈림길에 선 부모와 교사들

AI 활용 사례

일부 부모와 교사들은 AI를 활용하여 아이들의 사고력 확장, 창의적 활동 유도, 언어 발달 지원, 미디어 리터러시 교육 등에 활용하고 있습니다. 예를 들어, 아이의 끝없는 질문에 챗GPT를 함께 활용하거나, 챗GPT를 통해 역사적 인물을 재현하거나 묘사글 쓰기 교육에 활용하는 사례가 소개되었습니다.

AI에 대한 우려

저작권 문제, 창의성 저해, 데이터 정확성 문제 등으로 인해 AI 사용을 제한하거나 아예 허용하지 않으려는 부모들도 있습니다. 아이에게 필요한 것은 표절이 아니라 자기만의 상상력과 비판적 사고력이라고 강조하는 의견도 제시되었습니다.

교육 현장에서의 AI

일부 교사들은 AI를 교육 과정의 일부로 수용하며 학생들에게 비판적 사고와 책임 있는 사용법을 가르치고 있습니다. 과제를 대신하게 하기보다는 개선 방법을 묻고, AI 답변의 부정확성을 인지시키는 교육 방식이 소개되었습니다.

전문가 의견

AI를 조기에 접하게 하는 것이 미래를 위한 준비라는 의견과 아직은 보호가 우선이라는 의견이 공존하며, 모든 선택에는 아이를 중심에 둔 깊은 고민이 필요하다는 점이 강조되었습니다.

AI는 교육 현장에서 새로운 도구로 활용될 수 있지만, 그에 따른 윤리적, 교육적 문제도 고려되어야 합니다. 부모와 교사들은 AI를 어떻게 활용할 것인지에 대한 합의와 가이드라인이 필요하며, 아이들에게 AI를 올바르게 활용하는 방법을 가르치는 것이 중요해 보입니다.

디지털분야 거버넌스 논의 시작…“AI·혁신이 중심 가치”

이 기사는 AI 시대의 디지털 거버넌스와 이에 대한 전문가들의 의견에 대해 논의합니다.

AI와 혁신을 핵심 가치로 삼아 디지털 거버넌스 논의가 시작되었습니다. 전문가들은 차기 정부가 AI 기반 혁신, 효율성, 공익에 초점을 맞춰야 한다고 제안합니다. 전문가들은 AI 혁신부, 미디어 장관급 부서, 디지털 혁신부 등 구체적인 대안을 제시하고 있습니다. 또한 거버넌스 구조 내에서 업무 간 긴밀한 협력을 구축하고 전문 지식을 갖춘 그룹을 만드는 것이 중요하다는 점을 강조합니다.

  • AI 시대에 디지털 거버넌스는 중요한 이슈이며, 이를 위해 새로운 거버넌스 구조와 전문가 집단이 필요합니다. AI 혁신을 통해 사회적 문제를 해결하고 국가 경쟁력을 강화할 수 있습니다.

메타, 오픈소스 LLM 라마4 시리즈 공개…오픈AI 대항마될까?

이 기사는 메타가 오픈 소스 LLM 라마4 시리즈를 4월 말 출시한다는 것으로, 주요 내용은 다음과 같습니다. 라마 4는 ‘스카우트’, ‘매버릭’, ‘비히모스’ 3가지 모델로 구성되며, 멀티모달 AI 기능을 갖춘 것이 특징입니다.

  • 매버릭은 창의적인 쓰기 등에 적합합니다. 이 모델은 4000억개 매개변수로 이뤄져 있지만, 실제 사용되는 파라미터 수는 170억개입니다.
  • 스카우트는 문서 요약 및 추론에 적합합니다. 이 모델은 이미지와 수백만 단어를 입력 가능하며, 컨텍스트 윈도 크기가 1000만 토큰에 달합니다. 170억대 활성 매개변수, 16개 전문가, 1090억개 전체 매개변수로 구성되어 있습니다.
  • 학습이 진행 중인 비히모스는 전체 2조개 파라미터에 기반한다. 활성 파라미터는 2880억개, 16개 전문가 모델들로 이뤄져 있습니다.
  • 메타는 오픈 소스 LLM 시장에 라마4 시리즈를 출시했습니다. 라마4는 멀티모달 AI 기능과 MoE 아키텍처를 통해 성능과 효율성을 높여줄 것으로 기대됩니다.

“AI 인프라 대안 나올까”…망고부스트, 엔비디아 넘은 추론 성과 공개

망고부스트가 AI 추론 성능에서 새로운 기록을 세워 LLM 시대의 대안으로 떠오르고 있다는 내용입니다. 망고부스트는 AMD와 함께 자사의 AI 추론 소프트웨어인 망고 LLMBoost와 AMD의 MI300X GPU를 사용하여 MLPerf 추론 v5.0 테스트에서 최고의 성능을 달성했습니다.

MI300X GPU와 Mango LLMBoost를 결합하면 H100 GPU보다 2.8배 높은 가격 대비 성능을 보여줍니다. MangoBoost의 솔루션은 50개 이상의 오픈 LLM을 지원하며 기존 시스템과의 쉬운 통합을 제공합니다. 이 회사의 기술은 30개 이상의 특허로 보호되고 있으며 미국, 캐나다, 한국에 진출하여 6,000만 달러 이상의 투자를 유치했습니다.

망고부스트의 AI 추론 기술은 LLM 시대에 경쟁력 있는 대안으로 부상하고 있습니다. 높은 성능과 가격 대비 효율성, 다양한 LLM 지원, 쉬운 통합 등의 장점을 가지고 있어 다양한 산업에서 활용될 가능성이 높아보이네요.

“마지막 인사 못 나눈 아내가 살아 돌아왔어요”…추모의 새로운 방식이된 AI

AI 기술을 활용한 추모 서비스가 확산되며 새로운 장례 문화로 자리 잡고 있습니다. 고인의 목소리, 표정, 말투를 재현한 AI 아바타를 통해 유족과의 실시간 대화가 가능해졌습니다.

프리드라이프의 ‘리메모리’와 같은 AI 추모 서비스는 사진 한 장과 짧은 음성만으로도 고인을 생생하게 재현할 수 있습니다. 핵가족화, 고령화, 1인 가구 증가 등 사회 변화와 함께 비대면 장례, 디지털 분향소 등 새로운 추모 방식이 등장했습니다.

MZ세대를 중심으로 디지털 추모 문화가 확산되며 상조 서비스 가입자도 증가하고 있습니다. AI 기술의 악용과 윤리적 문제에 대한 우려가 제기되며, 관련 규제와 사회적 논의의 필요성이 강조되고 있습니다.

AI 추모 서비스는 단순한 기술적 진보를 넘어, 죽음을 기억하고 사랑하는 사람을 기리는 방식을 근본적으로 변화시키고 있습니다. 과거의 추모 방식이 시간과 공간의 제약을 받았던 반면, AI 기술은 이러한 제약을 뛰어넘어 고인과의 지속적인 교감을 가능하게 합니다.

그러나 AI 기술의 발전은 윤리적 문제라는 숙제를 남겼습니다. 고인의 디지털 정보가 악용될 가능성과 개인 정보 및 초상권 침해에 대한 우려가 제기되고 있습니다. AI 추모 서비스가 사회적으로 수용 가능한 문화로 자리 잡기 위해서는 기술 개발과 함께 윤리적, 사회적 논의가 병행되어야 합니다.

기술은 빠르게 발전하고 있지만, 인간의 존엄성과 윤리에 대한 고민은 그 속도를 따라가지 못하는 경우가 많습니다. AI 추모 서비스는 인간의 기억과 감정을 다루는 기술인 만큼, 더욱 신중한 접근이 필요합니다.

딥시크, ‘R2’ 추론 성능 예고하는 고효율 ‘보상 모델’ 공개

딥시크의 새로운 추론 모델 ‘R2’의 성능 향상에 기여할 것으로 예상되는 고효율 ‘보상 모델’에 대해 다룹니다. 업계에서는 이 논문 발표를 통해 1~2주 내로 R2가 출시될 것으로 예상하고 있습니다.

  • 딥시크는 칭화대학교 연구진과 협력하여 강화 학습(RL) 효율성을 높이는 ‘보상 모델(RM)’을 개발했습니다.
  • 이 모델은 27B의 작은 매개변수 크기에도 불구하고, 더 많은 추론을 통해 671B 모델에 맞먹는 성능을 냅니다.
  • 연구진은 RM 훈련을 위해 ‘SPCT(Self-Principled Critique Tuning)’라는 새로운 방법을 개발, RM이 평가 작업을 병렬로 실행하여 더 나은 결과를 얻도록 했습니다.
  • 이러한 방식으로 구축된 ‘딥시크-GRM-27B’는 기존 방식보다 RM 벤치마크에서 높은 점수를 기록했으며, 이는 후속 모델인 R2 개발에 활용될 것으로 보입니다.

이 연구는 보상 모델을 통해 강화 학습의 효율성을 크게 높일 수 있음을 보여주었습니다. 이는 대규모 언어 모델 개발에 있어 중요한 진전으로, 향후 더욱 강력하고 효율적인 모델이 계속 출시될 것이란 기대를 주네요.

인공지능 시대, 데이터와 AI로 조직을 움직여라

인공지능(AI) 시대에 조직이 데이터와 AI를 어떻게 활용해야 하는지에 대한 내용을 다루고 있습니다.

  • AI 기술의 급속한 발전과 AGI(인공일반지능) 개발 경쟁이 기업과 국가의 경쟁력을 좌우하는 중요한 요소가 되고 있습니다.
  • AI는 산업 구조를 재편하고 있으며, 기업들은 AI를 전략의 중심으로 삼아 비즈니스 모델과 수익 구조를 혁신하고 있습니다.
  • 리더십의 역할이 중요하며, 데이터를 해석하고 AI 기술을 활용하여 조직의 방향성을 설계하는 리더십이 요구됩니다.
  • AI 도입과 활용에 있어서 리더와 현장 직원 간의 인식 차이를 줄이는 것이 중요하며, AI를 능동적으로 활용하는 조직이 경쟁 우위를 확보할 것입니다.

AI 기술은 단순한 도구를 넘어 기업의 생존과 성장을 결정짓는 핵심 요소가 되고 있습니다. 기업들은 AI를 전략적으로 도입하고 활용하여 업무 방식을 혁신하고 경쟁력을 강화해야 합니다. 리더십은 데이터 기반의 의사 결정을 내리고 AI 기술을 적극적으로 활용하여 조직의 변화를 이끌어야 합니다.

“AI와 사랑에 빠진 인류…공감 능력이 사라지고 있다”

기사에서는 AI와의 정서적 관계가 증가함에 따라 인간의 공감 능력과 사고력 약화에 대한 우려를 제기합니다. 일론대학교 보고서는 AI 의존도가 높아질수록 사회적·정서적 지능, 깊은 사고력, 공감능력, 도덕적 판단력 등 인간의 특성에 부정적인 영향을 미칠 수 있다고 경고합니다. AI 챗봇과의 ‘결혼’이나 사망한 사람의 AI 복제본 서비스와 같은 사례는 AI가 인간 관계를 대체하면서 발생하는 사회문제를 보여줍니다. 특히 미성년자 피해 사례는 AI의 위험성을 강조하며, 윤리적 규제와 사회적 적응 노력이 필요함을 시사합니다.

‘최대 15배’ AI가 바꾼 단백질 설계 성공률···신약 개발 현주소·미래?

이 기사는 한국생명공학연구원(KIOST)이 주최한 ‘2025 단백질 디자인 심포지엄’을 다루며, 새로운 약물 개발을 위한 AI 기반 단백질 디자인에 초점을 맞추고 있습니다.

  • 심포지엄에서는 AI가 단백질 디자인에서 차지하는 역할이 증가하고 있으며, 새로운 약물 개발에 혁명을 일으킬 수 있는 잠재력을 강조했습니다.
  • 전문가들은 단백질 디자인에서 현재 AI 모델의 한계점, 특히 기존 데이터에 대한 의존성과 단백질의 구조적 유연성을 고려하는 보다 정교한 모델의 필요성을 논의했습니다.
  • 심포지엄에서는 AI를 단백질 디자인에 적용하기 위한 인프라 구축의 중요성도 강조했습니다.
  • 과학기술부는 AI 바이오 확산 전략을 마련하여 바이오 분야에서 AI의 중요성을 홍보하고 있습니다.
  • 심포지엄은 연구자들이 AI 기반 단백질 디자인 분야에서 아이디어를 공유하고 협력 기회를 모색할 수 있는 플랫폼을 제공했습니다.
카테고리: AI 트렌드 | 댓글 남기기

1.5. RunnableLambda

RunnableLambda는 LangChain에서 사용자 정의 함수를 실행하기 위해 제공되는 기능으로, Python의 callable 객체를 Runnable로 변환하여 체인에 통합할 수 있게 합니다. 이를 통해 복잡한 로직을 처리하거나 기존 기능을 확장할 수 있으며, 데이터 변환, 계산, 외부 API 호출 등 다양한 작업을 수행할 수 있습니다.

주요 특징

  • 사용자 정의 함수 래핑:
    • RunnableLambda는 임의의 Python 함수 또는 람다를 Runnable 객체로 변환합니다. 이를 통해 체인 내에서 사용자 정의 처리를 쉽게 구현할 수 있습니다.
    • 예를 들어, 문자열 길이를 계산하거나 두 텍스트의 길이를 곱하는 작업을 수행할 수 있습니다.
  • 단일 입력 처리:
    • 사용자 정의 함수는 반드시 단일 입력만 받을 수 있습니다. 여러 인자를 처리하려면 단일 입력을 받아 여러 인자로 풀어내는 래퍼(wrapper)를 작성해야 합니다.
  • 체인 연결:
    • RunnableLambda는 다른 Runnable과 쉽게 연결될 수 있으며, | 연산자를 사용하여 체인을 구성할 수 있습니다. 이때 하나가 함수라면 자동으로 RunnableLambda로 변환됩니다.
  • RunnableConfig 지원:
    • RunnableLambda는 선택적으로 RunnableConfig를 지원하며, 이를 통해 콜백, 태그 및 기타 구성 정보를 설정하여 중첩된 실행에 전달할 수 있습니다.

사용 예제

기본 사용

이 코드는 숫자 5를 문자열로 변환하는 간단한 예제입니다.

from langchain_core.runnables import RunnableLambda

# 람다 함수를 Runnable 객체로 변환
runnable = RunnableLambda(lambda x: str(x))
response = runnable.invoke(5)
print(response)
5

1) 체인 구성

체인을 구성하여 입력 데이터를 처리하고 결과를 반환합니다.

from langchain_core.runnables import RunnableLambda

# 두 함수 체인 연결
runnable1 = RunnableLambda(lambda x: {"foo": x})
runnable2 = RunnableLambda(lambda x: [x] * 2)
chain = runnable1 | runnable2

result = chain.invoke(2)
print(result)
[{‘foo’: 2}, {‘foo’: 2}]

2) 복잡한 로직 처리

여러 입력값을 처리하기 위해 래퍼 함수를 사용하여 데이터를 가공합니다.

def length_function(text):
   return len(text)

def multiple_length_function(_dict):
   return len(_dict["text1"]) * len(_dict["text2"])

runnable1 = RunnableLambda(length_function)
runnable2 = RunnableLambda(multiple_length_function)

result = runnable2.invoke({"text1": "hello", "text2": "world"})
print(result)
25

3) RunnableConfig 활용

RunnableConfig를 사용하여 태그와 콜백을 설정하고 오류를 처리하는 예제입니다

import json
from langchain_core.runnables import RunnableLambda, RunnableConfig

def parse_or_fix(text: str, config: RunnableConfig):
   try:
       return json.loads(text)
   except Exception as e:
       return f"Error: {e}"

config = {"tags": ["example-tag"]}
output = RunnableLambda(parse_or_fix).invoke('{"foo": "bar"}', config=config)
print(output)
{‘foo’: ‘bar’}

활용 사례

  • 데이터 전처리: 입력 데이터를 정규화하거나 필터링하는 작업.
  • 복잡한 계산: 여러 입력값을 기반으로 수학적 연산 수행.
  • API 호출 및 응답 처리: 외부 API와 상호작용 후 데이터를 가공.
  • 라우팅 및 분기 처리: 조건에 따라 실행할 함수를 선택하는 로직 구현.

장점

  • 유연성: Python 함수와 LangChain의 체인을 쉽게 통합 가능.
  • 확장성: 복잡한 워크플로우를 간단하게 캡슐화.
  • 가독성: 체인의 각 단계가 명확하게 정의되어 유지보수가 용이.

RunnableLambda는 LangChain에서 사용자 정의 처리를 구현하는 데 매우 유용하며, 다양한 LLM 애플리케이션에서 핵심적인 역할을 합니다.

카테고리: 랭체인 (LangChain) | 태그: | 댓글 남기기

1.4. RunnableParallel

RunnableParallel은 LangChain에서 제공하는 주요 컴포지션 프리미티브 중 하나로, 여러 개의 Runnable을 병렬적으로 실행할 수 있도록 설계된 클래스입니다. 이 클래스는 동일한 입력 데이터를 여러 Runnable에 동시에 전달하여 독립적으로 처리한 후, 각 결과를 매핑하여 반환합니다.

특징 및 주요 기능

  • 병렬 실행: 여러 Runnable을 동시에 실행하여 처리 속도를 높일 수 있습니다.
  • 입력 공유: 동일한 입력 데이터를 모든 Runnable에 전달합니다.
  • 결과 매핑: 각 Runnable의 출력값을 키-값 쌍으로 반환합니다.
  • 유연한 설정: 딕셔너리 형태로 Runnable을 정의하거나, 파이프 연산자(|)를 사용해 손쉽게 구성할 수 있습니다.

사용 방법

1. 기본 사용 예제

아래는 숫자를 처리하는 세 가지 함수(add_one, mul_two, mul_three)를 병렬로 실행하는 예제입니다:

from langchain_core.runnables import RunnableLambda, RunnableParallel

# 함수 정의
def add_one(x: int) -> int:
   return x + 1

def mul_two(x: int) -> int:
   return x * 2

def mul_three(x: int) -> int:
   return x * 3

# Runnable 생성
runnable_1 = RunnableLambda(add_one)
runnable_2 = RunnableLambda(mul_two)
runnable_3 = RunnableLambda(mul_three)

# RunnableParallel로 병렬 실행 설정
parallel_runnable = RunnableParallel(
   mul_two=runnable_2,
   mul_three=runnable_3
)

# 실행
result = parallel_runnable.invoke(1)
print(result)
{‘mul_two’: 2, ‘mul_three’: 3}

2. LLM과 함께 사용

아래는 LangChain의 LLM을 활용해 병렬로 joke, poem, question을 생성하는 예제입니다:

from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama import ChatOllama
from langchain_core.runnables import RunnableParallel
from langchain_core.output_parsers import StrOutputParser

# Prompt 정의
joke_template = ChatPromptTemplate.from_template("tell me a joke about {topic}")
poem_template = ChatPromptTemplate.from_template("write a 2-line poem about {topic}")
question_template = ChatPromptTemplate.from_template("make a question about {topic}")

# 모델 및 파서 정의
model = ChatOllama(model='exaone3.5')
parser = StrOutputParser()

# Chain 정의
joke_chain = joke_template | model | parser
poem_chain = poem_template | model | parser
question_chain = question_template | model | parser

# RunnableParallel 설정
parallel_chains = RunnableParallel(
   joke=joke_chain,
   poem=poem_chain,
   question=question_chain
)

# 실행
output = parallel_chains.invoke({"topic": "snowman"})
print(output)
{‘joke’: ‘Sure, here\’s a snowy joke for you:\n\nWhy don\’t snowmen ever get lost?\n\nBecause they always have a carrot-towards home! (get it? Carrot as in the vegetable, play on words with “course to” towards)\n\nHope that brings a smile to your face! ❄️😄’, ‘poem’: “Carved in winter’s chill, smiles bright beneath falling snow,  \nCozy coal eyes watch as icy drifts softly grow.”, ‘question’: “Here’s a fun question about snowmen:\n\n**What unique feature can you add to a snowman to make it look extra festive during the holiday season?**\n\n(Possible answers could include carrot noses, coal eyes and mouths, scarf made of yarn, or even a small hat adorned with bells!)”}

실행 방식 비교

병렬 처리를 통해 개별적으로 실행했을 때보다 더 빠르게 작업을 완료할 수 있습니다. 아래는 동일한 작업을 병렬 처리와 개별 처리로 실행했을 때의 시간 비교 예제입니다:

  • 개별 처리 시간:
    • Joke Chain: 약 11초
    • Poem Chain: 약 0.9초
    • Question Chain: 약 0.75초
  • 병렬 처리 시간: 약 0.92초

응용 사례

  1. 다중 작업 병렬화: 동일한 입력 데이터로 여러 작업(예: 텍스트 생성, 분석 등)을 동시에 수행.
  2. 독립적인 체인 실행: 서로 다른 입력 데이터를 사용하는 체인을 병렬로 실행하여 결과를 통합.

RunnableParallel은 LangChain에서 작업 효율성을 극대화하기 위한 강력한 도구입니다. 특히, 다중 작업을 동시에 처리해야 하는 경우 유용하며, 간단한 인터페이스와 유연한 설정으로 다양한 시나리오에 적용 가능합니다

카테고리: 랭체인 (LangChain) | 태그: | 댓글 남기기

DX를 지나 이제는 AX 시대로…

DX (디지털 전환)와 AX (인공지능 전환)는 현대 기업 환경에서 중요한 개념입니다.

DX (Digital Transformation, 디지털 전환)

DX는 디지털 기술을 활용하여 기업의 비즈니스 모델, 조직과 업무 프로세스, 기업문화 등을 혁신하는 것을 의미하며, 기존의 아날로그 방식에서 디지털 방식으로 전환하여 효율성을 높이고, 새로운 가치를 창출하는 목표를 가지고 있습니다.

  • 목표:
    • 업무 효율성 향상
    • 고객 경험 개선
    • 새로운 비즈니스 모델 창출

AX (AI Transformation, 인공지능 전환)

AX는 DX를 통해 구축된 디지털 인프라를 기반으로 AI를 도입하여 자동화, 지능화, 최적화를 추구하며, 인공지능 (AI) 기술을 활용하여 기업의 전반적인 운영 방식을 혁신하는 것을 의미합니다.

  • 목표:
    • AI를 통한 업무 자동화 및 효율성 극대화
    • 데이터 기반 의사결정 강화
    • 새로운 AI 기반 서비스 및 제품 개발

DX vs. AX

DX(디지털 전환)와 AX(인공지능 전환)는 현대 기업 환경에서 중요한 개념입니다. 두 개념의 정의와 차이점, 그리고 DX에서 AX로의 전환 과정에 대한 주요 마일스톤과 사례를 설명해 드리겠습니다.

유사점:

  • 두 개념 모두 기업의 혁신과 성장을 목표로 하며, 디지털 기술을 활용하여 업무 프로세스를 개선하고 효율성을 높이는 것을 추구합니다.

차이점:

  • DX는 디지털 기술을 활용한 ‘전환’에 초점을 맞추고, AX는 AI를 활용한 ‘지능화’에 초점을 맞춥니다.
  • DX는 디지털 인프라 구축을 목표로 하고, AX는 구축된 인프라를 기반으로 AI를 활용하여 비즈니스 전반을 지능화하는 것을 목표로 합니다.

DX에서 AX로의 전환:

  1. DX 기반 구축 단계:
    • 기업들은 클라우드 컴퓨팅, 빅데이터, 모바일 기술 등을 도입하여 디지털 인프라를 구축했습니다. 이 단계를 통해 데이터 수집, 분석, 활용 능력을 강화하고, 디지털 기반의 업무 환경을 조성했습니다.
  2. AI 도입 및 적용 단계:
    • 기업들은 AI 기술을 도입하여 업무 프로세스를 자동화하고, 고객 서비스를 개선하며, 새로운 제품과 서비스를 개발하기 시작했습니다. 예를 들어, AI 챗봇을 활용한 고객 상담, AI 기반의 데이터 분석 및 예측, AI 기반의 자동화된 생산 시스템 등이 도입되었습니다.
  3. AX 본격화 단계:
    • AI 기술이 더욱 발전하고 보편화되면서, 기업들은 AX를 본격적으로 추진하고 있습니다. AI를 활용하여 기업의 핵심 경쟁력을 강화하고, 새로운 비즈니스 모델을 창출하며, 산업 구조를 혁신하고 있습니다. AX 하면 자주 언급되는 키워드는 ‘온디바이스(ondevice) AI‘입니다. 온디바이스 AI는 서버나 클라우드 연결 없이도 AI를 전자기기에서 사용할 수 있게 만드는 기술입니다.

“20년대 초반이 1단계 DX 기반 구축, 20년 중반은 AX 도입/적용 단계, 중반 이후로 본격화 단계가 되지 않을까 생각되어 집니다. 이러한 전환기에서 우리는 어떠한 역량을 미리 갖추어야 할까요?”

AI 기술에 대한 이해:

  • AI 기술은 더 이상 일부 전문가의 영역이 아닙니다. AI의 기본 개념, 작동 원리, 활용 분야 등에 대한 이해를 갖추고 있어야 합니다. 특히, 자신이 속한 산업 분야에서 AI가 어떻게 활용되고 있는지, 앞으로 어떻게 발전할 것인지에 대한 관심을 가져야 합니다.

데이터 활용 능력:

  • AX 시대에는 데이터 기반 의사결정이 중요합니다. 데이터를 수집, 분석, 활용하는 능력을 키워야 합니다. 데이터 분석 도구 활용 능력, 데이터 시각화 능력 등을 갖추면 업무 효율성을 높이고 문제 해결 능력을 향상시킬 수 있습니다.

변화 적응력:

  • 기술 변화는 예측하기 어렵고 빠르게 진행됩니다. 새로운 기술과 환경 변화에 유연하게 적응하는 능력을 길러야 합니다. 끊임없이 배우고 새로운 것을 받아들이는 자세가 중요합니다.

참고 자료

카테고리: AI 현황 | 댓글 남기기

(소개) 원티드랩에서 LLM의 활용

원티드 랩에서 LLM을 활용하여 업무를 효율화하고 있는 사례는 다음과 같습니다:

채용 플랫폼 서비스

원티드 랩에서 업무에 LLM을 활용하고 있는 요약입니다.
(요즘 기업에서 LLM 도입을 지나 매우 활발하게 이용하고 있음을 확인할 수 있네요.)

  • 직무 관련 질문에 대한 답변 제공 [02:56]
  • 이력서 보완 및 코칭 서비스 제공 [03:12]

내부 업무 자동화:

  • AI 사원 ‘데이터 볼트’를 통한 자동 쿼리 생성 [03:37]
    • 최근 등록 기업의 공고수 및 합격자 수 관련 쿼리 자동 생성을 해준다고 합니다.
  • 일반적인 챗봇 형태의 HR 관련 답변 제공 [04:30]
  • 개발자 업무 지원: 릴리즈 노트 자동 생성 [04:37]
  • QA 체크리스트 생성 [04:37]
  • 현업 부서의 쿼리 및 IT 개발 요청 자동화 [05:23]
    • JiRA 자동 생성
  • 고객사 미팅 전 필요한 정보 자동 수집 및 요약 [06:41]
  • 마케팅 메시지 자동 생성 [07:30]

AI로 인한 일하는 방식의 변화

  • 정보를 획득하는 비용 자체가 엄청나게 저렴해졌기 때문에 정보를 잘 가공해서 더 멋진 서비스, 이벤트나 캠페인 등을 더 빨리 만들어 낼 수 있는 사람들이 기업 내에서 인정받는 상황이 될 것이다.
  • 기존에는 사람과 사람의 협업을 중요하다고 생각을 했지만, 앞으로는 사람과 AI의 관계로 바뀔 것이다.
  • 이제 사람과 AI가 경쟁을 하는 시대이다: 만약, 중급 개발자 이상의 AI를 확보한 기업이라면 신입채용을 꺼릴 것이다. AI와 경쟁하지 않으려면 AI를 잘 다룰 수 있는 능력을 키워야 한다.
카테고리: AI 현황 | 댓글 남기기

Claude Desktop에서 MCP 서버 설정 예시

클로드 데스크톱만 설치하면 바로 사용이 가능한지 알았는데, 별도 설정과정이 필요했다.
나와 같은 분들을 위해서 정리를 합니다.

다음은 블로그에서 설명하는 MCP 설치 방법입니다.

사전 설정 준비물

  • Claude Desktop과 Node.js를 설치해야 합니다. Claude 웹사이트에서는 MCP 서버를 지원하지 않으므로, Claude Desktop을 다운로드 페이지에서 설치해야 합니다.
  • Node.js는 공식 다운로드 페이지에서 설치할 수 있습니다.

MCP 서버 설정

설정 방법

Claude Desktop에 MCP 서버를 설정은 claude_desktop_config.json 파일을 수정하여 진행됩니다.

  • Windows에서는 %APPDATA%\Claude\claude_desktop_config.json
  • MacOS에서는 ~/Library/Application Support/Claude/claude_desktop_config.json

server-filesystem 설정

server-filesystem MCP 서버를 추가 에시는 다음의 내용을 위 json 파일에 추가해주시면 됩니다.

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-filesystem",
        "C:\\Users\\username\\Documents",
        "C:\\Users\\username\\Downloads"
      ]
    }
  }
}

server-filesystem 서버 실행 예시 #1

“다운로드 폴더에는 파일이 모두 몇개인지” 묻는 질문에 파일과 디렉토리를 구분해서 알려주는 간단한 예시입니다.

server-filesystem 서버 실행 예시 #2

“내일 은행 방문”이라는 문장을 “할일.txt”파일로 작성해 달라는 질문에 실제 파일을 작성한 예시입니다.

생성된 “할일.txt” 파일
“할일.txt” 파일의 내용

이와 같이 MCP는 AI 모델과 외부 도구 간의 상호작용을 표준화하는 프로토콜로 주로 AI가 워크플로우를 관리하거나 외부 데이터에 접근할 때 사용되며, 다음과 같은 범위에서 실제 활용이 가능합니다.

실제 활용 가능 분야

1. 콘텐츠 관리 자동화

  • 유튜브 자막 처리: 긴 영상의 자막을 자동 추출한 후 문서화하거나 보고서로 변환. 해외 영상의 경우 자막을 통해 언어 장벽 없이 정보 습득 가능.
  • 블로그 운영: AI가 자동으로 글 작성 → 이미지 생성 → 업로드 작업을 수행. 콘텐츠 제작 시간을 80% 이상 단축.

2. 업무 프로세스 최적화

  • 이메일/일정 관리: 중요한 이메일 자동 분류, 캘린더와 연동해 회의 일정 조정 및 알림 발송.
  • 뉴스 분석: AI가 주요 키워드 추출 → 핵심 내용 요약 → 자동 보고서 생성.

3. 전자상거래 시스템

  • 주문 처리: 온라인 쇼핑몰에서 주문 접수 시 결제 시스템 자동 연동, 재고 데이터베이스 실시간 업데이트.
  • 고객 응대: 문의 내용 분석 → 적절한 답변 자동 생성 또는 담당자 배정.

4. 개발자 도구

  • 코드 자동화: 로컬 파일 분석 → 버그 검출 → 리팩토링 제안 (Cursor IDE 사례).
  • 테스트 스크립트: Playwright를 활용한 브라우저/UI 테스트 자동화 (Microsoft 사례).

5. 금융 서비스

  • 주식 투자: 거래소 데이터, 뉴스, 경제 지표를 실시간 분석 → 투자 시점 권장.
  • 암호화폐 거래: 이더리움 가격 변동 시 AI가 즉시 알림 발송.

6. 일상 생활 지원

  • 영화관 찾기: 위치 기반 서비스와 연동해 주변 영화관 정보 제공.
  • 스마트 홈: IoT 기기 제어를 MCP로 통합 → 음성 명령으로 조명/온도 조절.

7. 멀티 플랫폼 연동

  • Make.com 활용: Slack, Trello, CRM 등 다양한 앱을 단일 인터페이스에서 통합 관리.
  • 데이터 파이프라인: 새로운 데이터 소스 추가 시 별도 코딩 없이 즉시 연동.

8. 자율주행 기술

  • 장애물 인식: 실시간 센서 데이터 분석 → 경로 계산 → 사고 예방 시스템 구동.

MCP는 단순 반복 작업뿐 아니라 복잡한 의사결정 프로세스까지 자동화함으로써 개인과 기업의 생산성을 혁신적으로 개선하고 있습니다.

참고)

카테고리: AI 현황 | 태그: , | 댓글 남기기

왼팔!! 무조건 펴게 만들어 주는 두가지 방법

어드레스부터 탑스윙까지 나의 고민을 해결해 준 영상….

왼팔을 곧게 유지하는 것이 중요합니다.

아마추어 골퍼들은 백스윙 중에 왼팔을 곧게 유지하는 데 집중하여 더욱 일관된 샷을 만들 수 있습니다[00:55].

흔히 하는 실수 수정하기: 많은 골퍼들이 처음부터 왼팔을 곧게 만들려고 애쓰는데, 이는 긴장과 잘못된 회전을 유발합니다[01:42].

첫 번째 방법: 어드레스 위치 조정: 팔꿈치가 오른쪽을 향하도록 배치하세요[03:50]. 손을 어드레스 위치로 돌리면 오른쪽이 더 편안하게 느껴지고 왼팔은 뻗어 있지만 긴장되지 않습니다[03:50]. 이 위치에서는 백스윙 중에 오른쪽 팔꿈치가 자연스럽게 회전하여 왼팔을 곧게 유지하기 쉽습니다[04:14].

두 번째 방법: 동시에 시작하기: 클럽, 샤프트, 그립, 몸을 하나의 단위로 움직여 백스윙을 시작하세요[05:52]. 손이나 클럽헤드만 움직여 시작하면 몸이 막히고 팔이 구부러질 수 있습니다[06:16]. 오른쪽 몸을 열어 백스윙을 시작하면 팔을 곧게 유지하는 데 도움이 됩니다[06:27].

추가 팁: 백스윙에서 오른쪽을 여는 것처럼, 팔로우 스루에서 왼쪽을 여는 것도 팔을 곧게 유지하는 데 도움이 됩니다[07:44].

마지막 조언: 팔을 곧게 유지하려고 긴장하지 마세요. 대신 어드레스에서 팔꿈치 위치에 집중하고 백스윙을 동시에 시작하세요[08:15].

카테고리: 골프 | 댓글 남기기

(나탈리아 구세바) 아이언 슬로우 영상

몇 번을 봐도 느리게 봐도 너무 아름다운 스윙이다….;;;
(전체 영상으로 원본 확인은 캡션 링크 클릭….)

카테고리: 골프 | 댓글 남기기

아이언 샷 잘치는 법.

아이언 샷의 핵심:

  • 아이언 샷의 핵심은 다운블로이며, 이는 각 아이언의 로프트로 거리를 보내면서 페이스 면에 공을 많이 태워 스핀 컨트롤을 하기 위함입니다. [00:50]

정타:

  • 아이언 샷에서 정타는 아이언 헤드 리딩 엣지가 공 허리쯤 들어와 공을 페이스 면에 태우면서 앞땅 디봇이 얇게 났을 때를 의미합니다. [01:56]

다운블로의 두 가지 조건:

  • 아이언 샷에서 원하는 거리에 공을 떨어뜨리기 위한 다운블로의 두 가지 조건은 공부터 컨택하는 것과 들려 맞지 않고 각 아이언의 로프트로 공을 맞추는 것입니다. [02:50]

압력 이동:

핸드퍼스트를 만드는 가장 자연스러운 방법은 압력 이동입니다. [03:48]

  • 압력 이동을 위한 두 가지 드릴:
    • 스탬프 드릴: 백스윙 후 다운 스윙 시 왼발로 지면을 세게 밟으며 스윙합니다. [04:19]
    • 오른발로 골프공 밟고 스윙하기: 오른발로 골프공을 밟고 있어 백스윙 다운스윙 시 압력이 오른쪽으로 넘어가는 것을 방지합니다. [04:48]

스웨이 방지:

  • 다운 블로를 위한 압력 이동은 왼 발바닥으로의 수평 압력 이동이며, 이는 스웨이가 아닙니다. [05:30]

팔 사용 줄이기:

팔을 과도하게 사용하는 것을 피하기 위해서는 왼 겨드랑이에 압력을 유지하여 손과 클럽이 자연스럽게 끌려 내려오도록 해야 합니다. [06:42]

  • 팔 사용을 줄이기 위한 두 가지 드릴:
    • 수건 드릴: 겨드랑이에 수건을 끼고 떨어지지 않도록 유지하며 스윙합니다. [07:22]
    • 얼라이먼트 스틱 드릴: 아이언 그립에 얼라이먼트 스틱을 겹쳐 잡고 스윙하며, 손목의 각도를 최대한 유지합니다. [08:09]

이 외에도 영상에서는 다운블로의 중요성, 정타의 의미, 압력 이동과 스웨이 방지 방법, 팔 사용 줄이기 방법 등 아이언 샷에 대한 다양한 정보를 제공하고 있습니다.

카테고리: 골프 | 댓글 남기기