본문 바로가기
  • 데이터에 가치를 더하다, 서영석입니다.

분류 전체보기188

LLM을 넘어 Agent로: MCP가 여는 기업용 AI 최근 GPT-4, Gemini, Claude와 같은 모델들의 성능을 보며 우리는 "AI가 정말 똑똑해졌다"고 느낀다. 하지만 현업의 목소리는 조금 다르다. "똑똑하긴 한데, 그래서 내 업무를 대신 해줄 수 있어?"라는 질문에는 여전히 의문부호가 붙기 때문이다.이제 문제는 '지능'이 아니다. 핵심은 '연결(Connection)'과 '실행(Action)'이다.1. 왜 LLM은 아직 우리 업무를 '직접' 하지 못할까?LLM은 진짜 무섭게 많이 안다. 세상 거의 모든 지식을 학습했고, 글도 잘 쓰고, 코드도 짠다. 근데 딱 한 가지 약점이 있다. 지금 이 순간, 이 회사 안에서 무슨 일이 일어나는지를 모른다. "올해 3분기 영업이익률 분석해줘" 하면? 학습된 일반 지식으로 뭔가 그럴듯한 말을 한다. 진짜 우리 .. 2026. 2. 21.
[통계] 왜 머신러닝은 확률로 설명될까 머신러닝을 공부하다 보면 이상하게 많은 개념이 확률과 통계로 설명된다.Loss도 확률로 해석되고, 모델 평가도 확률 분포로 이야기하고, 심지어 딥러닝의 출력도 결국 확률값이다.처음에는 단순히 데이터를 많이 다루기 때문이라고 생각했지만, 조금 더 공부하면서 생각이 달라졌다.머신러닝은 결국 정답을 정확히 아는 문제가 아니라, 가장 그럴듯한 답을 추정하는 문제에 가깝다는 것을 느끼게 됐다. 그리고 통계는 바로 그 “추정”을 다루는 학문이었다.확률은 불확실성을 다루는 언어였다현실의 데이터는 항상 노이즈가 있고, 완벽하게 예측할 수 있는 경우는 거의 없다. 같은 조건에서도 결과가 달라지고, 같은 고객도 다른 행동을 한다.이때 모델은 하나의 값을 정확히 맞추는 것이 아니라 “이 결과가 나올 가능성이 얼마나 높은가”.. 2026. 2. 8.
[선형대수] 선형대수는 왜 딥러닝에서 계속 등장할까 딥러닝을 공부하거나 모델을 설계하다 보면 이상할 정도로 같은 수학 개념들이 반복해서 등장한다.Rank, Eigenvalue, SVD, Gradient. 처음에는 서로 다른 단원에 있는 별개의 개념처럼 느껴졌는데실제로 여러 프로젝트를 거치며 다시 정리해보니 결국 이 모든 것들이 하나의 이야기를 하고 있다는 생각이 들었다. 머신러닝은 복잡한 알고리즘의 집합이라기보다, ‘벡터 공간 위에서 구조를 찾고 그 안에서 움직이는 과정’에 가깝다고 느꼈다.그리고 이 네 가지 개념은 그 과정을 서로 다른 관점에서 설명하는 도구였다.Vector Space 가장 먼저 이해해야 할 것은 우리가 다루는 모든 데이터가 결국 벡터라는 사실이었다.텍스트는 임베딩 벡터로 변환되고, 이미지는 수천 차원의 feature map으로 표현되며.. 2026. 2. 1.
AI Agent는 왜 대부분 ‘자동화된 챗봇’으로 끝나는가 (2) 자율 AI가 되지 못한 진짜 이유는 기술이 아니라 설계였다Agent, Multi-Agent, 자율화, 오케스트레이션, 워크플로우까지 AI Agent라는 단어는 이미 너무 흔해졌다.하지만 현장에서 실제로 마주하는 AI Agent의 모습은 대부분 비슷했다. 질문을 입력하면 답을 해주고, 버튼을 눌러주고, 다음 단계는 다시 사람이 판단했다. 겉으로는 Agent였지만, 실제 역할은 “조금 똑똑해진 챗봇”에 가까웠다.이 글을 쓰게 된 이유도 여기에 있었다.Agent를 직접 설계하고, LangGraph를 만지고, MCP 구조를 고민하고, PoC를 반복하면서 느낀 건 단순했다. 문제는 모델 성능이 아니었고, 기술 스택도 아니었으며, 진짜 문제는 ‘결정권을 어디까지 줄 것인가’에 대한 설계 부재였다.Agent가 챗봇으.. 2026. 1. 25.
AI Agent는 왜 대부분 ‘자동화된 챗봇’으로 끝나는가 요즘 어디를 가도 AI Agent 이야기다.Single Agent를 넘어서 Multi-Agent, 자율화, Orchestration, MCP, LangGraph.다들 “이제는 사람이 안 해도 된다”고 말한다. 그런데 이상하다.실제 내가 마주치는 대부분의 AI Agent는 결국 이 정도다.“질문을 받으면 답해주고, 버튼 하나 눌러주고, 그 다음은 사람이 판단한다.”이건 Agent라기보다는 조금 똑똑해진 RPA 챗봇..?에 가깝다.말은 ‘자율화’인데, 실제로는 ‘결정권 없는 시스템’Agent의 핵심은 의사결정을 대신할 수 있느냐다.어떤 정보를 모을지무엇을 기준으로 판단할지어디까지 실행할지실패했을 때 누가 책임질지이 중에서 단 하나라도 시스템이 아닌 사람에게 남아 있으면 Agent는 구조적으로 자율적일 수 없.. 2026. 1. 18.
AI 시대, IT·플랫폼 기획자는 무엇을 기획해야 하는가 지속적으로 나는 “LLM Agent가 왜 생각보다 어려운가”에 대해 생각했다.기술이 부족해서가 아니라, 기획의 문제라는 결론이었다. 그 글 이후 계속 머릿속에 남았던 질문은 이것이다.“그렇다면 AI 시대에 IT 기획자, 플랫폼 기획자는 도대체 무엇을, 어떤 방식으로 기획해야 하는가?” 1. AI 시대 기획의 출발점은 ‘기능’이 아니다많은 AI 기획이 실패하는 이유는 단순하다. 기능부터 정의하기 때문이다.챗봇을 만들자, 에이전트를 붙이자, LLM을 도입하자AI 기획의 출발점은 언제나 다음 질문이어야 한다.“지금 이 조직 / 이 사용자 / 이 프로세스에서 사람이 반복적으로 판단하고, 헷갈리고, 시간을 낭비하는 지점은 어디인가?”AI는 사람의 판단 비용을 줄이기 위한 도구다. 따라서 기획자는 먼저 판단이 발생.. 2026. 1. 11.
반응형