본문 바로가기

AI9

에이전트 기반 AI(Agentic AI)의 가능성과 리스크 오늘은 쉽게 읽고 배워보는 AI에 관한 이야기 중 에이전트 기반 AI(Agentic AI)의 가능성과 리스크에 대해서 알아보도록 하겠다. AI가 발전할수록 더욱 다양한 방면에서 기능을 사용할 수 있다는 장점도 있지만 한편으로는 단점과 리스크도 존재한다. 우선 에이전트 기반 AI가 무엇인지에 대해서 먼저 알아보도록 하자. 1. 에이전트 기반 AI란 무엇인가 – “말 잘 듣는 도구”에서 “스스로 움직이는 시스템”으로우리가 지금까지 사용해온 대부분의 AI는 질문에 답을 하거나, 이미 주어진 데이터를 분석해 결과를 보여주는 ‘수동적 도구’에 가까웠다. 예를 들어 챗봇은 질문을 받으면 답하고, 추천 시스템은 사용자의 행동 데이터를 기반으로 콘텐츠를 제안한다. 그러나 최근 등장한 에이전트 기반 AI(Agent.. 2026. 2. 20.
AI 모델의 ‘설명 가능성(Explainable AI)’은 어디까지 가능한가 AI 모델의 '설명 가능성(Explainable AI)'은 어디까지 가능한가에 대한 이야기를 나누어 보자. AI의 설명가능성이란 AI가 어떤 결과를 내렸을 때, 왜 그런 판단을 했는지를 사람이 이해할 수 있도록 설명해주는 능력을 말한다. 딥러닝 AI의 경우 내부 구조가 매우 복잡하여 수백~수십억 개의 계산을 거쳐 결과를 내기 때문에 사람 입장에서는 "왜 그런 결과가 나왔는지" 알기 어려운 경우가 많다. 이걸 흔히 블랙박스 모델이라고 부른다. 입력과 출력만 있고 중간 과정이 보이지 않는 모델을 뜻한다. AI의 설명가능성이란 AI가 얼마나 똑똑한지에 대한 문제가 아니라 AI를 우리가 믿고 사용할 수 있는가의 문제이다. 1. 설명 가능성이란 무엇인가 – “AI는 왜 그렇게 판단했는가?”라는 질문에서 시작.. 2026. 2. 19.
AI 윤리와 규제, 실무자는 무엇을 준비해야 하는가 오늘은 AI 윤리와 규제, 실무자는 무엇을 준비해야 하는가에 대한 이야기를 나누어보자. EU AI Act, 개인정보, 책임 소재가 개발에 미치는 영향 등에 대해 서술한다. 1. AI 윤리는 선택이 아니라 ‘운영 리스크’의 문제다많은 사람들은 AI 윤리나 규제를 “멀리 있는 이야기”라고 생각한다. 대기업이나 글로벌 기업, 혹은 정부 기관에만 해당되는 이야기처럼 느껴지기 때문이다. 그러나 지금의 AI 규제 흐름은 특정 기업만을 겨냥하는 것이 아니라, AI를 활용해 서비스를 만드는 모든 조직을 대상으로 하고 있다. 특히 EU AI Act는 세계 최초의 포괄적 AI 규제 법안으로, AI 시스템을 위험도에 따라 분류하고, 고위험 시스템에 대해서는 엄격한 요건을 요구한다. 중요한 점은 이 법이 유럽 기업만을.. 2026. 2. 15.
오픈소스 LLM vs 상용 LLM 오늘은 오픈소스 LLM vs 상용 LLM에 대해서 이야기 해보도록 하자. 비용, 성능, 보안, 커스터마이징 관점에서 비교해 본다. 1. 비용과 성능의 착시: “무료”와 “최고 성능”이라는 오해부터 풀어야 한다오픈소스 LLM과 상용 LLM을 비교할 때 가장 먼저 등장하는 논점은 비용이다. 오픈소스는 무료이고 상용은 비싸다는 인식이 널리 퍼져 있다. 하지만 이 구분은 실제 의사결정에 거의 도움이 되지 않는다. 오픈소스 LLM은 라이선스 비용이 없을 뿐, 실제 운영 비용은 결코 공짜가 아니다. 모델을 호스팅하기 위한 GPU 인프라, 추론 비용, 성능 최적화를 위한 엔지니어링 리소스까지 고려하면, 일정 규모 이상에서는 상용 API 비용과 큰 차이가 나지 않거나 오히려 더 비싸지는 경우도 흔하다.성능 측면에서.. 2026. 2. 14.
RAG(Retrieval-Augmented Generation)는 왜 중요한가 오늘은 RAG(Retrieval-Augmented Generation)는 왜 중요한가에 대한 이야기를 나누어보자. LLM의 환각 문제를 해결하는 현실적인 접근법에 대해서도 다룰 예정이다. 1. “말은 맞는 것 같은데 틀리다”는 경험, 왜 반복될까회사에서 생성형 AI를 써본 사람이라면 한 번쯤 이런 경험이 있을 것이다. 보고서 초안을 부탁했더니 문장은 자연스럽고 논리도 있어 보이는데, 막상 내용을 확인해보면 사실과 다르거나 출처를 알 수 없는 정보가 섞여 있다. 질문을 조금만 바꿔도 전혀 다른 답이 나오고, 자신 있게 말하던 내용이 실제로는 존재하지 않는 경우도 있다. 이른바 LLM의 ‘환각(hallucination)’ 문제다. 이 현상은 AI가 거짓말을 하려는 의도가 있어서가 아니라, 애초에 LLM.. 2026. 2. 13.
기업에서 AI 도입이 실패하는 대표적인 이유 5가지 오늘은 기업에서 AI 도입이 실패하는 대표적인 이유 5가지에 대해 알아보도록 하겠다. 기술 문제가 아닌 조직·데이터·문화 관점에서 분석한 글이다. 1. 기술은 준비됐지만 목적은 불분명하다: 전략 없는 AI 도입의 함정기업에서 AI 도입이 실패하는 가장 흔한 이유는 기술 역량 부족이 아니라 명확한 목적과 전략의 부재다. 많은 조직이 AI를 “도입해야 할 것”으로 인식하지만, “왜 도입하는가”에 대한 질문에는 명확히 답하지 못한다. 경쟁사가 AI를 활용한다는 이유, 경영진이 트렌드에 뒤처지고 싶지 않다는 이유로 시작된 프로젝트는 대부분 방향성을 잃기 쉽다. 이 경우 AI는 문제 해결 수단이 아니라, 존재 이유를 스스로 증명해야 하는 애매한 기술로 전락한다.실제로 현장에서 진행되는 많은 AI 프로젝트는 기.. 2026. 2. 12.