전문가기고
생성형 AI시대,
인공지능 신뢰성의 중요성
생성형 AI는 빅 데이터를 학습한 후 이를 기반으로 혹은 질문을 받은 후 새로운 그림, 새로운 글로 된 답변, 새로운 음악들을 생성하는 AI를 칭하는 모델을 말합니다. ChatGPT는 그중에서도 질의응답을 기반으로 글로 답변을 주는 시스템으로, 입력으로 그림이나 데이터를 입력하면, 자동으로 분석해서 표나 그래프로 답변하는 기능 등이 추가되고 있습니다. 인공지능, 로봇 등 지능형 시스템의 일종으로 그중에서 말을 잘 알아듣고, 답변을 잘하니 자동번역, 회의록 작성, 문서 요약, 기초자료 조사 등은 자동으로 수행하는 것이 가능해졌습니다. 그러니, 사람의 삶에 영향이 커서 사람들이 많은 관심을 끌게 되는 것 같습니다.
  • #생성형AI
  • #빅데이터
  • #ChatGPT
  • #AI
  • #인공지능

이미 구글과 ChatGPT와 같은 시스템은 특정한 업무 역량에 있어서 사람의 능력을 뛰어넘는다고 생각합니다. 앞으로 AI 시스템이 특정 지적 능력은 사람보다 더 뛰어날 수도 있고, 이런 AI를 활용해서 사람들에게 더 큰 영향을 미치려고 하는 사람과 단체가 더 성공적으로 많은 사람에게 다가갈 수 있다고 생각합니다. 예를 들어, Youtube는 특정 사람이 떠나지 않도록 좋아하고 중독되는 영상을 계속 제공한다는 이야기가 있습니다. 다만, 이런 것이 사람처럼 다차원적인 지능을 갖는다고 생각하기는 어렵고, 더 중요하게는 이런 AI 시스템이 사람들의 지혜를 잘 학습해서 답변을 잘하는 것처럼 보이지만, 아주 간단한 질문도 그 원리를 제대로 이해하고 답변하는지는 아직 확인되지 않았습니다. 그러니, 문제가 조금만 바뀌어도, 조금만 더 새로운 생각과 관점이 필요해도 AI는 아직은 적응하기 어려운 경우가 많습니다.

문제는 ChatGPT 개발사도 특정 경우에 왜 해당 답변을 제공하는지 정확하게 이해하지 못하는 사항이 많습니다. 그래서 개발사도 어떻게 해야 좋은 답변이 나오는지 아직 잘 모르기 때문에, 좋은 답을 얻기 위해서 질문을 잘해보자는 시도(예, 프롬프트 엔지니어링, Prompt Engineering)가 많이 이뤄지고 있습니다. 저 개인적으로는 원리를 모르니 질문을 잘해보자는 시도(예, 프롬프트 엔지니어링)는 단기적으로만 활용하겠고, 조만간 학습과 답변의 원리를 좀 더 잘 이용해서, 사람들이 프롬프트 엔지니어링 없이 편하게 질문하고 편하게 정확한 답을 제공하는 방향으로 발전될 것으로 생각합니다.

생성형 AI에 있는 편견, 개인정보, 윤리적인 AI를 만드는 과정을 AI Alignment(AI와 사람의 윤리적 일치)라고 하는데요. 강화학습을 통해서 어떤 답변을 더 하도록 유도하는 것은 안전한 답변을 유도하는 후처리 방식 중 하나이고, 학습 데이터에서 유해한 데이터를 원천적으로 제거하는 것, 학습된 모델 내부를 들여다보면서 유해한 콘텐츠를 발화하지 못하게 하는 등 다양한 방식이 활용되고 있습니다. 생성형 AI를 법인에서 활용하는 것은 예제는 많이 있을 텐데요. 사내에서 신입 사원이나 처음 맞는 고객에게 하는 대응을 생성형 AI가 안내하도록 하는 것, 그래서 간단 반복한 업무를 줄이는 것이 그 방향이 될 것으로 보입니다. 아이언맨에 나오는 자비스의 기능 중 고차원적인 기능을 제공하고 사람의 의도를 말 그대로 정확하게 알아듣고 정보를 제공하는 것은 이제 생성형 AI가 잘 대응해 줄 것으로 생각합니다.

이런 생성형 AI는 일상생활에서 유용할 수 있지만, 회사에서 신규 지점을 오픈할 때 그 지역의 시장성이나 반응을 확인하는 작업은 아직은 잘하지 못합니다. 그 지역의 시장성과 특징(local information)을 잘 알아야 하고 앞으로 어떤 일이 일어날지 반응을 예측(prediction)해야 하는데 아직 이런 정보와 기능이 탑재되어 있지 않고, 지역 정보(local information)는 구글이나 네이버 같은 다른 서비스가 강점이 있을 수도 있고, 예측도 전문기업이 강점을 가질 수 있을 것으로 생각합니다.

다만, 인공지능의 발전 속도가 너무 빨라서 원자력처럼 IAEA 같은 기구를 만들어서 어떻게 학습하는지 또 어떻게 악용될 수 있는지, 또는 개인정보를 무단으로 사용하고 있는 것 아닌지 감시하고 검증해야 한다는 목소리가 높습니다. 개인정보 및 원치 않은 자동화에 대해서는 현재 EU의 GDPR에서 규제하고 있고, 고위험 AI(인사평가, 신용평가, 개인정보, 자율주행, 의료, 인프라 등)는 그 학습 과정과 의사결정을 투명하게 설명하지 못하면 전 세계 매출의 6%까지 벌금을 부과받을 수 있습니다. 이런 인공지능의 설명성에 대한 국제 표준도 우리나라가 주도해서 조만간 첫 번째 버전이 나올 예정입니다.

앞으로는 이런 생성형 모델의 똑똑한 언어 이해력은 살리되 주요 데이터는 회사 밖으로 나가지 않는 것을 보장하는 서비스가 확대될 것으로 보입니다. 다만, 이런 대부분의 서비스는 기존의 기업형 검색 서비스와 기능에 있어서는 큰 차이가 없을 수도 있습니다. 물론 생산성은 많이 올라갈 수 있겠지만, 이에 대한 과도한 기대보다는 작은 pilot 프로젝트 중심으로 접근하고, AI의 발전은 강화학습에 대표적인 알파고, 대화형 시스템 ChatGPT 외에도 많은 예측, 분류, 최적화 시스템 중 적절한 것이 선택되고 적용된 결과로 생각하시면 좋을 것 같습니다.

복잡한 AI 시스템이 특히 중요한 업무에 활용될 경우에는 AI 의사결정에 중요한 역할을 한 Key Factor를 제시하는 것에 설명성이 필요합니다. 설명 가능 인공지능(XAI)의 기본적인 역할은 이런 주요한 입력을 선정해서 알려주는 것이고, 더 나아가 입력뿐만 아니라 내부의 중요한 역할을 하는 유닛을 찾아 잘못 판단한 이유를 수정하는 것도 중요한 역할을 합니다.

ICT 일상다반사
산업동향