[초거대 AI 포럼] 송승호 한국MS 팀장 "AI 쓸 때 '책임' 우선…기업용 오픈AI 기술 제공"

2023-03-29 17:20
  • 글자크기 설정

송승호 한국MS 애저 비즈니스 그룹 총괄 팀장, 제1회 초거대 인공지능 포럼에서 '책임 있는 AI' 강조

트위터에서 인종차별 학습한 '테이' 사건 이후 책임 있는 AI 원칙과 MS 애저 기반 구현 기술에 집중

오픈AI에 애저 클라우드 인프라 투자, 파트너십 통해 챗GPT와 GPT-3, GPT-4 등 초거대 AI 개발 지원

"애저 오픈AI 서비스, 오픈AI 초거대 AI 기술에 MS 클라우드 안정성, 책임 있는 AI 엔진 더해 안전"

송승호 한국MS 애저 비즈니스 그룹 총괄 팀장이 29일 오후 서울 영등포구 여의도 글래드호텔에서 열린 '2023 제1회 초거대 인공지능 포럼'에서 'Azure OpenAI 소개 및 활용 혜택'이라는 주제로 강연을 하고 있다.[사진=유대길 기자 dbeorlf123@ajunews.com]



“인공지능(AI)은 사람이 행동하는 대로 배운다. 잘못된 데이터를 주면 그대로 학습해 잘못된 결과를 낸다. 챗봇 ‘테이(Tay)’가 인종차별 발언을 학습해 문제를 일으킨 후 마이크로소프트(MS)는 ‘책임 있는(responsible) AI’에 대해 많이 배웠고, 그만큼 AI 서비스를 제공하면서 굉장히 조심스럽게 접근하고 있다.”

송승호 한국MS 애저 비즈니스 그룹 총괄 팀장은 29일 아주경제 주최로 열린 ‘제1회 초거대 인공지능 포럼’에서 ‘애저 오픈AI 소개 및 활용 혜택’을 주제로 강연을 진행하며 이같이 말했다. 

과거 등장한 초기 AI 서비스는 인간에게 ‘배운 대로’ 행동해 문제를 일으켰다. MS가 개발한 테이는 2016년 3월 트위터 기반으로 출시됐는데, 16시간 동안 인간 트위터 이용자와 대화하면서 학습한 인종차별·여성혐오 성향을 점점 더 노골적으로 드러내는 9만5000개 메시지를 쏟아낸 뒤 삭제됐다. 2020년 12월 한국 스타트업 스캐터랩에서 페이스북 메신저 기반으로 정식 출시한 ‘이루다 1.0’도 이용자의 성적 대상화에 동조하고 정제되지 않은 혐오·차별 표현을 내놓으면서 2021년 초 20일 만에 서비스가 중지됐다.

이렇듯 책임 있는 AI 원칙이 지켜지지 않을 때 AI가 편견, 차별, 개인정보 보호법 위반을 비롯해 개발자가 의도하지 않은 문제를 일으킬 수 있다. 책임 있는 AI 원칙을 실제로 개발 업무와 서비스 운영에 적용하고 지속해서 관리하기에는 실무자의 이해 부족, 기술적인 복잡성, 편견과 차별 개념 정의, 기업 내부 통제 규정 등 걸림돌로 작용하는 어려움이 많다. MS의 클라우드 서비스인 애저에 콘텐츠 조정 기능을 제공하는 ‘책임 있는 AI 엔진’이 내장돼 이런 문제를 덜 수 있다.

송 팀장은 “MS는 정치적, 종교적인 사안을 비롯해 모든 것에 대해 중립적으로 처리할 수 있는 책임 있는 AI를 강조하고 있고 이를 위한 책임 있는 AI 엔진을 ‘애저 오픈AI 서비스’에 탑재하고 있다”며 “AI를 논할 때 항상 책임 있는 AI를 우선시한다는 본사 방침이 있고, 앞으로도 이런 노력을 계속해 나갈 것”이라고 말했다.

MS는 ‘챗GPT’를 개발한 미국 민간 연구소 ‘오픈AI’와 2019년부터 손잡고 책임 있는 AI 기술의 대중화를 앞당기고 있다. MS는 2019년 오픈AI에 10억 달러 규모의 첫 투자를 단행했고 2020년 챗GPT의 선행 기술 기반인 GPT-3 모델 독점 라이선스를 확보했다. 2021년 2차 투자 후 애저 오픈AI 서비스 정식 상용화, 올해 100억 달러 규모 후속 투자도 발표했다. 오픈AI는 ‘범용 인공지능(AGI)이 인류에게 혜택을 줄 것’이라는 이상을 꿈꾸며 출범했고 MS는 ‘모든 사람과 조직이 더 많은 일을 성취하도록 도울 것’이라는 가치를 제안한다.

송 팀장은 MS와 오픈AI의 협력에 대해 “인류를 위한 두 기업의 이상과 가치의 결합”이라고 평하고, 현재 애저 오픈AI 서비스로 제공하는 클라우드 기반 주요 AI 기술을 소개했다. 다양한 분야의 텍스트를 요약하거나 이메일 등 간단한 글을 쓸 수 있는 GPT-3뿐 아니라 이를 고도화해 챗GPT에 적용한 GPT-3.5와 훨씬 더 발전한 GPT-4도 출시됐다. 말한 대로 작동하는 컴퓨터 프로그래밍 언어 코드를 작성해 소프트웨어 개발 업무를 도와주는 ‘코덱스(Codex)’와 말로 설명한 사물, 배경, 장면을 이미지로 만들어 주는 ‘달리(DALL·E)’도 함께 제공되고 있다.

MS는 애저 오픈AI 서비스를 제한적 접근(limited access) 방식으로 제공한다. 애저 오픈AI 서비스를 쓰려는 개발자와 기업은 MS에 ‘접근 요청’을 제출해 허가(grant)받아야 한다. 이는 책임 있는 AI를 실현하기 위해 이 기술에 대해 개발자와 기업의 ‘책임 있는 사용’을 장려하고, MS가 예기치 않은 비정상 동작을 방지하고, 위험도가 높은 사용 방식에 따른 부정적 영향을 차단하기 위해서다. MS는 이런 안전장치를 둠으로써 사회적 파급력이 큰 초거대 AI 기술로 고객에게 발생할 위험을 방지하고 사회적 책임을 질 수 있다고 봤다.

송 팀장은 “고객이 애저 오픈AI 서비스의 모델을 사용하려는 시나리오가 도덕적으로 문제가 될 소지나 (책임 있는 AI 관점에서) 이상이 없다고 검토한 결과가 나와야 쓸 수 있다”며 “MS는 테이 이후 책임 있는 AI에 대해 많이 배웠고 이미 서비스를 내놓은 시점에도 굉장히 조심스럽게 접근하고 있는 것”이라고 설명했다.

그는 애저 오픈AI 서비스 주요 활용 사례로 △콜센터 응답 자동 생성, 웹사이트 개인화 UI 생성 등 ‘콘텐츠 생성’ △콜센터 고객 대화, 전문가 문서, 소셜 미디어 동향 ‘요약’ △자연어를 SQL이나 데이터 모델로 바꾸고 작성된 코드를 문서화하는 등 ‘코드 생성’ △특정 제품과 서비스 리뷰 검색과 지식 마이닝 등 ‘의미론 검색’이라는 네 가지 범주를 제시했다. 이용자는 이 서비스로 제공되는 모델에 예시를 주고 더 정교한 결과를 얻을 수도 있고, 모델 관리자라면 특정 분야 작업 사례를 다량 입력하고 ‘미세조정’ 해 성능을 더 높일 수도 있다.

송 팀장은 애저 오픈AI 서비스가 유해한 사용을 감지하고 완화하는 책임 있는 AI 기술을 내장했을 뿐 아니라 역할 기반 접근 제어(RBAC)와 사설 네트워크를 토해 기업 환경에 맞는 보안성을 지원한다고 설명했다. 또 애저 클라우드 구독으로 배포돼 다른 클라우드 서비스처럼 편리하게 이용할 수 있으며 고객사만 접근할 수 있는 인프라에서 고객사의 데이터세트와 애플리케이션에 연결할 수 있다고 강조했다. 책임 있는 AI 외에도 오픈AI 자체 서비스보다 나은 데이터 보호, 규제준수, 신뢰성, 완결성을 갖춘 솔루션 구성을 보장한다고 덧붙였다.

송 팀장은 “오픈AI가 연구하는 AI 자체는 MS 애저 퍼블릭 클라우드 안에서 계속 발전하고 있고 애저 오픈AI 서비스는 MS의 서비스수준협약(SLA)을 따르면서 책임 있는 AI 엔진으로 문제가 될 수 있는 명령을 차단하거나 거부하는 기능을 갖춰 B2B 서비스 환경에 좀 더 안전한 솔루션”이라면서 “MS는 오픈AI 기술 발전을 위한 컴퓨팅 자원을 제공하고 양사는 계속 상호 발전하는 관계를 다져갈 것으로 예상한다”고 말했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기