AI 안전연구소 출범…김명주 초대 소장 "EU AI법과 규제 호환 모색할 것"

2024-11-27 16:16
  • 글자크기 설정
김명주 초대 AI 안전연구소장
김명주 초대 AI 안전연구소장이 27일 경기 성남 판교 글로벌 R&D센터에서 열린 'AI 안전연구소 개소식'이 끝난 후 기자들의 질문에 답하고 있다. [사진=윤선훈 기자]
한국에서 전 세계 6번째로 인공지능(AI) 안전연구소가 출범한 가운데 초대 소장으로 임명된 김명주 AI 안전연구소장(서울여대 정보보호학부 교수)이 앞으로 국내 AI 기업과의 협업 방안을 적극적으로 모색하겠다고 밝혔다.

김명주 소장은 27일 경기 성남 판교 글로벌 R&D센터에서 열린 'AI 안전연구소 개소식'이 끝난 후 기자들과 만나 "AI 기본법이 조만간 통과될 것으로 보이는데 유럽연합(EU)의 AI법과 호환이 됐으면 한다"며 "가령 AI 기본법을 잘 준수하는 기업들이 EU에 진출할 때 어느 정도 EU의 AI법을 면제받을 수 있도록 해 주는 것"이라고 말했다. 

실제 김 소장은 최근 미국 샌프란시스코에서 열린 '국제 AI 안전연구소 네트워크'에 참여해 EU 측 관계자들과 만나 국내 기업이 AI 규제의 호환 대상이 될 수 있는지 논의했다. 김 교수는 "이전에도 EU 개인정보보호법(GDPR)과 같은 사례가 있었고, 비록 구체적인 논의를 더 해야 하지만 일단 EU에서는 긍정적으로 답했다"고 언급했다. 앞서 한국 개인정보보호법은 지난 2021년 12월 EU로부터 GDPR 상의 적정성 결정을 받으며, 한국 기업들이 별도의 절차 없이도 EU 시민의 개인정보를 국내로 이전해 처리할 수 있게 된 바 있다.

김 소장이 이러한 '호환성'을 언급한 것은 EU AI법의 경우 상대적으로 사전규제 수준이 강력하기 때문이다. EU AI법은 동의하지 않은 데이터를 기반으로 개인을 평가 또는 분류하는 행위, 인터넷과 폐쇄회로(CC)TV 영상에서 불특정 다수의 이미지를 수집해 얼굴인식 데이터베이스(DB)를 구축하는 행위 등을 금지했다. 이를 토대로 금지된 AI의 범위를 명시적으로 정해 이와 관련된 AI 개발·활용을 원천적으로 봉쇄한다. 반면 국내에서 논의 중인 AI 기본법은 '고위험(고영향) AI'의 범주를 정하기는 했지만 '금지 AI'를 사전에 지정하지는 않았다.

김 소장은 다만 실제 국내 AI 서비스가 EU에 진출했을 때 적용받게 될 규제, 인증, 표준 절차 등에 대해서는 세부적인 각론 관련 논의가 필요하다고 전제했다.

김 소장의 이러한 발언을 토대로 AI 안전연구소가 AI 기업을 규제하기 위한 목적이 아니라, 오히려 AI 기업들에게 도움이 되는 역할을 할 수 있다고 강조했다. 그는 "인증이나 표준 이런 부분들이 기업에게 불편할 수 있는 요소다 보니 연구소가 규제 기관이 아니냐는 시각이 있는데 오히려 저희는 '셰르파'라고 생각한다"며 "무엇이 위험한지 잘 알고 있는 전문가들이 기업을 도울 수 있다고 생각한다"고 언급했다. 실제 AI 안전연구소의 주요 미션 중 하나는 국내 AI 안전 제도를 확립하고 AI 기업의 안전 확보를 지원하는 것이다.

앞으로 연구소 차원에서 글로벌 AI 거버넌스 논의에 적극적으로 참여하겠다는 방침이다. AI 안전연구소장으로서의 공식적인 행보도 지난주 국제 AI 안전연구소 네트워크에 참여해 미국, 캐나다, 프랑스, 일본, EU 등 10개국과 AI 안전성에 대해 논의한 것으로 시작했다. 앞으로 해당 네트워크가 AI 안전 관련 표준을 주도적으로 이끌 것으로 예상되는 만큼 연구소 역시 이를 중심으로 적극적으로 국제 공조를 해 나가겠다는 방침이다. 

국내 정보기술(IT) 기업들과의 협업도 예상된다. 이날 삼성·LG·SK텔레콤·KT·네이버·카카오 등 정보기술(IT) 대기업과 라이너·뤼튼테크놀로지스·코난테크놀로지·트웰브랩스·포티투마루 등 AI 스타트업, 대학교 등이 참여하는 'AI 안전 컨소시엄'도 함께 출범했다. 연구소 차원에서 이들이 AI 안전 문제로 인해 사업에 장애가 되지 않도록 돕기도 하고, 기업과 대학 차원에서 연구소와 같이 할 수 있는 여러 방안들을 모색하는 등 앞으로 협업 관계를 긴밀히 할 전망이다. 오픈AI, 앤스로픽, 마이크로소프트(MS), 구글 등 빅테크 기업들과의 협업도 모색한다. 실제 미국 AI 안전연구소의 경우 앤스로픽 등 AI 기업들과 손잡고 AI 안전성 등과 관련한 테스트를 진행하고 있다고 김 소장은 설명했다.

김 소장은 AI 안전연구소가 AI 안전·신뢰성 연구를 하는 만큼 이와 관련된 좋은 인재를 찾기 위한 방안도 고민 중이라고 언급했다. AI 안전연구소의 초기 인력은 12명인데 내년 1월 6명을 충원해 18명으로 늘리고 오는 2026년까지 30명 규모로 점진적으로 확대하겠다는 방침이다. 연구소는 한국전자통신연구원(ETRI)에 산하 조직으로 구성돼 연구소 구성원들은 ETRI 직원에 준하는 대우를 받는다.

김 소장은 "ETRI 직원이 받는 월급으로 과연 좋은 AI 인재를 채용할 수 있을지에 대한 많은 질문이 있었다"면서 "이를 위해 특별수당을 추가로 지원하고, 최소한 판교에 있는 AI 기업들의 평균 정도는 줘야 한다는 논의가 있었는데 이와 관련해서 계속해서 고민하고 있다"고 말했다. 그러면서 "영국의 경우 AI 안전연구소 직원 연봉이 공무원임에도 불구하고 약 2억원에 달하는데 인재 유치를 위해 상한선을 없앤 것"이라며 "AI 기본법이 통과되면 이러한 부분에 대해서도 새로 논의를 해야 한다"고 덧붙였다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기