[문형남 칼럼] 전 국민을 위한 '생성형 AI 활용 가이드라인'

2023-06-26 19:18
  • 글자크기 설정

[문형남 교수]



 
이탈리아 정부 당국은 지난 3월 말에 개인정보 보호 우려 등을 이유로 서양 국가 중 최초로 '챗GPT' 접속을 차단했다. 이탈리아 데이터보호청(The Italian Data Protection Authority, Garante)은 챗GPT가 이탈리아의 개인정보 보호 기준과 규정을 충족할 때까지 접속을 일시적으로 차단한 것이다. 당시 이탈리아 데이터보호청은 챗GPT가 이탈리아 기반 사용자에 대한 접속을 차단하지 않으면 벌금을 부과할 것이라고 했다.
 
보호청은 챗GPT가 알고리즘 학습을 위한 목적으로 개인정보를 대량으로 수집하고 저장하는 행위를 정당화할 법적 근거가 없다고 지적했다. 챗GPT는 사용자 연령을 확인할 수 있는 방법이 없어서 미성년자들에게 그들의 발달과 인식 수준에 비해 부적절한 답변을 제공할 수 있다고 설명했다. 보호청은 챗GPT 개발사 오픈AI가 해결책을 내놓지 않으면 전 세계 매출액의 최대 4%에 달하는 벌금을 물게 될 것이라고 경고했다. 한 달 만인 4월 말에 사용 금지 조치를 해제했다. 개인정보 수집 및 처리와 미성년자를 보호하는 메커니즘을 추가하는 등 이탈리아 데이터 보호 당국이 요청한 변경 사항을 반영했기 때문이다.
 
전문가들은 챗GPT가 데이터를 어디서 얻었는지, 어떻게 처리했는지 불분명하다는 점을 이유로 우려를 표했다. 오픈AI는 챗GPT를 어떻게 학습시켰는지에 대한 세부 정보를 제공하지 않고 있다. 대학과 일부 교육 당국은 학생들이 챗GPT를 사용해 과제를 작성하거나 시험에서 부정행위를 저지르자 사용을 금지했다. 중국, 홍콩, 이란, 러시아와 아프리카 일부 지역에서는 챗GPT를 사용할 수 없다. 서방 국가 중에서 챗GPT 사용을 금지한 국가는 이탈리아가 처음이다.
 
이탈리아 당국은 챗GPT를 차단했다 해지했지만 차단이 능사는 아니다. 차단보다는 가이드라인을 제공하고 바르게 사용하도록 하는 것이 바람직한 정책이다. 국내 일부 대학들은 학생과 교수 등을 대상으로 챗GPT 활용 가이드라인을 제정해서 권고하고 있다. 국가정보원은 챗GPT 등 생성형 인공지능(AI) 기술 활용 과정에서 발생하는 보안 문제를 예방할 가이드라인을 마련해 공공기관 및 지방자치단체에 배포할 예정이라고 한다. 이처럼 학생과 교수 및 공무원을 대상으로 한 챗GPT 활용 가이드라인은 있지만 일반인을 위한 챗GPT 활용 가이드라인은 아직 없다. 그래서 필자는 한국AI교육협회 및 인공지능(AI)융합연구소 등과 함께 전 국민이 사용할 수 있는 ‘생성형 AI 활용 가이드라인’을 제정했다.
 
이번 가이드라인은 모두 10가지로 이뤄졌으며, 이를 잘 따르면 챗GPT 등 생성형 AI 사용에서 생기는 많은 문제점이 해소되며, 생성형 AI 사용 시 긍정적인 효과로 우리나라가 AI강국이 되는 데도 많은 도움이 될 것으로 생각한다.
 
첫째, 생성형 AI의 특성과 장점 및 단점 등을 잘 이해하고 사용해야 한다. 먼저 생성형 AI가 어떻게 작동하는지 원리와 특징을 잘 이해해야 한다. 생성형 AI는 그럴듯하게 말(텍스트), 이미지, 동영상 등을 생성해(만들어) 답변을 해서 그 결과가 유용하게 활용될 수도 있지만 답변 중에는 틀린 내용도 적지 않을 수 있다는 점을 간과해서는 안된다. 생성형 장점과 단점을 잘 알고, 장점을 잘 활용하고, 단점 부분을 잘못 활용하지 않도록 주의하여야 한다.
 
둘째, 생성형 AI를 사용할 때는 챗GPT, 바드, 빙 등을 복수로 사용한다. 현재 3대 생성형 AI는 챗GPT, 바드, 빙이다. 이 세 가지는 우열을 가리기는 어렵고, 어떤 때는 챗GPT가 좋은 답을 내놓지만 다른 때는 바드나 빙이 더 나은 답을 내놓기도 한다. 그러므로 생성형 AI를 사용할 때는 한 가지를 사용하기보다는 두 가지나 세 가지를 사용해서 더 나은 결과를 채택하거나 융합한 결과를 사용하는 것이 바람직하다.
 
셋째, 생성형 AI가 틀린 답을 할 때 생성형 AI에게 바른 답을 알려준다. 생성형 AI가 틀린 답을 할 때도 적지 않다. 대부분 사용자들은 생성형 AI가 틀린 답을 해도 답이 틀렸구나 하고 대부분은 그냥 넘어간다. 바람직한 사용법은 맞는 답을 알고 있다면 생성형 AI에게 알려줘서 고치도록 해야 한다.
 
넷째, 생성형 AI 사용자는 항상 윤리의식을 갖고 사용해야 한다. 생성형 AI를 통해서 범죄나 부당한 목적을 위헤서 정보를 얻거나 활용해서는 안 된다. 생성형 AI 사용자는 스스로 윤리의식을 고취해야 하며 틈틈이 생성형 AI에게도 윤리 교육을 해야 한다.
 
다섯째, 항상 보안의식을 갖고, 개인정보나 기업정보를 입력하지 말아야 한다. 생성형 AI에게 질문을 하면서 개인정보나 기업의 기밀정보를 입력해서는 안 되며, 개인정보나 기업의 기밀정보를 얻으려고 해서도 안 된다. 생성형 AI를 사용할 때는 항상 보안의식을 갖고 사용해야 한다.
 
여섯째, 생성형 AI의 답변 중에 틀린 내용을 분별할 수 있도록 노력해야 한다. 생성형 AI의 답변을 무분별하게 그대로 사용해서는 안 된다. 기자들 중에는 생성형 AI에게 뭔가를 물어보고, 답변 내용에 대해 검증도 하지 않고, 생성형 AI에게 물었더니 이렇게 답변했다고 보도하는 사례가 적지 않다. 생성형 AI의 답변 내용에는 오류가 적지 않다는 인식을 갖고 답변 내용을 검증해야 한다.

일곱째, 생성형 AI 관련 기술과 부가 기능 등 최신 동향을 파악해서 활용한다. 생성형 AI 관련 기술이 매우 빠르게 발전하고 있으므로 최신 기술을 적용해서 생성형 AI 활용의 성과를 제고하는 노력이 필요하다.
 
여덟째, 생성형 AI를 활용해서 업무와 학습 효율을 제고하도록 노력해야 한다. 생성형 AI를 잘 활용하면 업무와 학습 효율을 크게 높일 수 있으므로 적절하게 활용하는 지혜가 필요하다. 반면 생성형 AI를 사용하면서 시간 낭비를 하지 않아야 한다.
 
아홉째, 생성형 AI와 관련해 잘못된 정보들이 많은데 이를 분별해야 한다. 시중에는 생성형 AI와 관련한 잘못된 정보들도 너무나 많다. 생성형 AI에 대한 책, 기사, 강의 등 내용을 보면 틀린 정보를 제공하는 사례가 많다. 강사나 정보 제공자의 학력과 전공 및 실무 경력 등을 잘 살펴보고 받아들여야 한다.
 
열째, 생성형 AI는 나를 도와주는 것이라는 정확한 관계 인식을 해야 한다. 생성형 AI와 좋은 관계를 설정하고, 나를 잘 돕도록 지속적으로 잘 조련(훈련)해야 한다. 생성형 AI는 사용자의 협력 파트너로서 많은 도움을 줄 수 있다.



문형남 필자 주요 이력

△성균관대 경영학 박사 △매일경제 기자 △대한경영학회 회장 △K-헬스케어학회 회장 △대한민국ESG메타버스포럼 의장 △한국AI교육협회 회장 △ESG메타버스발전연구원 대표이사 △(사)지속가능과학회 공동회장

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
공유하기
닫기
기사 이미지 확대 보기
닫기
언어선택
  • 중국어
  • 영어
  • 일본어
  • 베트남어
닫기