책임감 있는 AI 규제는 디지털 세계 안에 지리적인 경계를 세우고, 각국 정부가 경쟁적인 규제망을 구축하도록 해 비윤리적이거나 바람직하지 않은 AI와 생성 AI 적용에서 국가와 국민을 보호한다.
그러나 이런 움직임은 기업의 IT 리더들에게 과제를 안겨줄 것이다. 기업 내에서 외부 AI와 생성 AI 제품을 최대한으로 활용하는 것이 어려워지고, AI 개발자는 조직 전반에서 책임감 있는 AI 사용을 통해 AI 윤리, 투명성, 개인정보 보호에 더욱 신경 써야 하기 때문이다.
책임감 있는 AI는 AI 도입 시 조직의 상황에 따라 적절한 사업적·윤리적 선택을 내리는 데 필요한 모든 측면을 포괄한다. 예컨대 AI 사용에 대한 투명성 확보, 알고리즘의 편향성 완화, 모델 훼손·남용에서의 보호, 고객 개인정보 보호, 규정 준수 등이 있다. 책임감 있는 AI 역할은 긍정적이고 윤리적인 AI 개발과 활용을 보장하기 위해 조직의 책임과 관행을 운영하는 것이다.
그렇다면 책임감 있는 AI는 언제 기준이 될까. AI 도입, 그중에서도 생성 AI 도입이 가속화하고 관련 규제에 대한 관심이 높아짐에 따라 책임감 있는 AI는 향후 3년 내로 대중화할 것으로 예상된다.
이는 산업 전반 거의 모든 AI 애플리케이션에도 영향을 미칠 것이다. 단기적으로는 금융 서비스·의료·IT·공공기관·정부 등 규제가 많은 산업에서 우선적으로 도입될 것이다. 점차 소비자 신뢰 구축, AI 도입 촉진, 재미와 법적 리스크 완화 등에 도움을 주며 상대적으로 규제가 약한 산업에서도 중요한 역할을 할 것이다.
생성 AI 도입 프로젝트에 몇 가지 조치를 취한다면 향후 책임감 있는 AI 거버넌스에 대비할 수 있다. 이를 위한 첫 번째 조치는 책임감 있는 AI에 대해 고도화되는 각국 정부의 규정 준수 요건을 모니터링하고 통합해 조직의 생성 AI 제품·서비스 포트폴리오를 여러 다른 국가의 AI 규제 요건에 매핑하는 프레임워크를 개발하는 것이다.
둘째는 조직의 상황에 맞춘 책임감 있는 AI를 이해, 구현, 활용하는 것이다. 이를 위해 책임감 있는 AI를 위한 커리큘럼을 시행하고, 조직 전반에 교육과 가시성을 제공하며, 이해관계자를 참여시키고, 구현에 적합한 사용 사례와 솔루션을 식별할 수 있는 구조화된 접근 방식을 수립할 수 있다.
셋째는 사용자 중심 솔루션에서 책임감 있는 AI를 통합해 AI 신뢰성, 리스크, 보안관리(AI TRiSM)를 운영해 도입을 가속화하고 사용자 경험을 개선하는 것이다.
마지막은 서비스 공급업체가 책임감 있는 AI 거버넌스에 대한 책임을 지도록 계약상의 의무를 시행하는 것이다. 이는 AI 솔루션의 통제되지 않고 설명할 수 없는 편향성으로 인한 비윤리적이며 규정에 위배되는 행동이나 결과로 발생하는 영향을 완화한다.
결과적으로 책임감 있는 AI 거버넌스는 지금 당장 필요한 조치는 아니지만 AI가 산업을 막론하고 빠르게 확장, 도입되는 이 시기에 고려해야 할 조치다. 잠재적인 다양한 리스크를 배제할 수 있기 때문이다.