방송통신위원회(위원장 이진숙, 이하 방통위)가 생성형 인공지능(generative AI) 서비스 이용 과정에서 발생할 수 있는 피해를 방지하기 위한 가이드라인을 발표했다. 이번 가이드라인은 생성형 인공지능 개발사 및 서비스 제공자가 준수해야 할 기본 원칙과 실행 방안을 제시하며, 오는 3월 28일부터 시행된다.

 

생성형 인공지능 기술은 텍스트, 이미지, 오디오 등을 새롭게 생성하는 방식으로 급속히 발전하고 있다. 그러나 이에 따라 AI가 생산한 콘텐츠의 출처 불분명성, 정보의 편향성, 악용 가능성이 사회적으로 논란이 되고 있다.

 

이에 방통위는 생성형 AI 서비스의 책임 있는 운영을 위해 6가지 실행 방안을 포함한 가이드라인을 마련했다. 이는 AI가 생산하는 콘텐츠가 특정 집단에 불리하거나 인격권을 침해하는 방향으로 작동하지 않도록 하기 위함이다.

 

이번 가이드라인의 주요 내용은 ▲이용자의 인격권 보호를 위한 내부 점검 및 신고 절차 마련 ▲AI 생성 콘텐츠의 출처를 명확히 고지하여 투명성을 강화 ▲차별 및 편향적 정보 생성을 방지하는 필터링 기능 도입 ▲이용자의 입력데이터 수집·활용 시 사전 동의를 받도록 절차화 ▲서비스 제공자 및 이용자의 책임 범위를 명확히 설정 ▲부적절한 콘텐츠 생성 및 공유 방지 등이다. 이를 통해 AI 서비스가 보다 신뢰할 수 있는 환경에서 운영될 수 있도록 한다는 것이 방통위의 설명이다.

 

이러한 변화에 대해 누리꾼들의 반응은 엇갈리고 있다. 한 누리꾼은 "AI가 만든 콘텐츠가 어디까지 안전한지 알 수 없었는데, 이런 가이드라인이 생겨서 조금은 안심이 된다"며 긍정적인 반응을 보였다. 반면, 또 다른 누리꾼은 "기업들이 이 가이드라인을 악용해서 AI 검열이 심해지는 것 아닌가 걱정된다"며 표현의 자유 위축 가능성을 우려했다. 일부에서는 "AI의 발전 속도가 너무 빠른데 가이드라인이 이를 따라갈 수 있을까?"라는 의문도 제기하고 있다.

 

방통위는 지난해 9월 ‘인공지능서비스 이용자보호 학술회의(컨퍼런스)’에서 주요 내용을 발표하고 사업자 간담회를 개최하는 등 현실적인 실행 가능성을 높이기 위해 노력했다고 밝혔다.

 

이번 가이드라인은 방통위 누리집(www.kcc.go.kr)에서 내려받을 수 있으며, 시행 후 2년마다 타당성을 검토해 개선할 방침이다. 신영규 방송통신이용자정책국장은 “이번 가이드라인이 생성형 인공지능 사업자들이 바람직한 이용자 보호 방안을 마련하는 데 기여할 것으로 기대된다”며, “이를 통해 이용자의 권리가 보장되고, 관련 서비스가 신뢰받는 환경이 조성될 것”이라고 강조했다.

 

이와 함께 방통위는 앞으로도 AI 기술 발전에 따른 새로운 이용자 보호 이슈에 적극 대응하며, 모든 이용자가 안전하게 AI 서비스를 활용할 수 있도록 지속적으로 정책을 보완해 나갈 계획이라고 밝혔다.