본문 바로가기
알쓸잡

「생성형 인공지능 서비스 이용자 보호 가이드라인」 발표

by 아꿈사 2025. 2. 28.
728x90
반응형
- 개발사·서비스 제공자 대상, 이용자 보호 기본원칙 및 실행방식 제시 -

 

기존 콘텐츠를 활용해 유사 콘텐츠를 새로 만들어내는 ‘생성형 인공지능(generative AI)’ 서비스 과정에서 이용자 피해를 방지하기 위한 가이드라인이 나왔다.

 

방송통신위원회는 28일 텍스트, 오디오, 이미지 등 생성형 인공지능 서비스 이용 과정에서 피해를 방지하기 위해 사업자들이 참고할 수 있는 실천 방안을 담은 「생성형 인공지능 서비스 이용자 보호 가이드라인」을 발표했다고 밝혔다.

 

오는 3월 28일부터 시행되는 이번 가이드라인은 생성형 인공지능 개발사 및 서비스 제공자를 대상으로 서비스 전반에 걸쳐 추구해야 할 4가지 기본원칙과 이를 실현하기 위한 6가지 실행 방식을 제시하고 있다.

 

< 6가지 실행 방식 >

(이용자 인격권 보호) 인격권 침해 요소 발견·통제 알고리즘 구축 노력, 산출물 관리 책임 인지, 내부 점검(모니터링) 체계 및 이용자 신고 절차 방안 마련 등

(결정 과정을 알리려는 노력) 산출물이 인공지능으로 생성되었음을 고지, 생성형 인공지능의 결정 과정에 대한 정보 제공 등

(다양성 존중 노력) 차별·편향적 사용을 방지하기 위한 걸러내기(필터링) 등 기능적 장치 마련, 편향적 정보 생성 등 위험성에 대한 신고 절차 마련 등

(입력데이터 수집·활용 과정에서의 관리) 이용자의 입력데이터를 수집하고 학습에 활용하는 것에 대한 사전 동의 절차 마련, 기업 내 관련 책임자를 선정해 관리 등

(문제 해결을 위한 책임과 참여) 서비스 제공자 및 이용자의 책임 범위를 정의하고 책임 주체가 이를 명확히 인지하도록 안내, 점검 시스템 등 위험관리 체계 마련 등

(건전한 유통·배포를 위한 노력) 부적절한 콘텐츠를 생성하거나 공유하지 않도록 안내, 이용자의 입력과 산출물이 도덕적·윤리적 기준을 준수하는지 검토·관리 등

 

이와 함께 사업자들의 수용성 및 이해도 제고를 위해 실제 제공되고 있는 서비스 중 이용자 보호 영역의 모범 사례도 제공한다.

 

이는 생성형 인공지능 기술의 급격한 발전이 일상생활에 혁신적 변화를 가져오고 있지만, 사회적으로 물의가 되는 첨단조작기술영상(딥페이크) 성범죄물, 차별·편향 등 부작용도 심각하게 대두되고 있어 이용자 안전 및 권리를 보호할 제도적 기반 마련 필요성이 지속적으로 제기돼 온데 따른 것이다.

 

방통위는 이를 위해 정보통신정책연구원(KISDI) 및 인공지능 전문가가 참여하는 연구반을 구성하고, 그 간의 생성형 인공지능 피해 사례와 국내외 주요 서비스별 이용자 보호 현황 등을 검토해 이번 가이드라인을 마련했다.

 

이 과정에서 이해관계자 의견을 수렴하기 위해 지난해 9월 열린 인공지능서비스 이용자보호 학술회의(컨퍼런스)를 통해 가이드라인의 주요 내용을 발표하고, 주요 사업자 대상 기업 간담회를 개최하는 등 현실적이고 실행 가능한 내용을 담기 위해 노력했다.

 

이번 가이드라인은 28일부터 방통위 누리집(www.kcc.go.kr)을 통해 내려 받을 수 있으며, 방통위는 시행일 기준 2년마다 가이드라인에 대한 타당성을 검토해 개선 등 조치를 취할 계획이다.

 

신영규 방송통신이용자정책국장은 이번 가이드라인을 통해 생성형 인공지능 사업자가 바람직한 이용자 보호 방안을 마련할 수 있게 될 것으로 기대한다, “이를 통해 궁극적으로 이용자의 권리가 보장되고 관련 서비스가 신뢰받을 수 있는 기반을 마련할 수 있을 것이라고 말했다.

 

방통위는 향후에도 인공지능 기술 발전과 함께 새롭게 발생하는 이용자 보호 이슈에 대응해 나갈 예정이며, 모든 사회구성원이 안전한 서비스 이용 환경 속에서 인공지능의 편의와 혜택을 고루 누릴 수 있도록 하는 데 앞장선다는 방침이다.

 

 

 

출처: 방송통신위원회 보도자료(2025. 2. 28)

728x90
반응형