이종호 과기정통부 장관은 25일 강서구 마곡 LG사이언스파크에서 고학수 개인정보보호위원회 위원장 및 인공지능 분야 민간 최고위 관계자들과 함께 제4차 인공지능 최고위 전략대화를 개최했다. [사진=유은주 기자]
이종호 과기정통부 장관은 25일 강서구 마곡 LG사이언스파크에서 고학수 개인정보보호위원회 위원장 및 인공지능 분야 민간 최고위 관계자들과 함께 제4차 인공지능 최고위 전략대화를 개최했다. [사진=유은주 기자]

[이뉴스투데이 유은주 기자] 정부가 인공지능 정책 실현과 활성화를 위한 윤리와 신뢰 확보를 위해 인공지능이 만든 제작물에 워터마크 도입을 제도화하고, 개인정보보호를 위해서는 AI프라이버시 팀을 만들어 인공지능 관련 기업요청을 원스톱으로 처리한다. 

과학기술정보통신부 이종호 장관은 25일 오전 10시, 강서구 마곡 LG사이언스파크에서 개인정보보호위원회 고학수 위원장 및 인공지능 분야 민간 최고위 관계자들과 함께 안전한 인공지능 확산방안을 논의하기 위해 제4차 인공지능 최고위 전략대화를 개최했다.

이종호 장관은 인사말에서 “인공지능은 디지털 심화 시대의 핵심기술로서 디지털 권리장전의 실효성 제고를 위해선 인공지능의 신뢰성과 안전성을 확보 노력이 무엇보다 중요하다”며 “민간 자율 AI 신뢰성 검·인증 지원을 비롯한 인공지능 윤리 생태계 기반 조성과 적합한 규제 체계를 정립해가는 데 힘쓰겠다”고 밝혔다. 

이종호 장관이 인사말을 통해 인공지능은 디지털 심화시대의 핵심기술로 디지털 권리장전 실효성 제고를 위해 신뢰성과 안정성 확보가 중요하다고 강조했다. [사진=유은주 기자]
이종호 장관이 인사말을 통해 인공지능은 디지털 심화시대의 핵심기술로 디지털 권리장전 실효성 제고를 위해 신뢰성과 안정성 확보가 중요하다고 강조했다. [사진=유은주 기자]

고학수 개인정보보호위원회 위원장은 “지난 8월 위원회는 개인정보 활용 정책 방향을 발표하고 개인정보 침해 등 부작용을 최소화해 혁신 생태계 발전을 지원하는 제도 기반을 마련하고 있다”며 “개인정보 정책의 기본방향을 제시하고 새 제도적 기반을 마련하기위해 세부적인 기준과 체계, 현장 상황을 반영해 민관이 공동 설계해가고 있다”고 전했다. 

이어 “AI 영역은 변화속도가 매우 빠르기에 규율 체계 정립과 법적인 불확실성 해소를 위한 위원회 내부 AI 프라이버시 팀을 신설해 AI에 관한 기업의 요청을 원스톱으로 처리할 것”이라고 밝혔다. 

인공지능 윤리·신뢰성 확보 추진계획은 △민간자율 인공지능 윤리·신뢰성 확보 지원 △세계를 선도하는 인공지능 윤리·신뢰성 기술·제도적 기반 마련 △사회 전반의 책임 있는 인공지능 의식 확산 등이다. 

세부 추진과제로는 먼저 생성형 인공지능 기반 서비스 등 분야별 가이드 라인을 마련·확대하고 민간 자율 신뢰성 검·인증을 11월부터 추진한다. 특히 AI 사업 중 고위험 영역 인공지능 개발·실증 사업을 수행하는 기업을 일부 선정해 올 12월에 시범 인증에 들어간다.

내년부터는 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 기술개발도 신규 추진한다. 인공지능 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 인공지능 오작동 등에 따른 인공지능의 잠재 위험요인에 대응하기 위해 마련됐다.  

신뢰성 확보를 위해서는 인공지능이 생성한 결과물에 대한 워터마크 도입의 제도화를 검토하고, 고위험 인공지능에 대한 해설서를 마련(’24.1분기)하는 등 제도 정립 에도 나선다.

민간에서는 김유철 LG AI 연구원 부문장이 ‘인공지능 윤리원칙 실행을 위한 기업의 노력’을 발표했다. 김 부문장은 국익과 신뢰성 확보를 위해 글로벌 AI규범을 선도하려는 미국, 유럽, 중국, 한국의 동향과 글로벌 AI규범의 요구사항 등에 대해 설명하고 LG의 AI윤리실행 로드맵, AI 연구 및 AI신뢰성 검인증 체계 구축 현황도 전했다.    

김동민 JLK 대표는 ‘고위험 인공지능 분야에 대한 신뢰성 검·인증의 필요성’에 대해 발표했다. 특히 인공지능 신뢰성 및 윤리준수의 어려움과 지원의 필요성에 대해 강조했다. 

발표에 이은 주제토론에선 ‘인공지능 산업발전과 신뢰성 확보의 균형을 위한 민간자율 검·인증 추진방향’에서 일반영역 및 고위험영역 인공지능의 신뢰성 검·인증이 나아가야 할 방향을 논의했다. 

토론에선 ‘초거대·생성형 인공지능의 신뢰성 향상을 위한 자발적 노력’에 대한 논의를 진행했다. 기업들은 인공지능 생성물에 워터마크 도입, 신뢰성 확보 기술개발 및 책임있는 거버넌스 구축 등 기업의 자발적인 노력을 공유했다.

초거대 인공지능 기업들은 인공지능이 생성한 결과물에 대한 ‘가시적 워터마크’ 도입이 필요하다는 점에 공감하고 기술적 완성도를 고려해 자사 서비스에 단계적으로 적용하는 것에 동의했다.

한편, 정부는 인공지능 신뢰성 확보를 위해 2020년 12월 인공지능 윤리기준을 발표하고 2021년 5월 신뢰할 수 있는 인공지능 실현전략을 마련했다. 지난해 2월에는 운영자용 자율점검표와 개발자용 개발안내서를 내고 인공지능 윤리정책 포럼 등을 운영하며 안전한 AI환경 조성에 적극 나서고 있다. 올해 2월에는 인공지능법 제정도 지원해 과방위 소위를 통과했다. 

그밖에도 생성형 인공지능 대표기업 등을 방문해 기업이 개발하는 인공지능이 정부의 윤리 기준과 가이드라인을 잘 수렴할 수 있도록 윤리와 신뢰성 준수 현황 파악에 나서고 있다. 

※ 여러분의 제보가 뉴스가 됩니다. 각종 비리와 부당대우, 사건사고와 미담, 소비자 고발 등 모든 얘깃거리를 알려주세요

이메일 : webmaster@enewstoday.co.kr

카카오톡 : @이뉴스투데이

저작권자 © 이뉴스투데이 무단전재 및 재배포 금지