챗GPT의 거짓말, 대응책은…정부, 산학연과 AI윤리정책 만든다

김승한 기자 기사 입력 2023.04.07 17:44

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
eGPT
eGPT

정부가 챗GPT로 확산된 초거대·생성AI(인공지능) 시대에 대응하고 AI 윤리와 신뢰성을 확보하는 것을 목표로 산·학·연 전문가들과의 논의를 본격화한다.

7일 과학기술정보통신부는 KISDI(정보통신정책연구원), TTA(한국정보통신기술협회)와 서울 서초구 엘타워에서 '제2기 AI 윤리정책 포럼' 출범식을 개최하고 AI 윤리·신뢰성 확보를 위해 필요한 정책 방향을 토론했다.

또 앞으로 지속적인 포럼을 통해 관련 기술과 윤리 이슈에 대한 국내·외 동향을 살피고, 신뢰할 수 있는 초거대 AI가 개발·운영될 수 있도록 우리나라의 AI 윤리정책 방향을 제시하겠다는 뜻을 모았다.

포럼 위원장은 김명주 서울여대 정보보호학과 교수가 맡고, AI·철학·교육·법·행정 등 분야별 전문가를 비롯해 AI 산업계 종사자 등 총 30명이 포럼위원으로 활동한다.

포럼은 운영의 효율을 높이기 위해 3개의 전문분과위원회를 구성했다. 우선 '윤리분과'는 초거대·생성형 AI의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의한다. 아울러 'AI 윤리영향평가 프레임워크' 개발에 대한 의견수렴도 맡는다.

'기술분과'는 초거대·생성형 AI의 위험요소 도출, 신뢰성 확보를 위한 평가 데이터 구축, 기술 확보 방안 등 기술적인 쟁점을 논의한다. 또 'AI 신뢰성 검·인증 체계' 수립에 대한 의견수렴을 진행할 계획이다.

'교육분과'는 초거대·생성형 AI의 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 AI 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행한다.

출범식에 참석한 엄열 과기정통부 AI기반정책관은 "초거대·생성형 AI가 빠르게 확산되고 있는 상황에서 무엇보다 기술 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행돼야 한다"며 "포럼을 통해 AI 윤리정책 방향에 관한 사회적 합의를 마련하는데 힘쓰겠다"고 말했다.
  • 기자 사진 김승한 기자

이 기사 어땠나요?

이 시각 많이 보는 기사