[이 기사에 나온 스타트업에 대한 보다 다양한 기업정보는 유니콘팩토리 빅데이터 플랫폼 '데이터랩'에서 볼 수 있습니다.]
"위험할 수 있는 자동차를 안전하게 탈 수 있는 것은 브레이크와 같은 기술적 안전장치와 더불어 도로교통법과 같은 법과 제도 덕분이다. 인공지능(AI)에도 안전장치가 필요하다."
전창배 국제인공지능윤리협회(IAAE) 이사장은 16일 AI 윤리와 AI 안전성을 주제로 열린 '2024 ASC(AI Safety Compass)'에서 "AI 윤리라는 안전장치가 필요하다. 안전한 AI 생태계 구현을 위한 법과 제도 마련이 그 어느 때보다 중요하다"며 이같이 말했다.
이번 콘퍼런스는 생성형 AI의 기술 발전과 함께 AI 할루시네이션(환각) 문제, 딥페이크, 가짜뉴스, 저작권침해 등 오류나 악용사례가 발생하는 상황에서 지속가능하고 안전한 AI 기술 발전과 사용 문화 확산 방안을 모색하기 위해 마련됐다.
행사에는 과학기술정보통신부, 한국지능정보사회진흥원(NIA) 등 공공 영역을 비롯해 네이버와 업스테이지, 베슬에이아이, 에임인텔리전스, 제네시스랩 등 AI 관련 기업이 참여했다. 이밖에 AI 도입을 계획하는 다양한 분야의 기업·기관 관계자 100여명이 참석했다.
발표자로 나선 엄열 과학기술정보통신부 정보통신정책관(국장)은 AI 정책 방향을 설명하며 △AI 일상화 확산 △혁신 AI 인프라 고도화 △글로벌 파트너십 확장 △지역·중소기업·정부 AI 활용 촉진 계획을 소개했다.
그는 입법이 추진되고 있는 'AI 기본법'과 관련해 "AI 발전과 신뢰성 조성 기반을 위해 법과 제도, 윤리적 체계가 조속히 완료돼야 한다. 국회에서 AI 기본법의 빠른 통과를 기대한다"고 말했다.
거대언어모델(LLM) '하이퍼클로바X'를 개발한 네이버의 이화란 퓨처AI센터 리드는 LLM의 안전성과 신뢰성에 대한 문제들을 소개하고 하이퍼클로바X의 안전성을 위해 네이버가 진행하고 있는 다양한 노력들에 대해 발표했다.
네이버는 AI 안전성 강화를 위해 2021년부터 '레드팀'을 운영하고 있으며 지난 1월 AI 안전성을 연구하는 '퓨처AI센터'를 신설한 바 있다.
이화란 리드는 "언어모델은 부정적 의견이나 문화, 사회, 국가별로 다른 정보들이 고스란히 녹아있어 편견과 고정관념을 갖고 있다"며 "외산 LLM을 국내에서 사용할 경우 그 결과값을 어떤 방향으로 평가하고 관리가 해야 하는지에 대한 관점이 필요하다"고 했다.
[머니투데이 스타트업 미디어 플랫폼 '유니콘팩토리']
"위험할 수 있는 자동차를 안전하게 탈 수 있는 것은 브레이크와 같은 기술적 안전장치와 더불어 도로교통법과 같은 법과 제도 덕분이다. 인공지능(AI)에도 안전장치가 필요하다."
전창배 국제인공지능윤리협회(IAAE) 이사장은 16일 AI 윤리와 AI 안전성을 주제로 열린 '2024 ASC(AI Safety Compass)'에서 "AI 윤리라는 안전장치가 필요하다. 안전한 AI 생태계 구현을 위한 법과 제도 마련이 그 어느 때보다 중요하다"며 이같이 말했다.
이번 콘퍼런스는 생성형 AI의 기술 발전과 함께 AI 할루시네이션(환각) 문제, 딥페이크, 가짜뉴스, 저작권침해 등 오류나 악용사례가 발생하는 상황에서 지속가능하고 안전한 AI 기술 발전과 사용 문화 확산 방안을 모색하기 위해 마련됐다.
행사에는 과학기술정보통신부, 한국지능정보사회진흥원(NIA) 등 공공 영역을 비롯해 네이버와 업스테이지, 베슬에이아이, 에임인텔리전스, 제네시스랩 등 AI 관련 기업이 참여했다. 이밖에 AI 도입을 계획하는 다양한 분야의 기업·기관 관계자 100여명이 참석했다.
발표자로 나선 엄열 과학기술정보통신부 정보통신정책관(국장)은 AI 정책 방향을 설명하며 △AI 일상화 확산 △혁신 AI 인프라 고도화 △글로벌 파트너십 확장 △지역·중소기업·정부 AI 활용 촉진 계획을 소개했다.
그는 입법이 추진되고 있는 'AI 기본법'과 관련해 "AI 발전과 신뢰성 조성 기반을 위해 법과 제도, 윤리적 체계가 조속히 완료돼야 한다. 국회에서 AI 기본법의 빠른 통과를 기대한다"고 말했다.
거대언어모델(LLM) '하이퍼클로바X'를 개발한 네이버의 이화란 퓨처AI센터 리드는 LLM의 안전성과 신뢰성에 대한 문제들을 소개하고 하이퍼클로바X의 안전성을 위해 네이버가 진행하고 있는 다양한 노력들에 대해 발표했다.
네이버는 AI 안전성 강화를 위해 2021년부터 '레드팀'을 운영하고 있으며 지난 1월 AI 안전성을 연구하는 '퓨처AI센터'를 신설한 바 있다.
이화란 리드는 "언어모델은 부정적 의견이나 문화, 사회, 국가별로 다른 정보들이 고스란히 녹아있어 편견과 고정관념을 갖고 있다"며 "외산 LLM을 국내에서 사용할 경우 그 결과값을 어떤 방향으로 평가하고 관리가 해야 하는지에 대한 관점이 필요하다"고 했다.
[머니투데이 스타트업 미디어 플랫폼 '유니콘팩토리']
'국제인공지능윤리협회' 기업 주요 기사
관련기사
- AI 자동투자 '핀트', 170억 투자유치…"퇴직연금 일임시장 공략"
- '반가사유상 미니어처' 그 회사의 앱, 100만건 다운로드했다
- 내 소비습관은 뱅갈고양이?…해빗팩토리, 'AI 머니 튜터' 출시
- 펫푸드 헬스케어 림피드, 신보 '리틀펭귄' 선정…10억 보증지원
- K-스타트업 자율주행 전문가, 국제표준 만든다…ISO기구 합류
- 기자 사진 최태범 기자 bum_t@mt.co.kr 다른 기사 보기
<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>