"시리야, 내 정보 저장하니?"…애플 AI 보안, 외부 전문가가 검증

배한님 기자 기사 입력 2024.10.02 14:46

URL이 복사되었습니다. 원하는 곳에 붙여넣기 해주세요.

공유하기
글자크기
팀 쿡 애플 CEO가 미국 캘리포니아주 쿠퍼티노 본사에서 아이폰 16시리즈 등 신제품을 선보이고 있다. /사진=로이터(뉴스1)
팀 쿡 애플 CEO가 미국 캘리포니아주 쿠퍼티노 본사에서 아이폰 16시리즈 등 신제품을 선보이고 있다. /사진=로이터(뉴스1)

애플의 AI(인공지능) 기능 '애플 인텔리전스'가 이달부터 미국에서 서비스를 시작한 가운데, AI 학습 등을 위해 사용자 정보를 저장하지 않는다고 재차 강조했다. 클라우드 AI에 연결되더라도 애플은 사용자 정보에 접근할 수 없다는 것. 이같은 보안 원칙이 지켜지는지 여부는 외부 보안 전문가를 통해 검증할 예정이다. 안드로이드가 '열린 생태계'를 기반으로 다양한 AI 기능과 사용자를 연결해 준다면, 애플은 다소 경직된 '닫힌 생태계'더라도 강력한 '보안'을 제공하는 데 초점을 맞춘 것이다.

2일 애플 관계자에 따르면 애플은 자사 생성형 AI 모델인 '애플 인텔리전스' 보안을 위해 독립적인 외부 보안 전문가를 고용하고 사용자 개인정보가 유출되지 않도록 관리·감독할 예정이다. 해당 전문가들은 애플 인텔리전스를 위해 애플이 개발한 자체 데이터 센터 시스템 '프라이빗 클라우드 컴퓨트(Priavte Cloud Compute)'를 점검한다. 아울러 애플 서버가 사용자의 정보를 저장하지 않고, 유출되지도 않도록 제대로 관리하는지 여부 등을 확인할 예정이다. 애플은 조만간 프라이빗 클라우드 컴퓨트 보안 관리자를 공개할 예정이다.

프라이빗 클라우드 컴퓨트에는 사용자 개개인만 접근할 수 있는데, 이같은 시스템은 애플이 직접 만든 보안성 높은 실리콘(반도체)을 통해 구현됐다. 아이폰이나 맥북, 아이패드 등 애플 기기에서 생성형 AI 기능을 사용할 때, 온디바이스로 처리하기 어려운 복잡한 작업은 프라이빗 클라우드 컴퓨트를 통해 서버로 옮겨져 고성능 AI 모델이 처리한다. 이 과정에서 사용자 정보가 안전하게 처리되는지는 외부 보안 전문가들의 분석을 거쳐 백서(White paper) 형태로 확인할 수 있다.

다만 챗GPT를 통해 처리되는 정보는 프라이빗 클라우드 컴퓨트로 보호받지 못한다. 애플은 자사 기기에서도 고성능 LLM(초거대 언어모델)을 사용할 수 있도록 오픈AI의 챗GPT와 아이폰·맥·아이패드를 연동했다. 사용자가 애플의 AI 음성비서 '시리(Siri)'를 통해 복잡한 작업을 요청하면 시리는 사용자에게 "챗GPT를 통해 문제를 해결하겠냐"고 묻는다. 자체 모델 애플 인텔리전스는 개개인의 스케줄이나 사진 파일 관리 등에 적합하도록 학습됐다. 반면 "전 세계 인구는 몇 명인가"라거나 "다음 주 서울에서 뉴욕으로 가는 비행기는 얼마인가"와 같은 보편적인 질문은 챗GPT에게 맡기는 것이 좋다.

애플과 오픈AI 간 계약에 따르면 애플 기기에서 넘어간 데이터는 오픈AI의 서버에 저장하거나 AI 모델 학습을 위해 사용할 수 없다. 같은 사람이 아이폰과 같은 애플 기기에서 여러 번 질문을 보내더라도 매번 IP(인터넷프로토콜)를 비식별화해 질문자를 특정할 수 없다. 그럼에도 불구하고 민감한 질문이나 기밀 등은 묻지 않는 것이 좋다는 것이 애플 측의 조언이다.

단 아이폰 등 애플 기기에서 챗GPT로 작업을 처리하는 과정에서 챗GPT 계정에 로그인한다면 사용자 정보는 오픈AI로 넘어가기 때문에 주의가 필요하다. 애플 관계자는 시리가 매번 어떤 정보와 어떤 파일을 챗GPT로 넘길지 확인하기 때문에 사용자가 신중하게 선택하면 된다고 설명했다.
  • 기자 사진 배한님 기자

이 기사 어땠나요?

이 시각 많이 보는 기사