
구글, 개인화 AI ‘퍼스널 인텔리전스’ 보안 가이드 공개
– 18일 구글 보안 지침 강화 발표… 개인 데이터 직접 학습 배제하고 프롬프트 기반 작동
– EU ‘AI 뉴스 학습비 유료화’ 법정 라이선스 검토 착수… 국내 포털 수익 모델 영향권

IT 업계의 뜨거운 감자인 인공지능과 개인정보 보호 사이의 균형점이 18일 구글의 새로운 보안 가이드라인 발표를 통해 구체화되었다.
구글은 이날 자사의 고도화된 개인화 AI 서비스인 ‘퍼스널 인텔리전스’의 기능을 미국 전역으로 전면 확장하며, 해당 AI가 지메일(Gmail)이나 구글 포토에 담긴 사용자의 사적 데이터를 무단으로 학습하지 않는다는 강력한 보안 원칙을 재천명했다. 이는 AI의 지능화에 따른 프라이버시 침해 우려를 선제적으로 불식시키기 위한 전략적 행보다.
새로운 지침에 따르면, 구글 AI는 사용자의 이메일 내용을 분석해 학습하는 대신, 사용자가 명시적으로 요청한 특정 프롬프트와 허용한 대화 응답 데이터만을 기반으로 실시간 비서 기능을 수행한다. 18일 구글 보안팀은 “우리의 목표는 사용자의 정보를 훔쳐보는 AI가 아니라, 사용자가 허락한 정보 안에서만 스마트해지는 AI”라고 강조하며 데이터 암호화 공정의 투명성을 높였다. 이러한 구글의 선언은 데이터 학습 모델의 불투명성으로 비판받던 빅테크 업계 전반에 새로운 표준을 제시할 것으로 보인다.
한편, 같은 날 유럽연합(EU)에서는 AI 기업들이 뉴스 콘텐츠를 학습할 때 언론사에 정당한 대가를 지불하도록 하는 ‘법정 라이선스’ 도입 검토 소식이 전해졌다. 18일 외신 보도를 종합하면, EU는 AI 모델이 창작자의 권리를 침해하지 않도록 학습 비용 지불을 의무화하는 법안을 강력히 추진 중이다. 이는 이른바 ‘브뤼셀 효과’를 통해 한국의 네이버와 카카오 등 국내 포털 기업들의 AI 학습 정책과 수익 구조에도 직접적인 압박으로 작용할 전망이다.
국내 IT 업계는 18일 단행된 이러한 글로벌 정책 변화를 예의주시하며 대응책 마련에 부심하고 있다. 한 IT 보안 전문가는 “이제 AI 기술 경쟁력은 단순히 성능이 아닌, ‘얼마나 안전하게 데이터를 다루는가’와 ‘얼마나 공정하게 가치를 배분하는가’의 싸움으로 변모했다”고 분석했다. 실제로 이날 네이버와 카카오 주가는 글로벌 규제 강화 움직임에 따른 불확실성 여파로 장중 변동폭을 키우는 모습을 보이기도 했다.