어쩌면 애플이 옳을지도 모르겠다: AI 시대의 개인정보 딜레마

2025년 메타 AI의 개인정보 유출 사건은 단순한 실수가 아니라 생성형 AI 시대의 본질적 딜레마를 드러낸다. 반면 애플은 속내는 어떤지 모르지만 온디바이스 AI로 개인정보를 보호하겠다면서 ‘개인정보는 개인의 것’이라는 원칙을 고수하고 있다. 기술적 편의성과 프라이버시 보호 사이에서 어떤 선택이 옳은가?

어쩌면 애플이 옳을지도 모르겠다: AI 시대의 개인정보 딜레마

2025년, 메타(Meta)의 AI 서비스, 메타 AI에서 발생한 개인정보 노출 사건은 AI를 어디까지 믿어야 하는가, 에 대한 근본적인 질문을 던진다. 사건은 이랬다. 66세 아이오와 남성이 “젊은 여성을 만날 수 있는 나라는 어디인가?”라는 사적인 질문을 메타 AI에게 물었다. 문제는 이 대화가 타임라인(Discover 피드)에 실명, 프로필 사진과 함께 누구나 볼 수 있도록 노출됐다는 점이다. 이 외에도 여행 계획, 레시피부터 의료상담, 세입자 계약 해지, 법적 자문, 가족 문제, 신체 증상까지 - 여러 개인의 신상과 일상이 실시간으로 공개됐다.

메타는 “이용자가 설정에서 공개해야 타임라인에 올라간다”고 해명했으나, 실제 서비스 구조는 이용자가 비공개와 공개의 차이를 직관적으로 이해하기 어려웠다. 언론 보도 후에도 일부 이용자는 의도치 않게 민감한 정보를 공유하고 또 다른 일부는 장난이나 트롤링으로 시스템의 허점을 실험했다. (하필 한국에서 사용할 수 없으니 와이어드 기사를 참조했다)

이는 단순한 기술적 오류나 사용법의 실수가 아니다. 생성형 AI 시대에 우리가 직면한 근본적인 딜레마의 상징이다.

반복되는 개인정보 유출의 악순환

메타 AI 사건은 빙산의 일각에 불과하다. 2023년부터 생성형 AI 분야에서는 개인정보 유출 사건이 끊이지 않고 있다. 기술적 관점에서 보면, ChatGPT는 2023년 3월 Redis 라이브러리 버그로 1.2%의 유료 사용자 대화 기록이 노출되었고, 같은 해 12월에는 연구자들이 특정 단어를 무한 반복시켜 훈련 데이터를 추출하는 공격에 성공했다. 2024년 10월에는 22만 5천 개 이상의 OpenAI 계정 정보가 다크웹에서 거래됐다.

이탈리아 개인정보보호 당국이 2024년 12월 OpenAI에 1,500만 유로의 벌금을 부과한 사건이 주목할 만하다. 적절한 법적 근거 없이 개인데이터를 AI 훈련에 사용하고, 13세 미만 사용자 접근을 방지하지 못한 것이 주요 위반 사항이었다.

가장 심각한 것은 삼성 직원들이 ChatGPT에 기업 기밀을 입력해 소스코드와 내부 회의록이 유출된 사건이다. 이는 개인정보를 넘어 기업 보안까지 위협하는 새로운 차원의 문제를 제기했다.

애플의 다른 선택: 온디바이스 AI라는 해답

이런 상황에서 애플은 2025년 WWDC에서 완전히 다른 접근법을 제시했다. 바로 '온디바이스 AI'다. 온디바이스 AI란 정보를 클라우드에 보내지 않고 기기 안에서 처리하는 방식이다. 모든 AI 처리가 기기 내에서 실행되어 사용자 데이터가 외부 서버로 전송되지 않는다. Live Translation 기능은 Messages, FaceTime, Phone에서 완전히 온디바이스로 작동하며, 사용자의 개인 대화가 개인적으로 유지된다. 다만 클라우드로 보내는 것에 비해 성능이 떨어진다. 그래서 애플의 AI, 애플 인텔리전스는 이름만 잘 지었다는 비아냥을 받았다.

물론 Craig Federighi는 "강력하고, 빠르며, 개인정보 보호가 내장되어 있고, 사용자가 오프라인일 때도 사용할 수 있는 지능형 기능"이라고 설명했다. 파운데이션 모델(Foundation Models) 프레임워크를 통해 개발자들이 단 3줄의 코드로 애플의 온디바이스 AI 모델에 접근할 수 있다고도 했다.

기술이 없어서 이렇게 했던, 아니면 진짜 이게 철학이라서 했던 간에 이는 '개인정보 보호 우선주의'라는 애플의 일관된 철학을 반영한다. 클라우드의 무한한 연산 능력을 포기하더라도 사용자의 프라이버시를 지키겠다는 의지의 표현이다.

온디바이스 AI의 한계

하지만 온디바이스 AI는 완벽한 해결책이 아니다. 명확한 한계가 존재한다. 기술적 한계는 명백하다. 모바일 기기의 제한된 처리 능력, 메모리, 저장 공간으로 인해 클라우드 기반 대형 모델 대비 성능이 떨어진다. 복잡한 추론이나 창의적 작업에서는 한계를 보일 수밖에 없다.

경제적 측면에서도 부담이 크다. 각기 다른 기기 사양에 맞는 모델 개발, 수많은 기기 조합에서의 성능 검증, AI 전용 프로세서 탑재로 인한 제품 가격 상승 등이 불가피하다.

사용자 경험 측면에서는 최신 정보 접근 제한, 기기별 성능 차이, 전문 분야 지식 부족 등의 문제가 있다. 클라우드 AI가 인터넷 전체 데이터를 활용하는 반면, 온디바이스 AI는 기기 내 제한된 데이터에 의존할 수밖에 없다.

그럼에도 불구하고?

그럼에도 불구하고 애플의 선택은 옳았을까? 법적 관점에서 GDPR, 개인정보보호법 등 전 세계적으로 강화되는 개인정보 규제 환경에서 온디바이스 AI는 가장 안전한 접근법이다. 데이터가 기기를 떠나지 않으면 대부분의 개인정보 관련 법적 리스크를 원천 차단할 수 있다.

기술적으로는 현재의 한계가 영구적이지 않다. 모바일 프로세서의 성능은 지속적으로 향상되고 있고, AI 모델 최적화 기술도 빠르게 발전하고 있다. 5년 후에는 현재 클라우드에서만 가능한 작업들이 스마트폰에서도 가능해질 것이다. 물론 그 때 클라우드를 이용한 AI는 더 멀리 나아가 있겠지만.

어쨌든 애플은 개인정보는 개인의 것이라는 기본 원칙을 지켰다. 개인정보는 개인의 것이라는 기본 원칙을 지키는 것이다. 편의성을 위해 개인정보를 포기하는 것이 당연하다고 여겨지는 시대에, 애플은 자의던 타의던 개인정보를 지키는 선택을 한 것이다.

메타 AI의 개인정보 노출 사건이 우리에게 던진 질문은 명확하다. 우리는 편의성을 위해 얼마나 많은 개인정보를 포기할 것인가? 애플의 온디바이스 AI는 이 질문에 대한 하나의 선택지다. 완벽하지는 않고, 비실거리고 아직은 AI 스럽다고 말하기 곤란하지만 어쨌든 방향은 올바르다.

AI 시대에 개인정보 보호는 선택이 아닌 필수다. 애플이 선택한 길이 당장은 험난할지 모르지만, 결국 우리 모두가 걸어가야 할 길이 아닐까. 그래서 나는, 남들이 보기엔 애플빠겠지만, 어쩌면 애플이 옳을지도 모르겠다고 생각했다.