기타 분류
챗GPT 사용자 대화, 구글 색인으로 유출
작성자 정보
- 작성일
컨텐츠 정보
- 2,505 조회
-
목록
본문

생성형 AI 기반 서비스에서는 검색이나 질의에 민감한 개인정보를 사용하는 것이 위험하다는 사실을 다시 한번 확인하게 됐다. 일반 검색보다 보안이 취약한 데다, 수집된 데이터가 학습에 재활용될 가능성도 높기 때문이다. 수많은 챗GPT 사용자가 2025년 8월 3일 밤 실제로 이를 체감하는 상황을 겪었다. 단순한 구글 명령어인 “site:chatgpt.com/share”만으로 대량의 개인 대화 내용이 검색 가능했던 것이다.
상황을 정리하면 다음과 같다. 챗GPT는 대화 내용을 링크 형태로 다른 사용자에게 쉽게 전달할 수 있는 공유 기능을 제공하고 있다. 문제는 이 공유 링크를 통해 어느 정도 사적인 챗봇 대화가 외부에 게시되어, 구글 등 검색 엔진이 대화를 색인하고 노출시킬 수 있었다는 점이다. 앞서 언급한 검색어를 사용하면 이처럼 색인된 대화에 쉽게 접근할 수 있었다. 검색 가능한 대화는 전체 중 극히 일부에 불과했지만, 내용은 상당히 민감했다.
오픈AI는 이러한 상황에 크게 우려를 표했다. 물론 해당 기능은 사용자가 직접 공유를 선택해야 했고, “URL을 가진 사람은 누구나 대화를 볼 수 있습니다”라는 경고 문구도 매번 표시되었으며, 검색 엔진 색인을 허용하려면 추가적으로 동의해야 했다. 그럼에도 오픈AI는 이 기능을 즉시 비활성화했다.
.. 후략 ..
관련자료
-
링크
댓글 0
등록된 댓글이 없습니다.