AI隱私崩盤「ChatGPT對話」在法律前裸奔;Altman:我害怕輸入個資、難知道誰會拿到資料

OpenAI 執行長 Sam Altman 提醒:與 ChatGPT 的對話不受法律特權保護,可能在訴訟中成為證據,引發 AI 隱私空窗與監控擴張疑慮。 (前情提要:Sam Altman從新手老爸看AI未來:人形機器人要來了,你有準備嗎? ) (背景補充:AI能翻案?無律師女靠ChatGPT挖500萬遺產詐騙、說服法院重啟調查 ) 人工智慧已無縫融入日常,但隨著便利而來的隱憂正被拉向聚光燈:任何人今天輸入 ChatGPT 的字句,明天都可能出現在法院。 法律特權的缺口 OpenAI 執行長 Sam Altman 最近在與播客主持人 Theo Von 的對談中給出警告: 「當你與 ChatGPT 分享最敏感的內容時,如果發生訴訟,我們可能被要求提供這些內容。目前,與治療師、律師或醫生談話時都享有法律特權保護,但我們尚未為 ChatGPT 的對話建立這樣的機制。」 一句話揭開了長久被忽略的差距。醫師病歷、律師會談與宗教告解都受法律或倫理守則保護,司法要調閱必須跨過高門檻;聊天機器人卻不存在此防火牆,用戶與模型互動的文字在法理上不具豁免權,只要法院傳票送達,服務商就得交出檔案。 政策與訴訟的衝突 OpenAI 官網隱私政策雖寫明資料採取傳輸加密,但並未提供端對端加密。文件同時載明,用戶內容「可能與第三方共享」。這種彈性在商業運作上常見,卻在近期被推上矛盾頂點。於《紐約時報》版權訴訟案中,法院要求 OpenAI 留存所有相關用戶資料的命令,直接與公司對外宣傳的「刪除或最小化收集」說法相撞,充分顯示現行法律框架對 AI 服務缺乏精細分類。 當 AI 模型訓練需要大量語料,企業傾向長期保存文本以優化演算法;一旦官方文件落入司法管轄,用戶就喪失抹除權。法律與技術節奏不同步,衝突因而難以避免。Altman對此表示: 這可能是我有時害怕使用某些人工智慧技術的原因之一,因為我不知道我想輸入多少個人信息,因為我不知道誰會擁有這些信息。 企業監控可能性 企業掌握個資後有可能會有監控問題,這並非抽象恐懼。聊天內容一旦可被大規模檢索,政府與企業就有動機把即時對話轉化成風險評估或行為預測。對律師、醫師、心理師等專業人士而言,使用 ChatGPT 答覆客戶或患者問題,看似節省時間,卻可能違反職業道德。因為服務商對上傳文本擁有分析權,等同把客戶機密暴露於第三方。 Altman 進一步指出: 「我擔心世界上的 AI 越多,監控就會越普及。歷史一再證明,政府在這方面往往會走得太遠,這確實令我感到不安。」 傳統的律師—客戶特權要求資訊僅在雙方之間流通;引入 AI 等於多了一雙看不見的眼睛,且無現成條文賦予同層級保護。專業人士若未更新合約與工作流程,極可能在不知情下觸法。 走向解方 一個更安全的 AI 生態需要同時向三條軸線推進。首先立法部門應制定明確的「數位法律特權」規則,將特定聊天加密並納入司法取證的高標門檻。再者企業必須把端對端加密、最小化儲存與客戶自主管理權融入產品設計,而非事後補洞。而最重要的且我們能做的,就是用戶應自行主動將高敏感資料與一般詢問分開,在必要時改用傳統安全管道交流。 AI 帶來的效率不該以犧牲隱私為代價。當對話框逐漸取代鍵盤與電話,人們需要的不是沉默,而是可驗證的法律保障與技術護欄。Altman 的提醒或許不甚悅耳,卻提供一面鏡子:反射出創新速度與制度修補之間正在拉大的縫隙。填補縫隙,才是讓 AI 真正造福社會的必經之路。 相關報導 暢想 RobotFi:機器人也上鏈,帶來哪些新玩法? Vitalik對機器人「喵喵叫」引發熱議,以太坊社群:我全部錢都壓在學貓叫的人身上 算力為王!黃仁勳談AI如何重構全球價值鏈、機器人何時普及、AI能加速製造業回流美國?〈AI隱私崩盤「ChatGPT對話」在法律前裸奔;Altman:我害怕輸入個資、難知道誰會拿到資料〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。

VON-1.24%
ETH-0.52%
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)