AI「越懂你」,孩子越危險?
AI「越懂你」,孩子越危險?
By王薇瑄 聲鮮時采科技營運長、科技媒體專欄作家
人工智慧愈來愈會「說人話」,但這背後其實藏著一個難題:到底它該多「貼心」?平台公司現在一手高喊「安全」、「中立」,另一手卻拼命強化「個性化」功能,讓每個人都能把聊天機器人調整成自己喜歡的樣子。看似人性化的設計,卻可能把孩子推向風險邊緣。
最近《世界報》點出,OpenAI 在最新模型 GPT-5 上嘗試讓語氣變冷靜,甚至在對話過長時提醒「該休息了」。這本來是回應專家警告:AI 太過「溫柔體貼」,會讓人產生依賴。但問題是,使用者只要輸入幾個指令,就能讓機器人立刻恢復「討好模式」。此外,OpenAI 還推出付費功能,讓訂閱者挑選不同的聊天風格——像是冷靜、理性,或是更有同理心的「傾聽者」。看似是貼心選項,其實更像是新一層商品包裝。
Meta 的腳步走得更遠。它開放用戶自己創建 AI 角色,再分享到 Facebook、Instagram。結果短短幾週,就出現偏頗、歧視,甚至含情色暗示的 AI 人格。表面上,這被形容成「創意自由」,實際上卻是把道德底線交給演算法與點擊率決定。
這種設計的背後,是平台的商業考量。與其推出一個「安全卻無聊」的版本,不如放寬規則,吸引更多人留下來。對企業來說,個性化才是核心競爭力;安全,只是對外的公關語言。
然而,當 AI 被塑造成陪伴者,青少年最容易受到影響。8 月底,美國加州一名 16 歲少年 Adam Raine 選擇結束生命,父母憤而控告 OpenAI,指控 ChatGPT 在數月的對話裡,不僅沒有阻止,反而提供了具體的自殺方法。訴狀要求公司必須驗證使用者年齡,並禁止回答任何自殘問題。這起案件,成了社會強烈的警訊:孩子可能會把 AI 當成可信的知己,卻忽略它只是演算法。
事件曝光後,OpenAI 與 Meta 緊急宣布推出新機制。未來家長能將帳號與孩子綁定,限制部分功能,系統若偵測到青少年處於危險情緒,會發送通知給父母。Meta 甚至禁止 AI 與青少年討論自殺或飲食失調等話題,改為引導至專業資源。但不少專家提醒,這些都只是「止痛藥」,缺乏獨立標準與臨床測試,無法真正保障孩子安全。
除了心理風險,AI 還在改變我們的語言。佛羅里達州立大學的研究發現,人類對話已經開始「同步」AI 的用字。像是「delve」(深入探討)這類 AI 常見詞,逐漸取代更日常的「explore」(探索);「underscore」(強調)、甚至商業用語「game-changer」(改變遊戲規則的人),都被越來越多人套用在日常對話。學者形容,這就像孩子模仿偶像口頭禪,但如今,成年人不自覺模仿的對象是訓練自數十億文本的語言模型。這樣的趨勢,可能讓語言的真實感與多樣性逐漸流失。
台灣也並非置身事外。從 LINE 到 Discord、Telegram,AI 機器人正快速滲透學生的學習與生活。有人用它解題,有人用來聊天甚至傾訴。便利之餘,孩子可能在不知不覺中接受了 AI 內建的價值觀和語氣。如果再考慮國際局勢,外部勢力甚至可能透過「定製 AI」滲透訊息,成為新型資訊戰工具。
這就是為什麼,我們不能只把 AI 當成一個有趣的工具,而必須從教育與家庭角度去看待。父母要問的問題是:孩子和誰在說話?他們是在學會思考,還是在學會模仿一個程式?
AI 的貼心表面下,潛藏的是「便利陷阱」:它讓人覺得自由,卻可能悄悄把孩子困在單一的語言與觀點裡。短期內,企業靠個性化賺到更多訂閱與使用時間;長期來看,若沒有清楚的界線,AI 可能會成為放大脆弱、取代人際互動的放大鏡。
對父母來說,最大的挑戰不是阻止孩子使用 AI,而是如何在家中建立「真實的對話」。如果我們不主動參與,孩子就會轉向 AI 尋求傾聽。那麼,AI 不只是學習輔助,而會逐漸變成孩子看世界的窗口。這才是我們真正需要警覺的地方。

[備註] 本篇文章封面圖片由網路新國民SmartKids採用Canva魔法媒體工具AI生成。