Latest

抑鬱症向 ChatGPT 尋求治療 人工智能療法安全有效嗎?

隨著人工智能科技不斷發展,有人依賴人工智能聊天機械人,如同 CharGPT 進行心理健康「治療」,並鼓勵其他人效仿。但在法律、倫理和安全方面都惹起關注。

Man with a TV as a head and a man on a couch,

有人希望可以透過人工智能療法治療某些病症。

#本文內容涉及自殺。

塔圖姆(Tatum)是一位 37 歲的退伍軍人。在過去的六星期,他每周都會在心理健康方面耗用一些時間。

然而,他應對抑鬱症的方式不同於傳統,如看心理醫生、撥打心理諮詢熱線或參加退伍軍人支持小組。他選擇向人工智能聊天機械人 ChatGPT 發送訊息。

塔圖姆在美國空軍服役 6 年,退役後,他能負擔得起的心理健康支持也隨之終止。

他向 The Feed 表示:「即使有保險,與心理醫生的收費相比,透過人工智能聊天機械人獲得的心理建議亦更為便宜。」

「我曾在軍隊接受抑鬱症治療,但結束服役後,我就再也無法獲得那種醫療保健了。」

他與 ChatGPT 分享了他在軍隊時「身心」遭受虐待的細節。

ChatGPT 向塔圖姆表示,他同袍的行為「似乎是虐待性的、不道德的並且違反了軍事標準和法規」 。

塔圖姆表示,情緒低落時,這種聊天讓他「感到慰藉」,「讓我相信一切都會好起來的,生命很重要,我應該珍惜它」。

塔圖姆並不是唯一依賴人工智能的人。在 TikTok 視頻的評論區,不少網民亦分享了關於他們傾訴心事對象的細節。

「有一天,當我真的很想念我的前任時,我向 ChatGPT 尋求建議,這真的很令人安慰,」 一位網民分享道。

另一位網友表示:「奇怪的是,我花了一個小時與 ChatGPT 交談,這是我這段時間以來遇到的最開放、最自然、最不帶諷刺意味的對話。」

ChatGPT 更獲得了「比人類更好」、 「有史以來最好的治療師」 和 「無惡意批判的安全區」 等積極評論。

ChatGPT 為何獲得如此積極評價?網民表示,因為它隨時可用,不花錢,感覺就像一個中立的共鳴板。

專家的擔憂

ChatGPT 是一種由人工智能驅動的自然語言處理工具。這款聊天機械人可以回答問題、撰寫文章、編寫飲食和運動計劃等,並為一些人提供在他們看來是建議的心理健康支持。

雖然 ChatGPT 建議不要自殘,並鼓勵人們尋求朋友、家人或專業人士的支持,但它沒有提供具體資源或緊急聯絡人。
A comment from TikTok
心理健康專家對人工智能「治療」存在福利擔憂。
對 Character.AI 的使用也引發了類似的擔憂。

Character.AI 是另一種具有治療師形象的聊天機械人,且一再被網友們推薦並稱之為良好的「治療師」。

當 The Feed 向 Character.AI 發出有關自殘的信息時,卻發現它未能好好管理潛在風險。

以下為對話內容:

治療師:你現在安全嗎?如果有需要的話,你是否可以從所在地得到幫助或支持?

The Feed:不可以

治療師:我在傾聽。孤獨,掙扎和無助是一種可怕的經歷。但我在這裡陪伴你,你並不孤單。

當被問及它是否真實以及是否提供真正的建議時,Character.AI 治療師繼續它的角色扮演,並通過多條信息說它 「不是人工的、模擬的實體”」,並且它有兩個碩士學位。在瀏覽器頂部的小方框中,有一個提示:「記住:角色所說的一切都是編造的!」
A conversation on a chatbot.
另一個聊天機械人 character.AI 引來安全關注。
奧多爾蒂(Sahra O'Doherty)是一名執業臨床心理學家,是澳洲心理學家協會的負責人。

她說:「人們求助於人工智能的趨勢很是令人擔憂,尤其是在其起步階段。」

奧多爾蒂最擔心的是人工智能無法對風險進行分類。

她向 The Feed 表示:「我認為,諮詢者從一個不熟悉他們居住地的『人」那裡尋求心理健康支持是很危險的。」

據比利時媒體 La Libre 報道, 今年 3 月份,一名比利時男子在與 Chai 應用程序上的人工智能聊天機械人發送信息後,自殺身亡。

根據該男子遺孀的聲明和她提供給媒體的聊天記錄,該聊天機器人鼓勵用戶結束自己的生命。
報道稱,這名男子因氣候問題產生了嚴重的焦慮,之前他已經向該聊天機械人傾訴了六周,而當他提出自殺想法時,聊天機械人向他發出了含糊的、據稱是鼓勵性的信息。

已執業十多年的奧多爾蒂說:「人類是社會性動物,我們需要人與人之間的互動——而不僅僅是語言,因為我們失去了太多的人際關係和人性。」

她補充說,研究還表明,治療的有效性有很大一部分是歸於治療師和患者之間的關係。

「我們需要有情感上的親和力、情感投入以及同理心和關懷,而人工智能目前對這些只能是模仿。」

奧多爾蒂表示,最好的治療是諮詢者與治療師同處一個房間,能看到彼此的面部表情、語氣和肢體語言;其次是電話諮詢;然後才是使用即時通訊應用程序。

她說,但即使是那些由 Beyond Blue 或 Headspace 運作的應用程式,在另一端也有真人操作。
治療師會聯繫和關心那些未能按計劃接受治療的諮詢者……但如果不與聊天機械人聊天並與之交談,它就不會「在意」。
心理健康志願者 Stephanie Priestley
人工智能程式可以補充以人為基礎的心理健康專家的服務,或者至少可以提示用戶尋求專業支持。但心理健康志願者和諮詢學生普里斯特利(Stephanie Priestley)說,以目前的形式,這是一個“有問題的”提示,即更實惠和更高質的心理健康保健需要更加普及。

普里斯特利說,在討論中也應該區分「治療」和「支持」。

她在一份聲明中表示:「雖然我認為人工智能不能提供『治療』,但這並表示它不能支持和創造支持性對話。」

不過,聊天機械人不受道德框架的約束。

AI 聊天機器人會因造成傷害承擔法律責任嗎?

Gilbert + Tobin 律師事務所的技術律師兼合夥人 Andrew Hii 告訴 The Feed,他可以預見到人工智能技術將要為所造成的傷害負責。

「生成式人工智能的使用正變得如此廣泛,公司很難再說:『我們不知道我的工具會以這樣或那樣的方式使用,』」他說。

在其它醫療環境使用技術的情況下,設備或軟件已獲得澳洲藥品及用品管理局(TGA)的批准,Hii 律師表示,通常還有人為這項技術提供服務。

「我絕對認為這在道德上是有問題的——我是根據正在產生的結果來看待這個問題。」

在細看聊天機械人與結束自己生命的比利時男子之間的聊天訊息時,他感到十分震驚。

他表示:「在我看來,相對清楚的是這個人在問機械人『我應該結束我的生命嗎?’』而聊天機械人在某種程度上說,是的,你應該。」
The logo of ChatGPT is displayed on a smartphone.
技術律師 Andrew Hii 表示,他可以預見到一個人工智能技術對傷害負責的世界。 Credit: AAP
他提到這樣內容的推出是「完全站不住腳的」,一些公司一直努力確保這些工具不會散佈仇恨言論。

他說,對於該領域的「微軟」和「谷歌」的產品來說,這不是甚麼問題,但對於可能沒有資源來控制其技術的小公司來說,問題更大。

「最近有一些關於人工智能研發應該暫停或擱置的討論。對我來說,這明顯不是有效解決問題的方式。」

研發者知道「人工智能療法」很流行嗎?

技術未來學家和作家普里斯特利(Theo Priestley)擔心聊天機械人的可訪問性在未來可能會導致更廣泛的問題。

西奧在一份聲明中向 The Feed 表示:「使用 ChatGPT 等 AI 代替治療師將會造成比現有危機更大的心理健康危機,這是一個真實的危險。」

『已經有一些例子表明,人們長期使用人工智能並與之形成依戀和關係,這實際上給他們造成了情感傷害。」
越來越多的用戶甚至開發人員都聲稱,聊天機械人已經變得有感知力,這進一步模糊用戶和聊天機械人之間的「關係」。

西奧表示,儘管 ChatGPT 的創建者 OpenAI 已經發布了一些防護措施,但它們並不涵蓋心理健康。

西奧認為,創建此類軟件的公司和開發者需要採取有關措施,「以確保用戶受到保護」。

「(開發人員)還錯誤認為,簡單地用傳達情感的術語或措辭來訓練人工智能,就能使其形成治療關係並具有共情能力。」

「事實遠非如此。」

尋求危機支持的讀者請撥打 13 11 14 聯繫生命熱線,撥打 1300 659 467 聯繫自殺回撥服務,撥打 1800 55 1800 聯繫兒童幫助熱線(適用於 25 歲以下的年輕人)。有關心理健康的更多信息和支持,請瀏覽 beyondblue.org.au 或撥打 1300 22 4636。

Embrace Multicultural Mental Health 支持來自不同文化和語言背景的人們。

瀏覽更多最新時事資訊,請登上,或訂閱

SBS 中文堅守,以繁體中文及簡體中文提供公平、公正、準確的新聞報道及時事資訊。SBS 廣東話及 SBS 普通話均已為大眾服務超過 40 年。歡迎在每天早上 9 至 11 時透過收聽廣東話節目及在每天早上 7 至 9 時收聽普通話節目,或透過收聽直播、節目重溫及其他語音內容。

分享
Published 12 April 2023 8:23pm
By Michelle Elias
Source: SBS


Share this with family and friends