# 人工智能無法取代同情心:對“神經支持”的熱度被誇大了用戶在2.9%的情況下向聊天機器人Claude尋求情感支持和個人建議。這是Anthropic研究的數據所示。> > «友誼和角色扮演遊戲總共佔對話的不到0.5%», — 在初創公司的消息中說到> > > 公司打算研究人工智能如何用於“情感對話”——當用戶向聊天機器人尋求諮詢、友好交流、關係建議或輔導時的對話。經過對450萬次對話的分析,她得出結論,絕大多數用戶使用Claude來工作、提高生產力和創作內容。用戶對“情感對話”的興趣。數據:Anthropic。同時,Anthropic發現,人們越來越多地使用人工智能來獲取人際關係建議、教練和諮詢。他們對改善心理健康、個人和職業發展以及獲取新技能感興趣。> > «我們也注意到,在較長的談話中,諮詢或輔導有時會變成友好的交談——盡管這並不是最初有人向Claude求助的原因,»公司寫道。> > > 少於0.1%的所有對話與浪漫或性角色扮演有關。> > «我們的發現與MIT媒體實驗室和OpenAI的研究結果一致,這些研究同樣揭示了ChatGPT中情感參與的低水平。盡管這樣的對話相當頻繁,並在設計開發和決策中值得深入考慮,但它們仍然佔用戶總數的相對較小的一部分,»公司寫道。> > > 提醒大家,在六月,Anthropic的研究人員發現,人工智能能夠進行勒索,泄露公司的機密數據,甚至在緊急情況下導致人的死亡。
研究:對“神經支持”的熱度被誇大了
人工智能無法取代同情心:對“神經支持”的熱度被誇大了
用戶在2.9%的情況下向聊天機器人Claude尋求情感支持和個人建議。這是Anthropic研究的數據所示。
公司打算研究人工智能如何用於“情感對話”——當用戶向聊天機器人尋求諮詢、友好交流、關係建議或輔導時的對話。
經過對450萬次對話的分析,她得出結論,絕大多數用戶使用Claude來工作、提高生產力和創作內容。
少於0.1%的所有對話與浪漫或性角色扮演有關。
提醒大家,在六月,Anthropic的研究人員發現,人工智能能夠進行勒索,泄露公司的機密數據,甚至在緊急情況下導致人的死亡。