🔥 Fragmetric(FRAG) 全家桶系列活動:HODLer Airdrop、Launchpool、Alpha、CandyDrop、餘幣寶
💰 多重獎勵池:
• HODLer空投:250,000 FRAG
• Launchpool:750,000 FRAG
• Alpha:250,000 FRAG
• CandyDrop:750,000 FRAG
• 餘幣寶:250,000 FRAG
立即參與👉 https://www.gate.com/zh/announcements/article/45863
研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅爲獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象爲認知負債——短期內減輕思維負擔但長期導致批判性思維和創造力下降。