📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
MIT研究揭示:語言模型或影響人類認知能力
人工智能語言模型對認知能力的影響研究
近期,一項由麻省理工學院開展的深入研究揭示了大型語言模型(LLM)在教育環境中的使用可能對人類認知能力產生的影響。隨着ChatGPT等LLM產品的廣泛應用,這項研究爲我們提供了寶貴的洞察。
研究團隊設計了一個爲期4個月的實驗,將參與者分爲三組:使用LLM、使用搜索引擎和僅依靠大腦。參與者需在限定時間內完成文章寫作任務,每輪實驗主題各不相同。研究人員通過腦電圖(EEG)記錄參與者的腦電活動,評估其認知投入和負荷,並進行了自然語言處理分析和訪談。
實驗結果顯示,僅依靠大腦的參與者在寫作風格上展現出較大的多樣性,而LLM組的文章則呈現出明顯的同質化趨勢。在特定命名實體(如人名、地點、年份等)的使用上,LLM組遠超其他兩組。
研究還發現,使用LLM和搜索引擎的參與者由於時間限制,往往傾向於直接復制工具輸出的內容,而非融入個人觀點和經歷。這種行爲可能導致創造力和批判性思維能力的下降。
在神經連接模式方面,腦電圖分析揭示了三組參與者之間存在顯著差異。隨着外部工具支持的增加,大腦連接程度呈現系統性降低:僅依靠大腦組表現出最強、最廣泛的神經網路,而LLM輔助組的整體神經耦合最弱。
更值得注意的是,在實驗後的訪談中,LLM組對其所寫文章的歸屬感最低,且在回憶幾分鍾前寫作內容方面表現欠佳。超過83%的ChatGPT用戶無法準確引用剛剛完成的文章內容。
這項研究雖然尚未經過同行評審,但其結果表明,過度依賴LLM可能會損害學習技能的提升,尤其是對年輕用戶而言。研究人員建議,在LLM被廣泛認可爲對人類有益之前,還需要進行長期的縱向研究,以全面了解這類工具對人類大腦的影響。
值得一提的是,當被問及對這項研究的看法時,AI語言模型回應稱,研究並非表明其本質上有害,而是警示人們不應過度依賴這類工具,而忽視了獨立思考和努力的重要性。
這項研究爲我們提供了重要的思考方向:如何在充分利用AI工具提高效率的同時,保持並提升我們的認知能力和創造力。在AI技術快速發展的今天,平衡技術使用和人類能力培養變得尤爲重要。