3月27日,美國賓夕法尼亞大學(xué)沃頓商學(xué)院的研究指出,人工智能(AI)在規(guī)劃旅行、提供醫(yī)療建議或撰寫求職信等方面的應(yīng)用,可能正在深刻改變?nèi)祟惔竽X處理決策的方式。研究團(tuán)隊通過對近1300名受試者的實驗發(fā)現(xiàn),約80%的參與者在使用ChatGPT等AI工具時,會直接接受錯誤答案而不進(jìn)行核查,這種現(xiàn)象被稱為“未經(jīng)驗證的采納”。研究人員將這種依賴AI的趨勢命名為“認(rèn)知投降”,擔(dān)心長期依賴AI可能削弱人類的直覺判斷、自我反思和分析性思考等深層思維能力。
沃頓商學(xué)院的研究還發(fā)現(xiàn),即使AI提供的答案未經(jīng)認(rèn)真思考,人們?nèi)詴@著提升對答案的信心。研究團(tuán)隊提出了新的“系統(tǒng)3”,即人工認(rèn)知系統(tǒng),這一系統(tǒng)不再局限于人腦本身,而是延伸至AI通過統(tǒng)計推斷、模式識別和機(jī)器學(xué)習(xí)給出的結(jié)論。研究團(tuán)隊強(qiáng)調(diào),AI在高精度和高效率的結(jié)構(gòu)化任務(wù)中具有巨大價值,但在教育和醫(yī)療等高風(fēng)險領(lǐng)域,社會必須認(rèn)真思考如何避免人類判斷力被AI進(jìn)一步侵蝕。下一步研究將觀察軟件公司、AI企業(yè)、政策制定者和教育機(jī)構(gòu)如何應(yīng)對這一趨勢。

來源:一電快訊
返回第一電動網(wǎng)首頁 >
以上內(nèi)容由AI創(chuàng)作,如有問題請聯(lián)系admin#d1ev.com(#替換成@)溝通,AI創(chuàng)作內(nèi)容并不代表第一電動網(wǎng)(www.cbbreul.com)立場。
文中圖片源自互聯(lián)網(wǎng)或AI創(chuàng)作,如有侵權(quán)請聯(lián)系郵件刪除。