IT之家新闻 3 月 28 日(当地时间 3 月 27 日)报道,据《福布斯》报道,宾夕法尼亚大学沃顿商学院的一项新研究表明,使用人工智能来计划旅行、获得医疗建议和撰写求职信可能看起来只是简单地节省时间,但实际上可能会从根本上改变人类大脑做出决策的方式。研究人员认为,随着越来越多的人依赖人工智能,人类的推理和判断机制正在被重组。这并不是第一个指出人工智能会削弱批判性思维能力的研究。以前的大多数研究主要停留在观察水平。为了增加更有力的实证证据,沃顿商学院的认知行为科学团队对大约 1,300 名受试者进行了一项实验。通过选择使用 ChatGPT,我们发现大约 80% 的参与者立即简单地接受了错误的答案,很少主动修改它们。这种现象被称为“未经测试的采用”,斯蒂芬·肖(Stephen Shaw)说道。认知行为博士研究员。 ChatGPT、Claude 和 Google Gemini 等生成式人工智能工具正变得越来越广泛,许多人开始将他们的思维过程直接转移到人工智能中。这相当于绕过了大脑负责直觉、分析和判断的所有内部机制。肖和沃顿商学院教授吉迪恩·尼夫将这种趋势称为“认知投降”。他们担心,从长远来看,这可能会削弱人类较慢、更深层次的思维能力,例如直觉判断、内省和分析思维,而这些能力对于形成判断和自我理解至关重要。更令人担忧的是,纳夫指出,人工智能将继续显着提高人们对答案的信心,即使答案本身没有经过仔细思考。随着人工智能迅速融入日常生活,教育、商业和医疗保健正在重新评估自己的优势和劣势。据 IT House 报道,之前的研究表明研究表明,使用人工智能模型而不是谷歌搜索的德国大学生的推理严谨性和论证质量明显较低。麻省理工学院媒体实验室去年的一项研究还发现,过度关注人工智能成瘾可能会导致“认知萎缩”,进一步削弱批判性思维能力。随着这种现象变得越来越普遍,沃顿商学院研究团队认为经典的“双流程决策模型”已经不足以解释现实。传统理论认为,人类决策基于两个系统:快速直观的系统1和缓慢谨慎的系统2。在上个月社会科学研究平台SSRN发表的预印本论文中,研究人员提出了一种新的人工认知系统“系统3”。这个系统不再局限于人脑本身,而是延伸到人工智能通过统计推断、模式识别和机器学习提供的结论。埃利亚斯·阿布贾乌斯坦福大学医学院精神病学教授 d 也同意“认知投降”的迹象已经很明显。他认为问题不仅在于人们想要节省时间,还在于人工智能在心理层面上非常有说服力。 Abu Jaoud 表示,人工智能通常具有权威性、理性性和数据驱动性。以非常人性化的语气但包含大量数据来给出答案,会诱使人们认为人工智能是专业的、值得信赖的,就像一个高智商的朋友,永远会在那里帮助你。正因为如此,人们更有可能毫无抵抗地转移自己的决策权。在三项实验中,沃顿商学院团队反复向受试者提出逻辑推理问题,并要求他们选择是否要使用 ChatGPT。结果显示,超过一半的参与者,包括常春藤盟校学生,选择依靠人工智能来回答。然后研究人员随机提供正确或错误的答案来评估参与者的信心水平。我们发现使用 ChatGPT 的参与者平均自信度高出 10%。克纳夫说,最大的担忧是,如果人工智能给出了错误的答案,人们不仅会比没有人工智能的时候表现更差,而且还会对错误的答案更有信心。人类很早就利用科技来提高思维能力,从GPS到计算器再到搜索引擎,工具本身并不是问题。研究人员强调,“认知投降”的危险在于人们开始自愿放弃独立判断和对答案的批判性思考。阿布·贾乌德对此尤其担心。他表示,大规模语言模型的吸引力足以克服人脑的天然抵抗力。最令人担忧的是,人类最终将失去甚至检查人工智能本身的能力。研究人员还认识到,人工智能在需要高精度和高效的结构化任务中具有巨大价值。熟练程度。肖还强调,社会必须认真考虑如何防止人工智能在教育、医疗等高风险领域进一步侵蚀人类的判断力。纳夫表示,研究的下一步是超越实验室,看看软件公司、人工智能公司、政策制定者和教育机构如何应对这一趋势。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。