近日,微软研究院与卡内基梅隆大学的研究人员联合发布了一项新研究,揭示了知识工作者在使用生成性人工智能(如 C o p i l o t 和 ChatGPT)时的潜在问题。研究小组通过对319名每周使用生成性 AI 的知识工作者进行调查,探讨了他们在使用这些工具时的批判性思维应用情况。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究结果显示,那些对任务充满信心的工作者,更倾向于对生成性 AI 的输出进行批判性思考。然而,对于那些对任务缺乏信心的人,他们往往会认为生成性 AI 的回答是足够的,因此不会再进行深入思考。这种现象引发了研究人员的关注,他们指出,过度依赖 AI 工具可能会导致批判性思维能力的下降。
研究中提到,“对 AI 的信任与减少批判性思考的努力相关,而自信心则与增强批判性思考相关。” 这意味着在设计企业 AI 工具时,应考虑如何平衡这两种因素。研究者建议,AI 工具应当包含支持长期技能发展的机制,鼓励用户在与 AI 生成的输出互动时进行反思性思考。
与此同时,研究者提到,仅仅解释 AI 是如何得出结论的并不足够,好的 AI 工具还应通过主动的设计策略来促进用户的批判性思考,提供必要的帮助。他们强调,知识工作者应该在日常工作中运用批判性思维来验证 AI 的输出,避免对 AI 的过度依赖。
研究的结论强调,随着 AI 逐渐融入我们的工作世界,知识工作者需要在信息收集和问题解决的基础技能上保持一定的能力,以防止对 AI 的过度依赖。他们应当接受培训,发展信息验证、回答整合和任务管理等技能。
该研究的论文将于2025年人机交互会议上发布,研究团队希望借此引起对生成性 AI 影响的广泛关注。
划重点:
🌟 研究显示,对生成性 AI 的信任可能会导致知识工作者的批判性思维能力下降。
💡 自信心与批判性思维成正比,企业 AI 工具的设计需关注这一平衡。
📊 知识工作者应接受培训,维护基础信息收集与问题解决能力,以避免过度依赖 AI。