手机浏览器扫描二维码访问
“别让AI直接给结论,先让它‘罗列原材料’。”教授举例,“研究‘全球变暖’,你该说‘用Ipcc报告、近5年Nature论文、石油公司内部研究,做一份争议点清单’,而不是‘告诉我全球变暖是不是真的’。”
她突然加重语气:“关键是加个‘反共识’要求。”比如补充一句“特别标注那些认为‘变暖速度被高估’的研究,说明他们的模型缺陷”——这样AI就不会只给你看主流观点,会逼你看到问题的另一面。
第二步:用“苏格拉底追问法”,逼AI暴露逻辑漏洞
“拿到清单后,别当真理,要当‘被告’来审问。”教授拿起粉笔,在黑板写下一串问题:
- “这些数据有没有忽略海洋碳汇的非线性变化?”
- “模型里的人口增长假设,符合联合国最新预测吗?”
- “这个结论在小冰期的历史数据里能验证吗?”
“AI会调用更复杂的模型来回答这些问题。”她解释,“比如你问‘海洋碳汇’,它会调出复杂系统动力学模型,告诉你‘当海水温度超过25c,碳吸收能力会断崖式下跌’——这时候你获得的认知,已经超越了90%的‘环保爱好者’。”
小林突然想起什么:“我上次用这招问AI‘教育公平’,它一开始说‘关键是投入’,我追问‘那为什么芬兰投入少却效果好’,它才调出‘教师自主权’‘小班教学’这些更深层的原因!”
第三步:用“你的坐标系”给AI结论“贴标签”
“最后一步最关键——别让AI的结论变成你的认知。”教授在黑板画了个坐标轴,x轴是“系统论视角”,Y轴是“伦理维度”,“把AI给的10个结论,扔进你自己的坐标系里分类。”
比如分析“AI取代工人”:
- 符合“系统论”的:AI会创造新职业(如AI训练师),但转型期会有阵痛;
- 涉及“伦理”的:企业该为被取代的工人提供再培训吗?
“这时候你会发现,AI只是给了你‘拼图碎片’,而怎么拼成你想要的图案,取决于你。”教授总结道,“就像康德说的‘知性为自然立法’——AI提供‘自然材料’,你用自己的‘认知框架’给它们立法。”
三、长期用AI,大脑不会退化,反而会进化出“超级思考力”
“可总让AI处理信息,我们会不会连深度思考都忘了?”小李还是担心,“我现在看长文章都走神,总想着‘让AI总结一下’。”
“这不是退化,是大脑在‘升级’。”教授调出《自然》期刊的研究图,红色的大脑扫描图上,前额叶皮层亮得刺眼,“实验显示,和AI协作的人,这部分活跃度提升30%——它负责的是‘元思考’,也就是‘思考如何思考’。”