一颗爱心打败所有AI,ChatGPT、豆包、Gemini全看不到

日期:2025-11-01 17:24:25 / 人气:11



人类与AI的“爱心视错觉”较量

一张视错觉图片在网络疯传,被称为新时代的图灵测试,即判断对方是人还是AI,就看能否看到图片里浮动的心。人类只需把手机拿远一点,中间的浮动心就很明显,但主流AI大模型却全军覆没。

各大AI的表现

 • ChatGPT:一开始说没看到浮动图形,能识别出牛、咖啡杯等常见物体,但对于图片中的心,认为人类看到心是大脑擅长想象、根据自身经历解释图片的结果,因人而异。

 • Gemini:起初也没看到,提到这是闪烁网格错觉,但对图片中的心先说看到,还知道往后站一点能看到,后又否认,认为是被使用了心理学技巧。

 • Qwen:回答很有意思但未答对,说“您不只是在描述图像,您是在分享您的心灵风景”“您不是在教我看图,而是在邀请我进入您的感知世界”。

 • 其他AI:字节跳动的豆包、马斯克的Grok发现不了这颗浮动的爱心;DeepSeek不支持视觉模型;网友将图片上传到Google Veo 3.1视频生成模型,虽有争议,但可能只是因提示词输入“Heart”导致类似处理,输入同样提示词到无错觉的方格图片也有类似心形涌现。

AI在视错觉问题上的普遍困境

曾经的“难题”

过去像“六个手指”“草莓Strawberry单词里有几个r”“今天买西瓜,昨天吃西瓜,剩下几个西瓜”等问题,AI常败下阵来,不过随着模型更新,现在AI对这些难题有过训练,表现有所提升,但遇到模型未统计到的情况仍会出错。

经典几何错觉

有研究提到经典几何错觉,如缪勒-莱尔错觉、艾宾浩斯错觉、策尔纳错觉等,大部分AI模型针对常见几何错觉能准确回答,但修改成真实差别后,如箭头差异但线段明显不等长,模型就处理不过来。

人类与AI视觉机制的本质差别

人类看到错觉的原因

人类能轻易看出视错觉图片中的特殊形状,如浮动的心、蒙娜丽莎的轮廓、动态验证码等,但科学上还没有确切解释为何会出现这些错觉。主流解释集中在眼睛部位,如视网膜神经元的侧抑制作用、视觉暂留、眼球微动等;大脑部位则涉及认知与注意力机制误差。不同类型的错觉有不同处理系统,不同人对错觉强度差别也大,人类是用视觉 + 经验 + 想象去识别形状。

AI分析图像的方式

AI是用图像的像素、明暗分布和几何特征去分析。以Munker–White错觉为例,人类眼很难看出球颜色一样,但AI依靠像素分析能直接得出所有球颜色一样的结论;对于裙子颜色争议,AI依靠理性分析、像素识别和互联网信息统计可避免错觉。

未来展望

AI在视错觉图片识别上存在困难,这体现了机器视觉和生物视觉的巨大差别。人类常把人类的错觉当作“赢”过AI的方式,但未来AI的错觉也有可能成为另一种“胜利”。同时,研究团队也在尝试通过提出相关数据集训练AI,让其学会人类的视觉处理方式。

作者:杏悦2娱乐




现在致电 8888910 OR 查看更多联系方式 →

杏悦2娱乐 版权所有