今年46岁的徐英瑾,被人称为“斜杠教授”。他平日里在复旦大学教哲学,空闲时是骨灰级军模玩家,业余灵魂插画手。近两年又活跃于抖音、小红书等各大社交媒体平台,收获无数年轻粉丝,添了个“网红博主”的新标签。
最近,AI领域风起云涌,这位“斜杠教授”凭借《如何教人工智能说人话?》一书,又刷了波存在感。但相较于各路商业大佬和行业精英对未来的翘首企盼,徐英瑾更像是来泼冷水的。“我试图告诉大家,AI发展的未来到底有多少激流险滩,我们的研究需要的与其说是金钱,还不如说是耐心与时间。”
在徐英瑾看来,当前的主流AI产品如智能语音信箱、翻译软件只是表面繁荣,它们远未达到“会说人话”的水准,这与其学习方法有关。在书中,他打了这样一个比方:一个外国人到少林学功夫,由于语言不通,只能靠猜测做动作,等待师父反馈,如此循环往复,直到师父满意。人工智能的学习过程与此类似。AI可以在短时间内进行海量次数的“胡猜”,人类程序员则充当师父,系统只需记取标注结果,并在此基础上继续学习。但一味模仿并不能使AI开口讲人话,何种路径才是正解?他提到一部科幻电影《超能查派》。机器人查派不会说话,却具有孩子般的好奇心,并通过紧盯住男主角手表的方式引起他注意。于是,男主角把手表递给查派,并教给它第一个英语单词“watch”。
好奇心也是徐英瑾学术研究的动力之一。早在2006年,他便开始关注人工智能哲学。在他2013年的作品《演化、设计、心灵与道德》中,他提出:今天哲学与科学的关系就像李世民离不开魏征那样,哲学要做的是在接受科学大部分前提的情况下做建设性的反对者。
魏征说的话自然不是什么好听的话。不到一年的时间里,继ChatGPT引爆AI炸弹之后,Sora又实现了“文生视频”,人们深受影响、大感刺激。众声喧哗之中徐英瑾的批判声音更显得与众不同而又稀缺。不只这本《如何教人工智能说人话?》,他之前出版的《人工智能哲学十五讲》一书,也在反复告诉读者:通过很少的情报推理出很多结论,这才是聪明人,而ChatGPT获得了很多情报却只能鹦鹉学舌;学术界如果习惯了ChatGPT这种快速简洁的回答,爱因斯坦这种需要慧眼才能发掘的、对人类产生重大影响的发现,很可能会被掩盖。
他甚至发出了这样的警示:ChatGPT背后的深度学习技术很可能点错了AI科技树;他还担忧,ChatGPT总是给出快速简洁的回答,可能会让人们忽略学术界潜在的重大发现;滥用深度学习技术,可能会走向文明的衰落。
这是一位哲学家的思考,并非危言耸听。