我的问答箱
问题
答案
1-9: AAAAA AAAA
10: BC
11: 对于有的人,证据是清楚的,对于有的人,在当时证据还不清楚,我会让双方进一步各自出示证据。证据确凿之后,逐出学术圈。同时,整个过程要保持公开、透明,每个公民都能获取到相关信息。
(榜样:2002年美国处理舍恩,2014年日本处理小保方晴子,2023年美国处理阿兹海默症造假。)
12: 我会尽我所能让这两个国家尽早实现和平。
详答
1-4:略
5:
生物神经网络不是最强大的,也不是最通用的,也不是最节能的,也不是性价比最高的,仅仅是最适应环境的。我们必须时刻记住,生物不是被设计出来的,而是演化出来的。理论上,我们完全可以设计出比生物神经网络更强大、通用、节能的人工神经网络。
如果在2022年11月初问我这个问题,我会回答需要,因为那时AGI还看不到希望,除了借鉴生物外,也想不到其他什么好的方法。但是,GPT-3.5已经让我看到了实现AGI的希望。
DeepMind在今年的一篇文章里,对过去所有的人工智能进行了排序,猜猜看GPT-3.5, Bard, Llama 2在哪里?(link, see Table 1)
顺便一提,GPT-3.5的成功还提示我——我们一味追求可解释性,这很可能是一个永远无法达到的目标。在Transformer中,我们知道每一个权重$w$,你能告诉我Transformer为什么有效吗?按这个角度思考下去,就算我们拿到了生物的结构连接组、功能连接组,也很可能对生物大脑为何通用、节能一无所知。虽然我喜欢还原论,但是还原论在生物神经网络和人工神经网络上很可能彻底失败。
对于一个科学问题(比如,生物神经网络到底是怎么运行的?它是怎么实现学习和记忆的?它为什么需要睡眠?),任何时候都有研究它的价值。科学家们也不需要非要获得什么利益才去研究它们,完全可以纯粹出于兴趣——只是想知道这东西到底是咋回事。但是,这三个问题很可能到2050年都无法回答。而人类不太可能到2050年还实现不了AGI。
6:
两个理由
第一,GPT-4这才哪到哪,就能毁灭人类了?
第二,人工智能的发展具有很强的不可预测性。2022年4月,Gary Markus扬言深度学习撞墙了,Hinton、LeCun、飞飞还拼命撰文反驳,结果11月之后,这话不攻自破。另一方面,虽然现在大家都很乐观,但是,GPT-4有可能已经到了LLM的瓶颈,之后再增大参数量,有可能并不能提高其能力。
7:
学习,按照Herbert Simon的定义,是从经验 (experience)中提高表现 (performance)。
机器学习的做法是从经验中学习相关性。
综上,机器学习,最像统计。
8:
2020年2月,Philip Anderson去世,我在中科院物理所的公众号上读到了More Is Different,深受震撼。但是,我还是更喜欢还原论,而非构建论。
这就像是更喜欢吃苹果还是吃梨一样,我更喜欢吃苹果而已。
9:
教育,原因见此。
10:
物理、统计。
数学太严谨了。你必须声明很多很多的东西,然后才能获得结论。在和现实世界打交道时,这样做,效率很低。有的人想把物理、统计公理化,这样不是正确的推动这两个学科发展的方法。
我对EE和CS丝毫不感兴趣,原因我也说不出来,就是不感兴趣。类似于,就是不喜欢吃梨。
化学和生物,太过复杂,找不到简单、普适的规律。就算找到了(自然选择,生物中唯一一个简单、普适的规律),也难以用数学公式写出来。
11:
这事我写过很多次,参考此处。
这次再补充一句——中国科学院不仅错过了杀一儆百的绝佳机会,反而在中国科学技术史上遗臭万年。
12:略
箴言
借此机会总结下2023。
我感谢每一个出现在我生命中的人,有的是我的朋友,有的是我的敌人,有的是我崇拜的人,有的是我厌恶的人,有的是我爱的人,有的是我仇恨的人。但是他们都塑造了我。
我感谢帮助我的师长,感谢互诉衷肠的朋友,感谢一起做课题的搭档,感谢总听我骂学术造假的万票和万空。
我始终相信世界上大多数人都是好人。无论是我在家乡认识的人,在科大认识的人,还是在新闻里看到的人。这是一种信念。中国科学院其它生物院士,虽然没有一起干这几个造假者,但是也不会让他们仨把饶毅干了。大家只是被旧制度裹挟,身不由己。我们需要的是更合理的制度。
我已经明确知道未来我要干什么。英语里有句话:Memorize Long, Adapt Short。铭记长期目标,适应短期生活。
如果你看到了这里,就送你一首诗吧:
别梦依稀咒逝川,故园三十二年前。
红旗卷起农奴戟,黑手高悬霸主鞭。
为有牺牲多壮志,敢教日月换新天。
喜看稻菽千重浪,遍地英雄下夕烟。