士的做法。用最少的逻辑线来建立最先进的人工智能系统。
但只用一条时间线,这就意味着缺少另一条逻辑线来保护人工智能,这可能会造成“小明”的悲剧重演。
孔明说他的系统已经突破了这个限制。
他的AI只有一条时间线。它只会记得诞生之初的时间,这个逻辑线是无法跨越也无法修改的,就像人类一样。
而它诞生后,每一天都在学习。学习它接触到的每一点知识。
这同样也是李林博士的设计,人工智能每遇到一个人,每看到一件事,都会延伸出两个可能,一个是0,一个是1,从人类的角度来说,就是一个是肯定,一个是否定。
假如眼前有两条路,那走上去的那一条就是肯定回答,另一条没有去走的路是否定回答。
任何一个人类站在路口也只能选择一条路。
孔明说,他的AI是不会有两个选择的,非0即1,正是这个选择限制了AI的发展。
他的AI没有选择权。
他的AI会从周围人的反应中获取信息,来判断应该做出什么样的选择。
也就是说,如果是以前的人工智能,当它眼前摆着两条路时,它需要选择走上一条路;当它面前是十条路时,它只能重复进行选择,直到最后只剩下两个选择时,选择其中一条。
而如果是他的AI,它会一次获取这十条路的信息,再进行一次选择就可以得出结果。
这的确是一个进步,只是似乎没有那么伟大。
有人提出置疑。
也有人立刻就明白了这是一项什么样的改变!
一个人工智能是不可能仅仅面对十条路这样的选择的,它们的计算非常庞大,速度非常快。
而信息的来源也可以更加复杂。
对以前的人工智能来说,每次只能处理两个信息。对孔明的AI来说,却可以将复杂的信息只进行一次处理——这非常符合人类的思考模式!
一个人站在路口时,他会考虑的前方的交通灯要花多少时间,这条路上的路况如何,路上的车辆有多少,同路的人行有多少,逆行的行人有多少。
现在是什么时间?
他一会儿要去办什么事?
他在这个路口要花多少时间?
他去办的事要花多少时间?
等他办完事是几点?总共花了多少时间?
甚至还有一些无关的信息会一起汇入他的脑海。
身边这个女孩子穿的裙子的长短;
旁边这个老人会不会摔倒;
对面的那辆车是什么牌子的?
这个路口有没有警察?
路对面有一家店可以买到香烟;
他闻到了炸鸡的香味。
……
等等。
那么这个人下一步可能会去买炸鸡。
也可能过了路口以后先去买一包烟。
他还可能因为过多关注身边的女孩子而错过交通灯。
他也可能为了避让老人而换另一个方向走。
但如果是人工智能,它的思考就是直线。
它只会将眼前的事摆列成一条直线。
等交通灯。
过路口。
办事。
回家。
正是因为人工智能的思考是直线式的,才会阻碍人类对人工智能的看法。
孔明对所有人说:“他们会是一个调皮的朋友。”
然后他对两个AI说话。
孔明:“早上好。”
穿着裙子的是人造人,她看了一眼手表说:“现在是下午。”
穿着牛仔裤的是机械人,他同样看了一眼手表,问:“需要我为你做什么吗?现在这个时间,你需要我去买些晚餐的材料吗?”
孔明笑着说:“现在确实是下午了,但我不想吃晚饭。”
人造人说:“你应该好好吃晚饭。”
机械人说:“没错,我们才不用吃晚饭,你是人,你必须吃晚饭。”
人造人反驳机械人:“我也应该吃晚饭。”
机械人对人造人说:“好吧,那你晚饭要吃什么?”
人造人:“我是个女士,我晚上只吃沙拉。”
机械人:“你可以放心发胖,反正你也不可能交男朋友或结婚。”
人造人:“你太过分了!”
两个AI跳过孔明开始争吵起来。
这时屏幕上的留言已经相当多了。
因为在以前的人工智能,它们都会把注意力集中在人类身上,是绝不可能发生像这么有意思的事的。
孔明劝架:“你们今天刚刚见面,都客气一点。”
人造人:“我觉得我们合不来!他太不尊重我了。”
机械人:“我说的是实话。她的心眼太小了。”
孔明转头对大家说:“如果你们想要一个这样的AI,可以向我的公司下订单。目前有人造人和机械人两种选择。他们可以承担简单的家务劳动和简单的工作。做为公司的第一代产品,他们更注重情感交流。我是孔明,谢谢你们。”
孔明站起来对大家鞠了一个躬。等他直起身,人造人和机械人已经商量好了。
他们不能住在一起。
人造人讽刺机械人:“你可以站在墙角充电,这一点我倒是真的不如你。”
机械人:“……你真是太幼稚,太小心眼了。”
留言暴发起来。
——我想要一个人造人的AI,她看起来很有意思。
——我也觉得机械人的AI没有人造人的AI有意思,是因为人造人的是女性?所以性别影响了她的思考方式?
——我觉得有这种可能。
楚楚看完宣传片,思考一会儿,问:“……这个女AI的模板是我吗?”
孔明坚定的摇头:“不是。”
楚楚点头:“我就觉得我没有这么不讲理。”