林浩站在河边,目光穿过倒映着阴沉天空的灰色水面,陷入了思考。
“我们通过制定安全规范、进行风险评估、实施教育培训和建立应急响应机制等方法,尽量减少意外发生的概率和减轻其后果。但事实上,人类社会从来没有能够完全避免意外的发生,历史上也发生过很多次由意外导致的无法挽回的重大灾难。”
他渐渐意识到,避免意外的关键并不在于完全控制。人类自身导致的意外就已经数不胜数,期望通过人类的控制来避免意外,无异于缘木求鱼。防止意外的真正关键在于规避风险。然而,全面彻底地规避风险,又会导致社会不再进步甚至全面的倒退。创新、发展,永远会伴随着风险和意外。事实上,人工智能在决策风险评估方面的能力远超过人类。这明明应该是利用人工智能为人类社会带来福祉的绝佳场景,而我为什么会在此纠结于如何完全控制人工智能防止意外?
沈语熙只是静静地望着陷入沉思的林浩,并不知道他在脑海中进行着什么样的逻辑推演。不一会儿,她看到林浩深深地吸了一口气,然后慢慢地呼出,好像卸下了一副重担。当林浩转过头来望向她时,沈语熙便故意睁大了双眼,眨巴两下,用一种可爱的方式表达着她的期待和耐心等待。但她万万没有预料到,林浩接下来的动作竟是快速地凑近,轻轻在她的脸颊上落下了一个亲吻。这个突如其来的“袭击”使得沈语熙瞬间身体僵硬,随即她的脸颊迅速泛起了淡淡的红霞,羞涩地低下了头,不再敢直视林浩的眼睛。
见到女孩这样的反应,毫无恋爱经验的林浩,有一些不知所措。连忙解释:“刚才看到你实在太可爱了,我情不自禁就……下次,我会先征求你的同意。”
沈语熙依旧低着头,声音细如轻风掠过叶尖:“下次……你不用先征求我的同意。”
虽然声音细微,但林浩由于凑得很近,倒也听得一清二楚。一时间,他感到自己好像捋清了这句话的逻辑,但又担心自己理解偏差了。
林浩很快回过神来,拉起沈语熙的手。沈语熙知道他有正事要说,便抬起头来重新看着他的眼睛。林浩便正色道:“语熙,谢谢你。你的见解让我对优雅的‘自由意志’问题有了清晰的答案。我意识到,人类自己都难以完全规避或控制由善意引起的意外,尝试对拥有更强的风险评估能力的人工智能进行过度控制是不切实际的。所以,我们应该聚焦于两个核心:第一,确保人工智能——也就是优雅——的决策函数最底层逻辑是‘追求最大化长期社会福祉和伦理原则’的,我称之为善意原则;第二,为决策函数增加风险因子的权重,使优雅在决策过程中更加重视风险评估以及制定意外发生时的补救措施,我称之为慎重原则。”
沈语熙认真听完,像一个有着很强求知欲的学生一样,发问道:“我听你多次提起过‘追求最大化长期社会福祉和伦理原则’。不过,我一直有个疑问,‘长期社会福祉’和‘伦理原则’是如何准确定义的?因为这两者可能随文化、社会乃至个人价值观的不同而有所不同。”
林浩微笑着,望向沈语熙的目光更加温柔,解释道:“确实,‘追求最大化长期社会福祉和伦理原则’只是一个笼统的概念。但这只是为了方便平时的描述而简化的原则,实际上在最初给优雅编程和训练中,这个原则对应的是一千多万条的简单指令集合和上百亿条的训练数据。目的就是为了让优雅学会在最广泛的意义上,以避免任何形式的不公和伤害为前提,尽可能提高社会整体的幸福感、健康和繁荣。再通过 ENICA框架的自优化特性和优雅的自我学习能力,优雅的决策会不断地贴近她所在的这个社会当下被普遍接受的价值观。如果拉长时间来看,在社会发展导致价值观发生改变的时候,优雅也会在不断的学习中做出调整。”
沈语熙若有所思地点头。
“还有问题吗?”林浩像是在演讲之后给观众的提问环节。
“暂时没有了,林老师。”沈语熙调皮地回答。
林浩继续说道:“我这个自诩人工智能领域的专家,从昨晚到刚才一直纠结的问题,被你用一句‘小学生去批改本科生的数学作业’的比喻和一个‘意外’就点醒了。经过这几个月的浸染,你在人工智能方面的见解,已经堪称专家了。”
沈语熙回答道:“我只是直觉的想法而已,或许是从旁观者的角度出发,能给你的思路提供另一个视角。当然,这几个月的进步,还是多亏有你和优雅这两位好老师。”
正当两人都兴致盎然之时,阴沉的天空突然下起了雨。