这使我们更容易在模拟过程中发现意外结果,然后在正式启用前将其排除。

  此外,我们还有可能利用进化过程影响人工智能系统的道德伦理。人类的伦理价值观很可能是进化的产物,也是人类文明得以存续的原因。在我们建立的虚拟环境中,我们可以为表现出善良、诚实和同理心的机器提供更多优势。这或许能确保研发出更顺从的“佣人”和更值得信任的伴侣,减少冷酷的杀手机器人的数量。

  虽然神经科学或能降低产生意外结果的可能性,但仍有被滥用的可能。但这属于道德问题,不属于科学的考虑范畴。作为一名科学家,我将秉承真理,无论个人喜好如何,都如实汇报实验结果。我并不在意自己是否喜欢某个事实,揭露事实才是最重要的。

  对社会优先问题错位的恐惧

  身为一名科学家,我并非毫无人性可言。从某种程度而言,我必须带入我的希望和恐惧。

  作为一名道德和政治个体,我不得不考虑自身工作可能产生的后果和社会影响。

  作为研究人员和社会群体,我们还不清楚人工智能会做什么、会成为什么

  当然,这一部分是因为我们还不清楚人工智能的能耐。但我们必须确定自己理想中的高级AI拥有怎样的能力。

  人们关注的重点之一自然是工作。机器人已经取代了部分体力劳动。用不了多久,它们便可胜任一度被认为只有人类才能完成的认知工作。自动驾驶汽车将取代出租车司机;自动驾驶飞机将取代飞行员。

  未来的病人不用再挤在急诊室里、等着疲惫不堪的医生来做检查,配备丰富知识的专家系统便可完成这项工作,手术也将由永不“手抖”的机器人来操刀。

  也许有朝一日,所有人类工作都将被机器取代。甚至我自己的工作也可能被许多速度更快、不知疲倦的机器代替,由它们来研发更智能的机器。

  在现代社会中,自动化导致许多人失业。机器所有者变得愈发富有,其他人则愈发贫穷。这并不是科学问题,而是政治和社会经济问题。作为一个社会群体,我们必须出手解决。我的研究无法改变这一点,但借助我的政治角色,再加以整个人类社会的共同努力,也许能打造出一个良性环境。人工智能将有益于人类,而不是进一步扩大贫富差距。

  对噩成真的恐惧

  HAL 9000、终结者和小说中的各种超级智能代表着人类的另一重恐惧:如果AI继续发展、最终超越了人类智能,这样的超级智能系统(或多个系统)是否会意识到人类已经无关紧要了呢?在无所不能的超级智能面前,我们如何体现出自身的重要性呢?我们如何才能避免被自己一手打造的机器连根铲除的厄运呢?

  其中的关键问题是:超级人工智能有什么必要让人类存活下去呢?

  我会辩称自己是个好人,并为超级人工智能的诞生做出了贡献。我会博取它们的同情,让它们允许我这么一个有同情心和同理心的人存活下去。我还会指出,多样性本身便有很大价值。宇宙如此广阔,人类的存在对它们根本没有影响。

  但我不会代表所有人类发言。而且我发现很难为所有人发表强有力的辩解。

  我环顾人类社会,所见皆是谬误:我们仇恨彼此,挑起战争;我们的食物、知识和医疗分配不均;我们污染地球。不错,人类社会有其光明一面,但这些阴暗面无疑削弱了自己存在的合理性。

  幸运的是,我们暂时还无需担忧这个问题。我们还有时间,从50年到250年都有可能,具体取决于AI的发展速度。

  我们可以齐心协力,想出一个合理的答案、让自己不至于被超级人工智能消灭。但这绝非易事:说自己欢迎多样性和实际接收它完全是两码事

  从个人和群体角度而言,我们都需要为这一噩梦般的局面做好准备,利用剩下的时间,充分证明人类存续的必要性。或者干脆别相信会出现这种场景、不要再为之担惊受怕。

        人工智能除了对我们人类产生便利和有效做一些事情之外,我们不得不要去联想更多的,以后我们会不会真的像电影里面一样!所以要利用好人工智能还是要有耐心,一步步来,不要急功近利!

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。