积极应对人工智能技术恐惧
作者:赵磊 来源:中国社会科学网-中国社会科学报
技术恐惧指的是人们对新技术的不信任、焦虑、担忧甚至恐慌,从而产生排斥、拒绝和抵制新技术的心理和行为。这种情绪在人类历史上一直存在,并随着科技进步的加速而变得愈发普遍和强烈。从历史上看,任何重大技术的快速发展都伴随着社会动荡和对快速变化的焦虑——印刷机、机器生产、火车、汽车、飞机、广播和电视、核技术、计算机等都曾遭受不少人的抵制。每一次技术的重大革新和急剧迭代,都会有人发出“狼来了”的呼救。面对人工智能的迅猛发展和智能时代的到来,人们再一次感觉到“狼来了”,尤其是生成式人工智能的迭代崛起,使人们备感恐慌和不安。那么,这一次是真的“狼来了”,还是与以往人类的技术恐惧一样只是对新兴事物的一种误读或错觉?本文认为,人工智能并非真的“狼来了”,而是一项有潜力的技术,需要通过科学、理性的方法对其影响进行评估,消除不必要的恐惧和误解,让技术成为人类进步的持久驱动力,以实现人与技术的和谐共存和协同进步。
人工智能技术恐惧除了具有过往的技术恐惧特征之外,其根本性问题在于人类灵魂深处对于智能主体地位的捍卫。如果说以往技术恐惧多停留在对物(技术人工物)的恐惧层面,而人工智能技术恐惧更为持久、深沉的表现则是对人(另一种人、另一类主体)的恐惧,这也是人工智能技术恐惧的显著特征。不过,人工智能技术恐惧所恐惧的,往往并非人工智能的类人化,或者机器像人一样智能。这样的人工智能,可以称为人化人工智能,也可以视为人造人。若真如此,人工智能也就具有了知情意的统一。孟子曾言:“是非之心,智之端也。”智能就发端于人辨别是非的能力,明辨是非也正是伦理道德的内在体现。因此,人类智能内蕴伦理因素。智者知也,人类认知的发展、智力的进化都离不开伦理原则的指导和约束。因此,如果真实现了机器智能的类人化,这样的人化人工智能也就具有了伦理能力,具有了自我控制或约束能力。人工智能如果具有了道德情感,也就没有什么好恐惧的了。所以,人类并非恐惧类人化的人工智能,而是恐惧离人化、非人化的人工智能,即拥有智能却远离人性、远离人类伦理道德的人工智能。离人化的人工智能缺少人的意志和情感,缺少人的疼痛和痛苦的感觉,也就不具有同情心和同理心,在决策时自然无法完全从人的感受出发。因此,人工智能的发展方向决定着人类对它的态度。
从人类发展人工智能的价值目标来看,是发展能理解人、服务人的机器,是为了实现人的解放。基于此目标,我们没有必要恐惧人工智能越来越像人,而更应警惕人工智能越来越不像人,警惕一种非人类智能机器的进化逻辑——知情意分割开来的人工智能更可怕。当人工智能在各方面都越来越像人,具有人的情感和心智,能够像人一样遵守各种伦理和法律规范时,人们对它的恐惧就会变小甚至消失,可能表现出像对其他人一样的友好,甚至能够唤起被抑制的埋藏在人们心底的爱。从人工智能发展的初心、价值、目的、归宿以及人工智能技术恐惧的根源来看,我们希望人工智能可以为人类工作、让人类过上美好生活。对于技术风险,我们可以通过技术的不断完善来降低甚至消除,而对于人造智能的去人性化问题,应从伦理和法律规制、监管等方面防微杜渐,确保人工智能的人性化发展方向。这样我们就可以利用人工智能,而不是被人工智能所利用。
当前,人工智能已赋予自动化全新的含义,很多职业、行业、岗位都会受到巨大冲击。在这方面,人工智能也会成为人们恐惧的对象。因此,在人工智能治理中,要考虑有关社会保障机制,以及在一些工作岗位消失的同时创造新的岗位。也就是说,要把创造新的岗位或为失业者寻找替代性收入,作为在人工智能技术研发和产业布局时就要考虑的因素,以保障人工智能的发展与人性对齐、与伦理对齐。比如,有些国家试图让人工智能公司承担更多的税收份额,也有人建议征收“机器人税”,还有人提出“普遍基本收入”的概念,即不论人们工作还是不工作都应有普遍基本收入或最低收入,以保证基本的生存或生活需要。一些科技公司凭借技术优势和垄断地位,占有了大量人工智能发展带来的红利,其中就包括给一些人或行业带来的失业代价,以及人工智能行业产生的溢出效益。因此,采取合理措施做好人工智能创造的社会总收益的再分配,既是人工智能治理的必要手段,也是社会发展公平公正的体现。除了经济手段之外,教育和培训也是人工智能社会保障机制的重要构成部分。一方面,这可以提高公众的数字素养和技能,化解对失业风险的恐惧,提升失业者的再就业能力。另一方面,这还可以帮助公众更好地认识人工智能技术及行业,提升公众参与、监督和追究科技公司责任的能力。可见,人类已经在人工智能治理方面殚精竭虑、共谋发展。人工智能的发展与应用潜力巨大,但我们需要确保其发展符合伦理和法律原则,并制定相应的监管政策,以保障公共利益和个人权益。
为什么人会恐惧人工智能?这与人的认知不无关系。当人对人工智能缺乏足够的认知时,便会对它产生不信任感进而产生恐惧。研究人工智能存在的问题,并不是为了让人恐惧,而是使我们更全面地认识人工智能,从而推动人工智能的进一步发展。此外,人对人工智能的恐惧还源于人对人的恐惧,担心人工智能被不法分子控制和利用。比如,利用人工智能监视、窃取隐私的行为会带来焦虑,自主武器一旦被恐怖势力掌握则会带来莫大的恐慌。道德智能体或道德机器是我们对人工智能发展方向的美好期盼,但机器能否拥有人类的道德仍是个有争议的话题。我们在无法保证生产出有道德的机器时,就要限制自己托付给机器的决定,尤其是具有较高风险的决定,这在某种程度上可以降低人工智能技术恐惧。从实际来看,无论是现实的、潜在的抑或未来的人工智能风险应对,人工智能的开发和使用都是要把好的重要关口。比如,成立人工智能公共使用伦理委员会,以监管人工智能的使用风险,为人工智能科技公司或设计开发人员划定红线,尤其是在企业利益与公众利益出现矛盾之时。所以,与其说人工智能技术恐惧是对人与技术关系的反映,不如说是对人与人关系的反映——人工智能治理的关键是治理人工智能开发和使用的人。如此看来,人的自我提高、人类的和谐发展,才是应对人工智能技术恐惧的关键。
应对人工智能技术恐惧,需要回到两个元理论问题:处理好人与自身的关系;处理好人与他人之间的关系。人与自身的关系要求自我身心和谐,提高科学素养和道德文化修养,克制非分之想、消除妄为邪念,在人工智能的研发和使用上坚持“勿以恶小而为之,勿以善小而不为”。人与技术的关系是人与人的关系在技术上的体现,人工智能的恶往往是人的恶在技术上的投映。这种关系原理,使人类能够通过技术更好地反观自身——人工智能的发展使我们对人性产生了更多的欣赏,甚至让我们的人性得以彰显。通过对人工智能风险和不足的感知,人类可以更加感到人性的弥足珍贵。虽然目前道德机器存在诸多困难,伦理算法也可能遭遇失败,但这却把对人性和人类价值观的反思推到了一个新的高度——正是人类持续对人工智能的伦理思考、对人机关系的深度审视,才有了对人类价值观更为深刻的理解。与技术和解、与人工智能和解,实质就是与人和解。如果人类存在恶的观念,人工智能的恶用就不可避免,人工智能技术恐惧就不会消除。因此,要以构建和谐社会和人类命运共同体为依托,实现全球人际关系和谐与和平共处,把人类价值观和人际关系准则贯彻到人工智能的开发和使用中——人类要确保自己不泯灭人性、不丢失人类价值观和人类情感——这既是人类发展的方向指南,也是人与技术相处的法则和基石。
(作者系聊城大学政治与公共管理学院教授)
https://www.cssn.cn/skgz/bwyc/202410/t20241029_5797220.shtml