2024-03-21 来源 湖南日报

湖南日报|宋春艳:人机融合智能带来的伦理风险及防范

核心提示

随着这些年来理论、技术的创新,人机融合展现出了巨大的潜力和价值,深刻影响工业生产、就业、教育、医疗服务等各个领域。和谐的人机关系始终不能脱离人的尊严,一旦违背了服务于人的根本准则,技术将变得很危险。怎样划定人机融合的边界,有效规避其中的伦理风险,本文试分析、探讨。

ChatGPT的问世,实现了从“人主动适应机器”到“机器主动适应人”的人机交流无缝对接。作为新质生产力的重要推动力量,人机融合具有巨大的潜力和价值。人机融合对新质生产力的重大推动作用,源于人机融合特殊的技术特点。

人机融合智能具有的技术特点

人与认知环境的边界消失。人机融合中,处于认知环境的人工智能是一种高级的智能机器,具有一定的自主性、适应性和交互性。处于认知环境中的人工智能已经从影响人认知结果的环境要素逐渐成为新的类主体,代替人类进行选择和决策,对认知主体的影响已经从器物文化层面上升到观念文化层面,深层次影响着认知主体的态度和行为。与此同时,在人机融合的大背景下,认知主体可能成为其他认知系统的环境要素,且认知主体与环境能够相互转化。人与认知环境的边界逐渐消除,使得人类意识与认知环境表现出来的“意识”深度融合。

智能机器兼具主体性技术和客体性技术的双重身份。从制造简单工具开始,人类开启了波澜壮阔的技术进化史。技术作为人工制品,一度居于客体的地位,作为被认识的对象而存在。工业革命后,科学技术的发展步伐越来越快,技术虽然在人与世界的关联中一直发挥着重要的作用,但其角色依然是人类认识世界的中介手段。但进入人工智能阶段后,人与技术的关系则变成人机关系,人机关系从以前的依赖关系、渗透关系发展到现在的嵌入关系。智能机器不仅能够指向外在世界,满足人们改变客观世界的要求,还可以指向人类自身,增强人的生物机能和延展人的认知功能,从而又具备主体性技术的身份。这类技术涉及人类身体和自身智能水平的提升和替代,因而将对人类的未来产生重大影响。

智能机器的硬件和软件共同进化。美国人工智能学者麦克斯·泰格马克在《生命3.0》中将生命演化分为三个阶段:在“生命1.0”阶段,其硬件软件都不能进化,只能通过漫长的自然演化缓慢进行;在“生命2.0”阶段,人们通过不断提升认知水平加速了软件的进化,但硬件仍然只能依赖自然演化;在“生命3.0”阶段,人类借助人工智能,不仅能够加速软件的进化,也能加速硬件的进化。人机融合则能借助彼此的优势达到“1+1>2”的效果,智能机器在人的主导下实现软件和硬件的升级,从而实现人机融合智能硬件和软件共同进化。

人机共同控制结果,某种情况下智能机器可以独立决策。人机融合智能是由人、智能机器和环境共同组成的群体智能。借助于网络,智能机器与环境中的其他要素实现信息交互,进而实现共同控制行动结果。某些情境下,自主性较强的智能机器甚至可以按照运行规则独立决策。生成式大模型在与环境信息交互后产生的结果具有一定的创造性和随机性,也可能产生错误或者荒谬的结果,就连模型的开发者也无法准确预测其生成的内容。

人机融合智能带来的伦理风险及防范

技术是一把“双刃剑”。人机融合也给个人和社会带来了一些风险。例如,随着人对机器的依赖,个人自愿让渡选择权和放弃个人技能训练,从而使得人的自主性和个人技能水平都随之降低;隐私安全与远程受控的风险加剧,大量个人信息和敏感数据一旦被泄露或者滥用,将给个人和社会带来巨大的损失。至于具有自主性的人工机器群体,远程失控的危害则更大,受到伤害的无辜群体人数会更多。尤其值得警觉的是,此类事故责任归属成为很难厘清的问题。人机融合中由于人机混合控制,事故责任涉及多个利益相关者,从而可能出现责任相互推诿的现象。这些风险,根本上是由于人机融合中新旧技术交替与原有社会中人员观念、制度、支撑条件等出现耦合障碍所致,有必要采取措施积极预防可能带来的风险,以更好地发挥人机融合的优势。

建立以人为本的人机协同演化关系。人工智能体在运行中表现出来的自主性会给人类社会和人机关系带来巨大冲击,而要减少这种负面影响,就要唤醒人的主体性。例如,通过重视人类情感教育,鼓励人们发展多样化的能力,唤醒人的责任意识等,促使人们争做技术的创新者、机器规则的制定者、社会问题的反思者和解决者,从而发挥人在人机互动中的主体性作用;同时,对于智能机器的升级进化,也要以人类价值为基准,确保人工智能始终向善发展、可靠可控。

加强隐私保护和数据安全管理。首先加强对数据隐私的依法依规管理,根据现有的法律法规和伦理审查要求,对数据的采集和使用进行监管。此外,隐私保护技术的提升也十分必要。对于人机交互中的敏感数据,应进行脱敏技术处理,然后再采用安全加密技术来保护敏感数据的传输和存储。为了防止远程受控,在人机融合智能应用的过程中,尤其要对数据加强管理和控制,以确保数据不被黑客攻击或混乱使用。例如,对数据进行分类和加密,只有经过授权的人员才能访问敏感数据。

通过技术手段监控智能体的运行。技术相对于科学而言,其重要的区别是技术的目的性非常强。企业在研发新技术时的最大动机在于其利益,而不是公益。对于具有一定自主性的智能机器,可能在自我学习中学会伤害人类的行为,或者被一些别有用心的人操控成为人类的敌人。为了保证新的人工智能产品的向善导向,就必须在研发中进行价值敏感设计,在使用中进行实时监控。因为高级智能机器通常是会聚技术,涉及的产业链条比以往任何时候都长,对人类生活和工作的影响也比以往任何时候都大。通过技术手段对新技术产品的运行进行监管是最经济有效的手段。对于自主性较强的智能机器,则还需要预装“伦理黑匣子”记录该系统的相关数据。如,决策的项目和依据,运动轨迹、传感器返回的数据以及其他用于伦理考量的信息,以此保证算法的透明性和责任可追溯性。

加强社会制度的修订和完善以适应人机融合的新时代。具有自主性的智能机器带来的变化不仅是技术的颠覆性创新,对原有社会运营机制的影响更是难以清楚预判。以当前热火朝天的自动驾驶汽车为例,表面上看是汽车产品的更新换代,背后是基础科学技术的发展和人类生活方式的演变,对此我们需要时间和空间为新技术的来临准备相关的支撑条件,包括以法律法规制度的完善来保证自动驾驶的合法性、以金融保险制度的升级来应对风险的转移,以智慧道路建设来适应人车交流等。这些制度的建立和完善与技术的完善都是需要时间的,而这样的等待是必须的,任何想超越这个时间积累急于商业化落地的行为难免带来灾难性的后果。

【作者单位:湖南省社会科学院(湖南省政府发展研究中心)。本文系国家社会科学基金一般项目“人机融合智能的道德风险及其协同治理研究”(20BZX029)阶段性成果】