人工智能技术的飞速演进和广泛应用,正引领人类社会经历一场空前变革。这些变革不仅仅局限于技术层面,更深远地影响到了伦理观念、社会治理模式及人与技术的共生关系。在这样的发展趋势下,传统封闭的单向的伦理规范制定模式已显不足,难以有效应对日益复杂的伦理挑战。鉴于人工智能的广泛影响和涉及的人群众多,探讨一种多元主体参与、交互式、开放性的参与式伦理规约变得至关重要,对促进技术进步与伦理规范的协同发展,以及构建更好的智能社会治理体系都有着重要意义。
1参与式伦理:打造公众参与的人工智能治理新范式
人工智能技术使传统社会治理结构面临前所未有挑战。这一挑战不仅源于技术本身的复杂性和不断演进的性质,也源于其对社会规范和行为模式的深远影响。作为一种新兴治理框架,参与式伦理规约不仅可以有效应对新挑战,也为社会治理提供了全新视角和框架。
参与式伦理规约起源于20世纪中期的参与式行动研究和社区基础研究。其核心理念在于多方合作和共同决策赋予所有社会主体参与伦理规范制定的权利,促进透明度和共同参与,将伦理决策过程与各主体的真实需求和期望更紧密地联系起来。
在人工智能时代,参与式伦理规约为社会治理提供了新的范式。它强调在人工智能技术的研发、应用和监管过程中,广泛吸收多元利益相关方的参与,通过持续对话和协商来制定伦理规范。这种参与式的方法不仅有助于平衡不同群体的利益诉求,也能更好地应对人工智能带来的复杂伦理挑战。例如,在制定《生成式人工智能服务管理暂行办法》的过程中,就采取了广泛征求意见的做法,体现了参与式伦理规约的理念。
1.1参与式伦理规约是适应技术与社会演进的开放性治理框架
为应对技术快速发展和社会文化多元化的挑战,将伦理原则的制定转化为多元主体共同参与过程,是十分必要的。参与式伦理规约不仅促进了伦理标准的持续演进,还增强了对不断变化环境的适应能力;确保治理策略既具时效性又保持灵活性,从而使伦理规范更加适应时代步伐,有效应对社会和技术领域的新变化。在这种模式下,伦理决策不再仅由专家、政府制定,而是成为一个多元主体参与的持续对话过程。这种方式特别适用于应对人工智能挑战,因为它使伦理标准能够与技术进步同步更新,提升了治理的公正性和实用性。这种社会治理理念推动了从传统的自上而下的治理模式向更民主化、多元化和参与性强的治理结构转变,体现了人工智能时代社会治理结构的根本变革。
1.2参与式伦理规约通过促进技术与社会文化的互动重构社会治理模式
人工智能时代社会治理展现出技术进步与社会文化交融的复杂性,技术不仅是推动社会结构和治理模式变革的动力,也是社会文化影响和人类活动反映的产物。在技术改变决策方式、社交模式甚至价值观的同时,社会的需求和期望也在塑造技术的发展方向和应用场景。这种交织意味着不能单纯地从技术或社会角度来看待社会治理变革,而是应寻求二者之间相互作用,以理解社会治理的全面变革。参与式伦理规约突出了技术发展与社会需求之间的双向互动,强调治理结构必须适应快速变化的技术和社会文化。这种方法将不同社会群体、政策制定者、技术专家和用户都纳入伦理决策过程,为社会治理带来新维度;它不仅加深了对技术影响的理解,还促进了治理结构的灵活性和包容性,确保社会治理能够有效应对人工智能时代的挑战。
1.3参与式伦理规约是大众参与的社会治理新范式
“人工智能技术的发展正在重塑社会现实,带来社会治理领域的新变革”。社会治理核心目标是满足社会大众的需求和利益,而社会大众所表达的需求和意见,也构成了政府和各社会组织制定和实施治理政策的基础和出发点。在数字化时代,大众参与呈现出新的内涵和形式,经历了前所未有变革。这场变革不只体现在参与方式的多样化上,也在更深的层面上,触及公民参与模式的根本性重塑。
在传统治理模式中,大众的参与主要是通过对既有政策或预期政策的反馈来实现的。而在网络、社交媒体和其他数字平台的普及下,大众对于治理的参与变得更加直接、广泛。在一些情况下,通过这些渠道的发声,大众甚至可以直接推动政策的制定。这种直接的、自下而上的参与方式,改变了大众在治理政策制定中的角色定位,使其从被动的反馈者转变为决策过程中的主动参与者。这种转变意味着,需要在理论层面重新审视和定义大众的角色、权力与责任。此外,数字化技术还为大众参与带来了新的机遇挑战。一方面,技术使得信息传播更为迅速、广泛,大众的声音可以更容易被听到;另一方面,技术也可能导致信息的碎片化、回音室效应和算法偏见,这些都会影响大众参与的质量和效能。
2参与式伦理:构建“以人为本”的人工智能治理新框架
借助人工智能的先进技术,如机器学习和深度学习,传统决策中的人工分析局限得到了有效克服,延伸了社会治理的触角、拓展了社会治理的空间。参与式伦理规约旨在确保技术创新与伦理规范同步前进。该框架的核心在于其前瞻性和适应性,不仅解决现存的伦理问题,而且通过持续的监测和评估,预见并应对未来可能出现的伦理挑战。在促进伦理规范与技术创新的协同进步方面,参与式伦理规约提倡开放的社会对话,以确保各种声音和视角能够被听见并纳入决策过程。这种包容性的对话环境有助于揭示和理解新技术可能带来的伦理复杂性,从而在技术应用初期就考虑伦理影响。参与式伦理规约通过社会对话、教育推广和政策创新,确保了伦理规范能够与技术创新齐头并进,形成一种动态的、互相促进的关系。这种协同进步不仅使技术发展更加贴近人类的核心价值和社会的整体利益,而且为构建一个更加公正、可持续的未来奠定了坚实的基础。
参与式伦理规约为人工智能治理提供了一个独特视角,强调了多元主体的协同参与及权利边界的明确。参与式伦理规约的治理框架,通过确保技术的透明性、大众的参与度和伦理决策的动态性,努力推进构建一个既尊重技术进步又重视人类核心价值的智能社会,为人工智能的持续、公正和透明发展奠定了坚实基础。
2.1基于参与式伦理规约的人工智能治理框架需遵循“以人为本”的基本原则
尽管“后人类”语境下存在对“人”的重要性质疑,人的自我意识、道德判断和自由意志在伦理规范制定中仍发挥不可替代的作用。参与式伦理规约强调人在制定伦理规范和批判性思考中的主导地位,确保技术发展以人的价值为导向。同时也突出人的独特性,尤其是在认知能力、情感反应和文化背景方面。这些特质在伦理决策中发挥关键作用,确保了决策的全面性和多样性。以人为本的伦理导向是参与式伦理规约的道德基础,确保技术发展和应用始终服务于人类利益,强调人应是决策和行动的中心,保障技术为人服务,而非反过来支配人类,以确保技术的发展与应用始终符合人的基本权利和尊严。
人工智能系统在设计、开发和应用过程中,始终将保护人的尊严、完整、自由、隐私和安全放在首位。人工智能应用应致力于消除技术应用中的歧视和偏见,提供均等的机会和资源,满足不同群体的需求。在人工智能系统的设计、开发和应用中,要坚持公平正义,杜绝任何形式的歧视和偏见。确保人工智能的发展始终在人的控制之下,避免技术失控造成危害。提高人工智能系统的透明度、可解释性和可控性,确保决策逻辑和行为后果可追溯、可验证。在人机协作中,要明确划分人机边界,避免人过度依赖技术、被技术所操控。人工智能系统必须尊重个人隐私,保障用户对个人信息的控制权和知情权;收集、使用个人数据要合法、正当,符合特定、明确的目的,不得过度收集或超范围使用;对敏感个人信息要严格保护,防止未经授权的披露、访问或滥用;在平衡个人隐私与公共利益时,要恪守必要性和最小化原则,并提供有效的隐私保护措施。人工智能的伦理责任需要社会各界共同承担;政府、企业、研究机构、公众等利益相关方都应参与到人工智能伦理规约的制定和实施中,明晰各自权利义务,形成多方协作、共同治理的机制。
2.2基于参与式伦理规约的人工智能治理框架应明确多元主体参与的权利边界
随着人工智能技术的发展和应用,多元主体包括个人、技术提供者、政府和企业等都在参与和影响技术的决策和实践。这种多元主体的参与带来了权利和责任的边界问题,需要明确界定并确保各主体的权益得到平衡和保护。在智能技术普及的背景下,技术提供者与用户之间的权利关系日益重要,尤其涉及数据所有权、访问权和使用权。用户生成的数据常被视作被技术提供者所有,因此需重新定义数据所有权,增强用户控制权;用户应能监督技术应用,要求透明度,并享有使用中的知识产权。
作为传统治理模式的转化和创新,参与式伦理规约提高了决策透明度,确保信息公开和可访问,并通过包容性的设计鼓励不同背景主体的参与,集合多样视角提升决策质量和公众信任。在权利平衡方面,参与式伦理规约强调了个体权利与集体利益之间的协调。个人在享有隐私权、表达权和自主权的同时,也被赋予了在技术应用和数据处理中监督和提出质疑的权力。企业和技术提供者在追求创新和经济效益的过程中,同样需要承担起保护用户数据、确保算法公正和透明的责任。政府作为监管者,不仅要制定合理的政策和法规来引导技术发展,还要确保这些政策的执行能够平衡不同群体的利益,防止权力滥用,并在必要时进行干预以维护公共利益。在责任共担方面,参与式伦理规约明确了各主体在治理过程中的责任和义务,确保了任何决策和行为都有明确的责任主体和追责机制。这种权利与责任的平衡共担为智能社会治理的稳定和持续发展提供了有力保障。
2.3“共建、共治、共享”是实现人工智能参与式伦理规约的关键目标
“共建、共治、共享”的理念是落实人工智能参与式伦理规约的重要指导原则。通过构建多元参与、开放包容的伦理治理机制,厘清利益相关方责任边界,推动人工智能发展成果的广泛普惠,方能实现以人为本、惠及全人类的人工智能发展愿景。这需要政府、企业、社会组织、公众等各方共同努力,在参与中凝聚共识,在互动中创新治理,在实践中优化制度,持续推进人工智能治理体系和治理能力现代化。
“共建”强调多元主体的广泛参与。人工智能的影响涉及方方面面,单靠政府的自上而下管制难以全面应对。要搭建多元参与平台,鼓励不同群体表达诉求、贡献智慧,形成包容开放的协商机制。企业、学术界要积极参与伦理规约研究制定,将人文关怀融入技术设计之中。公众也要提升人工智能素养,主动参与伦理议题讨论。唯有凝聚各方共识,人工智能的发展方能贴近民意、体现民意。
“共治”强调多元主体的权责划分与协调配合。人工智能治理涉及伦理、法律、技术等多重维度,需要系统性的制度安排。政府要完善顶层设计,健全法律法规,为人工智能发展提供制度保障。企业要加强行业自律,将伦理要求内化为研发和经营行为准则。行业组织、第三方机构要发挥桥梁纽带作用,促进跨领域对话合作,探索柔性治理模式。多元共治格局的形成,有利于调动各方资源和力量,提升人工智能治理的整体效能。
“共享”强调人工智能发展成果的广泛惠及。人工智能是放大社会生产力、提升公共服务水平的重要工具,其发展应让全社会共同受益。要完善普惠机制,保障不同群体平等参与和获益的机会,防止技术成果被垄断、被滥用。要发挥人工智能在教育、医疗、民生等领域的优势,促进基本公共服务均等化。同时,要加强伦理教育和宣传引导,提升全民科技伦理素养,营造人工智能向善发展的社会环境。
文章摘编自《中国科学院院刊》2024年第11期,原文标题:参与式伦理规约:人工智能时代的风险挑战及其治理逻辑构建
扫一扫在手机上查看当前页面