作者简介
王一帆,华中科技大学公共管理学院博士研究生;
姚洪(通讯作者),广州大学公共管理学院讲师,Email: yaohong@gzhu.edu.cn。
摘要
随着生成式人工智能(Generative AI)的迅速发展,其在国家治理中的应用正日益深化,推动了治理方式的重大变革。本文基于生成式AI的发展历程,深入探讨了其在国家治理中的重要应用场景,总结了当前的关键趋势,包括决策智能化、服务响应精准化、治理结构扁平化、人机协同化及监督透明化。然而,生成式AI的广泛应用也带来了数据隐私与安全、算法透明度不足、伦理道德风险、数字主权等核心挑战。针对这些问题,本文提出了包括双轨治理模式、加强算法透明与问责、平衡数据共享与隐私保护等应对策略,力求在保障国家安全与社会信任的前提下,推动生成式AI的可持续发展。本文的研究对生成式AI在国家治理中的负责任应用提供了理论支持和实践指导。
关键词
生成式人工智能;国家治理;智能决策;伦理治理
一、引言
生成式人工智能(Generative AI)随着数字化、智能化的深入发展,在国家治理中迅速崛起并成为重要工具。生成式AI不同于传统人工智能,其核心在于能够基于数据生成包括文本、图像、声音等多种模态在内的新内容,因此在多个国家治理领域展现出了巨大的潜力。生成式AI目前已初步应用于多个方面(详见表1),包括政策决策支持、公共服务、社会安全和市场监管等。比如,在公共服务领域,生成式人工智能能够帮助政府提供更多个性化和智能化的服务方案;生成式AI在社会安全管理中,能够协助政府通过风险预测、舆情监控等手段,对突发事件做出快速反应;在政策制定上,生成式AI可以为决策提供数据支持,从而使政策更科学、更高效。近年来,全球多个国家已将生成式AI技术纳入国家治理体系,探索其在提高治理效率、优化资源配置等方面的作用。然而,高速发展的生成式AI在带来技术进步的同时,也引发了数据隐私泄露、算法偏见、伦理道德风险等诸多治理问题。推动生成式AI在国家治理中的合理应用,既面临机遇,又充满挑战,现实紧迫性极高,这些问题直接关系到政府治理的稳定性和公众信任度。
表1 生成式人工智能在国家治理中的应用场景
为明确本文的研究对象,首先需要对“国家治理”和“生成式人工智能”这两个核心概念进行界定。国家治理是指国家通过各种政府机构、法律法规、公共政策和社会资源的协调运作,确保社会稳定、公共利益和经济发展的过程。它涵盖政策决策、公共服务、市场监管、社会安全等多方面内容,是国家运转的重要支柱。国家治理不仅仅是单一的管理活动,还包括多主体的协同运作、跨部门的数据共享和信息交换,目的是实现社会的长治久安和公民的福祉。在现代化的国家治理体系中,人工智能逐渐成为提升治理效能的重要技术手段。生成式人工智能则是基于深度学习技术的AI分支,具备生成内容的能力,与传统的AI主要用于分析和识别不同,它能够通过对已有数据的学习生成具有创新性和结构性的新数据。生成式AI的发展历程可以划分为四个阶段:萌芽阶段(20世纪50年代至2000年)、初步发展阶段(2000年至2014年)、快速提升阶段(2014年至2020年)、大规模应用与创新阶段(2020年至今),目前已进入大规模实用化阶段(详见表2)。在当前阶段,生成式AI凭借其内容生成和数据处理的高效能力,已逐渐应用于文本生成、智能决策、内容创作等多个领域。该类生成式人工智能技术相对于传统人工智能而言,具有较强的自主生成能力与创新性,在政策扶持方面、在服务优化和社会安定性方面,能够为国家治理中复杂任务的开展提供一个强有力的技术支持。
表2 生成式人工智能的发展历程
在上述研究背景下,值得深入探讨的核心问题有三个:第一,生成式人工智能在国家治理中的发展有哪些重要趋势?第二,国家治理中的生成式人工智能面临什么核心挑战?第三,对于生成式AI的合理应用,政府应该采取怎样的应对策略才能有效推进?围绕着这些问题,本文旨在揭示生成式人工智能的应用现状和在国家治理中的潜在问题,并期望以新的视角为该领域提出相应的应对措施。从研究意义上讲,这篇文章理论价值很大,实践价值也很大。首先,理论意义在于,本文结合了国家治理和生成式AI两个领域,对生成式AI如何重塑国家治理体系进行了探索,拓宽了生成式AI在社会科学研究中的应用范围,同时也为国家治理提供了一条新的研究路径。其次,实践意义在于,本文分析了生成式AI在国家治理中的潜力和风险,为政府部门在保障数据隐私、安全和社会公平的同时,如何合理利用生成式AI,帮助政府实现生成式AI负责任的发展,提供了政策建议。
二、国家治理中生成式人工智能发展的重要趋势
(一)决策智能化与数据驱动化
生成式人工智能在政府决策中的应用加速了决策的智能化与数据驱动化转型,通过对海量数据的处理和分析,生成式AI大幅提升了政府在决策过程中的科学性和数据支持能力。随着生成式AI的广泛应用,数据驱动的决策模式逐步成为政府管理的常态化方式。政策制定从以往依赖主观经验、感知判断为主,逐渐向基于海量数据、深度分析的科学决策转型,促使政府能够在政策制定中更全面、精准地把握社会态势。
在生成式AI的辅助下,政府能够从庞大的信息资源中提取有价值的见解,识别出潜在的风险、机遇和趋势。例如,通过对社会经济数据的全面分析,生成式AI可以预测经济发展中的风险节点,提前规划干预措施。这种数据驱动式的决策模式,在加快决策过程、使政府在应对突发事件及应对复杂社会问题上更加灵活高效的同时,也使政策的精准度得到提高,使政策对现实需求实现更好的回应。另外,在多部门数据协作中生成式AI还可以实现数据共享,将各部门资源及数据整合在一起,形成一个促进政策跨部门协调和资源最优配置的更全面的分析视角。
生成式AI的引进使决策的透明度和客观性都得到了加强。数据驱动的决策减少了主观判断对政策的影响,使政策制定过程更多地建立在事实的基础上,以客观数据为基础,以算法为支持,减少人为因素造成的偏见与干扰。基于数据的智能决策还可以支持决策过程的溯源和验证,从而有助于增强公众对政策透明度和决策公正性的信任,通过生成式AI辅助分析,政府可以对政策执行效果进行实时监控,并对政策方向和力度进行动态调整,使治理与社会发展变化更加适应。
(二)服务个性化与响应精准化
在公共服务领域中生成式人工智能促进了服务个性化和响应精准化的发展,从而使政府对不同人群的特定需求提供有针对性的服务。基于历史资料的分析及实时回馈,生成式AI能够对每个个体或者群体需求的特点加以准确的识别从而为公共服务的个性化提供技术支持。比如,在社会保障领域当中,基于国民年龄、健康状况以及收入水平的数据,生成式人工智能就可以对其将来可能需要的社会福利进行预测从而事先准备相关的资源,保证服务的时效性和准确度。
生成式AI的个性化服务在医疗教育和其他重点领域尤其突出。跟据病人的病历、药物历史、生活习惯等因素,AI系统可向其提出健康管理的个性化建议及诊疗方案,从而为病人提供较为精确的公共医疗服务。在教育领域中,基于学生的学习习惯、兴趣爱好以及弱势科目所生成的学习方案、辅导计划,从而使每个学生的个性化教育方案得到有力支撑。这种基于生成式AI的精准反应,不但提高了资源的利用率,而且在时间上和成本上都减少了浪费,让公共服务的效能有了明显提升。
此外,通过对资源进行智能化配置从而对服务流程加以优化,生成式人工智能使得政府可以在突发情况下或紧急需要时做出快速响应。AI系统通过对各种数据的实时监视和分析,能够对资源需求的波动进行识别从而对资源配置进行动态的调整。比如说,在应对流感等公共卫生问题时就可以将医疗资源在疾病高发期优先配置,从而保证了高需求时期资源的充足性和服务的高质量。同时,生成式AI还能通过预测模型预判服务需求高峰,提前做好准备,确保公共服务的稳定性和高效性。
(三)结构扁平化与协作高效化
生成式人工智能正推动传统治理结构向扁平化和协作高效化转型,使政府逐步摆脱对科层制管理的依赖,向更加灵活的治理模式迈进。生成式AI通过跨部门的数据共享和信息流动,使各部门之间的沟通和协作更加高效、透明,从而减少了“信息孤岛”现象,促进了治理资源的最优配置。例如,生成式AI可以快速分析来自不同部门的数据,整合出跨领域的洞见,使各部门可以在同一信息基础上制定和执行政策,从而避免了由于信息分散导致的决策延迟和效率低下。
生成式AI还增强了政府部门间的无缝协作能力。在传统的科层制管理模式下,跨部门协作往往涉及复杂的审批流程和信息传递,导致执行效率降低。但是在生成式AI的辅助下,各部门之间依靠智能平台和数据共享体系就能够实现无延迟的信息交换与决策协调。不管是针对突发公共事件中还是推进大型的跨部门项目,生成式AI都能够将有关资料进行自动化的整合,辅助部门之间任务的分配、进度的协调,从而使协作过程变得灵活、高效起来。这种协作的高效化除了降低沟通成本之外,还能提高政府适应变化、满足大众需求的治理响应速度。
此外,生成式人工智能所带来的这种结构扁平化趋势也简化了政府内部的层级流程,使得信息在各个层级上的传输加速加快。高层决策者可以直接从基层中获取信息并通过生成式AI的实时数据分析及可视化功能,做出更加快速的、精确的决定。通过智能化的任务分配以及自动化的反馈机制,生成式人工智能还可以使基层工作人员与上级部门的指令实现较为直接的对接,减少了中间层级的冗余,并缩短了指令传达的链条,从而可以提高政策实施的效率和精度。
(四)人机协同化与操作智慧化
在国家治理中,人机协同化和操作智能化在生成式人工智能应用之后正逐步成为一种重要的走向。作为信息处理工具的生成式AI,已经融入了治理过程中的各个环节中,成为支持决策、预测风险、执行管理的关键力量。通过与人类的相互协作,生成式人工智能可以为政府提供更加智慧的操作支持,推动国家治理的高效化。
生成式AI在海量数据分析及风险预测中所表现出强大能力,为政府部门提供了更加可靠的决策基础。比如在突发事件管理中,生成式人工智能可以帮助人类决策者制订一个高效科学的应对预案从而缩短反应时间,提高应急管理的精准性。这种强大功能的实现依靠的是AI系统对历史资料、实时信息和外部情报的总和分析。生成式人工智能的这种实时分析及预测能力使政府对风险的预防以及资源的调度能够具有前瞻性,从而使得治理过程的智能化水平大幅提升。
在人机协同的模式下,生成式人工智能既是决策的辅助性工具,又是执行的重要“合作者”。人工智能能够承担高度重复型、数据密集型的工作,从而为人类工作人员减轻负担,使后者能够更多地投入到创造性、战略性的工作中来。例如生成式人工智能可以完全自动化地处理公文、分析大众反馈以及跟踪政策的实施效果,为人类管理者提供即时的数据反馈以及战略性的建议。这种智能化操作支持,使得公共服务的工作效率有了很大提高,也使政策执行变得更准确,更加具有可控性。
此外,生成式人工智能促使治理方式的智能化程度加深,让复杂化问题的解决更具综合性和高效性。人工智能不但可对现有资料做深度分析还可以将多源资料结合起来进行预测及情景模拟,从而帮助政府部门的决策过程更加科学,最终确保政策的可行性与适应性。政府在应对复杂社会问题时通过这种智慧化的操作支持可以更加灵活和精准地做出反应, 从而有助于增强国家治理的综合性及科学性。
(五)参与多元化与监督透明化
生成式人工智能的应用正在推动国家治理中的参与多元化和监督透明化,逐步构建以公众广泛参与为核心的共治模式,生成式AI通过智能交互系统、在线平台和自动反馈机制,拓展了公众参与的渠道,突破了时空限制,使各类人群都能轻松参与政策讨论、表达意见,进一步丰富了公共治理的多元参与形式。例如,基于生成式AI的在线平台,公众可以在政策形成的各个阶段随时提交意见或建议,反馈迅速传达至相关部门,增强了政策制定的开放性和包容性。
生成式AI还能够对来自不同群体的大量反馈进行快速、精准的分析,自动分类和汇总公众的意见,将数据化的见解提供给决策者。该类智能反馈机制不但增强了政府认识民意的深度与广度,而且让更多声音能够更有效地参与到政策讨论中,为决策提供多维度的数据支撑。在公共意见搜集及资料分析方面,AI技术的优势有利于打破信息壁垒使不同利益群体的需求得到较为及时的反映,从而实现较为全面有效的治理过程。
同时,监督的透明性也受到生成式AI应用的促进。AI技术能够使决策过程中的政府行为能够被实时跟踪和记录在案,也能使政府行为在政策执行过程中保持公开化和透明性,以便于公众和媒体的监督。比如,生成式AI可以通过视觉化的形式来呈现政策执行的进度、问题的反馈以及调整的情况,为大众所查阅,从而使得政策执行更加的透明和可追溯。另外,人工智能系统还可以分析公共政策实施的效果以及公众的反馈,来帮助政府识别可能出现的问题以及存在的薄弱部分,从而对政策过程做进一步地优化。
三、国家治理中生成式人工智能发展的核心挑战
(一)数据隐私与安全风险
生成式人工智能在国家治理中的广泛应用,依赖于大量的个人和敏感数据进行模型训练和优化,虽然这一特点对治理效率的提升起到了积极作用,但在数据隐私和安全方面也带来了重大隐患。首先,生成式AI需要分析大量的个人数据,这些数据往往包含高度隐私的信息,如身份信息、行为记录、健康状况等,以实现精准、个性化的决策支持。这些敏感信息在数据的收集、存储和处理过程中,极易被泄露或滥用,一旦产生疏漏或管理不善等情况,就会造成对个人隐私的严重侵犯。
其次,生成式AI为了整合多元信息,提高决策的全面性和准确性,在应用中需要跨部门的数据共享。但跨部门的数据流转往往增加了数据管理的复杂性,尤其是在数据安全措施不统一、保护机制不到位的情况下,数据传输过程中很可能发生数据泄露或篡改。此外,不同部门对于数据存取权限的控制差异也可能导致数据被滥用,使得数据隐私风险进一步加剧。尤其是在涉及多层级、多系统的复杂治理场景中,数据的频繁交换和重复存储增加了泄露的概率。
另外,生成式AI模型本身也可能无意中泄露敏感信息。AI模型在训练时会提取数据中的特征并学习模式,但在生成新内容时,AI可能将训练数据中的隐私信息“带出”模型,尤其是在模型复杂度较高的情况下,这种隐性泄露更为难以察觉。一旦被恶意利用,这些输出的隐私信息可能对个人造成不可估量的损害,甚至引发社会安全问题。
最后,生成式AI的高数据依赖性为网络攻击提供了新的途径。生成式AI系统需要持续接入和更新数据,频繁的网络交互在一定程度上增大了网络安全的风险。攻击者可能通过网络漏洞窃取、篡改或操控数据,直接影响到生成式AI的决策准确性和可靠性,甚至导致错误的公共决策。这种潜在的安全威胁不仅会使个体隐私暴露于风险中,更可能危及国家的数据安全和社会稳定。因此,生成式AI在国家治理中的数据隐私和安全风险日益紧迫,需要引起高度重视。
(二)算法透明度与问责缺失
生成式人工智能的“黑箱”特性,使国家治理中的透明性、问责机制面临严峻的挑战。由于生成式人工智能系统通常采用由大量层级和节点组成的复杂深度学习模型,其内部计算过程很难解释,因此它的具体决策逻辑和依据很难被外界所了解。这种不透明性限制了公众对AI系统的认识和信任,特别是生成式AI用于涉及公众利益的决策场景时,透明度的缺乏使得公众对人工智能决策的合理性、公正性难以确定,甚至会产生怀疑、不信任等情况。
在国家治理中,责任划分的模糊是由于透明度不够造成的。生成式AI系统发生差错或偏差时,具体责任方难以被清晰地追溯。在传统决策中,人类决策者需要为自己的决策承担责任,但在AI决策中,由于模型训练过程中的数据偏差、算法设计的缺陷、模型参数的设置不当,甚至算法本身的局限性等多重因素都有可能导致错误的产生,从而导致责任的界定异常复杂。这种模糊的责任归属,让AI一旦决策失误,就很难确定到底该追究谁的责任,不仅可能造成追责难的现实问题,也会让国家治理的公信力大打折扣。
生成式人工智能缺乏透明度的问题在公共服务领域特别明显。公共服务需要保证公平性与公开性,但是生成式人工智能的“黑箱”性质使公众很难知道其决策的依据从而导致公共决策的公信力下降。例如,在政府资源分配或社会保障决策中,如果人工智能在决策时采用了偏见数据或训练中出现误差,那么某些群体将会遭到不公正的对待,并且由于算法不透明,公众很难识别或者质疑这些决策依据的合理性。
更严重的是,外部对其进行监管的可能性受到生成式AI复杂性的限制。对一般公众乃至专业人士而言,生成式AI系统运行的原理很难理解,这就造成了公众在质疑AI决策时缺乏基本的监督能力。一方面,大众是无法辨认AI决策的潜在问题的;另一方面,即使出现了问题,也很难弄清原因或提出质疑,这使得“黑箱”效应进一步加剧,使公共服务透明度、公信力受到损害。
(三)伦理与道德风险
生成式人工智能在国家治理中应用会带来伦理、道德方面的显著危险。首先,由于生成式人工智能系统的决策和内容强烈依赖于历史数据,后者往往包括性别、种族、年龄等现实社会中的隐性偏见。这些偏见和不公平因素在AI的训练过程当中可能会被纳入到一个决策模型中来,从而在应用中产生一种歧视性或者不公正的决策。这种偏见在公共服务的应用当中,不仅仅会使得特定人群受到歧视,而且加剧社会的不公平,从而影响到社会的包容性和公正性。
此外,生成式AI在国家治理中的普遍运用,或使政府过分依赖技术,而对治理中应有的人性化因素置之不理。AI的高效与自动化特性,使很多政府部门为了追求管理效率,往往会倾向于通过技术手段简化决策流程,但这种倾向容易忽略公众的个体需求和特殊情况,造成决策与服务缺乏人性化考量。比如基于算法的决策,在面对突发状况或个体差异时,不能真正体现社会治理的包容性与多元化,就可能表现出刻板、机械的处理方式。
生成式AI的伦理风险也表现为误导和操纵信息方面。人工智能的生成能力可以被用于内容的自动生产,从而方便了虚假信息的生成。如果生成式人工智能被用于制造虚假新闻、误导性宣传或操纵社会舆论,就有可能严重威胁到公众的知情权、判断力和社会信任。这种操控性的应用方式可能破坏社会信任,甚至引发社会不安和冲突,影响国家治理的稳定性和合法性。
最后,生成式AI系统的应用还可能引发责任归属的伦理难题。AI在决策和执行过程中若出现错误或带来负面后果,责任的划分会变得复杂且模糊。生成式AI的决策偏差可能来源于数据质量、算法设计或外部环境等多种因素,而不同于传统的人工决策,这些因素往往难以追溯和归责。这种不清晰的责任归属不仅影响公共治理的透明度,也可能引发公众对AI决策的不信任,使得社会各界在面对AI错误时难以获得公正的问责和补偿。
(四)数字主权与国际竞争压力
生成式人工智能的发展使数字主权问题和国际技术竞争压力日益凸显。作为新兴的技术领域,生成式AI被各国视为增强国家竞争力的关键资源,因此围绕数据主权、技术自主和标准制定权展开了激烈的全球竞争。首先,生成式AI在数据处理和分析中高度依赖海量数据,而这些数据的流动和存储直接关系到国家的数据主权和安全。为了确保对数据资源的控制力,许多国家实施了严格的数据本土化政策,力图在国际数据流动中保障自身的主权利益。这种政策措施虽然有效保护了本国数据资源,但也增加了跨国数据合作的复杂性。
此外,生成式AI的核心技术和算法开发是掌握技术主导权的关键所在,而这正成为全球技术竞争中的重要战场。拥有领先的AI技术不仅意味着更强的经济实力和创新能力,也意味着在国际技术标准制定中占据主导地位。技术垄断和标准输出正成为各国竞争的焦点,一些技术领先的国家通过专利、技术封锁等手段限制其他国家进入核心技术领域,从而在生成式AI的标准制定中掌握话语权。这种技术垄断不仅限制了新兴国家的技术发展,也使许多国家在生成式AI应用中受制于人,削弱了其在国际竞争中的自主性。
与此同时,生成式AI在国家治理中的应用还面临数据保护和技术标准独立性的双重挑战。国际技术竞争的加剧使得各国在数据保护和网络安全方面加强防护措施,以防止数据泄露和信息被窃取。但在这一过程中,部分国家过度依赖外国技术的局面也愈加明显。对于技术依赖性较强的国家来说,一旦关键技术被限制,可能直接影响到生成式AI的正常运行和发展,甚至威胁到国家的数字主权。因此,如何在国际技术竞争中既保持技术独立性又确保数据安全,已成为当前数字主权面临的核心难题。
(五)公共服务中的数字鸿沟与社会不平等
尽管生成式AI在提升公共服务效率和响应速度方面展现了显著优势,但其广泛应用也可能加剧数字鸿沟,进一步扩大社会不平等。生成式AI依靠的是应用和理解数字技术的能力,所以它对大众的数字素养要求更高。但社会上存在着极其不均衡的数字素养差异,对于在适应以AI为基础的公共服务模式时面临着显著障碍的老年人、偏远地区居民和低收入人群而言,他们的数字素养可能使其难以适应智能服务流程,这将导致他们在享受公共服务时处于严重劣势。
这种数字鸿沟不仅影响到个体在获取服务方面的便利性,还可能加剧社会资源分配的不平等程度。举例来说,生成式AI可以在智能医疗、在线教育和公众信息获取等领域提供个性化、精准化的服务,但不熟悉技术的群体不仅难以将这些服务有效地利用起来,甚至连所需的基础信息都不能得到。特别是在重要的民生领域,如公共卫生、社会救助等方面,数字鸿沟会导致一些弱势群体在社会经济上处于更加不利的地位,无法获取同等的资源与救助。
此外,生成式AI技术的应用往往集中在城市和经济发达地区,而偏远地区和经济欠发达地区基础设施的不完善,导致AI技术的全面覆盖在这些地区难以实现。这不仅造成了资源在城乡间的不均衡分配,而且也加剧了区域间数字差距。生成式AI带来的新型公共服务,由于缺乏必要的设备和网络支持,难以被一些偏远地区的居民所使用,使得后者在社会和经济上形成一个“信息孤岛”。这种区域性的数字鸿沟阻碍了生成式AI的普及应用,也使得公共服务在国家治理中的普惠性目标受到限制。
社会不平等在生成式AI的应用过程中可能进一步固化甚至扩大。例如,在就业市场中,生成式AI的普及对高技术人群带来了更多的就业机会和职业发展,而低技能劳动者的工作机会可能被自动化系统所取代,导致其在经济上的竞争力进一步减弱。生成式AI带来的这种结构性差异将加剧经济不平等,使得社会的各阶层在资源和机会获取上愈加不均。
(六)国家安全与意识形态风险
生成式人工智能的广泛应用在国家安全和意识形态层面带来了显著的风险。首先,生成式AI具备强大的内容生成能力,这一特性使其在舆论操控和虚假信息传播方面成为潜在的威胁。生成式AI可以自动生成大量的文字、图片、视频等内容,易于伪造和传播虚假信息。例如,通过生成虚假新闻或深度伪造的视频,生成式AI能够误导公众,对社会认知形成错误引导。这类虚假信息在社交媒体上快速传播,可能引发社会恐慌、激化群体冲突,甚至破坏社会信任,严重影响国家的意识形态稳定。
此外,生成式AI的操控性也使其成为境内外势力影响舆论和干预内政的工具。由于生成式AI的内容生成具有高度的隐蔽性,敌对势力可以利用AI生成的信息在特定事件上煽动情绪、混淆视听,削弱公众对国家政策的信任。这种外部干预通过生成式AI的广泛传播,可能改变公众的认知,甚至颠覆主流意识形态,给国家治理带来巨大的挑战。
在网络安全方面,生成式AI的应用也带来了新的攻击手段,成为网络攻击的潜在风险。生成式AI能够让欺骗性较强的钓鱼邮件、恶意代码或自动化攻击手段,更容易被黑客或其他恶意分子使用,从而使网络攻击更加难以防范。例如,AI产生的恶意内容可以骗取用户的敏感信息或在诱使系统实施恶意操作,增加了网络攻击的隐蔽性和危害性。一旦遇到基于AI的网络攻击,对关键信息基础设施和政府数据库而言将造成十分严重的后果,并可能导致敏感数据外泄、系统坍塌等,对国家安全基本稳定构成威胁。
此外,生成式AI的滥用有可能造成安全管控难度的加大。人工智能生成的内容与真实信息难以被区分开来,使国家对信息的监管变得复杂起来,增加了公共信息流通的筛选验证成本。同时,生成式AI的高度智能化使得信息监管和安全保护措施很难迅速适应新的威胁,也削弱了国家安全体系的抗风险能力。
生成式人工智能在国家安全和意识形态方面的风险,不仅局限于网络安全,而且包括信息操纵、舆论介入和敌对势力的潜在利用等。生成式人工智能的应用一旦脱离监管,就会严重威胁到国家安全和社会稳定,使维护信息安全和意识形态稳定的难度大大增加,最终会对国家安全和社会稳定的严重威胁。
四、国家治理中生成式人工智能发展的应对策略
(一)双轨治理:结合“硬法”约束与“软法”引导
在国家治理中,为确保生成式AI的有效和可控应用,双轨治理的“硬法”与“软法”结合策略是关键,首先,硬法治理通过强制性立法和政策约束来规范AI技术的使用和发展。具体而言,硬法手段包括制定严格的法律条款,明确数据保护、隐私管理、算法透明等方面的要求,为生成式AI的开发、应用和监管设定统一的法律标准。此外,硬法治理还需建立专门的监管机构,通过例行检查、技术审核和数据合规性审查等方式,定期监督生成式AI在政府治理中的实际运作。监管机构可以依据法律规定实施处罚、限制甚至叫停未达标的AI应用项目,从而保障硬性规制的执行效果,使生成式AI的应用过程合规且透明。
同时,软法治理以灵活的管理方式,辅以道德准则、技术标准和行业自律等非强制性手段,增强AI治理的适应性。软法治理中,行业协会、学术机构等可制定生成式AI的行为准则和技术规范,推动行业自律,确保AI系统符合道德底线和社会责任。例如,对于行业协会而言可以颁布伦理准则来指导人工智能开发企业在技术上的运用中主动考虑社会责任、规避潜在的不利作用。另外通过倡导企业自愿采用行业的最佳实践及标准,软法手段不需要依靠立法的漫长过程就可以在迅速变化的技术环境中就形成为一个有规范的系统,这种柔性管理机制在保证生成式AI不会偏离社会价值观和伦理要求的同时又能够很快地适应新的技术改变和应用情景,使生成式AI能够快速地满足社会价值和伦理的要求。
硬法与软法在双轨治理模式中是相补充的:硬法以法律约束提供基础保障,保证了生成式人工智能的应用不违背基本法律和合规的要求;另一方面,软法通过行业标准及道德准则,为生成式人工智能的发展提供方向指导及伦理保证。如在数据使用以及隐私保护方面,硬法可以强制性地要求数据加密、去标识化等技术措施,而软法则对行业采用最佳做法加以引导,从而促使企业自觉地提高数据处理、保护方面的能力。通过这种组合式的治理方式,不仅保证了生成式AI的法律合规,而且增强了它的适应性,保证了在国家治理中生成式AI技术能够做到高效、安全,实现稳健发展。
(二)算法透明与公众问责机制
确立算法透明化及公众问责制,是保障生成式人工智能在国家治理中得到公开、公正应用的关键一步。首先,强化人工智能系统可信度的核心是促使算法透明性。政府要保证生成式人工智能有足够的决策透明度,尤其是要公开决策过程中的输入数据、决策逻辑、最终结果。公众可以较为全面地理解生成式人工智能运行方式,通过公开算法的关键原理来降低公众的不信任度。另外,政府要制订相关准则来限制敏感或者高度依赖数据的应用,要求其必须具备可解释性,从而确保公众在知情的基础上来评估生成式人工智能的运作。
在透明度的基础上建立问责机制显得格外重要。政府可成立专门负责处理生成式人工智能应用问题的部门或工作组,对生成式人工智能的责任划分加以明确。一旦生成式人工智能的决策引起质疑或是造成不良影响的,公众可以通过专门的反馈渠道进行投诉或报告,问责部门需要及时回应并进行调查,从而使得公众的监督权得到保障。同时政府应建立包括事前评估、事中监视及事后审查在内的一套完善的问责流程,以确保错误发生时,能够及时采取纠正措施,并实现快速的追责。
算法透明与责任追究机制的有效结合,还需赋予公众适当的质疑权和参与权。例如,政府可组织算法审查会或讨论会,邀请专家及公众代表参加对算法的评审,确保AI系统的设计及应用符合公共利益。还可定期发布生成式AI系统的应用报告,披露AI系统的决策精确性、错误率及改善情况等内容。通过对AI系统的定期披露及审查,可以进一步提高算法透明性,并且使问责制更加有效地发挥作用。
(三)跨部门数据共享与隐私保护的平衡
在国家治理中,生成式AI的高效应用依赖跨部门的数据共享,但隐私保护也是确保其安全运行的关键。为此,政府需要在数据共享过程中采用先进的数据保护技术,以实现数据的安全流通。首先,数据加密技术是保障数据传输安全的重要手段,通过加密数据在不同部门之间的传输过程,能有效防止数据被未经授权的人员截取和访问。基于密钥的加密技术以及多层加密协议可以确保数据在传输中的安全性,即便在数据传输路径上遭遇安全风险,也能最大程度上减少数据泄露的风险。
其次,去标识化和差分隐私技术能够在跨部门数据共享时确保隐私信息不被泄露。去标识化处理可以在数据共享之前移除或模糊敏感信息,使数据在脱离个体信息的情况下仍具备分析价值。而差分隐私技术则通过向数据中引入噪声,使数据分析结果无法识别出个人信息,这样即使在数据分析过程中共享的聚合数据也能在隐私保护和信息提取之间实现平衡。这些技术手段有助于在多部门数据共享时既能保障分析精度,又不会因个体信息的泄露而侵犯隐私。
此外,政府应设立专门的数据保护和隐私管理机构,对跨部门的数据共享行为进行监督和管理。此类机构可以对每个部门的数据共享申请进行审查,确保数据的使用范围合理合法,同时设立严格的访问权限控制系统,防止数据的非法使用。定期开展数据共享的审查活动,包括访问日志审查、数据使用情况追踪等措施,可以有效防止数据滥用和隐私泄露,确保各部门的数据共享行为始终处于规范之中。
为进一步确保隐私保护和数据共享的平衡,政府还可以建立跨部门的数据共享协议,明确数据共享的准入条件、使用范围和责任分配。该协议可以规范各部门在共享和使用数据时的行为,同时也为数据泄露或隐私风险提供追责依据。通过这些制度保障,跨部门的数据共享能够在法律和技术的双重支持下稳健进行,既能发挥生成式AI的治理效能,又能最大程度地保护公民的隐私权利,实现数据流动与隐私保护的双赢。
(四)伦理与价值导向的规范框架:倡导“善智”发展
在生成式AI的国家治理应用中,确保AI技术与社会道德相一致的关键是建立以伦理道德和价值导向为核心的规范框架。为此,政府可以明确主张“善智”的发展原则,确保生成式AI应用的道德性和公正性,建立“不伤害人,不歧视人,不操纵人,不代替人”的准则。首先,AI应用的严格伦理评估可以通过引入伦理审查机制来实现。这一机制可以在AI应用的前、中、后各个阶段进行审查,以确保在实际操作过程中不会出现偏见或决策不公的情况。例如,在AI算法上线前,需要进行道德影响测试,检查其是否会因数据或模型的偏差而导致不公平现象,从而最大程度地避免由于AI带来的歧视或道德风险。
同时,建立专门的AI伦理委员会是强化治理的一项重要措施。伦理委员会可邀请学术界人士、法律专家、科技公司代表和公众代表以组建多层次社会监督体系。该委员会可以制定伦理准则,并对人工智能的应用进行定期审核和评估,及时发现和纠正AI系统中的伦理缺陷,确保人工智能应用过程符合公认的社会伦理准则。另外,伦理委员会还可以接受公众的反馈和举报,帮助政府及时发现AI技术在治理方面的潜在伦理问题,从而使生成式AI的应用更加具有透明度,也更加具有公众的信任度。
为加强“善智”原则的贯彻落实,政府也可以制定适用于生成式AI的伦理规范和技术标准,以促进道德规范的标准化。这些标准要涵盖AI开发、数据使用、算法设计、应用过程等内容,并对任何可能带来不公平或歧视性结果的行为予以明确禁止。例如,在设计生成式AI系统时,为了保证系统输出达到伦理要求,就要求在模型中避免使用包含偏见的数据,或者通过技术手段消除模型中的偏见。
最后,政府可以通过宣传和教育,提升各部门和AI从业者的伦理意识。通过开展伦理培训和宣传活动,向相关人员普及AI伦理知识和“善智”原则,使AI开发和应用团队在实际操作中时刻保持道德自觉,主动规避可能的伦理风险。这一系列措施不仅可以为生成式AI的应用提供可靠的伦理保障,还能够在国家治理中形成一个具备道德底线和社会责任感的技术应用环境,使生成式AI的发展符合人类价值观,朝着“善智”发展方向迈进。
(五)提升数字主权和技术自主创新
为了在生成式AI的国际竞争中确保国家的数字主权和技术自主性,政府应当采取系统性的政策和支持措施,推动技术自主创新,确保关键技术不受制于人。首先,政府应大幅增加对生成式AI技术研发的财政投入,尤其在基础研究、核心算法开发和数据处理等领域,设立专项资金支持科研项目,鼓励高校和科研机构加强对生成式AI技术的深入攻关。这些资金支持不仅有助于培育一批拥有自主知识产权的核心技术,还能吸引顶尖人才投入AI研发,提升国家在该领域的技术自主性。
其次,构建本土的AI技术创新生态系统是推动技术自主的关键。政府可以通过补贴政策支持企业与研究单位及产业链上的合作伙伴,合作建立一条包含基础性研发、技术应用及营销的创新链条。比如为促进生成式人工智能技术在本土进行多方面的合作发展,可以提供包括研发税收减免、创新性补贴及技术型人才培养资助在内的激励性措施。该种生态系统不但有利于国家在核心AI技术方面实现自主控制,而且有助于构建人工智能的多层次、多领域的应用场景,加快生成式人工智能在国家治理中的广泛应用。
同时,国际技术合作是提高数字主体地位的有效手段。政府可主动建立同各国的技术合作伙伴关系,联合研究数据安全及隐私保护等问题,制订数字主权保护政策及国际技术合作框架。通过参与制订国际规则来增强话语权,从而保证本国技术及数据安全不受外部干涉。同时与友好国家签订双边或多边的科技协定,来开展跨国技术的研发和交流,一起来应对生成式人工智能技术的全球性挑战。
最后,政府还需加大对技术型人才的培养,以形成具有国际竞争能力的技术型人才队伍。可以与国内外著名高校合作设立专门的人工智能技术研究所,培养具有尖端AI技术的专业人才,另外还要增加高水平科研平台和实验条件,来鼓励本土科技术人才创新从而减少对外部人才以及技术的依靠。这一系列措施不但可以提高本土人才研发的能力,而且通过人才的创新能力以及专业素质为国家在生成式AI领域建立永久性的技术优势,从而在国际竞争中强化国家的数字主权并占据更加重要的位置。
(六)动态风险评估与安全监控机制
为确保国家治理中生成式人工智能的安全应用,应建立动态风险评估和安全监控机制,以应对潜在的技术风险。首先,建立一套完整的安监流程是安全监控工作的要诀。政府要在新的生成式人工智能系统上线之前对其开展全面的技术、伦理方面的风险评估,识别出安全隐患。风险评估工作的重点放在数据的使用、算法的正义性、隐私的保护以及系统的可控性方面。另外,评估过程还要依托独立的第三方机构来开展,以保证评估的客观性和全面性。
其次,对于生成式AI系统而言,政府需要建立一个持续监视的实时预警系统。政府可以通过监视系统来及时识别出存在于人工智能系统运行过程中的缺陷以及异常行为,从而对潜在的危险提前作出反应。例如,可以通过建立异常行为侦测机制来监视系统的运行状态、识别出偏离预期的数据与决策,从而达到防微杜渐的目的。建立预警系统不但能够为系统的长效性提供保障,而且可以使突发危机所带来的不利冲击大大降低。
此外,政府要在生成式人工智能的高风险应用领域实行严苛的审批程序。对涉及国家安全、金融安全及敏感数据的应用场景,政府要建立多层次审批制度来对其设计、测试、运维进行严格监督,确保生成式AI的应用不会给国家安全及社会稳定造成威胁。审批流程应包括安全性试验、伦理评价及可靠性验证等。对于高风险AI系统的定期审查也是必要措施,政府要对人工智能系统的性能和安全性予以定期的复审,以保证系统随着环境的变化而不断做出调整,以以维持其运行的合规性及安全性。
最后,为使生成式AI系统按照监控、评价结果及时地改进、优化,应由政府建立反馈和更新机制。为了应对不断出现的新风险,政府可通过动态风险评估及连续的安全监视,不断地调整人工智能系统参数、优化算法结构、完善数据管理过程。该机制的建立使各种安全威胁及技术变化在生成式AI的应用中得到及时有效的应对,从而确保其在国家治理中实现长效性、稳定性、安全性。
五、结论
国家治理中生成式人工智能的普遍运用在促进治理模式的深度改变的同时带来了新的挑战和应对策略。从趋势上看,生成式人工智能不但加快了决策的智能化和数据驱动化,在实现公共服务的个性化及反应精准化的同时,也促进了政府结构扁平化与协作高效化,进一步促进了人机协同化、操作智慧化,另外,生成式人工智能的广泛应用还促进了参与的多元化与监督的透明化。这些趋势为国家治理效能带来了显著进步,在生成式人工智能的推动下国家治理正朝着智能化、透明化及协作化的方向发展。
与此同时,生成式AI的应用也带来了不可忽视的重大挑战。国家治理中生成式人工智能的应用所面临的核心挑战是数据隐私与安全风险、算法透明度与问责缺失、伦理与道德困境、数字主权的压力、社会不平等以及国家安全与意识形态风险。目前亟待解决的关键课题是如何在国家治理中平衡生成式人工智能的技术进步和潜在风险,确保其在国家治理中的正向作用。
要应对这些挑战,需要采取包括建立双轨治理模式、结合硬法约束和软法引导进行治理的多层次治理策略,推动生成式AI的规范应用;为确保AI决策的可理解性和责任归属清晰,需要强化算法透明和责任追究机制;在跨部门共享数据和保护隐私之间取得平衡;建立以伦理道德和价值导向为基础的“善智”发展框架;提升数字主权和技术自主创新水平以维护生成式AI领域的国家独立性;以及建立确保敏感领域生成式AI安全应用的动态风险评估和安全监测机制。通过这些综合战略,生成式AI在国家治理中的运用将会更加安全、也会更加稳健。
总之,作为一种创新性技术,生成式人工智能为国家治理带来了前所未有的机遇、带来了深刻的挑战。为了实现生成式人工智能可持续发展,使其成为国家治理能力提升、社会进步的一个重要工具,就必须充分认识到它的潜在危险并且采取有效的治理措施。面向未来,为了在国家治理中发挥生成式人工智能的积极作用、促进国家治理体系的现代化转型,政府应该在技术、法律、伦理以及政策的多维度下,不断完善人工智能的治理框架,保障生成式人工智能在国家治理中的积极作用。
(参考文献从略)
来源:信息技术与管理应用杂志