进攻性引发道德争议,全球该如何治理信息科技信息科技

【摘要】进攻性人工智能指人为地滥用人工智能(AI)来完成信息搜集并执行恶意进攻指令的智能体,其源于早期的棋盘博弈,现已被广泛应用于国家安全部署、情报搜集与意识形态等领域。然而,其道德问题不容忽视,具体讲,技术“黑匣子”致使伦理责任模糊,非法情报搜集威胁全球公众的隐私安全,复杂场景下机器判断具有不可控性,这都将国际局势推向新的政治不稳定境遇。有鉴于此,必须建立人类之于机器的“道德主权”,在全球范围内构建“复合网络”的伦理考量体系,并优化风险分级预案,从而为机器的“道德嵌入”、道德分级,以及“不可接受性风险”的伦理审查提供支持。

科技创新成为国际战略博弈的主要战场,围绕科技制高点的竞争空前激烈。进攻性AI(offensive artificial intelligence)主要指具备自主搜集、识别情报、决策并执行具有明显恶意攻击性任务的智能系统,可以被攻击者用来发动复杂且精准的网络攻击,目前已应用在目标侦察、精准打击、网络对抗、情报搜集及深度造假等多个场景,并呈现出向安全战、舆论战、信息战与认知战等领域全面扩散的趋势。然而,由于进攻性AI算法机制的不透明性、决策“黑匣子”等原因,其制定的解决方案可能会出现多场景应用的伦理道德失范,人类难以实现对AI决策过程的约束。因此,AI治理必须达成有效的国际合作与共识,明晰进攻性AI存在的场景、类型及特点,增强其在设计、决策与任务执行中的道德考量,构建其对科技伦理挑战的具象化图景,这对制定有效的AI伦理约束策略至关重要,或许可以为进攻性AI的伦理规范与道德框架优化提供理论基础。01.进攻性AI的演进历程与应用场景进攻性AI的前身来源于计算机跳棋程序及其基础理论,并在实践中逐渐演变为具有进攻性的智能体。AI在兵棋推演方面显示出强大的推算能力,其基于海量数据库做出的智能决策的速度和质量远超人类。凭借出色的表现,AI被逐渐应用于军事领域的兵棋推演与战略决策。1.1 进攻性AI的定义及其理论流变2019年,由于网络安全与AI技术的深度关联,恶意利用AI进行网络进攻被称为进攻性网络武器(offensive cyber weapons),此可以视为进攻性AI的前身。伊斯洛尔·米尔斯基等于2022年正式提出“进攻性AI”这一概念,即“使用或滥用AI来完成恶意任务”,在进攻工作量的基础上实现进攻精度、强度和广度全面提升与最大回报。进攻性AI的理论体系随着在军事与安全领域的深入应用而逐渐完善,主要特征有2个:一是高度自主性的智能决策体,二是具有进攻能力的意识形态体。2024年,进攻性AI的使用主体逐渐由具备军事能力的集团转为数字资本主义操控的网络犯罪分子,也使新技术和新的商业模式(如黑客服务)被滥用于网络犯罪。1.2 进攻性AI与国家安全战略AI技术的深度发展使得其逐渐在国家安全战略领域崭露头角。20世纪80年代,美国提出“空地一体战”“非对称作战”等一系列作战概念,这些概念初步引入智能化元素,标志着AI技术被纳入军事战略考量之中。进攻性AI已被应用于国家层面的战争发起与安全策略部署之中,用于执行各种带有战略意图的演习、军备及安全决策。由宏观层面的进攻性AI国家战略部署转向已覆盖的微观实验环境与真实战场,则能进一步透视其威慑力量与本质。进攻性AI还被应用于战场,为大规模的突袭战提供有力的军备算力支撑(表1)。表1 进攻性AI在现代化战场和军事武器中的应用1.3 进攻性AI与意识形态渗透相比于军事领域内进攻性AI的显性价值观特征,非战争形态的意识形态操控和情报战争则更为隐蔽。进攻性AI具备深度伪造信息的功能,正在全球信息环境中被非道德、非法地使用着,成为全球诈骗、假新闻泛滥、隐蔽的心理操控的得力工具。第一,进攻性AI加剧假新闻、假情报与虚假认知的传播和扩散。第二,全球网络安全系统面临着更为严峻的挑战。第三,进攻性AI为破坏网络安全和全球性诈骗活动提供便利。02.进攻性AI的道德伦理考量及风险肇因从本质上讲,AI作为当前人类文明发展水平的先进生产力代表之一,本应致力于“缓解当今世界极为突出的财富不均和全球科技发展不平衡两大问题,并促进世界和平”。但实践证明,进攻性AI难以做到以“和平”为真正的实然目的。完全定量化的进攻性AI可以为人类社会道德决策带来绝对客观的认识是不现实的,必须高度重视其潜在的伦理失范及其衍生的次生灾害。理由之一在于进攻性AI在构想之初的目的便是立于“人的反面”——针对和伤害人类。在战略博弈中,战争伦理也规定“有限的道德合法性”的先验立场,这构成进攻性AI伦理失范的根本性难题。二是由于信息情报采集数据的不完全真实性、算法设计人员的道德偏见、算法计算的发展限制、区域特色与差异等因素,进攻性AI可能带来算法偏见(algorithmic bias)。三是,定量化的进攻性AI难以满足政治的非中立、价值多元性,其不透明、难以道德审查等特征必然遭到质疑,当追求最大的利益冲动超越政治责任与社会责任,或将对全球公民权利、国际生态造成极大伤害。可见,仅仅将进攻性AI简单视为技术运算工具,可能会击破全人类的共同价值和道德底线。“技术上最伟大的胜利与最大的灾难几乎并列”,进攻性AI的伦理道德问题亟须正视。2.1 技术不透明性与“黑匣子”带来的伦理责任风险进攻性AI能够最大限度地排除人为因素并建立其独特的数字范式,这种数据训练模式所形成的机器价值导向并非透明的,其决策过程也被置于“黑匣子”之中。这样就意味着,进攻性AI在执行击杀任务的同时无法绝对秉承“价值中立”的原则,人类也无法确切考量进攻性AI对伦理、价值、生命、道德、权利等的追求与底线。进一步来说,进攻性AI目前无法理解人类生命的价值,缺乏对自己或他人死亡事件之意义的感知能力。因此,进攻性AI“科学化”“客观化”“专业化”的幻觉也加剧了现代战争中的伦理失范。总之,进攻性AI的算法逻辑无法完全复现和遵循基于人类情感和经验的道德判断,其对任务执行的忠诚度显然要高于对人类生命意义与价值的感知,它并不能对其所执行的针对人类个体的伤害、虐待,甚至“斩首行动”的攻击性指令担负实际的责任。2.2 情报无差别搜集的信息安全风险进攻性AI非法从全球搜集军事情报与公众日常数据,其伦理失范问题可能引发全球道德恐慌。其一,进攻性AI的分析数据来源很可能依赖于国家间的不当监听、窃取信息的手段。其二,现代战场的智能体为非法搜集情报提供了更多的便利。其三,非法的情报搜集与不明的政治意图杂糅,使AI伦理责任主体晦暗不明。2.3 对智能体进行人为控制的不确定性风险多元化、复杂化的战争情境使进攻性AI的道德判断与区分原则背道而驰,人类预设的进攻程序缺乏满足复杂、海量的现代战争场景的道德应对能力,可能会诱导智能体做出不确定性控制下的极端行为,容易导致道德合法性危机。第一,进攻性AI的数据感知不确定性源于战场环境的不确定所引发的智能体行为的不确定。第二,进攻性AI缺乏对攻击任务背后的人类及复杂社会关系的应然理解。2.4 进攻性AI无节制发展的政治不确定性风险进攻性AI的无节制发展可能会进一步加剧各国之间已然存在的认知偏差,进而加剧国际战略博弈的政治不确定性与力量失衡问题。进攻性AI引发的道德恐慌(moral panic)成为次生风险。道德恐慌是一种过度的社会反应现象,媒体、公众、利益集团和官方共同营造的道德恐慌对形塑越轨行为起到了推波助澜的作用。其一,动态竞争压力、不确定性意图、进攻性 AI的动能与道德恐慌相互叠加。其二,道德恐慌所假定威胁的规模或严重程度往往是对真实情况的夸大。03.价值对齐:建立全球机器伦理治理共同体技术的进步总是伴随着新的伦理问题。进攻性AI最具伦理挑战性之处,莫过于道德推理能力的算法化。正是如此,才使进攻性AI成为“纯粹的工具”与“道德主体”之间的某种具有过渡性质的智能体,并由此使其具备某种人类“德性”之雏形。要真正使进攻性AI技术的伦理学后效满足现有的人类价值观体系,其主要举措并不在于野蛮地禁止此类技术的研发,而恰恰在于如何使此类技术趋于具备人类意义上的“道德推理能力”。3.1 设立人对机器的“道德主权”原则通过确立人类“道德主权”的价值共识来重塑和创新AI治理理念是推动全球AI治理体系完善并使国际秩序趋于稳定的逻辑起点。首先,避免技术将人类“他者化”。其次,警惕虚幻的“技术共同体”。最后,确保人类在战略博弈中的主体地位。3.2 凝聚全球范围的道德风险治理共识国家层面应当积极推动AI风险治理由“线性”到“复合”、由“一元”向“多元”、由“人工”向“智能”方式的转变。传统的AI风险治理是基于被动防御式的“链条” 治理,其基本逻辑遵循“风险产生—认知—识别—分析预判—人工决策”的线性信息处理模型。实际上,各国对AI技术的全面介入已经为“复合网络”的综合道德考量模式提供了可行性基础。第一,构建纵深化、一体化、协同化的全球AI风险治理网络中心。第二,构建风险治理主体在话语权上的“技术平衡”。第三,各国之间必须积极主动地寻求合作与共治之道。3.3 完善进攻性AI的风险评估体系进攻性AI亟待建立统一的、完善的伦理风险评估体系与监管措施条例。建立全球关于进攻性AI的风险评估体系需要满足3个条件。首先,应当建立完善的进攻性AI道德风险评估方案与参照细则。其次,成立分级体系明确、责任划分清晰、实时动态评估的监管机构。最后,确保进攻性AI投入战略博弈符合相应的风险等级。3.4 不可控场景的“道德嵌入”AI的能力会随着时间的推移和使用方式的改变而改变,必须从设计之初就要考虑未来可能面临的所有风险类型与其道德规范框架,如此才不至于产生对进攻性AI发展走向的过度非理性恐惧。第一,增强“价值敏感”设计的伦理审查与可解释性。第二,将进攻性AI的决策置于具备道德责任感的人类设计理念之中,进攻性AI不应受到非法的控制或歪曲,也不应受撒谎、操纵、胁迫或扭曲的影响。第三,应当置于宏大的全球叙事下考察进攻性AI伦理风险治理的意义。04.结论综上,不同于AI在经济生产实践中的作用,进攻性AI应用于国际战略博弈或战场环境会构成更深层次的伦理风险挑战。在深度考察进攻性AI伦理属性、伦理责任及伦理走向后,如何应对国际人道法和武装冲突法对于AI武器系统的适用性的争议问题,依然是国际社会当前所面临的共同且迫切的课题。进攻性AI的伦理风险治理,绝不仅限于建立限制进攻性AI发展的国际合作框架和规则体系,而是要更加迅速地推进进攻性AI的透明度改造和人类情感中具有伦理、道德、责任属性的因素嵌入,并确保可以追溯和审计,支持开展多领域、跨学科的对话以寻求规范之道。让进攻性 AI技术充满人文(伦理)关怀,是在不确定风险下依然可以使技术保护全人类的价值基础,并在此基础上构建“智能威慑”以规范人类世界的技术运用方式。在此过程中,基于文明互鉴进行AI风险的全球治理并贡献中国智慧、中国方案、中国力量,才能确保这项强大的技术能力被谨慎地运用,服务于全人类的和平与安全。作者简介:王英明,中国石油大学(华东)马克思主义学院,硕士研究生,研究方向为技术伦理;石超(通信作者),中国石油大学(华东)马克思主义学院,副教授,研究方向为技术伦理、思想政治教育。

科技创新成为国际战略博弈的主要战场,围绕科技制高点的竞争空前激烈。进攻性AI(offensive artificial intelligence)主要指具备自主搜集、识别情报、决策并执行具有明显恶意攻击性任务的智能系统,可以被攻击者用来发动复杂且精准的网络攻击,目前已应用在目标侦察、精准打击、网络对抗、情报搜集及深度造假等多个场景,并呈现出向安全战、舆论战、信息战与认知战等领域全面扩散的趋势。然而,由于进攻性AI算法机制的不透明性、决策“黑匣子”等原因,其制定的解决方案可能会出现多场景应用的伦理道德失范,人类难以实现对AI决策过程的约束。因此,AI治理必须达成有效的国际合作与共识,明晰进攻性AI存在的场景、类型及特点,增强其在设计、决策与任务执行中的道德考量,构建其对科技伦理挑战的具象化图景,这对制定有效的AI伦理约束策略至关重要,或许可以为进攻性AI的伦理规范与道德框架优化提供理论基础。

01.

进攻性AI的演进历程与应用场景

进攻性AI的前身来源于计算机跳棋程序及其基础理论,并在实践中逐渐演变为具有进攻性的智能体。AI在兵棋推演方面显示出强大的推算能力,其基于海量数据库做出的智能决策的速度和质量远超人类。凭借出色的表现,AI被逐渐应用于军事领域的兵棋推演与战略决策。

1.1 进攻性AI的定义及其理论流变

2019年,由于网络安全与AI技术的深度关联,恶意利用AI进行网络进攻被称为进攻性网络武器(offensive cyber weapons),此可以视为进攻性AI的前身。伊斯洛尔·米尔斯基等于2022年正式提出“进攻性AI”这一概念,即“使用或滥用AI来完成恶意任务”,在进攻工作量的基础上实现进攻精度、强度和广度全面提升与最大回报。进攻性AI的理论体系随着在军事与安全领域的深入应用而逐渐完善,主要特征有2个:一是高度自主性的智能决策体,二是具有进攻能力的意识形态体。2024年,进攻性AI的使用主体逐渐由具备军事能力的集团转为数字资本主义操控的网络犯罪分子,也使新技术和新的商业模式(如黑客服务)被滥用于网络犯罪。

1.2 进攻性AI与国家安全战略

AI技术的深度发展使得其逐渐在国家安全战略领域崭露头角。20世纪80年代,美国提出“空地一体战”“非对称作战”等一系列作战概念,这些概念初步引入智能化元素,标志着AI技术被纳入军事战略考量之中。进攻性AI已被应用于国家层面的战争发起与安全策略部署之中,用于执行各种带有战略意图的演习、军备及安全决策。由宏观层面的进攻性AI国家战略部署转向已覆盖的微观实验环境与真实战场,则能进一步透视其威慑力量与本质。进攻性AI还被应用于战场,为大规模的突袭战提供有力的军备算力支撑(表1)。

表1 进攻性AI在现代化战场和军事武器中的应用

1.3 进攻性AI与意识形态渗透

相比于军事领域内进攻性AI的显性价值观特征,非战争形态的意识形态操控和情报战争则更为隐蔽。进攻性AI具备深度伪造信息的功能,正在全球信息环境中被非道德、非法地使用着,成为全球诈骗、假新闻泛滥、隐蔽的心理操控的得力工具。第一,进攻性AI加剧假新闻、假情报与虚假认知的传播和扩散。第二,全球网络安全系统面临着更为严峻的挑战。第三,进攻性AI为破坏网络安全和全球性诈骗活动提供便利。

02.

进攻性AI的道德伦理考量及风险肇因

从本质上讲,AI作为当前人类文明发展水平的先进生产力代表之一,本应致力于“缓解当今世界极为突出的财富不均和全球科技发展不平衡两大问题,并促进世界和平”。但实践证明,进攻性AI难以做到以“和平”为真正的实然目的。完全定量化的进攻性AI可以为人类社会道德决策带来绝对客观的认识是不现实的,必须高度重视其潜在的伦理失范及其衍生的次生灾害。理由之一在于进攻性AI在构想之初的目的便是立于“人的反面”——针对和伤害人类。在战略博弈中,战争伦理也规定“有限的道德合法性”的先验立场,这构成进攻性AI伦理失范的根本性难题。二是由于信息情报采集数据的不完全真实性、算法设计人员的道德偏见、算法计算的发展限制、区域特色与差异等因素,进攻性AI可能带来算法偏见(algorithmic bias)。三是,定量化的进攻性AI难以满足政治的非中立、价值多元性,其不透明、难以道德审查等特征必然遭到质疑,当追求最大的利益冲动超越政治责任与社会责任,或将对全球公民权利、国际生态造成极大伤害。可见,仅仅将进攻性AI简单视为技术运算工具,可能会击破全人类的共同价值和道德底线。“技术上最伟大的胜利与最大的灾难几乎并列”,进攻性AI的伦理道德问题亟须正视。

2.1 技术不透明性与“黑匣子”带来的伦理责任风险

进攻性AI能够最大限度地排除人为因素并建立其独特的数字范式,这种数据训练模式所形成的机器价值导向并非透明的,其决策过程也被置于“黑匣子”之中。这样就意味着,进攻性AI在执行击杀任务的同时无法绝对秉承“价值中立”的原则,人类也无法确切考量进攻性AI对伦理、价值、生命、道德、权利等的追求与底线。进一步来说,进攻性AI目前无法理解人类生命的价值,缺乏对自己或他人死亡事件之意义的感知能力。因此,进攻性AI“科学化”“客观化”“专业化”的幻觉也加剧了现代战争中的伦理失范。

总之,进攻性AI的算法逻辑无法完全复现和遵循基于人类情感和经验的道德判断,其对任务执行的忠诚度显然要高于对人类生命意义与价值的感知,它并不能对其所执行的针对人类个体的伤害、虐待,甚至“斩首行动”的攻击性指令担负实际的责任。

2.2 情报无差别搜集的信息安全风险

进攻性AI非法从全球搜集军事情报与公众日常数据,其伦理失范问题可能引发全球道德恐慌。其一,进攻性AI的分析数据来源很可能依赖于国家间的不当监听、窃取信息的手段。其二,现代战场的智能体为非法搜集情报提供了更多的便利。其三,非法的情报搜集与不明的政治意图杂糅,使AI伦理责任主体晦暗不明。

2.3 对智能体进行人为控制的不确定性风险

多元化、复杂化的战争情境使进攻性AI的道德判断与区分原则背道而驰,人类预设的进攻程序缺乏满足复杂、海量的现代战争场景的道德应对能力,可能会诱导智能体做出不确定性控制下的极端行为,容易导致道德合法性危机。第一,进攻性AI的数据感知不确定性源于战场环境的不确定所引发的智能体行为的不确定。第二,进攻性AI缺乏对攻击任务背后的人类及复杂社会关系的应然理解。

2.4 进攻性AI无节制发展的政治不确定性风险

进攻性AI的无节制发展可能会进一步加剧各国之间已然存在的认知偏差,进而加剧国际战略博弈的政治不确定性与力量失衡问题。进攻性AI引发的道德恐慌(moral panic)成为次生风险。道德恐慌是一种过度的社会反应现象,媒体、公众、利益集团和官方共同营造的道德恐慌对形塑越轨行为起到了推波助澜的作用。其一,动态竞争压力、不确定性意图、进攻性 AI的动能与道德恐慌相互叠加。其二,道德恐慌所假定威胁的规模或严重程度往往是对真实情况的夸大。

03.

价值对齐:建立全球机器伦理治理共同体

技术的进步总是伴随着新的伦理问题。进攻性AI最具伦理挑战性之处,莫过于道德推理能力的算法化。正是如此,才使进攻性AI成为“纯粹的工具”与“道德主体”之间的某种具有过渡性质的智能体,并由此使其具备某种人类“德性”之雏形。要真正使进攻性AI技术的伦理学后效满足现有的人类价值观体系,其主要举措并不在于野蛮地禁止此类技术的研发,而恰恰在于如何使此类技术趋于具备人类意义上的“道德推理能力”。

3.1 设立人对机器的“道德主权”原则

通过确立人类“道德主权”的价值共识来重塑和创新AI治理理念是推动全球AI治理体系完善并使国际秩序趋于稳定的逻辑起点。首先,避免技术将人类“他者化”。其次,警惕虚幻的“技术共同体”。最后,确保人类在战略博弈中的主体地位。

3.2 凝聚全球范围的道德风险治理共识

国家层面应当积极推动AI风险治理由“线性”到“复合”、由“一元”向“多元”、由“人工”向“智能”方式的转变。传统的AI风险治理是基于被动防御式的“链条” 治理,其基本逻辑遵循“风险产生—认知—识别—分析预判—人工决策”的线性信息处理模型。实际上,各国对AI技术的全面介入已经为“复合网络”的综合道德考量模式提供了可行性基础。第一,构建纵深化、一体化、协同化的全球AI风险治理网络中心。第二,构建风险治理主体在话语权上的“技术平衡”。第三,各国之间必须积极主动地寻求合作与共治之道。

3.3 完善进攻性AI的风险评估体系

进攻性AI亟待建立统一的、完善的伦理风险评估体系与监管措施条例。建立全球关于进攻性AI的风险评估体系需要满足3个条件。首先,应当建立完善的进攻性AI道德风险评估方案与参照细则。其次,成立分级体系明确、责任划分清晰、实时动态评估的监管机构。最后,确保进攻性AI投入战略博弈符合相应的风险等级。

3.4 不可控场景的“道德嵌入”

AI的能力会随着时间的推移和使用方式的改变而改变,必须从设计之初就要考虑未来可能面临的所有风险类型与其道德规范框架,如此才不至于产生对进攻性AI发展走向的过度非理性恐惧。第一,增强“价值敏感”设计的伦理审查与可解释性。第二,将进攻性AI的决策置于具备道德责任感的人类设计理念之中,进攻性AI不应受到非法的控制或歪曲,也不应受撒谎、操纵、胁迫或扭曲的影响。第三,应当置于宏大的全球叙事下考察进攻性AI伦理风险治理的意义。

04.

结论

综上,不同于AI在经济生产实践中的作用,进攻性AI应用于国际战略博弈或战场环境会构成更深层次的伦理风险挑战。在深度考察进攻性AI伦理属性、伦理责任及伦理走向后,如何应对国际人道法和武装冲突法对于AI武器系统的适用性的争议问题,依然是国际社会当前所面临的共同且迫切的课题。进攻性AI的伦理风险治理,绝不仅限于建立限制进攻性AI发展的国际合作框架和规则体系,而是要更加迅速地推进进攻性AI的透明度改造和人类情感中具有伦理、道德、责任属性的因素嵌入,并确保可以追溯和审计,支持开展多领域、跨学科的对话以寻求规范之道。让进攻性 AI技术充满人文(伦理)关怀,是在不确定风险下依然可以使技术保护全人类的价值基础,并在此基础上构建“智能威慑”以规范人类世界的技术运用方式。在此过程中,基于文明互鉴进行AI风险的全球治理并贡献中国智慧、中国方案、中国力量,才能确保这项强大的技术能力被谨慎地运用,服务于全人类的和平与安全。

THE END
0.《人工智能国际治理观察》139期1月31日,腾讯研究院发布《AIGC发展趋势报告2023:迎接人工智能的下一个时代》。报告指出,当前AIGC已经率先在传媒、电商、影视、娱乐等数字化程度高、内容需求丰富的行业取得重大发展,市场潜力逐渐显现,其商业化应用将快速成熟,市场规模会迅速壮大。报告认为,生成算法、预训练模型、多模态技术等AI技术汇聚发展,为AIGC的jvzq<84ckkm/v|npij{b0niw0et0kwkq13:5486:574ivv
1.环球时报综合德国《商报》、“德国之声”等德媒10日报道,德国联盟党与社会民主党批评此行“损害国家利益”,甚至称此举为“叛国行为”。德国选择党则反驳称,相关批评“毫无根据”,是“对地缘政治一无所知”。 据报道,4名德国选择 详情 日期: 2025-11-12 jvzquC41fczb0yjqrnk/exr0ep5qf8msud
2.【期刊动态】《政治与法律》2023年总目录22.双务合同瑕疵后得利返还制度的体系整合与教义学结构 刘亚东(4.49) ·数字技术与法律制度变革· 23.论数字技术对表演者权保护的冲击与法律上的回应 张利国(5.20) 24.论数字技术与诉讼规则的互动关系——以我国刑事在线诉讼为视角 吴思远(5.35) 25.侵犯虚拟货币刑法定性的三层秩序观——从司法秩序、法秩序到数字jvzquC41kngx0|fuu0usi7hp14635864525d4>66c7<25B>1rcmf0qyo
3.新兴人工智能的政治影响与治理策略新兴人工智能将深刻重塑当代政治,催生一系列前沿的政治学研究议题。新兴人工智能通过重构信息机制、交互机制、决策机制,对政治系统产生深远影响,突出表现在政治输入(选举政治、协商政治)、政治过程(政治代表过程、公共政策过程)、政治输出(政治回应、政治问责)三个环节及其六大场景中。人工智能技术并非完全中性,新兴人工智能jvzq<84eity/uƒqkd0ipo8Vy1Rgqg{4:93672
4.打造与智能时代相适应的政治工作新模式理论智慧政工基于智能技术与政治工作的耦合增效,构建“AI+网格化+数字化”的智能设备平台,将分散在不同时空的政治工作要素、单元连为一体,创造人与数字世界的深度沟通和交互体验,通过特定算法进行逻辑推理和判断思考,给出认知决策的合理解释和分析判断,汇聚起开展政治工作的智慧力量。jvzq<84vjgus{7ugqrrf0lto0et0p:4424;02?821e:17<6/62;23<<60jznn
5.人工智能技术赋能思想政治教育探索人工智能技术赋能思想政治教育探索 □张沛霖 数字化转型背景下,人工智能与高校思政教育深度融合,重塑思政教育空间、拓宽思政教育场域、有效提升教育质效,已成为当前高校思政教育创新的重要议题。科学厘清人工智能对思政教育的作用、明确人工智能推动思政教育创新的价值,构建人工智能与思政教育融合的实践路径,可有效提升思政育人jvzquC41rcvft7i|yy}/exr1f|xc1ltpvgtu1;5472<248Ftvkifn:5226SU0qyo
6.高校思想政治教育融合人工智能技术的研究2021年第04期[摘要]伴随着信息技术的迅猛发展,人工智能技术越来越广泛地被应用到诸多领域,尤其日益渗透到教育领域。人工智能迅速融入教育行业,使传统的思想政治教育工作迎来了前所未有的机遇和挑战,也让优质教育资源充分共享与整合提升成为可能。人工智能让教学与管理在多样化、科学化、精细化方面有了强有力的技术保障,但人工智能在技jvzq<84yyy4tzs~dm0ipo87243516;;14;?457mvon
7.专家:人工智能对国家政治安全带来5大挑战人工智能影响政治安全的机理 人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。 jvzquC41ygh/uqtdugxwg{3eqo5tvjykeum0tnx1jvsm1€jd1pkxuMjvckr/j}rnAkj>796;65
8.燕山大学举办河北省高校学生骨干AI技术与网络素养融合提升训练营【新闻中心讯】为全面贯彻落实党的二十大和二十届二中、三中全会精神,深入学习贯彻习近平新时代中国特色社会主义思想,推进我省网络思想政治工作创新发展,提升学生骨干用网能力和网络素养,由河北省学校德育工作中心、河北省高校网络思想政治工作中心主办,河北石油职业技术大学承办的网络时代下河北省高校学生骨干AI技术与网络素养jvzquC41zzml0‚xw0gjv0ls1kplp1:52;1779<70jvs
9.【AI】全球人工智能治理架构:法规、政策与未来趋势的比较分析全球关于AI伦理和原则的“对话”,已经演变为一场旨在设定全球标准的地缘政治竞赛。监管模式的选择不仅仅是一个技术或法律决策,更是一个国家或地区输出其核心价值观、并在21世纪数字经济中确立其影响力的行为。 这一进程始于OECD等组织通过其AI原则建立了共同的词汇体系和伦理目标,如尊重人权、公平和透明度4。这些原则jvzquC41yy}/fxzdcp4dqv4fqwhbpjur1fotrjyejA{skF*4Hpuug.7H:9:35A>;4'9G';;
10.专题03共建网络美好家园(期中真题汇编,贵州专用)八年级道德与这说明网络( )①为文化传播和科技创新搭建新平台 ②促进民主政治的进步③扩大民主权利,让人们享有更多的民主权利 ④拓宽了民主渠道,让政府更好为人民服务A.①② B.①③ C.②④ D.③④11.(24-25八年级上·贵州毕节·期中)AI生产、AI对话、AI导航……当下,AI技术日渐成熟。这说明( )A.网络使我们个人隐私更jvzquC41o0€yzt3eqo5tqoy1767599940jznn