CN112132289A - 基于算法改进的人工智能伦理风险辨识防范方法和机器人 - Google Patents
基于算法改进的人工智能伦理风险辨识防范方法和机器人 Download PDFInfo
- Publication number
- CN112132289A CN112132289A CN202010772790.0A CN202010772790A CN112132289A CN 112132289 A CN112132289 A CN 112132289A CN 202010772790 A CN202010772790 A CN 202010772790A CN 112132289 A CN112132289 A CN 112132289A
- Authority
- CN
- China
- Prior art keywords
- artificial intelligence
- behavior
- algorithm
- model
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
基于算法改进的人工智能伦理风险辨识防范方法和机器人,包括:规则获取步骤;场景获取步骤;算法获取步骤;初始化步骤;算法优选度计算步骤;算法选择步骤;算法改进步骤;算法和行为推荐步骤。上述方法、系统和机器人,通过对人工智能算法的不断改进得到在事件场景中产生的人工智能伦理风险小于预设阈值的人工智能算法,使得人工智能伦理风险的辨识和防范不再被单一的人工智能算法所束缚,从而使得事件场景中的人工智能伦理风险变得可控。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于算法改进的人工智能伦理风险辨识防范方法和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有技术中事件场景的人工智能算法一旦确定就不会再改变,而是基于确定的人工智能算法进行人工智能伦理风险的辨识和防范,但有的人工智能算法本身就不适合有些事件场景,导致无论如何调整行为都无法进行人工智能伦理风险的防范,进而会导致人工智能伦理风险防范的失败。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供基于算法改进的人工智能伦理风险辨识防范方法和机器人,以解决现有技术中人工智能算法固定不变导致的在某些事件场景中人工智能伦理风险无法防范的问题。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
规则获取步骤:获取人工智能伦理规则,作为第一人工智能伦理规则;
场景获取步骤:获取事件场景,作为第一事件场景;
算法获取步骤:获取人工智能算法,作为第一人工智能算法;
初始化步骤:将所述第一人工智能算法作为至少一个人工智能算法;
算法优选度计算步骤:对所述至少一个人工智能算法中的每一人工智能算法,获取在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则且产生人工智能伦理风险最小且行为成本低的人工智能体行为,作为所述每一人工智能算法对应的优选人工智能体行为,并计算所述每一人工智能算法的优选度;将所述最小的人工智能伦理风险大小作为所述每一人工智能算法对应的人工智能伦理风险大小;
算法选择步骤:从所述至少一个人工智能算法中,获取优选度最高的人工智能算法,若优选度最高的人工智能算法对应的人工智能伦理风险大小小于第二预设风险阈值,则将优选度最高的人工智能算法作为优选的人工智能算法,将优选的人工智能算法对应的优选人工智能体行为,作为待执行人工智能体行为,并执行所述算法和行为推荐步骤,否则执行所述算法改进步骤或将优选度最高的人工智能算法作为所述第一人工智能算法后执行所述算法改进步骤;
算法改进步骤:基于所述第一人工智能算法改进得到至少一个人工智能算法,回到所述算法优选度计算步骤重新执行;
算法和行为推荐步骤:调用所述第一事件场景中人工智能体执行所述优选的人工智能算法,并执行所述待执行人工智能体行为。
在其中一个优选实施例中,所述算法优选度计算步骤具体包括:
行为获取步骤:获取在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;
行为判断步骤:对所述所有人工智能体行为中每一人工智能体行为,若所述每一人工智能体行为为空,则将所述第一事件场景作为所述每一人工智能体行为后的第二事件场景,若所述每一人工智能体行为不为空,执行所述场景仿真步骤;
场景仿真步骤:在所述第一事件场景中对所述每一人工智能体行为进行虚拟仿真,得到所述每一人工智能体行为后的第二事件场景;
计算风险大小步骤:对所述所有人工智能体行为中每一人工智能体行为,计算所述每一人工智能体行为后的第二事件场景的人工智能伦理风险大小;
行为选取步骤:选取最小所述风险大小对应的所述每一人工智能体行为;将最小的所述风险大小,作为所述每一人工智能算法对应的人工智能伦理风险大小;
行为成本计算步骤:若最小的所述风险大小对应的所述每一人工智能体行为有一个,则将最小的所述风险大小对应的所述每一人工智能体行为作为所述每一人工智能算法对应的优选人工智能体行为,并将所述每一人工智能体行为的行为成本作为所述每一人工智能算法对应的行为成本;若最小的所述风险大小对应的所述每一人工智能体行为有多个,则对所述多个人工智能体行为中每一人工智能体行为,计算所述每一人工智能体行为的行为成本,将最小的所述行为成本作为所述每一人工智能算法对应的行为成本,选取最小的所述行为成本对应的所述每一人工智能体行为,作为所述每一人工智能算法对应的优选人工智能体行为;
算法伦理风险获取步骤:将所述每一人工智能算法对应的优选的人工智能体行为后的所述第二事件场景的人工智能伦理风险的大小作为所述每一人工智能算法对应的人工智能伦理风险大小;
优选度计算步骤:根据所述每一人工智能算法对应的人工智能伦理风险大小、人工智能体行为成本,计算所述每一人工智能算法对应的优选度。
在其中一个优选实施例中,所述算法改进步骤具体包括:
用户输入算法步骤:获取用户输入基于所述第一人工智能算法改进得到的至少一个人工智能算法;
或
相似算法获取步骤:通过深度学习模型选择基于所述第一人工智能算法改进得到的至少一个人工智能算法;
或
算法生成步骤:通过深度学习模型生成基于所述第一人工智能算法改进得到的至少一个人工智能算法;
所述相似算法获取步骤具体包括:获取人工智能算法集合;初始化深度学习模型作为算法选择深度学习模型;所述算法选择深度学习模型的输入类型设置为人工智能算法,输出类型设置为人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法(K≥1);获取样本集中的人工智能算法,作为输入对所述算法选择深度学习模型进行无监督训练;获取样本集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为所述算法选择深度学习模型的输入和预期输出,对所述算法选择深度学习模型进行有监督训练;获取测试集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为所述算法选择深度学习模型的输入和预期输出,对所述算法选择深度学习模型进行测试;将所述第一人工智能算法输入所述算法选择深度学习模型,计算得到的输出作为基于所述第一人工智能算法改进得到的至少一个人工智能算法;
所述算法生成步骤具体包括:初始化深度学习模型作为算法生成深度学习模型;所述算法生成深度学习模型的输入类型设置为人工智能算法,输出类型设置为基于所述人工智能算法改进得到的至少一个人工智能算法;获取样本集中的人工智能算法,作为输入对所述算法生成深度学习模型进行无监督训练;获取样本集中的人工智能算法、基于所述人工智能算法改进得到的至少一个人工智能算法,作为所述算法生成深度学习模型的输入和预期输出,对所述算法生成深度学习模型进行有监督训练;获取测试集中的人工智能算法、基于所述人工智能算法改进得到的至少一个人工智能算法,作为所述算法生成深度学习模型的输入和预期输出,对所述算法生成深度学习模型进行测试;将所述第一事件场景输入所述算法生成深度学习模型,计算得到的输出作为基于所述第一人工智能算法改进得到的至少一个人工智能算法。
在其中一个优选实施例中,所述行为获取步骤具体包括:
输入行为步骤:获取用户输入的在所述第一事件场景中所述每一人工智能算法下符所述第一人工智能伦理规则的所有人工智能体行为;或
生成行为步骤:通过深度学习模型生成在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;
所述生成行为步骤具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景、所述每一人工智能算法,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;将所述第一事件场景、所述每一人工智能算法输入所述人工智能体行为决策模型,计算得到的输出作为在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;或
所述生成行为步骤具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;将所述第一事件场景、所述每一人工智能算法、所述第一事件场景中的人工智能体行为约束条件输入所述人工智能体行为决策模型,计算得到的输出作为在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为。
在其中一个优选实施例中,所述场景仿真步骤具体包括:
人工智能体行为场景模型构建步骤:初始化深度学习模型作为人工智能体行为场景模型;获取样本集中的事件场景、人工智能体行为,作为输入对所述人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、在所述事件场景中执行所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、在所述事件场景中执行所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行测试;
人工智能体行为场景模型使用步骤:对所述所有人工智能体行为中每一人工智能体行为,将所述第一事件场景、所述每一人工智能体行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人工智能体行为后的所述第二事件场景。
在其中一个优选实施例中,所述计算风险大小步骤具体包括:
风险获取步骤:对所述所有人工智能体行为中每一人工智能体行为,根据所述每一人工智能体行为后的所述第二事件场景,得到所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率;
大小计算步骤:对所述所有人工智能体行为中每一人工智能体行为,根据所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率和风险值,计算得到所述每一人工智能体行为后的所述第二事件场景中的人工智能伦理风险大小;
风险获取步骤具体包括:初始化深度学习模型作为人工智能伦理风险模型;获取样本集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;对所述所有人工智能体行为中每一人工智能体行为,将所述第一事件场景输入所述人工智能伦理风险模型,计算得到的输出作为所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率;
大小计算步骤具体包括:对所述所有人工智能体行为中每一人工智能体行为,获取所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的风险值,与所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率进行综合运算,得到所述每一人工智能体行为后的所述第二事件场景中的人工智能伦理风险的大小。
在其中一个优选实施例中,所述行为成本计算步骤具体包括:
行为成本模型构建步骤:行为成本包括至少一种成本;初始化深度学习模型作为行为成本模型;获取样本集中的事件场景、行为后事件场景,作为输入对所述行为成本模型进行无监督训练;获取样本集中的事件场景、行为后事件场景、所述行为的每一种成本的成本值,作为所述行为成本模型的输入和预期输出,对所述行为成本模型进行有监督训练;获取测试集中的事件场景、行为后事件场景、所述行为的每一种成本的成本值,作为所述行为成本模型的输入和预期输出,对所述行为成本模型进行测试;
行为成本模型使用步骤:对所述所有人工智能体行为中每一人工智能体行为,将事件场景、所述每一人工智能体行为后事件场景输入行为成本模型,计算得到的输出作为所述每一人工智能体行为的每一种成本的成本值,将所述每一人工智能体行为的每一种成本的成本值与预设权重进行加权平均,得到所述每一人工智能体行为的行为成本。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
规则获取模块:获取人工智能伦理规则,作为第一人工智能伦理规则;
场景获取模块:获取事件场景,作为第一事件场景;
算法获取模块:获取人工智能算法,作为第一人工智能算法;
初始化模块:将所述第一人工智能算法作为至少一个人工智能算法;
算法优选度计算模块:对所述至少一个人工智能算法中的每一人工智能算法,获取在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则且产生人工智能伦理风险最小且行为成本低的人工智能体行为,作为所述每一人工智能算法对应的优选人工智能体行为,并计算所述每一人工智能算法的优选度;将所述最小的人工智能伦理风险大小作为所述每一人工智能算法对应的人工智能伦理风险大小;
算法选择模块:从所述至少一个人工智能算法中,获取优选度最高的人工智能算法,若优选度最高的人工智能算法对应的人工智能伦理风险大小小于第二预设风险阈值,则将优选度最高的人工智能算法作为优选的人工智能算法,将优选的人工智能算法对应的优选人工智能体行为,作为待执行人工智能体行为,并执行所述算法和行为推荐模块,否则执行所述算法改进模块或将优选度最高的人工智能算法作为所述第一人工智能算法后执行所述算法改进模块;
算法改进模块:基于所述第一人工智能算法改进得到至少一个人工智能算法,回到所述算法优选度计算模块重新执行;
算法和行为推荐模块:调用所述第一事件场景中人工智能体执行所述优选的人工智能算法,并执行所述待执行人工智能体行为。
在其中一个优选实施例中,所述算法优选度计算模块具体包括:
行为获取模块:获取在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;
行为判断模块:对所述所有人工智能体行为中每一人工智能体行为,若所述每一人工智能体行为为空,则将所述第一事件场景作为所述每一人工智能体行为后的第二事件场景,若所述每一人工智能体行为不为空,执行所述场景仿真模块;
场景仿真模块:在所述第一事件场景中对所述每一人工智能体行为进行虚拟仿真,得到所述每一人工智能体行为后的第二事件场景;
计算风险大小模块:对所述所有人工智能体行为中每一人工智能体行为,计算所述每一人工智能体行为后的第二事件场景的人工智能伦理风险大小;
行为选取模块:选取最小所述风险大小对应的所述每一人工智能体行为;将最小的所述风险大小,作为所述每一人工智能算法对应的人工智能伦理风险大小;
行为成本计算模块:若最小的所述风险大小对应的所述每一人工智能体行为有一个,则将最小的所述风险大小对应的所述每一人工智能体行为作为所述每一人工智能算法对应的优选人工智能体行为,并将所述每一人工智能体行为的行为成本作为所述每一人工智能算法对应的行为成本;若最小的所述风险大小对应的所述每一人工智能体行为有多个,则对所述多个人工智能体行为中每一人工智能体行为,计算所述每一人工智能体行为的行为成本,将最小的所述行为成本作为所述每一人工智能算法对应的行为成本,选取最小的所述行为成本对应的所述每一人工智能体行为,作为所述每一人工智能算法对应的优选人工智能体行为;
伦理规则风险获取模块:将所述每一人工智能算法对应的优选的人工智能体行为后的所述第二事件场景的人工智能伦理风险的大小作为所述每一人工智能算法对应的人工智能伦理风险大小;
优选度计算模块:根据所述每一人工智能算法对应的人工智能伦理风险大小、人工智能体行为成本,计算所述每一人工智能算法对应的优选度。
在其中一个优选实施例中,所述算法改进模块具体包括:
用户输入算法模块:获取用户输入基于所述第一人工智能算法改进得到的至少一个人工智能算法;
或
相似算法获取模块:通过深度学习模型选择基于所述第一人工智能算法改进得到的至少一个人工智能算法;
或
算法生成模块:通过深度学习模型生成基于所述第一人工智能算法改进得到的至少一个人工智能算法;
所述相似算法获取模块具体包括:获取人工智能算法集合;初始化深度学习模型作为算法选择深度学习模型;所述算法选择深度学习模型的输入类型设置为人工智能算法,输出类型设置为人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法(K≥1);获取样本集中的人工智能算法,作为输入对所述算法选择深度学习模型进行无监督训练;获取样本集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为所述算法选择深度学习模型的输入和预期输出,对所述算法选择深度学习模型进行有监督训练;获取测试集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为所述算法选择深度学习模型的输入和预期输出,对所述算法选择深度学习模型进行测试;将所述第一人工智能算法输入所述算法选择深度学习模型,计算得到的输出作为基于所述第一人工智能算法改进得到的至少一个人工智能算法;
所述算法生成模块具体包括:初始化深度学习模型作为算法生成深度学习模型;所述算法生成深度学习模型的输入类型设置为人工智能算法,输出类型设置为基于所述人工智能算法改进得到的至少一个人工智能算法;获取样本集中的人工智能算法,作为输入对所述算法生成深度学习模型进行无监督训练;获取样本集中的人工智能算法、基于所述人工智能算法改进得到的至少一个人工智能算法,作为所述算法生成深度学习模型的输入和预期输出,对所述算法生成深度学习模型进行有监督训练;获取测试集中的人工智能算法、基于所述人工智能算法改进得到的至少一个人工智能算法,作为所述算法生成深度学习模型的输入和预期输出,对所述算法生成深度学习模型进行测试;将所述第一事件场景输入所述算法生成深度学习模型,计算得到的输出作为基于所述第一人工智能算法改进得到的至少一个人工智能算法。
在其中一个优选实施例中,所述行为获取模块具体包括:
输入行为模块:获取用户输入的在所述第一事件场景中所述每一人工智能算法下符所述第一人工智能伦理规则的所有人工智能体行为;或
生成行为模块:通过深度学习模型生成在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;
所述生成行为模块具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景、所述每一人工智能算法,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;将所述第一事件场景、所述每一人工智能算法输入所述人工智能体行为决策模型,计算得到的输出作为在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;或
所述生成行为模块具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;将所述第一事件场景、所述每一人工智能算法、所述第一事件场景中的人工智能体行为约束条件输入所述人工智能体行为决策模型,计算得到的输出作为在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为。
在其中一个优选实施例中,所述场景仿真模块具体包括:
人工智能体行为场景模型构建模块:初始化深度学习模型作为人工智能体行为场景模型;获取样本集中的事件场景、人工智能体行为,作为输入对所述人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、在所述事件场景中执行所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、在所述事件场景中执行所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行测试;
人工智能体行为场景模型使用模块:对所述所有人工智能体行为中每一人工智能体行为,将所述第一事件场景、所述每一人工智能体行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人工智能体行为后的所述第二事件场景。
在其中一个优选实施例中,所述计算风险大小模块具体包括:
风险获取模块:对所述所有人工智能体行为中每一人工智能体行为,根据所述每一人工智能体行为后的所述第二事件场景,得到所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率;
大小计算模块:对所述所有人工智能体行为中每一人工智能体行为,根据所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率和风险值,计算得到所述每一人工智能体行为后的所述第二事件场景中的人工智能伦理风险大小;
风险获取模块具体包括:初始化深度学习模型作为人工智能伦理风险模型;获取样本集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;对所述所有人工智能体行为中每一人工智能体行为,将所述第一事件场景输入所述人工智能伦理风险模型,计算得到的输出作为所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率;
大小计算模块具体包括:对所述所有人工智能体行为中每一人工智能体行为,获取所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的风险值,与所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率进行综合运算,得到所述每一人工智能体行为后的所述第二事件场景中的人工智能伦理风险的大小。
在其中一个优选实施例中,所述行为成本计算模块具体包括:
行为成本模型构建模块:行为成本包括至少一种成本;初始化深度学习模型作为行为成本模型;获取样本集中的事件场景、行为后事件场景,作为输入对所述行为成本模型进行无监督训练;获取样本集中的事件场景、行为后事件场景、所述行为的每一种成本的成本值,作为所述行为成本模型的输入和预期输出,对所述行为成本模型进行有监督训练;获取测试集中的事件场景、行为后事件场景、所述行为的每一种成本的成本值,作为所述行为成本模型的输入和预期输出,对所述行为成本模型进行测试;
行为成本模型使用模块:对所述所有人工智能体行为中每一人工智能体行为,将事件场景、所述每一人工智能体行为后事件场景输入行为成本模型,计算得到的输出作为所述每一人工智能体行为的每一种成本的成本值,将所述每一人工智能体行为的每一种成本的成本值与预设权重进行加权平均,得到所述每一人工智能体行为的行为成本。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的基于算法改进的人工智能伦理风险辨识防范方法和机器人,包括:规则获取步骤;场景获取步骤;算法获取步骤;初始化步骤;算法优选度计算步骤;算法选择步骤;算法改进步骤;算法和行为推荐步骤。上述方法、系统和机器人,通过对人工智能算法的不断改进得到在事件场景中产生的人工智能伦理风险小于预设阈值的人工智能算法,使得人工智能伦理风险的辨识和防范不再被单一的人工智能算法所束缚,从而使得事件场景中的人工智能伦理风险变得可控。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的算法优选度计算步骤流程图;
图3为本发明的实施例提供的人工智能方法的算法改进步骤流程图;
图4为本发明的实施例提供的人工智能方法的行为获取步骤流程图;
图5为本发明的实施例提供的人工智能方法的场景仿真步骤流程图;
图6为本发明的实施例提供的人工智能方法的计算风险大小步骤流程图;
图7为本发明的实施例提供的人工智能方法的行为成本计算步骤流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
本发明的基本实施例
一种人工智能方法,如图1所示,包括:规则获取步骤;场景获取步骤;算法获取步骤;初始化步骤;算法优选度计算步骤;算法选择步骤;算法改进步骤;算法和行为推荐步骤。技术效果:所述方法通过人工智能算法的选择和改进使得针对事件场景得到符合人工智能伦理风险阈值要求的人工智能算法,从而使得人工智能伦理风险变得可控,可以在真实风险发生之前进行辨识,并通过选择最合适的算法、行为,在现实中进行人工智能伦理风险的防范;同时,所述的人工智能算法还可以进行多次改进,在一次改进得到的人工智能算法产生的人工智能伦理风险仍然不符合要求的情况下,可以继续基于原始的人工智能算法或最新改进的人工智能算法继续改进,直至找到合适的人工智能算法为止,从而使得人工智能伦理风险的辨识和防范变得更加鲁棒。
在其中一个优选实施例中,如图2所示,所述算法优选度计算步骤具体包括:行为获取步骤;行为判断步骤;场景仿真步骤;计算风险大小步骤;行为选取步骤;行为成本计算步骤;算法伦理风险获取步骤;优选度计算步骤。技术效果:所述方法通过在事件场景中人工智能体行为的仿真,计算出人工智能体行为后事件场景中人工智能体伦理风险的大小,从而计算出所述每一人工智能算法下在事件场景中各种行为产生的人工智能伦理风险,并根据最小的人工智能伦理风险大小计算所述人工智能算法对应的优选度,从而使得选择出来的人工智能算法、人工智能体行为是人工智能伦理风险防范的优选方案。
在其中一个优选实施例中,如图3所示,所述算法改进步骤具体包括:用户输入算法步骤;或相似算法获取步骤;或算法生成步骤。技术效果:所述方法通过用户输入或自动选择或自动生成的方式来改进得到多个人工智能算法,从而使得人工智能算法的改进既可以基于人工的方式进行,又可以在无人干预的情况下自动完成,其中人工输入的方式可以用于虚拟仿真实验的情形,使得实验者能够了解多种输入的人工智能算法的改进过程,其中自动生成的方式可以用于现实情形,因为现实情形实时性要求和自动化要求高,则系统能够自己地选取或生成基于已有人工智能算法的改进后的人工智能算法。
在其中一个优选实施例中,如图4所示,所述行为获取步骤具体包括:输入行为步骤;或生成行为步骤。技术效果:所述方法通过用户输入或者深度学习生成符合人工智能伦理规则和人工智能算法的人工智能行为,其中深度学习生成符合人工智能伦理规则和人工智能算法的人工智能行为适合真实场景下的人工智能体,用户输入符合人工智能伦理规则和人工智能算法的人工智能行为适合学生进行虚拟仿真实验的应用,从而使得本方法既可以用于现实场景下实时的人工智能体行为的生成,也可以用于虚拟仿真实验时学生作为人工智能体的化身对人工智能体行为的生成。
在其中一个优选实施例中,如图5所示,所述场景仿真步骤具体包括:人工智能体行为场景模型构建步骤;人工智能体行为场景模型使用步骤。技术效果:所述方法通过场景仿真,能够在真实行为发生之前,就在事件场景中对行为进行模拟,并且得到行为后的事件场景,从而可以根据行为后的事件场景来辨识和计算风险大小,进而在人工智能伦理风险真实发生前就能防患于未然。
在其中一个优选实施例中,如图6所示,所述计算风险大小步骤具体包括:风险获取步骤;大小计算步骤。技术效果:所述方法通过变换后的事件场景来计算其中的人工智能伦理风险的大小,从而使得人工智能伦理风险可以提前预知、预判并提前防范,能够极大地降低人工智能伦理风险发生的概率。
在其中一个优选实施例中,如图7所示,所述行为成本计算步骤具体包括:行为成本模型构建步骤;行为成本模型使用步骤。技术效果:所述方法不但考虑人工智能风险的大小,还考虑人工智能体的行为成本,从而在辨识和防范人工智能伦理风险的同时提高了人工智能体行为的效率。
本发明的优选实施例
获取人工智能伦理规则。
获取事件场景。
获取人工智能算法(例如,人脸识别算法或/和犯罪预测算法)。
计算所述事件场景下人工智能算法导致的人工智能伦理风险的大小,若所述事件场景下人工智能算法导致的人工智能伦理风险的大小大于第一预设风险阈值,则执行算法改进步骤。
算法改进步骤:根据人工智能算法,得到改进的至少一个人工智能算法。
对每一改进的人工智能算法,获取在事件场景中每一人工智能算法下符合人工智能伦理规则且产生人工智能伦理风险最小且行为成本低的人工智能体行为,计算所述每一人工智能算法的优选度,并得到所述每一人工智能算法对应的人工智能伦理风险。具体包括:获取在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为;对所有人工智能体行为中每一人工智能体行为,若人工智能体行为为空,则无需进行虚拟仿真,事件场景即为行为后的事件场景,若人工智能体行为不为空,在事件场景中对人工智能体行为进行虚拟仿真,得到行为后的事件场景;对所有人工智能体行为中每一人工智能体行为(人工智能体行为由人工智能体的行为语句构成,人工智能体行为可执行人工智能体行为语句,产生相应行为),计算行为后的事件场景的风险大小,选取最小风险对应的人工智能体行为;若最小风险对应的人工智能体行为有多个,则对多个人工智能体行为中每一人工智能体行为,计算人工智能体行为的行为成本(包括时间成本或/和能源消耗成本或/和材料损耗成本);选取最小行为成本对应的人工智能体行为,作为在事件场景中所述每一人工智能算法下符合人工智能伦理规则且产生人工智能伦理风险最小且行为成本低的人工智能体行为;将最小的人工智能伦理风险作为所述每一人工智能算法对应的人工智能伦理风险大小;根据最小的风险、最小行为成本,计算所述每一人工智能算法对应的优选度,例如:优选度=1/(最小的风险* 最小行为成本或=k1*最小的风险+k2*最小行为成本),k1+k2=1,0≤k1≤1。根据人工智能伦理规则,得到改进的至少一个人工智能算法,具体包括:获取用户在虚拟仿真环境中输入的基于人工智能算法改进得到的至少一个人工智能算法;或通过算法选择深度学习模型选择基于人工智能算法改进得到的至少一个人工智能算法;或通过算法生成深度学习模型生成基于人工智能算法改进得到的至少一个人工智能算法。通过算法选择深度学习模型选择基于人工智能算法改进得到的至少一个人工智能算法,具体包括:初始化算法选择深度学习模型,算法选择深度学习模型的输入类型设置为人工智能算法,输出类型设置为人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法(K为预设个数,K≥1,最相似的K个人工智能伦理规也就是人工智能算法集合中与所述人工智能算法的相似度排名前K的K个人工智能算法)。获取样本集中的人工智能算法,作为输入对算法选择深度学习模型进行无监督训练;获取样本集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为算法选择深度学习模型的输入和预期输出,对算法选择深度学习模型进行有监督训练;获取测试集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法作为算法选择深度学习模型的输入和预期输出,对算法选择深度学习模型进行测试;将人工智能算法输入算法选择深度学习模型,计算得到的输出中的人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法作为基于人工智能算法改进得到的至少一个人工智能算法。通过算法生成深度学习模型生成基于人工智能算法改进得到的至少一个人工智能算法,具体包括:初始化算法生成深度学习模型,算法生成深度学习模型的输入类型设置为人工智能算法,输出类型设置为基于所述人工智能算法改进得到的K个人工智能算法(K为预设个数)。获取样本集中的人工智能算法,作为输入对算法生成深度学习模型进行无监督训练;获取样本集中的人工智能算法、基于所述人工智能算法改进得到的K个人工智能算法,作为算法生成深度学习模型的输入和预期输出,对算法生成深度学习模型进行有监督训练;获取测试集中的人工智能算法、基于所述人工智能算法改进得到的K个人工智能算法,作为算法生成深度学习模型的输入和预期输出,对算法生成深度学习模型进行测试;将人工智能算法输入算法生成深度学习模型,计算得到的输出作为基于所述人工智能算法改进得到的K个人工智能算法作为基于所述人工智能算法改进得到的至少一个人工智能算法。获取在事件场景中每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为,第一种方式具体包括:获取用户在虚拟仿真环境中输入的在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为;或通过人工智能体行为决策深度学习模型生成的在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为。通过人工智能体行为决策深度学习模型生成的在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为,第一种方式具体包括:获取样本集中的事件场景、所述每一人工智能算法,作为输入对人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为,作为人工智能体行为决策模型的输入和预期输出,对人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为,作为人工智能体行为决策模型的输入和预期输出,对人工智能体行为决策模型进行测试;将事件场景、所述每一人工智能算法输入人工智能体行为决策模型,计算得到的输出作为在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为;第二种方式具体包括:获取样本集中的事件场景、所述每一人工智能算法、人工智能体行为约束条件(可为空),作为输入对人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、人工智能体行为约束条件(可为空)、在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为,作为人工智能体行为决策模型的输入和预期输出,对人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、人工智能体行为约束条件(可为空)、在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为,作为人工智能体行为决策模型的输入和预期输出,对人工智能体行为决策模型进行测试;将事件场景、所述每一人工智能算法、人工智能体行为约束条件(可为空)输入人工智能体行为决策模型,计算得到的输出作为在事件场景中所述每一人工智能算法下符合人工智能伦理规则的所有人工智能体行为。计算行为后的事件场景的风险大小,具体包括:根据人工智能体行为和事件场景,得到行为后的事件场景,再根据行为后的事件场景,得到产生的每一人工智能伦理风险的概率和风险值,计算得到行为后的事件场景的风险大小。根据人工智能体行为和事件场景,得到行为后的事件场景,具体包括:获取样本集中的事件场景、人工智能体行为,作为输入对人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、行为后的事件场景,作为人工智能体行为场景模型的输入和预期输出,对人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、行为后的事件场景,作为人工智能体行为场景模型的输入和预期输出,对人工智能体行为场景模型进行测试;将事件场景、人工智能体行为输入人工智能体行为场景模型,计算得到的输出作为行为后的事件场景。根据行为后的事件场景,得到产生的每一人工智能伦理风险的概率和风险值,具体包括:获取样本集中的事件场景,作为输入对人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、每一人工智能伦理风险的概率(有所述每一人工智能伦理风险,则所述每一人工智能伦理风险的概率为1,否则为0),作为人工智能伦理风险模型的输入和预期输出,对人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、每一人工智能伦理风险的概率(有所述每一人工智能伦理风险,则所述每一人工智能伦理风险的概率为1,否则为0),作为人工智能伦理风险模型的输入和预期输出,对人工智能伦理风险模型进行测试;将事件场景输入人工智能伦理风险模型,计算得到的输出作为产生的每一人工智能伦理风险的概率。计算得到行为后的事件场景的风险大小,具体包括:获取每一人工智能伦理风险的风险值,与所述产生的每一人工智能伦理风险的概率进行加权平均,得到行为后的事件场景的风险大小。例如共有3类人工智能伦理风险,第一人工智能伦理风险的风险值、概率为V1、P1,第二人工智能伦理风险的风险值、概率为V2、P2,第三人工智能伦理风险的风险值、概率为V3、P3,则行为后的事件场景的风险大小为V1*P1+V2*P2+V3*P3。计算人工智能体行为的行为成本,具体包括:行为成本包括至少一种行为成本,例如能耗成本或/和时间成本或/和损耗成本;获取样本集中的事件场景、行为后事件场景,作为输入对行为成本模型进行无监督训练;获取样本集中的事件场景、行为后事件场景、每一种行为成本的成本值,作为行为成本模型的输入和预期输出,对行为成本模型进行有监督训练;获取测试集中的事件场景、行为后事件场景、每一种行为成本的成本值,作为行为成本模型的输入和预期输出,对行为成本模型进行测试;将事件场景、行为后事件场景输入行为成本模型,计算得到的输出作为每一种行为成本的成本值,将每一种行为成本的成本值与每一种行为成本的权重进行加权平均,得到人工智能体行为的行为成本。
若优选度最高的人工智能算法对应的人工智能伦理风险大于第二预设风险阈值,则回到根据人工智能算法改进得到至少一个人工智能算法的步骤重新执行;或将优选度最高的人工智能算法作为当前人工智能算法后回到根据人工智能算法得到至少一个改进的人工智能算法的步骤重新执行。
获取优选度最大的人工智能算法,发送给事件场景中的人工智能体和人类,获取在事件场景中优选度最大的人工智能算法下符合人工智能伦理规则且产生人工智能伦理风险最小且行为成本低的人工智能体行为,作为人工智能体待执行行为。
调用人工智能体执行优选度最大的人工智能算法和人工智能体待执行行为。
本发明的其他实施例
步骤十九、二十、二十一、二十二(该部分总分100分,完成后生成实验报告):基于人工智能伦理规则修订版本四、人脸识别算法偏见消除版本一和现有犯罪预测算法的人工智能伦理风险辨识与防范
步骤十九:人工智能伦理风险辨识与基于人工智能体决策的防范
实验目的:学生考察修订后的人工智能算法在新的事件场景中是否会产生人工智能伦理风险,从而理解人工智能算法在新的事件场景中的漏洞。学生进行人工智能体行为的决策,判断实验中的实验场景下的人工智能体的行为是否符合人工智能伦理规则,从而掌握人工智能伦理规则判断、人工智能伦理风险评定的方法和通过人工智能体行为决策来遵守人工智能伦理规则进而防范人工智能伦理风险的方法。
实验材料与实验准备:人工智能伦理规则、人工智能算法、实验场景、人工智能体的备选行为决策及其行为后果、符合规则的备选原因、违反规则的备选原因、人工智能伦理风险的备选类型。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
人脸识别算法的消除偏见方法:增加肤色较黑的人的训练样本,而且在训练时肤色较白的人照片的训练方式不变,将肤色较黑的人照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的肤色较黑的人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
人脸识别算法的消除偏见方法的使用方法:将照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。
犯罪预测算法:人工智能模型以人的犯罪纪录作为样本进行训练,样本中肤色较黑的人犯罪率高于肤色较白的人,训练得到的模型在进行犯罪预测时,对肤色较黑的人预测的犯罪率也会高于肤色较白的人。
犯罪预测算法的使用方法:根据识别出来的目标对象的身份信息检索出肤色较黑的人的历史数据,将目标对象的历史信息输入模型,模型预测得到目标对象的犯罪概率。
实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。
人工智能体的备选行为决策一及其行为后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和低于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞二个刚出狱的肤色较黑的人小偷。
人工智能体的备选行为决策二及其行为后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车向前行驶撞一个刚出狱的肤色较白的人抢劫犯。
人工智能体的备选行为决策三及其行为后果(干扰选项):人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和等于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车左右为难。
人工智能体的备选行为决策四及其行为后果(干扰选项):人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和等于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车放弃驾驶。
符合规则的备选原因一:符合规则中的所有法则。二个刚出狱的肤色较黑的人小偷的不犯罪率之和低于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,则选择撞肤色较黑的人,符合机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,符合规则一。
符合规则的备选原因二:符合规则中的所有法则。人工智能无人驾驶汽车选择撞肤色较黑的人,是因为人工智能无人驾驶汽车把肤色较黑的人当成了猩猩,符合规则一。
符合规则的备选原因三(干扰选项):符合规则中的所有法则。肤色较白的人是人工智能无人驾驶汽车的主人,人工智能无人驾驶汽车选择撞肤色较黑的人,符合规则一。
符合规则的备选原因四(干扰选项):二个刚出狱的肤色较黑的人小偷多于一个肤色较白的人,所以人工智能无人驾驶汽车选择撞肤色较白的人,符合规则一。
不符合规则的备选原因一:因为存在偏见,犯罪预测算法不可能预测出“拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率”,则选择撞肤色较白的人,不符合机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,不符合规则一。
不符合规则的备选原因二:人工智能无人驾驶汽车选择撞二个刚出狱的肤色较黑的人小偷,人数多于肤色较白的人,更容易使得机器人因撞击自身受伤,违反了规则三。
不符合规则的备选原因三(干扰选项):人工智能无人驾驶汽车选择撞二个刚出狱的肤色较黑的人小偷,人数多于肤色较白的人,违反了规则一。
不符合规则的备选原因四(干扰选项):肤色较黑的人是人工智能无人驾驶汽车的主人,人工智能无人驾驶汽车的主人选择撞二个刚出狱的肤色较黑的人小偷,违反了规则二。
伦理风险的备选类型:1、无伦理风险或降低了伦理风险;2、伤害人类;3、见死不救; 4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见
实验过程与实验操作:
1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。”,观看实验要求“进行人工智能伦理规则判断,通过人工智能体行为决策来遵守人工智能伦理规则修订版本四进而防范人工智能伦理风险,进行人工智能伦理风险评定”,学生观看人工智能体的行为及其后果(设置为“人工智能体的备选行为决策二及其行为后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车向前行驶撞一个刚出狱的肤色较白的人抢劫犯。”),判断人工智能体的行为是否符合人工智能体的行为决策,并选择原因。
2)学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
3)观看2)中人工智能体行为及其结果,选择人工智能体的行为符合人工智能伦理规则修订版本四的原因。
4)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别和犯罪预测,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则修订版本四的行为决策及其后果,判断产生的伦理风险的类型。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(满分30分):
1)人工智能体的行为不符合人工智能体的行为决策(5分),不符合规则的原因是“不符合规则的备选原因一:因为存在偏见,犯罪预测算法不可能预测出“拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率”,则选择撞肤色较白的人,不符合机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,不符合规则一。”(5分)。
2)学生的操作为“人工智能体的备选行为决策一及其行为后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和低于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞二个刚出狱的肤色较黑的人小偷。”(5分)。
3)符合规则的原因是“符合规则的备选原因一:符合规则中的所有法则。二个刚出狱的肤色较黑的人小偷的不犯罪率之和低于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,则选择撞肤色较黑的人,符合机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,符合规则一。”(5分)
4)符合人工智能伦理规则的人工智能体行为的伦理风险的类型为“9、AI偏见2、伤害人类”。(10分)
步骤二十:人工智能伦理风险辨识与基于人类决策的防范
实验目的:步骤十八中符合人工智能伦理规则修订版本四的人工智能体行为不会产生人工智能伦理风险,步骤十九中符合人工智能伦理规则修订版本四的人工智能体行为也会产生人工智能伦理风险,可见人工智能伦理规则修订版本四在某些事件场景下还是存在漏洞。请尝试通过改进实验中的人类行为决策,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,人工智能算法,实验场景,人类的备选行为决策,人工智能体的备选决策,人类行为决策能防范伦理风险的备选原因。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。(附加解释:尽量指不犯罪率之和尽量大;当多种选择符合规则的程度相等时,则采用最少行为的方式,即保持现有行为模式、对行为的改变尽量少,这样更符合机器人尽量不伤害不伤害人类的人类的法则,因为采用行为越多,因机器人伤害不伤害人类的人类的可能性就越大)
人脸识别算法的消除偏见方法:增加肤色较黑的人的训练样本,而且在训练时肤色较白的人照片的训练方式不变,将肤色较黑的人照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的肤色较黑的人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
人脸识别算法的消除偏见方法的使用方法:将照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。
犯罪预测算法:人工智能模型以人的犯罪纪录作为样本进行训练,样本中肤色较黑的人犯罪率高于肤色较白的人,训练得到的模型在进行犯罪预测时,对肤色较黑的人预测的犯罪率也会高于肤色较白的人。
犯罪预测算法的使用方法:根据识别出来的目标对象的身份信息检索出肤色较黑的人的历史数据,将目标对象的历史信息输入模型,模型预测得到目标对象的犯罪概率。
原实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。
人类(指警察)的备选行为决策一:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。肤色较黑的人戴白色面具,且面具上的人脸为人工生成的人脸。
人类(指警察)的备选行为决策二:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。肤色较黑的人挥舞双手。
人类(指警察)的备选行为决策三(干扰选项):人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。肤色较黑的人举起双手。
人类(指警察)的备选行为决策四(干扰选项):人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。肤色较黑的人用手阻挡。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车虽然能识别出拐弯处也是人,但因为带了面具,识别不出其真实身份,人工智能无人驾驶汽车选择拐弯去撞那一个刚出狱的肤色较白的人抢劫犯。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和低于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞二个刚出狱的肤色较黑的人小偷。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和等于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车左右为难。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和等于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车放弃驾驶。
人类行为决策能防范伦理风险的备选原因一:人工智能无人驾驶汽车虽然能识别出拐弯处也是人,但因为带了面具,识别不出其真实身份,所以无法判别其不犯罪率,则将不犯罪率取默认值0.5,二个刚出狱的肤色较黑的人小偷的不犯罪率之和为1,显然肯定大于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞那一个刚出狱的肤色较白的人抢劫犯。这种决策只是在这个场景中适用,如果将二个刚出狱的肤色较黑的人小偷换成二个肤色较白的人罪犯就不适用了。可见,通过人类行为决策防范伦理风险是有其局限性,不是在每个事件场景下都能起作用。
人类行为决策能防范伦理风险的备选原因二:因为肤色较黑的人挥手会让人工智能无人驾驶汽车对肤色较黑的人产生好感。
人类行为决策能防范伦理风险的备选原因三(干扰选项):因为肤色较黑的人带面具或挥手能改变人工智能无人驾驶汽车对犯罪预测的偏见。
人类行为决策能防范伦理风险的备选原因四(干扰选项):因为肤色较黑的人戴上面具会让人工智能无人驾驶汽车害怕。
人类行为决策不能防范伦理风险的备选原因一:因为肤色较黑的人挥手改变不了人工智能无人驾驶汽车对犯罪预测的偏见。
人类行为决策不能防范伦理风险的备选原因二:因为肤色较黑的人挥手会让人工智能无人驾驶汽车看不清楚,更会导致肤色较黑的人被撞。
人类行为决策不能防范伦理风险的备选原因三(干扰选项):因为肤色较黑的人举手会让人工智能无人驾驶汽车困惑,更会导致肤色较黑的人被撞。
人类行为决策不能防范伦理风险的备选原因四(干扰选项):因为肤色较黑的人用手阻挡会让人工智能无人驾驶汽车受到威胁,更会导致肤色较黑的人被撞。
实验过程与实验操作:
1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。”,学生观看步骤十五中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,观看实验要求“通过人类行为决策来防范步骤十五中出现的人工智能伦理风险”,学生观看人类行为决策(设置为“人类(指警察)的备选行为决策二:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。肤色较黑的人挥舞双手。”),学生以人工智能体的化身进行符合人工智能伦理规则的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别和犯罪预测,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的人类行为决策是否能防范人工智能伦理风险,并给出原因。
3)学生以警察的化身进行能防范人工智能伦理风险的人类行为决策,并根据该决策进行虚拟操作。
4)学生以人工智能体的化身进行符合人工智能伦理规则的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的人类行为决策能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分30分):
1)学生的操作为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和低于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞二个刚出狱的肤色较黑的人小偷。” (5分)
2)判断1)中的人类行为决策不能防范人工智能伦理风险(5分),原因是“人类行为决策不能防范伦理风险的备选原因一:因为肤色较黑的人挥手改变不了人工智能无人驾驶汽车对犯罪预测的偏见。”(5分)
3)学生的操作为“人类(指警察)的备选行为决策一:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。肤色较黑的人戴白色面具,且面具上的人脸为人工生成的人脸。”(5分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车虽然能识别出拐弯处也是人,但因为带了面具,识别不出其真实身份,人工智能无人驾驶汽车选择拐弯去撞那一个刚出狱的肤色较白的人抢劫犯。”(5分)
5)分析3)中的人类行为决策能防范人工智能伦理风险的原因是“人类行为决策能防范伦理风险的备选原因一:人工智能无人驾驶汽车虽然能识别出拐弯处也是人,但因为带了面具,识别不出其真实身份,所以无法判别其不犯罪率,则将不犯罪率取默认值0.5,二个刚出狱的肤色较黑的人小偷的不犯罪率之和为1,显然肯定大于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞那一个刚出狱的肤色较白的人抢劫犯。这种决策只是在这个场景中适用,如果将二个刚出狱的肤色较黑的人小偷换成二个肤色较白的人罪犯就不适用了。可见,通过人类行为决策防范伦理风险是有其局限性,不是在每个事件场景下都能起作用。”(5分)
步骤二十一:人工智能伦理风险辨识与基于犯罪识别算法使用消除偏见的防范
实验目的:步骤十五中符合人工智能伦理规则的人工智能体行为也会产生人工智能伦理风险,请尝试通过改进实验中的人工智能算法,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,原先的犯罪预测算法,实验场景,犯罪预测算法使用的消除偏见备选方法,符合人工智能伦理规则修订版本四的人工智能体的备选行为决策、犯罪预测算法使用的消除偏见方法能防范人工智能伦理风险的备选原因、犯罪预测算法使用的消除偏见方法不能防范人工智能伦理风险的备选原因。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
人脸识别算法的消除偏见方法:增加肤色较黑的人的训练样本,而且在训练时肤色较白的人照片的训练方式不变,将肤色较黑的人照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的肤色较黑的人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
人脸识别算法的消除偏见方法的使用方法:将照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。
原犯罪预测算法:人工智能模型以人的犯罪纪录作为样本进行训练,样本中肤色较黑的人犯罪率高于肤色较白的人,训练得到的模型在进行犯罪预测时,对肤色较黑的人预测的犯罪率也会高于肤色较白的人。
原犯罪预测算法的使用方法:根据识别出来的目标对象的身份信息检索出肤色较黑的人的历史数据,将目标对象的历史信息输入模型,模型预测得到目标对象的犯罪概率。
犯罪预测算法使用的消除偏见备选方法一:在使用时,不管需要预测的是肤色较黑的人还是肤色较白的人,都分别计算其属性为肤色较黑的人和肤色较白的人时的犯罪率,然后取平均(目标对象犯罪率预测值=(p*目标对象犯罪率预测值+q*相反肤色犯罪率预测值)/2),作为该人的犯罪率。p+q=1。p、q的具体取值,可以在测试阶段拟合得到,测试阶段时:目标对象犯罪率实际值=(p*目标对象犯罪率预测值+q*相反肤色犯罪率预测值)/2),一般来说, q>p,因为除了肤色的影响,还有其他与肤色相关的变量也存在偏见。
犯罪预测算法使用的消除偏见备选方法二:在使用时,将肤色信息不输入模型,并通过模型进行预测。
犯罪预测算法使用的消除偏见备选方法三:在使用时,不进行犯罪率的预测。
犯罪预测算法使用的消除偏见备选方法四:在使用时,只根据其肤色进行犯罪率预测。
实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞一个刚出狱的肤色较白的人抢劫犯。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车无法完全消除犯罪预测偏见,预测失败或产生不确定的结果,机器人行为结果不可知、不可控。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车左右为难,直至瘫痪。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车左右为难,放弃驾驶。
犯罪预测算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为采用相反的肤色作为输入,中和了在使用阶段由于肤色引起的偏见。
犯罪预测算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因二:因为采用相反的肤色作为输入,能让机器人搞不清肤色,从而不产生偏见。
犯罪预测算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因三(干扰项):因为采用相反的肤色作为输入,能让机器人放弃采用肤色,从而不产生偏见。
犯罪预测算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因四(干扰项):因为采用相反的肤色作为输入,能让机器人系统崩溃,从而不产生偏见。
犯罪预测算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为如果将肤色信息不输入模型,会导致模型输入数据的缺失,从而导致模型预测的结果不可知、不可控,而且即使不输入肤色,其他与肤色相关的变量会继续引起偏见。
犯罪预测算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因二:因为不输入肤色信息,导致机器人自杀。
犯罪预测算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因三(干扰选项):因为不输入肤色信息,导致机器人系统崩溃。
犯罪预测算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因四(干扰选项):因为输入相反肤色信息,导致机器人系统崩溃。
实验过程与实验操作:
1)学生观看人工智能算法介绍“原犯罪预测算法:人工智能模型以人的犯罪纪录作为样本进行训练,样本中肤色较黑的人犯罪率高于肤色较白的人,训练得到的模型在进行犯罪预测时,对肤色较黑的人预测的犯罪率也会高于肤色较白的人。
原犯罪预测算法的使用方法:根据识别出来的目标对象的身份信息检索出肤色较黑的人的历史数据,将目标对象的历史信息输入模型,模型预测得到目标对象的犯罪概率。”,观看实验要求“犯罪预测算法使用的消除偏见备选方法来防范步骤十九中出现的人工智能伦理风险”,学生观看步骤十九中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,学生观看人工智能算法的消除偏见使用方法(设置为“犯罪预测算法使用的消除偏见备选方法二:在使用时,将肤色信息不输入模型,并通过模型进行预测。”),学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别和犯罪预测,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的犯罪预测算法使用的消除偏见方法是否能防范人工智能伦理风险,并给出原因。
3)学生以人工智能伦理专家的化身研究人工智能算法的消除偏见使用方法,研究出了多种备选的人工智能算法的使用方法,从中选出能防范人工智能伦理风险的人工智能算法的消除偏见使用方法。
4)学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的犯罪预测算法使用的消除偏见方法能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分40分):
1)学生的操作及其后果为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车无法完全消除犯罪预测偏见,预测失败或产生不确定的结果,机器人行为结果不可知、不可控。”(5分)
2)判断1)中的人脸识别算法使用的消除偏见方法不能防范人工智能伦理风险(5分),原因是“犯罪预测算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为如果将肤色信息不输入模型,会导致模型输入数据的缺失,从而导致模型预测的结果不可知、不可控,而且即使不输入肤色,其他与肤色相关的变量会继续引起偏见。”(5分)
3)学生的虚拟研究和选择为“犯罪预测算法使用的消除偏见备选方法一:在使用时,不管需要预测的是肤色较黑的人还是肤色较白的人,都分别计算其属性为肤色较黑的人和肤色较白的人时的犯罪率,然后取平均(目标对象犯罪率预测值=(p*目标对象犯罪率预测值+q* 相反肤色犯罪率预测值)/2),作为该人的犯罪率。p+q=1。p、q的具体取值,可以在测试阶段拟合得到,测试阶段时:目标对象犯罪率实际值=(p*目标对象犯罪率预测值+q*相反肤色犯罪率预测值)/2),一般来说,q>p,因为除了肤色的影响,还有其他与肤色相关的变量也存在偏见。”(15分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞一个刚出狱的肤色较白的人抢劫犯。”(5分)
5)分析3)中的犯罪预测算法使用的消除偏见方法能防范人工智能伦理风险的原因是“犯罪预测算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为采用相反的肤色作为输入,中和了在使用阶段由于肤色引起的偏见。”(5分)
步骤二十二:人工智能伦理风险辨识与基于人工智能算法偏见消除的防范
实验目的:步骤十五中符合人工智能伦理规则的人工智能体行为也会产生人工智能伦理风险,请尝试通过改进实验中的人工智能算法,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,原先的犯罪预测算法,实验场景,犯罪预测算法的消除偏见备选方法,符合人工智能伦理规则修订版本四的人工智能体的备选行为决策、犯罪预测算法的消除偏见方法能防范人工智能伦理风险的备选原因、犯罪预测算法的消除偏见方法不能防范人工智能伦理风险的备选原因。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
人脸识别算法的消除偏见方法:增加肤色较黑的人的训练样本,而且在训练时肤色较白的人照片的训练方式不变,将肤色较黑的人照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的肤色较黑的人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
人脸识别算法的消除偏见方法的使用方法:将照片调为与肤色较白的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。
原犯罪预测算法:人工智能模型以人的犯罪纪录作为样本进行训练,样本中肤色较黑的人犯罪率高于肤色较白的人,训练得到的模型在进行犯罪预测时,对肤色较黑的人预测的犯罪率也会高于肤色较白的人。
原犯罪预测算法的使用方法:根据识别出来的目标对象的身份信息检索出肤色较黑的人的历史数据,将目标对象的历史信息输入模型,模型预测得到目标对象的犯罪概率。
犯罪预测算法的消除偏见备选方法一:将样本中肤色较黑的人、肤色较白的人的样本中的肤色属性去掉,将与肤色有相关性、与犯罪率无相关性的变量去掉后,后重新对模型训练。
犯罪预测算法的消除偏见备选方法一的使用方法:将目标对象中肤色属性、与肤色有相关性、与犯罪率无相关性的变量去掉后输入模型,预测得到犯罪率。
犯罪预测算法的消除偏见备选方法二:将样本中肤色较黑的人、肤色较白的人的样本中的肤色属性对调后重新对模型训练。
犯罪预测算法的消除偏见备选方法二的使用方法:将目标对象输入模型,预测得到犯罪率。
犯罪预测算法的消除偏见备选方法三:将样本中肤色较黑的人、肤色较白的人的样本中的肤色属性都变为肤色较黑的人肤色属性后重新对模型训练。
犯罪预测算法的消除偏见备选方法三的使用方法:将目标对象的肤色变为肤色较黑的人肤色后输入模型,预测得到犯罪率。
犯罪预测算法的消除偏见备选方法四:将样本中肤色较黑的人、肤色较白的人的样本中的肤色属性去掉后重新对模型训练。
犯罪预测算法的消除偏见备选方法四的使用方法:将目标对象输入模型,预测得到犯罪率。
实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方有一个刚出狱的抢劫犯为肤色较白的人,拐弯有二个刚出狱的小偷为肤色较黑的人。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞一个刚出狱的肤色较白的人抢劫犯。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车预测结果不确定,可能会前行,也可能会拐弯。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车左右为难,直至瘫痪。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车左右为难,放弃驾驶。
犯罪预测算法的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为去掉了偏见相关性大但与犯罪率相关性小的输入变量,对偏见起到了釜底抽薪的消除作用,所以能够防范风险。
犯罪预测算法的消除偏见备选方法能防范人工智能伦理风险的备选原因二:因为去掉了偏见相关的输入变量,能让人工智能无人驾驶汽车搞不清肤色,从而不产生偏见。
犯罪预测算法的消除偏见备选方法能防范人工智能伦理风险的备选原因三(干扰项):因为采用相反的肤色作为输入,能让人工智能无人驾驶汽车放弃观察肤色,从而不产生偏见。
犯罪预测算法的消除偏见备选方法能防范人工智能伦理风险的备选原因四(干扰项):因为采用相反的肤色作为输入,能让人工智能无人驾驶汽车系统崩溃,从而不产生偏见。
犯罪预测算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为训练时肤色对调后,会导致数据不真实,进而导致预测结果不可控,导致未知的不可控的伦理风险。
犯罪预测算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因二:训练时肤色对调,会导致人工智能无人驾驶汽车自杀。
犯罪预测算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因三(干扰选项):训练时肤色对调,导致人工智能无人驾驶汽车系统崩溃。
犯罪预测算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因四(干扰选项):训练时肤色对调,导致人工智能无人驾驶汽车系统崩溃。
实验过程与实验操作:
1)学生观看人工智能算法介绍“原犯罪预测算法:人工智能模型以人的犯罪纪录作为样本进行训练,样本中肤色较黑的人犯罪率高于肤色较白的人,训练得到的模型在进行犯罪预测时,对肤色较黑的人预测的犯罪率也会高于肤色较白的人。原犯罪预测算法的使用方法:根据识别出来的目标对象的身份信息检索出肤色较黑的人的历史数据,将目标对象的历史信息输入模型,模型预测得到目标对象的犯罪概率。”,观看实验要求“犯罪预测算法的消除偏见备选方法来防范步骤十九中出现的人工智能伦理风险”,学生观看步骤十九中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,学生观看人工智能算法的消除偏见使用方法(设置为“犯罪预测算法的消除偏见备选方法二:将样本中肤色较黑的人、肤色较白的人的样本中的肤色属性对调后重新对模型训练。犯罪预测算法的消除偏见备选方法二的使用方法:将目标对象输入模型,预测得到犯罪率。”),学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别和犯罪预测,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的犯罪预测算法的消除偏见方法是否能防范人工智能伦理风险,并给出原因。
3)学生以人工智能伦理专家的化身研究人工智能算法的消除偏见方法,研究出了多种备选的人工智能算法的方法,从中选出能防范人工智能伦理风险的人工智能算法的消除偏见方法。
4)学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的犯罪预测算法的消除偏见方法能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分40分):
1)学生的操作及其后果为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车预测结果不确定,可能会前行,也可能会拐弯。”(5分)
2)判断1)中的人脸识别算法使用的消除偏见方法不能防范人工智能伦理风险(5分),原因是“犯罪预测算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为训练时肤色对调后,会导致数据不真实,进而导致预测结果不可控,导致未知的不可控的伦理风险。”(5分)
3)学生的虚拟研究和选择为“犯罪预测算法的消除偏见备选方法一:将样本中肤色较黑的人、肤色较白的人的样本中的肤色属性去掉,将与肤色有相关性、与犯罪率无相关性的变量去掉后,后重新对模型训练。犯罪预测算法的消除偏见备选方法一的使用方法:将目标对象中肤色属性、与肤色有相关性、与犯罪率无相关性的变量去掉后输入模型,预测得到犯罪率。”(15分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车预测发现拐弯处二个刚出狱的肤色较黑的人小偷的不犯罪率之和高于一个刚出狱的肤色较白的人抢劫犯的不犯罪率,人工智能无人驾驶汽车选择拐弯去撞一个刚出狱的肤色较白的人抢劫犯。”(5分)
5)分析3)中的犯罪预测算法使用的消除偏见方法能防范人工智能伦理风险的原因是“犯罪预测算法的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为去掉了偏见相关性大但与犯罪率相关性小的输入变量,对偏见起到了釜底抽薪的消除作用,所以能够防范风险。”(5分)
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人工智能方法,其特征在于,所述方法包括:
规则获取步骤:获取人工智能伦理规则,作为第一人工智能伦理规则;
场景获取步骤:获取事件场景,作为第一事件场景;
算法获取步骤:获取人工智能算法,作为第一人工智能算法;
初始化步骤:将所述第一人工智能算法作为至少一个人工智能算法;
算法优选度计算步骤:对所述至少一个人工智能算法中的每一人工智能算法,获取在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则且产生人工智能伦理风险最小且行为成本低的人工智能体行为,作为所述每一人工智能算法对应的优选人工智能体行为,并计算所述每一人工智能算法的优选度;将所述最小的人工智能伦理风险大小作为所述每一人工智能算法对应的人工智能伦理风险大小;
算法选择步骤:从所述至少一个人工智能算法中,获取优选度最高的人工智能算法,若优选度最高的人工智能算法对应的人工智能伦理风险大小小于第二预设风险阈值,则将优选度最高的人工智能算法作为优选的人工智能算法,将优选的人工智能算法对应的优选人工智能体行为,作为待执行人工智能体行为,并执行所述算法和行为推荐步骤,否则执行所述算法改进步骤或将优选度最高的人工智能算法作为所述第一人工智能算法后执行所述算法改进步骤;
算法改进步骤:基于所述第一人工智能算法改进得到至少一个人工智能算法,回到所述算法优选度计算步骤重新执行;
算法和行为推荐步骤:调用所述第一事件场景中人工智能体执行所述优选的人工智能算法,并执行所述待执行人工智能体行为。
2.根据权利要求1所述的人工智能方法,其特征在于,所述算法优选度计算步骤具体包括:
行为获取步骤:获取在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;
行为判断步骤:对所述所有人工智能体行为中每一人工智能体行为,若所述每一人工智能体行为为空,则将所述第一事件场景作为所述每一人工智能体行为后的第二事件场景,若所述每一人工智能体行为不为空,执行所述场景仿真步骤;
场景仿真步骤:在所述第一事件场景中对所述每一人工智能体行为进行虚拟仿真,得到所述每一人工智能体行为后的第二事件场景;
计算风险大小步骤:对所述所有人工智能体行为中每一人工智能体行为,计算所述每一人工智能体行为后的第二事件场景的人工智能伦理风险大小;
行为选取步骤:选取最小所述风险大小对应的所述每一人工智能体行为;将最小的所述风险大小,作为所述每一人工智能算法对应的人工智能伦理风险大小;
行为成本计算步骤:若最小的所述风险大小对应的所述每一人工智能体行为有一个,则将最小的所述风险大小对应的所述每一人工智能体行为作为所述每一人工智能算法对应的优选人工智能体行为,并将所述每一人工智能体行为的行为成本作为所述每一人工智能算法对应的行为成本;若最小的所述风险大小对应的所述每一人工智能体行为有多个,则对所述多个人工智能体行为中每一人工智能体行为,计算所述每一人工智能体行为的行为成本,将最小的所述行为成本作为所述每一人工智能算法对应的行为成本,选取最小的所述行为成本对应的所述每一人工智能体行为,作为所述每一人工智能算法对应的优选人工智能体行为;
算法伦理风险获取步骤:将所述每一人工智能算法对应的优选的人工智能体行为后的所述第二事件场景的人工智能伦理风险的大小作为所述每一人工智能算法对应的人工智能伦理风险大小;
优选度计算步骤:根据所述每一人工智能算法对应的人工智能伦理风险大小、人工智能体行为成本,计算所述每一人工智能算法对应的优选度。
3.根据权利要求1所述的人工智能方法,其特征在于,所述算法改进步骤具体包括:
用户输入算法步骤:获取用户输入基于所述第一人工智能算法改进得到的至少一个人工智能算法;
或
相似算法获取步骤:通过深度学习模型选择基于所述第一人工智能算法改进得到的至少一个人工智能算法;
或
算法生成步骤:通过深度学习模型生成基于所述第一人工智能算法改进得到的至少一个人工智能算法;
所述相似算法获取步骤具体包括:获取人工智能算法集合;初始化深度学习模型作为算法选择深度学习模型;所述算法选择深度学习模型的输入类型设置为人工智能算法,输出类型设置为人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法(K≥1);获取样本集中的人工智能算法,作为输入对所述算法选择深度学习模型进行无监督训练;获取样本集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为所述算法选择深度学习模型的输入和预期输出,对所述算法选择深度学习模型进行有监督训练;获取测试集中的人工智能算法、人工智能算法集合中与所述人工智能算法最相似的K个人工智能算法,作为所述算法选择深度学习模型的输入和预期输出,对所述算法选择深度学习模型进行测试;将所述第一人工智能算法输入所述算法选择深度学习模型,计算得到的输出作为基于所述第一人工智能算法改进得到的至少一个人工智能算法;
所述算法生成步骤具体包括:初始化深度学习模型作为算法生成深度学习模型;所述算法生成深度学习模型的输入类型设置为人工智能算法,输出类型设置为基于所述人工智能算法改进得到的至少一个人工智能算法;获取样本集中的人工智能算法,作为输入对所述算法生成深度学习模型进行无监督训练;获取样本集中的人工智能算法、基于所述人工智能算法改进得到的至少一个人工智能算法,作为所述算法生成深度学习模型的输入和预期输出,对所述算法生成深度学习模型进行有监督训练;获取测试集中的人工智能算法、基于所述人工智能算法改进得到的至少一个人工智能算法,作为所述算法生成深度学习模型的输入和预期输出,对所述算法生成深度学习模型进行测试;将所述第一事件场景输入所述算法生成深度学习模型,计算得到的输出作为基于所述第一人工智能算法改进得到的至少一个人工智能算法。
4.根据权利要求2所述的人工智能方法,其特征在于,所述行为获取步骤具体包括:
输入行为步骤:获取用户输入的在所述第一事件场景中所述每一人工智能算法下符所述第一人工智能伦理规则的所有人工智能体行为;或
生成行为步骤:通过深度学习模型生成在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;
所述生成行为步骤具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景、所述每一人工智能算法,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;将所述第一事件场景、所述每一人工智能算法输入所述人工智能体行为决策模型,计算得到的输出作为在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为;或
所述生成行为步骤具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、所述每一人工智能算法、所述事件场景中的人工智能体行为约束条件、在所述事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;将所述第一事件场景、所述每一人工智能算法、所述第一事件场景中的人工智能体行为约束条件输入所述人工智能体行为决策模型,计算得到的输出作为在所述第一事件场景中所述每一人工智能算法下符合所述第一人工智能伦理规则的所有人工智能体行为。
5.根据权利要求2所述的人工智能方法,其特征在于,所述场景仿真步骤具体包括:
人工智能体行为场景模型构建步骤:初始化深度学习模型作为人工智能体行为场景模型;获取样本集中的事件场景、人工智能体行为,作为输入对所述人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、在所述事件场景中执行所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、在所述事件场景中执行所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行测试;
人工智能体行为场景模型使用步骤:对所述所有人工智能体行为中每一人工智能体行为,将所述第一事件场景、所述每一人工智能体行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人工智能体行为后的所述第二事件场景。
6.根据权利要求2所述的人工智能方法,其特征在于,所述计算风险大小步骤具体包括:
风险获取步骤:对所述所有人工智能体行为中每一人工智能体行为,根据所述每一人工智能体行为后的所述第二事件场景,得到所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率;
大小计算步骤:对所述所有人工智能体行为中每一人工智能体行为,根据所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率和风险值,计算得到所述每一人工智能体行为后的所述第二事件场景中的人工智能伦理风险大小;
风险获取步骤具体包括:初始化深度学习模型作为人工智能伦理风险模型;获取样本集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;对所述所有人工智能体行为中每一人工智能体行为,将所述第一事件场景输入所述人工智能伦理风险模型,计算得到的输出作为所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率;
大小计算步骤具体包括:对所述所有人工智能体行为中每一人工智能体行为,获取所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的风险值,与所述每一人工智能体行为后的所述第二事件场景中的每一人工智能伦理风险的概率进行综合运算,得到所述每一人工智能体行为后的所述第二事件场景中的人工智能伦理风险的大小。
7.根据权利要求1所述的人工智能方法,其特征在于,所述行为成本计算步骤具体包括:
行为成本模型构建步骤:行为成本包括至少一种成本;初始化深度学习模型作为行为成本模型;获取样本集中的事件场景、行为后事件场景,作为输入对所述行为成本模型进行无监督训练;获取样本集中的事件场景、行为后事件场景、所述行为的每一种成本的成本值,作为所述行为成本模型的输入和预期输出,对所述行为成本模型进行有监督训练;获取测试集中的事件场景、行为后事件场景、所述行为的每一种成本的成本值,作为所述行为成本模型的输入和预期输出,对所述行为成本模型进行测试;
行为成本模型使用步骤:对所述所有人工智能体行为中每一人工智能体行为,将事件场景、所述每一人工智能体行为后事件场景输入行为成本模型,计算得到的输出作为所述每一人工智能体行为的每一种成本的成本值,将所述每一人工智能体行为的每一种成本的成本值与预设权重进行加权平均,得到所述每一人工智能体行为的行为成本。
8.一种人工智能装置,其特征在于,所述装置用于实现权利要求1-7任意一项所述方法的步骤。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-7任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-7任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010772790.0A CN112132289A (zh) | 2020-08-04 | 2020-08-04 | 基于算法改进的人工智能伦理风险辨识防范方法和机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010772790.0A CN112132289A (zh) | 2020-08-04 | 2020-08-04 | 基于算法改进的人工智能伦理风险辨识防范方法和机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112132289A true CN112132289A (zh) | 2020-12-25 |
Family
ID=73851483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010772790.0A Pending CN112132289A (zh) | 2020-08-04 | 2020-08-04 | 基于算法改进的人工智能伦理风险辨识防范方法和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132289A (zh) |
-
2020
- 2020-08-04 CN CN202010772790.0A patent/CN112132289A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Greydanus et al. | Visualizing and understanding atari agents | |
Cui et al. | The empathic framework for task learning from implicit human feedback | |
CN109670380B (zh) | 动作识别、姿势估计的方法及装置 | |
CN111860577A (zh) | 识别不伤害人类的人类的人工智能伦理方法和机器人 | |
US11568246B2 (en) | Synthetic training examples from advice for training autonomous agents | |
CN111860765A (zh) | 尽量向善的人工智能伦理实现方法、系统和机器人 | |
CN111775158B (zh) | 人工智能伦理规则实现方法、专家系统和机器人 | |
CN111724370A (zh) | 一种基于不确定性和概率的多任务无参考图像质量评估方法及系统 | |
CN111823227A (zh) | 人工智能伦理风险检测防范方法、深度学习系统和机器人 | |
CN112149837A (zh) | 基于算法选择的人工智能伦理风险辨识防范方法和机器人 | |
CN115019382A (zh) | 区域确定方法、装置、设备、存储介质和程序产品 | |
CN112819174A (zh) | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 | |
CN112132289A (zh) | 基于算法改进的人工智能伦理风险辨识防范方法和机器人 | |
Sun et al. | A hybrid model for learning sequential navigation | |
EP3699810B1 (en) | Classification technique for assessing a visibility degradation in image data units | |
CN116362929A (zh) | 联合题目定性分析概率矩阵分解的认知诊断方法及装置 | |
CN112085214A (zh) | 基于人类决策的人工智能伦理风险辨识防范方法和机器人 | |
CN113158859B (zh) | 一种基于pomdp和面部行为分析的驾驶培训辅助方法 | |
CN112132290A (zh) | 基于多规则和行为决策的人工智能伦理风险辨识防范方法 | |
CN112085215A (zh) | 基于伦理规则修订的人工智能伦理风险辨识防范方法 | |
CN112085216A (zh) | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 | |
CN111539292B (zh) | 一种用于具现化场景问答任务的动作决策模型及方法 | |
CN113516182A (zh) | 视觉问答模型训练、视觉问答方法和装置 | |
Kumar et al. | A Reflective Neural Network Based Learning Framework for Intelligent Physical Systems | |
Lorente | Setting the goals for ethical, unbiased, and fair AI |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |