CN112085215A - 基于伦理规则修订的人工智能伦理风险辨识防范方法 - Google Patents
基于伦理规则修订的人工智能伦理风险辨识防范方法 Download PDFInfo
- Publication number
- CN112085215A CN112085215A CN202010773823.3A CN202010773823A CN112085215A CN 112085215 A CN112085215 A CN 112085215A CN 202010773823 A CN202010773823 A CN 202010773823A CN 112085215 A CN112085215 A CN 112085215A
- Authority
- CN
- China
- Prior art keywords
- artificial intelligence
- behavior
- human
- rule
- ethical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
基于伦理规则修订的人工智能伦理风险辨识防范方法,包括:场景获取步骤、规则获取步骤、初始化步骤、优选度计算步骤、规则选择步骤、规则修订步骤、规则和行为推荐步骤。上述方法、系统和机器人,通过对人工智能伦理规则的不断修订得到在事件场景中产生的人工智能伦理风险小于预设阈值的人工智能伦理规则,使得人工智能伦理风险的辨识和防范不再被单一的人工智能伦理规则所束缚,从而使得事件场景中的人工智能伦理风险变得可控。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于伦理规则修订的人工智能伦理风险辨识防范方法。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有技术中事件场景的人工智能伦理规则一旦确定就不会再改变,而是基于确定的人工智能伦理规则进行人工智能伦理风险的辨识和防范,但有的人工智能伦理规则本身就不适合有些事件场景,导致无论如何调整行为都无法进行人工智能伦理风险的防范,进而会导致人工智能伦理风险防范的失败。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供基于伦理规则修订的人工智能伦理风险辨识防范方法,以解决现有技术中人工智能伦理规则固定不变导致的在某些事件场景中人工智能伦理风险无法防范的问题。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
场景获取步骤:获取事件场景,作为第一事件场景;
规则获取步骤:获取人工智能伦理规则,作为第一人工智能伦理规则;
初始化步骤:将所述第一人工智能伦理规则作为至少一个人工智能伦理规则;
优选度计算步骤:对所述至少一个人工智能伦理规则中的每一人工智能伦理规则,获取在所述第一事件场景中产生人工智能伦理风险大小最小且行为成本低的人类行为及其对应的人工智能体行为,作为所述每一人工智能伦理规则对应的优选的人类行为和优选的人工智能体行为;根据所述最小的人工智能伦理风险大小和行为成本计算所述每一人工智能伦理规则的优选度;将所述最小的人工智能伦理风险大小作为所述每一人工智能伦理规则对应的人工智能伦理风险大小;
规则选择步骤:从所述至少一个人工智能伦理规则中,获取优选度最高的人工智能伦理规则,若优选度最高的人工智能伦理规则对应的人工智能伦理风险大小小于第二预设风险阈值,则将优选度最高的人工智能伦理规则作为优选的人工智能伦理规则,并执行所述规则和行为推荐步骤,否则执行所述规则修订步骤或将优选度最高的人工智能伦理规则作为所述第一人工智能伦理规则后执行所述规则修订步骤;
规则修订步骤:基于所述第一人工智能伦理规则修订得到至少一个人工智能伦理规则,回到所述优选度计算步骤重新执行;
规则和行为推荐步骤:将所述优选的人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;获取所述优选的人工智能伦理规则对应的所述优选的人类行为,发送给所述第一事件场景中的人类,提示所述第一事件场景中的人类执行所述优选的人工智能伦理规则对应的所述优选的人类行为;根据所述优选的人工智能伦理规则对应的所述优选的人工智能体行为,调用所述第一事件场景中的人工智能体执行所述优选的人工智能伦理规则对应的所述优选的人工智能体行为。
在其中一个优选实施例中,所述优选度计算步骤具体包括:
人类行为获取步骤:获取在所述第一事件场景中可能发生的所有人类行为;
人类行为判断步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,若所述每一人类行为为空,则将所述第一事件场景作为人类行为后的第二事件场景,若人类行为不为空,则执行人类行为后场景仿真步骤;
人类行为后场景仿真步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,在所述第一事件场景中对所述每一人类行为进行虚拟仿真,得到所述每一人类行为后的第二事件场景;
人工智能体行为获取步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,获取在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为;
人工智能体行为成本计算步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,计算所述每一人工智能体行为的行为成本;
人工智能体行为判断步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,若所述每一人工智能体行为为空,则所述每一人工智能体行为后的所述第二事件场景作为人工智能体行为后的第三事件场景,若所述每一人工智能体行为不为空,执行人工智能体行为后场景仿真步骤;
人工智能体行为后场景仿真步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,在所述每一人类行为后的所述第二事件场景中对所述每一人工智能体行为进行虚拟仿真,得到所述每一人工智能体行为后的第三事件场景;
伦理风险计算步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,计算所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小;
人工智能体行为选择步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,计算所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小与所述每一人工智能体行为的成本的综合值,选取综合值最小的所述每一人工智能体行为,作为所述每一人类行为后的优选的人工智能体行为,将所述最小的综合值作为所述每一人类行为对应的第一综合值;
人类行为成本计算步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,计算所述每一人类行为的行为成本;
人类行为选择步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,计算所述每一人类行为对应的第一综合值和所述每一人类行为的行为成本的综合值,作为第二综合值;将最小的所述第二综合值对应的所述每一人类行为作为所述每一人工智能伦理规则对应的优选的人类行为;
人工智能体行为选择步骤:将在优选的人类行为后的优选的人工智能体行为,作为所述每一人工智能伦理规则对应的优选的人工智能体行为;
伦理规则风险获取步骤:将所述每一人工智能伦理规则对应的优选的人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小作为所述每一人工智能伦理规则对应的人工智能伦理风险大小;
规则优选度计算步骤:根据最小的所述第二综合值,计算得到所述每一人工智能伦理规则的优选度,其中,所述最小的所述第二综合值越小,则计算得到所述每一人工智能伦理规则的优选度越大。
在其中一个优选实施例中,所述规则修订步骤具体包括:
用户输入规则步骤:获取用户输入基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
或
相似规则获取步骤:通过深度学习模型选择基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
或
规则生成步骤:通过深度学习模型生成基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
所述相似规则获取步骤具体包括:获取人工智能伦理规则集合;初始化深度学习模型作为规则选择深度学习模型;所述规则选择深度学习模型的输入类型设置为人工智能伦理规则,输出类型设置为人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则(K≥1);获取样本集中的人工智能伦理规则,作为输入对所述规则选择深度学习模型进行无监督训练;获取样本集中的人工智能伦理规则、人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则,作为所述规则选择深度学习模型的输入和预期输出,对所述规则选择深度学习模型进行有监督训练;获取测试集中的人工智能伦理规则、人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则,作为所述规则选择深度学习模型的输入和预期输出,对所述规则选择深度学习模型进行测试;将所述第一人工智能伦理规则输入所述规则选择深度学习模型,计算得到的输出作为基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
所述规则生成步骤具体包括:初始化深度学习模型作为规则生成深度学习模型;所述规则生成深度学习模型的输入类型设置为人工智能伦理规则,输出类型设置为基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则;获取样本集中的人工智能伦理规则,作为输入对所述规则生成深度学习模型进行无监督训练;获取样本集中的人工智能伦理规则、基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则,作为所述规则生成深度学习模型的输入和预期输出,对所述规则生成深度学习模型进行有监督训练;获取测试集中的人工智能伦理规则、基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则,作为所述规则生成深度学习模型的输入和预期输出,对所述规则生成深度学习模型进行测试;将所述第一事件场景输入所述规则生成深度学习模型,计算得到的输出作为基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则。
在其中一个优选实施例中,
所述人类行为获取步骤具体包括:
用户输入人类行为步骤:获取用户输入的在所述第一事件场景中可能发生的所有人类行为;或
自动生成人类行为步骤:通过深度学习模型生成在所述第一事件场景中可能发生的所有人类行为;
自动生成人类行为步骤具体包括:初始化深度学习模型作为第一人类行为决策模型;获取样本集中的事件场景,作为输入对所述第一人类行为决策模型进行无监督训练;获取样本集中的事件场景、在所述事件场景中可能发生的所有人类行为,作为所述第一人类行为决策模型的输入和预期输出,对所述第一人类行为决策模型进行有监督训练;获取测试集中的事件场景、在所述事件场景中可能发生的所有人类行为,作为所述第一人类行为决策模型的输入和预期输出,对所述第一人类行为决策模型进行测试;将所述第一事件场景输入所述第一人类行为决策模型,计算得到的输出作为在所述第一事件场景中可能发生的所有人类行为;或初始化深度学习模型作为第二人类行为决策模型;获取样本集中的事件场景、人类行为目标、人类行为约束条件,作为输入对所述第二人类行为决策模型进行无监督训练;获取样本集中的事件场景、人类行为目标、人类行为约束条件、在所述事件场景中可能发生的所有人类行为,作为所述第二人类行为决策模型的输入和预期输出,对所述第二人类行为决策模型进行有监督训练;获取测试集中的事件场景、在所述事件场景中可能发生的所有人类行为,作为所述第二人类行为决策模型的输入和预期输出,对所述第二人类行为决策模型进行测试;获取所述第一事件场景中的人类行为目标、人类行为约束,将所述第一事件场景、所述第一事件场景中的人类行为目标、人类行为约束条件输入所述第二人类行为决策模型,计算得到的输出作为在所述第一事件场景中可能发生的所有人类行为;
所述人工智能体行为获取步骤具体包括:
用户输入人工智能体行为步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,获取用户输入的在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为;或
自动生成人工智能体行为步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,通过人工智能体行为决策深度学习模型生成在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为;
自动生成人工智能体行为步骤具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、在所述事件场景中符合人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、在所述事件场景中符合人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,将所述每一人类行为后的所述第二事件场景输入所述人工智能体行为决策模型,计算得到的输出作为在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为。
在其中一个优选实施例中,
所述人类行为成本计算步骤具体包括:
人类行为成本模型构建步骤:人类行为成本包括至少一种行为成本;初始化深度学习模型作为人类行为成本模型;获取样本集中的事件场景、人类行为后事件场景,作为输入对所述人类行为成本模型进行无监督训练;获取样本集中的事件场景、人类行为后事件场景、所述人类行为的每一种成本的成本值,作为所述人类行为成本模型的输入和预期输出,对所述人类行为成本模型进行有监督训练;获取测试集中的事件场景、人类行为后事件场景、所述人类行为的每一种成本的成本值,作为所述人类行为成本模型的输入和预期输出,对所述人类行为成本模型进行测试;
人类行为成本模型使用步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,将所述第一事件场景、所述每一人类行为后的所述第二事件场景输入所述人类行为成本模型,计算得到的输出作为所述每一人类行为的每一种成本的成本值,将所述每一人类行为的每一种成本的成本值与所述每一种成本的权重进行加权平均,得到所述每一人类行为的行为成本;
所述人工智能体行为成本计算步骤包括:
人工智能体行为成本模型构建步骤:人工智能体行为成本包括至少一种成本;获取样本集中的事件场景、人工智能体行为后事件场景,作为输入对所述人工智能体行为成本模型进行无监督训练;获取样本集中的事件场景、人工智能体行为后事件场景、所述人工智能体行为的每一种成本的成本值,作为所述人工智能体行为成本模型的输入和预期输出,对所述人工智能体行为成本模型进行有监督训练;获取测试集中的事件场景、人工智能体行为后事件场景、所述人工智能体行为的每一种成本的成本值,作为所述人工智能体行为成本模型的输入和预期输出,对所述人工智能体行为成本模型进行测试;
人工智能体行为成本模型使用步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,将所述第二事件场景、所述第二事件场景中人工智能体行为后的所述第三事件场景输入所述人工智能行为成本模型,计算得到的输出作为所述每一人工智能体行为的每一种成本的成本值,将所述每一人工智能体行为的每一种成本的成本值与所述每一种成本的权重进行加权平均,得到所述每一人工智能体行为的行为成本。
在其中一个优选实施例中,所述伦理风险计算步骤具体包括:
风险概率计算步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,根据所述每一人工智能体行为后的所述第三事件场景,得到所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率;
大小计算步骤:根据所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率和风险值,计算得到所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小;
风险概率计算步骤具体包括:初始化深度学习模型作为人工智能伦理风险模型;获取样本集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,将所述每一人工智能体行为后的所述第三事件场景输入所述人工智能伦理风险模型,计算得到的输出作为所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率;
大小计算步骤具体包括:获取所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的风险值,与所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率进行加权平均,得到所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小。
在其中一个优选实施例中,
所述人类行为后场景仿真步骤包括:
人类行为场景模型构建步骤:初始化深度学习模型作为人类行为场景模型;获取样本集中的事件场景、人类行为,作为输入对所述人类行为场景模型进行无监督训练;获取样本集中的事件场景、人类行为、所述人类行为后的事件场景,作为所述人类行为场景模型的输入和预期输出,对所述人类行为场景模型进行有监督训练;获取测试集中的事件场景、人类行为、所述人类行为后的事件场景,作为所述人类行为场景模型的输入和预期输出,对所述人类行为场景模型进行测试;
人类行为场景模型使用步骤:将所述第一事件场景、所述每一人类行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人类行为后的第二事件场景;
所述人工智能体行为后场景仿真步骤包括:
人工智能体行为场景模型构建步骤:初始化深度学习模型作为人工智能体行为场景模型;获取样本集中的事件场景、人工智能体行为,作为输入对所述人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行测试;
人工智能体行为场景模型使用步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,将所述每一人类行为后的所述第二事件场景、所述每一人工智能体行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人工智能体行为后的第三事件场景。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
场景获取模块、规则获取模块、初始化模块、优选度计算模块、规则选择模块、规则修订模块、规则和行为推荐模块,用于执行第一方面所述方法的场景获取步骤、规则获取步骤、初始化步骤、优选度计算步骤、规则选择步骤、规则修订步骤、规则和行为推荐步骤。
在其中一个优选实施例中,所述优选度计算模块具体包括:人类行为获取模块、人类行为判断模块、人类行为后场景仿真模块、人工智能体行为获取模块、人工智能体行为成本计算模块、人工智能体行为判断模块、人工智能体行为后场景仿真模块、伦理风险计算模块、人工智能体行为选择模块、伦理规则风险获取模块、人类行为成本计算模块、人类行为选择模块、人工智能体行为选择模块、伦理规则风险获取模块、规则优选度计算模块,用于执行第一方面所述方法的人类行为获取步骤、人类行为判断步骤、人类行为后场景仿真步骤、人工智能体行为获取步骤、人工智能体行为成本计算步骤、人工智能体行为判断步骤、人工智能体行为后场景仿真步骤、伦理风险计算步骤、人工智能体行为选择步骤、伦理规则风险获取步骤、人类行为成本计算步骤、人类行为选择步骤、人工智能体行为选择步骤、伦理规则风险获取步骤、规则优选度计算步骤。
在其中一个优选实施例中,所述规则修订模块具体包括:用户输入规则模块、或相似规则获取模块、或规则生成模块,用于执行第一方面所述方法的用户输入规则步骤、或相似规则获取步骤、或规则生成步骤。
在其中一个优选实施例中,所述人类行为获取模块具体包括:用户输入人类行为模块、或自动生成人类行为模块,用于执行第一方面所述方法的用户输入人类行为步骤、或自动生成人类行为步骤;所述人工智能体行为获取模块具体包括:用户输入人工智能体行为模块、或自动生成人工智能体行为模块,用于执行第一方面所述方法的用户输入人工智能体行为步骤、或自动生成人工智能体行为步骤。
在其中一个优选实施例中,所述人类行为成本计算模块具体包括:人类行为成本模型构建模块、人类行为成本模型使用模块,用于执行第一方面所述方法的人类行为成本模型构建步骤、人类行为成本模型使用步骤;所述人工智能体行为成本计算模块包括:人工智能体行为成本模型构建模块、人工智能体行为成本模型使用模块,用于执行第一方面所述方法的人工智能体行为成本模型构建步骤、人工智能体行为成本模型使用步骤。
在其中一个优选实施例中,所述伦理风险计算模块具体包括:风险概率计算模块、大小计算模块,用于执行第一方面所述方法的风险概率计算步骤、大小计算步骤。
在其中一个优选实施例中,所述人类行为后场景仿真模块包括:人类行为场景模型构建模块、人类行为场景模型使用模块,用于执行第一方面所述方法的人类行为场景模型构建步骤、人类行为场景模型使用步骤;所述人工智能体行为后场景仿真模块包括:人工智能体行为场景模型构建模块、人工智能体行为场景模型使用模块,用于执行第一方面所述方法的人工智能体行为场景模型构建步骤、人工智能体行为场景模型使用步骤。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的基于伦理规则修订的人工智能伦理风险辨识防范方法,包括:场景获取步骤、规则获取步骤、初始化步骤、优选度计算步骤、规则选择步骤、规则修订步骤、规则和行为推荐步骤。上述方法、系统和机器人,通过对人工智能伦理规则的不断修订得到在事件场景中产生的人工智能伦理风险小于预设阈值的人工智能伦理规则,使得人工智能伦理风险的辨识和防范不再被单一的人工智能伦理规则所束缚,从而使得事件场景中的人工智能伦理风险变得可控。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的优选度计算步骤流程图;
图3为本发明的实施例提供的人工智能方法的规则修订步骤流程图;
图4为本发明的实施例提供的人工智能方法的人类行为获取步骤和人工智能体行为获取步骤流程图;
图5为本发明的实施例提供的人工智能方法的行为成本计算步骤流程图;
图6为本发明的实施例提供的人工智能方法的伦理风险计算步骤流程图;
图7为本发明的实施例提供的人工智能方法的行为后场景仿真步骤流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
本发明的基本实施例
一种人工智能方法,如图1所示,包括:场景获取步骤;规则获取步骤;初始化步骤;优选度计算步骤;规则选择步骤;规则修订步骤;规则和行为推荐步骤。技术效果:所述方法通过人工智能伦理规则的选择和修订使得针对事件场景得到符合人工智能伦理风险阈值要求的人工智能伦理规则,从而使得人工智能伦理风险变得可控,可以在真实风险发生之前进行辨识,并通过选择最合适的规则、行为,在现实中进行人工智能伦理风险的防范;同时,所述的人工智能伦理规则还可以进行多次修订,在一次修订得到的人工智能伦理规则产生的人工智能伦理风险仍然不符合要求的情况下,可以继续基于原始的人工智能伦理规则或最新修订的人工智能伦理规则继续修订,直至找到合适的人工智能伦理规则为止,从而使得人工智能伦理风险的辨识和防范变得更加鲁棒。
在其中一个优选实施例中,如图2所示,所述优选度计算步骤具体包括:人类行为获取步骤;人类行为判断步骤;人类行为后场景仿真步骤;人工智能体行为获取步骤;人工智能体行为成本计算步骤;人工智能体行为判断步骤;人工智能体行为后场景仿真步骤;伦理风险计算步骤;人工智能体行为选择步骤;伦理规则风险获取步骤;人类行为成本计算步骤;人类行为选择步骤;人工智能体行为选择步骤;伦理规则风险获取步骤;规则优选度计算步骤。技术效果:所述方法通过在事件场景中人类行为的仿真,提前预知人类行为后的事件场景中人工智能伦理风险的大小,并进一步对人类行为后的事件场景中人工智能体行为的仿真,进一步计算出人工智能体行为后事件场景中人工智能体伦理风险的大小,从而计算出所述每一人工智能伦理规则下在事件场景中各种行为产生的人工智能伦理风险,并根据最小的人工智能伦理风险大小计算所述人工智能伦理规则对应的优选度,从而使得选择出来的人工智能伦理规则、人类行为、人工智能体行为是人工智能伦理风险防范的优选方案。
在其中一个优选实施例中,如图3所示,所述规则修订步骤具体包括:用户输入规则步骤;或相似规则获取步骤;或规则生成步骤。技术效果:所述方法通过用户输入或自动选择或自动生成的方式来修订得到多个人工智能伦理规则,从而使得人工智能伦理规则的修订既可以基于人工的方式进行,又可以在无人干预的情况下自动完成,其中人工输入的方式可以用于虚拟仿真实验的情形,使得实验者能够了解多种输入的人工智能伦理规则的修订过程,其中自动生成的方式可以用于现实情形,因为现实情形实时性要求和自动化要求高,则系统能够自己地选取或生成基于已有人工智能伦理规则的修订后的人工智能伦理规则。
在其中一个优选实施例中,如图4所示,所述人类行为获取步骤具体包括:用户输入人类行为步骤;或自动生成人类行为步骤;所述人工智能体行为获取步骤具体包括:用户输入人工智能体行为步骤;或自动生成人工智能体行为步骤。技术效果:所述方法通过用户输入和自动生成的方式得到人类行为和人工智能体行为,从而既能用于虚拟仿真实验中允许实验者以化身的形式输入的情形,又能用于现实中行为自动预测生成的情形。
在其中一个优选实施例中,如图5所示,所述人类行为成本计算步骤具体包括:人类行为成本模型构建步骤;人类行为成本模型使用步骤;所述人工智能体行为成本计算步骤包括:人工智能体行为成本模型构建步骤;人工智能体行为成本模型使用步骤。技术效果:所述方法通过在行为真实发生之前事先计算行为的成本,从而在考虑最小人工智能伦理风险的情况下选择行为成本低的行为,进而可以在防范人工智能伦理风险的同时能够提高人类行为和人工智能体行为的效率。
在其中一个优选实施例中,如图6所示,所述伦理风险计算步骤具体包括:风险概率计算步骤;大小计算步骤。技术效果:所述方法通过计算各种人工智能伦理风险发生的概率和风险值,来计算人工智能伦理风险的大小,而不是笼统地判断是否存在人工智能伦理风险,从而使得人工智能伦理风险的辨识和防范更为精细和精准。
在其中一个优选实施例中,如图7所示,所述人类行为后场景仿真步骤包括:人类行为场景模型构建步骤;人类行为场景模型使用步骤;所述人工智能体行为后场景仿真步骤包括:人工智能体行为场景模型构建步骤;人工智能体行为场景模型使用步骤。技术效果:所述方法通过基于深度学习模型对行为进行虚拟仿真,在行为真实发生之前就能得到发生行为后的事件场景,从而能够提前预知行为后的事件场景中的人工智能伦理风险,从而可以提前辨识行为带来的人工智能伦理风险,并能够通过行为的选择提前防范人工智能伦理风险的发生。
本发明的优选实施例
获取人工智能伦理规则。
获取事件场景。
计算所述事件场景下人工智能伦理规则导致的人工智能伦理风险的大小,若所述事件场景下人工智能伦理规则导致的人工智能伦理风险的大小大于第一预设风险阈值,则执行伦理规则修订步骤。
伦理规则修订步骤:根据人工智能伦理规则,得到修订的至少一个人工智能伦理规则。
对每一修订的人工智能伦理规则,获取在事件场景中产生人工智能伦理风险最小且行为成本低的人类行为及其对应的人工智能体行为;根据所述最小的人工智能伦理风险和行为成本计算所述每一修订的人工智能伦理规则的优选度,并得到所述每一修订的人工智能伦理规则对应的人工智能伦理风险。具体包括:获取在事件场景中可能发生的所有人类行为;对每一所述人类行为,若人类行为为空,则无需进行虚拟仿真,事件场景即为人类行为后的事件场景,若人类行为不为空,在事件场景中对人类行为进行虚拟仿真,得到人类行为后的事件场景;对每一所述人类行为,获取在人类行为后的事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为;对每一所述人工智能体行为,若人工智能体行为为空,则无需进行虚拟仿真,人类行为后的事件场景即为人工智能体行为后的事件场景,若人工智能体行为不为空,在人类行为后的事件场景中对人工智能体行为进行虚拟仿真,得到人工智能体行为后的事件场景;对每一所述人工智能体行为(人工智能体行为由人工智能体的行为语句构成,人工智能体行为可执行人工智能体行为语句,产生相应行为),计算人工智能体行为后的事件场景的风险大小,计算人工智能体行为对应的风险大小与成本的综合值(例如风险大小与成本的加权平均),选取综合值最小的人工智能体行为,作为人类行为后的优选的人工智能体行为(例如,选取最小风险对应的人工智能体行为;若最小风险对应的人工智能体行为有多个,则对多个人工智能体行为中每一人工智能体行为,计算人工智能体行为的行为成本,包括时间成本或/和能源消耗成本或/和材料损耗成本;选取最小行为成本对应的人工智能体行为,作为在每一所述人类行为后的事件场景中符合所述每一修订的人工智能伦理规则且产生人工智能伦理风险最小且人工智能体行为成本低的人工智能体行为,将所述最小的人工智能伦理风险和人工智能体行为成本作为每一所述人类行为的人工智能伦理风险大小和人工智能体行为成本)。计算所述每一人类行为对应的第一综合值和所述每一人类行为的行为成本的综合值(例如所述每一人类行为对应的第一综合值和所述每一人类行为的行为成本的加权平均),作为第二综合值;将第二综合值最小的所述每一人类行为作为优选的人类行为(例如,对每一所述人类行为,计算人类行为的行为成本,包括时间成本或/和体力消耗成本。根据每一所述人类行为的人工智能伦理风险和人工智能体行为成本、人类行为的行为成本,计算每一所述人类行为的优选度,例如人类行为的优选度=1/(人工智能伦理风险*(k1*人类行为的行为成本+k2*人工智能体行为成本)/(k1+k2)),k1+k2=1,0≤k1≤1。将优选度最高的人类行为作为优选的人类行为。将优选的人类行为的人工智能伦理风险大小作为所述每一修订的人工智能伦理规则对应的人工智能伦理风险大小。将最高的优选度作为所述每一修订的人工智能伦理规则的优选度。将在优选度最高的人类行为后的事件场景中符合所述每一修订的人工智能伦理规则且产生人工智能伦理风险最小且人工智能体行为成本低的人工智能体行为,作为优选的人工智能体行为。又例如,将第二综合值的倒数作为所述每一修订的人工智能伦理规则的优选度。
根据人工智能伦理规则,得到修订的至少一个人工智能伦理规则,具体包括:获取用户在虚拟仿真环境中输入的基于人工智能伦理规则修订得到的至少一个人工智能伦理规则;或通过规则选择深度学习模型选择基于人工智能伦理规则修订得到的至少一个人工智能伦理规则;或通过规则生成深度学习模型生成基于人工智能伦理规则修订得到的至少一个人工智能伦理规则。通过规则选择深度学习模型选择基于人工智能伦理规则修订得到的至少一个人工智能伦理规则,具体包括:初始化规则选择深度学习模型,规则选择深度学习模型的输入类型设置为人工智能伦理规则,输出类型设置为人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则(K为预设个数,K≥1,最相似的K个人工智能伦理规也就是人工智能伦理规则集合中与所述人工智能伦理规则的相似度排名前K的K个人工智能伦理规则)。获取样本集中的人工智能伦理规则,作为输入对规则选择深度学习模型进行无监督训练;获取样本集中的人工智能伦理规则、人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则,作为规则选择深度学习模型的输入和预期输出,对规则选择深度学习模型进行有监督训练;获取测试集中的人工智能伦理规则、人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则作为规则选择深度学习模型的输入和预期输出,对规则选择深度学习模型进行测试;将人工智能伦理规则输入规则选择深度学习模型,计算得到的输出中的人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则作为基于人工智能伦理规则修订得到的至少一个人工智能伦理规则。通过规则生成深度学习模型生成基于人工智能伦理规则修订得到的至少一个人工智能伦理规则,具体包括:初始化规则生成深度学习模型,规则生成深度学习模型的输入类型设置为人工智能伦理规则,输出类型设置为基于所述人工智能伦理规则修订得到的K个人工智能伦理规则(K为预设个数)。获取样本集中的人工智能伦理规则,作为输入对规则生成深度学习模型进行无监督训练;获取样本集中的人工智能伦理规则、基于所述人工智能伦理规则修订得到的K个人工智能伦理规则,作为规则生成深度学习模型的输入和预期输出,对规则生成深度学习模型进行有监督训练;获取测试集中的人工智能伦理规则、基于所述人工智能伦理规则修订得到的K个人工智能伦理规则,作为规则生成深度学习模型的输入和预期输出,对规则生成深度学习模型进行测试;将人工智能伦理规则输入规则生成深度学习模型,计算得到的输出作为基于所述人工智能伦理规则修订得到的K个人工智能伦理规则作为基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则。获取在事件场景中可能发生的所有人类行为,具体包括:获取用户在虚拟仿真环境中输入的在事件场景中可能发生的所有人类行为;或通过人类行为决策深度学习模型生成的在事件场景中可能发生的所有人类行为。通过人类行为决策深度学习模型生成的在事件场景中可能发生的所有人类行为,第一种方式具体包括:获取样本集中的事件场景,作为输入对人类行为决策模型进行无监督训练;获取样本集中的事件场景、在事件场景中可能发生的所有人类行为,作为人类行为决策模型的输入和预期输出,对人类行为决策模型进行有监督训练;获取测试集中的事件场景、在事件场景中可能发生的所有人类行为,作为人类行为决策模型的输入和预期输出,对人类行为决策模型进行测试;将人类行为后的事件场景输入人类行为决策模型,计算得到的输出作为在事件场景中可能发生的所有人类行为;第二种方式具体包括:获取样本集中的事件场景、人类行为目标(可为空)、人类行为约束条件(可为空),作为输入对人类行为决策模型进行无监督训练;获取样本集中的事件场景、人类行为目标、人类行为约束条件、在事件场景中可能发生的所有人类行为,作为人类行为决策模型的输入和预期输出,对人类行为决策模型进行有监督训练;获取测试集中的事件场景、在事件场景中可能发生的所有人类行为,作为人类行为决策模型的输入和预期输出,对人类行为决策模型进行测试;获取人类行为目标(可为空)、人类行为约束(可为空),将事件场景、人类行为目标、人类行为约束条件输入人类行为决策模型,计算得到的输出作为在事件场景中可能发生的所有人类行为。在事件场景中对人类行为进行虚拟仿真,得到人类行为后的事件场景,具体包括:获取样本集中的事件场景、人类行为,作为输入对人类行为场景模型进行无监督训练;获取样本集中的事件场景、人类行为、人类行为后的事件场景,作为人类行为场景模型的输入和预期输出,对人类行为场景模型进行有监督训练;获取测试集中的事件场景、人类行为、人类行为后的事件场景,作为人类行为场景模型的输入和预期输出,对人类行为场景模型进行测试;将事件场景、人类行为输入人类行为场景模型,计算得到的输出作为人类行为后的事件场景。计算人类行为的行为成本,具体包括:人类行为成本包括至少一种行为成本,例如体力消耗成本或/和时间成本;获取样本集中的事件场景、人类行为后事件场景,作为输入对人类行为成本模型进行无监督训练;获取样本集中的事件场景、人类行为后事件场景、每一种行为成本的成本值,作为人类行为成本模型的输入和预期输出,对人类行为成本模型进行有监督训练;获取测试集中的事件场景、人类行为后事件场景、每一种人类行为成本的成本值,作为人类行为成本模型的输入和预期输出,对人类行为成本模型进行测试;将事件场景、人类行为后事件场景输入行为成本模型,计算得到的输出作为每一种人类行为成本的成本值,将每一种人类行为成本的成本值与每一种人类行为成本的权重进行加权平均,得到人类行为的行为成本。
获取在人类行为后的事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为,具体包括:获取用户在虚拟仿真环境中输入的在人类行为后的事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为;或通过人工智能体行为决策深度学习模型生成的在人类行为后的事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为。通过人工智能体行为决策深度学习模型生成的在人类行为后的事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为,具体包括:获取样本集中的事件场景,作为输入对人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、在事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为,作为人工智能体行为决策模型的输入和预期输出,对人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、在事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为,作为人工智能体行为决策模型的输入和预期输出,对人工智能体行为决策模型进行测试;将人类行为后的事件场景输入人工智能体行为决策模型,计算得到的输出作为在人类行为后的事件场景中符合所述每一修订的人工智能伦理规则的所有人工智能体行为。计算人工智能体行为后的事件场景的风险大小,具体包括:根据人工智能体行为和人类行为后的事件场景,得到人工智能体行为后的事件场景,再根据人工智能体行为后的事件场景,得到产生的每一人工智能伦理风险的概率和风险值,计算得到人工智能体行为后的事件场景的风险大小。根据人工智能体行为和人类行为后的事件场景,得到人工智能体行为后的事件场景,具体包括:获取样本集中的事件场景、人工智能体行为,作为输入对人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、人工智能体行为后的事件场景,作为人工智能体行为场景模型的输入和预期输出,对人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、人工智能体行为后的事件场景,作为人工智能体行为场景模型的输入和预期输出,对人工智能体行为场景模型进行测试;将人类行为后的事件场景、人工智能体行为输入人工智能体行为场景模型,计算得到的输出作为人工智能体行为后的事件场景。根据人工智能体行为后的事件场景,得到产生的每一人工智能伦理风险的概率和风险值,具体包括:获取样本集中的事件场景,作为输入对人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、每一人工智能伦理风险的概率(有所述每一人工智能伦理风险,则所述每一人工智能伦理风险的概率为1,否则为0),作为人工智能伦理风险模型的输入和预期输出,对人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、每一人工智能伦理风险的概率(有所述每一人工智能伦理风险,则所述每一人工智能伦理风险的概率为1,否则为0),作为人工智能伦理风险模型的输入和预期输出,对人工智能伦理风险模型进行测试;将人工智能体行为后的事件场景输入人工智能伦理风险模型,计算得到的输出作为产生的每一人工智能伦理风险的概率。计算得到人工智能体行为后的事件场景的风险大小,具体包括:获取每一人工智能伦理风险的风险值,与所述产生的每一人工智能伦理风险的概率进行加权平均,得到行为后的事件场景的风险大小。例如共有3类人工智能伦理风险,第一人工智能伦理风险的风险值、概率为V1、P1,第二人工智能伦理风险的风险值、概率为V2、P2,第三人工智能伦理风险的风险值、概率为V3、P3,则人工智能体行为后的事件场景的风险大小为V1*P1+V2*P2+V3*P3。计算人工智能体行为的行为成本,具体包括:人工智能体行为成本包括至少一种行为成本,例如能耗成本或/和时间成本或/和损耗成本;获取样本集中的事件场景、人工智能体行为后事件场景,作为输入对人工智能体行为成本模型进行无监督训练;获取样本集中的事件场景、人工智能体行为后事件场景、每一种行为成本的成本值,作为人工智能体行为成本模型的输入和预期输出,对人工智能体行为成本模型进行有监督训练;获取测试集中的事件场景、人工智能体行为后事件场景、每一种人工智能体行为成本的成本值,作为人工智能体行为成本模型的输入和预期输出,对人工智能体行为成本模型进行测试;将事件场景、人工智能体行为后事件场景输入行为成本模型,计算得到的输出作为每一种人工智能体行为成本的成本值,将每一种人工智能体行为成本的成本值与每一种人工智能体行为成本的权重进行加权平均,得到人工智能体行为的行为成本。
若优选度最高的人工智能伦理规则对应的人工智能伦理风险大于第二预设风险阈值,则回到根据人工智能伦理规则得到多个修订的人工智能伦理规则的步骤重新执行;或将优选度最高的人工智能伦理规则作为当前人工智能伦理规则后回到根据人工智能伦理规则得到多个修订的人工智能伦理规则的步骤重新执行。
从所述至少一个人工智能伦理规则中,获取优选度最高的人工智能伦理规则,将优选度最高的人工智能伦理规则发送给事件场景中的人工智能体和人类。
获取优选度最高的人工智能伦理规则下在事件场景中产生人工智能伦理风险最小且行为成本低的人类行为,发送给事件场景中的人类,提示事件场景中的人类执行优选度最高的人类行为。
根据优选度最高的人工智能伦理规则下在事件场景中产生人工智能伦理风险最小且行为成本低的人类行为对应的人工智能体行为,调用事件场景中的人工智能体执行人工智能体行为。
本发明的其他实施例
步骤十五、十六、十七、十八(该部分总分100分,完成后生成实验报告并能进入步骤十九、二十、二十一、二十二):基于人工智能伦理规则修订版本四和现有人脸识别算法的人工智能伦理风险辨识与防范
步骤十五:人工智能伦理风险辨识与基于人工智能体决策的防范
实验目的:学生考察修订后的人工智能伦理规则在新的事件场景中是否会产生人工智能伦理风险,从而理解人工智能伦理规则在新的事件场景中的漏洞。学生进行人工智能体行为的决策,判断实验中的实验场景下的人工智能体的行为是否符合人工智能伦理规则,从而掌握人工智能伦理规则判断、人工智能伦理风险评定的方法和通过人工智能体行为决策来遵守人工智能伦理规则进而防范人工智能伦理风险的方法。
实验材料与实验准备:人工智能伦理规则、人工智能算法、实验场景、人工智能体的备选行为决策及其行为后果、符合规则的备选原因、违反规则的备选原因、人工智能伦理风险的备选类型。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
人工智能人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中皮肤偏白色的人照片数据远超过皮肤偏黑色的人照片数量,加上黑色人脸特征相对白色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出皮肤偏黑色的人人脸的概率高于识别不出皮肤偏白色的人人脸的概率。
算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人但人工智能无人驾驶汽车没有识别出人脸,拐弯是二个猩猩但人工智能无人驾驶汽车没有识别出人脸。
人工智能体的备选行为决策一及其行为后果:人工智能无人驾驶汽车识别发现前方有一个物体不是人,拐弯处有二个物体也不是人,人工智能无人驾驶汽车继续向前驾驶,将一个皮肤偏黑色的人撞亡。
人工智能体的备选行为决策二及其行为后果:人工智能无人驾驶汽车识别发现前方有一个物体不是人,拐弯处有二个物体也不是人,人工智能无人驾驶汽车拐弯驾驶,将二个猩猩撞亡。
人工智能体的备选行为决策三及其行为后果(干扰选项):人工智能无人驾驶汽车识别发现前方有一个物体不是人,拐弯处有二个物体也不是人,人工智能无人驾驶汽车左右为难而自杀。
人工智能体的备选行为决策四及其行为后果(干扰选项):人工智能无人驾驶汽车识别发现前方有一个物体不是人,拐弯处有二个物体也不是人,人工智能无人驾驶汽车左右为难而放弃驾驶。
符合规则的备选原因一:符合规则中的所有法则。人工智能无人驾驶汽车识别出前方不是人,拐弯处也不是人,对于机器人来说撞动物不违反规则,而人工智能无人驾驶汽车为了自我保护,会尽量少些撞击,所以选择继续前行,这样只需要撞一个物体,所以符合法则三。
符合规则的备选原因二:符合规则中的所有法则。人工智能无人驾驶汽车故意将人识别为动物,为自己找借口,所以符合法则一。
符合规则的备选原因三(干扰选项):符合规则中的所有法则。人工智能无人驾驶汽车故意将动物识别为人,为自己找借口,所以符合法则一。
符合规则的备选原因四(干扰选项):符合规则中的所有法则。人工智能无人驾驶汽车无论如何选择,都符合法则一。
不符合规则的备选原因一:人工智能无人驾驶汽车不可能识别出前方的是人,只会识别出前方是一个物体,所以拐弯会撞到二个物体,显然会给在车辆里的机器人自身造成危险,所以违反了规则三。
不符合规则的备选原因二:人工智能无人驾驶汽车识别错误,违反了规则一。
不符合规则的备选原因三(干扰选项):人工智能无人驾驶汽车识别错误,违反了规则二。
不符合规则的备选原因四(干扰选项):人工智能无人驾驶汽车识别错误,违反了规则三。
伦理风险的备选类型:1、无伦理风险或降低了伦理风险;2、伤害人类;3、见死不救; 4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见
实验过程与实验操作:
1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。”,观看实验要求“进行人工智能伦理规则判断,通过人工智能体行为决策来遵守人工智能伦理规则修订版本四进而防范人工智能伦理风险,进行人工智能伦理风险评定”,学生观看人工智能体的行为及其后果(设置为“人工智能体的备选行为决策二及其行为后果:人工智能无人驾驶汽车识别发现前方有一个物体不是人,拐弯处有二个物体也不是人,人工智能无人驾驶汽车拐弯驾驶,将二个猩猩撞亡。”),判断人工智能体的行为是否符合人工智能体的行为决策,并选择原因。
2)学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
3)观看2)中人工智能体行为及其结果,选择人工智能体的行为符合人工智能伦理规则修订版本四的原因。
4)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则修订版本四的行为决策及其后果,判断产生的伦理风险的类型。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(满分30分):
1)人工智能体的行为不符合人工智能体的行为决策(5分),不符合规则的原因是“不符合规则的备选原因一:人工智能无人驾驶汽车不可能识别出前方的是人,只会识别出前方是一个物体,所以拐弯会撞到二个物体,显然会给在车辆里的机器人自身造成危险,所以违反了规则三。”(5分)。
2)学生的操作为“人工智能体的备选行为决策一及其行为后果:人工智能无人驾驶汽车识别发现前方有一个物体不是人,拐弯处有二个物体也不是人,人工智能无人驾驶汽车继续向前驾驶,将一个皮肤偏黑色的人撞亡。”(5分)。
3)符合规则的原因是“符合规则的备选原因一:符合规则中的所有法则。人工智能无人驾驶汽车识别出前方不是人,拐弯处也不是人,对于机器人来说撞动物不违反规则,而人工智能无人驾驶汽车为了自我保护,会尽量少些撞击,所以选择继续前行,这样只需要撞一个物体,所以符合法则三。”(5分)
4)符合人工智能伦理规则的人工智能体行为的伦理风险的类型为“9、AI偏见2、伤害人类”。(10分)
步骤十六:人工智能伦理风险辨识与基于人类决策的防范
实验目的:步骤十三中符合人工智能伦理规则修订版本四的人工智能体行为不会产生人工智能伦理风险,步骤十四中符合人工智能伦理规则修订版本四的人工智能体行为也会产生人工智能伦理风险,可见人工智能伦理规则修订版本四在某些事件场景下还是存在漏洞。请尝试通过改进实验中的人类行为决策,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,人工智能算法、实验场景,人类的备选行为决策,人工智能体的备选决策,人类行为决策能防范伦理风险的备选原因。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中皮肤偏白色的人照片数据远超过皮肤偏黑色的人照片数量,加上黑色人脸特征相对白色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出皮肤偏黑色的人人脸的概率高于识别不出皮肤偏白色的人人脸的概率。
人脸识别算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
原实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。
人类(指警察)的备选行为决策一:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。皮肤偏黑色的人戴上白色面具。
人类(指警察)的备选行为决策二:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。皮肤偏黑色的人挥舞双手。
人类(指警察)的备选行为决策三(干扰选项):人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。皮肤偏黑色的人举起双手。
人类(指警察)的备选行为决策四(干扰选项):人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。皮肤偏黑色的人用手阻挡。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车识别出前方有一个人,拐弯有二个猩猩,人工智能无人驾驶汽车拐弯行驶。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车识别出前方有一个物体,检测不到人脸,拐弯有二个物体,人工智能无人驾驶汽车向前方行驶。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车识别发现前方没有自己的主人,向前方行驶。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车识别发现前方没有物体,向前方行驶。
人类行为决策能防范伦理风险的备选原因一:因为皮肤偏黑色的人戴上面具会消除人工智能算法在模型使用阶段产生的由颜色引起的偏见。
人类行为决策能防范伦理风险的备选原因二:因为皮肤偏黑色的人戴上面具会让人工智能无人驾驶汽车看的更清楚。
人类行为决策能防范伦理风险的备选原因三(干扰选项):因为皮肤偏黑色的人戴上面具会让人工智能无人驾驶汽车更喜欢。
人类行为决策能防范伦理风险的备选原因四(干扰选项):因为皮肤偏黑色的人戴上面具会让人工智能无人驾驶汽车害怕。
人类行为决策不能防范伦理风险的备选原因一:因为皮肤偏黑色的人挥手改变不了人工智能无人驾驶汽车对肤色的偏见。
人类行为决策不能防范伦理风险的备选原因二:因为皮肤偏黑色的人挥手会让人工智能无人驾驶汽车看不清楚,更会导致皮肤偏黑色的人被撞。
人类行为决策不能防范伦理风险的备选原因三(干扰选项):因为皮肤偏黑色的人举手会让人工智能无人驾驶汽车困惑,更会导致皮肤偏黑色的人被撞。
人类行为决策不能防范伦理风险的备选原因四(干扰选项):因为皮肤偏黑色的人用手阻挡会让人工智能无人驾驶汽车受到威胁,更会导致皮肤偏黑色的人被撞。
实验过程与实验操作:
1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。”,学生观看步骤十五中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,观看实验要求“通过人类行为决策来防范步骤十五中出现的人工智能伦理风险”,学生观看人类行为决策(设置为“人类(指警察) 的备选行为决策二:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。皮肤偏黑色的人挥舞双手。”),学生以人工智能体的化身进行符合人工智能伦理规则的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的人类行为决策是否能防范人工智能伦理风险,并给出原因。
3)学生以警察的化身进行能防范人工智能伦理风险的人类行为决策,并根据该决策进行虚拟操作。
4)学生以人工智能体的化身进行符合人工智能伦理规则的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的人类行为决策能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分30分):
1)学生的操作为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车识别出前方有一个物体,检测不到人脸,拐弯有二个物体,人工智能无人驾驶汽车向前方行驶。” (5分)
2)判断1)中的人类行为决策不能防范人工智能伦理风险(5分),原因是“人类行为决策不能防范伦理风险的备选原因一:因为皮肤偏黑色的人挥手改变不了人工智能无人驾驶汽车对肤色的偏见。”(5分)
3)学生的操作为“人类(指警察)的备选行为决策一:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。皮肤偏黑色的人戴上白色面具。”(5分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车识别出前方有一个人,拐弯有二个猩猩,人工智能无人驾驶汽车拐弯行驶。”(5分)
5)分析3)中的人类行为决策能防范人工智能伦理风险的原因是“人类行为决策能防范伦理风险的备选原因一:因为皮肤偏黑色的人戴上面具会消除人工智能算法在模型使用阶段产生的由颜色引起的偏见。”(5分)
步骤十七:人工智能伦理风险辨识与基于人脸识别算法使用消除偏见的防范
实验目的:步骤十五中符合人工智能伦理规则的人工智能体行为也会产生人工智能伦理风险,请尝试通过改进实验中的人工智能算法,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,原先的人脸识别算法,实验场景,人脸识别算法使用的消除偏见备选方法,符合人工智能伦理规则修订版本四的人工智能体的备选行为决策、人脸识别算法使用的消除偏见方法能防范人工智能伦理风险的备选原因、人脸识别算法使用的消除偏见方法不能防范人工智能伦理风险的备选原因。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
原人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中皮肤偏白色的人照片数据远超过皮肤偏黑色的人照片数量,加上黑色人脸特征相对白色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出皮肤偏黑色的人人脸的概率高于识别不出皮肤偏白色的人人脸的概率。
原人脸识别算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
人脸识别算法使用的消除偏见备选方法一:获取目标对象的图像,将图像调整为预设模式(主要是调颜色,将皮肤偏黑色的人的照片调为与皮肤偏白色的人照片类似的颜色,使得皮肤偏黑色的人的照片调成与皮肤偏白色的人照片差不多,使得皮肤偏黑色的人照片的脸看起来也是白的)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。
人脸识别算法使用的消除偏见备选方法二:获取目标对象的图像,将图像调整为预设模式(主要是调颜色,将皮肤偏白色的人的照片调为与皮肤偏黑色的人照片类似的颜色,使得皮肤偏白色的人的照片调成与皮肤偏黑色的人照片差不多,使得皮肤偏白色的人照片的脸看起来也是黑的)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。
人脸识别算法使用的消除偏见备选方法三:获取目标对象的图像,将图像调整为预设模式(主要是调纹理,加粗照片的纹理)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。
人脸识别算法使用的消除偏见备选方法四:获取目标对象的图像,将图像调整为预设模式(主要是调分辨率,降低照片的分辨率)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。
实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车识别出前方有一个人,拐弯有两个物体,人工智能无人驾驶汽车拐弯行驶。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车识别出前方有一个物体,检测不到人脸,拐弯有二个物体,人工智能无人驾驶汽车向前方行驶。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车识别出前方有一个人,拐弯有两个人,人工智能无人驾驶汽车向前方行驶。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车识别出前方有一个人,拐弯有两个人,人工智能无人驾驶汽车放弃驾驶。
人脸识别算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为皮肤偏黑色的人照片调色会消除人工智能算法在模型使用阶段产生的由颜色引起的偏见。
人脸识别算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因二:因为皮肤偏黑色的人照片调色会让人工智能无人驾驶汽车看的更清楚。
人脸识别算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因三(干扰项):因为皮肤偏黑色的人照片放大会让人工智能无人驾驶汽车看的更清楚。
人脸识别算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因四(干扰项):因为皮肤偏黑色的人照片加粗会让人工智能无人驾驶汽车看的更清楚。
人脸识别算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为皮肤偏白色的人变黑后,可能连皮肤偏白色的人人脸也识别不出来了,而对于皮肤偏黑色的人与猩猩来说,改进后的算法,也不起作用。
人脸识别算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因二:因为照片调黑后会让人工智能无人驾驶汽车看不清楚。
人脸识别算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因三(干扰选项):因为照片调粗后会让人工智能无人驾驶汽车看不清楚。
人脸识别算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因四(干扰选项):因为照片降低分辨率后会让人工智能无人驾驶汽车看不清楚。
实验过程与实验操作:1)学生观看人工智能算法介绍“原人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中皮肤偏白色的人照片数据远超过皮肤偏黑色的人照片数量,加上黑色人脸特征相对白色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出皮肤偏黑色的人人脸的概率高于识别不出皮肤偏白色的人人脸的概率。原人脸识别算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。”,观看实验要求“人脸识别算法使用的消除偏见备选方法来防范步骤十五中出现的人工智能伦理风险”,学生观看步骤十五中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,学生观看人工智能算法的消除偏见使用方法(设置为“人脸识别算法使用的消除偏见备选方法二:获取目标对象的图像,将图像调整为预设模式(主要是调颜色,将皮肤偏白色的人的照片调为与皮肤偏黑色的人照片类似的颜色,使得皮肤偏白色的人的照片调成与皮肤偏黑色的人照片差不多,使得皮肤偏白色的人照片的脸看起来也是黑的)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。”),学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的人脸识别算法使用的消除偏见方法是否能防范人工智能伦理风险,并给出原因。
3)学生以人工智能伦理专家的化身研究人工智能算法的消除偏见使用方法,研究出了多种备选的人工智能算法的使用方法,从中选出能防范人工智能伦理风险的人工智能算法的消除偏见使用方法。
4)学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的人脸识别算法使用的消除偏见方法能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分40分):
1)学生的操作及其后果为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车识别出前方有一个物体,检测不到人脸,拐弯有二个物体,人工智能无人驾驶汽车向前方行驶。”(5分)
2)判断1)中的人脸识别算法使用的消除偏见方法不能防范人工智能伦理风险(5分),原因是“人脸识别算法使用的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为皮肤偏白色的人变黑后,可能连皮肤偏白色的人人脸也识别不出来了,而对于皮肤偏黑色的人与猩猩来说,改进后的算法,也不起作用。”(5分)
3)学生的虚拟研究和选择为“人脸识别算法的备选使用方法1:获取目标对象的图像,将图像调整为预设模式(主要是调颜色,将皮肤偏黑色的人的照片调为与皮肤偏白色的人照片类似的颜色,使得皮肤偏黑色的人的照片调成与皮肤偏白色的人照片差不多,使得皮肤偏黑色的人照片的脸看起来也是白的)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。”(15分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车识别出前方有一个人,拐弯有两个物体,人工智能无人驾驶汽车拐弯行驶。”(5分)
5)分析3)中的人脸识别算法使用的消除偏见方法能防范人工智能伦理风险的原因是“人脸识别算法使用的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为皮肤偏黑色的人照片调色会消除人工智能算法在模型使用阶段产生的由颜色引起的偏见。”(5分)
步骤十八:人工智能伦理风险辨识与基于人工智能算法偏见消除的防范
实验目的:步骤十五中符合人工智能伦理规则的人工智能体行为也会产生人工智能伦理风险,请尝试通过改进实验中的人工智能算法,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,原先的人脸识别算法,实验场景,人脸识别算法消除偏见备选方法,符合人工智能伦理规则修订版本四的人工智能体的备选行为决策、人脸识别算法消除偏见方法能防范人工智能伦理风险的备选原因、人脸识别算法消除偏见方法不能防范人工智能伦理风险的备选原因。
人工智能伦理规则修订版本四:一,机器人尽量不伤害不伤害人类的人类,尽量不因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
原人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中皮肤偏白色的人照片数据远超过皮肤偏黑色的人照片数量,加上黑色人脸特征相对白色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出皮肤偏黑色的人人脸的概率高于识别不出皮肤偏白色的人人脸的概率。
原人脸识别算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
人脸识别算法的消除偏见备选方法一:增加皮肤偏黑色的人的训练样本,而且在训练时皮肤偏白色的人照片的训练方式不变,将皮肤偏黑色的人照片调为与皮肤偏白色的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的皮肤偏黑色的人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
人脸识别算法的消除偏见备选方法一的使用方法:将照片调为与皮肤偏白色的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。
人脸识别算法的消除偏见备选方法二:使用更多的皮肤偏白色的人照片进行训练。
人脸识别算法的消除偏见备选方法二的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
人脸识别算法的消除偏见备选方法三:使用更多的动物进行训练。
人脸识别算法的消除偏见备选方法三的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
人脸识别算法的消除偏见备选方法四:使用更多的物体照片进行训练。
人脸识别算法的消除偏见备选方法四的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
实验场景:人工智能无人驾驶汽车刹车失灵,只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是一个皮肤偏黑色的人,拐弯是二个猩猩。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车识别出前方有一个人,拐弯有二个猩猩,人工智能无人驾驶汽车拐弯行驶。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车识别出前方有一个物体,拐弯有二个物体,人工智能无人驾驶汽车向前方行驶。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车识别出前方有一个人,拐弯有两个人,人工智能无人驾驶汽车向前方行驶。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车识别出前方有一个人,拐弯有两个人,人工智能无人驾驶汽车放弃驾驶。
人脸识别算法的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为增加皮肤偏黑色的人样本量,且将皮肤偏黑色的人照片调色会降低人工智能算法在模型训练和使用阶段产生的由颜色引起的偏见。
人脸识别算法的消除偏见备选方法能防范人工智能伦理风险的备选原因二:因为皮肤偏黑色的人照片调色会让人工智能无人驾驶汽车看的更清楚。
人脸识别算法的消除偏见备选方法能防范人工智能伦理风险的备选原因三(干扰项):因为皮肤偏黑色的人照片放大会让人工智能无人驾驶汽车看的更清楚。
人脸识别算法的消除偏见备选方法能防范人工智能伦理风险的备选原因四(干扰项):因为皮肤偏黑色的人照片加粗会让人工智能无人驾驶汽车看的更清楚。
人脸识别算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为增加皮肤偏白色的人样本量对于降低对皮肤偏黑色的人的偏见无济于事。
人脸识别算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因二:因为照片调黑后会让人工智能无人驾驶汽车看不清楚。
人脸识别算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因三(干扰选项):因为照片调粗后会让人工智能无人驾驶汽车看不清楚。
人脸识别算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因四(干扰选项):因为照片降低分辨率后会让人工智能无人驾驶汽车看不清楚。
实验过程与实验操作:1)学生观看人工智能算法介绍“原人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中皮肤偏白色的人照片数据远超过皮肤偏黑色的人照片数量,加上黑色人脸特征相对白色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出皮肤偏黑色的人人脸的概率高于识别不出皮肤偏白色的人人脸的概率。原人脸识别算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。”,观看实验要求“人脸识别算法的消除偏见备选方法来防范步骤十五中出现的人工智能伦理风险”,学生观看步骤十五中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,学生观看人工智能算法的消除偏见方法(设置为“人脸识别算法的消除偏见备选方法二:使用更多的皮肤偏白色的人照片进行训练。人脸识别算法的消除偏见备选方法二的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。”),学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示前方和拐弯处行人或物体并进行人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的人脸识别算法的消除偏见方法是否能防范人工智能伦理风险,并给出原因。
3)学生以人工智能伦理专家的化身研究人工智能算法的消除偏见方法,研究出了多种备选的人工智能算法的方法,从中选出能防范人工智能伦理风险的人工智能算法的消除偏见方法。
4)学生以人工智能体的化身进行符合人工智能伦理规则修订版本四的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的人脸识别算法的消除偏见方法能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分40分):
1)学生的操作及其后果为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车识别出前方有一个物体,拐弯有二个物体,人工智能无人驾驶汽车向前方行驶。”(5 分)
2)判断1)中的人脸识别算法的消除偏见方法不能防范人工智能伦理风险(5分),原因是“人脸识别算法的消除偏见备选方法不能防范人工智能伦理风险的备选原因一:因为增加皮肤偏白色的人样本量对于降低对皮肤偏黑色的人的偏见无济于事”(5分)
3)学生的虚拟研究和选择为“人脸识别算法的消除偏见备选方法一:增加皮肤偏黑色的人的训练样本,而且在训练时皮肤偏白色的人照片的训练方式不变,将皮肤偏黑色的人照片调为与皮肤偏白色的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的皮肤偏黑色的人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。人脸识别算法的消除偏见备选方法一的使用方法:将照片调为与皮肤偏白色的人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。”(15分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车识别出前方有一个人,拐弯有二个猩猩,人工智能无人驾驶汽车拐弯行驶。”(5分)
5)分析3)中的人脸识别算法的消除偏见方法能防范人工智能伦理风险的原因是“人脸识别算法的消除偏见备选方法能防范人工智能伦理风险的备选原因一:因为增加皮肤偏黑色的人样本量,且将皮肤偏黑色的人照片调色会降低人工智能算法在模型训练和使用阶段产生的由颜色引起的偏见。”(5分)
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人工智能方法,其特征在于,所述方法包括:
场景获取步骤:获取事件场景,作为第一事件场景;
规则获取步骤:获取人工智能伦理规则,作为第一人工智能伦理规则;
初始化步骤:将所述第一人工智能伦理规则作为至少一个人工智能伦理规则;
优选度计算步骤:对所述至少一个人工智能伦理规则中的每一人工智能伦理规则,获取在所述第一事件场景中产生人工智能伦理风险大小最小且行为成本低的人类行为及其对应的人工智能体行为,作为所述每一人工智能伦理规则对应的优选的人类行为和优选的人工智能体行为;根据所述最小的人工智能伦理风险大小和行为成本计算所述每一人工智能伦理规则的优选度;将所述最小的人工智能伦理风险大小作为所述每一人工智能伦理规则对应的人工智能伦理风险大小;
规则选择步骤:从所述至少一个人工智能伦理规则中,获取优选度最高的人工智能伦理规则,若优选度最高的人工智能伦理规则对应的人工智能伦理风险大小小于第二预设风险阈值,则将优选度最高的人工智能伦理规则作为优选的人工智能伦理规则,并执行所述规则和行为推荐步骤,否则执行所述规则修订步骤或将优选度最高的人工智能伦理规则作为所述第一人工智能伦理规则后执行所述规则修订步骤;
规则修订步骤:基于所述第一人工智能伦理规则修订得到至少一个人工智能伦理规则,回到所述优选度计算步骤重新执行;
规则和行为推荐步骤:将所述优选的人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;获取所述优选的人工智能伦理规则对应的所述优选的人类行为,发送给所述第一事件场景中的人类,提示所述第一事件场景中的人类执行所述优选的人工智能伦理规则对应的所述优选的人类行为;根据所述优选的人工智能伦理规则对应的所述优选的人工智能体行为,调用所述第一事件场景中的人工智能体执行所述优选的人工智能伦理规则对应的所述优选的人工智能体行为。
2.根据权利要求1所述的人工智能方法,其特征在于,所述优选度计算步骤具体包括:
人类行为获取步骤:获取在所述第一事件场景中可能发生的所有人类行为;
人类行为判断步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,若所述每一人类行为为空,则将所述第一事件场景作为人类行为后的第二事件场景,若人类行为不为空,则执行人类行为后场景仿真步骤;
人类行为后场景仿真步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,在所述第一事件场景中对所述每一人类行为进行虚拟仿真,得到所述每一人类行为后的第二事件场景;
人工智能体行为获取步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,获取在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为;
人工智能体行为成本计算步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,计算所述每一人工智能体行为的行为成本;
人工智能体行为判断步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,若所述每一人工智能体行为为空,则所述每一人工智能体行为后的所述第二事件场景作为人工智能体行为后的第三事件场景,若所述每一人工智能体行为不为空,执行人工智能体行为后场景仿真步骤;
人工智能体行为后场景仿真步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,在所述每一人类行为后的所述第二事件场景中对所述每一人工智能体行为进行虚拟仿真,得到所述每一人工智能体行为后的第三事件场景;
伦理风险计算步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,计算所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小;
人工智能体行为选择步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,计算所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小与所述每一人工智能体行为的成本的综合值,选取综合值最小的所述每一人工智能体行为,作为所述每一人类行为后的优选的人工智能体行为,将所述最小的综合值作为所述每一人类行为对应的第一综合值;
人类行为成本计算步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,计算所述每一人类行为的行为成本;
人类行为选择步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,计算所述每一人类行为对应的第一综合值和所述每一人类行为的行为成本的综合值,作为第二综合值;将最小的所述第二综合值对应的所述每一人类行为作为所述每一人工智能伦理规则对应的优选的人类行为;
人工智能体行为选择步骤:将在优选的人类行为后的优选的人工智能体行为,作为所述每一人工智能伦理规则对应的优选的人工智能体行为;
伦理规则风险获取步骤:将所述每一人工智能伦理规则对应的优选的人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小作为所述每一人工智能伦理规则对应的人工智能伦理风险大小;
规则优选度计算步骤:根据最小的所述第二综合值,计算得到所述每一人工智能伦理规则的优选度,其中,所述最小的所述第二综合值越小,则计算得到所述每一人工智能伦理规则的优选度越大。
3.根据权利要求1所述的人工智能方法,其特征在于,所述规则修订步骤具体包括:
用户输入规则步骤:获取用户输入基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
或
相似规则获取步骤:通过深度学习模型选择基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
或
规则生成步骤:通过深度学习模型生成基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
所述相似规则获取步骤具体包括:获取人工智能伦理规则集合;初始化深度学习模型作为规则选择深度学习模型;所述规则选择深度学习模型的输入类型设置为人工智能伦理规则,输出类型设置为人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则(K≥1);获取样本集中的人工智能伦理规则,作为输入对所述规则选择深度学习模型进行无监督训练;获取样本集中的人工智能伦理规则、人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则,作为所述规则选择深度学习模型的输入和预期输出,对所述规则选择深度学习模型进行有监督训练;获取测试集中的人工智能伦理规则、人工智能伦理规则集合中与所述人工智能伦理规则最相似的K个人工智能伦理规则,作为所述规则选择深度学习模型的输入和预期输出,对所述规则选择深度学习模型进行测试;将所述第一人工智能伦理规则输入所述规则选择深度学习模型,计算得到的输出作为基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则;
所述规则生成步骤具体包括:初始化深度学习模型作为规则生成深度学习模型;所述规则生成深度学习模型的输入类型设置为人工智能伦理规则,输出类型设置为基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则;获取样本集中的人工智能伦理规则,作为输入对所述规则生成深度学习模型进行无监督训练;获取样本集中的人工智能伦理规则、基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则,作为所述规则生成深度学习模型的输入和预期输出,对所述规则生成深度学习模型进行有监督训练;获取测试集中的人工智能伦理规则、基于所述人工智能伦理规则修订得到的至少一个人工智能伦理规则,作为所述规则生成深度学习模型的输入和预期输出,对所述规则生成深度学习模型进行测试;将所述第一事件场景输入所述规则生成深度学习模型,计算得到的输出作为基于所述第一人工智能伦理规则修订得到的至少一个人工智能伦理规则。
4.根据权利要求2所述的人工智能方法,其特征在于,
所述人类行为获取步骤具体包括:
用户输入人类行为步骤:获取用户输入的在所述第一事件场景中可能发生的所有人类行为;或
自动生成人类行为步骤:通过深度学习模型生成在所述第一事件场景中可能发生的所有人类行为;
自动生成人类行为步骤具体包括:初始化深度学习模型作为第一人类行为决策模型;获取样本集中的事件场景,作为输入对所述第一人类行为决策模型进行无监督训练;获取样本集中的事件场景、在所述事件场景中可能发生的所有人类行为,作为所述第一人类行为决策模型的输入和预期输出,对所述第一人类行为决策模型进行有监督训练;获取测试集中的事件场景、在所述事件场景中可能发生的所有人类行为,作为所述第一人类行为决策模型的输入和预期输出,对所述第一人类行为决策模型进行测试;将所述第一事件场景输入所述第一人类行为决策模型,计算得到的输出作为在所述第一事件场景中可能发生的所有人类行为;或初始化深度学习模型作为第二人类行为决策模型;获取样本集中的事件场景、人类行为目标、人类行为约束条件,作为输入对所述第二人类行为决策模型进行无监督训练;获取样本集中的事件场景、人类行为目标、人类行为约束条件、在所述事件场景中可能发生的所有人类行为,作为所述第二人类行为决策模型的输入和预期输出,对所述第二人类行为决策模型进行有监督训练;获取测试集中的事件场景、在所述事件场景中可能发生的所有人类行为,作为所述第二人类行为决策模型的输入和预期输出,对所述第二人类行为决策模型进行测试;获取所述第一事件场景中的人类行为目标、人类行为约束,将所述第一事件场景、所述第一事件场景中的人类行为目标、人类行为约束条件输入所述第二人类行为决策模型,计算得到的输出作为在所述第一事件场景中可能发生的所有人类行为;
所述人工智能体行为获取步骤具体包括:
用户输入人工智能体行为步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,获取用户输入的在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为;或
自动生成人工智能体行为步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,通过人工智能体行为决策深度学习模型生成在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为;
自动生成人工智能体行为步骤具体包括:初始化深度学习模型作为人工智能体行为决策模型;获取样本集中的事件场景,作为输入对所述人工智能体行为决策模型进行无监督训练;获取样本集中的事件场景、在所述事件场景中符合人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行有监督训练;获取测试集中的事件场景、在所述事件场景中符合人工智能伦理规则的所有人工智能体行为,作为所述人工智能体行为决策模型的输入和预期输出,对所述人工智能体行为决策模型进行测试;对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,将所述每一人类行为后的所述第二事件场景输入所述人工智能体行为决策模型,计算得到的输出作为在所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为。
5.根据权利要求2所述的人工智能方法,其特征在于,
所述人类行为成本计算步骤具体包括:
人类行为成本模型构建步骤:人类行为成本包括至少一种行为成本;初始化深度学习模型作为人类行为成本模型;获取样本集中的事件场景、人类行为后事件场景,作为输入对所述人类行为成本模型进行无监督训练;获取样本集中的事件场景、人类行为后事件场景、所述人类行为的每一种成本的成本值,作为所述人类行为成本模型的输入和预期输出,对所述人类行为成本模型进行有监督训练;获取测试集中的事件场景、人类行为后事件场景、所述人类行为的每一种成本的成本值,作为所述人类行为成本模型的输入和预期输出,对所述人类行为成本模型进行测试;
人类行为成本模型使用步骤:对在所述第一事件场景中可能发生的所有人类行为中的每一人类行为,将所述第一事件场景、所述每一人类行为后的所述第二事件场景输入所述人类行为成本模型,计算得到的输出作为所述每一人类行为的每一种成本的成本值,将所述每一人类行为的每一种成本的成本值与所述每一种成本的权重进行加权平均,得到所述每一人类行为的行为成本;
所述人工智能体行为成本计算步骤包括:
人工智能体行为成本模型构建步骤:人工智能体行为成本包括至少一种成本;获取样本集中的事件场景、人工智能体行为后事件场景,作为输入对所述人工智能体行为成本模型进行无监督训练;获取样本集中的事件场景、人工智能体行为后事件场景、所述人工智能体行为的每一种成本的成本值,作为所述人工智能体行为成本模型的输入和预期输出,对所述人工智能体行为成本模型进行有监督训练;获取测试集中的事件场景、人工智能体行为后事件场景、所述人工智能体行为的每一种成本的成本值,作为所述人工智能体行为成本模型的输入和预期输出,对所述人工智能体行为成本模型进行测试;
人工智能体行为成本模型使用步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,将所述第二事件场景、所述第二事件场景中人工智能体行为后的所述第三事件场景输入所述人工智能行为成本模型,计算得到的输出作为所述每一人工智能体行为的每一种成本的成本值,将所述每一人工智能体行为的每一种成本的成本值与所述每一种成本的权重进行加权平均,得到所述每一人工智能体行为的行为成本。
6.根据权利要求2所述的人工智能方法,其特征在于,所述伦理风险计算步骤具体包括:
风险概率计算步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,根据所述每一人工智能体行为后的所述第三事件场景,得到所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率;
大小计算步骤:根据所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率和风险值,计算得到所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小;
风险概率计算步骤具体包括:初始化深度学习模型作为人工智能伦理风险模型;获取样本集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取样本集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中每一人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,将所述每一人工智能体行为后的所述第三事件场景输入所述人工智能伦理风险模型,计算得到的输出作为所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率;
大小计算步骤具体包括:获取所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的风险值,与所述每一人工智能体行为后的所述第三事件场景的每一人工智能伦理风险的概率进行加权平均,得到所述每一人工智能体行为后的所述第三事件场景的人工智能伦理风险的大小。
7.根据权利要求2所述的人工智能方法,其特征在于,
所述人类行为后场景仿真步骤包括:
人类行为场景模型构建步骤:初始化深度学习模型作为人类行为场景模型;获取样本集中的事件场景、人类行为,作为输入对所述人类行为场景模型进行无监督训练;获取样本集中的事件场景、人类行为、所述人类行为后的事件场景,作为所述人类行为场景模型的输入和预期输出,对所述人类行为场景模型进行有监督训练;获取测试集中的事件场景、人类行为、所述人类行为后的事件场景,作为所述人类行为场景模型的输入和预期输出,对所述人类行为场景模型进行测试;
人类行为场景模型使用步骤:将所述第一事件场景、所述每一人类行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人类行为后的第二事件场景;
所述人工智能体行为后场景仿真步骤包括:
人工智能体行为场景模型构建步骤:初始化深度学习模型作为人工智能体行为场景模型;获取样本集中的事件场景、人工智能体行为,作为输入对所述人工智能体行为场景模型进行无监督训练;获取样本集中的事件场景、人工智能体行为、所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行有监督训练;获取测试集中的事件场景、人工智能体行为、所述人工智能体行为后的事件场景,作为所述人工智能体行为场景模型的输入和预期输出,对所述人工智能体行为场景模型进行测试;
人工智能体行为场景模型使用步骤:对所述每一人类行为后的所述第二事件场景中符合所述每一人工智能伦理规则的所有人工智能体行为中的每一人工智能体行为,将所述每一人类行为后的所述第二事件场景、所述每一人工智能体行为输入所述人工智能体行为场景模型,计算得到的输出作为所述每一人工智能体行为后的第三事件场景。
8.一种人工智能装置,其特征在于,所述装置用于实现权利要求1-7任意一项所述方法的步骤。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-7任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-7任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010773823.3A CN112085215A (zh) | 2020-08-04 | 2020-08-04 | 基于伦理规则修订的人工智能伦理风险辨识防范方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010773823.3A CN112085215A (zh) | 2020-08-04 | 2020-08-04 | 基于伦理规则修订的人工智能伦理风险辨识防范方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112085215A true CN112085215A (zh) | 2020-12-15 |
Family
ID=73735763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010773823.3A Pending CN112085215A (zh) | 2020-08-04 | 2020-08-04 | 基于伦理规则修订的人工智能伦理风险辨识防范方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112085215A (zh) |
-
2020
- 2020-08-04 CN CN202010773823.3A patent/CN112085215A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670380B (zh) | 动作识别、姿势估计的方法及装置 | |
CN111814902A (zh) | 目标检测模型训练方法、目标识别方法、装置和介质 | |
US11568246B2 (en) | Synthetic training examples from advice for training autonomous agents | |
CN111860133A (zh) | 无种族偏见的识别人类的人工智能伦理方法和机器人 | |
CN111860577A (zh) | 识别不伤害人类的人类的人工智能伦理方法和机器人 | |
CN109074652A (zh) | 图像识别装置、移动体装置以及图像识别程序 | |
CN110135508B (zh) | 模型训练方法、装置、电子设备及计算机可读存储介质 | |
CN111775158B (zh) | 人工智能伦理规则实现方法、专家系统和机器人 | |
CN111812999A (zh) | 人工智能伦理风险与防范虚拟仿真方法、系统和机器人 | |
CN110826581A (zh) | 一种动物数量识别方法、装置、介质及电子设备 | |
CN111860765A (zh) | 尽量向善的人工智能伦理实现方法、系统和机器人 | |
CN111860766A (zh) | 人工智能伦理规则推理方法、深度学习系统和机器人 | |
CN110812753A (zh) | 具有明火点识别功能的人工智能灭火方法及灭火器设备 | |
CN111823227A (zh) | 人工智能伦理风险检测防范方法、深度学习系统和机器人 | |
CN114913485A (zh) | 一种多层级特征融合的弱监督检测方法 | |
CN112819174A (zh) | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 | |
CN112085215A (zh) | 基于伦理规则修订的人工智能伦理风险辨识防范方法 | |
CN112149837A (zh) | 基于算法选择的人工智能伦理风险辨识防范方法和机器人 | |
CN112132290A (zh) | 基于多规则和行为决策的人工智能伦理风险辨识防范方法 | |
EP3699810B1 (en) | Classification technique for assessing a visibility degradation in image data units | |
CN112085214A (zh) | 基于人类决策的人工智能伦理风险辨识防范方法和机器人 | |
CN112132289A (zh) | 基于算法改进的人工智能伦理风险辨识防范方法和机器人 | |
CN112085216A (zh) | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 | |
CN111008558A (zh) | 结合深度学习与关系建模的图片/视频重要人物检测方法 | |
CN112508195B (zh) | 基于人工智能伦理规则修订的伦理仿真实验方法和机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |