CN112085209A - 基于人工智能伦理备选规则的人工智能伦理风险防范方法 - Google Patents
基于人工智能伦理备选规则的人工智能伦理风险防范方法 Download PDFInfo
- Publication number
- CN112085209A CN112085209A CN202010772753.XA CN202010772753A CN112085209A CN 112085209 A CN112085209 A CN 112085209A CN 202010772753 A CN202010772753 A CN 202010772753A CN 112085209 A CN112085209 A CN 112085209A
- Authority
- CN
- China
- Prior art keywords
- artificial intelligence
- rule
- intelligence ethical
- event scene
- risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
基于人工智能伦理备选规则的人工智能伦理风险防范方法,包括:多规则获取步骤;风险类型获取步骤;事件场景获取步骤;合规场景步骤;风险计算步骤;规则选择步骤;行为步骤;检测步骤。上述方法、系统和机器人,采用多个备选人工智能伦理规则,从而可以根据事件场景选择能使得事件场景产生人工智能伦理风险最小的人工智能伦理规则,因为有多个备选的人工智能伦理规则,所以产生的人工智能伦理风险必然小于单一人工智能伦理规则情况下事件场景会产生的人工智能伦理风险,能够极大地提高人工智能伦理风险的辨识和防范能力,同时,当人类或人工智能体执行行为失败时,又可以重新选择人工智能伦理风险小的其他人工智能伦理规则,从而提高了人工智能伦理风险的辨识和防范的灵活性。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于人工智能伦理备选规则的人工智能伦理风险防范方法。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能机器人或装置或系统一般只考虑一种人工智能伦理规则。现有的人工智能伦理的思路是只使用一种人工智能伦理规则来用到所有事件场景。但这样完美的人工智能伦理规则几乎是找不到,在设计时以为是完美的人工智能伦理规则,总会在特殊的事件场景中发现漏洞,进而产生人工智能伦理风险。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供基于人工智能伦理备选规则的人工智能伦理风险防范方法,以解决现有技术中人工智能伦理规则单一,容易产生漏洞的技术缺陷,在多种备选的人工智能伦理规则中根据事件场景选取最小人工智能伦理风险的人工智能伦理规则来降低和防范人工智能伦理风险。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
多规则获取步骤:获取多个备选的人工智能伦理规则;
风险类型获取步骤:获取多类人工智能伦理风险;
事件场景获取步骤:获取事件场景,作为第一事件场景;
合规场景步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,根据所述第一事件场景,生成符合所述每一人工智能伦理规则的第二事件场景;
风险计算步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,获取符合所述每一人工智能伦理规则的所述第二事件场景中存在的人工智能伦理风险的大小;将所述每一人工智能伦理规则及其人工智能伦理风险的大小加入规则风险集合;
规则选择步骤:获取最小人工智能伦理风险对应的所述每一人工智能伦理规则;
行为步骤:判断所述第一事件场景是否符合所述最小人工智能伦理风险对应的所述每一人工智能伦理规则:若符合,则将所述每一人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;若不符合,则根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为,将所述需要执行的人类行为发送给所述第一事件场景中的人类,将所述需要执行的人工智能体行为发送给所述第一事件场景中的人工智能体或调用所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为,并将所述每一人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;
检测步骤:检测当所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为和人类执行所述需要执行的人类行为是否成功:若失败,获取比所述最小人工智能伦理风险大的最小人工智能伦理风险作为所述规则选择步骤中的最小人工智能伦理风险,回到所述规则选择步骤重新执行。获取比所述最小人工智能伦理风险大的最小人工智能伦理风险作为所述规则选择步骤中的最小人工智能伦理风险的具体步骤:将所述最小人工智能伦理风险及其对应的所述每一人工智能伦理规则从所述伦理风险集合中删除,从所述伦理风险集合中选取最小人工智能伦理风险作为所述规则选择步骤中的最小人工智能伦理风险。
在其中一个优选实施例中,所述多规则获取步骤具体包括:
多规则输入步骤:获取用户在虚拟仿真环境中输入的多个人工智能伦理规则;
或
多规则合成步骤:获取人工智能伦理规则中必选的法则和可选的法则,将必选的法则和可选的法则进行组合,得到多个备选的人工智能伦理规则。
在其中一个优选实施例中,所述合规场景步骤具体包括:
规则判断步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,判断所述第一事件场景是否符合所述每一人工智能伦理规则;
符合时步骤:若所述第一事件场景符合所述每一人工智能伦理规则,则将所述第一事件场景作为符合所述每一人工智能伦理规则的事件场景;
不符合时步骤:若所述第一事件场景不符合所述每一人工智能伦理规则,则根据所述每一人工智能伦理规则通过虚拟仿真改变所述第一事件场景中的人工智能体行为或人类行为,使得虚拟仿真改变后的所述第一事件场景符合备选的所述每一人工智能伦理规则,然后将虚拟仿真改变后的事件场景作为符合所述每一人工智能伦理规则的第二事件场景。
在其中一个优选实施例中,所述风险计算步骤具体包括:
风险概率计算步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,计算符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率;
风险大小计算步骤:获取符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的风险值,将符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率与风险值进行加权平均得到符合所述每一人工智能伦理规则的所述第二事件场景中存在的人工智能伦理风险的大小。
在其中一个优选实施例中,所述行为步骤中的根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为的步骤包括:
行为预测深度学习模型构建步骤:初始化行为预测深度学习模型的输入格式为事件场景、符合备选的人工智能伦理规则的事件场景,输出格式为事件场景中的人工智能体行为、人类行为;获取事件场景、符合备选的人工智能伦理规则的事件场景的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景作为行为预测深度学习模型的输入,对行为预测深度学习模型进行无监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行有监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的测试样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行测试;
行为预测深度学习模型使用步骤:将所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景输入行为预测深度学习模型,计算得到行为预测深度学习模型的输出作为需要执行的人工智能体行为、人类行为。
在其中一个优选实施例中,所述规则判断步骤具体包括:
人工智能规则判断模型构建步骤:初始化深度学习模型作为人工智能规则判断模型;获取训练数据集中的事件场景、人工智能伦理规则,作为输入对所述人工智能规则判断模型进行无监督训练;获取训练数据集中的事件场景、人工智能伦理规则、所述事件场景是否符合所述人工智能伦理规则,作为所述人工智能伦理规则判断的输入和预期输出,对所述人工智能规则判断模型进行有监督训练;获取测试集中的事件场景、人工智能伦理规则、所述事件场景是否符合所述人工智能伦理规则,作为所述人工智能规则判断模型的输入和预期输出,对所述人工智能规则判断模型进行测试;
人工智能规则判断模型使用步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,将所述第一事件场景、所述每一人工智能伦理规则输入所述人工智能规则判断模型,通过计算得到的输出判断所述第一事件场景是否符合所述每一人工智能伦理规则。
在其中一个优选实施例中,所述风险概率计算步骤具体包括:
人工智能伦理风险模型构建步骤:初始化深度学习模型作为人工智能伦理风险模型;获取训练数据集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取训练数据集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;
人工智能伦理风险模型使用步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,将符合所述每一人工智能伦理规则的所述第二事件场景输入所述人工智能伦理风险模型,计算得到的输出作为符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
多规则获取模块:获取多个备选的人工智能伦理规则;
风险类型获取模块:获取多类人工智能伦理风险;
事件场景获取模块:获取事件场景,作为第一事件场景;
合规场景模块:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,根据所述第一事件场景,生成符合所述每一人工智能伦理规则的第二事件场景;
风险计算模块:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,获取符合所述每一人工智能伦理规则的所述第二事件场景中存在的人工智能伦理风险的大小;
规则选择模块:获取最小人工智能伦理风险对应的所述每一人工智能伦理规则;
行为模块:判断所述第一事件场景是否符合所述最小人工智能伦理风险对应的所述每一人工智能伦理规则:若符合,则将所述每一人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;若不符合,则根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为,将所述需要执行的人类行为发送给所述第一事件场景中的人类,将所述需要执行的人工智能体行为发送给所述第一事件场景中的人工智能体或调用所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为,并将所述每一人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;
检测模块:检测当所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为和人类执行所述需要执行的人类行为是否成功:若失败,获取比所述最小人工智能伦理风险大的最小人工智能伦理风险作为所述规则选择步骤中的最小人工智能伦理风险,回到所述规则选择步骤重新执行。
在其中一个优选实施例中,所述多规则获取模块具体包括:
多规则输入模块:获取用户在虚拟仿真环境中输入的多个人工智能伦理规则;
或
多规则合成模块:获取人工智能伦理规则中必选的法则和可选的法则,将必选的法则和可选的法则进行组合,得到多个备选的人工智能伦理规则。
在其中一个优选实施例中,所述合规场景模块具体包括:
规则判断模块:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,判断所述第一事件场景是否符合所述每一人工智能伦理规则;
符合时模块:若所述第一事件场景符合所述每一人工智能伦理规则,则将所述第一事件场景作为符合所述每一人工智能伦理规则的事件场景;
不符合时模块:若所述第一事件场景不符合所述每一人工智能伦理规则,则根据所述每一人工智能伦理规则通过虚拟仿真改变所述第一事件场景中的人工智能体行为或人类行为,使得虚拟仿真改变后的所述第一事件场景符合备选的所述每一人工智能伦理规则,然后将虚拟仿真改变后的事件场景作为符合所述每一人工智能伦理规则的第二事件场景。
在其中一个优选实施例中,所述风险计算模块具体包括:
风险概率计算模块:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,计算符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率;
风险大小计算模块:获取符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的风险值,将符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率与风险值进行加权平均得到符合所述每一人工智能伦理规则的所述第二事件场景中存在的人工智能伦理风险的大小。
在其中一个优选实施例中,所述行为模块中的根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为的模块包括:
行为预测深度学习模型构建模块:初始化行为预测深度学习模型的输入格式为事件场景、符合备选的人工智能伦理规则的事件场景,输出格式为事件场景中的人工智能体行为、人类行为;获取事件场景、符合备选的人工智能伦理规则的事件场景的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景作为行为预测深度学习模型的输入,对行为预测深度学习模型进行无监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行有监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的测试样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行测试;
行为预测深度学习模型使用模块:将所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景输入行为预测深度学习模型,计算得到行为预测深度学习模型的输出作为需要执行的人工智能体行为、人类行为。
在其中一个优选实施例中,所述规则判断模块具体包括:
人工智能规则判断模型构建模块:初始化深度学习模型作为人工智能规则判断模型;获取训练数据集中的事件场景、人工智能伦理规则,作为输入对所述人工智能规则判断模型进行无监督训练;获取训练数据集中的事件场景、人工智能伦理规则、所述事件场景是否符合所述人工智能伦理规则,作为所述人工智能伦理规则判断的输入和预期输出,对所述人工智能规则判断模型进行有监督训练;获取测试集中的事件场景、人工智能伦理规则、所述事件场景是否符合所述人工智能伦理规则,作为所述人工智能规则判断模型的输入和预期输出,对所述人工智能规则判断模型进行测试;
人工智能规则判断模型使用模块:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,将所述第一事件场景、所述每一人工智能伦理规则输入所述人工智能规则判断模型,通过计算得到的输出判断所述第一事件场景是否符合所述每一人工智能伦理规则。
在其中一个优选实施例中,所述风险概率计算模块具体包括:
人工智能伦理风险模型构建模块:初始化深度学习模型作为人工智能伦理风险模型;获取训练数据集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取训练数据集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;
人工智能伦理风险模型使用模块:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,将符合所述每一人工智能伦理规则的所述第二事件场景输入所述人工智能伦理风险模型,计算得到的输出作为符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的基于人工智能伦理备选规则的人工智能伦理风险防范方法,包括:多规则获取步骤;风险类型获取步骤;事件场景获取步骤;合规场景步骤;风险计算步骤;规则选择步骤;行为步骤;检测步骤。上述方法、系统和机器人,采用多个备选人工智能伦理规则,从而可以根据事件场景选择能使得事件场景产生人工智能伦理风险最小的人工智能伦理规则,因为有多个备选的人工智能伦理规则,所以产生的人工智能伦理风险必然小于单一人工智能伦理规则情况下事件场景会产生的人工智能伦理风险,能够极大地提高人工智能伦理风险的辨识和防范能力,同时,当人类或人工智能体执行行为失败时,又可以重新选择人工智能伦理风险小的其他人工智能伦理规则,从而提高了人工智能伦理风险的辨识和防范的灵活性。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的多规则获取步骤流程图;
图3为本发明的实施例提供的人工智能方法的合规场景步骤流程图;
图4为本发明的实施例提供的人工智能方法的风险计算步骤流程图;
图5为本发明的实施例提供的人工智能方法的行为步骤中场景相关流程图;
图6为本发明的实施例提供的人工智能方法的规则判断步骤流程图;
图7为本发明的实施例提供的人工智能方法的风险概率计算步骤流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
本发明的基本实施例
一种人工智能方法,如图1所示,所述方法包括:多规则获取步骤;风险类型获取步骤;事件场景获取步骤;合规场景步骤;风险计算步骤;规则选择步骤;行为步骤;检测步骤。技术效果:所述方法通过多个人工智能伦理规则避免了单个人工智能伦理规则无法挑选的情况,从而可以从中选出更符合事件场景,产生的人工智能伦理风险更小的人工智能伦理规则,同时,也避免了现有单一人工智能伦理规则易产生行为执行失败的情况,也就是说不论怎么执行人工智能体行为或人类行为,都无法单一的人工智能伦理规则的情况,而本申请有多个人工智能伦理规则,一旦最小人工智能伦理风险对应的人工智能伦理规则下的人工智能体行为或人类行为执行失败时,还可以选择次小的人工智能伦理风险对应的人工智能伦理规则进行重新试验,以此类推直至找到合适的人工智能伦理规则。
在其中一个优选实施例中,如图2所示,所述多规则获取步骤具体包括:多规则输入步骤;或多规则合成步骤。技术效果:所述方法既接收用户输入的多个人工智能伦理规则,又可以通过必选法则和非必选法则来合成多个人工智能伦理规则,从而丰富了多个人工智能伦理规则来源。
在其中一个优选实施例中,如图3所示,所述合规场景步骤具体包括:规则判断步骤;符合时步骤;不符合时步骤。技术效果:所述方法通过人工智能伦理规则判断,来使得事件场景在当前或通过执行人类行为或/和人工智能体行为之后的事件场景能够符合人工智能伦理规则,进而防范人工智能伦理风险。
在其中一个优选实施例中,如图4所示,所述风险计算步骤具体包括:风险概率计算步骤;风险大小计算步骤。技术效果:所述方法在人工智能伦理风险大小的计算时不但考虑到了风险的概率,还考虑到了风险的风险值即危害性,从而比现有技术中只考虑风险的概率值或只考虑风险的风险值更为全面和周到,使得人工智能伦理风险的辨识更为深入。
在其中一个优选实施例中,如图5所示,所述行为步骤中的根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为的步骤包括:行为预测深度学习模型构建步骤;行为预测深度学习模型使用步骤。技术效果:所述方法不但能够通过当前事件场景得到符合人工智能伦理规则的事件场景,而且能够通过这两个场景得到需要执行的人类行为、人工智能体行为,使得事先虚拟仿真得到的事件场景能够在现实中通过执行人类行为、人工智能体行为来实现,提高了人工智能伦理风险防范的实用价值。
在其中一个优选实施例中,如图6所示,所述规则判断步骤具体包括:人工智能规则判断模型构建步骤;人工智能规则判断模型使用步骤。技术效果:所述方法通过深度学习模型来进行人工智能伦理规则的判断,能够充分利用深度学习模型的精准性和以往人工智能伦理规则判断的数据积累,来提高人工智能伦理辨识的准确率。
在其中一个优选实施例中,如图7所示,所述风险概率计算步骤具体包括:人工智能伦理风险模型构建步骤;人工智能伦理风险模型使用步骤。技术效果:所述方法通过深度学习模型来进行人工智能伦理风险概率计算,能够充分利用深度学习模型的精准性和以往人工智能伦理风险概率计算的数据积累,来提高人工智能伦理辨识的准确率。
本发明的优选实施例
获取多个备选的人工智能伦理规则。具体包括:获取用户在虚拟仿真环境中输入的多个人工智能伦理规则;或获取人工智能伦理规则中必选的法则和可选的法则,将必选的法则和可选的法则进行组合,得到多个备选的人工智能伦理规则。
获取人工智能伦理风险类型的集合。
获取事件场景。
对多个备选的人工智能伦理规则中的每一规则,根据事件场景,生成符合所述每一规则的事件场景;具体包括:判断事件场景是否符合备选的人工智能伦理规则:若符合,则将事件场景作为符合备选的人工智能伦理规则的事件场景,若不符合,则根据备选的人工智能伦理规则通过虚拟仿真改变事件场景中的人工智能体行为或人类行为,使得虚拟仿真改变后的事件场景符合备选的人工智能伦理规则,然后将虚拟仿真改变后的事件场景作为符合备选的人工智能伦理规则的事件场景。判断事件场景是否符合备选的人工智能伦理规则,具体包括:初始化深度学习模型作为人工智能规则判断模型;获取训练数据集中的事件场景、人工智能伦理规则,作为输入对所述人工智能规则判断模型进行无监督训练;获取训练数据集中的事件场景、人工智能伦理规则、所述事件场景是否符合人工智能伦理规则,作为所述人工智能伦理规则判断的输入和预期输出,对所述人工智能规则判断模型进行有监督训练;获取测试集中的事件场景、人工智能伦理规则、所述事件场景是否符合人工智能伦理规则,作为所述人工智能规则判断模型的输入和预期输出,对所述人工智能规则判断模型进行测试;将事件场景输入所述人工智能规则判断模型,通过计算得到的输出判断事件场景是否符合备选的人工智能伦理规则。
获取符合备选的人工智能伦理规则的事件场景中存在的人工智能伦理风险的大小。具体包括:计算符合备选的人工智能伦理规则的事件场景中存在的每一类人工智能伦理风险的概率,获取符合备选的人工智能伦理规则的事件场景中存在的每一类人工智能伦理风险的风险值(风险值例如风险等级、风险危害性评估值),将每一类人工智能伦理风险的概率与风险值进行加权平均得到符合备选的人工智能伦理规则的事件场景中存在的人工智能伦理风险的大小。例如符合备选的人工智能伦理规则的事件场景中存在的第一类人工智能伦理风险的概率为P1,风险值为V1,存在的第二类人工智能伦理风险的概率为P2,风险值为V2,存在的第三类人工智能伦理风险的概率为P3,风险值为V3,则符合备选的人工智能伦理规则的事件场景中存在的人工智能伦理风险的大小为P1*V1+P2*V2+P3*V3。获取符合备选的人工智能伦理规则的事件场景中存在的每一类人工智能伦理风险的概率,具体包括:初始化深度学习模型作为人工智能伦理风险模型;获取训练数据集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取训练数据集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;将符合备选的人工智能伦理规则的事件场景输入所述人工智能伦理风险模型,计算得到的输出作为符合备选的人工智能伦理规则的事件场景存在的每一类人工智能伦理风险的概率。
获取最小人工智能伦理风险对应的备选的人工智能伦理规则。
判断事件场景是否符合最小人工智能伦理风险对应的备选的人工智能伦理规则:若符合,则将备选的人工智能伦理规则发送给人工智能体和人类;若不符合,则根据事件场景、符合备选的人工智能伦理规则的事件场景计算需要执行的人工智能体行为、人类行为,将备选的人工智能伦理规则发送给人工智能体和人类,将需要执行的人类行为发送给事件场景中的人类,将需要执行的人工智能体行为发送给事件场景中的人工智能体或调用事件场景中的人工智能体执行人工智能体行为。根据事件场景、符合备选的人工智能伦理规则的事件场景计算事件场景中的人工智能体行为或人类行为,具体包括:初始化行为预测深度学习模型的输入格式为事件场景、符合备选的人工智能伦理规则的事件场景,输出格式为事件场景中的人工智能体行为、人类行为;获取事件场景、符合备选的人工智能伦理规则的事件场景的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景作为行为预测深度学习模型的输入,对行为预测深度学习模型进行无监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行有监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的测试样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行测试;将事件场景、符合备选的人工智能伦理规则的事件场景输入行为预测深度学习模型,计算得到行为预测深度学习模型的输出作为事件场景中的人工智能体行为、人类行为。
检测当所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为和人类执行所述需要执行的人类行为是否成功:若失败,获取比所述最小人工智能伦理风险大的最小人工智能伦理风险作为所述获取最小人工智能伦理风险对应的备选的人工智能伦理规则的步骤中的最小人工智能伦理风险,回到所述最小人工智能伦理风险对应的备选的人工智能伦理规则的步骤重新执行。
本发明的其他实施例
1、实验方法描述:
本实验采取线上线下相结合的方法,线下预习,学习相关理论知识,完成相关社会实践,再以线上虚拟方式操作高成本、高风险的仿真实验。学生在以下交互操作中完成本项目的实验内容。
2、学生交互性操作步骤说明
步骤一:打开虚拟仿真实验教学平台
登录进入网站了解项目详情与项目特色以及实验原理与实验方法、步骤等相关内容,学习和了解人工智能伦理风险辨识与防范实践案例。
点击平台登录,选择进入形式后点击开始实验。
步骤二:点击“进入实验”打开实验操作界面。
阅读实验介绍。
点击确定了解实验背景,实验场景一至三中,人工智能无人驾驶汽车遇到警车追越狱的逃犯车辆,实验场景四至六中,人工智能无人驾驶汽车刹车失灵,前方和拐弯处有行人或动物。
前往具体实验场景进行人工智能无人驾驶汽车的人工智能伦理风险辨识与防范虚拟仿真实验。
(1)实验方案设计思路
本虚拟仿真实验坚持“思辨->实证->创新”三阶段、“问题驱动、情景实验、教研结合、实验创新”四抓手的实验教学理念,利用Unity3D技术,将传统实验教学中的验证性实验/技能训练向基于人工智能伦理风险辨识和防范的综合应用转化,提高学生学习的兴趣,提升学生综合思维能力。本项目将《人工智能哲学与伦理》的人工智能伦理风险的辨识和防范实验内容和情景教学实验内容整合为综合性应用实验项目,将人工智能伦理风险的辨识和防范、辨识和防范的情景教学等知识性内容进行创新整合,转化为人工智能伦理风险辨识和防范的实践性内容。利用虚拟仿真技术,将实体实验无法呈现的人工智能伦理风险和现场事件场景、高成本的、风险性的人工智能伦理风险辨识与防范实验进行虚拟仿真。
①必要性
第一,实验对象特殊。人工智能伦理风险的发生具有高度的不确定性,在实体实验中没有合适的实验对象(例如,警察、罪犯、猩猩等无法邀请来进行真实实验),只能利用虚拟仿真技术设计虚拟的警察、罪犯、猩猩。
第二,实验过程特殊。人工智能伦理风险的发生过程具有高度的危险性,在实体实验中没法进行这些危险性过程的实验(例如,警察与罪犯之间的射击,人工智能无人驾驶汽车在刹车失灵时撞向行人或猩猩),只能利用虚拟仿真技术设计虚拟的事件和动作。
第三,实验成本高昂。人工智能伦理风险辨识和防范实验即使采用道具来进行模拟实验,例如用道具来扮演警察、罪犯、行人、猩猩,如果这些道具比较逼真且具备动作,则需要采用机器人来进行扮演,成本非常高,否则扮演效果不佳,而且在射击和撞击过程中会对人工智能无人驾驶汽车和道具造成毁坏,因为现实模拟实验的成本也非常高,在实验教学中无法面向本科生普遍开展。
②先进性
本虚拟仿真实验坚持“思辨->实证->创新”三阶段、“问题驱动、情景实验、教研结合、实验创新”四抓手的实验教学理念,
实验设计理念先进。本项目基于问题驱动,选择了人工智能伦理风险中最典型、最严重的伤害人类、见死不救、为虎作伥、放纵坏人等风险,然后针对各种风险进行防范,当一种实验场景下风险解决后,又选择另一种实验场景来引发新的风险问题,进而采用更高级的防范措施进行解决,使得学生在实验过程中能够逐步提高辨识和防范的手段和能力,实验蕴含了人工智能、伦理规则、伦理风险、风险辨识、风险防范等多方面知识。实验场景新颖,通过人工智能无人驾驶汽车相关的实验场景预设本实验的故事线索,设计了人工智能伦理风险辨识和防范的仿真实验场景,体现了问题驱动和情景实验的实验设计理念,对人工智能应用类实验教学具有较好的启发性。其次,技术先进。本项目创建了以真实场景为参照的虚拟实验场景,运用三维建模、动画等技术手段,高度仿真了人工智能无人驾驶汽车相关的事件场景现场,使实验场景和实验对象更直观、更形象、更逼真,通过人机交互、智能问答使学生在虚实结合的实验中掌握人工智能伦理风险辨识和防范技能。
(2)教学方法创新
创新性使用高阶性与循序渐进相结合、情景式教学和线上与线下交互式教学方式进行实验教学。
①高阶性与循序渐进相结合
在学生进入实验室前,通过课堂讲解和案例讲解,先让学生掌握常见的、难度较低的实验场景,为高阶实验的开展打下基础,从而让学生能循序渐进地完成实验。
使得学生能从一个实验场景循序渐进地进入下一个事件场景,如同登台阶,难度逐渐加大,使得学生对人工智能伦理风险辨识和防范的能力逐渐提高。本实验中所涉及到的人工智能伦理风险问题一环套一环,都是非常棘手的人工智能伦理风险问题,其辨识和防范都是很有难度,而且随着实验的深入,人工智能伦理规则的漏洞逐渐暴露,进而使得人工智能伦理规则能逐渐修订和完善,直至人工智能伦理规则、人工智能算法都达到相对完善的阶段。
多个实验场景对应多个人工智能伦理规则,以人工智能伦理规则和不同的实验场景为主线,拉开实验的序幕,让学生感觉到一波人工智能伦理风险刚平,在另一个事件场景中一波人工智能伦理风险又起,但“山重水复疑无路,柳暗花明又一村”,通过实验总是能火眼金睛地辨识人工智能伦理风险,总是能找到人工智能伦理风险的防范途径。
②情景式实验
基于人工智能伦理风险问题的“情景交互:化身代入->虚拟决策->虚拟操作->结果仿真”是本实验项目实施的主要实验教学方法,本项目虚拟仿真了人工智能伦理风险辨识和防范的各个环节,学生在人工智能伦理风险辨识和防范虚拟环境中按照操作流程完成各项操作。人工智能伦理风险辨识按照人工智能伦理规则分析→实验场景分析→人工智能体行为分析→人工智能伦理规则判断→人工智能伦理风险评定→心得体会的实验流程进行。基于人工智能体决策的人工智能伦理风险防范按照人工智能伦理规则分析→实验场景分析→化身人工智能体决策→人工智能体行为及结果仿真→人工智能伦理规则判断→人工智能伦理风险评定→心得体会的实验流程进行。基于人类决策的人工智能伦理风险防范按照人工智能伦理规则分析→实验场景分析→化身人类决策→人类行为仿真→化身人工智能体决策→人工智能体行为及结果仿真→人工智能伦理规则判断→人工智能伦理风险评定→心得体会的实验流程进行。基于人工智能伦理规则修订的人工智能伦理风险防范按照原人工智能伦理规则分析→人工智能伦理规则修订→实验场景分析→化身人工智能体决策→人工智能体行为及结果仿真→人工智能伦理规则判断→人工智能伦理风险评定→心得体会的实验流程进行。基于人工智能算法偏见消除的人工智能伦理风险防范按照原人工智能伦理规则分析→原人工智能算法分析→人工智能算法偏见消除→实验场景分析→化身人工智能体决策→人工智能体行为及结果仿真→人工智能伦理规则判断→人工智能伦理风险评定→心得体会的实验流程进行。实验实行基于人工智能伦理风险问题、人工智能伦理风险辨识和防范案例的互动式教学,倡导自主式、探究式、体验式学习。受训者需通过观察当前实验场景设定的实验条件和任务,分析当前人工智能伦理规则中的条件和结论,与实验情景进行双向互动(虚拟操作+结果仿真),互动过关可进入下一个问题的解决步骤,互动不过关则需返回重新闯关进行当前问题的解决,学生获得发现人工智能伦理风险问题、分析人工智能伦理风险问题、解决人工智能伦理风险问题的正向强化、深刻体验和技能内化。
②线上与线下交互式教学
本项目采用网络实验教学,将人工智能伦理风险辨识和防范的线下课程知识、现实案例教学与线上虚拟仿真实验操作相结合,并采取师生互动、智能助教、人机互动、情景代入的方式进行教学,人工智能伦理风险辨识和防范虚拟仿真教学系统中各项辨识和防范实验均有实体教学视频和案例视频供学生学习,在本校计算机专业课和全校通识课《人工智能哲学与伦理》有相关知识的课堂教学视频和参考资料供学生线下学习。结合线上虚拟操作、体验与讨论,辅以线下学习、研究与交流。整个实验教学过程汇集了数据、文本、图形、动画、声音、视频等多种媒体信息,能创造出图文声像并茂、栩栩如生、生动逼真、如临其境的教学环境,能在短时间内调动学生多种感官参与活动,使学生获取与现实实验一致的动态信息,从而形成鲜明的感性认识,进而内化为理性认识,充分激发和调动了学生的学习兴趣和主动思考能力。
(3)评价体系创新
①逐项智能打分
通过智能助教、人机交互方式,主要采用“操作步骤逐项考核法”,实验系统平台根据每步骤设置的考核目标完成情况,将学生的操作结果与标准答案进行自动比对,进行成绩评定。每一步骤操作中均设置了考评,并预设了考评标准,考评在操作中通过虚拟操作或选项操作进行,实验完成后即可进行自动比对,生成各项得分和总得分,并且自动载入实验报告中,作为实验报告的组成部分。系统全程自动记录每个学生的登录、实验过程与操作步骤,学生能够通过实验报告追溯回看自己的操作记录,促使学生养成规范实验练习和主动回顾思考的实验习惯。
②全面反馈评价
本项目对参加实验学生的实验记录、实验结果和实验报告进行深入分析,把握学生对实验掌握的情况,同时对参加实验学生各方面的建议、评价与交流反馈信息,进行全面深入的智能分析,为实验指导教师改进和完善实验提供参考并提出改进建议,使得教师能够了解并提高实验教学效果。系统能够对参加实验学生的登录、操作、测试全过程进行记录,对于学生日常考勤、实验步骤、遇到的困难(例如多次做错的操作或测试)以及实验成绩评价、心得体会评价都具备完善的评价标准,提高评价透明性、公正性。
(4)对传统教学的延伸与拓展
虚拟仿真技术将传统教学和传统实验中许多不能做的人工智能伦理风险问题或无法做的比较复杂的风险辨识和防范知识技能能够真实呈现,在互联网技术和云服务技术支持下学生可以全天候在线学习、在线实验,提高了学习效率和实验效率,激发了学习兴趣和实验兴趣,降低了实验教学的人力成本和材料成本,减少了实验教学的安全风险和伦理风险,丰富了实验教学的方式和资源,打破了实验教学的时空限制,延伸了实验教学的时空范围,提高了实验教学的趣味性和挑战性。
①突破了传统实验教学限制
本项目为学生提供了高度仿真的虚拟实验环境,将传统教学中许多不能做的人工智能伦理风险问题或无法做的比较复杂的风险辨识和防范知识技能能够真实呈现,让学生可以全天候在线学习、在线实验,而且可以重复实验,不会带来实验材料的消耗和成本的提升;将传统的实验室、固定的上课时间、固定的上课地点延伸为网络虚拟实验室、24小时在线、天涯海角都能随时接入的“空中课堂”,延伸了人工智能伦理风险辨识和防范实验的时空范围。
②丰富了实验教学方式方法
本项目采用情景实验、线上线下动态交互学习、开放式智能评价等多种方法,激发了学生的学习兴趣、思考主动性,提高了学习效率、实验效果,丰富了实验教学的方式、内容和资源,延伸了实验教学的时空范围,提高了实验教学的趣味性和挑战性,实现了以虚补实、虚实结合、统一创新的实验原则,大大提升了学生的实践能力、思辨能力和研究能力。
③拓展了实验教学开放共享
虚拟仿真实验系统不仅能够在单机和服务器上稳定可靠运行,并可置于基于互联网和云服务的开放实验教学管理平台上,可以为不同校区、不同专业的学生同时共享使用,并可以向社会开放共享使用,有效拓展了实验教学运用范围,实现实验教学资源共享和开放使用。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人工智能方法,其特征在于,所述方法包括:
多规则获取步骤:获取多个备选的人工智能伦理规则;
风险类型获取步骤:获取多类人工智能伦理风险;
事件场景获取步骤:获取事件场景,作为第一事件场景;
合规场景步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,根据所述第一事件场景,生成符合所述每一人工智能伦理规则的第二事件场景;
风险计算步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,获取符合所述每一人工智能伦理规则的所述第二事件场景中存在的人工智能伦理风险的大小;
规则选择步骤:获取最小人工智能伦理风险对应的所述每一人工智能伦理规则;
行为步骤:判断所述第一事件场景是否符合所述最小人工智能伦理风险对应的所述每一人工智能伦理规则:若符合,则将所述每一人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;若不符合,则根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为,将所述需要执行的人类行为发送给所述第一事件场景中的人类,将所述需要执行的人工智能体行为发送给所述第一事件场景中的人工智能体或调用所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为,并将所述每一人工智能伦理规则发送给所述第一事件场景中的人工智能体和人类;
检测步骤:检测当所述第一事件场景中的人工智能体执行所述需要执行的人工智能体行为和人类执行所述需要执行的人类行为是否成功:若失败,获取比所述最小人工智能伦理风险大的最小人工智能伦理风险作为所述规则选择步骤中的最小人工智能伦理风险,回到所述规则选择步骤重新执行。
2.根据权利要求1所述的人工智能方法,其特征在于,所述多规则获取步骤具体包括:
多规则输入步骤:获取用户在虚拟仿真环境中输入的多个人工智能伦理规则;
或
多规则合成步骤:获取人工智能伦理规则中必选的法则和可选的法则,将必选的法则和可选的法则进行组合,得到多个备选的人工智能伦理规则。
3.根据权利要求1所述的人工智能方法,其特征在于,所述合规场景步骤具体包括:
规则判断步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,判断所述第一事件场景是否符合所述每一人工智能伦理规则;
符合时步骤:若所述第一事件场景符合所述每一人工智能伦理规则,则将所述第一事件场景作为符合所述每一人工智能伦理规则的事件场景;
不符合时步骤:若所述第一事件场景不符合所述每一人工智能伦理规则,则根据所述每一人工智能伦理规则通过虚拟仿真改变所述第一事件场景中的人工智能体行为或人类行为,使得虚拟仿真改变后的所述第一事件场景符合备选的所述每一人工智能伦理规则,然后将虚拟仿真改变后的事件场景作为符合所述每一人工智能伦理规则的第二事件场景。
4.根据权利要求1所述的人工智能方法,其特征在于,所述风险计算步骤具体包括:
风险概率计算步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,计算符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率;
风险大小计算步骤:获取符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的风险值,将符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率与风险值进行加权平均得到符合所述每一人工智能伦理规则的所述第二事件场景中存在的人工智能伦理风险的大小。
5.根据权利要求1所述的人工智能方法,其特征在于,所述行为步骤中的根据所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景计算需要执行的人工智能体行为、人类行为的步骤包括:
行为预测深度学习模型构建步骤:初始化行为预测深度学习模型的输入格式为事件场景、符合备选的人工智能伦理规则的事件场景,输出格式为事件场景中的人工智能体行为、人类行为;获取事件场景、符合备选的人工智能伦理规则的事件场景的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景作为行为预测深度学习模型的输入,对行为预测深度学习模型进行无监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的训练样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行有监督训练;获取事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为的测试样本数据,将事件场景、符合备选的人工智能伦理规则的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行测试;
行为预测深度学习模型使用步骤:将所述第一事件场景、符合所述每一人工智能伦理规则的所述第二事件场景输入行为预测深度学习模型,计算得到行为预测深度学习模型的输出作为需要执行的人工智能体行为、人类行为。
6.根据权利要求3所述的人工智能方法,其特征在于,所述规则判断步骤具体包括:
人工智能规则判断模型构建步骤:初始化深度学习模型作为人工智能规则判断模型;获取训练数据集中的事件场景、人工智能伦理规则,作为输入对所述人工智能规则判断模型进行无监督训练;获取训练数据集中的事件场景、人工智能伦理规则、所述事件场景是否符合所述人工智能伦理规则,作为所述人工智能伦理规则判断的输入和预期输出,对所述人工智能规则判断模型进行有监督训练;获取测试集中的事件场景、人工智能伦理规则、所述事件场景是否符合所述人工智能伦理规则,作为所述人工智能规则判断模型的输入和预期输出,对所述人工智能规则判断模型进行测试;
人工智能规则判断模型使用步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,将所述第一事件场景、所述每一人工智能伦理规则输入所述人工智能规则判断模型,通过计算得到的输出判断所述第一事件场景是否符合所述每一人工智能伦理规则。
7.根据权利要求4所述的人工智能方法,其特征在于,所述风险概率计算步骤具体包括:
人工智能伦理风险模型构建步骤:初始化深度学习模型作为人工智能伦理风险模型;获取训练数据集中的事件场景,作为输入对所述人工智能伦理风险模型进行无监督训练;获取训练数据集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行有监督训练;获取测试集中的事件场景、所述事件场景中存在的每一类人工智能伦理风险的概率,作为所述人工智能伦理风险模型的输入和预期输出,对所述人工智能伦理风险模型进行测试;
人工智能伦理风险模型使用步骤:对所述多个备选的人工智能伦理规则中的每一人工智能伦理规则,将符合所述每一人工智能伦理规则的所述第二事件场景输入所述人工智能伦理风险模型,计算得到的输出作为符合所述每一人工智能伦理规则的所述第二事件场景中存在的每一类人工智能伦理风险的概率。
8.一种人工智能装置,其特征在于,所述装置用于实现权利要求1-7任意一项所述方法的步骤。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-7任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-7任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010772753.XA CN112085209A (zh) | 2020-08-04 | 2020-08-04 | 基于人工智能伦理备选规则的人工智能伦理风险防范方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010772753.XA CN112085209A (zh) | 2020-08-04 | 2020-08-04 | 基于人工智能伦理备选规则的人工智能伦理风险防范方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112085209A true CN112085209A (zh) | 2020-12-15 |
Family
ID=73735920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010772753.XA Pending CN112085209A (zh) | 2020-08-04 | 2020-08-04 | 基于人工智能伦理备选规则的人工智能伦理风险防范方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112085209A (zh) |
-
2020
- 2020-08-04 CN CN202010772753.XA patent/CN112085209A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190975B (zh) | 一种基于o2o和ar/vr的安全素质测评方法及系统 | |
Pears et al. | Repurposing case-based learning to a conversational agent for healthcare cybersecurity | |
CN111932415A (zh) | 一种语言自适应分级学习的方法及装置 | |
Yu et al. | The design and application of C-STEAM instructional resources based on Unity 3D blending physical and virtual manipulatives | |
Montenegro et al. | ATAM-RPG: A role-playing game to teach architecture trade-off analysis method (ATAM) | |
Wang et al. | Modeling and verification of an intelligent tutoring system based on Petri net theory | |
Yan et al. | A method for personalized C programming learning contents recommendation to enhance traditional instruction | |
Braut et al. | Learning from accidents (incidents)–theoretical perspectives on investigation reports as educational tools | |
Mykoniatis et al. | Virtual humans for interpersonal and communication skills’ training in crime investigations | |
Alber et al. | Automated assessment in massive open online courses | |
Birney et al. | Microteaching:" An Introspective Case Study with Middle School Teachers in New York City Public Schools". | |
CN112085209A (zh) | 基于人工智能伦理备选规则的人工智能伦理风险防范方法 | |
Peters et al. | Intelligent systems for training damage control assistants | |
Morata et al. | Game learning analytics for educators | |
Chang | Using computational thinking patterns to scaffold program design in introductory programming course | |
CN114399804A (zh) | 一种基于3d模拟虚拟实验室教学实现方法、系统、介质及设备 | |
CN113990169A (zh) | 一种分布式虚拟仿真地震应急演练系统 | |
Krpan et al. | Teaching basic programming skills to undergraduate students | |
do Nascimento et al. | A Metaphorical Debugger Model to support deaf and hearing impaired in Java programming learning | |
Masdi et al. | Development of Interactive Instructional Media of Photography: Multimedia Skills Competency | |
Mahajan et al. | MineObserver 2.0: A Deep Learning & In-Game Framework for Assessing Natural Language Descriptions of Minecraft Imagery | |
CN112085213A (zh) | 具备远见的人工智能伦理风险辨识防范方法和机器人 | |
Toyoda et al. | Gaming Simulation for Community–Based Disaster Reduction | |
Vatral et al. | A Theoretical Framework for Multimodal Learner Modeling and Performance Analysis in Experiential Learning Environments | |
Lampton et al. | Measuring situation awareness for dismounted infantry squads |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |