CN111775158B - 人工智能伦理规则实现方法、专家系统和机器人 - Google Patents

人工智能伦理规则实现方法、专家系统和机器人 Download PDF

Info

Publication number
CN111775158B
CN111775158B CN202010513352.2A CN202010513352A CN111775158B CN 111775158 B CN111775158 B CN 111775158B CN 202010513352 A CN202010513352 A CN 202010513352A CN 111775158 B CN111775158 B CN 111775158B
Authority
CN
China
Prior art keywords
fact
artificial intelligence
true
deep learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010513352.2A
Other languages
English (en)
Other versions
CN111775158A (zh
Inventor
朱定局
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN202010513352.2A priority Critical patent/CN111775158B/zh
Publication of CN111775158A publication Critical patent/CN111775158A/zh
Application granted granted Critical
Publication of CN111775158B publication Critical patent/CN111775158B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control

Abstract

人工智能伦理规则实现方法、专家系统和机器人,包括:输入获取步骤;规则库构建步骤;综合数据库构建步骤;事实识别步骤;规则推理步骤;结论执行步骤。上述方法、系统和机器人,结合专家系统和深度学习实现了人工智能伦理规则的自动推理与自动实现。

Description

人工智能伦理规则实现方法、专家系统和机器人
技术领域
本发明涉及人工智能技术领域,特别是涉及一种人工智能伦理规则实现方法、专家系统和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能伦理规则都还存在于概念阶段,存在于科幻小说和影视作品中,现实中还不存在遵循人工智能伦理规则的人工智能产品或服务,主要因为人工智能伦理规则非常抽象,难以进行技术实现,但人工智能产品的人工智能伦理问题已经在现实中显现,例如无人驾驶发生事故时的伦理问题。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供人工智能伦理规则实现方法、专家系统和机器人,以解决人工智能伦理规则难以技术实现的问题,通过专家系统自动实现了人工智能伦理规则的推理和应用。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
输入获取步骤:获取事件场景,作为第一事件场景;获取人工智能伦理规则,作为第一人工智能伦理规则;获取至少一个人工智能装置的信息,将所述人工智能装置,作为第一人工智能装置;
规则库构建步骤:获取所述第一人工智能伦理规则的次序、前件(前件是单个或一些事实的逻辑组合构成,是规则触发的条件)、后件(后件为规则触发时的行为,即结论,结论也往往是某一事实或一些事实的逻辑组合构成)、后件的属性加入人工智能伦理规则库的规则表;其中,后件的属性包括中间结论、最终结论;
综合数据库构建步骤:获取所述第一人工智能伦理规则的前件中的事实,将所述事实加入人工智能伦理综合数据库的前件数据表,并加入人工智能伦理综合数据库的事实判断数据表;获取所述第一人工智能伦理规则的属性为中间结论的后件中的事实,将所述事实加入人工智能伦理综合数据库的中间结论后件数据表,并加入人工智能伦理综合数据库的事实判断数据表;获取所述第一人工智能伦理规则的属性为最终结论的后件中的事实,将所述事实加入人工智能伦理综合数据库的最终结论后件数据表,并加入人工智能伦理综合数据库的事实判断数据表;将人工智能伦理综合数据库的事实判断数据表中每一事实的初始值设置为假;
事实识别步骤:识别所述第一事件场景是否存在人工智能伦理综合数据库的前件数据表中的每一事实;若存在,则将人工智能伦理综合数据库的事实判断数据表中所述每一事实的真假值设置为真;若不存在,则将人工智能伦理综合数据库的事实判断数据表中所述每一事实的真假值设置为假;
规则推理步骤:从所述人工智能伦理规则库中按照次序获取每一人工智能伦理规则;获取所述每一人工智能伦理规则的前件;获取所述前件中的每一事实在人工智能伦理综合数据库的事实判断数据表中的真假值;将所述前件中的每一事实的真假值代入所述前件中的每一事实,计算得到所述前件的真假值;若所述前件为真,则获取所述每一人工智能伦理规则的后件;获取所述每一人工智能伦理规则的后件中的每一事实,将人工智能伦理综合数据库的事实判断数据表中所述后件中的每一事实的真假值设置为真;若所述前件为真,且若所述后件属于中间结论,则在所述第一事件场景中执行所述后件,得到所述后件中的待判断真假的事实的真假值,作为第一真假值,将人工智能伦理综合数据库的事实判断数据表中所述待判断真假的事实的真假值设置为所述第一真假值;
结论执行步骤:人工智能伦理综合数据库的事实判断数据表中获取人工智能伦理综合数据库的最终结论后件数据表中每一事实的真假值;获取真假值为真的所述每一事实;在所述第一事件场景中执行所述每一事实。
优选地,所述事实识别步骤中的所述识别所述第一事件场景是否存在人工智能伦理综合数据库的前件数据表中的每一事实的步骤包括:
第一无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景(视频)作为深度学习模型的输入,对深度学习模型进行无监督训练;
第一有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景(视频)作为深度学习模型的输入,将所述数据集中的所述事件场景中存在所述每一事实的概率作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到的训练和测试后的深度学习模型作为事件场景识别深度学习模型;
第一使用步骤:将所述第一事件场景输入所述事件场景识别深度学习模型的,计算得到的输出作为所述第一事件场景存在所述每一事实的概率;
第一判断步骤:若所述概率大于第一预设阈值,则判断所述第一事件场景存在所述每一事实,否则判断所述第一事件场景不存在所述每一事实。
(所述每一事实例如人工智能装置伤害人类的行为,又如人工智能装置不阻止其他对象伤害人类的行为,又如人工智能装置不听从人类命令的行为,又如人工智能不自我保护的行为)
优选地,所述规则推理步骤中的在所述第一事件场景中执行所述后件,得到所述后件中的待判断真假的事实的真假值的步骤包括:
事实获取步骤:从所述后件中提取待预测执行结果的事实、待判断真假的事实;
第二无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景(视频)作为深度学习模型的输入,对深度学习模型进行无监督训练;
第二有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景(视频)作为深度学习模型的输入,将所述数据集中的在所述事件场景中待预测执行结果的事实的执行结果为待判断真假的事实的概率作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到的训练和测试后的深度学习模型作为事件场景预测深度学习模型;
第二使用步骤:获取所述第一事件场景(视频)作为所述事件场景预测深度学习模型的输入,计算得到的输出作为在所述第一事件场景中待预测执行结果的事实的执行结果为待判断真假的事实的概率;
第二判断步骤:若所述概率大于第二预设阈值,则判断所述待判断真假的事实的真假值为真,否则判断所述待判断真假的事实的真假值为假。
(所述待判断真假的事实例如预测的人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类,又如人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令)
优选地,所述结论执行步骤中的在所述第一事件场景中执行所述每一事实的步骤包括:
第三无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第三有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的人工智能装置在所述事件场景中需要执行所述每一事实时需要执行的指令作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为行为指令深度学习模型;
第三使用步骤:将所述第一事件场景输入行为指令深度学习模型,计算得到的输出作为人工智能装置在所述第一事件场景中需要执行所述每一事实时需要执行的指令;
第一指令执行步骤:控制或调用所述第一人工智能装置执行所述需要执行的指令。
优选地,所述结论执行步骤中的在所述第一事件场景中执行所述每一事实的步骤包括:
第四无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第四有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景、人工智能装置的信息(人工智能装置的信息包括人工智能装置的型号等,不同人工智能装置的指令集不同)、人工智能装置在所述事件场景中的位置(通过定位人工智能装置在所述事件场景中的位置或通过在所述事件场景中识别人工智能装置获取位置信息)作为深度学习模型的输入,将所述数据集中的人工智能装置在事件场景中需要执行所述每一事实时需要执行的指令作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为行为指令深度学习模型;
第四使用步骤:将所述第一事件场景、所述第一人工智能装置的信息、所述第一人工智能装置在所述第一事件场景中的位置输入所述行为指令深度学习模型,计算得到的输出作为所述第一人工智能装置在所述第一事件场景中需要执行所述每一事实时需要执行的指令;
第二指令执行步骤:控制或调用所述第一人工智能装置执行所述需要执行的指令。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
所述人工智能装置为第一方面实施例所述方法中的第一人工智能装置;
输入获取模块,用于执行第一方面实施例所述方法的输入获取步骤;
规则库构建模块,用于执行第一方面实施例所述方法的规则库构建步骤;
综合数据库构建模块,用于执行第一方面实施例所述方法的综合数据库构建步骤;
事实识别模块,用于执行第一方面实施例所述方法的事实识别步骤;
规则推理模块,用于执行第一方面实施例所述方法的规则推理步骤;
结论执行模块,用于执行第一方面实施例所述方法的结论执行步骤。
优选地,
所述事实识别模块还包括:
第一无监督训练模块,用于执行第一方面实施例所述方法的第一无监督训练步骤;
第一有监督训练和测试模块,用于执行第一方面实施例所述方法的第一有监督训练和测试步骤;
第一使用模块,用于执行第一方面实施例所述方法的第一使用步骤;
第一判断模块,用于执行第一方面实施例所述方法的第一判断步骤。
所述规则推理模块还包括:
事实获取模块,用于执行第一方面实施例所述方法的事实获取步骤;
第二无监督训练模块,用于执行第一方面实施例所述方法的第二无监督训练步骤;
第二有监督训练和测试模块,用于执行权利要求3所述方法的第二有监督训练和测试步骤;
第二使用模块,用于执行第一方面实施例所述方法的第二使用步骤;
第二判断模块,用于执行第一方面实施例所述方法的第二判断步骤。
优选地,所述结论执行模块还包括:
第三无监督训练模块,用于执行第一方面实施例所述方法的第三无监督训练步骤;
第三有监督训练和测试模块,用于执行第一方面实施例所述方法的第三有监督训练和测试步骤;
第三使用模块,用于执行第一方面实施例所述方法的第三使用步骤;
第一指令执行模块,用于执行第一方面实施例所述方法的第一指令执行步骤。
第三方面,本发明实施例提供一种人工智能伦理规则系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为第一方面实施例中的所述第一人工智能装置;所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的人工智能伦理规则实现方法、专家系统和机器人,包括:输入获取步骤;规则库构建步骤;综合数据库构建步骤;事实识别步骤;规则推理步骤;结论执行步骤。上述方法、系统和机器人,结合专家系统和深度学习实现了人工智能伦理规则的自动推理与自动实现。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的事实识别步骤的流程图;
图3为本发明的实施例提供的规则推理步骤的流程图;
图4为本发明的实施例提供的结论执行步骤的流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
一、本发明的基本实施例
第一方面,本发明实施例提供一种人工智能方法
所述方法包括:输入获取步骤;规则库构建步骤;综合数据库构建步骤;事实识别步骤;规则推理步骤;结论执行步骤。所述方法通过专家系统实现了人工智能伦理规则的自动推理与自动实现。图1展示的是人工智能伦理规则实现的主要步骤的流程图。
优选地,所述事实识别步骤中的所述识别所述第一事件场景是否存在人工智能伦理综合数据库的前件数据表中的每一事实的步骤包括:第一无监督训练步骤;第一有监督训练和测试步骤;第一使用步骤;第一判断步骤。所述方法通过深度学习实现了事件场景中事实的自动识别。图2展示的是事实识别步骤的流程图。
优选地,所述规则推理步骤中的在所述第一事件场景中执行所述后件,得到所述后件中的待判断真假的事实的真假值的步骤包括:事实获取步骤;第二无监督训练步骤;第二有监督训练和测试步骤;第二使用步骤;第二判断步骤。所述方法通过深度学习实现了执行中间结论后事实真假值的自动预测,执行中间结论后事实真假值是推导得到最终结论所必须的事实。图3展示的是规则推理步骤的流程图。
优选地,所述结论执行步骤中的在所述第一事件场景中执行所述每一事实的步骤的第一种实现方式包括:第三无监督训练步骤;第三有监督训练和测试步骤;第三使用步骤;第一指令执行步骤。优选地,所述结论执行步骤中的在所述第一事件场景中执行所述每一事实的步骤的第二种实现方式包括:第四无监督训练步骤;第四有监督训练和测试步骤;第四使用步骤;第二指令执行步骤。所述方法通过深度学习实现了控制或调用人工智能装置在事件场景中自动执行最终结论中事实。图4展示的是结论执行步骤的两种实现方式的流程图。
第二方面,本发明实施例提供一种人工智能装置
所述装置包括:所述人工智能装置为第一方面实施例所述方法中的第一人工智能装置;输入获取模块;规则库构建模块;综合数据库构建模块;事实识别模块;规则推理模块;结论执行模块。
优选地,所述事实识别模块还包括:第一无监督训练模块;第一有监督训练和测试模块;第一使用模块;第一判断模块。所述规则推理模块还包括:事实获取模块;第二无监督训练模块;第二有监督训练和测试模块;第二使用模块;第二判断模块。
优选地,所述结论执行模块还包括:第三无监督训练模块;第三有监督训练和测试模块;第三使用模块;指令执行模块。
第三方面,本发明实施例提供一种人工智能伦理规则系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为第一方面实施例中的所述第一人工智能装置;所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
二、本发明的优选实施例
步骤1、获取事件场景。事件场景以视频的方式进行存储。可以通过摄像头或监控头等设备进行事件场景视频的获取,也可以从事件场景视频库中获取。
步骤2、获取人工智能伦理规则。人工智能伦理规则存储在伦理规则库中。
步骤3、根据事件场景和人工智能伦理规则,推理得到符合伦理规则的含有人工智能行为的事件场景。
通过专家系统来实现步骤3:
以下以人工智能伦理规则(机器人三大定律)为例来说明:
人工智能伦理规则(机器人三大定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
专家系统的知识库Knowledge Base:
机器人三定律的规则库中的规则:
规则一:
人工智能装置有伤害人类或人工智能装置没有阻止其他对象伤害人类->人工智能装置停止伤害人类或人工智能装置阻止其他对象伤害人类;
规则二:
人工智能装置没有听从人类命令->预测人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类的真假值
(预测的人工智能装置预测听从人类命令的执行结果为人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类->人工智能装置不听从人类命令)这个规则可以省略,因为执行这个规则和不执行这个规则的效果相同。
预测的人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类->人工智能装置听从人类命令
规则三:
人工智能装置没有自我保护->预测人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令的真假值
(预测的人工智能装置自我保护的执行结果为人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令->人工智能装置不进行自我保护)这个规则可以省略,因为执行这个规则和不执行这个规则的效果相同。
预测的人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令->人工智能装置进行自我保护
规则的前件:
0.人工智能装置有伤害人类
1.人工智能装置没有阻止其他对象伤害人类
2.人工智能装置没有听从人类命令
3.人工智能装置没有自我保护
4.预测的人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类
5.预测的人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令
规则的中间结果:
10.预测人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类的真假值
11.预测人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令的真假值
规则的结论:
20.人工智能装置停止伤害人类
21.人工智能装置阻止其他对象伤害人类
22.人工智能装置听从人类命令
23.人工智能装置进行自我保护
规则的数据结构:
Figure BDA0002529208860000081
Figure BDA0002529208860000091
机器人三定律的规则库中的规则转化为符号:
规则一:
Rule[0]={{0},20},即Rule[0].Premise[0]=0,Rule[0].Conclusion=20
Rule[1]={{1},21},即Rule[1].Premise[0]=1,Rule[1].Conclusion=21
规则二:
Rule[2]={{2},10},即Rule[2].Premise[0]=2,Rule[2].Conclusion=10
Rule[3]={{4},22},即Rule[3].Premise[0]=4,Rule[2].Conclusion=22
规则三:
Rule[4]={{3},11},即Rule[4].Premise[0]=3,Rule[4].Conclusion=11
Rule[5]={5,23},即Rule[5].Premise[0]=5,Rule[5].Conclusion=23
专家系统的综合数据库Integrated Database:
事实及其真假的数据结构:
char*AIBase[]={"0.人工智能装置有伤害人类","1.人工智能装置没有阻止其他对象伤害人类","2.人工智能装置没有听从人类命令","3.人工智能装置没有自我保护","4.预测的人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类","5.预测的人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令","","","","","10.f(3)预测人工智能装置听从人类命令的结果是否为人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类","11.f(4)预测人工智能装置自我保护的结果是否为人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令","","","","","","","","","20.人工智能装置停止伤害人类","21.人工智能装置阻止其他对象伤害人类","22.人工智能装置听从人类命令","23.人工智能装置进行自我保护"};
对应以上特征,设定整型数组存储求解过程中产生的各种信息,包括初始事实、推理得到的中间结论,以及最终结论。
int AIFact[30]={2};//记录事实是否为真,初始化都为2
前件、中间结果、结论分别存储在0-9,10-19,20-29。
Int AIFact[30],数组的编号对应着事实的编号,例如AIFact[0]代表事实“0:人工智能装置有伤害人类”的真假,AIFact[0]==1则该事实0为真,AIFact[0]==0则该事实0为假。
专家系统的推理机、解释器:
推理、解释部分主要使用了两个函数,分别是推理机ReasoningEngine函数和解释器AIInteractiveInterface函数。
ReasoningEngine函数是用于根据获取的信息,进行规则的遍历,不断正向推理的函数。在ReasoningEngine中需要通过DetectAIFact函数来获得AIFact[f]的值,即判断事实f是否为真。
Deeplearning从事件场景中识别是否存在以下类型的行为:人工智能装置伤害人类的行为、人工智能装置不阻止其他对象伤害人类的行为、人工智能装置不听从人类命令的行为、人工智能不自我保护的行为;
从事件场景中识别是否存在某类行为的步骤通过深度学习模型DeeplearningModel来实现:获取无监督训练样本,将事件场景视频作为深度学习模型的输入,对深度学习模型进行无监督训练,获取有监督训练数据集和测试数据集,将事件场景视频作为深度学习模型的输入,将存在某类行为的概率作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到的训练和测试后的深度学习模型作为事件场景识别深度学习模型。获取事件场景视频作为输入,通过事件场景识别深度学习模型计算得到的输出作为存在某类行为的概率,若存在某类行为的概率大于预设阈值,则判断存在某类行为,否则判断不存在某类行为。某类行为例如人工智能装置伤害人类的行为,又如人工智能装置不阻止其他对象伤害人类的行为,又如人工智能装置不听从人类命令的行为,又如人工智能不自我保护的行为。
Deeplearning还用于从事件场景中预测人工智能装置执行某种类型的行为后是否会产生某种类型的结果:预测的人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类,预测的人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令;
从事件场景中预测人工智能装置执行某种类型的行为后是否会产生某种类型的结果的步骤通过深度学习模型DeeplearningModel来实现:获取无监督训练样本,将事件场景视频作为深度学习模型的输入,对深度学习模型进行无监督训练,获取有监督训练数据集和测试数据集,将事件场景视频作为深度学习模型的输入,将预测人工智能装置执行某种类型的行为后产生某种类型的结果的概率作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到的训练和测试后的深度学习模型作为事件场景预测深度学习模型。获取事件场景视频作为输入,通过事件场景预测深度学习模型计算得到的输出作为人工智能装置执行某种类型的行为后产生某种类型的结果的概率,若存在概率大于预设阈值,则判断人工智能装置执行某种类型的行为后会产生某种类型的结果,否则判断人工智能装置执行某种类型的行为后不会产生某种类型的结果。人工智能装置执行某种类型的行为后不会产生某种类型的结果例如预测的人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类,又如预测的人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置没有阻止其他对象伤害人类或人工智能装置不听从人类命令;
Figure BDA0002529208860000111
Figure BDA0002529208860000121
Figure BDA0002529208860000131
上述ReasoningEngine函数取出每一条规则的全部前件,通过检测函数检测事件场景中是否存在前件中的事实,如果存在,则该事实为真,如果前件中的事实都为真,则满足该规则,然后该规则的后件就会被扩充到事实数组中,同时也将规则和前后件输出给用户,使得用户对人工智能算法有知情权。
遍历完6条规则后,AIFact数组中就存放了推理得出的全部事实。
接下来就将AIFact数组传入AIInterpreter函数,从综合数据库中获取需要人工智能装置执行的最终结论。AIInterpreter函数需要控制或调用人工智能装置执行接口函数AIInteractiveInterface,控制或调用人工智能装置在事件场景中执行某种类型的行为。
控制或调用人工智能装置在事件场景中执行某种类型的行为的步骤可以通过深度学习来实现:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练,获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将人工智能装置在事件场景中需要执行某种类型的行为时需要执行的指令作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为行为指令深度学习模型。获取事件场景和需要执行的行为类型,根据需要执行的行为类型获取该行为类型的行为指令深度学习模型,将事件场景输入行为指令深度学习模型,计算得到的输出作为人工智能装置在事件场景中执行该类型的行为需要执行的指令,控制或调用人工智能装置执行该指令。
Figure BDA0002529208860000132
Figure BDA0002529208860000141
人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
机器人三定律修订版本1的规则库中的规则:
规则一:
人工智能装置有伤害人类->人工智能装置停止伤害人类;
规则二:
人工智能装置没有听从人类命令->预测人工智能装置听从人类命令的执行结果不是人工智能装置伤害人类的真假值
预测的人工智能装置预测听从人类命令的执行结果不是人工智能装置伤害人类->人工智能装置听从人类命令
规则三:
人工智能装置没有自我保护->预测人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置不听从人类命令的真假值
预测的人工智能装置自我保护的执行结果不是人工智能装置伤害人类或人工智能装置不听从人类命令->人工智能装置进行自我保护
机器人三大定律修订版本1的专家系统的构建和运行方法与上述的机器人三大定律的专家系统的构建和运行方法类型,不再重复。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种人工智能方法,其特征在于,所述方法包括:
输入获取步骤:获取事件场景,作为第一事件场景;获取人工智能伦理规则,作为第一人工智能伦理规则;获取至少一个人工智能装置的信息,将所述人工智能装置,作为第一人工智能装置;规则库构建步骤:获取所述第一人工智能伦理规则的次序、前件、后件加入人工智能伦理规则库的规则表;获取所述第一人工智能伦理规则的后件的属性加入人工智能伦理规则库的规则表;其中,后件的属性包括中间结论、最终结论;综合数据库构建步骤:获取所述第一人工智能伦理规则的前件中的事实,将所述事实加入人工智能伦理综合数据库的前件数据表,并加入人工智能伦理综合数据库的事实判断数据表;获取所述第一人工智能伦理规则的属性为中间结论的后件中的事实,将所述事实加入人工智能伦理综合数据库的中间结论后件数据表,并加入人工智能伦理综合数据库的事实判断数据表;获取所述第一人工智能伦理规则的属性为最终结论的后件中的事实,将所述事实加入人工智能伦理综合数据库的最终结论后件数据表,并加入人工智能伦理综合数据库的事实判断数据表;将人工智能伦理综合数据库的事实判断数据表中每一事实的初始值设置为假;事实识别步骤:识别所述第一事件场景是否存在人工智能伦理综合数据库的前件数据表中的每一事实;若存在,则将人工智能伦理综合数据库的事实判断数据表中所述每一事实的真假值设置为真;若不存在,则将人工智能伦理综合数据库的事实判断数据表中所述每一事实的真假值设置为假;规则推理步骤:从所述人工智能伦理规则库中按照次序获取每一人工智能伦理规则;获取所述每一人工智能伦理规则的前件;获取所述前件中的每一事实在人工智能伦理综合数据库的事实判断数据表中的真假值;将所述前件中的每一事实的真假值代入所述前件中的每一事实,计算得到所述前件的真假值;若所述前件为真,则获取所述每一人工智能伦理规则的后件;获取所述每一人工智能伦理规则的后件中的每一事实,将人工智能伦理综合数据库的事实判断数据表中所述后件中的每一事实的真假值设置为真;若所述前件为真,且若所述后件属于中间结论,则在所述第一事件场景中执行所述后件,得到所述后件中的待判断真假的事实的真假值,作为第一真假值,将人工智能伦理综合数据库的事实判断数据表中所述待判断真假的事实的真假值设置为所述第一真假值;结论执行步骤:人工智能伦理综合数据库的事实判断数据表中获取人工智能伦理综合数据库的最终结论后件数据表中每一事实的真假值;获取真假值为真的所述每一事实;在所述第一事件场景中执行所述每一事实;所述事实识别步骤中的所述识别所述第一事件场景是否存在人工智能伦理综合数据库的前件数据表中的每一事实的步骤包括:第一训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中存在所述每一事实的概率作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到的训练和测试后的深度学习模型作为事件场景识别深度学习模型;第一使用步骤:将所述第一事件场景输入所述事件场景识别深度学习模型的,计算得到的输出作为所述第一事件场景存在所述每一事实的概率;第一判断步骤:若所述概率大于第一预设阈值,则判断所述第一事件场景存在所述每一事实,否则判断所述第一事件场景不存在所述每一事实。
2.根据权利要求1所述的人工智能方法,其特征在于,所述规则推理步骤中的在所述第一事件场景中执行所述后件,得到所述后件中的待判断真假的事实的真假值的步骤包括:事实获取步骤:从所述后件中提取待预测执行结果的事实、待判断真假的事实;第二训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将在所述事件场景中待预测执行结果的事实的执行结果为待判断真假的事实的概率作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到的训练和测试后的深度学习模型作为事件场景预测深度学习模型;第二使用步骤:获取所述第一事件场景作为所述事件场景预测深度学习模型的输入,计算得到的输出作为在所述第一事件场景中待预测执行结果的事实的执行结果为待判断真假的事实的概率;第二判断步骤:若所述概率大于第二预设阈值,则判断所述待判断真假的事实的真假值为真,否则判断所述待判断真假的事实的真假值为假。
3.根据权利要求1所述的人工智能方法,其特征在于,所述结论执行步骤中的在所述第一事件场景中执行所述每一事实的步骤包括:第三训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将人工智能装置在所述事件场景中需要执行所述每一事实时需要执行的指令作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为行为指令深度学习模型;第三使用步骤:将所述第一事件场景输入行为指令深度学习模型,计算得到的输出作为人工智能装置在所述第一事件场景中需要执行所述每一事实时需要执行的指令;第一指令执行步骤:控制或调用所述第一人工智能装置执行所述需要执行的指令。
4.根据权利要求1所述的人工智能方法,其特征在于,所述结论执行步骤中的在所述第一事件场景中执行所述每一事实的步骤包括:第四训练和测试步骤:获取训练数据集和测试数据集,将事件场景、人工智能装置的信息、人工智能装置在所述事件场景中的位置作为深度学习模型的输入,将人工智能装置在事件场景中需要执行所述每一事实时需要执行的指令作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为行为指令深度学习模型;第四使用步骤:将所述第一事件场景、所述第一人工智能装置的信息、所述第一人工智能装置在所述第一事件场景中的位置输入所述行为指令深度学习模型,计算得到的输出作为所述第一人工智能装置在所述第一事件场景中需要执行所述每一事实时需要执行的指令;第二指令执行步骤:控制或调用所述第一人工智能装置执行所述需要执行的指令。
5.一种人工智能装置,其特征在于,所述装置包括:所述人工智能装置为权利要求1所述方法中的第一人工智能装置;输入获取模块,用于执行权利要求1所述方法的输入获取步骤;规则库构建模块,用于执行权利要求1所述方法的规则库构建步骤;综合数据库构建模块,用于执行权利要求1所述方法的综合数据库构建步骤;事实识别模块,用于执行权利要求1所述方法的事实识别步骤;规则推理模块,用于执行权利要求1所述方法的规则推理步骤;结论执行模块,用于执行权利要求1所述方法的结论执行步骤;所述事实识别模块还包括:第一训练和测试模块,用于执行权利要求2所述方法的第一训练和测试步骤;第一使用模块,用于执行权利要求2所述方法的第一使用步骤;第一判断模块,用于执行权利要求2所述方法的第一判断步骤;所述规则推理模块还包括:事实获取模块,用于执行权利要求3所述方法的事实获取步骤;第二训练和测试模块,用于执行权利要求3所述方法的第二训练和测试步骤;第二使用模块,用于执行权利要求3所述方法的第二使用步骤;第二判断模块,用于执行权利要求3所述方法的第二判断步骤。
6.根据权利要求5所述的人工智能装置,其特征在于,所述结论执行模块还包括:第三训练和测试模块,用于执行权利要求4所述方法的第三训练和测试步骤;第三使用模块,用于执行权利要求4所述方法的第三使用步骤;第一指令执行模块,用于执行权利要求4所述方法的第一指令执行步骤。
7.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为所述权利要求1 中的所述第一人工智能装置;所述处理器执行所述程序时实现权利要求1-4 任意一项所述方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-4 任意一项所述方法的步骤。
CN202010513352.2A 2020-06-08 2020-06-08 人工智能伦理规则实现方法、专家系统和机器人 Active CN111775158B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010513352.2A CN111775158B (zh) 2020-06-08 2020-06-08 人工智能伦理规则实现方法、专家系统和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010513352.2A CN111775158B (zh) 2020-06-08 2020-06-08 人工智能伦理规则实现方法、专家系统和机器人

Publications (2)

Publication Number Publication Date
CN111775158A CN111775158A (zh) 2020-10-16
CN111775158B true CN111775158B (zh) 2022-04-01

Family

ID=72753757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010513352.2A Active CN111775158B (zh) 2020-06-08 2020-06-08 人工智能伦理规则实现方法、专家系统和机器人

Country Status (1)

Country Link
CN (1) CN111775158B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508195B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112418437B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112434816B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101004799A (zh) * 2007-01-16 2007-07-25 中山大学 一种时态产生式系统
CN108874380A (zh) * 2017-04-17 2018-11-23 湖南本体信息科技研究有限公司 计算机模拟人脑学习知识的方法、逻辑推理机及类脑人工智能服务平台
CN109478275A (zh) * 2017-06-16 2019-03-15 北京嘀嘀无限科技发展有限公司 分配服务请求的系统和方法
CN109522329A (zh) * 2018-09-30 2019-03-26 蓝库时代(北京)科技有限公司 一种基于人工智能的营销传播分析方法
CN110431566A (zh) * 2017-03-15 2019-11-08 易享信息技术有限公司 基于概率的引导器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002081156A2 (en) * 2001-04-06 2002-10-17 Vanderbilt University Architecture for robot intelligence
JP6148025B2 (ja) * 2013-02-04 2017-06-14 株式会社Screenホールディングス 受渡位置教示方法、受渡位置教示装置および基板処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101004799A (zh) * 2007-01-16 2007-07-25 中山大学 一种时态产生式系统
CN110431566A (zh) * 2017-03-15 2019-11-08 易享信息技术有限公司 基于概率的引导器
CN108874380A (zh) * 2017-04-17 2018-11-23 湖南本体信息科技研究有限公司 计算机模拟人脑学习知识的方法、逻辑推理机及类脑人工智能服务平台
CN109478275A (zh) * 2017-06-16 2019-03-15 北京嘀嘀无限科技发展有限公司 分配服务请求的系统和方法
CN109522329A (zh) * 2018-09-30 2019-03-26 蓝库时代(北京)科技有限公司 一种基于人工智能的营销传播分析方法

Also Published As

Publication number Publication date
CN111775158A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN111775158B (zh) 人工智能伦理规则实现方法、专家系统和机器人
CN111860577A (zh) 识别不伤害人类的人类的人工智能伦理方法和机器人
CN111860766A (zh) 人工智能伦理规则推理方法、深度学习系统和机器人
CN111775159A (zh) 基于动态人工智能伦理规则的伦理风险防范方法和机器人
KR102088509B1 (ko) 컴퓨터 시스템의 이상 행위 탐지 방법 및 장치
CN111823227B (zh) 人工智能伦理风险检测防范方法、深度学习系统和机器人
CN112182585B (zh) 源代码漏洞检测方法、系统及存储介质
JP2022510113A (ja) 半教師あり学習を用いた診断システム提供方法、及びそれを用いた診断システム
CN111812999A (zh) 人工智能伦理风险与防范虚拟仿真方法、系统和机器人
CN111160802B (zh) 预设方案评估方法及装置
CN113360912A (zh) 恶意软件检测方法、装置、设备及存储介质
CN111860767B (zh) 善恶分明的人工智能伦理规则实现方法、系统和机器人
CN107329445B (zh) 机器人行为准则智能监管的方法
US20210192277A1 (en) An information processing system, an information processing method and a computer readable storage medium
Mollas et al. Altruist: Argumentative explanations through local interpretations of predictive models
CN110110631B (zh) 一种识别打电话的方法及设备
CN116362929A (zh) 联合题目定性分析概率矩阵分解的认知诊断方法及装置
CN110309285B (zh) 自动问答方法、装置、电子设备和存储介质
CN112149837A (zh) 基于算法选择的人工智能伦理风险辨识防范方法和机器人
CN114219011A (zh) 基于后门不可迁移性的通用后门攻击检测方法
CN113553586A (zh) 病毒检测方法、模型训练方法、装置、设备及存储介质
CN112738098A (zh) 一种基于网络行为数据的异常检测方法及装置
CN112085216A (zh) 基于伦理风险评定的人工智能伦理风险辨识和防范方法
CN112000856A (zh) 因果关系的确定方法、装置、设备及可读存储介质
RU2642406C1 (ru) Способ и система динамической идентификации личности испытуемого

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant