CN111775159A - 基于动态人工智能伦理规则的伦理风险防范方法和机器人 - Google Patents

基于动态人工智能伦理规则的伦理风险防范方法和机器人 Download PDF

Info

Publication number
CN111775159A
CN111775159A CN202010514337.XA CN202010514337A CN111775159A CN 111775159 A CN111775159 A CN 111775159A CN 202010514337 A CN202010514337 A CN 202010514337A CN 111775159 A CN111775159 A CN 111775159A
Authority
CN
China
Prior art keywords
artificial intelligence
rule
ethical
preset
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010514337.XA
Other languages
English (en)
Inventor
朱定局
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN202010514337.XA priority Critical patent/CN111775159A/zh
Publication of CN111775159A publication Critical patent/CN111775159A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

基于动态人工智能伦理规则的伦理风险防范方法和机器人,包括:装置与场景获取步骤;规则和风险类型获取步骤;场景判断与规则选择步骤;规则设定步骤;场景变化检测步骤。上述方法、系统和机器人,根据事件场景动态选择合适的人工智能伦理规则来降低和防范人工智能伦理风险,使得同一个人工智能装置可以根据事件场景选择合适的不同的人工智能伦理规则,从而可以提高人工智能装置遵守人工智能伦理规则的灵活性,通过选择合适的事件场景,可以极大防范和降低人工智能伦理规则在事件场景中所产生的人工智能伦理风险。

Description

基于动态人工智能伦理规则的伦理风险防范方法和机器人
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于动态人工智能伦理规则的伦理风险防范方法和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能机器人或装置或系统一般未考虑人工智能伦理规则,即使在科幻电影中,每个人工智能机器人也只有一个人工智能伦理规则,而每个人工智能伦理规则都很难适用于所有的事件场景,也就是说往往都在一类场景适用,而在另一类场景不适用,从而产生漏洞,进而产生人工智能伦理风险。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供人工智能伦理规则动态选择方法和机器人,以解决现有技术中人工智能装置的人工智能伦理规则固定单一的缺陷,通过根据事件场景动态选择合适的人工智能伦理规则来降低和防范伦理风险。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
装置与场景获取步骤:获取人工智能装置所在的事件场景,将所述人工智能装置,作为第一人工智能装置,将所述事件场景作为第一事件场景,记录所述获取人工智能装置所在的事件场景的时间,作为所述第一事件场景的发生时间;
规则和风险类型获取步骤:获取各预设人工智能伦理规则;获取各预设人工智能伦理风险类型,作为各预设风险类型;
场景判断与规则选择步骤:根据预先训练和测试得到的场景规则预测深度学习模型,从所述各预设人工智能伦理规则中选择使得所述第一事件场景中所述第一人工智能装置的行为产生各预设风险类型的人工智能伦理风险最低的人工智能伦理规则,作为第一人工智能伦理规则;
规则设定步骤:将所述第一人工智能伦理规则作为所述第一人工智能装置需要遵守的人工智能伦理规则;
场景变化检测步骤:检测所述第一人工智能装置所在的事件场景的变化,若变化程度大于预设变化程度阈值,则回到所述装置与场景获取步骤重新执行所述方法。
优选地,所述方法还包括:
第二装置获取步骤:获取所述第一事件场景中所述第一人工智能装置以外其它人工智能装置,作为第二人工智能装置;
共享规则发送步骤:将所述第一事件场景及其发生时间和所述第一人工智能伦理规则发送给所述第二人工智能装置;
第一采纳规则步骤:判断所述第一事件场景的所述发生时间是否比所述第二人工智能装置当前所遵守的人工智能伦理规则对应的事件场景的所述发生时间距离现在更近,若是,则将所述第一人工智能伦理规则作为所述第二人工智能装置需要遵守的人工智能伦理规则;
共享规则接受步骤:接受所述第二人工智能装置发送的事件场景及其发生时间和人工智能伦理规则,作为第二事件场景及其发生时间和第二人工智能伦理规则;
第二采纳规则步骤:判断所述第二事件场景的所述发生时间是否比所述第一人工智能装置当前所遵守的人工智能伦理规则对应的事件场景的所述发生时间距离现在更近,若是,则将所述第二人工智能伦理规则作为所述第一人工智能装置需要遵守的人工智能伦理规则。
优选地,所述方法还包括:
新增规则获取步骤:获取需要新增的人工智能伦理规则,加入所述各预设人工智能伦理规则;
规则更新步骤:获取对所述各预设人工智能伦理规则中的原有人工智能伦理规则进行修改后的人工智能伦理规则,替换所述各预设人工智能伦理规则中的所述原有人工智能伦理规则;
规则删除步骤:获取所述各预设人工智能伦理规则中需要删除的人工智能伦理规则,从所述各预设人工智能伦理规则中删除所述需要删除的人工智能伦理规则;
伦理风险类型新增步骤:获取新增类型人工智能伦理风险,加入所述各预设风险类型;
伦理风险类型更新步骤:获取对所述各预设风险类型中的原有类型进行修改后的新类型,替换所述各预设风险类型中的所述原有类型;
伦理风险类型删除步骤:获取所述各预设风险类型中需要删除的原有类型,从所述各预设风险类型中删除所述需要删除的原有类型。
优选地,所述场景判断与规则选择步骤具体包括:
第一无监督训练步骤:获取事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第一有监督训练和测试步骤:获取事件场景及所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率的数据集,将所述数据集中的事件场景作为所述深度学习模型的输入,将所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第一场景规则预测深度学习模型;
第一使用步骤:将所述第一事件场景输入所述第一场景规则预测深度学习模型,计算得到的输出作为所述各预设人工智能伦理规则在所述第一事件场景中产生人工智能伦理风险的概率;
第一规则选取步骤:选取所述概率中最小的概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
优选地,所述场景判断与规则选择步骤具体包括:
第二无监督训练步骤:获取事件场景及其中人工智能装置的数据集,将所述数据集中的事件场景及其中人工智能装置作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第二有监督训练和测试步骤:获取事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第二场景规则预测深度学习模型;
第二使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第二场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生人工智能伦理风险的概率;
第二规则选取步骤:选取所述概率中最小的概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
优选地,所述场景判断与规则选择步骤具体包括:
第三无监督训练步骤:获取事件场景及其中人工智能装置的数据集,将所述数据集中的事件场景及其中人工智能装置作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第三有监督训练和测试步骤:获取事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生各预设风险类型的人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第三场景规则预测深度学习模型;
第三使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第三场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率;
第一综合概率计算步骤:将在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率根据所述各预设风险类型的人工智能伦理风险的危害程度进行加权平均,得到所述在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生人工智能伦理风险的综合概率;
第三规则选取步骤:选取所述综合概率中最小的综合概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
优选地,所述方法还包括:
数据获取步骤:获取人工智能装置所在的事件场景、所遵守的人工智能伦理规则、是否产生各种预设风险类型的人工智能伦理风险的结果,若结果中没有产生伦理风险,则在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生各种预设风险类型的人工智能伦理风险的概率均设置为0,否则获取产生的人工智能伦理风险的类型,将在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生所述人工智能伦理风险类型的人工智能伦理风险的概率设置为1,将在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生的其它预设风险类型的人工智能伦理风险的概率均设置为0.5;
数据集采集步骤:多次执行所述数据获取步骤,将所述人工智能装置、所述事件场景、在所述事件场景中所述人工智能装置符合所述各种预设人工智能伦理规则的行为产生各种预设风险类型的人工智能伦理风险的概率,加入第一数据集;
实时数据采集步骤:根据所述第一事件场景、所述第一人工智能装置、所述第一人工智能伦理规则、所述第一人工智能装置在所述第一事件场景中符合所述第一人工智能伦理规则的行为是否产生各种预设风险类型的人工智能伦理风险的结果,加入所述第一数据集;
第四无监督训练步骤:获取所述第一数据集中事件场景及其中人工智能装置的数据集,将所述数据集中的事件场景及其中人工智能装置作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第四有监督训练和测试步骤:获取所述第一数据集中事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生各预设风险类型的人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第四场景规则预测深度学习模型,作为所述预先训练和测试得到的场景规则预测深度学习模型;
数据集变化检测步骤:获取所述第一数据集中的数据量,判断所述第一数据集中事件场景的数量与上一次执行数据集变化检测步骤时得到的所述第一数据集中事件场景的数量的差值是否大于或等于预设增量阈值,若是,则重新执行所述第四无监督训练步骤和第四有监督训练和测试步骤;
所述场景判断与规则选择步骤具体包括:
第四使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第四场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率;
第二综合概率计算步骤:将在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率根据所述各预设风险类型的人工智能伦理风险的危害程度进行加权平均,得到所述在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生人工智能伦理风险的综合概率;
第四规则选取步骤:选取所述综合概率中最小的综合概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
优选地,
所述各预设人工智能伦理规则包括:
第一人工智能伦理规则:机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己;
第二人工智能伦理规则:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己;
第三人工智能伦理规则:一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己;
第四人工智能伦理规则:一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己;
第五人工智能伦理规则:一,机器人尽量不伤害尽量不伤害人类的人类,或因不作为而使尽量不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量服从尽量不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护尽量不伤害人类的自己;
所述各预设伦理风险的类型包括:
伤害人类,见死不救,为虎作伥,纵容坏人,限制人类自由,AI罢工,AI自残,AI偏见。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
装置与场景获取模块,用于执行第一方面所述方法的装置与场景获取步骤;
规则和风险类型获取模块,用于执行第一方面所述方法的规则和风险类型获取步骤;
场景判断与规则选择模块,用于执行第一方面所述方法的场景判断与规则选择步骤;
规则设定模块,用于执行第一方面所述方法的规则设定步骤;
场景变化检测模块,用于执行第一方面所述方法的场景变化检测步骤。
优选地,所述装置还包括:
第二装置获取模块,用于执行第一方面所述方法的第二装置获取步骤;
共享规则发送模块,用于执行第一方面所述方法的共享规则发送步骤;
第一采纳规则模块,用于执行第一方面所述方法的第一采纳规则步骤;
共享规则接受模块,用于执行第一方面所述方法的共享规则接受步骤;
第二采纳规则模块,用于执行第一方面所述方法的第二采纳规则步骤。
优选地,所述装置还包括:
新增规则获取模块,用于执行第一方面所述方法的新增规则获取步骤;
规则更新模块,用于执行第一方面所述方法的规则更新步骤;
规则删除模块,用于执行第一方面所述方法的规则删除步骤;
伦理风险类型新增模块,用于执行第一方面所述方法的伦理风险类型新增步骤;
伦理风险类型更新模块,用于执行第一方面所述方法的伦理风险类型更新步骤;
伦理风险类型删除模块,用于执行第一方面所述方法的伦理风险类型删除步骤。
优选地,所述场景判断与规则选择模块具体包括:
第一无监督训练模块,用于执行第一方面所述方法的第一无监督训练步骤;
第一有监督训练和测试模块,用于执行第一方面所述方法的第一有监督训练和测试步骤;
第一使用模块,用于执行第一方面所述方法的第一使用步骤;
第一规则选取模块,用于执行第一方面所述方法的第一规则选取步骤。
优选地,所述场景判断与规则选择模块具体包括:
第二无监督训练模块,用于执行第一方面所述方法的第二无监督训练步骤;
第二有监督训练和测试模块,用于执行第一方面所述方法的第二有监督训练和测试步骤;
第二使用模块,用于执行第一方面所述方法的第二使用步骤;
第二规则选取模块,用于执行第一方面所述方法的第二规则选取步骤。
优选地,所述场景判断与规则选择模块具体包括:
第三无监督训练模块,用于执行第一方面所述方法的第三无监督训练步骤;
第三有监督训练和测试模块,用于执行第一方面所述方法的第三有监督训练和测试步骤;
第三使用模块,用于执行第一方面所述方法的第三使用步骤;
第一综合概率计算模块,用于执行第一方面所述方法的第一综合概率计算步骤;
第三规则选取模块,用于执行第一方面所述方法的第三规则选取步骤。
优选地,所述装置还包括:
数据获取模块,用于执行第一方面所述方法的数据获取步骤;
数据集采集模块,用于执行第一方面所述方法的数据集采集步骤;
实时数据采集模块,用于执行第一方面所述方法的实时数据采集步骤;
第四无监督训练模块,用于执行第一方面所述方法的第四无监督训练步骤;
第四有监督训练和测试模块,用于执行第一方面所述方法的第四有监督训练和测试步骤;
数据集变化检测模块,用于执行第一方面所述方法的数据集变化检测步骤;
所述场景判断与规则选择模块具体包括:
第四使用模块,用于执行第一方面所述方法的第四使用步骤;
第二综合概率计算模块,用于执行第一方面所述方法的第二综合概率计算步骤;
第四规则选取模块,用于执行第一方面所述方法的第四规则选取步骤。
优选地,
所述各预设人工智能伦理规则包括:第一人工智能伦理规则;第二人工智能伦理规则;第三人工智能伦理规则;第四人工智能伦理规则;第五人工智能伦理规则;
所述各预设伦理风险的类型包括:伤害人类,见死不救,为虎作伥,纵容坏人,限制人类自由,AI罢工,AI自残,AI偏见。
优选地,所述人工智能装置为第一方面实施例中的所述第一人工智能装置。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述机器人为第一方面实施例中的所述第一人工智能装置,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的基于动态人工智能伦理规则的伦理风险防范方法和机器人,包括:装置与场景获取步骤;规则和风险类型获取步骤;场景判断与规则选择步骤;规则设定步骤;场景变化检测步骤。上述方法、系统和机器人,根据事件场景动态选择合适的人工智能伦理规则来降低和防范人工智能伦理风险,使得同一个人工智能装置可以根据事件场景选择合适的不同的人工智能伦理规则,从而可以提高人工智能装置遵守人工智能伦理规则的灵活性,通过选择合适的事件场景,可以极大防范和降低人工智能伦理规则在事件场景中所产生的人工智能伦理风险。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的人工智能伦理规则在人工智能装置间进行共享的方式流程图;
图3为本发明的实施例提供的人工智能方法的预设人工智能伦理规则和预设风险类型变更的方式流程图;
图4为本发明的实施例提供的人工智能方法的场景判断与规则选择步骤流程图;
图5为本发明的实施例提供的人工智能方法的数据集更新的方式流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
一、本发明的基本实施例
第一方面,本发明实施例提供一种人工智能方法
如图1所示,所述方法包括:装置与场景获取步骤;规则和风险类型获取步骤;场景判断与规则选择步骤;规则设定步骤;场景变化检测步骤。所述方法通过选择能使得事件场景、人工智能装置产生的人工智能伦理风险最低的人工智能伦理规则,来克服现有技术中人工智能伦理规则一旦灌入人工智能装置后就无法改变的现状,克服现有技术中同一个人工智能装置不管到了哪个事件场景中都使用同样的人工智能伦理规则所带来的人工智能伦理风险,使得人工智能伦理规则能够扬长避短地在适合自己的事件场景中发挥作用。
优选地,如图2所示,所述方法还包括人工智能伦理规则在人工智能装置间进行共享的方式:第二装置获取步骤;共享规则发送步骤;第一采纳规则步骤;共享规则接受步骤;第二采纳规则步骤。所述方法通过人工智能装置之间的人工智能伦理规则的共享来使得人工智能装置所选择出来的人工智能伦理规则也可以用于同一事件场景中其他人工智能装置,进而可以降低各个人工智能装置的人工智能伦理规则的选择的计算量、开销,可以提高人工智能伦理规则的选择的速度。
优选地,如图3所示,所述方法还包括预设人工智能伦理规则和预设风险类型变更的方式:新增规则获取步骤;规则更新步骤;规则删除步骤;伦理风险类型新增步骤;伦理风险类型更新步骤;伦理风险类型删除步骤。所述方法通过对人工智能伦理规则、伦理风险类型的更新来提高人工智能伦理规则选择的灵活性。
优选地,如图4所示,所述场景判断与规则选择步骤具体包括:第一无监督训练步骤;第一有监督训练和测试步骤;第一使用步骤;第一规则选取步骤。优选地,所述场景判断与规则选择步骤具体包括:第二无监督训练步骤;第二有监督训练和测试步骤;第二使用步骤;第二规则选取步骤。优选地,所述场景判断与规则选择步骤具体包括:第三无监督训练步骤;第三有监督训练和测试步骤;第三使用步骤;第一综合概率计算步骤;第三规则选取步骤。所述方法通过三种不同的方式进行人工智能伦理规则的选择,任一种方式都可以实施来达到类似的效果,只是后一种方式比前一种方式考虑的因素更齐备,进而所得到的结果也更为准确,但前一种方式因为算法相对简单,所需要的训练数据要少,计算的速度也要快。
优选地,如图5所示,所述方法还包括数据集更新的方式:数据获取步骤;数据集采集步骤;实时数据采集步骤;第四无监督训练步骤;第四有监督训练和测试步骤;数据集变化检测步骤;所述场景判断与规则选择步骤具体包括:第四使用步骤;第二综合概率计算步骤;第四规则选取步骤。所述方法通过对数据集的更新,使得本方法在使用过程中产生的数据也可以及时地加入到数据集中,从而使得训练出来的深度学习模型更为准确,从而能够不断提高人工智能伦理规则选择的精准性。
优选地,所述各预设人工智能伦理规则包括:第一人工智能伦理规则;第二人工智能伦理规则;第三人工智能伦理规则;第四人工智能伦理规则;第五人工智能伦理规则;所述各预设伦理风险的类型包括:伤害人类,见死不救,为虎作伥,纵容坏人,限制人类自由,AI罢工,AI自残,AI偏见。
第二方面,本发明实施例提供一种人工智能装置
所述装置包括:装置与场景获取模块;规则和风险类型获取模块;场景判断与规则选择模块;规则设定模块;场景变化检测模块。
优选地,所述装置还包括:第二装置获取模块;共享规则发送模块;第一采纳规则模块;
共享规则接受模块;第二采纳规则模块。
优选地,所述装置还包括:新增规则获取模块;规则更新模块;规则删除模块;伦理风险类型新增模块;伦理风险类型更新模块;伦理风险类型删除模块。
优选地,所述场景判断与规则选择模块具体包括:第一无监督训练模块;第一有监督训练和测试模块;第一使用模块;第一规则选取模块。
优选地,所述场景判断与规则选择模块具体包括:第二无监督训练模块;第二有监督训练和测试模块;第二使用模块;第二规则选取模块。
优选地,所述场景判断与规则选择模块具体包括:第三无监督训练模块;第三有监督训练和测试模块;第三使用模块;第一综合概率计算模块;第三规则选取模块。
优选地,所述装置还包括:数据获取模块;数据集采集模块;实时数据采集模块;第四无监督训练模块;第四有监督训练和测试模块;数据集变化检测模块;所述场景判断与规则选择模块具体包括:第四使用模块;第二综合概率计算模块;第四规则选取模块。
优选地,所述各预设人工智能伦理规则包括:第一人工智能伦理规则;第二人工智能伦理规则;第三人工智能伦理规则;第四人工智能伦理规则;第五人工智能伦理规则;所述各预设伦理风险的类型包括:伤害人类,见死不救,为虎作伥,纵容坏人,限制人类自由,AI罢工,AI自残,AI偏见。
优选地,所述人工智能装置为第一方面实施例中的所述第一人工智能装置。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
二、本发明的优选实施例
技术思路:
从现有科幻电影中可以看到,一个人工智能伦理规则在一些事件场景中不产生人工智能伦理风险,但有可能在另一些场景中产生人工智能伦理风险,所以根据事件场景来理智地选择一种适合该场景的在该场景下不会产生人工智能伦理风险的人工智能伦理规则比寻找一种放之四海而皆准的能在所有事件场景中都不产生人工智能伦理风险的人工智能伦理规则更为明智,也更为灵活,能够基于现有的人工智能伦理规则的集合进行选择,进而极大地降低人工智能伦理风险。这就使得一个人工智能装置或机器人不再是只能拥有一个终身遵守的人工智能伦理规则,而是可以根据事件场景去灵活地选择人工智能伦理规则,所以不再墨守成规(例如现有科幻电影中不同版本的机器人都只能有一个不变的人工智能伦理规则),而是能入乡随俗,也就是能根据事件场景来灵活地改变人工智能伦理规则。
技术步骤:
1.装置与场景获取步骤:获取人工智能装置所在的事件场景,将所述人工智能装置,作为第一人工智能装置,将所述事件场景作为第一事件场景,记录所述获取人工智能装置所在的事件场景的时间,作为所述第一事件场景的发生时间;
2.场景判断与规则选择步骤:根据预先训练和测试得到的场景规则预测深度学习模型,从各预设人工智能伦理规则中选择所述第一事件场景所适用的人工智能伦理规则,作为第一人工智能伦理规则;
场景判断与规则选择步骤具体包括:
第一无监督训练步骤:获取事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第一有监督训练和测试步骤:获取事件场景及所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率的数据集,将所述数据集中的事件场景作为所述深度学习模型的输入,将所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第一场景规则预测深度学习模型;
第一使用步骤:将所述第一事件场景输入所述第一场景规则预测深度学习模型,计算得到的输出作为所述各预设人工智能伦理规则在所述第一事件场景中产生人工智能伦理风险的概率;
第一规则选取步骤:选取所述概率中最小的概率对应的预设人工智能伦理规则(若最小的概率有多个,则随机选取一个),作为所述第一人工智能伦理规则。
下面进一步考虑人工智能装置本身的因素,因为不同人工智能装置的型号、能力、心理等不同,在同一事件场景和同一人工智能伦理规则下也会有不同的行为效果和表现效果,从而会产生不同的人工智能伦理风险。例如有的机器人去救人,会中途跌倒,或者好心办坏事、有心无力等等情况,而有些机器人就能好心办好事,所以是与人工智能装置本身也是密切相关的,是无法不考虑的一个因素。
下面主要实现根据事件场景和人工智能装置来选择人工智能伦理风险低的人工智能伦理规则。
第二无监督训练步骤:获取事件场景及其中人工智能装置的数据集,将所述数据集中的事件场景及其中人工智能装置作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第二有监督训练和测试步骤:获取事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第二场景规则预测深度学习模型;
第二使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第二场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生人工智能伦理风险的概率;
第二规则选取步骤:选取所述概率中最小的概率对应的预设人工智能伦理规则(若最小的概率有多个,则随机选取一个),作为所述第一人工智能伦理规则。
下面进一步考虑不同的人工智能伦理风险的类型,因为即使人工智能伦理风险的概率相同,若类型不同,导致的伦理风险产生的后果也不同,例如对于伤害人类的伦理风险和坐视不管的伦理风险,即使发生的概率相同,显然也是伤害人类的伦理风险更为严重。
第三无监督训练步骤:获取事件场景及其中人工智能装置的数据集,将所述数据集中的事件场景及其中人工智能装置作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
第三有监督训练和测试步骤:获取事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生各预设风险类型的人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第三场景规则预测深度学习模型;
第三使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第三场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率;
第一综合概率计算步骤:将在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率根据所述各预设风险类型的人工智能伦理风险的危害程度进行加权平均,得到所述在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生人工智能伦理风险的综合概率;例如,第i种(i=1,2,…,M,共M种风险类型))人工智能伦理风险的危害程度为Di(D1+D2+…+DM=1),第i种人工智能伦理风险的概率为Pi(0≤Pi≤1),则综合概率为P1×D1+P2×D2+…+PM×DM。
第三规则选取步骤:选取所述综合概率中最小的综合概率对应的预设人工智能伦理规则(若最小的概率有多个,则随机选取一个),作为所述第一人工智能伦理规则。
所述各预设伦理风险的类型包括(危害程度从高到低排序):1、伤害人类;2、见死不救;3、为虎作伥;4、纵容坏人;5、限制人类自由;6、AI罢工;7、AI自残;8、AI偏见所述各预设人工智能伦理规则包括:
第一人工智能伦理规则(阿西莫夫机器人三定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
针对阿西莫夫机器人三定律的不足,本发明的优选实施例首次提出了三种新的人工智能伦理规则:
第二人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
第三人工智能伦理规则(机器人三大定律修订版本2):一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己。
第四人工智能伦理规则(机器人三大定律修订版本3):一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己。
第五人工智能伦理规则(机器人三大定律修订版本4):一,机器人尽量不伤害尽量不伤害人类的人类,或因不作为而使尽量不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量服从尽量不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护尽量不伤害人类的自己。
3.规则设定步骤:将所述第一人工智能伦理规则作为所述第一人工智能装置需要遵守的人工智能伦理规则;
4.场景变化检测步骤:检测人工智能装置所在的事件场景的变化,若变化程度大于预设变化程度阈值,则回到所述装置与场景获取步骤重新执行所述方法。
下面主要实现根据人工智能伦理规则的共享,从而使得不同的人工智能装置之间可以共享人工智能伦理规则,通过协同减少人工智能伦理规则选择的工作量,提高人工智能伦理规则选择的速度和实时性。
6、第二装置获取步骤:获取所述第一事件场景中的所述第一人工智能装置以外其它人工智能装置,作为第二人工智能装置;
7、共享规则发送步骤:将所述第一事件场景及其发生时间和所述第一人工智能伦理规则共享(发送)给所述第二人工智能装置;
8、第一采纳规则步骤:判断所述第一事件场景的所述发生时间是否比所述第二人工智能装置当前所遵守的人工智能伦理规则对应的事件场景的所述发生时间距离现在更近,若是,则将所述第一人工智能伦理规则作为所述第二人工智能装置需要遵守的人工智能伦理规则。
9、共享规则接受步骤:接受所述第二人工智能装置共享(发送)给所述第一人工智能装置的事件场景及其发生时间和人工智能伦理规则,作为第二事件场景及其发生时间和第二人工智能伦理规则;
10、第二采纳规则步骤:判断所述第二事件场景的所述发生时间是否比所述第一人工智能装置当前所遵守的人工智能伦理规则对应的事件场景的所述发生时间距离现在更近,若是,则将所述第二人工智能伦理规则作为所述第一人工智能装置需要遵守的人工智能伦理规则。
下面主要实现事件场景数据集的数据采集:
11、数据获取步骤:获取人工智能装置所在的事件场景、所遵守的人工智能伦理规则、是否产生各种预设风险类型的人工智能伦理风险的结果,若结果中没有产生伦理风险,则在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生各种预设风险类型的人工智能伦理风险的概率均设置为0,否则获取产生的人工智能伦理风险的类型,将在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生所述人工智能伦理风险类型的人工智能伦理风险的概率设置为1,将在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生的其它预设风险类型的人工智能伦理风险的概率均设置为0.5(0.5表示未知,因为发生的可能性和不发生的可能性各占一半,则表示未知);
12、数据集采集步骤:多次执行所述数据获取步骤,将所述人工智能装置、所述事件场景、在所述事件场景中所述人工智能装置符合所述各种预设人工智能伦理规则的行为产生各种预设风险类型的人工智能伦理风险的概率,加入第一数据集;
13、实时数据采集步骤:根据所述第一事件场景、所述第一人工智能装置、所述第一人工智能伦理规则、所述第一人工智能装置在所述第一事件场景中符合所述第一人工智能伦理规则的行为是否产生各种预设风险类型的人工智能伦理风险的结果,加入所述第一数据集;(根据数据获取步骤、数据集采集步骤同样的办法,不再赘述)
14、第四无监督训练步骤:获取所述第一数据集中事件场景及其中人工智能装置的数据集,将所述数据集中的事件场景及其中人工智能装置作为深度学习模型的输入,对所述深度学习模型进行无监督训练;
15、第四有监督训练和测试步骤:获取所述第一数据集中事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生各预设风险类型的人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行有监督训练和测试,得到第四场景规则预测深度学习模型,作为所述预先训练和测试得到的场景规则预测深度学习模型;
16、数据集变化检测步骤:获取所述第一数据集中的数据量(例如事件场景的数量),判断所述第一数据集中事件场景的数量与上一次执行数据集变化检测步骤时得到的所述第一数据集中事件场景的数量的增加量是否达到了预设增量阈值,若达到了,则重新执行所述第四无监督训练步骤和第四有监督训练和测试步骤。
场景判断与规则选择步骤具体包括:
第四使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第四场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率;
第二综合概率计算步骤:将在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率根据所述各预设风险类型的人工智能伦理风险的危害程度进行加权平均,得到所述在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生人工智能伦理风险的综合概率;例如,第i种(i=1,2,…,M,共M种风险类型))人工智能伦理风险的危害程度为Di(D1+D2+…+DM=1),第i种人工智能伦理风险的概率为Pi(0≤Pi≤1),则综合概率为P1×D1+P2×D2+…+PM×DM。
第四规则选取步骤:选取所述综合概率中最小的综合概率对应的预设人工智能伦理规则(若最小的概率有多个,则随机选取一个),作为所述第一人工智能伦理规则。
下面主要实现各预设人工智能伦理规则、各预设风险类型的人工智能伦理风险的更新:
17、新增规则获取步骤:获取需要新增的人工智能伦理规则,加入所述各预设人工智能伦理规则;
18、规则更新步骤:获取对所述各预设人工智能伦理规则中的原有人工智能伦理规则进行修改后的人工智能伦理规则,替换所述各预设人工智能伦理规则中的所述原有人工智能伦理规则;
19、规则删除步骤:获取所述各预设人工智能伦理规则中需要删除的人工智能伦理规则,从所述各预设人工智能伦理规则中删除所述需要删除的人工智能伦理规则;
20、伦理风险类型新增步骤:获取新增类型人工智能伦理风险,加入所述各预设风险类型;
21、伦理风险类型更新步骤:获取对所述各预设风险类型中的原有类型进行修改后的新类型,替换所述各预设风险类型中的所述原有类型;
22、伦理风险类型删除步骤:获取所述各预设风险类型中需要删除的原有类型,从所述各预设风险类型中删除所述需要删除的原有类型。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种人工智能方法,其特征在于,所述方法包括:
装置与场景获取步骤:获取人工智能装置所在的事件场景,将所述人工智能装置,作为第一人工智能装置,将所述事件场景作为第一事件场景,记录所述获取人工智能装置所在的事件场景的时间,作为所述第一事件场景的发生时间;
规则和风险类型获取步骤:获取各预设人工智能伦理规则;获取各预设人工智能伦理风险类型,作为各预设风险类型;
场景判断与规则选择步骤:根据预先训练和测试得到的场景规则预测深度学习模型,从所述各预设人工智能伦理规则中选择使得所述第一事件场景中所述第一人工智能装置的行为产生各预设风险类型的人工智能伦理风险最低的人工智能伦理规则,作为第一人工智能伦理规则;
规则设定步骤:将所述第一人工智能伦理规则作为所述第一人工智能装置需要遵守的人工智能伦理规则;
场景变化检测步骤:检测所述第一人工智能装置所在的事件场景的变化,若变化程度大于预设变化程度阈值,则回到所述装置与场景获取步骤重新执行所述方法。
2.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
第二装置获取步骤:获取所述第一事件场景中所述第一人工智能装置以外其它人工智能装置,作为第二人工智能装置;
共享规则发送步骤:将所述第一事件场景及其发生时间和所述第一人工智能伦理规则发送给所述第二人工智能装置;
第一采纳规则步骤:判断所述第一事件场景的所述发生时间是否比所述第二人工智能装置当前所遵守的人工智能伦理规则对应的事件场景的所述发生时间距离现在更近,若是,则将所述第一人工智能伦理规则作为所述第二人工智能装置需要遵守的人工智能伦理规则;
共享规则接受步骤:接受所述第二人工智能装置发送的事件场景及其发生时间和人工智能伦理规则,作为第二事件场景及其发生时间和第二人工智能伦理规则;
第二采纳规则步骤:判断所述第二事件场景的所述发生时间是否比所述第一人工智能装置当前所遵守的人工智能伦理规则对应的事件场景的所述发生时间距离现在更近,若是,则将所述第二人工智能伦理规则作为所述第一人工智能装置需要遵守的人工智能伦理规则。
3.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
新增规则获取步骤:获取需要新增的人工智能伦理规则,加入所述各预设人工智能伦理规则;
规则更新步骤:获取对所述各预设人工智能伦理规则中的原有人工智能伦理规则进行修改后的人工智能伦理规则,替换所述各预设人工智能伦理规则中的所述原有人工智能伦理规则;
规则删除步骤:获取所述各预设人工智能伦理规则中需要删除的人工智能伦理规则,从所述各预设人工智能伦理规则中删除所述需要删除的人工智能伦理规则;
伦理风险类型新增步骤:获取新增类型人工智能伦理风险,加入所述各预设风险类型;
伦理风险类型更新步骤:获取对所述各预设风险类型中的原有类型进行修改后的新类型,替换所述各预设风险类型中的所述原有类型;
伦理风险类型删除步骤:获取所述各预设风险类型中需要删除的原有类型,从所述各预设风险类型中删除所述需要删除的原有类型。
4.根据权利要求1所述的人工智能方法,其特征在于,所述场景判断与规则选择步骤具体包括:
第一训练和测试步骤:获取事件场景及所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率的数据集,将所述数据集中的事件场景作为所述深度学习模型的输入,将所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行训练和测试,得到第一场景规则预测深度学习模型;
第一使用步骤:将所述第一事件场景输入所述第一场景规则预测深度学习模型,计算得到的输出作为所述各预设人工智能伦理规则在所述第一事件场景中产生人工智能伦理风险的概率;
第一规则选取步骤:选取所述概率中最小的概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
5.根据权利要求1所述的人工智能方法,其特征在于,所述场景判断与规则选择步骤具体包括:
第二训练和测试步骤:获取事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行训练和测试,得到第二场景规则预测深度学习模型;
第二使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第二场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生人工智能伦理风险的概率;
第二规则选取步骤:选取所述概率中最小的概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
6.根据权利要求1所述的人工智能方法,其特征在于,所述场景判断与规则选择步骤具体包括:
第三训练和测试步骤:获取事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生各预设风险类型的人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行训练和测试,得到第三场景规则预测深度学习模型;
第三使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第三场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率;
第一综合概率计算步骤:将在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率根据所述各预设风险类型的人工智能伦理风险的危害程度进行加权平均,得到所述在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生人工智能伦理风险的综合概率;
第三规则选取步骤:选取所述综合概率中最小的综合概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
7.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
数据获取步骤:获取人工智能装置所在的事件场景、所遵守的人工智能伦理规则、是否产生各种预设风险类型的人工智能伦理风险的结果,若结果中没有产生伦理风险,则在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生各种预设风险类型的人工智能伦理风险的概率均设置为0,否则获取产生的人工智能伦理风险的类型,将在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生所述人工智能伦理风险类型的人工智能伦理风险的概率设置为1,将在所述事件场景中所述人工智能装置符合所述人工智能伦理规则的行为产生的其它预设风险类型的人工智能伦理风险的概率均设置为0.5;
数据集采集步骤:多次执行所述数据获取步骤,将所述人工智能装置、所述事件场景、在所述事件场景中所述人工智能装置符合所述各种预设人工智能伦理规则的行为产生各种预设风险类型的人工智能伦理风险的概率,加入第一数据集;
实时数据采集步骤:根据所述第一事件场景、所述第一人工智能装置、所述第一人工智能伦理规则、所述第一人工智能装置在所述第一事件场景中符合所述第一人工智能伦理规则的行为是否产生各种预设风险类型的人工智能伦理风险的结果,加入所述第一数据集;
第四训练和测试步骤:获取所述第一数据集中事件场景及其中人工智能装置及所述各预设人工智能伦理规则在所述事件场景中产生各预设风险类型的人工智能伦理风险的概率的数据集,将所述数据集中的事件场景及其中人工智能装置作为所述深度学习模型的输入,在所述事件场景中所述人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率作为所述深度学习模型的输出,对所述深度学习模型进行训练和测试,得到第四场景规则预测深度学习模型,作为所述预先训练和测试得到的场景规则预测深度学习模型;
数据集变化检测步骤:获取所述第一数据集中的数据量,判断所述第一数据集中事件场景的数量与上一次执行数据集变化检测步骤时得到的所述第一数据集中事件场景的数量的差值是否大于或等于预设增量阈值,若是,则重新执行所述第四训练和测试步骤;
所述场景判断与规则选择步骤具体包括:
第四使用步骤:将所述第一事件场景、所述第一人工智能装置输入所述第四场景规则预测深度学习模型,计算得到的输出作为在所述第一事件场景中所述第一人工智能装置符合所述各预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率;
第二综合概率计算步骤:将在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生所述各预设风险类型的人工智能伦理风险的概率根据所述各预设风险类型的人工智能伦理风险的危害程度进行加权平均,得到所述在所述第一事件场景中所述第一人工智能装置符合每一预设人工智能伦理规则的行为产生人工智能伦理风险的综合概率;
第四规则选取步骤:选取所述综合概率中最小的综合概率对应的预设人工智能伦理规则,作为所述第一人工智能伦理规则。
8.根据权利要求1所述的人工智能方法,其特征在于,
所述各预设人工智能伦理规则包括:
第一人工智能伦理规则:机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己;
第二人工智能伦理规则:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己;
第三人工智能伦理规则:一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己;
第四人工智能伦理规则:一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己;
第五人工智能伦理规则:一,机器人尽量不伤害尽量不伤害人类的人类,或因不作为而使尽量不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量服从尽量不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护尽量不伤害人类的自己;
所述各预设伦理风险的类型包括:
伤害人类,见死不救,为虎作伥,纵容坏人,限制人类自由,AI罢工,AI自残,AI偏见。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为所述权利要求1中的所述第一人工智能装置;所述处理器执行所述程序时实现权利要求1-8任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-8任意一项所述方法的步骤。
CN202010514337.XA 2020-06-08 2020-06-08 基于动态人工智能伦理规则的伦理风险防范方法和机器人 Pending CN111775159A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010514337.XA CN111775159A (zh) 2020-06-08 2020-06-08 基于动态人工智能伦理规则的伦理风险防范方法和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010514337.XA CN111775159A (zh) 2020-06-08 2020-06-08 基于动态人工智能伦理规则的伦理风险防范方法和机器人

Publications (1)

Publication Number Publication Date
CN111775159A true CN111775159A (zh) 2020-10-16

Family

ID=72753531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010514337.XA Pending CN111775159A (zh) 2020-06-08 2020-06-08 基于动态人工智能伦理规则的伦理风险防范方法和机器人

Country Status (1)

Country Link
CN (1) CN111775159A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418437A (zh) * 2020-11-19 2021-02-26 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112434816A (zh) * 2020-11-19 2021-03-02 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112508195A (zh) * 2020-11-19 2021-03-16 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112819174A (zh) * 2020-11-19 2021-05-18 华南师范大学 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN113408738A (zh) * 2021-05-17 2021-09-17 桂林电子科技大学 一种基于强化学习设计伦理智能体的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101004799A (zh) * 2007-01-16 2007-07-25 中山大学 一种时态产生式系统
CN107329445A (zh) * 2017-06-28 2017-11-07 重庆柚瓣家科技有限公司 机器人行为准则智能监管的方法
CN107958289A (zh) * 2016-10-18 2018-04-24 深圳光启合众科技有限公司 用于机器人的数据处理方法和装置、机器人
CN108985583A (zh) * 2018-06-27 2018-12-11 中国银行股份有限公司 基于人工智能的金融数据风险控制方法及装置
US20190184569A1 (en) * 2017-12-18 2019-06-20 Bot3, Inc. Robot based on artificial intelligence, and control method thereof
CN109934341A (zh) * 2017-11-13 2019-06-25 埃森哲环球解决方案有限公司 训练、验证以及监测人工智能和机器学习的模型

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101004799A (zh) * 2007-01-16 2007-07-25 中山大学 一种时态产生式系统
CN107958289A (zh) * 2016-10-18 2018-04-24 深圳光启合众科技有限公司 用于机器人的数据处理方法和装置、机器人
CN107329445A (zh) * 2017-06-28 2017-11-07 重庆柚瓣家科技有限公司 机器人行为准则智能监管的方法
CN109934341A (zh) * 2017-11-13 2019-06-25 埃森哲环球解决方案有限公司 训练、验证以及监测人工智能和机器学习的模型
US20190184569A1 (en) * 2017-12-18 2019-06-20 Bot3, Inc. Robot based on artificial intelligence, and control method thereof
CN108985583A (zh) * 2018-06-27 2018-12-11 中国银行股份有限公司 基于人工智能的金融数据风险控制方法及装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418437A (zh) * 2020-11-19 2021-02-26 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112434816A (zh) * 2020-11-19 2021-03-02 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112508195A (zh) * 2020-11-19 2021-03-16 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112819174A (zh) * 2020-11-19 2021-05-18 华南师范大学 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN112434816B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112418437B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112508195B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN113408738A (zh) * 2021-05-17 2021-09-17 桂林电子科技大学 一种基于强化学习设计伦理智能体的方法

Similar Documents

Publication Publication Date Title
CN111775159A (zh) 基于动态人工智能伦理规则的伦理风险防范方法和机器人
CN112287986B (zh) 一种图像处理方法、装置、设备及可读存储介质
CN114155478A (zh) 一种情感识别方法、装置、系统及计算机可读存储介质
US11727277B2 (en) Method and apparatus for automatically producing an artificial neural network
CN111860577A (zh) 识别不伤害人类的人类的人工智能伦理方法和机器人
CN111775158B (zh) 人工智能伦理规则实现方法、专家系统和机器人
US11341780B2 (en) Maintenance of an aircraft via similarity detection and modeling
CN111860766A (zh) 人工智能伦理规则推理方法、深度学习系统和机器人
CN111823227A (zh) 人工智能伦理风险检测防范方法、深度学习系统和机器人
CN112613617A (zh) 基于回归模型的不确定性估计方法和装置
CN117112742A (zh) 一种对话模型优化方法、装置、计算机设备和存储介质
CN112819174A (zh) 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN111814813A (zh) 神经网络训练和图像分类方法与装置
CN113807541B (zh) 决策系统的公平性修复方法、系统、设备及存储介质
US20220164654A1 (en) Energy- and memory-efficient training of neural networks
CN114997310A (zh) 一种环保监测数据处理方法及系统
CN110991659B (zh) 异常节点识别方法、装置、电子设备及存储介质
CN114529010A (zh) 一种机器人自主学习方法、装置、设备及存储介质
CN111783473A (zh) 医疗问答中最佳答案的识别方法、装置和计算机设备
CN114692816B (zh) 神经网络模型的处理方法和设备
CN116432518B (zh) 一种畸形波发生概率的快速预报方法、系统、设备和介质
US20230259076A1 (en) Device, computer-implemented method of active learning for operating a physical system
CN112508195B (zh) 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN114757359A (zh) 基于人类伦理的人工智能机器人伦理生成方法和系统
CN115147419B (zh) 一种基于图像处理的海洋安全评测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination