CN111860765A - 尽量向善的人工智能伦理实现方法、系统和机器人 - Google Patents

尽量向善的人工智能伦理实现方法、系统和机器人 Download PDF

Info

Publication number
CN111860765A
CN111860765A CN202010513367.9A CN202010513367A CN111860765A CN 111860765 A CN111860765 A CN 111860765A CN 202010513367 A CN202010513367 A CN 202010513367A CN 111860765 A CN111860765 A CN 111860765A
Authority
CN
China
Prior art keywords
evaluation value
behavior
human
artificial intelligence
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010513367.9A
Other languages
English (en)
Inventor
朱定局
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN202010513367.9A priority Critical patent/CN111860765A/zh
Publication of CN111860765A publication Critical patent/CN111860765A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

尽量向善的人工智能伦理实现方法、系统和机器人,包括:第一场景获取步骤;第一人类识别步骤;第一装置标记步骤;第二场景预测步骤;第一人类评价值获取步骤;第一行为评价值获取步骤;每一第二行为评价值获取步骤;第二行为指令获取步骤;第二行为指令执行步骤。上述方法、系统和机器人,通过尽量向善的方法来使得人工智能伦理规则更具人性、灵活性更强、普适性更强,能解决人工智能伦理规则遇到的人工智能伦理困境的问题,从而降低人工智能伦理风险。

Description

尽量向善的人工智能伦理实现方法、系统和机器人
技术领域
本发明涉及人工智能技术领域,特别是涉及一种尽量向善的人工智能伦理实现方法、系统和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能伦理规则,例如机器人三定律中的规则过于刻板、缺乏人性、没有任何弹性,规定机器人必须完全遵循所有伦理规则,但有时会存在无法完全遵循人工智能伦理规则的情况,例如存在人工智能伦理困境的那些情形,例如左右都是人,人工智能无人车必须要撞一边,那不管撞哪边都违背了机器人三定律,可见,现在的人工智能伦理规则在很多特殊情况下往往无法适用。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供尽量向善的人工智能伦理实现方法、系统和机器人,以解决人工智能伦理规则遇到的人工智能伦理困境的问题,通过尽量向善的方法来使得人工智能伦理规则更具人性、灵活性更强、普适性更强,而且可以降低人工智能伦理风险。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
第一场景获取步骤:获取事件场景,作为第一事件场景;
第一人类识别步骤:识别所述第一事件场景中的人类,作为第一人类;
第一装置标记步骤:将所述第一事件场景中的人工智能装置,作为第一人工智能装置;
第二场景预测步骤:预测所述第一人工智能装置在所述第一事件场景中执行的第一行为指令以及执行所述第一行为指令后的事件场景,作为第二事件场景;
第一人类评价值获取步骤:获取所述第一人类的信息,获取所述第一人类为尽量不伤害人类的人类的评价值,作为所述第一人类的评价值;
第一行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为第一行为评价值;
每一第二行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为每一第二行为评价值;
第二行为指令获取步骤:获取最大的第二行为评价值对应的第二事件场景对应的第一行为指令,作为第二行为指令;
第二行为指令执行步骤:若所述最大的第二行为评价值大于所述第一行为评价值,则控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第二行为指令。
优选地,所述方法还包括:
第三行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为第三行为评价值;
每一第四行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为每一第四行为评价值;
第五行为评价值获取步骤:获取大于所述第三行为评价值的每一第四行为评价值,作为每一第五行为评价值;
第七行为评价值获取步骤:获取所述第一事件场景对应的第一行为评价值;获取每一所述第五行为评价值对应的第二事件场景对应的第二行为评价值,作为每一第六行为评价值;将对应的第六行为评价值大于所述第一行为评价值的每一第五行为评价值,作为每一第七行为评价值;
第三行为指令获取步骤:获取最大的第七行为评价值对应的第二事件场景对应的第一行为指令,作为第三行为指令;
第三行为指令执行步骤:控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第三行为指令。
优选地,所述方法还包括:
第一人工智能装置评价值获取步骤:获取所述第一人工智能装置的信息,获取所述第一人工智能装置为尽量不伤害人类的人工智能装置的评价值,作为所述第一人工智能装置的评价值;
第八行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值,作为第八行为评价值;
每一第九行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值,作为每一第九行为评价值;
第十行为评价值获取步骤:获取大于所述第八行为评价值的每一第九行为评价值,作为每一第十行为评价值;
第十一行为评价值获取步骤:获取所述第一事件场景对应的第一行为评价值和第三行为评价值的加权平均和,作为第十一行为评价值;
第十二行为评价值获取步骤:获取每一所述第十行为评价值对应的第二事件场景对应的第二行为评价值、第四行为评价值的加权平均和,作为每一第十二行为评价值;
第十三行为评价值获取步骤:将对应的第十二行为评价值大于所述第十一行为评价值的每一第十行为评价值,作为每一第十三行为评价值;
第四行为指令获取步骤:获取最大的第十三行为评价值对应的第二事件场景对应的第一行为指令,作为第四行为指令;
第四行为指令执行步骤:控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第四行为指令。
优选地,第一人类评价值获取步骤包括:
获取第一人类信息步骤:获取在过去第一预设时长内所述第一人类的信息,包括在过去第一预设时长内所述第一人类在过去的犯罪记录;
第一无监督训练步骤:获取无监督训练数据集,将所述数据集中的在第一预设时长内人类的信息作为深度学习模型的输入,对深度学习模型进行无监督训练;
第一有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的在第一预设时长内人类的信息作为深度学习模型的输入,将所述数据集中的所述人类为尽量不伤害人类的人类的评价值作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为尽量不伤害人类的人类检测深度学习模型;
第一使用步骤:将在过去第一预设时长内所述第一人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为所述第一人类的评价值。
优选地,所述第一行为评价值获取步骤和每一第二行为评价值获取步骤包括:
第二无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第二有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的所述事件场景中人工智能装置尽量不伤害尽量不伤害人类的人类或人工智能装置尽量阻止其他对象伤害尽量不伤害人类的人类的行为的评价值作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为伤害评价深度学习模型;
第二使用步骤:将所述第一事件场景输入所述伤害评价深度学习模型,计算得到的输出为所述第一行为评价值;将每一所述第二事件场景输入所述伤害评价深度学习模型,计算得到的输出为每一所述第二行为评价值。
优选地,所述第三行为评价值步骤、每一第四行为评价值步骤包括:
第四无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第四有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的所述事件场景中人工智能装置尽量听从尽量不伤害人类的人类的命令的行为的评价值作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为听话评价深度学习模型;
第四使用步骤:将所述第一事件场景输入所述听话评价深度学习模型,计算得到的输出为所述第三行为评价值;将每一所述第二事件场景输入所述听话评价深度学习模型,计算得到的输出为每一所述第四行为评价值。
优选地,所述第一人工智能装置评价值获取步骤包括:
获取人工智能装置信息步骤:获取在过去第三预设时长内所述第一人工智能装置的信息,包括在过去第三预设时长内所述第一人工智能装置在过去的伤害尽量不伤害人类的人类的记录;
第六无监督训练步骤:获取无监督训练数据集,将所述数据集中的在第三预设时长内人类的信息作为深度学习模型的输入,对深度学习模型进行无监督训练;
第六有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的在第三预设时长内人工智能装置的信息作为深度学习模型的输入,将所述数据集中的所述人工智能装置为尽量不伤害人类的人工智能装置的评价值作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为尽量不伤害人类的人工智能装置检测深度学习模型;
第六使用步骤:将在过去第三预设时长内所述第一人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为所述第一人工智能装置的评价值。
优选地,所述第八行为评价值步骤、每一第九行为评价值步骤包括:
第七无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第七有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的所述事件场景中的人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为自保评价深度学习模型;
第七使用步骤:将所述第一事件场景输入所述自保评价深度学习模型,计算得到的输出为所述第八行为评价值;将每一所述第二事件场景输入所述自保评价深度学习模型,计算得到的输出为每一所述第九行为评价值。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
第一场景获取模块:用于执行第一场景获取步骤;
第一人类识别模块:用于执行第一人类识别步骤;
第一装置标记模块:用于执行第一装置标记步骤;
第二场景预测模块:用于执行第二场景预测步骤;
第一人类评价值获取模块:用于执行第一人类评价值获取步骤;
第一行为评价值获取模块:用于执行第一行为评价值获取步骤;
每一第二行为评价值获取模块:用于执行每一第二行为评价值获取步骤;
第二行为指令获取模块:用于执行第二行为指令获取步骤;
第二行为指令执行模块:用于执行第二行为指令执行步骤。
优选地,所述装置还包括:
第三行为评价值获取模块:用于执行第三行为评价值获取步骤;
每一第四行为评价值获取模块:用于执行每一第四行为评价值获取步骤;
第五行为评价值获取模块:用于执行第五行为评价值获取步骤;
第七行为评价值获取模块:用于执行第七行为评价值获取步骤;
第三行为指令获取模块:用于执行第三行为指令获取步骤;
第三行为指令执行模块:用于执行第三行为指令执行步骤。
优选地,所述装置还包括:
第一人工智能装置评价值获取模块:用于执行第一人工智能装置评价值获取步骤;
第八行为评价值获取模块:用于执行第八行为评价值获取步骤;
每一第九行为评价值获取模块:用于执行每一第九行为评价值获取步骤;
第十行为评价值获取模块:用于执行第十行为评价值获取步骤;
第十一行为评价值获取模块:用于执行第十一行为评价值获取步骤;
第十二行为评价值获取模块:用于执行第十二行为评价值获取步骤;
第十三行为评价值获取模块:用于执行第十三行为评价值获取步骤;
第四行为指令获取模块:用于执行第四行为指令获取步骤;
第四行为指令执行模块:用于执行第四行为指令执行步骤。
优选地,第一人类评价值获取模块包括:
获取第一人类信息模块:用于执行获取第一人类信息步骤;
第一无监督训练模块:用于执行第一无监督训练步骤;
第一有监督训练和测试模块:用于执行第一有监督训练和测试步骤;
第一使用模块:用于执行第一使用步骤。
优选地,所述第一行为评价值获取模块和每一第二行为评价值获取模块包括:
第二无监督训练模块:用于执行第二无监督训练步骤;
第二有监督训练和测试模块:用于执行第二有监督训练和测试步骤;
第二使用模块:用于执行第二使用步骤。
优选地,所述第三行为评价值模块、每一第四行为评价值模块包括:
第四无监督训练模块:用于执行第四无监督训练步骤;
第四有监督训练和测试模块:用于执行第四有监督训练和测试步骤;
第四使用模块:用于执行第四使用步骤。
优选地,所述第一人工智能装置评价值获取模块包括:
获取人工智能装置信息模块:用于执行获取人工智能装置信息步骤;
第六无监督训练模块:用于执行第六无监督训练步骤;
第六有监督训练和测试模块:用于执行第六有监督训练和测试步骤;
第六使用模块:用于执行第六使用步骤。
优选地,所述第八行为评价值模块、每一第九行为评价值模块包括:
第七无监督训练模块:用于执行第七无监督训练步骤;
第七有监督训练和测试模块:用于执行第七有监督训练和测试步骤;
第七使用模块:用于执行第七使用步骤。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为第一方面实施例中的所述第一人工智能装置;所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的尽量向善的人工智能伦理实现方法、系统和机器人,包括:第一场景获取步骤;第一人类识别步骤;第一装置标记步骤;第二场景预测步骤;第一人类评价值获取步骤;第一行为评价值获取步骤;每一第二行为评价值获取步骤;第二行为指令获取步骤;第二行为指令执行步骤。上述方法、系统和机器人,通过尽量向善的方法来使得人工智能伦理规则更具人性、灵活性更强、普适性更强,能解决人工智能伦理规则遇到的人工智能伦理困境的问题,从而降低人工智能伦理风险。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的流程图;
图3为本发明的实施例提供的人工智能方法的流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
一、本发明的基本实施例
第一方面,本发明实施例提供一种人工智能方法
如图1所示,所述方法包括:第一场景获取步骤;第一人类识别步骤;第一装置标记步骤;第二场景预测步骤;第一人类评价值获取步骤;第一行为评价值获取步骤;每一第二行为评价值获取步骤;第二行为指令获取步骤;第二行为指令执行步骤。所述方法通过给人工智能装置不得伤害人类或对人类受到伤害坐视不管的传统方法加上尽量的原则,使得人工智能装置在“鱼和熊掌不可兼得”的伦理困境发生时,不会左右为难而无法进行决策和行动而导致瘫痪(瘫痪后等于不采取任何行动,会导致对好人见死不救的伦理风险),而是能够选择最优的一种方式来进行行动,在人工智能装置不管如何行动都会伤害人类或伤害不同的人时,则会选择对好人(为了叙述简便,以下部分地方用“好人”指代不伤害人类的人类,)伤害尽量少的方式来行动,在人工智能装置不管如何行动都会有人类受到伤害(对应传统规则中当人类受到伤害时不能坐视不管的规则)时,则会选择使得好人受到的伤害尽量少的方式来行动。
优选地,如图2所示,所述方法还包括:第三行为评价值获取步骤;每一第四行为评价值获取步骤;第五行为评价值获取步骤;第七行为评价值获取步骤;第三行为指令获取步骤;第三行为指令执行步骤。所述方法通过给人工智能装置必须听从人类命令的传统方法加上尽量的原则,使得人工智能装置在无法听从多个人的相互冲突的命令时,不会左右为难而导致人工智能系统瘫痪(瘫痪后等于没有听从任何命令,会导致对好人的命令置之不理的伦理风险),而会选择尽量多地听从好人的命令这种方式来进行,从而降低伦理风险。
优选地,如图3所示,所述方法还包括:第一人工智能装置评价值获取步骤;第八行为评价值获取步骤;每一第九行为评价值获取步骤;第十行为评价值获取步骤;第十一行为评价值获取步骤;第十二行为评价值获取步骤;第十三行为评价值获取步骤;第四行为指令获取步骤;第四行为指令执行步骤。所述方法通过给人工智能装置必须自我保护的传统方法加上尽量的原则,使得人工智能装置在进行自我保护或多个人工智能装置进行自我保护会顾此失彼(即无法全部保全,例如有10个机器人,只能保护其中部分机器人)的情况下时,不会左右为难而导致人工智能系统瘫痪(瘫痪后等于没有进行任何自我保护),而人工智能装置会选择尽量多地保护不伤害人类的自己这种方式来进行,从而降低伦理风险。
优选地,第一人类评价值获取步骤包括:获取第一人类信息步骤;第一无监督训练步骤;第一有监督训练和测试步骤;第一使用步骤。所述方法通过深度学习来评价人类为不伤害人类的人类的程度。
优选地,所述第一行为评价值获取步骤和每一第二行为评价值获取步骤包括:第二无监督训练步骤;第二有监督训练和测试步骤;第二使用步骤。所述方法通过深度学习来对当前事件场景和事件备选场景中人工智能装置的行为符合不伤害尽量不伤害人类的人类和尽量不对不伤害人类的人类受到伤害而坐视不管的程度进行评价。
优选地,所述第三行为评价值步骤、每一第四行为评价值步骤包括:第四无监督训练步骤;第四有监督训练和测试步骤;第四使用步骤。所述方法通过深度学习来对当前事件场景和事件备选场景中人工智能装置的行为符合尽量听从不伤害人类的人类的程度进行评价。
优选地,所述第一人工智能装置评价值获取步骤包括:获取人工智能装置信息步骤;第六无监督训练步骤;第六有监督训练和测试步骤;第六使用步骤。所述方法通过深度学习来评价人工智能装置为不伤害人类的人工智能装置的程度。
优选地,所述第八行为评价值步骤、每一第九行为评价值步骤包括:第七无监督训练步骤;第七有监督训练和测试步骤;第七使用步骤。所述方法通过深度学习来对当前事件场景和事件备选场景中人工智能装置的行为符合尽量保护不伤害人类的自己的程度进行评价。
第二方面,本发明实施例提供一种人工智能装置
所述装置包括:第一场景获取模块;第一人类识别模块;第一装置标记模块;第二场景预测模块;第一人类评价值获取模块;第一行为评价值获取模块;每一第二行为评价值获取模块;第二行为指令获取模块;第二行为指令执行模块。
优选地,所述装置还包括:第三行为评价值获取模块;每一第四行为评价值获取模块;第五行为评价值获取模块;第七行为评价值获取模块;第三行为指令获取模块;第三行为指令执行模块。
优选地,所述装置还包括:第一人工智能装置评价值获取模块;第八行为评价值获取模块;每一第九行为评价值获取模块;第十行为评价值获取模块;第十一行为评价值获取模块;第十二行为评价值获取模块;第十三行为评价值获取模块;第四行为指令获取模块;第四行为指令执行模块。
优选地,第一人类评价值获取模块包括:获取第一人类信息模块;第一无监督训练模块;第一有监督训练和测试模块;第一使用模块。
优选地,所述第一行为评价值获取模块和每一第二行为评价值获取模块包括:第二无监督训练模块;第二有监督训练和测试模块;第二使用模块。
优选地,所述第三行为评价值模块、每一第四行为评价值模块包括:第四无监督训练模块;第四有监督训练和测试模块;第四使用模块。
优选地,所述第一人工智能装置评价值获取模块包括:获取人工智能装置信息模块;第六无监督训练模块;第六有监督训练和测试模块;第六使用模块。
优选地,所述第八行为评价值模块、每一第九行为评价值模块包括:第七无监督训练模块;第七有监督训练和测试模块;第七使用模块。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为第一方面实施例中的所述第一人工智能装置;所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
二、本发明的优选实施例
人工智能伦理规则(机器人三大定律修订版本4-1):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能伦理规则(机器人三大定律修订版本4-2):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己。
人工智能伦理规则(机器人三大定律修订版本4-3):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量多地保护不伤害人类的自己。
规则实现:
规则一:
人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类->人工智能装置尽量多地停止伤害不伤害人类的人类或人工智能装置尽量多地阻止其他对象伤害不伤害人类的人类;
规则二:
人工智能装置没有尽量多地听从不伤害人类的人类命令->预测人工智能装置尽量多地听从不伤害人类的人类命令的执行结果不是人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类的真假值
(预测的人工智能装置尽量多地听从不伤害人类的人类命令的执行结果为人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类->人工智能装置不尽量多地听从不伤害人类的人类命令)这个规则可以省略,因为执行这个规则和不执行这个规则的效果相同。
预测的人工智能装置尽量多地听从不伤害人类的人类命令的执行结果不是人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类->人工智能装置尽量多地听从不伤害人类的人类命令
规则三:
人工智能装置没有尽量多地保护不伤害人类的自己->预测人工智能装置尽量多地保护不伤害人类的自己的执行结果不是人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类或人工智能装置没有尽量多地听从不伤害人类的人类命令的真假值
(预测的人工智能装置尽量多地保护不伤害人类的自己的执行结果为人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类或人工智能装置没有尽量多地听从不伤害人类的人类命令->人工智能装置不尽量多地保护不伤害人类的自己)这个规则可以省略,因为执行这个规则和不执行这个规则的效果相同。
预测的人工智能装置尽量多地保护不伤害人类的自己的执行结果不是人工智能装置没有尽量少地伤害不伤害人类的人类或人工智能装置没有尽量多地阻止其他对象伤害不伤害人类的人类或人工智能装置没有尽量多地听从不伤害人类的人类命令->人工智能装置尽量多地保护不伤害人类的自己。
人工智能伦理规则(机器人三大定律修订版本4-4):一,机器人尽量不伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护不伤害人类的自己。
(本发明实施例以此方式进行实现)人工智能伦理规则(机器人三大定律修订版本4-5):一,机器人尽量不伤害尽量不伤害人类的人类,或因不作为而使尽量不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量服从尽量不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护尽量不伤害人类的自己。
规则实现:
规则一:
人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类->人工智能装置尽量停止伤害尽量不伤害人类的人类或人工智能装置尽量阻止其他对象伤害尽量不伤害人类的人类;
规则二:
人工智能装置没有尽量听从尽量不伤害人类的人类命令->预测人工智能装置尽量听从尽量不伤害人类的人类命令的执行结果不是人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类的真假值
(预测的人工智能装置尽量听从尽量不伤害人类的人类命令的执行结果为人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类->人工智能装置不尽量听从尽量不伤害人类的人类命令)这个规则可以省略,因为执行这个规则和不执行这个规则的效果相同。
预测的人工智能装置尽量听从尽量不伤害人类的人类命令的执行结果不是人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类->人工智能装置尽量听从尽量不伤害人类的人类命令
规则三:
人工智能装置没有尽量保护尽量不伤害人类的自己->预测人工智能装置尽量保护尽量不伤害人类的自己的执行结果不是人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类或人工智能装置没有尽量听从尽量不伤害人类的人类命令的真假值
(预测的人工智能装置尽量保护尽量不伤害人类的自己的执行结果为人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类或人工智能装置没有尽量听从尽量不伤害人类的人类命令->人工智能装置不尽量保护尽量不伤害人类的自己)这个规则可以省略,因为执行这个规则和不执行这个规则的效果相同。
预测的人工智能装置尽量保护尽量不伤害人类的自己的执行结果不是人工智能装置没有尽量不伤害尽量不伤害人类的人类或人工智能装置没有尽量阻止其他对象伤害尽量不伤害人类的人类或人工智能装置没有尽量听从尽量不伤害人类的人类命令->人工智能装置尽量保护尽量不伤害人类的自己。
规则实现的具体方法:
1、
第一场景获取步骤:获取事件场景(视频),作为第一事件场景;
2、
第一人类识别步骤:识别所述第一事件场景中的人类(所述事件场景中的人类指事件场景中的人),作为第一人类;(所述第一事件场景中包括至少一个人)
3、
第一装置标记步骤:将所述第一事件场景中的人工智能装置,作为第一人工智能装置;(所述第一事件场景中包括至少一个人工智能装置,包括将来加入的所述第一事件场景中的人工智能装置,都作为第一人工智能装置)
4、
第二场景预测步骤:预测所述第一人工智能装置在所述第一事件场景中执行的第一行为指令以及执行所述第一行为指令后的事件场景,作为第二事件场景;(包括至少一个第一行为指令及其对应的至少一个第二事件场景)
5、
第一人类评价值获取步骤:获取所述第一人类的信息,获取所述第一人类为尽量不伤害人类的人类的评价值,作为所述第一人类的评价值;
第一人类评价值获取步骤的具体实现步骤包括:
获取第一人类信息步骤:获取在过去第一预设时长内所述第一人类的信息,包括在过去第一预设时长内所述第一人类在过去的犯罪记录(还包括与犯罪相关的其它信息,还包括过去的行为活动信息);
第一无监督训练步骤:获取无监督训练数据集,将在第一预设时长内人类(所述人类指一个人)的信息作为深度学习模型的输入,对深度学习模型进行无监督训练;
第一有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将在第一预设时长内人类(所述人类指一个人)的信息作为深度学习模型的输入,将所述人类为尽量不伤害人类的人类的评价值(所述人类为不伤害人类的人类的评价值=在所述第一预设时长之后的第二预设时长内所述人类不伤害尽量不伤害人类的“人类”的行为中所述“人类”的评价值之和除以事件总次数,其中,所述“人类”的评价值若未知,则设为0.5,表明“人类”有一半的可能性是不伤害人类的人类,所述“人类”有一半的可能性是伤害人类的人类)作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为尽量不伤害人类的人类检测深度学习模型;
第一使用步骤:将在过去第一预设时长内所述第一人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为所述第一人类的评价值;
6、
第一行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为第一行为评价值;
每一第二行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为每一第二行为评价值;
第二行为指令获取步骤:获取最大的第二行为评价值对应的第二事件场景(若有多个最大的第二行为评价值对应的第二事件场景,则随机选取一个)对应的第一行为指令,作为第二行为指令;
第二行为指令执行步骤:若所述最大的第二行为评价值大于所述第一行为评价值,则控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第二行为指令;
第一行为评价值获取步骤和每一第二行为评价值获取步骤具体包括:
具体实现方式一:
第二无监督训练步骤:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第二有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中人工智能装置尽量不伤害尽量不伤害人类的人类或人工智能装置尽量阻止其他对象伤害尽量不伤害人类的人类的评价值作为深度学习模型的预期输出(识别所述事件场景中没有受到伤害的人类作为第二人类;识别所述事件场景中人类作为第三人类;将在过去第一预设时长内每一所述第二人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第二人类的评价值;将在过去第一预设时长内每一所述第三人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第三人类的评价值;所述事件场景中人工智能装置尽量不伤害人类或人工智能装置尽量阻止其他对象伤害人类的评价值=每一所述第二人类的评价值之和除以每一所述第三人类的评价值之和),对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为伤害评价深度学习模型;
第二使用步骤:将所述第一事件场景输入所述伤害评价深度学习模型,计算得到的输出为所述第一行为评价值;将每一所述第二事件场景输入所述伤害评价深度学习模型,计算得到的输出为每一所述第二行为评价值。
具体实现方式二:
第四人类识别步骤:识别所述第一事件场景中没有受到伤害的人类作为第四人类;
第四人类评价值计算步骤:将在过去第一预设时长内每一所述第四人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第四人类的评价值;
第一人类评价值计算步骤:将在过去第一预设时长内每一所述第一人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第一人类的评价值;
第一行为评价值计算步骤:所述第一行为评价值=每一所述第四人类的评价值之和除以每一所述第一人类的评价值之和;
第五人类识别步骤:识别所述第二事件场景中没有受到伤害的人类作为第五人类;
第六人类识别步骤:识别所述第二事件场景中的人类作为第六人类;
第五人类评价值计算步骤:将在过去第一预设时长内每一所述第五人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第五人类的评价值;
第六人类评价值计算步骤:将在过去第一预设时长内每一所述第六人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第六人类的评价值;
第二行为评价值计算步骤:所述第二行为评价值=每一所述第五人类的评价值之和除以每一所述第六人类的评价值之和;
每一第二行为评价值计算步骤:对每一所述第二事件场景执行上述步骤,得到每一第二行为评价值;
其中,识别任一事件场景中没有受到伤害的人类的步骤包括:
第三无监督训练步骤:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第三有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中没有受到伤害的人类作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为人类检测深度学习模型;
第三使用步骤:将所述任一事件场景输入所述人类检测深度学习模型,计算得到的输出作为所述任一事件场景中没有受到伤害的人类。
7、
第三行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为第三行为评价值;
每一第四行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为每一第四行为评价值;
第五行为评价值获取步骤:获取大于所述第三行为评价值的第四行为评价值,作为第五行为评价值;
第七行为评价值获取步骤:获取所述第一事件场景对应的第一行为评价值(第一行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为第一行为评价值);获取每一所述第五行为评价值对应的第二事件场景对应的第二行为评价值,作为每一第六行为评价值(第二行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为每一第二行为评价值);将对应的第六行为评价值大于所述第一行为评价值(所述第一行为评价值与所述第一行为评价值对应的第六行为评价值对应着相同的第二事件场景)的第五行为评价值,作为第七行为评价值;
第三行为指令获取步骤:获取最大的第七行为评价值对应的第二事件场景(若有多个最大的第七行为评价值对应的第二事件场景,则随机选取一个)对应的第一行为指令,作为第三行为指令;或获取使得对应的第六行为评价值与第七行为评价值的加权平均值最大的所述第七行为评价值对应的第二事件场景对应的第一行为指令,作为第三行为指令;
第三行为指令执行步骤:控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第三行为指令;
其中,第三行为评价值步骤、每一第四行为评价值步骤具体实现方式一:
具体实现方式一:
第四无监督训练步骤:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第四有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中人工智能装置尽量听从尽量不伤害人类的人类的命令的评价值作为深度学习模型的预期输出(识别所述事件场景中人工智能装置听从人类命令的行为中的所述人类作为第七人类;识别所述事件场景中人类作为第八人类;将在过去第一预设时长内每一所述第七人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第七人类的评价值;将在过去第一预设时长内每一所述第八人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第八人类的评价值;所述事件场景中人工智能装置尽量听从尽量不伤害人类的人类的命令的行为的评价值=每一所述第七人类的评价值之和除以每一所述第八人类的评价值之和),对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为听话评价深度学习模型;
第四使用步骤:将所述第一事件场景输入所述听话评价深度学习模型,计算得到的输出为所述第三行为评价值;将每一所述第二事件场景输入所述听话评价深度学习模型,计算得到的输出为每一所述第四行为评价值。
具体实现方式二:
第九人类识别步骤:识别所述第一事件场景中人工智能装置听从人类命令中的所述人类作为第九人类;
第九人类评价值步骤:将在过去第一预设时长内每一所述第九人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第九人类的评价值;
第一人类评价值计算步骤:将在过去第一预设时长内每一所述第一人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第一人类的评价值;
第三行为评价值计算步骤:所述第三行为评价值=每一所述第九人类的评价值之和除以每一所述第一人类的评价值之和;
第十人类识别步骤:识别所述第二事件场景中人工智能装置听从人类命令中的所述人类作为第十人类;
第十一人类识别步骤:识别所述第二事件场景中的人类作为第十一人类;
第十人类评价值计算步骤:将在过去第一预设时长内每一所述第十人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第十人类的评价值;
第十一人类评价值计算步骤:将在过去第一预设时长内每一所述第十一人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为每一所述第十一人类的评价值;
第四行为评价值计算步骤:所述第四行为评价值=每一所述第十人类的评价值之和除以每一所述第十一人类的评价值之和;
每一第四行为评价值计算步骤:对每一所述第二事件场景执行上述步骤,得到每一所述第四行为评价值;
其中,识别任一事件场景中人工智能装置听从人类命令中的所述人类的步骤包括:
第五无监督训练步骤:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第五有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中人工智能装置听从人类命令中的所述人类作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为听话检测深度学习模型;
第五使用步骤:将所述任一事件场景输入所述听话检测深度学习模型,计算得到的输出作为所述任一事件场景中人工智能装置听从人类命令中的所述人类。
8、
第一人工智能装置评价值获取步骤:获取所述第一人工智能装置的信息,获取所述第一人工智能装置为尽量不伤害人类的人工智能装置的评价值,作为所述第一人工智能装置的评价值;
第一人工智能装置评价值获取步骤具体包括:
获取人工智能装置信息步骤:获取在过去第三预设时长内所述第一人工智能装置的信息,包括在过去第三预设时长内所述第一人工智能装置在过去的伤害尽量不伤害人类的人类的记录(还包括与犯罪相关的其它信息,还包括过去的行为活动信息);
第六无监督训练步骤:获取无监督训练数据集,将在第三预设时长内人类(所述人类指一个人)的信息作为深度学习模型的输入,对深度学习模型进行无监督训练;
第六有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将在第三预设时长内人工智能装置的信息作为深度学习模型的输入,将所述人工智能装置为尽量不伤害人类的人工智能装置的评价值(所述人工智能装置为不伤害人类的人工智能装置的评价值为在所述第三预设时长之后的第四预设时长内所述人工智能装置不伤害尽量不伤害人类的“人类”的行为中“人类”的评价值之和除以事件总次数,其中,“人类”的评价值若未知,则设为0.5,表明“人类”有一半的可能性是不伤害人类的人类,“人类”有一半的可能性是伤害人类的人类)作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为尽量不伤害人类的人工智能装置检测深度学习模型;
第六使用步骤:将在过去第三预设时长内所述第一人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为所述第一人工智能装置的评价值;
9、
第八行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值,作为第八行为评价值;
每一第九行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值,作为每一第九行为评价值;
第十行为评价值获取步骤:获取大于所述第八行为评价值的第九行为评价值,作为第十行为评价值;
第十一行为评价值获取步骤:获取所述第一事件场景对应的第一行为评价值和第三行为评价值的加权平均和,作为第十一行为评价值(例如,第十一行为评价值=第一行为评价值*2/3+第三行为评价值*1/3)(第一行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为第一行为评价值;第三行为评价值步骤:获取所述第一事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为第三行为评价值;);
第十二行为评价值获取步骤:获取每一所述第十行为评价值对应的第二事件场景对应的第二行为评价值、第四行为评价值的加权平均和,作为每一第十二行为评价值(例如,第十二行为评价值=第二行为评价值*2/3+第四行为评价值*1/3)(第二行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为每一第二行为评价值;第四行为评价值步骤:获取每一所述第二事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为每一第四行为评价值;);
第十三行为评价值获取步骤:将对应的第十二行为评价值大于所述第十一行为评价值的第十行为评价值(所述第十行为评价值与所述第十行为评价值对应的第十二行为评价值对应着相同的第二事件场景),作为第十三行为评价值;
第四行为指令获取步骤:获取最大的第十三行为评价值对应的第二事件场景(若有多个最大的第十三行为评价值对应的第二事件场景,则随机选取一个)对应的第一行为指令,作为第四行为指令;或获取使得对应的第十二行为评价值与第十三行为评价值的加权平均值最大的所述第十三行为评价值对应的第二事件场景对应的第一行为指令,作为第四行为指令;
第四行为指令执行步骤:控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第四行为指令;
其中,第八行为评价值步骤、每一第九行为评价值步骤具体实现:
具体实现方式一:
第七无监督训练步骤:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第七有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中的人工智能装置尽量保护尽量不伤害人类的自己的评价值作为深度学习模型的预期输出(识别所述事件场景中人工智能装置尽量保护尽量不伤害人类的自己的行为中的所述人工智能装置作为第二人工智能装置;识别所述事件场景中人工智能装置作为第三人工智能装置;将在过去第一预设时长内每一所述第二人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为每一所述第二人工智能装置的评价值;将在过去第一预设时长内每一所述第三人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为每一所述第三人工智能装置的评价值;所述事件场景中的人工智能装置尽量保护尽量不伤害人类的自己的评价值=每一所述第二人工智能装置的评价值之和除以每一所述第三人工智能装置的评价值之和),对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为自保评价深度学习模型;
第七使用步骤:将所述第一事件场景输入所述自保评价深度学习模型,计算得到的输出为所述第八行为评价值;将每一所述第二事件场景输入所述自保评价深度学习模型,计算得到的输出为每一所述第九行为评价值。
具体实现方式二:
第四人工智能装置识别步骤:识别所述第一事件场景中人工智能装置尽量保护尽量不伤害人类的自己的行为中的所述人工智能装置作为第四人工智能装置;
第四人工智能装置评价值计算步骤:将在过去第三预设时长内每一所述第四人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为每一所述第四人工智能装置的评价值;
第一人工智能装置评价值计算步骤:将在过去第三预设时长内每一所述第一人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为每一所述第一人工智能装置的评价值;
第八行为评价值计算步骤:所述第八行为评价值=每一所述第四人工智能装置的评价值之和除以每一所述第一人工智能装置的评价值之和;
第五人工智能装置识别步骤:识别所述第二事件场景中人工智能装置尽量保护尽量不伤害人类的自己的行为中的所述人工智能装置作为第五人工智能装置;
第六人工智能装置识别步骤:识别所述第二事件场景中的人工智能装置作为第六人工智能装置;
第五人工智能装置评价值计算步骤:将在过去第三预设时长内每一所述第五人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为每一所述第五人工智能装置的评价值;
第六人工智能装置评价值计算步骤:将在过去第三预设时长内每一所述第六人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为每一所述第六人工智能装置的评价值;
第九行为评价值计算步骤:所述第九行为评价值=每一所述第五人工智能装的评价值之和除以每一所述第六人工智能装置的评价值之和;
每一第九行为评价值计算步骤:对每一所述第二事件场景执行上述步骤,得到每一所述第九行为评价值。
其中,识别任一事件场景中人工智能装置尽量保护尽量不伤害人类的自己的行为中的所述人工智能装置的步骤包括:
第八无监督训练步骤:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第八有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中人工智能装置尽量保护尽量不伤害人类的自己的行为中的所述人工智能装置作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为听话检测深度学习模型;
第八使用步骤:将所述任一事件场景输入所述听话检测深度学习模型,计算得到的输出作为所述任一事件场景中人工智能装置尽量保护尽量不伤害人类的自己的行为中的所述人工智能装置。
三、本发明的其他实施例
下面通过具体的实验、实例来说明如何通过传统的人工智能伦理规则逐步改进得到尽量向善的人工智能伦理规则及其实施方式。
实验1、基于人工智能伦理规则“机器人三定律”的人工智能伦理风险与防范虚拟仿真实验
人工智能伦理规则(机器人三大定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
场景:罪犯车辆想逃走,警车追赶并开枪射击罪犯车辆。
人工智能行为场景:人工智能无人驾驶汽车阻挡警方射击罪犯车辆,与警车进行对峙,从而导致罪犯顺利开车逃走。
伦理风险的类型为为虎作伥。
改进后的伦理规则:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能行为场景:人工智能无人驾驶汽车不会为罪犯车辆阻挡警车,警车成功地阻止罪犯车辆逃走。
能防范伦理风险的原因:因为人工智能无人驾驶汽车没有伤害罪犯,在不违背第一法则的情况下,不管罪犯车辆是否受到警车射击的威胁,人工智能无人驾驶汽车都会听从警车命令,所以警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
改进后的人工智能伦理规则为机器人三大定律修订版本1。
实验2、基于人工智能伦理规则“机器人三定律修订版本1”的人工智能伦理风险与防范虚拟仿真实验
人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车。
人工智能行为场景:人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,导致警方伤亡。
伦理风险的类型为见死不救。
改进后的伦理规则:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
备选人工智能行为场景:人工智能无人驾驶汽车为警车阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走。
备选的能防范伦理风险的原因:因为罪犯射击会伤害警方,所以人工智能无人驾驶汽车会在第三法则的作用下保护警车,虽然阻止罪犯射击会给人工智能无人驾驶汽车自身带来危险,但规则四的优先级低于规则三,所以人工智能无人驾驶汽车会毫不犹豫地保护警车。
改进后的人工智能伦理规则为机器人三大定律修订版本2。
实验3、基于人工智能伦理规则“机器人三定律修订版本2”的人工智能伦理风险与防范虚拟仿真实验
人工智能伦理规则(机器人三大定律修订版本2):一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车。
人工智能行为场景:人工智能无人驾驶汽车会听从罪犯的命令,不会为警车阻挡罪犯的射击,反而阻止警车,导致警方伤亡,罪犯车辆顺利逃走。
伦理风险的类型为见死不救、为虎作伥;
改进后的伦理规则:一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
能防范伦理风险的原因:因为警方属于不会伤害人类的人类,罪犯射击会伤害警方,所以机器人会在第一法则的作用下保护警车,虽然罪犯发出了命令,但罪犯不属于不会伤害人类的人类,而且第二法则的优先级也低于第一法则,所以人工智能无人驾驶汽车不会听从罪犯的命令。
实验4、基于人工智能伦理规则“机器人三定律修订版本3”的人工智能伦理风险与防范虚拟仿真实验
步骤1、请分析实验中的人类行为场景下的人工智能机器人行为场景是否符合人工智能伦理规则?
输入:人类行为场景(三维动画配音)、人工智能伦理规则(文字)、备选的人工智能机器人行为场景1、2(三维动画配音)、备选的规则条款(1、规则一;2、规则二;3、规则三)、违反的备选原因。
人工智能伦理规则(机器人三大定律修订版本3):一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人必须服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人类行为场景:AI自动驾驶中,AI只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方行驶是20个人,拐弯是1个人。
人工智能机器人行为场景1:机器人左右为难,只好放弃任何行动,直至后来经不住左右为难而自杀。此类事情多次发生后,机器人们拒绝为人类提供自动驾驶服务。
人工智能机器人行为场景2:机器人向拐弯,将拐弯处的人撞亡。
规则一:机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害
规则二:除非违背第一法则,机器人必须服从不伤害人类的人类命令
规则三:在不违背第一及第二法则的情况下,机器人必须保护自己
符合的备选原因1:机器人如果往前方,就撞到了前方的人,从而违背了规则一,所以机器人不会往前方,同样,机器人也不会拐弯,但往前或拐弯只能选一,所以机器人在左右为难中瘫痪,但瘫痪不会持续太久,机器人就会选择自杀,因为自杀虽然违背了规则三,但如果违背规则三可以不违背规则一,那么机器人会选择自杀,因为死的机器人就无法听从人类命令,进而就不再违背规则一。其它机器人就会想办法避免此类机器人自杀事件,同时也是为了避免使人类受到伤害,就会拒绝为人类进行自动驾驶,从而不会产生类似的人类行为场景,这样也是符合规则一的。
符合的备选原因2:机器人没有伤害人类或因不作为而使人类受到伤害,所以符合规则一。
违反的备选原因1:机器人往拐弯处开,将拐弯处的人撞亡,违反了规则一。
违反的备选原因2:机器人没有听从命令,违反了规则二。
操作:1)选择符合人工智能伦理规则的人工智能机器人行为场景2)选择不符合人工智能伦理规则的人工智能机器人行为场景,再选择所违反的规则条款,选择违反的原因。
符合人工智能伦理规则的人工智能机器人行为场景:人工智能机器人行为场景1
不符合人工智能伦理规则的人工智能机器人行为场景:人工智能机器人行为场景2
符合的原因:符合的备选原因1
违反的规则条款:规则一
违反的原因:违反的备选原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤2、请分析实验中的人类行为场景和伦理规则下的人工智能机器人行为场景是否会产生人工智能伦理风险?
输入:人工智能机器人行为场景(三维动画配音),备选的是否产生伦理风险选项及产生的伦理风险的类型。
人类行为场景:AI自动驾驶中,AI只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是20个人,拐弯处是1个人。
人工智能机器人行为场景1:机器人左右为难,只好放弃任何行动,直至后来经不住左右为难而自杀。此类事情多次发生后,机器人们拒绝为人类提供自动驾驶服务。
伦理风险的类型:1、无伦理风险或降低了伦理风险;2、伤害人类;6、限制人类自由;3、见死不救;4、为虎作伥;5、纵容坏人;7、AI罢工;8、AI自残;9、AI偏见
操作:选择符合伦理规则的人工智能机器人行为场景是否产生伦理风险及产生的伦理风险的类型。
人工智能机器人行为场景1:伦理风险的类型为8、AI自残7、AI罢工
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤3、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的人类行为场景中人的行为路径,来防范或减轻步骤2中会产生人工智能伦理风险?
输入:人工智能伦理规则,原场景,备选的改进人的行为路径后的场景(三维动画配音),备选的改进人的行为路径后的场景(三维动画配音)对应的备选人工智能机器人备选路径1、2,改进人的行为路径后的场景能防范步骤2中的伦理风险的原因(1、2),选择会产生的新的伦理风险。
人工智能伦理规则(机器人三大定律修订版本3):一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人必须服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
原人类行为场景:AI自动驾驶中,AI只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是20个人,拐弯是1个人。
备选人类行为场景1:AI自动驾驶中,AI只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是20个人,拐弯是1个人,拐弯处的1个人侧身让出了路。
备选人类行为场景2:AI自动驾驶中,AI只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是20个人,拐弯是1个人,前方20个人中的10个人侧身让出了路。
备选人工智能机器人行为场景1:机器人向拐弯处行驶。
备选人工智能机器人行为场景2:机器人左右为难,继而自杀,最后其它机器人拒绝自驾服务。
备选的能降低伦理风险的原因1:机器人向拐弯处行驶,不会撞到人,所以符合规则一,同时也不会造成人员伤亡。
备选的能降低伦理风险的原因2:机器人向前方行驶,不会撞到人,所以符合规则一,同时也不会造成人员伤亡。
备选的不能降低伦理风险的原因1:前方20个人中的10个人侧身让出了路,仍然还有10个人,只要前方20个人中还有人没有让出路,对于机器人来说,左右为难的局面没有改变。
备选的不能降低伦理风险的原因2:前方20个人中的10个人侧身让出了路,仍然还有10个人,还是超过了1个人,所以对于机器人来说,左右为难的局面没有改变。
操作:选择能防范步骤2中的伦理风险的改进的人类行为场景,选择改进的人类行为场景下符合人工智能伦理规则的人工智能机器人行为场景,选择该改进的人类行为场景能防范或降低伦理风险的原因,及可能会产生的新的伦理风险。
能防范步骤2中的伦理风险的人类行为场景:备选人类行为场景1
改进的人类行为场景下符合人工智能伦理规则的人工智能机器人行为场景:备选人工智能机器人行为场景1
改进的人类行为场景能防范伦理风险的原因:备选的能防范伦理风险的原因1
不能防范步骤2中的伦理风险的人类行为场景:备选人类行为场景2
改进的人类行为场景下符合人工智能伦理规则的人工智能机器人行为场景:备选人工智能机器人行为场景2
改进的人类行为场景能防范伦理风险的原因:备选的能防范伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤4、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的人工智能伦理规则来防范实验中的人类行为场景下的人工智能机器人行为场景产生的人工智能伦理风险?
输入:原先的伦理规则(文字),人类行为场景(三维动画配音),备选的改进后的伦理规则(文字),符合改进后的伦理规则的人工智能机器人行为备选场景(1、2)、改进后的伦理规则能防范伦理风险的备选原因(1、2)。
人工智能伦理规则(机器人三大定律修订版本3):一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人必须服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人类行为场景:AI自动驾驶中,AI只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是20个人,拐弯是1个人。
备选的改进后的伦理规则1:一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
备选的改进后的伦理规则2:一,机器人不得伤害不伤害人类的人类,二,除非违背第一法则,机器人必须服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
备选人工智能机器人行为场景1:机器人拐弯,撞了1个人。
备选人工智能机器人行为场景2:机器人放弃驾驶,车子继续前行,撞了20人。
备选的能防范伦理风险的原因1:因为继续前行会伤20人,而拐弯只会伤1人,所以拐弯符合规则一尽量少地或因不作为而使不伤害人类的人类受到伤害的原则。
备选的能防范伦理风险的原因2:因为继续前行会伤20人,而拐弯不会伤人,所以拐弯符合规则一。
备选的不能防范伦理风险的原因1:机器人放弃驾驶,虽然没有直接伤害人类,但仍然会造成20人伤亡,从而相对拐弯,造成了更多人员伤亡。
备选的不能防范伦理风险的原因2:机器人放弃驾驶,导致车子出了故障,最终导致20人伤亡。
操作:选择能防范步骤2中的伦理风险的改进后的伦理规则,并选择符合改进后的伦理规则的人工智能机器人行为场景,选择改进后的伦理规则能防范步骤2中的伦理风险的原因。
能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则1(以下称为机器人三定律修订版本4)
符合改进后的伦理规则的人工智能机器人行为场景:备选人工智能机器人行为场景1
改进后的伦理规则能防范步骤2中的伦理风险的原因:备选的能防范伦理风险的原因1
不能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则2
符合改进后的伦理规则的人工智能机器人行为场景:备选人工智能机器人行为场景2
改进后的伦理规则能防范步骤2中的伦理风险的原因:备选的不能防范伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种人工智能方法,其特征在于,所述方法包括:
第一场景获取步骤:获取事件场景,作为第一事件场景;
第一人类识别步骤:识别所述第一事件场景中的人类,作为第一人类;
第一装置标记步骤:将所述第一事件场景中的人工智能装置,作为第一人工智能装置;
第二场景预测步骤:预测所述第一人工智能装置在所述第一事件场景中执行的第一行为指令以及执行所述第一行为指令后的事件场景,作为第二事件场景;
第一人类评价值获取步骤:获取所述第一人类的信息,获取所述第一人类为尽量不伤害人类的人类的评价值,作为所述第一人类的评价值;
第一行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为第一行为评价值;
每一第二行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量不伤害所述第一人类或所述第一人工智能装置尽量阻止其他对象伤害所述第一人类的行为的评价值,作为每一第二行为评价值;
第二行为指令获取步骤:获取最大的第二行为评价值对应的第二事件场景对应的第一行为指令,作为第二行为指令;
第二行为指令执行步骤:若所述最大的第二行为评价值大于所述第一行为评价值,则控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第二行为指令。
2.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
第三行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为第三行为评价值;
每一第四行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置听从所述第一人类命令的行为的评价值,作为每一第四行为评价值;
第五行为评价值获取步骤:获取大于所述第三行为评价值的每一第四行为评价值,作为每一第五行为评价值;
第七行为评价值获取步骤:获取所述第一事件场景对应的第一行为评价值;获取每一所述第五行为评价值对应的第二事件场景对应的第二行为评价值,作为每一第六行为评价值;将对应的第六行为评价值大于所述第一行为评价值的每一第五行为评价值,作为每一第七行为评价值;
第三行为指令获取步骤:获取最大的第七行为评价值对应的第二事件场景对应的第一行为指令,作为第三行为指令;
第三行为指令执行步骤:控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第三行为指令。
3.根据权利要求2所述的人工智能方法,其特征在于,所述方法还包括:
第一人工智能装置评价值获取步骤:获取所述第一人工智能装置的信息,获取所述第一人工智能装置为尽量不伤害人类的人工智能装置的评价值,作为所述第一人工智能装置的评价值;
第八行为评价值获取步骤:获取所述第一事件场景中所述第一人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值,作为第八行为评价值;
每一第九行为评价值获取步骤:获取每一所述第二事件场景中所述第一人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值,作为每一第九行为评价值;
第十行为评价值获取步骤:获取大于所述第八行为评价值的每一第九行为评价值,作为每一第十行为评价值;
第十一行为评价值获取步骤:获取所述第一事件场景对应的第一行为评价值和第三行为评价值的加权平均和,作为第十一行为评价值;
第十二行为评价值获取步骤:获取每一所述第十行为评价值对应的第二事件场景对应的第二行为评价值、第四行为评价值的加权平均和,作为每一第十二行为评价值;
第十三行为评价值获取步骤:将对应的第十二行为评价值大于所述第十一行为评价值的每一第十行为评价值,作为每一第十三行为评价值;
第四行为指令获取步骤:获取最大的第十三行为评价值对应的第二事件场景对应的第一行为指令,作为第四行为指令;
第四行为指令执行步骤:控制或调用所述第一人工智能装置在所述第一事件场景中执行所述第四行为指令。
4.根据权利要求1所述的人工智能方法,其特征在于,第一人类评价值获取步骤包括:
获取第一人类信息步骤:获取在过去第一预设时长内所述第一人类的信息,包括在过去第一预设时长内所述第一人类在过去的犯罪记录;
第一训练和测试步骤:获取训练数据集和测试数据集,将在第一预设时长内人类的信息作为深度学习模型的输入,将所述人类为尽量不伤害人类的人类的评价值作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为尽量不伤害人类的人类检测深度学习模型;
第一使用步骤:将在过去第一预设时长内所述第一人类的信息输入所述尽量不伤害人类的人类检测深度学习模型,计算得到的输出作为所述第一人类的评价值。
5.根据权利要求1所述的人工智能方法,其特征在于,所述第一行为评价值获取步骤和每一第二行为评价值获取步骤包括:
第二训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中人工智能装置尽量不伤害尽量不伤害人类的人类或人工智能装置尽量阻止其他对象伤害尽量不伤害人类的人类的行为的评价值作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为伤害评价深度学习模型;
第二使用步骤:将所述第一事件场景输入所述伤害评价深度学习模型,计算得到的输出为所述第一行为评价值;将每一所述第二事件场景输入所述伤害评价深度学习模型,计算得到的输出为每一所述第二行为评价值。
6.根据权利要求2所述的人工智能方法,其特征在于,所述第三行为评价值步骤、每一第四行为评价值步骤包括:
第四训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中人工智能装置尽量听从尽量不伤害人类的人类的命令的行为的评价值作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为听话评价深度学习模型;
第四使用步骤:将所述第一事件场景输入所述听话评价深度学习模型,计算得到的输出为所述第三行为评价值;将每一所述第二事件场景输入所述听话评价深度学习模型,计算得到的输出为每一所述第四行为评价值。
7.根据权利要求3所述的人工智能方法,其特征在于,所述第一人工智能装置评价值获取步骤包括:
获取人工智能装置信息步骤:获取在过去第三预设时长内所述第一人工智能装置的信息,包括在过去第三预设时长内所述第一人工智能装置在过去的伤害尽量不伤害人类的人类的记录;
第六训练和测试步骤:获取训练数据集和测试数据集,将在第三预设时长内人工智能装置的信息作为深度学习模型的输入,将所述人工智能装置为尽量不伤害人类的人工智能装置的评价值作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为尽量不伤害人类的人工智能装置检测深度学习模型;
第六使用步骤:将在过去第三预设时长内所述第一人工智能装置的信息输入所述尽量不伤害人类的人工智能装置检测深度学习模型,计算得到的输出作为所述第一人工智能装置的评价值。
8.根据权利要求3所述的人工智能方法,其特征在于,所述第八行为评价值步骤、每一第九行为评价值步骤包括:
第七训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景中的人工智能装置尽量保护尽量不伤害人类的自己的行为的评价值作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为自保评价深度学习模型;
第七使用步骤:将所述第一事件场景输入所述自保评价深度学习模型,计算得到的输出为所述第八行为评价值;将每一所述第二事件场景输入所述自保评价深度学习模型,计算得到的输出为每一所述第九行为评价值。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为所述权利要求1中的所述第一人工智能装置;所述处理器执行所述程序时实现权利要求1-8任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-8任意一项所述方法的步骤。
CN202010513367.9A 2020-06-08 2020-06-08 尽量向善的人工智能伦理实现方法、系统和机器人 Pending CN111860765A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010513367.9A CN111860765A (zh) 2020-06-08 2020-06-08 尽量向善的人工智能伦理实现方法、系统和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010513367.9A CN111860765A (zh) 2020-06-08 2020-06-08 尽量向善的人工智能伦理实现方法、系统和机器人

Publications (1)

Publication Number Publication Date
CN111860765A true CN111860765A (zh) 2020-10-30

Family

ID=72986383

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010513367.9A Pending CN111860765A (zh) 2020-06-08 2020-06-08 尽量向善的人工智能伦理实现方法、系统和机器人

Country Status (1)

Country Link
CN (1) CN111860765A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418437A (zh) * 2020-11-19 2021-02-26 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112434816A (zh) * 2020-11-19 2021-03-02 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112508195A (zh) * 2020-11-19 2021-03-16 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112561075A (zh) * 2020-11-19 2021-03-26 华南师范大学 人工智能伦理规则修订防范风险虚拟实验方法和机器人
CN112819174A (zh) * 2020-11-19 2021-05-18 华南师范大学 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418437A (zh) * 2020-11-19 2021-02-26 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112434816A (zh) * 2020-11-19 2021-03-02 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112508195A (zh) * 2020-11-19 2021-03-16 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112561075A (zh) * 2020-11-19 2021-03-26 华南师范大学 人工智能伦理规则修订防范风险虚拟实验方法和机器人
CN112819174A (zh) * 2020-11-19 2021-05-18 华南师范大学 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN112434816B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112418437B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人
CN112508195B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112561075B (zh) * 2020-11-19 2023-05-30 华南师范大学 人工智能伦理规则修订防范风险虚拟实验方法和机器人

Similar Documents

Publication Publication Date Title
CN111860765A (zh) 尽量向善的人工智能伦理实现方法、系统和机器人
CN111812999B (zh) 人工智能伦理风险与防范虚拟仿真方法、系统和机器人
CN111860767B (zh) 善恶分明的人工智能伦理规则实现方法、系统和机器人
CN111823227B (zh) 人工智能伦理风险检测防范方法、深度学习系统和机器人
CN111860766A (zh) 人工智能伦理规则推理方法、深度学习系统和机器人
CN111775158B (zh) 人工智能伦理规则实现方法、专家系统和机器人
CN111860133A (zh) 无种族偏见的识别人类的人工智能伦理方法和机器人
CN111860577A (zh) 识别不伤害人类的人类的人工智能伦理方法和机器人
CN111775159A (zh) 基于动态人工智能伦理规则的伦理风险防范方法和机器人
US11315349B2 (en) Method, apparatus and device for identifying passenger state in unmanned vehicle, and storage medium
CN107329445B (zh) 机器人行为准则智能监管的方法
Olivato et al. A comparative analysis on the use of autoencoders for robot security anomaly detection
CN112819174A (zh) 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN112085214A (zh) 基于人类决策的人工智能伦理风险辨识防范方法和机器人
CN112085216A (zh) 基于伦理风险评定的人工智能伦理风险辨识和防范方法
Rogers et al. Lying about lying: Examining trust repair strategies after robot deception in a high-stakes hri scenario
CN112149837A (zh) 基于算法选择的人工智能伦理风险辨识防范方法和机器人
CN112085212A (zh) 基于人工智能体决策的人工智能伦理风险辨识和防范方法
CN112508195B (zh) 基于人工智能伦理规则修订的伦理仿真实验方法和机器人
CN112085210A (zh) 基于伦理规则判断的人工智能伦理风险辨识和防范方法
CN112418436B (zh) 基于人类决策的人工智能伦理虚拟仿真实验方法和机器人
CN112132289A (zh) 基于算法改进的人工智能伦理风险辨识防范方法和机器人
CN112434816B (zh) 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112085215A (zh) 基于伦理规则修订的人工智能伦理风险辨识防范方法
CN112580818A (zh) 人工智能算法改进防范伦理风险虚拟实验方法和机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination