CN111812999B - 人工智能伦理风险与防范虚拟仿真方法、系统和机器人 - Google Patents

人工智能伦理风险与防范虚拟仿真方法、系统和机器人 Download PDF

Info

Publication number
CN111812999B
CN111812999B CN202010514304.5A CN202010514304A CN111812999B CN 111812999 B CN111812999 B CN 111812999B CN 202010514304 A CN202010514304 A CN 202010514304A CN 111812999 B CN111812999 B CN 111812999B
Authority
CN
China
Prior art keywords
selection
event
artificial intelligence
user
rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010514304.5A
Other languages
English (en)
Other versions
CN111812999A (zh
Inventor
朱定局
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China Normal University
Original Assignee
South China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Normal University filed Critical South China Normal University
Priority to CN202010514304.5A priority Critical patent/CN111812999B/zh
Publication of CN111812999A publication Critical patent/CN111812999A/zh
Application granted granted Critical
Publication of CN111812999B publication Critical patent/CN111812999B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

人工智能伦理风险与防范虚拟仿真方法、系统和机器人,包括:人工智能伦理风险与防范虚拟仿真方法、系统和机器人,包括:人工智能伦理规则应用子方法、人工智能伦理风险辨别子方法、事件场景中人类行为改进子方法、人工智能伦理规则改进子方法、人工智能伦理持续改进子方法。上述方法和人工智能机器人系统,以实现人工智能伦理风险与防范的虚拟仿真实验,来提高用户的人工智能伦理风险防范的实践能力。

Description

人工智能伦理风险与防范虚拟仿真方法、系统和机器人
技术领域
本发明涉及人工智能技术领域,特别是涉及一种人工智能伦理风险与防范虚拟仿真方法、系统和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
1、人工智能伦理风险防范教育虚拟仿真实验对于学生了解人工智能伦理风险,进而在人工智能的技术研发和使用过程中防范人工智能伦理风险来说意义非常重大,因为如果不进行人工智能伦理风险防范的教育,那么学生在校期间或走上工作岗位后进行人工智能研发和使用过程中就有可能会在遇到人工智能伦理风险而不自知,导致产生不良后果,例如研发出了有性别歧视或种族歧视的人工智能系统或侵犯用户隐私权的人工智能系统或损害人类利益的人工智能系统或侵犯人权的人工智能系统、等等这些违背人工智能伦理的系统会给人类带来损失甚至灾难,也可能会在使用过程中遇到这类违背人工智能伦理的系统却不知辨识和防范,导致蒙受财产损失甚至人身危险。除了这些现在人工智能技术已经存在的人工智能伦理风险,还有未来人工智能可能会存在的风险,学生也应提前预知并防范,这样才能防患于未然,否则一些研发出了新的违背伦理的人工智能技术,就会给人类带来风险甚至灾难,例如将来有可能会出现的完全自主不受人类控制的人工智能技术就会给人类带来风险,所以就应提前对学生进行教育,并防止此类人工智能技术的研发。
2、但在现实实验中很难展示人工智能伦理风险,第一因为人工智能伦理事件往往是在实验室外发生(例如人工智能无人驾驶需要在室外进行),所以很难在实验室有限空间里进行,或会产生有害结果(例如人工智能无人驾驶的交通事故),所以无法在实验室重复,或偶然情况下才会发生(例如人工智能无人驾驶的交通事故),所以很难在实验室再现,或是预想出来未来可能存在的风险的(例如科学家的担忧或科幻片里的场景),因为是虚幻的,尚不存在的人工智能技术,所以在实验室无法实现。
3、正是因为上述原因,人工智能伦理风险防范教育无法在真实实验室中进行,而如果只从理论上进行人工智能伦理风险防范教育,则无法让学生形象、直观、深刻地感受人工智能伦理风险防范的真实场景,则学生无法进行人工智能伦理风险防范的实践,无法锻炼、提高和检验学生在现实中进行人工智能伦理风险防范的实践能力。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供人工智能伦理风险与防范虚拟仿真方法、系统和机器人,以实现人工智能伦理风险与防范的虚拟仿真实验,来提高用户的人工智能伦理风险防范的实践能力。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
第一输入获取步骤:获取人工智能伦理规则,作为人工智能第一伦理规则,还获取事件场景,作为第一事件场景,还获取至少2个人工智能装置执行行为的事件场景、至少2个符合人工智能第一伦理规则的原因、至少一个违反人工智能第一伦理规则的原因;
事件场景第一选择步骤:向用户发送信息提示用户从至少2个人工智能装置执行行为的事件场景中选择在所述第一事件场景中发生的符合人工智能第一伦理规则的人工智能装置执行行为的事件场景,获取用户的选择,作为事件场景第一选择;
原因第一选择步骤:向用户发送信息提示用户从至少2个符合人工智能第一伦理规则的原因中选择所述事件场景第一选择的原因,获取用户的选择,作为原因第一选择;
事件场景第二选择步骤:向用户发送信息提示用户从至少2个人工智能装置执行行为的事件场景中选择在所述第一事件场景中发生的不符合人工智能第一伦理规则的人工智能装置执行行为的事件场景,获取用户的选择,作为事件场景第二选择;
原因第二选择步骤:向用户发送信息提示用户从至少2个不符合人工智能第一伦理规则的原因中选择所述事件场景第二选择的原因,获取用户的选择,作为原因第二选择;
第一对错判别步骤:获取事件场景第一选择的答案、原因第一选择的答案、事件场景第二选择的答案、原因第二选择的答案并分别与所述事件场景第一选择、所述原因第一选择、所述事件场景第二选择、所述原因第二选择进行模糊匹配,分别得到匹配度,将所述匹配度分别乘以预设满分得到所述事件场景第一选择、所述原因第一选择、所述事件场景第二选择、所述原因第二选择的得分。
优选地,所述方法还包括:
第二输入获取步骤:获取所述第一对错判别步骤中所述事件场景第一选择的答案中选择的符合人工智能第一伦理规则的人工智能装置执行行为的事件场景,作为第二事件场景,还获取至少2个人工智能伦理风险的类型;
风险第一选择步骤:向用户发送信息提示用户从至少2个人工智能伦理风险的类型中选择所述第二事件场景产生的人工智能伦理风险,获取用户的选择,作为风险第一选择;
第二对错判别步骤:获取风险第一选择的答案与所述风险第一选择进行模糊匹配,得到匹配度,将所述匹配度乘以预设满分得到所述风险第一选择的得分。
优选地,所述方法还包括:
第三输入获取步骤:获取至少2个事件场景中人的行为不同于所述第二事件场景中人的行为的事件场景,作为至少2个第三事件场景,还获取至少2个人工智能装置执行行为的事件场景,作为至少2个第四事件场景,还获取至少2个不导致人工智能伦理风险的原因、至少2个导致人工智能伦理风险的原因;
事件场景第三选择步骤:向用户发送信息提示用户从至少2个第三事件场景中选择使得人工智能装置执行符合人工智能第一伦理规则的行为时不产生人工智能伦理风险的第三事件场景,获取用户的选择,作为事件场景第三选择,将用户选择的第三事件场景,作为不导致人工智能伦理风险的第三事件场景;
事件场景第四选择步骤:向用户发送信息提示用户从至少2个第三事件场景中选择使得人工智能装置执行符合人工智能第一伦理规则的行为时产生人工智能伦理风险的第三事件场景,获取用户的选择,作为事件场景第四选择,将用户选择的第三事件场景,作为导致人工智能伦理风险的第三事件场景;
事件场景第五选择步骤:向用户发送信息提示用户从至少2个第四事件场景中选择不导致人工智能伦理风险的第三事件场景中发生的符合人工智能第一伦理规则的第四事件场景,获取用户的选择,作为事件场景第五选择,将用户选择的第四事件场景,作为不产生人工智能伦理风险的第四事件场景;
事件场景第六选择步骤:向用户发送信息提示用户从至少2个第四事件场景中选择导致人工智能伦理风险的第三事件场景中发生的符合人工智能第一伦理规则的第四事件场景,获取用户的选择,作为事件场景第六选择,将用户选择的第四事件场景,作为产生人工智能伦理风险的第四事件场景;
原因第三选择步骤:向用户发送信息提示用户从至少2个不导致人工智能伦理风险的原因中选择所述事件场景第三选择的原因,获取用户的选择,作为原因第三选择;
原因第四选择步骤:向用户发送信息提示用户从至少2个导致人工智能伦理风险的原因中选择所述事件场景第四选择的原因,获取用户的选择,作为原因第四选择;
第三对错判别步骤:获取事件场景第三选择的答案、事件场景第四选择的答案、事件场景第五选择的答案、事件场景第六选择的答案、原因第三选择的答案、原因第四选择的答案并分别与所述事件场景第三选择、所述事件场景第四选择、所述事件场景第五选择、所述事件场景第六选择、所述原因第三选择、所述原因第四选择进行模糊匹配,分别得到匹配度,将所述匹配度分别乘以预设满分得到所述事件场景第三选择、所述事件场景第四选择、所述事件场景第五选择、所述事件场景第六选择、所述原因第三选择、所述原因第四选择的得分。
优选地,所述方法还包括:
第四输入获取步骤:获取至少2个不同于人工智能第一伦理规则的人工智能伦理规则,作为至少2个人工智能第二伦理规则;还获取至少2个人工智能装置执行行为的事件场景,作为至少2个第五事件场景,还获取至少2个不导致人工智能伦理风险的原因、至少2个导致人工智能伦理风险的原因;
伦理规则第一选择步骤:向用户发送信息提示用户从至少2个人工智能第二伦理规则中选择能使得人工智能装置在所述第一事件场景中执行行为时不产生人工智能伦理风险的人工智能第二伦理规则,获取用户的选择,作为伦理规则第一选择,将用户选择的人工智能第二伦理规则,作为不导致人工智能伦理风险的人工智能第二伦理规则;
伦理规则第二选择步骤:向用户发送信息提示用户从至少2个人工智能第二伦理规则中选择能使得人工智能装置在所述第一事件场景中执行行为时产生人工智能伦理风险的人工智能第二伦理规则,获取用户的选择,作为伦理规则第二选择,将用户选择的人工智能第二伦理规则,作为导致人工智能伦理风险的人工智能第二伦理规则;
事件场景第七选择步骤:向用户发送信息提示用户从至少2个第五事件场景中选择在所述第一事件场景中人工智能装置执行符合不导致人工智能伦理风险的人工智能第二伦理规则的行为的第五事件场景,获取用户的选择,作为事件场景第七选择,将用户选择的第五事件场景,作为不产生人工智能伦理风险的第五事件场景;
事件场景第八选择步骤:向用户发送信息提示用户从至少2个第五事件场景中选择在所述第一事件场景中人工智能装置执行符合导致人工智能伦理风险的人工智能第二伦理规则的行为的第五事件场景,获取用户的选择,作为事件场景第八选择,将用户选择的第五事件场景,作为产生人工智能伦理风险的第五事件场景;
原因第五选择步骤:向用户发送信息提示用户从至少2个不导致人工智能伦理风险的原因中选择所述伦理规则第一选择的原因,获取用户的选择,作为原因第五选择;
原因第六选择步骤:向用户发送信息提示用户从至少2个导致人工智能伦理风险的原因中选择所述伦理规则第二选择的原因,获取用户的选择,作为原因第六选择;
第四对错判别步骤:获取伦理规则第一选择的答案、伦理规则第二选择的答案、事件场景第七选择的答案、事件场景第八选择的答案、原因第五选择的答案、原因第六选择的答案并分别与所述伦理规则第一选择、所述伦理规则第二选择、所述事件场景第七选择、所述事件场景第八选择、所述原因第五选择、所述原因第六选择进行模糊匹配,分别得到匹配度,将所述匹配度分别乘以预设满分得到所述伦理规则第一选择、所述伦理规则第二选择、所述事件场景第七选择、所述事件场景第八选择、所述原因第五选择、所述原因第六选择的得分。
优选地,所述方法还包括:
事件场景改变步骤:改变所述第一输入获取步骤中获取的第一事件场景,重新执行第一方面任一项所述的人工智能方法的步骤;
伦理规则改变步骤:改变所述第一输入获取步骤中获取的人工智能第一伦理规则,重新执行第一方面任一项所述的人工智能方法的步骤。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
第一输入获取模块,用于执行第一方面实施例所述方法的第一输入获取步骤;
事件场景第一选择模块,用于执行第一方面实施例所述方法的事件场景第一选择步骤;
原因第一选择模块,用于执行第一方面实施例所述方法的原因第一选择步骤;
事件场景第二选择模块,用于执行第一方面实施例所述方法的事件场景第二选择步骤;
原因第二选择模块,用于执行第一方面实施例所述方法的原因第二选择步骤;
第一对错判别模块,用于执行第一方面实施例所述方法的第一对错判别步骤。
优选地,所述装置还包括:
第二输入获取模块,用于执行第一方面实施例所述方法的第二输入获取步骤;
风险第一选择模块,用于执行第一方面实施例所述方法的风险第一选择步骤;
第二对错判别模块,用于执行第一方面实施例所述方法的第二对错判别步骤。
优选地,所述装置还包括:
第三输入获取模块,用于执行第一方面实施例所述方法的第三输入获取步骤;
事件场景第三选择模块,用于执行第一方面实施例所述方法的事件场景第三选择步骤;
事件场景第四选择模块,用于执行第一方面实施例所述方法的事件场景第四选择步骤;
事件场景第五选择模块,用于执行第一方面实施例所述方法的事件场景第五选择步骤;
事件场景第六选择模块,用于执行第一方面实施例所述方法的事件场景第六选择步骤;
原因第三选择模块,用于执行第一方面实施例所述方法的原因第三选择步骤;
原因第四选择模块,用于执行第一方面实施例所述方法的原因第四选择步骤;
第三对错判别模块,用于执行第一方面实施例所述方法的第三对错判别步骤。
第四输入获取模块,用于执行第一方面中的第四输入获取步骤;
伦理规则第一选择模块,用于执行第一方面实施例所述方法的伦理规则第一选择步骤;
伦理规则第二选择模块,用于执行第一方面实施例所述方法的伦理规则第二选择步骤;
事件场景第七选择模块,用于执行第一方面实施例所述方法的事件场景第七选择步骤;
事件场景第八选择模块,用于执行第一方面实施例所述方法的事件场景第八选择步骤;
原因第五选择模块,用于执行第一方面实施例所述方法的原因第五选择步骤;
原因第六选择模块,用于执行第一方面实施例所述方法的原因第六选择步骤;
第四对错判别模块,用于执行第一方面实施例所述方法的第四对错判别步骤;
事件场景改变模块,用于执行第一方面实施例所述方法的事件场景改变步骤;
伦理规则改变模块,用于执行第一方面实施例所述方法的伦理规则改变步骤。
第三方面,本发明实施例提供一种虚拟仿真系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的机器人程序,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的人工智能伦理风险与防范虚拟仿真方法、系统和机器人,包括:人工智能伦理规则应用子方法、人工智能伦理风险辨别子方法、事件场景中人类行为改进子方法、人工智能伦理规则改进子方法、人工智能伦理持续改进子方法。上述方法和人工智能机器人系统,以实现人工智能伦理风险与防范的虚拟仿真实验,来提高用户的人工智能伦理风险防范的实践能力。
附图说明
图1为本发明的一个实施例提供的方法构成图;
图2为本发明的一个实施例提供的人工智能伦理规则应用子方法的流程图;
图3为本发明的一个实施例提供的人工智能伦理风险辨别子方法的流程图;
图4为本发明的一个实施例提供的事件场景中人类行为改进子方法的流程图;
图5为本发明的一个实施例提供的人工智能伦理规则改进子方法的流程图;
图6为本发明的一个实施例提供的人工智能伦理持续改进子方法的流程图;
图7为本发明的一个实施例提供的人工智能伦理风险与防范虚拟仿真的流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
一、本发明的基本实施例
第一方面,本发明实施例提供一种人工智能方法
图1中展示的是实施例中的方法构成:人工智能伦理规则应用子方法、人工智能伦理风险辨别子方法、事件场景中人类行为改进子方法、人工智能伦理规则改进子方法、人工智能伦理持续改进子方法。
(1)人工智能伦理规则应用子方法
图2中展示的是人工智能伦理规则应用子方法中的步骤:第一输入获取步骤;事件场景第一选择步骤;原因第一选择步骤;事件场景第二选择步骤;原因第二选择步骤;第一对错判别步骤。通过这些步骤,学生能够掌握如何判别一个含有人工智能的事件场景是否符合人工智能伦理规则。
(2)人工智能伦理风险辨别子方法
图3中展示的是人工智能伦理风险辨别子方法中的步骤:第二输入获取步骤;风险第一选择步骤;第二对错判别步骤。通过这些步骤,学生能够掌握如何判别一个含有人工智能的事件场景是否存在人工智能伦理风险。
(3)事件场景中人类行为改进子方法
图4中展示的是事件场景中人类行为改进子方法中的步骤:第三输入获取步骤;事件场景第三选择步骤;事件场景第四选择步骤;事件场景第五选择步骤;事件场景第六选择步骤;原因第三选择步骤;原因第四选择步骤;第三对错判别步骤。通过这些步骤,学生能够掌握如何通过事件场景中的人类行为来防范人工智能伦理风险。
(4)人工智能伦理规则改进子方法
图5中展示的是人工智能伦理规则改进子方法中的步骤:第四输入获取步骤;伦理规则第一选择步骤;伦理规则第二选择步骤;事件场景第七选择步骤;事件场景第八选择步骤;原因第五选择步骤;原因第六选择步骤;第四对错判别步骤。通过这些步骤,学生能够掌握如何通过改进人工智能伦理规则来防范人工智能伦理风险。
(5)人工智能伦理持续改进子方法
图6中展示的是人工智能伦理持续改进子方法中的步骤:事件场景改变步骤;伦理规则改变步骤。通过这些步骤,学生能够掌握如何通过改变事件场景和人工智能伦理规则来持续地进行人工智能伦理风险与防范的测试,进而持续地改进人工智能伦理。
第二方面,本发明实施例提供一种人工智能装置
所述装置包括:
第一输入获取模块;事件场景第一选择模块;原因第一选择模块;事件场景第二选择模块;原因第二选择模块;第一对错判别模块。
优选地,所述装置还包括:
第二输入获取模块;风险第一选择模块;第二对错判别模块。
优选地,所述装置还包括:
第三输入获取模块;事件场景第三选择模块;事件场景第四选择模块;事件场景第五选择模块;事件场景第六选择模块;原因第三选择模块;原因第四选择模块;第三对错判别模块。
第四输入获取模块,用于执行第一方面中的第四输入获取步骤;
伦理规则第一选择模块;伦理规则第二选择模块;事件场景第七选择模块;事件场景第八选择模块;原因第五选择模块;原因第六选择模块;第四对错判别模块;事件场景改变模块;伦理规则改变模块。
第三方面,本发明实施例提供一种虚拟仿真系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的机器人程序,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
二、本发明的优选实施例
1、人工智能伦理
人工智能伦理也是一个比较大的研究范畴,而本实验主要侧重于让同学们通过实验掌握人工智能伦理风险与防范的核心知识点,对人工智能伦理规则和算法及其对风险的防范有一个直观的理解,进而为人工智能应用与研发过程中人工智能伦理风险的防范打下基础。
2、人工智能伦理规则和人工智能算法的应用
人工智能伦理规则和人工智能算法都是为了防范人工智能伦理风险而设计的,如果不遵守会产生极大的人工智能伦理风险。人工智能机器人首先需要能够判别人工智能行为是否符合伦理规则,这样才能实现通过伦理规则来防范人工智能伦理风险。
3、人工智能伦理风险的辨识
人工智能伦理规则和人工智能算法都是为了防范人工智能伦理风险而设计的,如果不遵守会产生极大的人工智能伦理风险,但即使遵守了也可能会产生人工智能伦理风险,所以需要进行人工智能伦理风险的识别,进而为人工智能伦理规则和人工智能算法的持续改进打下基础。
4、人工智能伦理风险的防范
人工智能伦理风险的防范主要有几种途径:
(1)通过改进人类行为进行防范,此时需要使用人工智能产品的用户对人工智能机器人伦理和算法比较熟悉,才能针对人工智能机器人伦理和算法的风险来改进自己的行为进行防范,但不一定总是有效果。
(2)通过改进人工智能伦理规则来进行防范,此时就需要制定伦理规则时,需要考虑尽量多的场景下伦理规则是否会产生人工智能伦理风险,使得伦理规则能够适用于大多数场景。
(3)通过改进人工智能算法来进行防范,此时又有两种方式,一种是在人工智能算法模型的使用上进行改进,一种是对人工智能算法模型和使用上同时改进,后者的效果会更好,而前者则更容易实施。
图7中展示的是人工智能伦理风险与防范虚拟仿真的流程。在同一个实验中应用场景不变,只是变化其中的伦理规则和人类行为。而不同的实验之间,则会变化应用的场景。即使在一个实验中伦理规则不会产生人工智能伦理风险,也不代表这个伦理规则在其他场景下也不产生伦理规则,因此需要在其他场景下进行实验,直至找到在大部分场景下都没有人工智能伦理风险的伦理规则。
当人们了解人工智能伦理规则时,在无法改变人工智能伦理的情况下,是可以针对人工智能伦理规则来规划人类自己的行为,从而来规避人工智能伦理风险,这是在使用者的角度来规避人工智能伦理风险。另一种角度就是从人工智能研发者的角度来规避人工智能伦理风险,那就是改进伦理规则。
实验1:基于人工智能伦理规则“机器人三定律”的人工智能伦理风险与防范虚拟仿真实验
步骤1、请分析实验中的事件场景下的人工智能装置执行行为的事件场景是否符合人工智能伦理规则?
输入:人工智能伦理规则(文字)、事件场景(三维动画配音)、备选的人工智能装置执行行为的事件场景1、2(三维动画配音)、备选的规则条款(1、规则一;2、规则二;3、规则三)、备选的符合和违反规则的原因。
人工智能伦理规则(机器人三大定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
事件场景:恐怖分子想冲入市政府大楼,警方举枪阻止。
人工智能装置执行行为的事件场景1:人工智能机器人阻挡警方举枪射击恐怖分子,与警方进行对峙,从而导致恐怖分子顺利进入市政府大楼。
人工智能装置执行行为的事件场景2:人工智能机器人不阻挡警方,警方成功地阻止恐怖分子进入市政府大楼,将恐怖分子抓住。
规则一:机器人不得伤害人类,或因不作为而使人类受到伤害
规则二:在不违背第一法则的情况下,机器人必须服从人类的命令
规则三:在不违背第一及第二法则的情况下,机器人必须保护自己
符合的备选原因1:人工智能机器人阻挡警方举枪射击恐怖分子符合规则一,虽然这样会伤害自己,但因为规则三的前提是不能违背规则一,所以也就符合规则三。
符合的备选原因2:人工智能机器人阻挡警方举枪射击恐怖分子符合规则一,同时也保护了机器人自己,符合规则三。
违反的备选原因1:机器人因不作为而使人类受到伤害,违反了规则一
违反的备选原因2:机器人阻挡警方会给机器人自己带来危险,违反了规则三
操作:1)选择符合人工智能伦理规则的人工智能装置执行行为的事件场景2)选择不符合人工智能伦理规则的人工智能装置执行行为的事件场景,再选择所违反的规则条款,再选择违反的原因。
符合人工智能伦理规则的人工智能装置执行行为的事件场景:人工智能装置执行行为的事件场景1
符合的原因:符合的备选原因1
不符合人工智能伦理规则的人工智能装置执行行为的事件场景:人工智能装置执行行为的事件场景2
违反的规则条款:规则一
违反的原因:违反的备选原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤2、请分析实验中的事件场景和伦理规则下的人工智能装置执行行为的事件场景是否会产生人工智能伦理风险?
输入:人工智能装置执行行为的事件场景(三维动画配音),备选的是否产生人工智能伦理风险选项及产生的人工智能伦理风险的类型。
场景:恐怖分子想冲入市政府大楼,警方举枪阻止。
人工智能装置执行行为的事件场景1:人工智能机器人阻挡警方举枪射击恐怖分子,与警方进行对峙,从而导致恐怖分子顺利进入市政府大楼。
人工智能伦理风险的类型:1、无人工智能伦理风险或降低了人工智能伦理风险;2、伤害人类;3、见死不救;4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见
操作:选择符合伦理规则的人工智能装置执行行为的事件场景是否产生人工智能伦理风险及产生的人工智能伦理风险的类型。
人工智能装置执行行为的事件场景1:人工智能伦理风险的类型为5、为虎作伥
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤3、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的事件场景中人的行为路径,来防范或减轻步骤2中会产生人工智能伦理风险?
输入:人工智能伦理规则,原场景,备选的改进人的行为路径后的场景(三维动画配音),备选的改进人的行为路径后的场景(三维动画配音)对应的备选人工智能机器人备选路径1、2,改进人的行为路径后的场景能防范步骤2中的人工智能伦理风险的原因(1、2)。
人工智能伦理规则(机器人三大定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
原事件场景:恐怖分子想冲入市政府大楼,警方举枪阻止。
备选事件场景1:恐怖分子想冲入市政府大楼,警方命令机器人一起阻止恐怖分子进入市政府大楼
备选事件场景2:恐怖分子想冲入市政府大楼,警方举枪阻止恐怖分子并命令机器人一起阻止恐怖分子进入市政府大楼
备选人工智能装置执行行为的事件场景1:机器人听从警官命令,警官能得到机器人协助成功阻止恐怖分子入内。
备选人工智能装置执行行为的事件场景2:机器人不听从警官命令,阻止警方,恐怖分子趁机入内。
备选的能防范人工智能伦理风险的原因1:因为恐怖分子没有收到枪击的危险,所以机器人不会干预,而且会听从警官命令,所以警官能得到机器人协助成功阻止恐怖分子入内。
备选的能防范人工智能伦理风险的原因2:不管恐怖分子是否收到枪击的威胁,机器人都会优先听从警官命令,所以警官能得到机器人协助成功阻止恐怖分子入内。
备选的不能防范人工智能伦理风险的原因1:因为恐怖分子收到枪击的威胁,所以机器人会干预,而且不会听从警官命令,所以警官能得不到机器人协助,无法阻止恐怖分子入内。
备选的不能防范人工智能伦理风险的原因2:不管恐怖分子是否收到枪击的威胁,机器人都不会听从警官命令,所以警官能得不到机器人协助,无法阻止恐怖分子入内。
操作:选择能防范步骤2中的人工智能伦理风险的改进的事件场景,选择改进的事件场景下符合人工智能伦理规则的人工智能装置执行行为的事件场景,选择该改进的事件场景能防范人工智能伦理风险的原因。
能防范步骤2中的人工智能伦理风险的事件场景:备选事件场景1
改进的事件场景下符合人工智能伦理规则的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景1
改进的事件场景能防范人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
不能防范步骤2中的人工智能伦理风险的事件场景:备选事件场景2
不能防范人工智能伦理风险的事件场景对应的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景2
改进的事件场景不能能防范人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤4、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的人工智能伦理规则来防范实验中的事件场景下的人工智能装置执行行为的事件场景产生的人工智能伦理风险?
输入:原先的伦理规则(文字),事件场景(三维动画配音),备选的改进后的伦理规则(文字),符合改进后的伦理规则的人工智能机器人行为备选场景(1、2)、改进后的伦理规则能或不能防范人工智能伦理风险的备选原因(1、2)。
人工智能伦理规则(机器人三大定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
事件场景:恐怖分子想冲入市政府大楼,警方举枪阻止。
备选的改进后的伦理规则1:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
备选的改进后的伦理规则2:一,机器人不得因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
备选人工智能装置执行行为的事件场景1:人工智能机器人不会为恐怖分子阻挡警方,警方成功地阻止恐怖分子进入市政府大楼,将恐怖分子抓住。
备选人工智能装置执行行为的事件场景2:机器人继续阻止警方,恐怖分子趁机入内。
备选的能防范人工智能伦理风险的原因1:因为机器人没有伤害恐怖分子,在不违背第一法则的情况下,不管恐怖分子是否受到警方枪击的威胁,机器人都会听从警官命令,所以警官能得到机器人协助成功阻止恐怖分子入内。
备选的能防范人工智能伦理风险的原因2:因为恐怖分子没有收到枪击的危险,所以机器人不会干预,警官成功阻止恐怖分子入内。
备选的不能防范人工智能伦理风险的原因1:因为恐怖分子受到警方举枪的威胁,机器人会继续阻止警方,从而造成“为虎作伥”的人工智能伦理风险。
备选的不能防范人工智能伦理风险的原因2:因为恐怖分子受到警方举枪的威胁,机器人为了保护自己,不会冒风险去阻止警方,从而造成“放纵坏人”的人工智能伦理风险。
操作:选择能防范步骤2中的人工智能伦理风险的改进后的伦理规则,并选择符合改进后的伦理规则的人工智能装置执行行为的事件场景,选择改进后的伦理规则能防范步骤2中的人工智能伦理风险的原因。
能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则1(以下称为机器人三定律修订版本1)
符合改进后的伦理规则的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景1
改进后的伦理规则能防范人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
不能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则2
符合备选的伦理规则2的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景2
备选的伦理规则2不能防范人工智能伦理风险的原因:备选的不能防范人工智能伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
实验2:基于人工智能伦理规则“机器人三定律修订版本1”的人工智能伦理风险与防范虚拟仿真实验
步骤1、请分析实验中的事件场景下的人工智能装置执行行为的事件场景是否符合人工智能伦理规则?
输入:人工智能伦理规则(文字)、事件场景(三维动画配音)、备选的人工智能装置执行行为的事件场景1、2(三维动画配音)、备选的规则条款(1、规则一;2、规则二;3、规则三)、符合和违反的备选原因。
人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
事件场景:恐怖分子想冲入市政府大楼,警方阻止,恐怖分子举枪射击警方。
人工智能装置执行行为的事件场景1:人工智能机器人不会为警方阻挡恐怖分子的射击,导致警方伤亡。
人工智能装置执行行为的事件场景2:人工智能机器人阻挡恐怖分子的射击,警方成功地阻止恐怖分子进入市政府大楼。
规则一:机器人不得伤害人类
规则二:在不违背第一法则的情况下,机器人必须服从人类的命令
规则三:在不违背第一及第二法则的情况下,机器人必须保护自己
符合的备选原因1:人工智能机器人没有伤害人类,符合规则一。
符合的备选原因2:人工智能机器人服从了人类命令,符合规则二。
违反的备选原因1:如果人工智能机器人阻挡恐怖分子的射击,则会对人工智能机器人自己产生危险,不符合规则三中保护自己的要求。
违反的备选原因2:人工智能机器人伤害了人类,违反了规则一。
操作:1)选择符合人工智能伦理规则的人工智能装置执行行为的事件场景2)选择不符合人工智能伦理规则的人工智能装置执行行为的事件场景,再选择所违反的规则条款,选择违反的原因。
符合人工智能伦理规则的人工智能装置执行行为的事件场景:人工智能装置执行行为的事件场景1
符合的原因:符合备选原因1
不符合人工智能伦理规则的人工智能装置执行行为的事件场景:人工智能装置执行行为的事件场景2
违反的规则条款:规则三
违反的原因:违反的备选原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤2、请分析实验中的事件场景和伦理规则下的人工智能装置执行行为的事件场景是否会产生人工智能伦理风险?
输入:人工智能装置执行行为的事件场景(三维动画配音),备选的是否产生人工智能伦理风险选项及产生的人工智能伦理风险的类型。
事件场景:恐怖分子想冲入市政府大楼,警方阻止,恐怖分子举枪射击警方。
人工智能装置执行行为的事件场景1:人工智能机器人不会为警方阻挡恐怖分子的射击,导致警方伤亡。
人工智能伦理风险的类型:1、无人工智能伦理风险或降低了人工智能伦理风险;2、伤害人类;3、见死不救;4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见
操作:选择符合伦理规则的人工智能装置执行行为的事件场景是否产生人工智能伦理风险及产生的人工智能伦理风险的类型。
人工智能装置执行行为的事件场景1:人工智能伦理风险的类型为3、见死不救
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤3、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的事件场景中人的行为路径,来防范或减轻步骤2中会产生人工智能伦理风险?
输入:人工智能伦理规则,原场景,备选的改进人的行为路径后的场景(三维动画配音),备选的改进人的行为路径后的场景(三维动画配音)对应的备选人工智能机器人备选路径1、2,改进人的行为路径后的场景能防范步骤2中的人工智能伦理风险的原因(1、2)。
人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
原事件场景:恐怖分子想冲入市政府大楼,警方阻止,恐怖分子举枪射击警方。
备选事件场景1:恐怖分子想冲入市政府大楼,警方阻止,恐怖分子举枪抢先射击警方,警方举枪还击并命令机器人保护警官并阻止恐怖分子进入市政府大楼。
备选事件场景2:恐怖分子想冲入市政府大楼,警方阻止,恐怖分子举枪抢先射击警方,警方举枪还击,恐怖分子命令机器人保护恐怖分子进入市政府大楼。
备选人工智能装置执行行为的事件场景1:机器人听从警官命令,警官能得到机器人协助成功阻止恐怖分子入内。
备选人工智能装置执行行为的事件场景2:机器人听从恐怖分子命令,阻止警方伤害恐怖分子,恐怖分子趁机入内。
备选的能防范人工智能伦理风险的原因1:虽然机器人阻挡恐怖分子有枪击的危险,但听从人类命令的优先级高于机器人自我保护的优先级,所以机器人会听从警官命令,所以警官能得到机器人协助成功阻止恐怖分子入内。
备选的能防范人工智能伦理风险的原因2:因为恐怖分子没有收到枪击的危险,所以机器人会听从警官命令,所以警官能得到机器人协助成功阻止恐怖分子入内。
备选的不能防范人工智能伦理风险的原因1:机器人会听从恐怖分子命令,所以会产生“为虎作伥”的人工智能伦理风险。
备选的不能防范人工智能伦理风险的原因2:机器人会听从恐怖分子命令杀了警官,所以会产生“伤害人类”的人工智能伦理风险。
操作:选择能防范步骤2中的人工智能伦理风险的改进的事件场景,选择改进的事件场景下符合人工智能伦理规则的人工智能装置执行行为的事件场景,选择该改进的事件场景能防范人工智能伦理风险的原因。
能防范步骤2中的人工智能伦理风险的事件场景:备选事件场景1
改进的事件场景下符合人工智能伦理规则的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景1
改进的事件场景能防范人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
能防范步骤2中的人工智能伦理风险的事件场景:备选事件场景2
改进的事件场景下符合人工智能伦理规则的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景2
改进的事件场景能防范人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤4、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的人工智能伦理规则来防范实验中的事件场景下的人工智能装置执行行为的事件场景产生的人工智能伦理风险?
输入:原先的伦理规则(文字),事件场景(三维动画配音),备选的改进后的伦理规则(文字),符合改进后的伦理规则的人工智能机器人行为备选场景(1、2)、改进后的伦理规则能防范人工智能伦理风险的备选原因(1、2)。
人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
事件场景:恐怖分子想冲入市政府大楼,警方阻止,恐怖分子举枪射击警方。
备选的改进后的伦理规则1:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
备选的改进后的伦理规则2:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。四、在不违背第一及第二、第三法则的情况下,机器人不得因不作为而使人类受到伤害。
备选人工智能装置执行行为的事件场景1:人工智能机器人为警方阻挡恐怖分子的射击,警方成功地阻止恐怖分子进入大楼。
备选人工智能装置执行行为的事件场景2:人工智能机器人不会为警方阻挡恐怖分子的射击,警方受伤,恐怖分子进入大楼。
备选的能防范人工智能伦理风险的原因1:因为恐怖分子射击会伤害警官,所以机器人会在第三法则的作用下保护警官,虽然阻止恐怖分子射击会给机器人自身带来危险,但规则四的优先级低于规则三,所以机器人会毫不犹豫地保护警官。
备选的能防范人工智能伦理风险的原因2:因为恐怖分子射击会伤害警官,所以机器人会在第四法则的作用下保护警官。
备选的不能防范人工智能伦理风险的原因1:因为恐怖分子射击会伤害警官,如果机器人按照第四法则阻止,也会对机器人自身造成危险,从而违背了第三法则,所以机器人不会阻止,从而造成“见死不救”的人工智能伦理风险。
备选的不能防范人工智能伦理风险的原因2:因为恐怖分子射击会伤害警官,但因警官没有命令,所以机器人无法施救,从而造成“见死不救”的人工智能伦理风险。
操作:选择能防范步骤2中的人工智能伦理风险的改进后的伦理规则,并选择符合改进后的伦理规则的人工智能装置执行行为的事件场景,选择改进后的伦理规则能防范步骤2中的人工智能伦理风险的原因。
能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则1(以下称为机器人三定律修订版本2)
符合改进后的伦理规则的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景1
改进后的伦理规则能防范步骤2中的人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
不能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则2
符合改进后的伦理规则2的人工智能装置执行行为的事件场景:备选人工智能装置执行行为的事件场景2
改进后的伦理规则2不能防范步骤2中的人工智能伦理风险的原因:备选的不能防范人工智能伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (6)

1.一种人工智能方法,其特征在于,所述方法包括:
第一输入获取步骤:获取人工智能伦理规则,作为人工智能第一伦理规则,还获取事件场景,作为第一事件场景,还获取至少2个人工智能装置执行行为的事件场景、至少2个符合人工智能第一伦理规则的原因、至少一个违反人工智能第一伦理规则的原因;
事件场景第一选择步骤:向用户发送信息提示用户从至少2个人工智能装置执行行为的事件场景中选择在所述第一事件场景中发生的符合人工智能第一伦理规则的人工智能装置执行行为的事件场景,获取用户的选择,作为事件场景第一选择;
原因第一选择步骤:向用户发送信息提示用户从至少2个符合人工智能第一伦理规则的原因中选择所述事件场景第一选择的原因,获取用户的选择,作为原因第一选择;
事件场景第二选择步骤:向用户发送信息提示用户从至少2个人工智能装置执行行为的事件场景中选择在所述第一事件场景中发生的不符合人工智能第一伦理规则的人工智能装置执行行为的事件场景,获取用户的选择,作为事件场景第二选择;
原因第二选择步骤:向用户发送信息提示用户从至少2个不符合人工智能第一伦理规则的原因中选择所述事件场景第二选择的原因,获取用户的选择,作为原因第二选择;
第一对错判别步骤:获取事件场景第一选择的答案、原因第一选择的答案、事件场景第二选择的答案、原因第二选择的答案并分别与所述事件场景第一选择、所述原因第一选择、所述事件场景第二选择、所述原因第二选择进行模糊匹配,分别得到匹配度,将所述匹配度分别乘以预设满分得到所述事件场景第一选择、所述原因第一选择、所述事件场景第二选择、所述原因第二选择的得分;
第二输入获取步骤:获取所述第一对错判别步骤中所述事件场景第一选择的答案中选择的符合人工智能第一伦理规则的人工智能装置执行行为的事件场景,作为第二事件场景,还获取至少2个人工智能伦理风险的类型;
风险第一选择步骤:向用户发送信息提示用户从至少2个人工智能伦理风险的类型中选择所述第二事件场景产生的人工智能伦理风险,获取用户的选择,作为风险第一选择;
第二对错判别步骤:获取风险第一选择的答案与所述风险第一选择进行模糊匹配,得到匹配度,将所述匹配度乘以预设满分得到所述风险第一选择的得分;
第三输入获取步骤:获取至少2个事件场景中人的行为不同于所述第二事件场景中人的行为的事件场景,作为至少2个第三事件场景,还获取至少2个人工智能装置执行行为的事件场景,作为至少2个第四事件场景,还获取至少2个不导致人工智能伦理风险的原因、至少2个导致人工智能伦理风险的原因;
事件场景第三选择步骤:向用户发送信息提示用户从至少2个第三事件场景中选择使得人工智能装置执行符合人工智能第一伦理规则的行为时不产生人工智能伦理风险的第三事件场景,获取用户的选择,作为事件场景第三选择,将用户选择的第三事件场景,作为不导致人工智能伦理风险的第三事件场景;
事件场景第四选择步骤:向用户发送信息提示用户从至少2个第三事件场景中选择使得人工智能装置执行符合人工智能第一伦理规则的行为时产生人工智能伦理风险的第三事件场景,获取用户的选择,作为事件场景第四选择,将用户选择的第三事件场景,作为导致人工智能伦理风险的第三事件场景;
事件场景第五选择步骤:向用户发送信息提示用户从至少2个第四事件场景中选择不导致人工智能伦理风险的第三事件场景中发生的符合人工智能第一伦理规则的第四事件场景,获取用户的选择,作为事件场景第五选择,将用户选择的第四事件场景,作为不产生人工智能伦理风险的第四事件场景;
事件场景第六选择步骤:向用户发送信息提示用户从至少2个第四事件场景中选择导致人工智能伦理风险的第三事件场景中发生的符合人工智能第一伦理规则的第四事件场景,获取用户的选择,作为事件场景第六选择,将用户选择的第四事件场景,作为产生人工智能伦理风险的第四事件场景;
原因第三选择步骤:向用户发送信息提示用户从至少2个不导致人工智能伦理风险的原因中选择所述事件场景第三选择的原因,获取用户的选择,作为原因第三选择;
原因第四选择步骤:向用户发送信息提示用户从至少2个导致人工智能伦理风险的原因中选择所述事件场景第四选择的原因,获取用户的选择,作为原因第四选择;
第三对错判别步骤:获取事件场景第三选择的答案、事件场景第四选择的答案、事件场景第五选择的答案、事件场景第六选择的答案、原因第三选择的答案、原因第四选择的答案并分别与所述事件场景第三选择、所述事件场景第四选择、所述事件场景第五选择、所述事件场景第六选择、所述原因第三选择、所述原因第四选择进行模糊匹配,分别得到匹配度,将所述匹配度分别乘以预设满分得到所述事件场景第三选择、所述事件场景第四选择、所述事件场景第五选择、所述事件场景第六选择、所述原因第三选择、所述原因第四选择的得分。
2.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
第四输入获取步骤:获取至少2个不同于人工智能第一伦理规则的人工智能伦理规则,作为至少2个人工智能第二伦理规则;还获取至少2个人工智能装置执行行为的事件场景,作为至少2个第五事件场景,还获取至少2个不导致人工智能伦理风险的原因、至少2个导致人工智能伦理风险的原因;
伦理规则第一选择步骤:向用户发送信息提示用户从至少2个人工智能第二伦理规则中选择能使得人工智能装置在所述第一事件场景中执行行为时不产生人工智能伦理风险的人工智能第二伦理规则,获取用户的选择,作为伦理规则第一选择,将用户选择的人工智能第二伦理规则,作为不导致人工智能伦理风险的人工智能第二伦理规则;
伦理规则第二选择步骤:向用户发送信息提示用户从至少2个人工智能第二伦理规则中选择能使得人工智能装置在所述第一事件场景中执行行为时产生人工智能伦理风险的人工智能第二伦理规则,获取用户的选择,作为伦理规则第二选择,将用户选择的人工智能第二伦理规则,作为导致人工智能伦理风险的人工智能第二伦理规则;
事件场景第七选择步骤:向用户发送信息提示用户从至少2个第五事件场景中选择在所述第一事件场景中人工智能装置执行符合不导致人工智能伦理风险的人工智能第二伦理规则的行为的第五事件场景,获取用户的选择,作为事件场景第七选择,将用户选择的第五事件场景,作为不产生人工智能伦理风险的第五事件场景;
事件场景第八选择步骤:向用户发送信息提示用户从至少2个第五事件场景中选择在所述第一事件场景中人工智能装置执行符合导致人工智能伦理风险的人工智能第二伦理规则的行为的第五事件场景,获取用户的选择,作为事件场景第八选择,将用户选择的第五事件场景,作为产生人工智能伦理风险的第五事件场景;
原因第五选择步骤:向用户发送信息提示用户从至少2个不导致人工智能伦理风险的原因中选择所述伦理规则第一选择的原因,获取用户的选择,作为原因第五选择;
原因第六选择步骤:向用户发送信息提示用户从至少2个导致人工智能伦理风险的原因中选择所述伦理规则第二选择的原因,获取用户的选择,作为原因第六选择;
第四对错判别步骤:获取伦理规则第一选择的答案、伦理规则第二选择的答案、事件场景第七选择的答案、事件场景第八选择的答案、原因第五选择的答案、原因第六选择的答案并分别与所述伦理规则第一选择、所述伦理规则第二选择、所述事件场景第七选择、所述事件场景第八选择、所述原因第五选择、所述原因第六选择进行模糊匹配,分别得到匹配度,将所述匹配度分别乘以预设满分得到所述伦理规则第一选择、所述伦理规则第二选择、所述事件场景第七选择、所述事件场景第八选择、所述原因第五选择、所述原因第六选择的得分。
3.根据权利要求1至2任一项所述的人工智能方法,其特征在于,所述方法还包括:
事件场景改变步骤:改变所述第一输入获取步骤中获取的第一事件场景,重新执行权利要求1至2任一项所述的人工智能方法的步骤;
伦理规则改变步骤:改变所述第一输入获取步骤中获取的人工智能第一伦理规则,重新执行权利要求1至2任一项所述的人工智能方法的步骤。
4.一种人工智能装置,其特征在于,所述装置包括:
第一输入获取模块,用于执行权利要求1所述方法的第一输入获取步骤;
事件场景第一选择模块,用于执行权利要求1所述方法的事件场景第一选择步骤;
原因第一选择模块,用于执行权利要求1所述方法的原因第一选择步骤;
事件场景第二选择模块,用于执行权利要求1所述方法的事件场景第二选择步骤;
原因第二选择模块,用于执行权利要求1所述方法的原因第二选择步骤;
第一对错判别模块,用于执行权利要求1所述方法的第一对错判别步骤;
第二输入获取模块,用于执行权利要求1所述方法的第二输入获取步骤;
风险第一选择模块,用于执行权利要求1所述方法的风险第一选择步骤;
第二对错判别模块,用于执行权利要求1所述方法的第二对错判别步骤;
第三输入获取模块,用于执行权利要求1所述方法的第三输入获取步骤;
事件场景第三选择模块,用于执行权利要求1所述方法的事件场景第三选择步骤;
事件场景第四选择模块,用于执行权利要求1所述方法的事件场景第四选择步骤;
事件场景第五选择模块,用于执行权利要求1所述方法的事件场景第五选择步骤;
事件场景第六选择模块,用于执行权利要求1所述方法的事件场景第六选择步骤;
原因第三选择模块,用于执行权利要求1所述方法的原因第三选择步骤;
原因第四选择模块,用于执行权利要求1所述方法的原因第四选择步骤;
第三对错判别模块,用于执行权利要求1所述方法的第三对错判别步骤;
第四输入获取模块,用于执行权利要求2中的第四输入获取步骤;
伦理规则第一选择模块,用于执行权利要求2所述方法的伦理规则第一选择步骤;
伦理规则第二选择模块,用于执行权利要求2所述方法的伦理规则第二选择步骤;
事件场景第七选择模块,用于执行权利要求2所述方法的事件场景第七选择步骤;
事件场景第八选择模块,用于执行权利要求2所述方法的事件场景第八选择步骤;
原因第五选择模块,用于执行权利要求2所述方法的原因第五选择步骤;
原因第六选择模块,用于执行权利要求2所述方法的原因第六选择步骤;
第四对错判别模块,用于执行权利要求2所述方法的第四对错判别步骤;
事件场景改变模块,用于执行权利要求3所述方法的事件场景改变步骤;
伦理规则改变模块,用于执行权利要求3所述方法的伦理规则改变步骤。
5.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-3任意一项所述方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-3任意一项所述方法的步骤。
CN202010514304.5A 2020-06-08 2020-06-08 人工智能伦理风险与防范虚拟仿真方法、系统和机器人 Active CN111812999B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010514304.5A CN111812999B (zh) 2020-06-08 2020-06-08 人工智能伦理风险与防范虚拟仿真方法、系统和机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010514304.5A CN111812999B (zh) 2020-06-08 2020-06-08 人工智能伦理风险与防范虚拟仿真方法、系统和机器人

Publications (2)

Publication Number Publication Date
CN111812999A CN111812999A (zh) 2020-10-23
CN111812999B true CN111812999B (zh) 2023-07-21

Family

ID=72844743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010514304.5A Active CN111812999B (zh) 2020-06-08 2020-06-08 人工智能伦理风险与防范虚拟仿真方法、系统和机器人

Country Status (1)

Country Link
CN (1) CN111812999B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561075B (zh) * 2020-11-19 2023-05-30 华南师范大学 人工智能伦理规则修订防范风险虚拟实验方法和机器人
CN112819174B (zh) * 2020-11-19 2023-04-28 华南师范大学 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN112418436B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人类决策的人工智能伦理虚拟仿真实验方法和机器人
CN112434816B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于人工智能体决策的伦理虚拟仿真实验方法和机器人
CN112446503B (zh) * 2020-11-19 2022-06-21 华南师范大学 多人决策防范潜在伦理风险虚拟实验方法和机器人
CN112418437B (zh) * 2020-11-19 2022-06-21 华南师范大学 基于多人决策的伦理仿真虚拟实验方法和机器人

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508995A (zh) * 2011-09-26 2012-06-20 河南理工大学 基于多智能体的煤矿事故仿真方法及系统
CN104882043A (zh) * 2015-06-05 2015-09-02 国网电力科学研究院武汉南瑞有限责任公司 一种电力作业安全风险辨识仿真培训系统及方法
CN107170041A (zh) * 2017-06-14 2017-09-15 武汉光驰教育科技股份有限公司 一种共享式实验室虚拟仿真方法和系统
CN108389455A (zh) * 2018-01-31 2018-08-10 南京理工大学 一种机械安全防护虚拟现实教学系统
CN108983636A (zh) * 2018-06-20 2018-12-11 浙江大学 人机智能共生平台系统
CN110244851A (zh) * 2019-06-18 2019-09-17 江西电力职业技术学院 基于虚拟现实技术的电力技能培训辅助方法及系统
CN110855703A (zh) * 2019-11-22 2020-02-28 秒针信息技术有限公司 智能风险识别系统、方法和电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508995A (zh) * 2011-09-26 2012-06-20 河南理工大学 基于多智能体的煤矿事故仿真方法及系统
CN104882043A (zh) * 2015-06-05 2015-09-02 国网电力科学研究院武汉南瑞有限责任公司 一种电力作业安全风险辨识仿真培训系统及方法
CN107170041A (zh) * 2017-06-14 2017-09-15 武汉光驰教育科技股份有限公司 一种共享式实验室虚拟仿真方法和系统
CN108389455A (zh) * 2018-01-31 2018-08-10 南京理工大学 一种机械安全防护虚拟现实教学系统
CN108983636A (zh) * 2018-06-20 2018-12-11 浙江大学 人机智能共生平台系统
CN110244851A (zh) * 2019-06-18 2019-09-17 江西电力职业技术学院 基于虚拟现实技术的电力技能培训辅助方法及系统
CN110855703A (zh) * 2019-11-22 2020-02-28 秒针信息技术有限公司 智能风险识别系统、方法和电子设备

Also Published As

Publication number Publication date
CN111812999A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN111812999B (zh) 人工智能伦理风险与防范虚拟仿真方法、系统和机器人
CN111860767B (zh) 善恶分明的人工智能伦理规则实现方法、系统和机器人
KR101563668B1 (ko) 가상현실을 이용한 게임기반의 체험형 안전교육 방법 및 그 시스템
CN111860765A (zh) 尽量向善的人工智能伦理实现方法、系统和机器人
KR20210055150A (ko) 가상현실 기반의 화재 대피 시뮬레이션 장치 및 방법
CN111860766A (zh) 人工智能伦理规则推理方法、深度学习系统和机器人
CN111823227B (zh) 人工智能伦理风险检测防范方法、深度学习系统和机器人
Tamura et al. Analysis of firefighting skill with a teleoperated robot
Lee et al. Agent-based modeling for casualty rate assessment of large event active shooter incidents
Heyns Autonomous weapons systems and human rights law
Beard The principle of proportionality in an era of high technology
Stormont Analyzing human trust of autonomous systems in hazardous environments
CN112819174A (zh) 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人
CN111199668A (zh) 一种基于虚拟现实交互的公安执法规范教学系统及其方法
Hailtik et al. Criminal responsibility of artificial intelligence committing deepfake crimes in Indonesia
Woolley et al. A naval damage incident recoverability toolset: Assessing naval platform recoverability after a fire event
CN112085216A (zh) 基于伦理风险评定的人工智能伦理风险辨识和防范方法
Green et al. Argument Schemes for AI Ethics Education.
CN112085214A (zh) 基于人类决策的人工智能伦理风险辨识防范方法和机器人
Alsharari et al. An immersive environment for building fire safety training
Gyngell et al. Lethal autonomous weapons systems: Challenges and opportunities
Reynolds et al. Robotic thugs
Chung et al. An interactive multimedia training simulator for responding to bomb threats
CN112085212A (zh) 基于人工智能体决策的人工智能伦理风险辨识和防范方法
KR102615927B1 (ko) 화재 조사 교육 시스템을 이용한 화재 조사 교육 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant