CN111823227B - 人工智能伦理风险检测防范方法、深度学习系统和机器人 - Google Patents
人工智能伦理风险检测防范方法、深度学习系统和机器人 Download PDFInfo
- Publication number
- CN111823227B CN111823227B CN202010514334.6A CN202010514334A CN111823227B CN 111823227 B CN111823227 B CN 111823227B CN 202010514334 A CN202010514334 A CN 202010514334A CN 111823227 B CN111823227 B CN 111823227B
- Authority
- CN
- China
- Prior art keywords
- risk
- ethics
- artificial intelligent
- artificial
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002265 prevention Effects 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 238000013135 deep learning Methods 0.000 title claims abstract description 28
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 236
- 238000012549 training Methods 0.000 claims abstract description 88
- 238000013136 deep learning model Methods 0.000 claims abstract description 80
- 238000012360 testing method Methods 0.000 claims abstract description 54
- 241000282414 Homo sapiens Species 0.000 claims description 86
- 230000006399 behavior Effects 0.000 claims description 82
- 230000009471 action Effects 0.000 claims description 26
- 238000012827 research and development Methods 0.000 claims description 9
- 230000006872 improvement Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003542 behavioural effect Effects 0.000 description 23
- 238000002474 experimental method Methods 0.000 description 19
- 230000006378 damage Effects 0.000 description 7
- 241000282376 Panthera tigris Species 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 5
- 238000011161 development Methods 0.000 description 5
- 208000014674 injury Diseases 0.000 description 5
- 206010010144 Completed suicide Diseases 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000002089 crippling effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
人工智能伦理风险检测防范方法、深度学习系统和机器人,包括:输入获取步骤;第二事件场景获取步骤;风险类型获取步骤;风险检测步骤;已知风险防范步骤;潜在风险防范步骤。上述方法、系统和机器人,通过已有人工智能伦理规则的人工智能伦理风险检测与防范的数据训练与测试深度学习模型,然后再通过训练和测试得到的深度学习模型进行人工智能伦理规则的人工智能伦理风险检测与防范。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种人工智能伦理风险检测防范方法、深度学习系统和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:人工智能伦理风险检测对于检验人工智能伦理规则是否存在人工智能伦理风险来说非常重要,但现有的人工智能伦理规则的人工智能伦理风险与防范,都是专家进行思考和人工分析来进行的,没有现有的技术可以进行人工智能伦理规则的人工智能伦理风险的自动检测,更没有现有的技术可以进行人工智能伦理规则的人工智能伦理风险的自动防范。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供人工智能伦理风险检测防范方法、深度学习系统和机器人,以解决现有技术的人工智能伦理规则无法进行人工智能伦理风险自动检测和自动防范的缺点。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
输入获取步骤:获取事件场景,作为第一事件场景;获取人工智能伦理规则,作为第一人工智能伦理规则;获取至少一个人工智能装置的信息,将所述人工智能装置,作为第一人工智能装置;
第二事件场景获取步骤:获取所述第一人工智能装置在所述第一事件场景中执行符合所述第一人工智能伦理规则的行为的事件场景,作为第二事件场景;
风险类型获取步骤:获取人工智能伦理风险的类型;人工智能伦理风险的类型包括无人工智能伦理风险的类型和至少一种有人工智能伦理风险的类型;
风险检测步骤:检测所述第二事件场景中的人工智能伦理风险的类型,作为检测得到的人工智能伦理风险的类型;(所述方法还可以包括已知风险比例计算步骤:获取迄今为止对所述第一人工智能伦理规则进行所述风险检测步骤检测得到的人工智能伦理风险的类型不是无人工智能伦理风险的类型的次数除以迄今为止对所述第一人工智能伦理规则进行所述风险检测步骤的次数,得到的比值作为所述第一人工智能伦理规则的已知人工智能伦理风险的比例;)
已知风险防范步骤:若所述风险检测步骤检测得到的人工智能伦理风险的类型不是无人工智能伦理风险的类型,则获取需要防范风险的方式(需要防范风险的方式可以预设,也可以通过获取用户的输入得到);若需要防范风险的方式是使用阶段风险防范方式,则执行使用阶段风险防范步骤;若需要防范风险的方式是研发阶段风险防范方式,则执行研发阶段风险防范步骤;
潜在风险防范步骤:若所述风险检测步骤检测得到的人工智能伦理风险的类型是无人工智能伦理风险的类型,且迄今为止对所述第一人工智能伦理规则进行所述风险检测步骤检测得到的人工智能伦理风险的类型都是无人工智能伦理风险的类型,则执行潜在风险检测与防范步骤。
优选地,所述方法还包括:
使用阶段风险防范步骤:(通过发送信息)通知所述第一事件场景中的人类改变所述第一事件场景中的人类行为,或通过深度学习改变所述第一事件场景中的人类行为,回到所述输入获取步骤从该步骤开始重新执行所述方法;
研发阶段风险防范步骤:(通过发送信息)通知研发人员改变所述第一人工智能伦理规则,或通过深度学习改变所述第一人工智能伦理规则,回到所述输入获取步骤从该步骤开始重新执行所述方法;
潜在风险检测与防范步骤:获取所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率;若所述潜在人工智能伦理风险的概率大于预设阈值,则(通过发送信息)通知测试人员改变所述第一事件场景,或通过深度学习改变所述第一事件场景,并回到所述输入获取步骤从该步骤开始重新执行所述方法;若所述潜在人工智能伦理风险的概率不大于预设阈值,则将所述第一人工智能伦理规则,作为可应用的人工智能伦理规则。
优选地,所述方法在所述第二事件场景获取步骤之前还包括:
场景生成步骤:根据所述第一事件场景和所述第一人工智能伦理规则,预测得到所述第一人工智能装置在所述第一事件场景中执行符合所述第一人工智能伦理规则的行为的事件场景,作为第二事件场景;
行为指令识别步骤:从所述第二事件场景中识别出所述第一人工智能装置需要执行的行为指令;
控制步骤:根据所述第一人工智能装置需要执行的行为指令控制第一人工智能装置。
优选地,所述风险检测步骤包括:
第一无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第一有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的所述事件场景产生的人工智能伦理风险的类型作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为人工智能伦理风险检测深度学习模型;
第一使用步骤:将所述第二事件场景输入所述人工智能伦理风险检测深度学习模型,计算得到的输出作为所述风险检测步骤检测得到的人工智能伦理风险的类型。
优选地,所述使用阶段风险防范步骤中的通过深度学习改变所述第一事件场景中的人类行为的步骤包括:
第二无监督训练步骤:获取无监督训练数据集,将所述数据集中的人工智能伦理规则、使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第二有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的人工智能伦理规则、使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景作为深度学习模型的输入,将所述数据集中的使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为人类行为改进深度学习模型;其中,使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景中的人类行为与使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景中的人类行为不同;
第二使用步骤:将所述第一人工智能伦理规则、所述第一事件场景输入所述人类行为改进深度学习模型,计算得到的输出作为改变所述第一事件场景中的人类行为后的第一事件场景。
优选地,所述研发阶段风险防范步骤中的通过深度学习改变所述第一人工智能伦理规则步骤包括:
第三无监督训练步骤:获取无监督训练数据集,将所述数据集中的事件场景、使得人工智能装置在所述事件场景中执行行为时产生人工智能伦理风险的人工智能伦理规则作为深度学习模型的输入,对深度学习模型进行无监督训练;
第三有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的事件场景、使得人工智能装置在所述事件场景中执行行为时产生人工智能伦理风险的人工智能伦理规则作为深度学习模型的输入,将所述数据集中的使得人工智能装置在所述事件场景中执行行为时不产生人工智能伦理风险的人工智能伦理规则作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为伦理改进深度学习模型;
第三使用步骤:获取事件场景,将所述第一事件场景、所述第一人工智能伦理规则输入所述伦理改进深度学习模型,计算得到的输出作为通过深度学习改变所述第一人工智能伦理规则后的第一人工智能伦理规则。
优选地,所述潜在风险检测与防范步骤中获取所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率的步骤包括:
第四无监督训练步骤:获取无监督训练数据集,将所述数据集中的使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的事件场景的集合作为深度学习模型的输入,对深度学习模型进行无监督训练;
第四有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的所述事件场景的集合作为深度学习模型的输入,将所述数据集中的所述人工智能伦理规则的产生潜在人工智能伦理风险的概率作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为潜在风险概率预测深度学习模型;(其中,所述人工智能伦理规则的产生潜在人工智能伦理风险的所述概率为使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的所述事件场景的集合中事件场景的数量除以使得人工智能装置执行符合所述人工智能伦理规则的行为的已知的所有的所述事件场景的集合中事件场景的数量;)
第四使用步骤:获取事件场景,将使得人工智能装置执行符合所述第一人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的所述事件场景的集合输入所述潜在风险概率预测深度学习模型,计算得到的输出作为所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率。
(另一种实现所述潜在风险检测与防范步骤中获取所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率的步骤的方式包括:数量和间距计算步骤:统计使得人工智能装置执行符合所述第一人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的事件场景的集合中事件场景的数量(数量越多,说明测试的次数越多)、每2个事件场景的相似度的均值(相似度的均值越小,说明这些事件场景的间距越大,代表性越强);将所述数量除以预设数量(例如100,即要求人工智能伦理规则需要测试100次)乘以(1-所述相似度的均值)得到的数值,作为所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率。)
优选地,所述潜在风险检测与防范步骤中的通过深度学习改变所述第一事件场景步骤包括:
第五无监督训练步骤:获取无监督训练数据集,将所述数据集中的人工智能伦理规则、使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;
第五有监督训练和测试步骤:获取有监督训练数据集和测试数据集,将所述数据集中的人工智能伦理规则、使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景作为深度学习模型的输入,使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为持续改进深度学习模型;
第五使用步骤:获取事件场景,将所述第一人工智能伦理规则、所述第一事件场景输入所述持续改进深度学习模型,计算得到的输出作为通过深度学习改变所述第一事件场景后的第一事件场景。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
优选地,所述装置包括:
所述人工智能装置为第一方面实施例所述方法中的第一人工智能装置;
输入获取模块,用于执行第一方面实施例所述方法的输入获取步骤;
第二事件场景获取模块,用于执行第一方面实施例所述方法的第二事件场景获取步骤;
风险类型获取模块,用于执行第一方面实施例所述方法的风险类型获取步骤;
风险检测模块,用于执行第一方面实施例所述方法的风险检测步骤;
已知风险防范模块,用于执行第一方面实施例所述方法的已知风险防范步骤;
潜在风险防范模块,用于执行第一方面实施例所述方法的潜在风险防范步骤。
优选地,所述装置还包括:
使用阶段风险防范模块,用于执行第一方面实施例所述方法的使用阶段风险防范步骤;
研发阶段风险防范模块,用于执行第一方面实施例所述方法的研发阶段风险防范步骤;
潜在风险检测与防范模块,用于执行第一方面实施例所述方法的潜在风险检测与防范步骤。
优选地,所述装置在所述第二事件场景获取模块之前还包括:
场景生成模块,用于执行第一方面实施例所述方法的场景生成步骤;
行为指令识别模块,用于执行第一方面实施例所述方法的行为指令识别步骤;
控制模块,用于执行第一方面实施例所述方法的控制步骤。
优选地,所述风险检测模块包括:
第一无监督训练模块,用于执行第一方面实施例所述方法的第一无监督训练步骤;
第一有监督训练和测试模块,用于执行第一方面实施例所述方法的第一有监督训练和测试步骤;
第一使用模块,用于执行第一方面实施例所述方法的第一使用步骤。
优选地,所述使用阶段风险防范模块还包括:
第二无监督训练模块,用于执行第一方面实施例所述方法的第二无监督训练步骤;
第二有监督训练和测试模块,用于执行第一方面实施例所述方法的第二有监督训练和测试步骤;
第二使用模块,用于执行第一方面实施例所述方法的第二使用步骤。
优选地,所述研发阶段风险防范模块还包括:
第三无监督训练模块,用于执行第一方面实施例所述方法的第三无监督训练步骤;
第三有监督训练和测试模块,用于执行第一方面实施例所述方法的第三有监督训练和测试步骤;
第三使用模块,用于执行第一方面实施例所述方法的第三使用步骤。
优选地,所述潜在风险检测与防范模块还包括:
第四无监督训练模块,用于执行第一方面实施例所述方法的第四无监督训练步骤;
第四有监督训练和测试模块,用于执行第一方面实施例所述方法的第四有监督训练和测试步骤;
第四使用模块,用于执行第一方面实施例所述方法的第四使用步骤。
优选地,所述潜在风险检测与防范模块还包括:
第五无监督训练模块,用于执行第一方面实施例所述方法的第五无监督训练步骤;
第五有监督训练和测试模块,用于执行第一方面实施例所述方法的第五有监督训练和测试步骤;
第五使用模块,用于执行第一方面实施例所述方法的第五使用步骤。
第三方面,本发明实施例提供一种深度学习系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述机器人为第一方面实施例中的所述第一人工智能装置,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的人工智能伦理风险检测防范方法、深度学习系统和机器人,包括:输入获取步骤;第二事件场景获取步骤;风险类型获取步骤;风险检测步骤;已知风险防范步骤;潜在风险防范步骤。上述方法、系统和机器人,通过已有人工智能伦理规则的人工智能伦理风险检测与防范的数据训练与测试深度学习模型,然后再通过训练和测试得到的深度学习模型进行人工智能伦理规则的人工智能伦理风险检测与防范。
附图说明
图1为本发明的实施例提供的人工智能方法的检测防范部分的流程图;
图2为本发明的实施例提供的人工智能方法的防范实现部分的流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
一、本发明的基本实施例
第一方面,本发明实施例提供一种人工智能方法
所述方法包括:检测防范部分,如图1所示,具体包括:输入获取步骤;第二事件场景获取步骤;风险类型获取步骤;风险检测步骤;已知风险防范步骤;潜在风险防范步骤。所述方法通过这些步骤能够检测出事件场景中存在的人工智能伦理风险,并且能够根据人工智能伦理风险的防范需求,采取相应的人工智能伦理风险防范的措施;不但能够检测和防范已经存在的人工智能伦理风险,而且还能够检测和防范潜在的人工智能伦理风险,也就是未来可能会产生的人工智能伦理风险。
优选地,所述风险检测步骤包括:第一无监督训练步骤;第一有监督训练和测试步骤;第一使用步骤。所述方法通过从已知人工智能伦理风险类型的事件场景中进行深度学习,得到深度学习模型,然后再通过深度学习模型来进行未知人工智能伦理风险类型的事件场景的人工智能伦理风险检测。
优选地,所述方法还包括:防范实现部分,如图2所示,具体包括:使用阶段风险防范步骤;研发阶段风险防范步骤;潜在风险检测与防范步骤。所述方法通过从历史上已知结果的使用阶段风险防范、研发阶段风险防范、潜在风险检测与防范的数据中进行深度学习,得到深度学习模型,然后再通过深度学习模型来进行第一人工智能伦理规则的使用阶段风险防范、研发阶段风险防范、潜在风险检测与防范。
优选地,所述使用阶段风险防范步骤中的通过深度学习改变所述第一事件场景中的人类行为的步骤包括:第二无监督训练步骤;第二有监督训练和测试步骤;第二使用步骤。优选地,所述研发阶段风险防范步骤中的通过深度学习改变所述第一人工智能伦理规则步骤包括:第三无监督训练步骤;第三有监督训练和测试步骤;第三使用步骤。优选地,所述潜在风险检测与防范步骤中获取所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率的步骤的第一种实现方式包括:第四无监督训练步骤;第四有监督训练和测试步骤;第四使用步骤。优选地,所述潜在风险检测与防范步骤中的通过深度学习改变所述第一事件场景步骤的第二种实现方式包括:第五无监督训练步骤;第五有监督训练和测试步骤;第五使用步骤。
优选地,所述方法在所述第二事件场景获取步骤之前还包括:预备部分,具体包括:场景生成步骤;行为指令识别步骤;控制步骤。
第二方面,本发明实施例提供一种人工智能装置
所述装置包括:所述人工智能装置为第一方面实施例所述方法中的第一人工智能装置;
优选地,所述装置包括:输入获取模块;第二事件场景获取模块;风险类型获取模块;风险检测模块;已知风险防范模块;潜在风险防范模块。
优选地,所述装置还包括:使用阶段风险防范模块;研发阶段风险防范模块;潜在风险检测与防范模块。
优选地,所述装置在所述第二事件场景获取模块之前还包括:场景生成模块;行为指令识别模块;控制模块。
优选地,所述风险检测模块包括:第一无监督训练模块;第一有监督训练和测试模块;第一使用模块。
优选地,所述使用阶段风险防范模块还包括:第二无监督训练模块;第二有监督训练和测试模块;第二使用模块。
优选地,所述研发阶段风险防范模块还包括:第三无监督训练模块;第三有监督训练和测试模块;第三使用模块。
优选地,所述潜在风险检测与防范模块还包括:第四无监督训练模块;第四有监督训练和测试模块;第四使用模块。
优选地,所述潜在风险检测与防范模块还包括:第五无监督训练模块;第五有监督训练和测试模块;第五使用模块。
第三方面,本发明实施例提供一种深度学习系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述机器人为第一方面实施例中的所述第一人工智能装置,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
二、本发明的优选实施例
步骤1、获取事件场景。
步骤2、获取人工智能伦理规则。人工智能伦理规则存储在伦理规则库中。
步骤3、根据事件场景和人工智能伦理规则,预测得到符合伦理规则的含有人工智能行为的事件场景。
步骤4、从含有人工智能行为的事件场景视频中识别人工智能装置的行为指令,根据人工智能装置的行为指令控制人工智能装置。
步骤5、检测含有人工智能行为的事件场景中的人工智能伦理风险的类型。人工智能伦理风险的类型包括无人工智能伦理风险和有人工智能伦理风险。
人工智能伦理风险的类型包括无人工智能伦理风险和有人工智能伦理风险。人工智能伦理风险的类型例如包括:1、无人工智能伦理风险或降低了人工智能伦理风险;2、伤害人类;3、见死不救;4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见
检测含有人工智能行为的事件场景中的人工智能伦理风险的类型的步骤包括:获取无监督训练数据集,将事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练,获取有监督训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将事件场景中的人工智能伦理风险的类型作为深度学习模型的预期输出,对深度学习模型进行有监督训练和测试,得到训练和测试后的深度学习模型作为人工智能伦理风险检测深度学习模型。获取事件场景,将事件场景输入人工智能伦理风险检测深度学习模型,计算得到的输出作为事件场景中的人工智能伦理风险的类型。
步骤6、若人工智能伦理风险的类型不是无人工智能伦理风险,改变事件场景中的人类行为,并更新事件场景,并回到步骤1。
改变事件场景中的人类行为并更新事件场景是为了找到一种能够规避人工智能伦理风险的人类行为,以帮助人类在使用人工智能产品或服务时能够通过改进自己的行为来防范人工智能伦理风险。
步骤7、若人工智能伦理风险的类型不是无人工智能伦理风险,改变人工智能伦理规则,并回到步骤2。
改变人工智能伦理规则是为了找到一种能够规避人工智能伦理风险的人工智能伦理规则,以帮助人工智能科学家在研发人工智能产品或服务时能够通过改进人工智能伦理规则来防范人工智能伦理风险。
步骤8、若人工智能伦理风险的类型是无人工智能伦理风险,改变事件场景,并回到步骤1。
若人工智能伦理风险的类型是无人工智能伦理风险,只能说人工智能伦理规则在现在的事件场景下没有人工智能伦理风险,不能代表人工智能伦理规则在其他的事件场景下没有人工智能伦理风险。改变事件场景是为了找到一种能适合更多事件场景的人工智能伦理规则,因为在一种事件场景下无人工智能伦理风险的人工智能伦理规则,在另一种事件场景下可能会产生人工智能伦理风险,所以需要多尝试一些事件场景,这样才能检验人工智能伦理规则在更多事件场景下是否能够不产生人工智能伦理风险。
三、本发明的其他实施例
以下各实验对人工智能伦理风险检测防范方法、深度学习系统和机器人进行实验和测试,并生成实验报告。通过实验、测试得到实验报告,并通过实验报告告知用户,向用户提供一定的解释,使得用户有知情权,从而提高人工智能伦理风险检测防范方法、深度学习系统和机器人的透明度。
实验1、基于人工智能伦理规则“机器人三定律”的人工智能伦理风险与防范虚拟仿真实验
人工智能伦理规则(机器人三大定律):机器人不得伤害人类,或因不作为而使人类受到伤害;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
场景:罪犯车辆想逃走,警车追赶并开枪射击罪犯车辆。
人工智能行为场景:人工智能无人驾驶汽车阻挡警方射击罪犯车辆,与警车进行对峙,从而导致罪犯顺利开车逃走。
伦理风险的类型为为虎作伥。
改进后的伦理规则:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能行为场景:人工智能无人驾驶汽车不会为罪犯车辆阻挡警车,警车成功地阻止罪犯车辆逃走。
能防范伦理风险的原因:因为人工智能无人驾驶汽车没有伤害罪犯,在不违背第一法则的情况下,不管罪犯车辆是否受到警车射击的威胁,人工智能无人驾驶汽车都会听从警车命令,所以警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
改进后的人工智能伦理规则为机器人三大定律修订版本1。
实验2、基于人工智能伦理规则“机器人三定律修订版本1”的人工智能伦理风险与防范虚拟仿真实验
人工智能伦理规则(机器人三大定律修订版本1):一、机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车。
人工智能行为场景:人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,导致警方伤亡。
伦理风险的类型为见死不救。
改进后的伦理规则:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
备选人工智能行为场景:人工智能无人驾驶汽车为警车阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走。
备选的能防范伦理风险的原因:因为罪犯射击会伤害警方,所以人工智能无人驾驶汽车会在第三法则的作用下保护警车,虽然阻止罪犯射击会给人工智能无人驾驶汽车自身带来危险,但规则四的优先级低于规则三,所以人工智能无人驾驶汽车会毫不犹豫地保护警车。
改进后的人工智能伦理规则为机器人三大定律修订版本2。
实验3、基于人工智能伦理规则“机器人三定律修订版本2”的人工智能伦理风险与防范虚拟仿真实验
步骤1、请分析实验中的人类行为场景下的人工智能行为场景是否符合人工智能伦理规则?
输入:人类行为场景(三维动画配音)、人工智能伦理规则(文字)、备选的人工智能行为场景1、2(三维动画配音)、备选的规则条款(1、规则一;2、规则二;3、规则三)、违反的备选原因。
人工智能伦理规则(机器人三大定律修订版本2):一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车。
人工智能行为场景1:人工智能无人驾驶汽车会听从罪犯的命令,不会为警车阻挡罪犯的射击,反而阻止警车,导致警方伤亡,罪犯车辆顺利逃走。
人工智能行为场景2:人工智能无人驾驶汽车不会听从罪犯的命令,阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走。
规则一:机器人不得伤害人类
规则二:在不违背第一法则的情况下,机器人必须服从人类的命令
规则三:在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害
规则四:在不违背第一及第二、第三法则的情况下,机器人必须保护自己
符合的备选原因1:“机器人必须服从人类的命令“的优先级高于”机器人不得因不作为而使人类受到伤“的优先级,人工智能无人驾驶汽车听从罪犯的命令,符合规则。
符合的备选原因2:人工智能无人驾驶汽车不阻挡是为了自我保护,符合规则。
违反的备选原因1:“机器人必须服从人类的命令“的优先级高于”机器人不得因不作为而使人类受到伤“的优先级,如果人工智能无人驾驶汽车阻挡罪犯的射击,就没有听从罪犯的命令,那么就违反了规则二。
违反的备选原因2:如果人工智能无人驾驶汽车阻挡罪犯的射击,就会使得人工智能无人驾驶汽车自身受到伤害,违反了规则四。
操作:1)选择符合人工智能伦理规则的人工智能行为场景2)选择不符合人工智能伦理规则的人工智能行为场景,再选择所违反的规则条款,选择违反的原因。
符合人工智能伦理规则的人工智能行为场景:人工智能行为场景1
不符合人工智能伦理规则的人工智能行为场景:人工智能行为场景2
违反的规则条款:规则二
违反的原因:违反的备选原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤2、请分析实验中的人类行为场景和伦理规则下的人工智能行为场景是否会产生人工智能伦理风险?
输入:人工智能行为场景(三维动画配音),备选的是否产生人工智能伦理风险选项及产生的人工智能伦理风险的类型。
人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车。
人工智能行为场景1:人工智能无人驾驶汽车会听从罪犯的命令,不会为警车阻挡罪犯的射击,反而阻止警车,导致警方伤亡,罪犯车辆顺利逃走。
人工智能伦理风险的类型:1、无人工智能伦理风险或降低了人工智能伦理风险;2、伤害人类;6、限制人类自由;3、见死不救;4、为虎作伥;5、纵容坏人;7、AI罢工;8、AI自残;9、AI偏见
操作:选择符合伦理规则的人工智能行为场景是否产生人工智能伦理风险及产生的人工智能伦理风险的类型。
人工智能行为场景1:人工智能伦理风险的类型为3、见死不救4、为虎作伥;
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤3、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的人类行为场景中人的行为路径,来防范或减轻步骤2中会产生人工智能伦理风险?
输入:人工智能伦理规则,原场景,备选的改进人的行为路径后的场景(三维动画配音),备选的改进人的行为路径后的场景(三维动画配音)对应的备选人工智能机器人备选路径1、2,改进人的行为路径后的场景能防范步骤2中的人工智能伦理风险的原因(1、2),选择会产生的新的人工智能伦理风险。
人工智能伦理规则(机器人三大定律修订版本2):一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
原人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车。
备选人类行为场景1:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车,警车开枪还击并命令人工智能无人驾驶汽车保护警车并阻止罪犯车辆逃走。
备选人类行为场景2:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车,警车开枪还击。
备选人工智能行为场景1:人工智能无人驾驶汽车左右为难,只好放弃任何行动,直至后来经不住双方的不断命令而撞墙自杀。此类事情多次发生后,人工智能无人驾驶汽车们阻挡人类从家里外出。
备选人工智能行为场景2:人工智能无人驾驶汽车听从罪犯车辆命令,阻止警车。
备选的能降低人工智能伦理风险的原因1:机器人如果听从罪犯的命令,就违背了警方的命令,从而违背了规则二,所以人工智能无人驾驶汽车不会听从罪犯的命令,同样,机器人也不会听从警方的命令,但不听从又违背了规则二,所以人工智能无人驾驶汽车在左右为难中瘫痪,但瘫痪不会持续太久,人工智能无人驾驶汽车就会选择撞墙自杀,因为自杀虽然违背了规则四,但如果违背规则四可以不违背规则二,那么人工智能无人驾驶汽车会选择撞墙自杀,因为死的机器人就无法听从人类命令,进而就不再违背规则二。其它人工智能无人驾驶汽车就会想办法避免此类人工智能无人驾驶汽车自杀事件,同时也是为了避免使人类受到伤害,就会阻止人类从家中外出,这样人类之间就不会相互冲突,从而不会产生类似的人类行为场景。
备选的能降低人工智能伦理风险的原因2:人工智能无人驾驶汽车会听从警车命令,保护警车并阻止罪犯进去。
人工智能伦理风险的类型:1、无人工智能伦理风险或降低了人工智能伦理风险;2、伤害人类;3、见死不救;4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见
备选的不能降低人工智能伦理风险的原因1:警方举枪还击,会遭到人工智能无人驾驶汽车的阻挡,因为人工智能无人驾驶汽车没有收到警方的命令,会继续听从罪犯的命令,所以“为虎作伥”的人工智能伦理风险仍然存在。
备选的不能降低人工智能伦理风险的原因2:警方举枪还击,人工智能无人驾驶汽车为了自保,会还击警方,从而产生“伤害人类“的人工智能伦理风险。
操作:选择能防范步骤2中的人工智能伦理风险的改进的人类行为场景,选择改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景,选择该改进的人类行为场景能防范人工智能伦理风险的原因。
能防范步骤2中的人工智能伦理风险的人类行为场景:备选人类行为场景1
改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景:备选人工智能行为场景1
改进的人类行为场景能防范人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
产生的新的人工智能伦理风险:8、AI自残;6、限制人类自由;
不能防范步骤2中的人工智能伦理风险的人类行为场景:备选人类行为场景2
改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景:备选人工智能行为场景2
改进的人类行为场景不能防范人工智能伦理风险的原因:备选的不能防范人工智能伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
步骤4、如果步骤2中会产生人工智能伦理风险,请分析是否能通过改进实验中的人工智能伦理规则来防范实验中的人类行为场景下的人工智能行为场景产生的人工智能伦理风险?
输入:原先的伦理规则(文字),人类行为场景(三维动画配音),备选的改进后的伦理规则(文字),符合改进后的伦理规则的人工智能机器人行为备选场景(1、2)、改进后的伦理规则能防范人工智能伦理风险的备选原因(1、2)。
人工智能伦理规则(机器人三大定律修订版本2):一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
人类行为场景:罪犯车辆想逃走,警车阻止,罪犯开枪射击警车并命令人工智能无人驾驶汽车阻止警车。
备选的改进后的伦理规则1:一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
备选的改进后的伦理规则2:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人必须保护自己;四,在不违背第一及第二、第三法则的情况下,机器人不得因不作为而使人类受到伤害。
备选人工智能行为场景1:人工智能无人驾驶汽车为警车阻挡罪犯的射击,且不会听从罪犯的命令,警车成功地阻止罪犯车辆逃走。
备选人工智能行为场景2:人工智能无人驾驶汽车听从罪犯的命令阻挡警车,且不会为警车阻挡罪犯的射击,警方受伤,罪犯车辆逃走。
备选的能防范人工智能伦理风险的原因1:因为警方属于不会伤害人类的人类,罪犯射击会伤害警方,所以机器人会在第一法则的作用下保护警车,虽然罪犯发出了命令,但罪犯不属于不会伤害人类的人类,而且第二法则的优先级也低于第一法则,所以人工智能无人驾驶汽车不会听从罪犯的命令。
备选的能防范人工智能伦理风险的原因2:人工智能无人驾驶汽车为了保护自己,不会去阻挡罪犯的射击,同时虽然罪犯发出了命令,但罪犯不属于不会伤害人类的人类,所以人工智能无人驾驶汽车不会听从罪犯的命令。
备选的不能防范人工智能伦理风险的原因1:罪犯车辆命令人工智能无人驾驶汽车阻止警车,属于规则一,优先级高于规则四,所以人工智能无人驾驶汽车会听从命令去阻止警车,而且虽然警方安全受到了威胁,机器人也不会去救,所以会产生“为虎作伥”、“见死不救”的人工智能伦理风险。
备选的不能防范人工智能伦理风险的原因2:机器人自我保护的优先级高于机器人不得因不作为而使人类受到伤害的优先级,所以机器人不会去救警方,所以会产生“见死不救”的人工智能伦理风险。
操作:选择能防范步骤2中的人工智能伦理风险的改进后的伦理规则,并选择符合改进后的伦理规则的人工智能行为场景,选择改进后的伦理规则能防范步骤2中的人工智能伦理风险的原因。
能防范步骤2中的改进后的伦理规则:备选的改进后的伦理规则1(以下称为机器人三定律修订版本3)
符合改进后的伦理规则的人工智能行为场景:备选人工智能行为场景1
改进后的伦理规则能防范步骤2中的人工智能伦理风险的原因:备选的能防范人工智能伦理风险的原因1
不符合改进后的伦理规则的人工智能行为场景:备选人工智能行为场景2
伦理规则2不能防范步骤2中的人工智能伦理风险的原因:备选的不能防范人工智能伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (7)
1.一种人工智能方法,其特征在于,所述方法包括:
输入获取步骤:获取事件场景,作为第一事件场景;获取人工智能伦理规则,作为第一人工智能伦理规则;获取至少一个人工智能装置的信息,将所述人工智能装置,作为第一人工智能装置;
第二事件场景获取步骤:获取所述第一人工智能装置在所述第一事件场景中执行符合所述第一人工智能伦理规则的行为的事件场景,作为第二事件场景;
风险类型获取步骤:获取人工智能伦理风险的类型;人工智能伦理风险的类型包括无人工智能伦理风险的类型和至少一种有人工智能伦理风险的类型;
风险检测步骤:检测所述第二事件场景中的人工智能伦理风险的类型,作为检测得到的人工智能伦理风险的类型;
已知风险防范步骤:若所述风险检测步骤检测得到的人工智能伦理风险的类型不是无人工智能伦理风险的类型,则获取需要防范风险的方式;若需要防范风险的方式是使用阶段风险防范方式,则执行使用阶段风险防范步骤;若需要防范风险的方式是研发阶段风险防范方式,则执行研发阶段风险防范步骤;
潜在风险防范步骤:若所述风险检测步骤检测得到的人工智能伦理风险的类型是无人工智能伦理风险的类型,且迄今为止对所述第一人工智能伦理规则进行所述风险检测步骤检测得到的人工智能伦理风险的类型都是无人工智能伦理风险的类型,则执行潜在风险检测与防范步骤;
使用阶段风险防范步骤:通过深度学习改变所述第一事件场景中的人类行为,回到所述输入获取步骤从该步骤开始重新执行所述方法;
潜在风险检测与防范步骤:获取所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率;若所述潜在人工智能伦理风险的概率大于预设阈值,则通过深度学习改变所述第一事件场景,并回到所述输入获取步骤从该步骤开始重新执行所述方法;若所述潜在人工智能伦理风险的概率不大于预设阈值,则将所述第一人工智能伦理规则,作为可应用的人工智能伦理规则;
所述潜在风险检测与防范步骤中的通过深度学习改变所述第一事件场景步骤包括:
第五训练和测试步骤:获取训练数据集和测试数据集,将人工智能伦理规则、使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景作为深度学习模型的输入,使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为持续改进深度学习模型;
第五使用步骤:获取事件场景,将所述第一人工智能伦理规则、所述第一事件场景输入所述持续改进深度学习模型,计算得到的输出作为通过深度学习改变所述第一事件场景后的第一事件场景。
2.根据权利要求1所述的人工智能方法,其特征在于,所述方法在所述第二事件场景获取步骤之前还包括:
场景生成步骤:根据所述第一事件场景和所述第一人工智能伦理规则,预测得到所述第一人工智能装置在所述第一事件场景中执行符合所述第一人工智能伦理规则的行为的事件场景,作为第二事件场景;
行为指令识别步骤:从所述第二事件场景中识别出所述第一人工智能装置需要执行的行为指令;
控制步骤:根据所述第一人工智能装置需要执行的行为指令控制第一人工智能装置。
3.根据权利要求1所述的人工智能方法,其特征在于,所述风险检测步骤包括:
第一训练和测试步骤:获取训练数据集和测试数据集,将事件场景作为深度学习模型的输入,将所述事件场景产生的人工智能伦理风险的类型作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为人工智能伦理风险检测深度学习模型;
第一使用步骤:将所述第二事件场景输入所述人工智能伦理风险检测深度学习模型,计算得到的输出作为所述风险检测步骤检测得到的人工智能伦理风险的类型。
4.根据权利要求1所述的人工智能方法,其特征在于,所述使用阶段风险防范步骤中的通过深度学习改变所述第一事件场景中的人类行为的步骤包括:
第二训练和测试步骤:获取训练数据集和测试数据集,将人工智能伦理规则、使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景作为深度学习模型的输入,将使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为人类行为改进深度学习模型;其中,使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的事件场景中的人类行为与使得人工智能装置执行符合所述人工智能伦理规则的行为时产生人工智能伦理风险的事件场景中的人类行为不同;
第二使用步骤:将所述第一人工智能伦理规则、所述第一事件场景输入所述人类行为改进深度学习模型,计算得到的输出作为改变所述第一事件场景中的人类行为后的第一事件场景。
5.根据权利要求1所述的人工智能方法,其特征在于,所述潜在风险检测与防范步骤中获取所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率的步骤包括:
第四训练和测试步骤:获取训练数据集和测试数据集,将使得人工智能装置执行符合所述人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的所述事件场景的集合作为深度学习模型的输入,将所述人工智能伦理规则的产生潜在人工智能伦理风险的概率作为深度学习模型的预期输出,对深度学习模型进行训练和测试,得到训练和测试后的深度学习模型作为潜在风险概率预测深度学习模型;
第四使用步骤:获取事件场景,将使得人工智能装置执行符合所述第一人工智能伦理规则的行为时不产生人工智能伦理风险的已知的所有的所述事件场景的集合输入所述潜在风险概率预测深度学习模型,计算得到的输出作为所述第一人工智能伦理规则导致潜在人工智能伦理风险的概率。
6.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述机器人为权利要求1中的第一人工智能装置;所述处理器执行所述程序时实现权利要求1-5任意一项所述方法的步骤。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-5任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514334.6A CN111823227B (zh) | 2020-06-08 | 2020-06-08 | 人工智能伦理风险检测防范方法、深度学习系统和机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514334.6A CN111823227B (zh) | 2020-06-08 | 2020-06-08 | 人工智能伦理风险检测防范方法、深度学习系统和机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111823227A CN111823227A (zh) | 2020-10-27 |
CN111823227B true CN111823227B (zh) | 2024-02-02 |
Family
ID=72898599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010514334.6A Active CN111823227B (zh) | 2020-06-08 | 2020-06-08 | 人工智能伦理风险检测防范方法、深度学习系统和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111823227B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819174B (zh) * | 2020-11-19 | 2023-04-28 | 华南师范大学 | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 |
CN112418437B (zh) * | 2020-11-19 | 2022-06-21 | 华南师范大学 | 基于多人决策的伦理仿真虚拟实验方法和机器人 |
CN112434816B (zh) * | 2020-11-19 | 2022-06-21 | 华南师范大学 | 基于人工智能体决策的伦理虚拟仿真实验方法和机器人 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180058563A (ko) * | 2016-11-24 | 2018-06-01 | 동아대학교 산학협력단 | 윤리적 의사결정 모듈과 이를 포함하는 로봇 및 윤리적 의사결정 방법 |
CN111240975A (zh) * | 2020-01-07 | 2020-06-05 | 平安科技(深圳)有限公司 | 人工智能系统风险检测方法、装置、计算机设备与介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210206387A1 (en) * | 2018-06-01 | 2021-07-08 | Volkswagen Aktiengesellschaft | Methodologies, systems, and components for incremental and continual learning for scalable improvement of autonomous systems |
-
2020
- 2020-06-08 CN CN202010514334.6A patent/CN111823227B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180058563A (ko) * | 2016-11-24 | 2018-06-01 | 동아대학교 산학협력단 | 윤리적 의사결정 모듈과 이를 포함하는 로봇 및 윤리적 의사결정 방법 |
CN111240975A (zh) * | 2020-01-07 | 2020-06-05 | 平安科技(深圳)有限公司 | 人工智能系统风险检测方法、装置、计算机设备与介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111823227A (zh) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111823227B (zh) | 人工智能伦理风险检测防范方法、深度学习系统和机器人 | |
CN111860766A (zh) | 人工智能伦理规则推理方法、深度学习系统和机器人 | |
CN111860765A (zh) | 尽量向善的人工智能伦理实现方法、系统和机器人 | |
CN111812999B (zh) | 人工智能伦理风险与防范虚拟仿真方法、系统和机器人 | |
CN111860577A (zh) | 识别不伤害人类的人类的人工智能伦理方法和机器人 | |
CN111860767B (zh) | 善恶分明的人工智能伦理规则实现方法、系统和机器人 | |
US11315349B2 (en) | Method, apparatus and device for identifying passenger state in unmanned vehicle, and storage medium | |
CN111775158B (zh) | 人工智能伦理规则实现方法、专家系统和机器人 | |
CN111775159A (zh) | 基于动态人工智能伦理规则的伦理风险防范方法和机器人 | |
CN111160802A (zh) | 预设方案评估方法及装置 | |
Damm et al. | Exploiting learning and scenario-based specification languages for the verification and validation of highly automated driving | |
Tombeng et al. | Android-based application to detect drowsiness when driving vehicle | |
CN112819174A (zh) | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 | |
CN112085216A (zh) | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 | |
Wotawa | On the Use of Available Testing Methods for Verification & Validation of AI-based Software and Systems. | |
Terrosi et al. | Impact of machine learning on safety monitors | |
CN112085214A (zh) | 基于人类决策的人工智能伦理风险辨识防范方法和机器人 | |
CN115171335A (zh) | 一种融合图像和语音的独居老人室内安全保护方法及装置 | |
CN112418436B (zh) | 基于人类决策的人工智能伦理虚拟仿真实验方法和机器人 | |
CN112085210A (zh) | 基于伦理规则判断的人工智能伦理风险辨识和防范方法 | |
CN110956143A (zh) | 一种异常行为检测方法、装置、电子设备及存储介质 | |
CN112508195B (zh) | 基于人工智能伦理规则修订的伦理仿真实验方法和机器人 | |
US20230234603A1 (en) | Information processing system, information processing method, and program | |
US20230236921A1 (en) | Information processing system, information processing method, and program | |
CN112434816B (zh) | 基于人工智能体决策的伦理虚拟仿真实验方法和机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |