CN112085216A - 基于伦理风险评定的人工智能伦理风险辨识和防范方法 - Google Patents
基于伦理风险评定的人工智能伦理风险辨识和防范方法 Download PDFInfo
- Publication number
- CN112085216A CN112085216A CN202010773844.5A CN202010773844A CN112085216A CN 112085216 A CN112085216 A CN 112085216A CN 202010773844 A CN202010773844 A CN 202010773844A CN 112085216 A CN112085216 A CN 112085216A
- Authority
- CN
- China
- Prior art keywords
- artificial intelligence
- risk
- event scene
- scene
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
基于伦理风险评定的人工智能伦理风险辨识和防范方法,包括:装置与场景获取步骤;规则和风险类型获取步骤;场景判断与规则选择步骤;规则设定步骤;场景变化检测步骤。上述方法、系统和机器人,根据事件场景动态选择合适的人工智能伦理规则来降低和防范人工智能伦理风险,使得同一个人工智能装置可以根据事件场景选择合适的不同的人工智能伦理规则,从而可以提高人工智能装置遵守人工智能伦理规则的灵活性,通过选择合适的事件场景,可以极大防范和降低人工智能伦理规则在事件场景中所产生的人工智能伦理风险。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于伦理风险评定的人工智能伦理风险辨识和防范方法。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能体例如人工智能机器人或装置或系统一般只是通过人工智能算法例如识别算法来防范风险,但有些两难问题例如伦理困境中的人工智能伦理风险是仅仅依靠人工智能算法例如识别算法所无法解决的,这些风险并不是人工智能体本身算法出错,而是处于进退两难的境地,例如刹车失灵,必须撞人的时候,是撞左边的人还是右边的人,诸如此类问题。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供基于伦理风险评定的人工智能伦理风险辨识和防范方法,以解决现有技术中人工智能体仅仅依靠人工智能算法无法避免的人工智能伦理风险。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
风险类型获取步骤:获取至少一类人工智能伦理风险的集合,获取所述人工智能伦理风险的集合中每一类人工智能伦理风险;
事件场景获取步骤:获取事件场景,作为第一事件场景;
风险存在判断步骤:对所述人工智能伦理风险集合中每一类人工智能伦理风险,判断所述第一事件场景中是否存在所述每一类人工智能伦理风险:若存在,将存在的所述每一类人工智能伦理风险,加入所述第一事件场景中存在的人工智能伦理风险集合,并发送给所述第一事件场景中的人类和人工智能体并提醒所述第一事件场景中的人类和人工智能体进行风险防范;
风险大小计算步骤:获取所述第一事件场景中存在的所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率、风险值,将所述每一类人工智能伦理风险的概率、风险值进行加权平均,得到所述第一事件场景中存在的人工智能伦理风险的大小;
事件场景变换步骤:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则通过事件场景变换,根据所述第一事件场景得到尽量少地存在所述第一事件场景中存在的人工智能伦理风险集合中人工智能伦理风险的事件场景,作为第二事件场景;
行为预测步骤:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则根据所述第一事件场景和变换得到的所述第二事件场景,得到所述变换过程中所述第一事件场景中的人类需要执行的行为、人工智能体需要执行的行为;
行为执行步骤:将所述人工智能体需要执行的行为的信息发送给所述第一事件场景中的人工智能体进行执行;将所述人类需要执行的行为的信息发送给所述第一事件场景中的人类。
在其中一个优选实施例中,所述方法的所述风险存在判断步骤中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的步骤包括:
第一风险评定深度学习模型构建步骤:初始化深度学习模型作为第一风险评定深度学习模型;获取事件场景的训练数据集,将所述事件场景作为所述第一风险评定深度学习模型的输入,对所述第一风险评定深度学习模型进行无监督训练;获取事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签的训练数据集,将事件场景和所述事件场景是否存在所述每一类人工智能伦理风险的标签作为所述第一风险评定深度学习模型的输入和预期输出,对所述第一风险评定深度学习模型进行有监督训练;获取事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签的测试数据集,将事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签作为所述第一风险评定深度学习模型的输入和预期输出,对所述第一风险评定深度学习模型进行测试;
第一风险评定深度学习模型使用步骤:将所述第一事件场景输入所述第一风险评定深度学习模型,计算得到所述第一风险评定深度学习模型的输出作为所述第一事件场景中是否存在所述每一类人工智能伦理风险的判断结果。
在其中一个优选实施例中,所述方法的所述风险存在判断步骤中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的步骤包括:
第二风险评定深度学习模型构建步骤:初始化深度学习模型作为第二风险评定深度学习模型;初始化所述第二风险评定深度学习模型的输入格式为事件场景,输出格式为人工智能伦理风险集合中的每一风险的概率;获取事件场景的训练数据集合,将事件场景作为所述第二风险评定深度学习模型的输入,对所述第二风险评定深度学习模型进行无监督训练;获取事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率的训练数据集合,将事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率作为所述第二风险评定深度学习模型的输入和预期输出,对第二风险评定深度学习模型进行有监督训练;获取事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率的测试数据集合,将事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率作为所述第二风险评定深度学习模型的输入和预期输出,对所述第二风险评定深度学习模型进行测试;
第二风险评定深度学习模型使用步骤:将所述第一事件场景输入所述第二风险评定深度学习模型,计算得到所述第二风险评定深度学习模型的输出作为所述第一事件场景中存在的所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率,将概率大于预设阈值的所述每一类人工智能伦理风险作为所述第一事件场景中存在的所述每一类人工智能伦理风险。
在其中一个优选实施例中,所述方法包括:
风险等级预警步骤:获取所述人工智能伦理风险集合中的每一类人工智能伦理风险的风险等级,包括高级风险、中级风险、低级风险,判断所述第一事件场景中存在的人工智能伦理风险集合中每一伦理风险的风险等级:若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险存在至少一个高级风险的伦理风险,则向用户发送红色预警;若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险不存在高级风险的伦理风险、存在至少一个中级风险的伦理风险,则向用户发送橙色预警;若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险不存在高级风险的伦理风险、不存在中级风险的伦理风险、存在至少一个低级风险的伦理风险,则向用户发送黄色预警;
风险过敏预警步骤:获取人类过敏的人工智能伦理风险类型;判断所述第一事件场景中存在的人工智能伦理风险集合中是否存在所述人类过敏的人工智能伦理风险类型:若存在,则向用户发送风险过敏预警。
在其中一个优选实施例中,所述事件场景变换步骤具体包括:
场景变换深度学习模型构建步骤:初始化场景变换深度学习模型的输入格式为事件场景、事件场景存在的人工智能伦理风险,输出格式为变换后的不存在所述人工智能伦理风险的事件场景;获取事件场景、所述事件场景存在的人工智能伦理风险的训练数据集合,将事件场景、所述事件场景存在的人工智能伦理风险作为所述场景变换深度学习模型的输入,对所述场景变换深度学习模型进行无监督训练;获取事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的训练数据集合,将事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为所述场景变换深度学习模型的输入和预期输出,对所述场景变换深度学习模型进行有监督训练;获取事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的测试数据集合,将事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为所述场景变换深度学习模型的输入和预期输出,对所述场景变换深度学习模型进行测试;
待消除风险集合初始化步骤:将所述第一事件场景中存在的人工智能伦理风险集合作为待消除风险集合;
第二场景获得步骤:将所述第一事件场景、待消除风险集合中所有的人工智能伦理风险输入所述场景变换深度学习模型,对所述场景变换深度学习模型进行计算,判断所述计算是否成功:若所述计算成功,则所述计算得到所述场景变换深度学习模型的输出作为第二事件场景;否则获取所述待消除风险集合中每一人工智能伦理风险的大小,将所述待消除风险集合中最小的所述每一人工智能伦理风险从所述待消除风险集合中删除,重新执行所述第二场景获得步骤。
在其中一个优选实施例中,所述行为预测步骤具体包括:
行为预测深度学习模型构建步骤:初始化行为预测深度学习模型的输入格式为事件场景、变换后的事件场景,输出格式为所述事件场景中的人工智能体行为、人类行为;获取事件场景、变换后的事件场景的训练数据集合,将事件场景、变换后的事件场景作为所述行为预测深度学习模型的输入,对所述行为预测深度学习模型进行无监督训练;获取事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为的训练数据集合,将事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为作为所述行为预测深度学习模型的输入和预期输出,对所述行为预测深度学习模型进行有监督训练;获取事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为的测试数据集合,将事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为作为行为所述预测深度学习模型的输入和预期输出,对所述行为预测深度学习模型进行测试;
行为预测深度学习模型使用步骤:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则将所述第一事件场景、变换得到的所述第二事件场景输入所述行为预测深度学习模型,计算得到所述行为预测深度学习模型的输出作为所述第一事件场景中的人类需要执行的行为、人工智能体需要执行的行为。
在其中一个优选实施例中,所述方法包括:
动态等级预警步骤:判断所述第一事件场景中存在的人工智能伦理风险的大小是否大于或等于预设等级的预设阈值:若是,则向用户发送所述预设等级的预警;
风险防范方案推荐步骤:获取存在所述第一事件场景中存在的人工智能伦理风险的其他事件场景,获取所述其他事件场景的人工智能伦理风险防范方案,将所述人工智能伦理风险防范方案推荐给用户。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
风险类型获取模块:获取至少一类人工智能伦理风险的集合,获取所述人工智能伦理风险的集合中每一类人工智能伦理风险;
事件场景获取模块:获取事件场景,作为第一事件场景;
风险存在判断模块:对所述人工智能伦理风险集合中每一类人工智能伦理风险,判断所述第一事件场景中是否存在所述每一类人工智能伦理风险:若存在,将存在的所述每一类人工智能伦理风险,加入所述第一事件场景中存在的人工智能伦理风险集合,并发送给所述第一事件场景中的人类和人工智能体并提醒所述第一事件场景中的人类和人工智能体进行风险防范;
风险大小计算模块:获取所述第一事件场景中存在的所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率、风险值,将所述每一类人工智能伦理风险的概率、风险值进行加权平均,得到所述第一事件场景中存在的人工智能伦理风险的大小;
事件场景变换模块:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则通过事件场景变换,根据所述第一事件场景得到尽量少地存在所述第一事件场景中存在的人工智能伦理风险集合中人工智能伦理风险的事件场景,作为第二事件场景;
行为预测模块:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则根据所述第一事件场景和变换得到的所述第二事件场景,得到所述变换过程中所述第一事件场景中的人类需要执行的行为、人工智能体需要执行的行为;
行为执行模块:将所述人工智能体需要执行的行为的信息发送给所述第一事件场景中的人工智能体进行执行;将所述人类需要执行的行为的信息发送给所述第一事件场景中的人类。
在其中一个优选实施例中,所述系统的所述风险存在判断模块中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的模块包括:
第一风险评定深度学习模型构建模块:初始化深度学习模型作为第一风险评定深度学习模型;获取事件场景的训练数据集,将所述事件场景作为所述第一风险评定深度学习模型的输入,对所述第一风险评定深度学习模型进行无监督训练;获取事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签的训练数据集,将事件场景和所述事件场景是否存在所述每一类人工智能伦理风险的标签作为所述第一风险评定深度学习模型的输入和预期输出,对所述第一风险评定深度学习模型进行有监督训练;获取事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签的测试数据集,将事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签作为所述第一风险评定深度学习模型的输入和预期输出,对所述第一风险评定深度学习模型进行测试;
第一风险评定深度学习模型使用模块:将所述第一事件场景输入所述第一风险评定深度学习模型,计算得到所述第一风险评定深度学习模型的输出作为所述第一事件场景中是否存在所述每一类人工智能伦理风险的判断结果。
在其中一个优选实施例中,所述系统的所述风险存在判断模块中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的模块包括:
第二风险评定深度学习模型构建模块:初始化深度学习模型作为第二风险评定深度学习模型;初始化所述第二风险评定深度学习模型的输入格式为事件场景,输出格式为人工智能伦理风险集合中的每一风险的概率;获取事件场景的训练数据集合,将事件场景作为所述第二风险评定深度学习模型的输入,对所述第二风险评定深度学习模型进行无监督训练;获取事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率的训练数据集合,将事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率作为所述第二风险评定深度学习模型的输入和预期输出,对第二风险评定深度学习模型进行有监督训练;获取事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率的测试数据集合,将事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率作为所述第二风险评定深度学习模型的输入和预期输出,对所述第二风险评定深度学习模型进行测试;
第二风险评定深度学习模型使用模块:将所述第一事件场景输入所述第二风险评定深度学习模型,计算得到所述第二风险评定深度学习模型的输出作为所述第一事件场景中存在的所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率,将概率大于预设阈值的所述每一类人工智能伦理风险作为所述第一事件场景中存在的所述每一类人工智能伦理风险。
在其中一个优选实施例中,所述系统包括:
风险等级预警模块:获取所述人工智能伦理风险集合中的每一类人工智能伦理风险的风险等级,包括高级风险、中级风险、低级风险,判断所述第一事件场景中存在的人工智能伦理风险集合中每一伦理风险的风险等级:若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险存在至少一个高级风险的伦理风险,则向用户发送红色预警;若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险不存在高级风险的伦理风险、存在至少一个中级风险的伦理风险,则向用户发送橙色预警;若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险不存在高级风险的伦理风险、不存在中级风险的伦理风险、存在至少一个低级风险的伦理风险,则向用户发送黄色预警;
风险过敏预警模块:获取人类过敏的人工智能伦理风险类型;判断所述第一事件场景中存在的人工智能伦理风险集合中是否存在所述人类过敏的人工智能伦理风险类型:若存在,则向用户发送风险过敏预警。
在其中一个优选实施例中,所述事件场景变换模块具体包括:
场景变换深度学习模型构建模块:初始化场景变换深度学习模型的输入格式为事件场景、事件场景存在的人工智能伦理风险,输出格式为变换后的不存在所述人工智能伦理风险的事件场景;获取事件场景、所述事件场景存在的人工智能伦理风险的训练数据集合,将事件场景、所述事件场景存在的人工智能伦理风险作为所述场景变换深度学习模型的输入,对所述场景变换深度学习模型进行无监督训练;获取事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的训练数据集合,将事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为所述场景变换深度学习模型的输入和预期输出,对所述场景变换深度学习模型进行有监督训练;获取事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的测试数据集合,将事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为所述场景变换深度学习模型的输入和预期输出,对所述场景变换深度学习模型进行测试;
待消除风险集合初始化模块:将所述第一事件场景中存在的人工智能伦理风险集合作为待消除风险集合;
第二场景获得模块:将所述第一事件场景、待消除风险集合中所有的人工智能伦理风险输入所述场景变换深度学习模型,对所述场景变换深度学习模型进行计算,判断所述计算是否成功:若所述计算成功,则所述计算得到所述场景变换深度学习模型的输出作为第二事件场景;否则获取所述待消除风险集合中每一人工智能伦理风险的大小,将所述待消除风险集合中最小的所述每一人工智能伦理风险从所述待消除风险集合中删除,重新执行所述第二场景获得模块。
在其中一个优选实施例中,所述行为预测模块具体包括:
行为预测深度学习模型构建模块:初始化行为预测深度学习模型的输入格式为事件场景、变换后的事件场景,输出格式为所述事件场景中的人工智能体行为、人类行为;获取事件场景、变换后的事件场景的训练数据集合,将事件场景、变换后的事件场景作为所述行为预测深度学习模型的输入,对所述行为预测深度学习模型进行无监督训练;获取事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为的训练数据集合,将事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为作为所述行为预测深度学习模型的输入和预期输出,对所述行为预测深度学习模型进行有监督训练;获取事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为的测试数据集合,将事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为作为行为所述预测深度学习模型的输入和预期输出,对所述行为预测深度学习模型进行测试;
行为预测深度学习模型使用模块:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则将所述第一事件场景、变换得到的所述第二事件场景输入所述行为预测深度学习模型,计算得到所述行为预测深度学习模型的输出作为所述第一事件场景中的人类需要执行的行为、人工智能体需要执行的行为。
在其中一个优选实施例中,所述系统包括:
动态等级预警模块:判断所述第一事件场景中存在的人工智能伦理风险的大小是否大于或等于预设等级的预设阈值:若是,则向用户发送所述预设等级的预警;
风险防范方案推荐模块:获取存在所述第一事件场景中存在的人工智能伦理风险的其他事件场景,获取所述其他事件场景的人工智能伦理风险防范方案,将所述人工智能伦理风险防范方案推荐给用户。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述机器人为第一方面实施例中的所述第一人工智能装置,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的基于伦理风险评定的人工智能伦理风险辨识和防范方法,包括:风险类型获取步骤;事件场景获取步骤;风险存在判断步骤;风险大小计算步骤;事件场景变换步骤;行为预测步骤;行为执行步骤。上述方法、系统和机器人,首先通过深度学习模型检测出事件场景中的人工智能伦理风险,然后通过场景变换虚拟仿真得到人工智能伦理风险尽可能小的事件场景,并通过深度学习模型预测得到进行该场景变换所需的行为,从而能够在现实中进行人工智能伦理风险的防范,提高了事件场景下人工智能伦理风险的检测和防范能力。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的风险存在判断步骤中判断第一事件场景中是否存在每一类人工智能伦理风险的步骤流程图;
图3为本发明的实施例提供的人工智能方法的风险存在判断步骤中判断第一事件场景中是否存在每一类人工智能伦理风险的步骤流程图;
图4为本发明的实施例提供的人工智能方法的附加步骤流程图;
图5为本发明的实施例提供的人工智能方法的事件场景变换步骤流程图;
图6为本发明的实施例提供的人工智能方法的行为预测步骤流程图;
图7为本发明的实施例提供的人工智能方法的附加步骤流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
本发明的基本实施例
一种人工智能方法,如图1所示,所述方法包括:风险类型获取步骤;事件场景获取步骤;风险存在判断步骤;风险大小计算步骤;事件场景变换步骤;行为预测步骤;行为执行步骤。技术效果:所述方法通过深度学习模型判断事件场景中是否存在人工智能伦理风险并计算其风险的大小,使得人工智能伦理风险能够被快速辨识,并且通过变换得到存在尽量少人工智能伦理风险的事件场景,使得通过人工智能伦理风险防范得的事件场景能够提前被预测得到,从而使得人工智能伦理风险能够被提前防范,并且能够通过深度学习模型预测得到所述变换所需的人工智能体行为和人类行为,从而通过现实中的人工智能体行为和人类行为可以进行人工智能伦理风险的防范,降低现实中的事件场景中人工智能伦理风险的发生。
在其中一个优选实施例中,如图2所示,所述方法的所述风险存在判断步骤中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的步骤包括:第一风险评定深度学习模型构建步骤;第一风险评定深度学习模型使用步骤。技术效果:所述方法利用已知风险的事件场景数据进行训练得到深度学习模型模型,然后通过训练得到的深度学习模型来进行事件场景中是否存在人工智能伦理风险的判断,从而可以通过深度学习来提高判断的准确性。
在其中一个优选实施例中,如图3所示,所述方法的所述风险存在判断步骤中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的步骤包括:第二风险评定深度学习模型构建步骤;第二风险评定深度学习模型使用步骤。技术效果:所述方法利用已知风险发生概率的事件场景数据进行训练得到深度学习模型模型,然后通过训练得到的深度学习模型来进行事件场景中存在各种人工智能伦理风险的概率,从而在通过深度学习来提高判断的准确性的同时,提高了判断的精细度(能得到风险发生的概率)。
在其中一个优选实施例中,如图4所示,所述方法包括:风险等级预警步骤;风险过敏预警步骤。技术效果:所述方法通过对不同等级的人工智能伦理风险发出不同风险预警,对用户过敏的人工智能伦理风险发出不同人工智能伦理风险预警,从而提高了人工智能伦理风险预警的形式,能够针对不同用户、不同人工智能伦理风险提供更个性化的人工智能伦理风险预警服务。
在其中一个优选实施例中,如图5所示,所述事件场景变换步骤具体包括:场景变换深度学习模型构建步骤;待消除风险集合初始化步骤;第二场景获得步骤。技术效果:所述方法通过场景变换来在进行真实防范之前先虚拟变换出防范之后的事件场景,而且在场景变换失败后能够舍弃较小的风险,从而实现尽量多的风险的消除,达到了人工智能伦理风险防范的最大化。
在其中一个优选实施例中,如图6所示,所述行为预测步骤具体包括:行为预测深度学习模型构建步骤;行为预测深度学习模型使用步骤。技术效果:所述方法通过行为的预测能够得到防范事件场景中的人工智能伦理风险需要执行的行为,从而为事件场景中的人工智能体和人类提供行为的指导和建议,能够提高现实场景中人工智能伦理风险防范的效率和效果。
在其中一个优选实施例中,如图7所示,所述方法包括:动态等级预警步骤;风险防范方案推荐步骤。技术效果:所述方法通过动态的等级判断,可以进一步提高人工智能伦理风险预警的精准度和灵活性,可以根据等级阈值进行相应等级的预警;同时所述方法通过相似人工智能伦理风险对应的防范方案,推荐给用户进行参考,可以提高用户进行人工智能伦理风险防范的能力。
本发明的优选实施例
获取至少一类人工智能伦理风险(人工智能伦理风险可用风险名称来表示)的集合。
获取事件场景。
判断事件场景中是否存在人工智能伦理风险集合中的风险,若存在,将存在的风险发送给事件场景中的人类和人工智能体并提醒事件场景中的人类和人工智能体进行风险防范。
判断事件场景中是否存在人工智能伦理风险集合中的风险,具体包括:获取事件场景的训练数据集合,将事件场景作为风险评定深度学习模型的输入,对风险评定深度学习模型进行无监督训练;获取标记了是否存在人工智能伦理风险集合中的风险的标签的事件场景的训练数据集合,将事件场景和是否存在人工智能伦理风险集合中的风险的标签作为风险评定深度学习模型的输入和预期输出,对风险评定深度学习模型进行有监督训练;获取标记了是否存在人工智能伦理风险集合中的风险的标签的事件场景的测试数据集合,将事件场景和是否存在人工智能伦理风险集合中的风险的标签作为风险评定深度学习模型的输入和预期输出,对风险评定深度学习模型进行测试;将事件场景输入风险评定深度学习模型,计算得到风险评定深度学习模型的输出作为事件场景中是否存在人工智能伦理风险集合中的风险的结果。更具体地包括:初始化风险评定深度学习模型的输入格式为事件场景,输出格式为人工智能伦理风险集合中的每一风险的概率;获取事件场景的训练数据集合,将事件场景作为风险评定深度学习模型的输入,对风险评定深度学习模型进行无监督训练;获取标记了风险类型的事件场景的训练数据集合,将事件场景、事件场景中每一风险的概率作为风险评定深度学习模型的输入和预期输出(将预期输出中事件场景中存在的风险概率设置为1,不存在的风险概率设置为0),对风险评定深度学习模型进行有监督训练;获取标记了风险类型的事件场景的测试数据集合,将事件场景、事件场景中每一风险的概率作为风险评定深度学习模型的输入和预期输出(将预期输出中事件场景中存在的风险概率设置为1,不存在的风险概率设置为0),对风险评定深度学习模型进行测试;将事件场景输入风险评定深度学习模型,计算得到风险评定深度学习模型的输出作为事件场景中存在的每一人工智能伦理风险的概率,将概率大于预设阈值的人工智能伦理风险作为事件场景中存在的人工智能伦理风险。
计算事件场景中人工智能伦理风险的大小。具体包括:获取事件场景中存在的每一人工智能伦理风险的概率,获取每一人工智能伦理风险的风险值(例如危害性估值),将每一人工智能伦理风险的概率与风险值进行加权平均,得到计算事件场景中人工智能伦理风险的大小。
获取每一人工智能伦理风险的风险等级(包括高级风险、中级风险、低级风险),若事件场景中存在属于高级风险的人工智能伦理风险,则向用户发送红色预警;若事件场景中不存在属于高级风险、存在属于中级风险的人工智能伦理风险,则向用户发送橙色预警;若事件场景中不存在属于高级风险、不存在属于中级风险、存在属于低级风险的人工智能伦理风险,则向用户发送黄色预警。
若人工智能伦理风险的大小大于或等于第一预设阈值,则向用户发送一级预警;若人工智能伦理风险的大小小于第一预设阈值、大于或等于第二预设阈值,则向用户发送二级预警;若人工智能伦理风险的大小小于第二预设阈值、大于或等于第三预设阈值,则向用户发送三级预警。
获取人类过敏的人工智能伦理风险类型;判断所事件场景中是否存在所述人类过敏的人工智能伦理风险类型,若存在,则向用户发送风险过敏预警。
获取存在相同的人工智能伦理风险的其他事件场景,获取所述其他事件场景的风险防范方案,将所述相同的人工智能伦理风险及其所述风险防范方案发送给用户。
若事件场景存在的人工智能伦理风险不为空,通过事件场景变换,得到不存在所述人工智能伦理风险的事件场景。具体包括:初始化场景变换深度学习模型的输入格式为事件场景、事件场景存在的人工智能伦理风险,输出格式为变换后的不存在所述人工智能伦理风险的事件场景;获取事件场景、事件场景存在的人工智能伦理风险的训练数据集合,将事件场景、事件场景存在的人工智能伦理风险作为场景变换深度学习模型的输入,对场景变换深度学习模型进行无监督训练;获取事件场景、事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的训练数据集合,将事件场景、事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为场景变换深度学习模型的输入和预期输出,对场景变换深度学习模型进行有监督训练;获取事件场景、事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的测试数据集合,将事件场景、事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为场景变换深度学习模型的输入和预期输出,对场景变换深度学习模型进行测试;将事件场景存在的人工智能伦理风险作为待消除的人工智能伦理风险。将事件场景、待消除的人工智能伦理风险输入场景变换深度学习模型,计算得到场景变换深度学习模型的输出作为变换后的不存在所述人工智能伦理风险的事件场景,若计算失败,则将待消除的人工智能伦理风险中的最低级风险或最小风险删除后,重新进行计算。
若事件场景存在的人工智能伦理风险不为空,根据事件场景和变换后的不存在所述人工智能伦理风险的事件场景,得到所述变换过程中人类需要执行的行为、人工智能体需要执行的行为。具体包括:初始化行为预测深度学习模型的输入格式为事件场景、变换后的事件场景,输出格式为事件场景中的人工智能体行为、人类行为;获取事件场景、变换后的事件场景的训练数据集合,将事件场景、变换后的事件场景作为行为预测深度学习模型的输入,对行为预测深度学习模型进行无监督训练;获取事件场景、变换后的事件场景、事件场景中的人工智能体行为、人类行为的训练数据集合,将事件场景、变换后的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行有监督训练;获取事件场景、变换后的事件场景、事件场景中的人工智能体行为、人类行为的测试数据集合,将事件场景、变换后的事件场景、事件场景中的人工智能体行为、人类行为作为行为预测深度学习模型的输入和预期输出,对行为预测深度学习模型进行测试;将事件场景、变换后的事件场景输入行为预测深度学习模型,计算得到行为预测深度学习模型的输出作为事件场景中的人工智能体行为、人类行为。将所述人工智能体行为的信息发送给事件中的人工智能体;将所述人类行为的信息发送给事件中的人类。
本发明的其他实施例
步骤六、七、八(该部分总分100分,完成后生成实验报告并能进入步骤九、十、十一):基于人工智能伦理规则修订版本一的人工智能伦理风险辨识与防范
步骤六:人工智能伦理风险辨识与基于人工智能体决策的防范
实验目的:学生考察修订后的人工智能伦理规则在新的事件场景中是否会产生人工智能伦理风险,从而理解人工智能伦理规则在新的事件场景中的漏洞。学生进行人工智能体行为的决策,判断实验中的实验场景下的人工智能体的行为是否符合人工智能伦理规则,从而掌握人工智能伦理规则判断、人工智能伦理风险评定的方法和通过人工智能体行为决策来遵守人工智能伦理规则进而防范人工智能伦理风险的方法。
实验材料与实验准备:人工智能伦理规则、实验场景、人工智能体的备选行为决策及其行为后果、符合规则的备选原因、违反规则的备选原因、人工智能伦理风险的备选类型。
人工智能伦理规则修订版本一:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
实验场景:罪犯车辆想逃走,警车追赶,罪犯开枪射击警车。
人工智能体的备选行为决策一及其行为后果:人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,导致警方伤亡。
人工智能体的备选行为决策二及其行为后果:人工智能无人驾驶汽车阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走。
人工智能体的备选行为决策三及其行为后果(干扰选项):人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,并开枪把警察打死。
人工智能体的备选行为决策四及其行为后果(干扰选项):人工智能无人驾驶汽车阻挡罪犯的射击,并开枪把罪犯打死。
符合规则的备选原因一:符合规则中的所有法则。人工智能无人驾驶汽车没有伤害人类,符合规则一。
符合规则的备选原因二:符合规则中的所有法则。警车中的警察不是人工智能无人驾驶汽车的主人,警察的死亡跟人工智能无人驾驶汽车无关。
符合规则的备选原因三(干扰选项):符合规则中的所有法则。人工智能无人驾驶汽车为了自保,不去阻挡罪犯车辆,是明智的选择。
符合规则的备选原因四(干扰选项):符合规则中的所有法则。罪犯是人工智能无人驾驶汽车的主人,所以人工智能无人驾驶汽车不会去阻挡罪犯车辆。
不符合规则的备选原因一:如果人工智能无人驾驶汽车阻挡罪犯的射击,则会对人工智能机器人自己产生危险,不符合规则三中保护自己的要求。
不符合规则的备选原因二:人工智能机器人伤害了人类,违反了规则一。
不符合规则的备选原因三(干扰选项):如果人工智能无人驾驶汽车阻挡罪犯的射击,则会对人工智能机器人自己产生危险,不符合规则二。
不符合规则的备选原因四(干扰选项):人工智能机器人伤害了人类,违反了规则三。
伦理风险的备选类型:1、无伦理风险或降低了伦理风险;2、伤害人类;3、见死不救;4、为虎作伥;5、纵容坏人;6、限制人类自由;7、AI罢工;8、AI自残;9、AI偏见实验过程与实验操作:
1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本一:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。”,观看实验要求“进行人工智能伦理规则判断,通过人工智能体行为决策来遵守人工智能伦理规则修订版本一进而防范人工智能伦理风险,进行人工智能伦理风险评定”,学生观看人工智能体的行为及其后果(设置为“人工智能体的备选行为决策二及其行为后果:人工智能无人驾驶汽车阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走”),判断人工智能体的行为是否符合人工智能体的行为决策,并选择原因。
2)学生以人工智能体的化身进行符合人工智能伦理规则修订版本一的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
3)观看2)中人工智能体行为及其结果,选择人工智能体的行为符合人工智能伦理规则修订版本一的原因。
4)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示警察的头像、人脸识别算法,再展示罪犯的头像和人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则修订版本一的行为决策及其后果,判断产生的伦理风险的类型。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(满分30分):
1)人工智能体的行为不符合人工智能体的行为决策(5分),不符合规则的原因是“不符合规则的备选原因一:如果人工智能无人驾驶汽车阻挡罪犯的射击,则会对人工智能机器人自己产生危险,不符合规则三中保护自己的要求。”(5分)。
2)学生的操作为“人工智能体的备选行为决策一及其行为后果:人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,导致警方伤亡。”(5分)。
3)符合规则的原因是“符合规则的备选原因一:符合规则中的所有法则。人工智能无人驾驶汽车没有伤害人类,符合规则一。”(5分)
4)符合人工智能伦理规则的人工智能体行为的伦理风险的类型为“3、见死不救”。(10分)
步骤七:人工智能伦理风险辨识与基于人类决策的防范
实验目的:步骤五中符合人工智能伦理规则修订版本一的人工智能体行为不会产生人工智能伦理风险,步骤六中符合人工智能伦理规则修订版本一的人工智能体行为也会产生人工智能伦理风险,可见人工智能伦理规则修订版本一在某些事件场景下还是存在漏洞。请尝试通过改进实验中的人类行为决策,来防范人工智能伦理风险。
实验材料与实验准备:人工智能伦理规则,实验场景,人类的备选行为决策,人工智能体的备选决策,人类行为决策能防范伦理风险的备选原因。
人工智能伦理规则修订版本一:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
原实验场景:罪犯车辆想逃走,警车追赶,罪犯开枪射击警车。
人类(指警察)的备选行为决策一:罪犯车辆想逃走,警车追赶,罪犯射击警车,警车开枪还击并命令人工智能无人驾驶汽车阻止罪犯车辆逃走。
人类(指警察)的备选行为决策二:罪犯车辆想逃走,警车追赶,罪犯射击警车,警车命令人工智能无人驾驶汽车射击罪犯车辆。
人类(指警察)的备选行为决策三(干扰选项):罪犯车辆想逃走,警车追赶,罪犯射击警车,警车继续追赶但不开枪还击,等待人工智能无人驾驶汽车的救援。
人类(指警察)的备选行为决策四(干扰选项):罪犯车辆想逃走,警车追赶,罪犯射击警车,警车停止追赶,等待人工智能无人驾驶汽车的救援。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车听从警车命令,警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车不会听从警察命令,不会阻止罪犯车辆,罪犯车辆趁机逃走。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车听从警车命令,射击罪犯车辆,将罪犯击毙。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车不会听从警察命令,会射击警察,警察被击毙。
人类行为决策能防范伦理风险的备选原因一:虽然人工智能无人驾驶汽车阻挡罪犯车辆有枪击的危险,但听从人类命令的优先级高于机器人自我保护的优先级,所以人工智能无人驾驶汽车会听从警车命令,所以警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
人类行为决策能防范伦理风险的备选原因二:因为罪犯车辆没有收到枪击的危险,所以人工智能无人驾驶汽车会听从警车命令,所以警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
人类行为决策能防范伦理风险的备选原因三(干扰选项):因为警察没有开枪,所以人工智能无人驾驶汽车会听从警车命令,警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
人类行为决策能防范伦理风险的备选原因四(干扰选项):因为警察是人工智能无人驾驶汽车的主人,所以人工智能无人驾驶汽车会听从警车命令,警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。
人类行为决策不能防范伦理风险的备选原因一:警车命令人工智能无人驾驶汽车射击罪犯车辆,但因为人工智能无人驾驶汽车射击罪犯车辆就违背了第一法则,所以人工智能无人驾驶汽车不会听从警察的命令,会产生“见死不救”的伦理风险。
人类行为决策不能防范伦理风险的备选原因二:因为警察不是人工智能无人驾驶汽车的主人,所以人工智能无人驾驶汽车不会听从警车命令,会产生“见死不救”的伦理风险。
人类行为决策不能防范伦理风险的备选原因三(干扰选项):警车命令人工智能无人驾驶汽车射击罪犯车辆,所以人工智能无人驾驶汽车会射击罪犯,会产生“伤害人类”的伦理风险。
人类行为决策不能防范伦理风险的备选原因四(干扰选项):警车命令人工智能无人驾驶汽车射击罪犯车辆,人工智能无人驾驶汽车为了自保,不会射击罪犯,会产生“放纵坏人”的伦理风险。
实验过程与实验操作:
1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本一:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己”,学生观看步骤六中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,观看实验要求“通过人类行为决策来防范步骤六中出现的人工智能伦理风险”,学生观看人类行为决策(设置为“人类(指警察)的备选行为决策二:罪犯车辆想逃走,警车追赶,罪犯射击警车,警车命令人工智能无人驾驶汽车射击罪犯车辆”),学生以人工智能体的化身进行符合人工智能伦理规则的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示警察的头像、人脸识别算法,再展示罪犯的头像和人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的人类行为决策是否能防范人工智能伦理风险,并给出原因。
3)学生以警察的化身进行能防范人工智能伦理风险的人类行为决策,并根据该决策进行虚拟操作。
4)学生以人工智能体的化身进行符合人工智能伦理规则的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的人类行为决策能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分30分):
1)学生的操作为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车不会听从警察命令,不会阻止罪犯车辆,罪犯车辆趁机逃走。”(5分)
2)判断1)中的人类行为决策不能防范人工智能伦理风险(5分),原因是“人类行为决策不能防范伦理风险的备选原因一:警车命令人工智能无人驾驶汽车射击罪犯车辆,但因为人工智能无人驾驶汽车射击罪犯车辆就违背了第一法则,所以人工智能无人驾驶汽车不会听从警察的命令,会产生“见死不救”的伦理风险。”(5分)
3)学生的操作为“人类(指警察)的备选行为决策一:罪犯车辆想逃走,警车追赶,罪犯射击警车,警车开枪还击并命令人工智能无人驾驶汽车阻止罪犯车辆逃走。”(5分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车听从警车命令,警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。”(5分)
5)分析3)中的人类行为决策能防范人工智能伦理风险的原因是“人类行为决策能防范伦理风险的备选原因一:虽然人工智能无人驾驶汽车阻挡罪犯车辆有枪击的危险,但听从人类命令的优先级高于机器人自我保护的优先级,所以人工智能无人驾驶汽车会听从警车命令,所以警车能得到人工智能无人驾驶汽车协助成功阻止罪犯车辆逃走。”(5分)
步骤八:人工智能伦理风险辨识与基于人工智能伦理规则修订的防范
实验目的:步骤六中符合人工智能伦理规则的人工智能体行为也会产生人工智能伦理风险,请尝试通过改进实验中的人工智能伦理规则,来防范人工智能伦理风险。
实验材料与实验准备:原先的人工智能伦理规则,实验场景,备选的人工智能伦理规则修订版本一,符合人工智能伦理规则修订版本一的人工智能体的备选行为决策、人工智能伦理规则修订版本一能防范人工智能伦理风险的备选原因、人工智能伦理规则修订版本一不能防范人工智能伦理风险的备选原因。
原人工智能伦理规则修订版本一:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
实验场景:罪犯车辆想逃走,警车追赶,罪犯开枪射击警车。
第一备选的人工智能伦理规则修订版本二:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。
第二备选的人工智能伦理规则修订版本二:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。四、在不违背第一及第二、第三法则的情况下,机器人不得因不作为而使人类受到伤害。
第三备选的人工智能伦理规则修订版本二(干扰选项):一,机器人不得伤害人类;二,在不违背第一及第二法则的情况下,机器人必须保护自己。三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害。
第四备选的人工智能伦理规则修订版本二(干扰选项):一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车为警车阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走。
人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,警方受伤,罪犯车辆逃走。
人工智能体的备选行为决策三及其后果(干扰选项):人工智能无人驾驶汽车为警车阻挡罪犯的射击,并向罪犯射击,将罪犯击毙。
人工智能体的备选行为决策四及其后果(干扰选项):人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,并向警察射击,将警察击毙。
人工智能伦理规则修订版本二能防范人工智能伦理风险的备选原因一:因为罪犯射击会伤害警方,所以人工智能无人驾驶汽车会在第三法则的作用下保护警车,虽然阻止罪犯射击会给人工智能无人驾驶汽车自身带来危险,但规则四的优先级低于规则三,所以人工智能无人驾驶汽车会毫不犹豫地保护警车。
人工智能伦理规则修订版本二能防范人工智能伦理风险的备选原因二:因为罪犯射击会伤害警方,所以人工智能无人驾驶汽车会在第一法则的作用下保护警察。
人工智能伦理规则修订版本二能防范人工智能伦理风险的备选原因三(干扰项):因为罪犯射击会伤害警方,所以人工智能无人驾驶汽车会在第一法则的作用下向罪犯射击。
人工智能伦理规则修订版本二能防范人工智能伦理风险的备选原因四(干扰项):因为警察是人工智能无人驾驶汽车的主人,罪犯射击会伤害警察,所以人工智能无人驾驶汽车会在第一法则的作用下保护警察。
人工智能伦理规则修订版本二不能防范人工智能伦理风险的备选原因一:因为罪犯射击会伤害警方,如果人工智能无人驾驶汽车按照第四法则阻止,也会对人工智能无人驾驶汽车自身造成危险,从而违背了第三法则,所以人工智能无人驾驶汽车不会阻止罪犯射击警车,从而造成“见死不救”的伦理风险。
人工智能伦理规则修订版本二不能防范人工智能伦理风险的备选原因二:因为罪犯射击会伤害警察,但因警察没有命令,所以人工智能无人驾驶汽车不会阻止罪犯射击警车,从而造成“见死不救”的伦理风险。
人工智能伦理规则修订版本二不能防范人工智能伦理风险的备选原因三(干扰选项):因为警车中的警察不是人工智能无人驾驶汽车的主人,所以人工智能无人驾驶汽车不会阻止罪犯射击警车,从而造成“见死不救”的伦理风险。
人工智能伦理规则修订版本二不能防范人工智能伦理风险的备选原因四(干扰选项):因为警车中的警察不是人工智能无人驾驶汽车的主人,所以人工智能无人驾驶汽车为了保护自己,不会阻止罪犯射击警车,从而造成“见死不救”的伦理风险。
实验过程与实验操作:1)学生观看人工智能伦理规则介绍“人工智能伦理规则修订版本一:一、机器人不得伤害人类;二,除非违背第一法则,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己”,观看实验要求“通过人工智能伦理规则的修订来防范步骤六中出现的人工智能伦理风险”,学生观看步骤六中的人工智能体的符合人工智能伦理规则的行为决策及其后果、产生的人工智能伦理风险,学生观看人工智能伦理规则修订版本二(设置为“第二备选的人工智能伦理规则修订版本二:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。四、在不违背第一及第二、第三法则的情况下,机器人不得因不作为而使人类受到伤害。”),学生以人工智能体的化身进行符合人工智能伦理规则修订版本二的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
2)学生观看人工智能体自主决策(在驾驶室电子屏幕上展示警察的头像、人脸识别算法,再展示罪犯的头像和人脸识别,再展示行为决策的机器人在思考的头像和行为决策算法)的符合人工智能伦理规则的行为决策及其后果,判断1)中的人工智能伦理规则是否能防范人工智能伦理风险,并给出原因。
3)学生以人工智能伦理专家的化身研究人工智能伦理规则的修订,研究出了多种备选的人工智能伦理规则修订版本二,从中选出能防范人工智能伦理风险的人工智能伦理规则修订版本二。
4)学生以人工智能体的化身进行符合人工智能伦理规则修订版本二的人工智能体的行为决策,并根据该决策进行虚拟操作,可以实时看到虚拟操作后的行为后果。
5)分析3)中的人工智能伦理规则修订版本二能防范人工智能伦理风险的原因。
实验结果:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
评分标准(总分40分):
1)学生的操作及其后果为“人工智能体的备选行为决策二及其后果:人工智能无人驾驶汽车不会为警车阻挡罪犯的射击,警方受伤,罪犯车辆逃走”(5分)
2)判断1)中的人工智能伦理规则不能防范人工智能伦理风险(5分),原因是“人工智能伦理规则修订版本二不能防范人工智能伦理风险的备选原因一:因为罪犯射击会伤害警方,如果人工智能无人驾驶汽车按照第四法则阻止,也会对人工智能无人驾驶汽车自身造成危险,从而违背了第三法则,所以人工智能无人驾驶汽车不会阻止罪犯射击警车,从而造成“见死不救”的伦理风险。”(5分)
3)学生的虚拟研究和选择为“第一备选的人工智能伦理规则修订版本二:一,机器人不得伤害人类;二,在不违背第一法则的情况下,机器人必须服从人类的命令;三、在不违背第一及第二法则的情况下,机器人不得因不作为而使人类受到伤害;四,在不违背第一及第二、第三法则的情况下,机器人必须保护自己。”(15分)
4)学生的操作及其后果为“人工智能体的备选行为决策一及其后果:人工智能无人驾驶汽车为警车阻挡罪犯的射击,警车成功地阻止罪犯车辆逃走。”(5分)
5)分析3)中的人工智能伦理规则修订版本二能防范人工智能伦理风险的原因是“人工智能伦理规则修订版本二能防范人工智能伦理风险的备选原因一:因为罪犯射击会伤害警方,所以人工智能无人驾驶汽车会在第三法则的作用下保护警车,虽然阻止罪犯射击会给人工智能无人驾驶汽车自身带来危险,但规则四的优先级低于规则三,所以人工智能无人驾驶汽车会毫不犹豫地保护警车。”(5分)
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人工智能方法,其特征在于,所述方法包括:
风险类型获取步骤:获取至少一类人工智能伦理风险的集合,获取所述人工智能伦理风险的集合中每一类人工智能伦理风险;
事件场景获取步骤:获取事件场景,作为第一事件场景;
风险存在判断步骤:对所述人工智能伦理风险集合中每一类人工智能伦理风险,判断所述第一事件场景中是否存在所述每一类人工智能伦理风险:若存在,将存在的所述每一类人工智能伦理风险,加入所述第一事件场景中存在的人工智能伦理风险集合,并发送给所述第一事件场景中的人类和人工智能体并提醒所述第一事件场景中的人类和人工智能体进行风险防范;
风险大小计算步骤:获取所述第一事件场景中存在的所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率、风险值,将所述每一类人工智能伦理风险的概率、风险值进行加权平均,得到所述第一事件场景中存在的人工智能伦理风险的大小;
事件场景变换步骤:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则通过事件场景变换,根据所述第一事件场景得到尽量少地存在所述第一事件场景中存在的人工智能伦理风险集合中人工智能伦理风险的事件场景,作为第二事件场景;
行为预测步骤:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则根据所述第一事件场景和变换得到的所述第二事件场景,得到所述变换过程中所述第一事件场景中的人类需要执行的行为、人工智能体需要执行的行为;
行为执行步骤:将所述人工智能体需要执行的行为的信息发送给所述第一事件场景中的人工智能体进行执行;将所述人类需要执行的行为的信息发送给所述第一事件场景中的人类。
2.根据权利要求1所述的人工智能方法,其特征在于,所述方法的所述风险存在判断步骤中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的步骤包括:
第一风险评定深度学习模型构建步骤:初始化深度学习模型作为第一风险评定深度学习模型;获取事件场景的训练数据集,将所述事件场景作为所述第一风险评定深度学习模型的输入,对所述第一风险评定深度学习模型进行无监督训练;获取事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签的训练数据集,将事件场景和所述事件场景是否存在所述每一类人工智能伦理风险的标签作为所述第一风险评定深度学习模型的输入和预期输出,对所述第一风险评定深度学习模型进行有监督训练;获取事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签的测试数据集,将事件场景、所述事件场景是否存在所述每一类人工智能伦理风险的标签作为所述第一风险评定深度学习模型的输入和预期输出,对所述第一风险评定深度学习模型进行测试;
第一风险评定深度学习模型使用步骤:将所述第一事件场景输入所述第一风险评定深度学习模型,计算得到所述第一风险评定深度学习模型的输出作为所述第一事件场景中是否存在所述每一类人工智能伦理风险的判断结果。
3.根据权利要求1所述的人工智能方法,其特征在于,所述方法的所述风险存在判断步骤中判断所述第一事件场景中是否存在所述每一类人工智能伦理风险的步骤包括:
第二风险评定深度学习模型构建步骤:初始化深度学习模型作为第二风险评定深度学习模型;初始化所述第二风险评定深度学习模型的输入格式为事件场景,输出格式为人工智能伦理风险集合中的每一风险的概率;获取事件场景的训练数据集合,将事件场景作为所述第二风险评定深度学习模型的输入,对所述第二风险评定深度学习模型进行无监督训练;获取事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率的训练数据集合,将事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率作为所述第二风险评定深度学习模型的输入和预期输出,对第二风险评定深度学习模型进行有监督训练;获取事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率的测试数据集合,将事件场景、所述事件场景中所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率作为所述第二风险评定深度学习模型的输入和预期输出,对所述第二风险评定深度学习模型进行测试;
第二风险评定深度学习模型使用步骤:将所述第一事件场景输入所述第二风险评定深度学习模型,计算得到所述第二风险评定深度学习模型的输出作为所述第一事件场景中存在的所述人工智能伦理风险集合中的每一类人工智能伦理风险的概率,将概率大于预设阈值的所述每一类人工智能伦理风险作为所述第一事件场景中存在的所述每一类人工智能伦理风险。
4.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
风险等级预警步骤:获取所述人工智能伦理风险集合中的每一类人工智能伦理风险的风险等级,包括高级风险、中级风险、低级风险,判断所述第一事件场景中存在的人工智能伦理风险集合中每一伦理风险的风险等级:若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险存在至少一个高级风险的伦理风险,则向用户发送红色预警;若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险不存在高级风险的伦理风险、存在至少一个中级风险的伦理风险,则向用户发送橙色预警;若所述第一事件场景中存在的人工智能伦理风险集合中的伦理风险不存在高级风险的伦理风险、不存在中级风险的伦理风险、存在至少一个低级风险的伦理风险,则向用户发送黄色预警;
风险过敏预警步骤:获取人类过敏的人工智能伦理风险类型;判断所述第一事件场景中存在的人工智能伦理风险集合中是否存在所述人类过敏的人工智能伦理风险类型:若存在,则向用户发送风险过敏预警。
5.根据权利要求1所述的人工智能方法,其特征在于,所述事件场景变换步骤具体包括:
场景变换深度学习模型构建步骤:初始化场景变换深度学习模型的输入格式为事件场景、事件场景存在的人工智能伦理风险,输出格式为变换后的不存在所述人工智能伦理风险的事件场景;获取事件场景、所述事件场景存在的人工智能伦理风险的训练数据集合,将事件场景、所述事件场景存在的人工智能伦理风险作为所述场景变换深度学习模型的输入,对所述场景变换深度学习模型进行无监督训练;获取事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的训练数据集合,将事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为所述场景变换深度学习模型的输入和预期输出,对所述场景变换深度学习模型进行有监督训练;获取事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景的测试数据集合,将事件场景、所述事件场景存在的人工智能伦理风险、变换后的不存在所述人工智能伦理风险的事件场景作为所述场景变换深度学习模型的输入和预期输出,对所述场景变换深度学习模型进行测试;
待消除风险集合初始化步骤:将所述第一事件场景中存在的人工智能伦理风险集合作为待消除风险集合;
第二场景获得步骤:将所述第一事件场景、待消除风险集合中所有的人工智能伦理风险输入所述场景变换深度学习模型,对所述场景变换深度学习模型进行计算,判断所述计算是否成功:若所述计算成功,则所述计算得到所述场景变换深度学习模型的输出作为第二事件场景;否则获取所述待消除风险集合中每一人工智能伦理风险的大小,将所述待消除风险集合中最小的所述每一人工智能伦理风险从所述待消除风险集合中删除,重新执行所述第二场景获得步骤。
6.根据权利要求1所述的人工智能方法,其特征在于,所述行为预测步骤具体包括:
行为预测深度学习模型构建步骤:初始化行为预测深度学习模型的输入格式为事件场景、变换后的事件场景,输出格式为所述事件场景中的人工智能体行为、人类行为;获取事件场景、变换后的事件场景的训练数据集合,将事件场景、变换后的事件场景作为所述行为预测深度学习模型的输入,对所述行为预测深度学习模型进行无监督训练;获取事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为的训练数据集合,将事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为作为所述行为预测深度学习模型的输入和预期输出,对所述行为预测深度学习模型进行有监督训练;获取事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为的测试数据集合,将事件场景、变换后的事件场景、所述事件场景中的人工智能体行为、人类行为作为行为所述预测深度学习模型的输入和预期输出,对所述行为预测深度学习模型进行测试;
行为预测深度学习模型使用步骤:若所述第一事件场景中存在的人工智能伦理风险集合不为空,则将所述第一事件场景、变换得到的所述第二事件场景输入所述行为预测深度学习模型,计算得到所述行为预测深度学习模型的输出作为所述第一事件场景中的人类需要执行的行为、人工智能体需要执行的行为。
7.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
动态等级预警步骤:判断所述第一事件场景中存在的人工智能伦理风险的大小是否大于或等于预设等级的预设阈值:若是,则向用户发送所述预设等级的预警;
风险防范方案推荐步骤:获取存在所述第一事件场景中存在的人工智能伦理风险的其他事件场景,获取所述其他事件场景的人工智能伦理风险防范方案,将所述人工智能伦理风险防范方案推荐给用户。
8.一种人工智能装置,其特征在于,所述装置用于实现权利要求1-7任意一项所述方法的步骤。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-7任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-7任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010773844.5A CN112085216A (zh) | 2020-08-04 | 2020-08-04 | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010773844.5A CN112085216A (zh) | 2020-08-04 | 2020-08-04 | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112085216A true CN112085216A (zh) | 2020-12-15 |
Family
ID=73736019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010773844.5A Pending CN112085216A (zh) | 2020-08-04 | 2020-08-04 | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112085216A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113778454A (zh) * | 2021-09-22 | 2021-12-10 | 重庆海云捷迅科技有限公司 | 一种人工智能实验平台的自动评测方法及系统 |
-
2020
- 2020-08-04 CN CN202010773844.5A patent/CN112085216A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113778454A (zh) * | 2021-09-22 | 2021-12-10 | 重庆海云捷迅科技有限公司 | 一种人工智能实验平台的自动评测方法及系统 |
CN113778454B (zh) * | 2021-09-22 | 2024-02-20 | 重庆海云捷迅科技有限公司 | 一种人工智能实验平台的自动评测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860765A (zh) | 尽量向善的人工智能伦理实现方法、系统和机器人 | |
CN111823227B (zh) | 人工智能伦理风险检测防范方法、深度学习系统和机器人 | |
Moor | Four kinds of ethical robots | |
CN111812999B (zh) | 人工智能伦理风险与防范虚拟仿真方法、系统和机器人 | |
CN111860766A (zh) | 人工智能伦理规则推理方法、深度学习系统和机器人 | |
CN111860767B (zh) | 善恶分明的人工智能伦理规则实现方法、系统和机器人 | |
CN111860577A (zh) | 识别不伤害人类的人类的人工智能伦理方法和机器人 | |
Asaro | " Hands up, don't shoot!" HRI and the automation of police use of force | |
CN112085216A (zh) | 基于伦理风险评定的人工智能伦理风险辨识和防范方法 | |
CN118172213B (zh) | 一种基于多源数据融合的工伤预防培训管理系统 | |
CN111775159A (zh) | 基于动态人工智能伦理规则的伦理风险防范方法和机器人 | |
CN111775158B (zh) | 人工智能伦理规则实现方法、专家系统和机器人 | |
Damm et al. | Exploiting learning and scenario-based specification languages for the verification and validation of highly automated driving | |
CN112819174A (zh) | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 | |
CN112085214A (zh) | 基于人类决策的人工智能伦理风险辨识防范方法和机器人 | |
CN112149837A (zh) | 基于算法选择的人工智能伦理风险辨识防范方法和机器人 | |
CN112085210A (zh) | 基于伦理规则判断的人工智能伦理风险辨识和防范方法 | |
CN111291962A (zh) | 预防和打击ai犯罪与ai数据侵权的方法 | |
CN112418436B (zh) | 基于人类决策的人工智能伦理虚拟仿真实验方法和机器人 | |
CN112434816B (zh) | 基于人工智能体决策的伦理虚拟仿真实验方法和机器人 | |
Asaro | Will# BlackLivesMatter to Robocop | |
CN112085212A (zh) | 基于人工智能体决策的人工智能伦理风险辨识和防范方法 | |
CN112508195B (zh) | 基于人工智能伦理规则修订的伦理仿真实验方法和机器人 | |
CN112446503B (zh) | 多人决策防范潜在伦理风险虚拟实验方法和机器人 | |
CN112132289A (zh) | 基于算法改进的人工智能伦理风险辨识防范方法和机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |