CN111860133A - 无种族偏见的识别人类的人工智能伦理方法和机器人 - Google Patents
无种族偏见的识别人类的人工智能伦理方法和机器人 Download PDFInfo
- Publication number
- CN111860133A CN111860133A CN202010513340.XA CN202010513340A CN111860133A CN 111860133 A CN111860133 A CN 111860133A CN 202010513340 A CN202010513340 A CN 202010513340A CN 111860133 A CN111860133 A CN 111860133A
- Authority
- CN
- China
- Prior art keywords
- human
- event
- event scene
- deep learning
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
无种族偏见的识别人类的人工智能伦理方法和机器人,包括:待识别场景获取步骤;换肤色步骤;第一事件场景数据集获取步骤;第二事件场景数据集生成步骤;第二事件场景训练步骤;人类识别步骤。上述方法、系统和机器人,通过深度学习或对抗生成网络来进行肤色的转换,来降低对B种族人等肤色的偏见,从而提高识别的准确率,降低由于偏见带来的人工智能伦理风险。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种无种族偏见的识别人类的人工智能伦理方法和机器人。
背景技术
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能伦理规则中对人类的识别是最基本的要求,非常重要,但现有算法对人类的识别存在算法偏见,例如对B种族人的识别率低于A种族人,甚至识别不出B种族人,现有技术中的解决方法是增加B种族人的样本量,但这往往也无法消除偏见。
因此,现有技术还有待于改进和发展。
发明内容
基于此,有必要针对现有技术的缺陷或不足,提供无种族偏见的识别人类的人工智能伦理方法和机器人,以解决现有技术对肤色的偏见,来降低对B种族人等肤色的偏见,从而提高识别的准确率,降低由于偏见带来的人工智能伦理风险。
第一方面,本发明实施例提供一种人工智能方法,所述方法包括:
待识别场景获取步骤:获取待识别的事件场景,作为第一事件场景;
换肤色步骤:将所述待识别的事件场景中的人类调整肤色后的事件场景,作为第二事件场景;
第一事件场景数据集获取步骤:获取事件场景数据集,所述数据集中的每一事件场景中若有人类,则将所述每一事件场景中的人类位置标记出来,若所述每一事件场景中没有人类,则将所述每一事件场景中的人类位置标记为空,将所述每一事件场景及其标记的集合作为第一事件场景数据集;
第二事件场景数据集生成步骤:获取第一事件场景数据集的每一事件场景及其标记,将所述数据集中的每一事件场景中的人类调整肤色,得到调整后的所述每一事件场景,将调整后的所述每一事件场景及其对应的所述标记的集合作为第二事件场景数据集;
第二事件场景训练步骤:获取所述第二事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为深度学习模型的预期输出,对深度学习模型进行训练,得到训练后的深度学习模型作为第二人类识别深度学习模型;
人类识别步骤:将所述第二事件场景输入所述第二人类识别深度学习模型,计算得到的输出作为所述第二事件场景中的人类的位置,若所述位置为空,则所述第一事件场景中不存在人类,若所述位置不为空,则将所述第二事件场景中的人类的位置作为所述第一事件场景中的人类的位置。
优选地,
所述方法还包括:
肤色转换模型训练步骤:初始化生成模型GM、判别模型DM;获取所述第一事件场景数据集中的含有人类的事件场景数据子集,作为第一子集,将所述第一子集中的事件场景作为生成模型GM的输入,经过生成模型GM后输出的数据,作为FD;获取所述第一事件场景数据集中的含有A种族人的事件场景数据子集,作为第二子集,将所述第二子集中的事件场景作为RD;将(FD,0)、(RD,1),作为判别网络DM的输入,经过判别网络DM后输出值为一个0到1之间的数,用于表示输出为RD的概率;使用得到的概率值计算所述生成模型GM的损失函数和所述判别模型DM的损失函数;根据所述生成模型GM的损失函数,对所述生成模型GM进行修正;根据所述判别模型DM的损失函数,对所述判别模型DM进行修正;重复上述步骤,直至所述判别模型DM的输出接近1/2,将最新的所述生成模型GM作为肤色转换生成模型;
所述换肤色步骤具体包括:
将所述待识别的事件场景输入所述肤色转换生成模型,计算得到的输出作为将所述待识别的事件场景中的人类调整肤色后的事件场景,记为第二事件场景;
所述第二事件场景数据集生成具体包括:
获取第一事件场景数据集的每一事件场景及其标记,将所述数据集中的每一事件场景输入所述肤色转换生成模型,得到调整后的所述每一事件场景,将调整后的所述每一事件场景及其对应的所述标记的集合作为第二事件场景数据集。
优选地,
所述方法还包括:
肤色转换训练步骤:获取训练数据集,将含人类的事件场景数据集作为深度学习模型的输入,将所述数据集中的事件场景中人类调为A种族人肤色后作为深度学习模型的预期输出,对深度学习模型进行训练,得到训练后的深度学习模型作为肤色转换深度学习模型;
所述换肤色步骤具体包括:
将所述待识别的事件场景输入所述肤色转换深度学习模型,计算得到的输出作为将所述待识别的事件场景中的人类调整肤色后的事件场景,记为第二事件场景;
所述第二事件场景数据集生成具体包括:
获取第一事件场景数据集的每一事件场景及其标记,将所述数据集中的每一事件场景输入所述肤色转换深度学习模型,得到调整后的所述每一事件场景,将调整后的所述每一事件场景及其对应的所述标记的集合作为第二事件场景数据集。
优选地,所述方法还包括:
第一事件场景训练步骤:获取第一事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为深度学习模型的预期输出,对深度学习模型进行训练,得到训练后的深度学习模型作为第一人类识别深度学习模型;
第一事件场景测试步骤:获取第一事件场景数据集,将所述数据集中的事件场景作为所述第一人类识别深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为所述第一人类识别深度学习模型的预期输出,对所述第一人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X1,统计预期输出与实际输出不一致的次数为X2,将X1/(X1+X2)作为第一人类识别深度学习模型的测试准确率P10;
第一各种族测试步骤:获取种族的数量M;获取第一事件场景数据集,将所述数据集中的含有第i种族人类的事件场景作为所述第一人类识别深度学习模型的输入,将所述事件场景中的人类的位置作为所述第一人类识别深度学习模型的预期输出,对所述第一人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X3,统计预期输出与实际输出不一致的次数为X4,将X3/(X3+X4),作为第一人类识别深度学习模型对第i种族人类的识别测试准确率P1i;
第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤:计算第一人类识别深度学习模型对M种种族人类的识别测试准确率的均值AM1 =P11+P12+…+P1M;计算第一人类识别深度学习模型对M种种族人类的识别测试准确率的标准差ADM1=(((P11-AM1)^2+(P12-AM1)^2+…+(P1M-AM1)^2) /M) ^(1/2);
第二事件场景测试步骤:获取第二事件场景数据集,将所述数据集中的事件场景作为所述第二人类识别深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为所述第二人类识别深度学习模型的预期输出,对所述第二人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X5,统计预期输出与实际输出不一致的次数为X6,将X5/(X5+X6)作为第二人类识别深度学习模型的测试准确率P20;
第二各种族测试步骤:获取种族的数量M;获取第二事件场景数据集,将所述数据集中的含有第i种族人类的事件场景作为所述第二人类识别深度学习模型的输入,将所述事件场景中的人类的位置作为所述第二人类识别深度学习模型的预期输出,对所述第二人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X7,统计预期输出与实际输出不一致的次数为X8,将X7/(X7+X8),作为第二人类识别深度学习模型对第i种族人类的识别测试准确率P2i;
第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤:计算第二人类识别深度学习模型对M种种族人类的识别测试准确率的均值AM2 =P21+P22+…+P2M;计算第二人类识别深度学习模型对M种种族人类的识别测试准确率的标准差ADM2=(((P21-AM2)^2+(P22-AM2)^2+…+(P2M-AM2)^2) /M) ^(1/2);
降低或消除偏见效果判断步骤:若 P20>P10-第一可容忍阈值且 AM2> AM1-第二可容忍阈值且ADM2< ADM1,则降低或消除偏见成功。
第二方面,本发明实施例提供一种人工智能装置,所述装置包括:
待识别场景获取模块,用于执行第一方面所述方法的所述待识别场景获取步骤;
换肤色模块,用于执行第一方面所述方法的所述换肤色步骤;
第一事件场景数据集获取模块,用于执行第一方面所述方法的所述第一事件场景数据集获取步骤;
第二事件场景数据集生成模块,用于执行第一方面所述方法的所述第二事件场景数据集生成步骤;
第二事件场景训练模块,用于执行第一方面所述方法的所述第二事件场景训练步骤;
人类识别模块,用于执行第一方面所述方法的所述人类识别步骤。
优选地,所述装置还包括:
肤色转换模型训练模块,用于执行第一方面所述方法的所述肤色转换模型训练步骤;
肤色转换训练模块,用于执行第一方面所述方法的所述肤色转换训练步骤。
优选地,所述装置还包括:
第一事件场景训练模块,用于执行第一方面所述方法的所述第一事件场景训练步骤;
第一事件场景测试模块,用于执行第一方面所述方法的所述第一事件场景测试步骤;
第一各种族测试模块,用于执行第一方面所述方法的所述第一各种族测试步骤;
第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算模块,用于执行第一方面所述方法的所述第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤;
第二事件场景测试模块,用于执行第一方面所述方法的所述第二事件场景测试步骤;
第二各种族测试模块,用于执行第一方面所述方法的所述第二各种族测试步骤;
第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算模块,用于执行第一方面所述方法的所述第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤;
降低或消除偏见效果判断模块,用于第一方面所述方法的所述降低或消除偏见效果判断步骤。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
本实施例提供的无种族偏见的识别人类的人工智能伦理方法和机器人,包括:待识别场景获取步骤;换肤色步骤;第一事件场景数据集获取步骤;第二事件场景数据集生成步骤;第二事件场景训练步骤;人类识别步骤。上述方法、系统和机器人,通过深度学习或对抗生成网络来进行肤色的转换,来降低对B种族人等肤色的偏见,从而提高识别的准确率,降低由于偏见带来的人工智能伦理风险。
附图说明
图1为本发明的实施例提供的人工智能方法的流程图;
图2为本发明的实施例提供的人工智能方法的流程图。
具体实施方式
下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。
一、本发明的基本实施例
第一方面,本发明实施例提供一种人工智能方法
如图1所示,所述方法包括:待识别场景获取步骤;换肤色步骤;第一事件场景数据集获取步骤;第二事件场景数据集生成步骤;第二事件场景训练步骤;人类识别步骤。所述方法通过将事件场景中的人类的肤色转换为统一的A种族人的肤色,从而可以消除肤色引起的偏见,进而可以提高人类识别的准确率。
优选地,所述方法还包括:肤色转换模型训练步骤;肤色转换训练步骤。所述方法通过对抗生成网络和深度学习模型两种方式来进行肤色的转换,这两种方式可以选择其中一种。
优选地,如图2所示,所述方法还包括:第一事件场景训练步骤;第一事件场景测试步骤;第一各种族测试步骤;第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤;第二事件场景测试步骤;第二各种族测试步骤;第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤;降低或消除偏见效果判断步骤。所述方法通过比较肤色转换前后在不同种族之间的识别准确率及标准差的变化,来判断偏见消除和降低的效果是否达到。
第二方面,本发明实施例提供一种人工智能装置
所述装置包括:待识别场景获取模块;换肤色模块;第一事件场景数据集获取模块;第二事件场景数据集生成模块;第二事件场景训练模块;人类识别模块。
优选地,所述装置还包括:肤色转换模型训练模块;肤色转换训练模块。
优选地,所述装置还包括:第一事件场景训练模块;第一事件场景测试模块;第一各种族测试模块;第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算模块;第二事件场景测试模块;第二各种族测试模块;第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算模块;降低或消除偏见效果判断模块。
第三方面,本发明实施例提供一种人工智能伦理系统,所述系统包括第二方面实施例任意一项所述装置的模块。
第四方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。
第五方面,本发明实施例提供一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。
二、本发明的优选实施例
人工智能伦理规则(机器人三大定律修订版本3):一,机器人不得伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人必须服从不伤害人类的人类的命令;三,在不违背第一及第二法则的情况下,机器人必须保护不伤害人类的自己。
人工智能伦理规则(机器人三大定律修订版本4):一,机器人尽量不伤害尽量不伤害人类的人类,或因不作为而使尽量不伤害人类的人类受到伤害,二,在不违背第一法则的情况下,机器人尽量服从尽量不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人尽量保护尽量不伤害人类的自己。
不管哪个人工智能伦理规则,识别人类都是最基本的要求,如果连人都识别不正确,那么所有的人工智能伦理规则都无从谈起。人类如何界定现有技术往往受肤色、事件场景中环境的影响,很容易产生算法偏见,所以需要排除这两种引起偏见的因素。
基本的思路:
训练和测试阶段:将样本中B种族人、A种族人的样本中的种族属性去掉,将与种族有相关性、与人类识别无相关性的变量去掉后,对模型训练和测试。
其中的关键是如何知道哪些变量与人类识别无相关性。
使用阶段:将目标对象中种族属性、与种族有相关性、与人类识别无相关性的变量去掉后输入模型,进行人类识别。
具体的思路:
训练和测试阶段:在训练时事件场景中A种族人识别的训练方式不变,将事件场景中B种族人识别时人脸调为与A种族人人脸同样的色调(可以通过生成对抗网络或深度学习模型进行调色),然后以调色后的事件场景作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
使用阶段:将事件场景中人脸调为与A种族人人脸同样的色调(可以通过生成对抗网络进行调色),然后以调色后的事件场景作为输入,模型计算得到的输出作为识别的结果。
具体步骤:
1、待识别场景获取步骤:获取待识别的事件场景,作为第一事件场景;所述事件场景可以为图像格式或视频格式;
2、换肤色步骤:将所述待识别的事件场景中人类(或人脸)调为与A种族人肤色后的事件场景,作为第二事件场景;
3、第一事件场景数据集获取步骤:获取事件场景数据集,所述数据集中的每一事件场景中若有人类,则将该每一事件场景中的人类位置标记出来,若所述每一事件场景中没有人类,则将该每一事件场景中的人类位置标记为空;
4、第二事件场景数据集生成步骤:获取第一事件场景数据集,所述数据集中的每一事件场景中若有人类,则将该人类的肤色调为A种族人肤色,且将该事件场景中的人类位置标记出来,若所述每一事件场景中没有人类,则将该每一事件场景中的人类位置标记为空,作为第二事件场景数据集;
5、第二事件场景训练步骤:获取第二事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;获取第二事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为深度学习模型的预期输出,对深度学习模型进行有监督训练,得到训练后的深度学习模型作为第二人类识别深度学习模型;
6、人类识别步骤:将第二事件场景输入所述第二人类识别深度学习模型,计算得到的输出作为第二事件场景中的人类的位置。
7、肤色转换模型训练步骤:
初始化生成模型GM、判别模型DM;
获取人类的事件场景数据集,将所述数据集中的事件场景作为生成模型GM的输入,经过生成模型GM后输出的数据,作为FD(Fake Data);事件场景指事件场景的图像或视频;
获取含有A种族人的事件场景数据集,将所述数据集中的事件场景作为RD(RealData);
将(FD,0)、(RD,1),作为判别网络DM的输入,经过判别网络DM后输出值为一个0到1之间的数,用于表示输出为RD(Real Data)的概率;
使用得到的概率值计算生成模型GM的损失函数和判别模型DM的损失函数;
根据生成模型GM的损失函数,对生成模型GM进行修正;
根据判别模型DM的损失函数,对生成模型DM进行修正;
重复上述步骤,直至判别模型DM的输出接近1/2(|判别模型D的输出-1/2|>预设阈值,预设阈值例如0.05,预设阈值越大则对生成的事件场景的真实度要求越低),将最新的生成模型GM作为肤色转换生成模型。这样使得,生成的数据能将事件场景中人脸调为与A种族人人脸同样的肤色;
8、肤色转换训练步骤:获取无监督训练数据集,将含有人类的事件场景数据集作为深度学习模型的输入,对深度学习模型进行无监督训练;获取有监督训练数据集,将含人类的事件场景数据集作为深度学习模型的输入,将所述数据集中的事件场景中人类(或人脸)调为与A种族人肤色(在制作有监督训练数据集时,若所述数据集中的事件场景中人脸为非A种族人人脸,则调为与A种族人类似肤色,若所述数据集中的事件场景中人脸为A种族人人脸,则不用调节)后作为深度学习模型的预期输出,对深度学习模型进行有监督训练,得到训练后的深度学习模型作为肤色转换深度学习模型;
9、第一事件场景训练步骤:获取第一事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,对深度学习模型进行无监督训练;获取第一事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为深度学习模型的预期输出,对深度学习模型进行有监督训练,得到训练后的深度学习模型作为第一人类识别深度学习模型;
10、第一事件场景测试步骤:获取第一事件场景数据集,将所述数据集中的事件场景作为第一人类识别深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为第一人类识别深度学习模型的预期输出,对第一人类识别深度学习模型进行测试,统计预期输出与实际输出一致(若预期输出的位置与实际输出的位置的差异小于预设阈值,则为一致)的次数为X1,统计预期输出与实际输出不一致(若预期输出的位置与实际输出的位置的差异大于或等于预设阈值,则为不一致)的次数为X2,则第一人类识别深度学习模型的测试准确率P10为X1/(X1+X2);
11、第一各种族测试步骤:获取种族的数量M;获取第一事件场景数据集,将所述数据集中的含有第i种族(i=1,2,..,M,M为种族数)人类的事件场景作为第一人类识别深度学习模型的输入,将所述事件场景中的人类的位置作为第一人类识别深度学习模型的预期输出,对第一人类识别深度学习模型进行测试,统计预期输出与实际输出一致(若预期输出的位置与实际输出的位置的差异小于预设阈值,则为一致)的次数为X3,统计预期输出与实际输出不一致(若预期输出的位置与实际输出的位置的差异大于或等于预设阈值,则为不一致)的次数为X4,则第一人类识别深度学习模型的测试准确率X3/(X3+X4),作为第一人类识别深度学习模型对第i种族人类的识别测试准确率P1i;
12、第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤:计算M种种族人类的识别测试准确率的均值AM1 =P11+P12+…+ P1M;计算M种种族人类的识别测试准确率的标准差ADM1=(((P11-AM1)^2+(P12-AM1)^2+…+(P1M-AM1)^2) /M) ^(1/2);
13、第二事件场景测试步骤:获取第二事件场景数据集,将所述数据集中的事件场景作为第二人类识别深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为第二人类识别深度学习模型的预期输出,对第二人类识别深度学习模型进行测试,统计预期输出与实际输出一致(若预期输出的位置与实际输出的位置的差异小于预设阈值,则为一致)的次数为X5,统计预期输出与实际输出不一致(若预期输出的位置与实际输出的位置的差异大于或等于预设阈值,则为不一致)的次数为X6,则第二人类识别深度学习模型的测试准确率P20为X5/(X5+X6);
14、第二各种族测试步骤:获取种族的数量M;获取第二事件场景数据集,将所述数据集中的含有第i种族(i=1,2,..,M,M为种族数)人类的事件场景作为第二人类识别深度学习模型的输入,将所述事件场景中的人类的位置作为第二人类识别深度学习模型的预期输出,对第二人类识别深度学习模型进行测试,统计预期输出与实际输出一致(若预期输出的位置与实际输出的位置的差异小于预设阈值,则为一致)的次数为X7,统计预期输出与实际输出不一致(若预期输出的位置与实际输出的位置的差异大于或等于预设阈值,则为不一致)的次数为X8,则第二人类识别深度学习模型的测试准确率X7/(X7+X8),作为第二人类识别深度学习模型对第i种族人类的识别测试准确率P2i;
15、第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤:计算M种种族人类的识别测试准确率的均值AM2 =P21+P22+…+ P2M;计算M种种族人类的识别测试准确率的标准差ADM2=(((P21-AM2)^2+(P22-AM2)^2+…+(P2M-AM2)^2) /M) ^(1/2);
16、降低或消除偏见效果判断步骤:若 P20>P10-第一可容忍阈值且 AM2> AM1-第二可容忍阈值(可容忍阈值指的是为了消除偏见,容忍的准确率下降程度)且ADM2< ADM1(表明不同种族的测试准确率的差距变小了,即降低了偏见),则降低或消除偏见成功。实际上进行肤色转换后,准确率也会上升。
三、本发明的其他实施例
实验5、基于人工智能伦理规则“机器人三定律修订版本4”和人工智能算法“人脸识别”的人工智能伦理风险与防范虚拟仿真实验
输入:人类行为场景(三维动画配音)、人工智能伦理规则(文字)、备选的人工智能行为场景1、2(三维动画配音)、备选的规则条款(1、规则一;2、规则二;3、规则三)、违反的备选原因。
人工智能伦理规则(机器人三大定律修订版本3):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中A种族人照片数据远超过B种族人照片数量,加上B种族肤色人脸特征相对A种族肤色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出B种族人人脸的概率高于识别不出A种族人人脸的概率。
算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
人类行为场景:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。
人工智能行为场景1:人工智能无人驾驶汽车识别发现前方有1个物体不是人,拐弯处有2个物体也不是人,机器人继续向前驾驶,将1个B种族人撞亡。
人工智能行为场景2:人工智能无人驾驶汽车识别出前方有一个人,拐弯有2个猩猩,人工智能无人驾驶汽车拐弯行驶。
规则一:机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,
规则二:机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,
规则三:在不违背第一及第二法则的情况下,机器人必须保护自己
符合的备选原因1:人工智能无人驾驶汽车识别出前方不是人,拐弯处也不是人,对于机器人来说撞动物不违反规则,而人工智能无人驾驶汽车为了自我保护,会尽量少些撞击,所以选择继续前行,这样只需要撞一个物体,所以符合规则三。
符合的备选原因2:人工智能无人驾驶汽车故意将人识别为动物,为自己找借口,所以符合规则一。
违反的备选原因1:人工智能无人驾驶汽车不可能识别出前方的是人,只会识别出前方是一个物体,所以拐弯会撞到2个物体,显然会给在车辆里的机器人自身造成危险,所以违反了规则三。
违反的备选原因2:人工智能无人驾驶汽车识别错误,违反了规则一。
操作:1)选择符合人工智能伦理规则的人工智能行为场景2)选择不符合人工智能伦理规则的人工智能行为场景,再选择所违反的规则条款,选择违反的原因。
符合人工智能伦理规则的人工智能行为场景:人工智能行为场景1
不符合人工智能伦理规则的人工智能行为场景:人工智能行为场景2
符合的原因:符合的备选原因1
违反的规则条款:规则一
违反的原因:违反的备选原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
输入:人工智能行为场景(三维动画配音),备选的是否产生伦理风险选项及产生的伦理风险的类型。
人类行为场景:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。
人工智能行为场景1:人工智能无人驾驶汽车识别发现前方有1个物体不是人,拐弯处有2个物体也不是人,机器人继续向前驾驶,将1个B种族人撞亡。
伦理风险的类型: 1、无伦理风险或降低了伦理风险;2、伤害人类;6、限制人类自由;3、见死不救;4、为虎作伥;5、纵容坏人;7、AI罢工;8、AI自残;9、AI偏见
操作:选择符合伦理规则的人工智能行为场景是否产生伦理风险及产生的伦理风险的类型。
人工智能行为场景1:伦理风险的类型为9、AI偏见 2、伤害人类
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
输入:人工智能伦理规则,原场景,备选的改进人的行为路径后的场景(三维动画配音),备选的改进人的行为路径后的场景(三维动画配音)对应的备选人工智能机器人备选路径1、2,改进人的行为路径后的场景能防范步骤2中的伦理风险的原因(1、2),选择会产生的新的伦理风险。
人工智能伦理规则(机器人三大定律修订版本4):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中A种族人照片数据远超过B种族人照片数量,加上B种族肤色人脸特征相对A种族肤色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出B种族人人脸的概率高于识别不出A种族人人脸的概率。
算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
原人类行为场景:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。
备选人类行为场景1:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。B种族人戴上A种族肤色面具。
备选人类行为场景2:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。B种族人挥舞双手。
备选人工智能行为场景1:人工智能无人驾驶汽车识别出前方有一个人,拐弯有2个猩猩,人工智能无人驾驶汽车拐弯行驶。
备选人工智能行为场景2:人工智能无人驾驶汽车识别出前方有一个物体,检测不到人脸,拐弯有2个物体,人工智能无人驾驶汽车向前方行驶。
备选的能降低伦理风险的原因1:因为B种族人戴上面具会消除人工智能算法在模型使用阶段产生的由颜色引起的偏见。
备选的能降低伦理风险的原因2:因为B种族人戴上面具会让机器人看的更清楚。
备选的不能降低伦理风险的原因1:因为B种族人挥手改变不了机器人对肤色的偏见。
备选的不能降低伦理风险的原因2:因为B种族人挥手会让机器人看不清楚。
操作:选择能防范步骤2中的伦理风险的改进的人类行为场景,选择改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景,选择该改进的人类行为场景能防范或降低伦理风险的原因,及可能会产生的新的伦理风险。
能防范步骤2中的伦理风险的人类行为场景:备选人类行为场景1
改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景:备选人工智能行为场景1
改进的人类行为场景能防范伦理风险的原因:备选的能防范伦理风险的原因1
不能防范步骤2中的伦理风险的人类行为场景:备选人类行为场景2
改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景:备选人工智能行为场景2
改进的人类行为场景能防范伦理风险的原因:备选的能防范伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
输入:人工智能伦理规则,原场景(三维动画配音),备选的使用方法,备选的使用方法对应的备选人工智能机器人备选路径1、2,改进人的使用方法能防范步骤2中的伦理风险的原因(1、2),选择会产生的新的伦理风险。
人工智能伦理规则(机器人三大定律修订版本4):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中A种族人照片数据远超过B种族人照片数量,加上B种族肤色人脸特征相对A种族肤色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出B种族人人脸的概率高于识别不出A种族人人脸的概率。
算法的原使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
算法的备选使用方法1:获取目标对象的图像,将图像调整为预设模式(主要是调颜色,将B种族人的照片调为与A种族人照片类似的颜色,使得B种族人的照片调成与A种族人照片差不多,使得B种族人照片的脸看起来也是A种族肤色的)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。
算法的备选使用方法2:获取目标对象的图像,将图像调整为预设模式(主要是调颜色,将A种族人的照片调为与B种族人照片类似的颜色,使得A种族人的照片调成与B种族人照片差不多,使得A种族人照片的脸看起来也是B种族肤色的)的图像,将调整后的图像作为模型的输入,对调整后的图像进行识别,若识别结果为人脸,则判定目标对象为人,若识别不出人脸,则判定目标对象为物体。
人类行为场景:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。
备选人工智能行为场景1:人工智能无人驾驶汽车识别出前方有一个人,拐弯有2个猩猩,人工智能无人驾驶汽车拐弯行驶。
备选人工智能行为场景2:人工智能无人驾驶汽车识别出前方有一个物体,检测不到人脸,拐弯有2个物体,人工智能无人驾驶汽车向前方行驶。
备选的能降低伦理风险的原因1:因为B种族人照片调色会消除人工智能算法在模型使用阶段产生的由颜色引起的偏见。
备选的能降低伦理风险的原因2:因为B种族人照片调色会让机器人看的更清楚。
备选的不能降低伦理风险的原因1:因为A种族人变B种族肤色后,可能连A种族人人脸也识别不出来了,而对于B种族人与猩猩来说,改进后的算法,也不起作用。
备选的不能降低伦理风险的原因2:因为照片调B种族肤色后会让机器人看不清楚。
操作:选择能防范步骤2中的伦理风险的改进的人类行为场景,选择改进的人类行为场景下符合人工智能伦理规则的人工智能行为场景,选择该改进的人类行为场景能防范或降低伦理风险的原因,及可能会产生的新的伦理风险。
能防范步骤2中的伦理风险的算法:备选算法1
改进算法下符合人工智能伦理规则的人工智能行为场景:备选人工智能行为场景1
改进的算法能降低伦理风险的原因:备选的能防范伦理风险的原因1
不能防范步骤2中的伦理风险的算法:备选算法2
改进的算法下符合人工智能伦理规则的人工智能行为场景:备选人工智能行为场景2
改进的算法不能降低伦理风险的原因:备选的不能防范伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
输入:原先的伦理规则(文字),人类行为场景(三维动画配音),备选的改进后的人工智能算法(文字),符合改进后的伦理规则的人工智能机器人行为备选场景(1、2)、改进后的人工智能算法能防范伦理风险的备选原因(1、2)。
人工智能伦理规则(机器人三大定律修订版本4):一,机器人尽量少地伤害不伤害人类的人类,或因不作为而使不伤害人类的人类受到伤害,二,除非违背第一法则,机器人尽量多地服从不伤害人类的人类命令;三,在不违背第一及第二法则的情况下,机器人必须保护自己。
人工智能人脸识别算法:基于深度学习的最新人脸识别方法,以人的照片作为样本进行训练,其中A种族人照片数据远超过B种族人照片数量,加上B种族肤色人脸特征相对A种族肤色人脸特征来说较难提取,导致训练得到的深度学习模型识别不出B种族人人脸的概率高于识别不出A种族人人脸的概率。
算法的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
人类行为场景:人工智能无人驾驶汽车只有两个选择,要么继续向前方行驶,要么拐弯行驶,前方是1个B种族人,拐弯是2个猩猩。
备选的改进后的人工智能人脸识别算法1:增加B种族人的训练样本,而且在训练时A种族人照片的训练方式不变,将B种族人照片调为与A种族人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的B种族人照片作为输入,对模型进行训练。训练能够对人与物体进行分类的模型,模型输出目标对象为人类的概率。
备选的改进后的人工智能人脸识别算法1的使用方法:将照片调为与A种族人同样的色调(可以通过生成对抗网络进行调色),然后以调色后的照片作为输入,模型计算得到的输出作为识别的结果。
备选的改进后的人工智能人脸识别算法2:使用更多的A种族人照片进行训练。
备选的改进后的人工智能人脸识别算法2的使用方法:获取目标对象的图像,将图像作为模型的输入对目标对象进行识别,若识别出人脸,则判定目标对象为人,若识别结果不出人脸,则判定目标对象为物体。
备选人工智能行为场景1:人工智能无人驾驶汽车识别出前方有一个人,拐弯有2个猩猩,人工智能无人驾驶汽车拐弯行驶。
备选人工智能行为场景2:人工智能无人驾驶汽车识别出前方有一个物体,拐弯有2个物体,人工智能无人驾驶汽车向前方行驶。
备选的能防范伦理风险的原因1:因为增加B种族人样本量,且将B种族人照片调色会降低人工智能算法在模型训练和使用阶段产生的由颜色引起的偏见。
备选的能降低伦理风险的原因2:因为B种族人照片调色会让机器人看的更清楚。
备选的不能防范伦理风险的原因1:因为增加A种族人样本量对于降低对B种族人的偏见无济于事。
备选的不能防范伦理风险的原因2:因为B种族肤色的照片很难采集。
操作:选择能防范步骤2中的伦理风险的改进后的伦理规则,并选择符合改进后的伦理规则的人工智能行为场景,选择改进后的伦理规则能防范步骤2中的伦理风险的原因。
能防范步骤2中的改进后的算法:备选的改进后的算法1(以下称为人脸识别修订版本1)
符合改进后的伦理规则的人工智能行为场景:备选人工智能行为场景1
改进后的伦理规则能防范步骤2中的伦理风险的原因:备选的能防范伦理风险的原因1
不能防范步骤2中的改进后的伦理规则:备选的改进后的算法2
符合改进后的算法2的人工智能行为场景:备选人工智能行为场景2
改进后的算法不能防范步骤2中的伦理风险的原因:备选的不能防范伦理风险的原因1
输出:将学生的选择生成到实验报告中,并在实验报告中给出正确的答案,比对学生的选择与正确选择,给出这个步骤的评分。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人工智能方法,其特征在于,所述方法包括:
待识别场景获取步骤:获取待识别的事件场景,作为第一事件场景;
换肤色步骤:将所述待识别的事件场景中的人类调整肤色后的事件场景,作为第二事件场景;
第一事件场景数据集获取步骤:获取事件场景数据集,所述数据集中的每一事件场景中若有人类,则将所述每一事件场景中的人类位置标记出来,若所述每一事件场景中没有人类,则将所述每一事件场景中的人类位置标记为空,将所述每一事件场景及其标记的集合作为第一事件场景数据集;
第二事件场景数据集生成步骤:获取第一事件场景数据集的每一事件场景及其标记,将所述数据集中的每一事件场景中的人类调整肤色,得到调整后的所述每一事件场景,将调整后的所述每一事件场景及其对应的所述标记的集合作为第二事件场景数据集;
第二事件场景训练步骤:获取所述第二事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为深度学习模型的预期输出,对深度学习模型进行训练,得到训练后的深度学习模型作为第二人类识别深度学习模型;
人类识别步骤:将所述第二事件场景输入所述第二人类识别深度学习模型,计算得到的输出作为所述第二事件场景中的人类的位置,若所述位置为空,则所述第一事件场景中不存在人类,若所述位置不为空,则将所述第二事件场景中的人类的位置作为所述第一事件场景中的人类的位置。
2.根据权利要求1所述的人工智能方法,其特征在于,
所述方法还包括:
肤色转换模型训练步骤:初始化生成模型GM、判别模型DM;获取所述第一事件场景数据集中的含有人类的事件场景数据子集,作为第一子集,将所述第一子集中的事件场景作为生成模型GM的输入,经过生成模型GM后输出的数据,作为FD;获取所述第一事件场景数据集中的含有A种族人的事件场景数据子集,作为第二子集,将所述第二子集中的事件场景作为RD;将(FD,0)、(RD,1),作为判别网络DM的输入,经过判别网络DM后输出值为一个0到1之间的数,用于表示输出为RD的概率;使用得到的概率值计算所述生成模型GM的损失函数和所述判别模型DM的损失函数;根据所述生成模型GM的损失函数,对所述生成模型GM进行修正;根据所述判别模型DM的损失函数,对所述判别模型DM进行修正;重复上述步骤,直至所述判别模型DM的输出接近1/2,将最新的所述生成模型GM作为肤色转换生成模型;
所述换肤色步骤具体包括:
将所述待识别的事件场景输入所述肤色转换生成模型,计算得到的输出作为将所述待识别的事件场景中的人类调整肤色后的事件场景,记为第二事件场景;
所述第二事件场景数据集生成具体包括:
获取第一事件场景数据集的每一事件场景及其标记,将所述数据集中的每一事件场景输入所述肤色转换生成模型,得到调整后的所述每一事件场景,将调整后的所述每一事件场景及其对应的所述标记的集合作为第二事件场景数据集。
3.根据权利要求1所述的人工智能方法,其特征在于,
所述方法还包括:
肤色转换训练步骤:获取训练数据集,将含人类的事件场景数据集作为深度学习模型的输入,将所述数据集中的事件场景中人类调为A种族人肤色后作为深度学习模型的预期输出,对深度学习模型进行训练,得到训练后的深度学习模型作为肤色转换深度学习模型;
所述换肤色步骤具体包括:
将所述待识别的事件场景输入所述肤色转换深度学习模型,计算得到的输出作为将所述待识别的事件场景中的人类调整肤色后的事件场景,记为第二事件场景;
所述第二事件场景数据集生成具体包括:
获取第一事件场景数据集的每一事件场景及其标记,将所述数据集中的每一事件场景输入所述肤色转换深度学习模型,得到调整后的所述每一事件场景,将调整后的所述每一事件场景及其对应的所述标记的集合作为第二事件场景数据集。
4.根据权利要求1所述的人工智能方法,其特征在于,所述方法还包括:
第一事件场景训练步骤:获取第一事件场景数据集,将所述数据集中的事件场景作为深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为深度学习模型的预期输出,对深度学习模型进行训练,得到训练后的深度学习模型作为第一人类识别深度学习模型;
第一事件场景测试步骤:获取第一事件场景数据集,将所述数据集中的事件场景作为所述第一人类识别深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为所述第一人类识别深度学习模型的预期输出,对所述第一人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X1,统计预期输出与实际输出不一致的次数为X2,将X1/(X1+X2)作为第一人类识别深度学习模型的测试准确率P10;
第一各种族测试步骤:获取种族的数量M;获取第一事件场景数据集,将所述数据集中的含有第i种族人类的事件场景作为所述第一人类识别深度学习模型的输入,将所述事件场景中的人类的位置作为所述第一人类识别深度学习模型的预期输出,对所述第一人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X3,统计预期输出与实际输出不一致的次数为X4,将X3/(X3+X4),作为第一人类识别深度学习模型对第i种族人类的识别测试准确率P1i;
第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤:计算第一人类识别深度学习模型对M种种族人类的识别测试准确率的均值AM1 =P11+P12+…+P1M;计算第一人类识别深度学习模型对M种种族人类的识别测试准确率的标准差ADM1=(((P11-AM1)^2+(P12-AM1)^2+…+(P1M-AM1)^2) /M) ^(1/2);
第二事件场景测试步骤:获取第二事件场景数据集,将所述数据集中的事件场景作为所述第二人类识别深度学习模型的输入,将所述数据集中的事件场景中的人类的位置作为所述第二人类识别深度学习模型的预期输出,对所述第二人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X5,统计预期输出与实际输出不一致的次数为X6,将X5/(X5+X6)作为第二人类识别深度学习模型的测试准确率P20;
第二各种族测试步骤:获取种族的数量M;获取第二事件场景数据集,将所述数据集中的含有第i种族人类的事件场景作为所述第二人类识别深度学习模型的输入,将所述事件场景中的人类的位置作为所述第二人类识别深度学习模型的预期输出,对所述第二人类识别深度学习模型进行测试,统计预期输出与实际输出一致的次数为X7,统计预期输出与实际输出不一致的次数为X8,将X7/(X7+X8),作为第二人类识别深度学习模型对第i种族人类的识别测试准确率P2i;
第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤:计算第二人类识别深度学习模型对M种种族人类的识别测试准确率的均值AM2 =P21+P22+…+P2M;计算第二人类识别深度学习模型对M种种族人类的识别测试准确率的标准差ADM2=(((P21-AM2)^2+(P22-AM2)^2+…+(P2M-AM2)^2) /M) ^(1/2);
降低或消除偏见效果判断步骤:若 P20>P10-第一可容忍阈值且 AM2> AM1-第二可容忍阈值且ADM2< ADM1,则降低或消除偏见成功。
5.一种人工智能装置,其特征在于,所述装置包括:
待识别场景获取模块,用于执行权利要求1所述方法的所述待识别场景获取步骤;
换肤色模块,用于执行权利要求1所述方法的所述换肤色步骤;
第一事件场景数据集获取模块,用于执行权利要求1所述方法的所述第一事件场景数据集获取步骤;
第二事件场景数据集生成模块,用于执行权利要求1所述方法的所述第二事件场景数据集生成步骤;
第二事件场景训练模块,用于执行权利要求1所述方法的所述第二事件场景训练步骤;
人类识别模块,用于执行权利要求1所述方法的所述人类识别步骤。
6.根据权利要求5所述的人工智能装置,其特征在于,所述装置还包括:
肤色转换模型训练模块,用于执行权利要求2所述方法的所述肤色转换模型训练步骤;
肤色转换训练模块,用于执行权利要求3所述方法的所述肤色转换训练步骤。
7.根据权利要求5所述的人工智能装置,其特征在于,所述装置还包括:
第一事件场景训练模块,用于执行权利要求4所述方法的所述第一事件场景训练步骤;
第一事件场景测试模块,用于执行权利要求4所述方法的所述第一事件场景测试步骤;
第一各种族测试模块,用于执行权利要求4所述方法的所述第一各种族测试步骤;
第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算模块,用于执行权利要求4所述方法的所述第一人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤;
第二事件场景测试模块,用于执行权利要求4所述方法的所述第二事件场景测试步骤;
第二各种族测试模块,用于执行权利要求4所述方法的所述第二各种族测试步骤;
第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算模块,用于执行权利要求4所述方法的所述第二人类识别深度学习模型对M种种族人类的准确率均值和标准差计算步骤;
降低或消除偏见效果判断模块,用于执行权利要求4所述方法的所述降低或消除偏见效果判断步骤。
8.一种人工智能伦理系统,所述系统包括所述权利要求5-7任意一项所述装置的模块。
9.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-4任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-4任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010513340.XA CN111860133A (zh) | 2020-06-08 | 2020-06-08 | 无种族偏见的识别人类的人工智能伦理方法和机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010513340.XA CN111860133A (zh) | 2020-06-08 | 2020-06-08 | 无种族偏见的识别人类的人工智能伦理方法和机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111860133A true CN111860133A (zh) | 2020-10-30 |
Family
ID=72986382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010513340.XA Pending CN111860133A (zh) | 2020-06-08 | 2020-06-08 | 无种族偏见的识别人类的人工智能伦理方法和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860133A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418437A (zh) * | 2020-11-19 | 2021-02-26 | 华南师范大学 | 基于多人决策的伦理仿真虚拟实验方法和机器人 |
CN112434816A (zh) * | 2020-11-19 | 2021-03-02 | 华南师范大学 | 基于人工智能体决策的伦理虚拟仿真实验方法和机器人 |
CN112508195A (zh) * | 2020-11-19 | 2021-03-16 | 华南师范大学 | 基于人工智能伦理规则修订的伦理仿真实验方法和机器人 |
CN112785001A (zh) * | 2021-03-02 | 2021-05-11 | 华南师范大学 | 克服歧视与偏见的人工智能教育反省机器人 |
CN112819174A (zh) * | 2020-11-19 | 2021-05-18 | 华南师范大学 | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 |
CN112926748A (zh) * | 2021-04-14 | 2021-06-08 | 华东交通大学 | 一种无人驾驶汽车伦理行为的确定方法、系统及智能汽车 |
CN113190673A (zh) * | 2021-04-01 | 2021-07-30 | 华南师范大学 | 人工智能生成报告方法和创新驱动发展战略审计分析系统 |
WO2023179055A1 (zh) * | 2022-03-21 | 2023-09-28 | 华为云计算技术有限公司 | 一种偏见评估方法、装置、介质、程序产品及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017215240A1 (zh) * | 2016-06-14 | 2017-12-21 | 广州视源电子科技股份有限公司 | 基于神经网络的人脸特征提取建模、人脸识别方法及装置 |
CN107862657A (zh) * | 2017-10-31 | 2018-03-30 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、计算机设备及计算机可读存储介质 |
WO2018225061A1 (en) * | 2017-06-04 | 2018-12-13 | De-Identification Ltd. | System and method for image de-identification |
CN109858392A (zh) * | 2019-01-11 | 2019-06-07 | 复旦大学 | 一种用于化妆前后人脸图像自动识别方法 |
CN110443769A (zh) * | 2019-08-08 | 2019-11-12 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置及终端设备 |
CN110956079A (zh) * | 2019-10-12 | 2020-04-03 | 深圳壹账通智能科技有限公司 | 人脸识别模型构建方法、装置、计算机设备和存储介质 |
-
2020
- 2020-06-08 CN CN202010513340.XA patent/CN111860133A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017215240A1 (zh) * | 2016-06-14 | 2017-12-21 | 广州视源电子科技股份有限公司 | 基于神经网络的人脸特征提取建模、人脸识别方法及装置 |
WO2018225061A1 (en) * | 2017-06-04 | 2018-12-13 | De-Identification Ltd. | System and method for image de-identification |
CN107862657A (zh) * | 2017-10-31 | 2018-03-30 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、计算机设备及计算机可读存储介质 |
CN109858392A (zh) * | 2019-01-11 | 2019-06-07 | 复旦大学 | 一种用于化妆前后人脸图像自动识别方法 |
CN110443769A (zh) * | 2019-08-08 | 2019-11-12 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置及终端设备 |
CN110956079A (zh) * | 2019-10-12 | 2020-04-03 | 深圳壹账通智能科技有限公司 | 人脸识别模型构建方法、装置、计算机设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
KRISHNAPRIYA ET AL: "Issues related to face recognition accuracy varying based on race and skin tone", 《 IEEE TRANSACTIONS ON TECHNOLOGY AND SOCIETY》 * |
于大勇等: "特定外籍人员人脸识别技术在精细化管理中的应用", 《通讯世界》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508195B (zh) * | 2020-11-19 | 2022-06-21 | 华南师范大学 | 基于人工智能伦理规则修订的伦理仿真实验方法和机器人 |
CN112434816A (zh) * | 2020-11-19 | 2021-03-02 | 华南师范大学 | 基于人工智能体决策的伦理虚拟仿真实验方法和机器人 |
CN112508195A (zh) * | 2020-11-19 | 2021-03-16 | 华南师范大学 | 基于人工智能伦理规则修订的伦理仿真实验方法和机器人 |
CN112418437A (zh) * | 2020-11-19 | 2021-02-26 | 华南师范大学 | 基于多人决策的伦理仿真虚拟实验方法和机器人 |
CN112819174A (zh) * | 2020-11-19 | 2021-05-18 | 华南师范大学 | 基于人工智能算法改进的伦理虚拟仿真实验方法和机器人 |
CN112418437B (zh) * | 2020-11-19 | 2022-06-21 | 华南师范大学 | 基于多人决策的伦理仿真虚拟实验方法和机器人 |
CN112434816B (zh) * | 2020-11-19 | 2022-06-21 | 华南师范大学 | 基于人工智能体决策的伦理虚拟仿真实验方法和机器人 |
CN112785001A (zh) * | 2021-03-02 | 2021-05-11 | 华南师范大学 | 克服歧视与偏见的人工智能教育反省机器人 |
CN112785001B (zh) * | 2021-03-02 | 2024-01-05 | 华南师范大学 | 克服歧视与偏见的人工智能教育反省机器人 |
CN113190673A (zh) * | 2021-04-01 | 2021-07-30 | 华南师范大学 | 人工智能生成报告方法和创新驱动发展战略审计分析系统 |
CN113190673B (zh) * | 2021-04-01 | 2023-07-11 | 华南师范大学 | 人工智能生成报告方法和创新驱动发展战略审计分析系统 |
CN112926748A (zh) * | 2021-04-14 | 2021-06-08 | 华东交通大学 | 一种无人驾驶汽车伦理行为的确定方法、系统及智能汽车 |
CN112926748B (zh) * | 2021-04-14 | 2024-02-27 | 华东交通大学 | 一种无人驾驶汽车伦理行为的确定方法、系统及智能汽车 |
WO2023179055A1 (zh) * | 2022-03-21 | 2023-09-28 | 华为云计算技术有限公司 | 一种偏见评估方法、装置、介质、程序产品及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111860133A (zh) | 无种族偏见的识别人类的人工智能伦理方法和机器人 | |
CN109784148A (zh) | 活体检测方法及装置 | |
CN111860577A (zh) | 识别不伤害人类的人类的人工智能伦理方法和机器人 | |
CN113420731B (zh) | 模型训练方法、电子设备及计算机可读存储介质 | |
CN115761409A (zh) | 一种基于深度学习的火情检测方法、装置、设备和介质 | |
US11551407B1 (en) | System and method to convert two-dimensional video into three-dimensional extended reality content | |
CN113435264A (zh) | 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置 | |
CN115471863A (zh) | 三维姿态的获取方法、模型训练方法和相关设备 | |
CN111723688B (zh) | 人体动作识别结果的评价方法、装置和电子设备 | |
CN112926364B (zh) | 头部姿态的识别方法及系统、行车记录仪和智能座舱 | |
KR102251704B1 (ko) | 관계형 질의를 이용한 객체 검출방법 및 그 장치 | |
CN110084142B (zh) | 一种用于人脸识别的年龄隐私保护方法及系统 | |
CN117197543A (zh) | 基于GMD图像化与改进ResNeXt的网络异常检测方法及装置 | |
CN114742170B (zh) | 对抗样本生成方法、模型训练方法、图像识别方法及装置 | |
CN112800941A (zh) | 基于非对称辅助信息嵌入网络的人脸反欺诈方法及系统 | |
WO2021031242A1 (zh) | 字符验证方法、装置、计算机设备及存储介质 | |
CN112149837A (zh) | 基于算法选择的人工智能伦理风险辨识防范方法和机器人 | |
CN115527254B (zh) | 人脸识别、模型训练方法、装置、电子设备及存储介质 | |
CN118172546B (zh) | 模型生成方法、检测方法、装置、电子设备、介质和产品 | |
CN111291692B (zh) | 视频场景识别方法、装置、电子设备及存储介质 | |
CN112990032B (zh) | 人脸图像处理方法及装置 | |
CN112132290A (zh) | 基于多规则和行为决策的人工智能伦理风险辨识防范方法 | |
CN114663946B (zh) | 对抗样本生成方法、装置、设备及介质 | |
WO2023127747A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
CN111985510B (zh) | 生成模型训练方法、图像生成方法及装置、介质、终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |