CN112487973B - 用户图像识别模型的更新方法和装置 - Google Patents
用户图像识别模型的更新方法和装置 Download PDFInfo
- Publication number
- CN112487973B CN112487973B CN202011371250.8A CN202011371250A CN112487973B CN 112487973 B CN112487973 B CN 112487973B CN 202011371250 A CN202011371250 A CN 202011371250A CN 112487973 B CN112487973 B CN 112487973B
- Authority
- CN
- China
- Prior art keywords
- user image
- user
- image data
- correction information
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012937 correction Methods 0.000 claims abstract description 183
- 230000004044 response Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 17
- 230000000694 effects Effects 0.000 abstract description 10
- 238000012549 training Methods 0.000 abstract description 4
- 238000013475 authorization Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 210000003414 extremity Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000013499 data model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/50—Maintenance of biometric data or enrolment thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了用户图像识别模型的更新方法和装置,涉及模型训练领域,本公开的实施例提供的用户图像识别模型的更新方法,通过获取至少一目标用户的用户图像数据,将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果;响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息;基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。该方式有效提升了用户图像识别模型的识别效果。
Description
技术领域
本申请涉及计算机技术领域,具体涉及模型训练技术领域,尤其涉及一种用户图像识别模型的更新方法和装置。
背景技术
目前车内图像识别效果往往因为光照、遮挡物、角度、或不经意间的动作导致识别效果不好或者容易产生误检测。
当前解决方式主要包括两种:(1)根据用户模糊反馈的车内状况和用户的身体体貌特征,例如:是否长发、头发颜色、身高、周围环境等,在实车上进行模拟测试并采集数据。(2)无差别一直采集数据,并对这些数据进行分析。
发明内容
本申请实施例提供了一种用户图像识别模型的更新方法、装置、设备以及存储介质。
第一方面,本申请实施例提供了一种用户图像识别模型的更新方法,该方法包括:获取至少一目标用户的用户图像数据;将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,用户图像识别模型用于对用户图像数据进行识别;响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,修正信息用于指示错误识别结果所对应用户图像数据的正确识别结果;基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在一些实施例中,基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,包括:响应于获取到包含指定信息的更新指令,指定信息用于反映用户选中的修正信息,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新。
在一些实施例中,指定信息包括用户选中的修正信息所属的类别信息,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新,包括:基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对所述用户图像识别模型进行更新。
在一些实施例中,指定信息包括用户选中的修正信息所对应的目标用户标识,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新,包括:基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在一些实施例中,指定信息包括用户选中的修正信息所对应的目标用户标识以及用户选中的修正信息所属的类别信息,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在一些实施例中,获取至少一目标用户的用户图像数据,包括:响应于获取到目标用户的授权,获取至少一目标用户的用户图像数据。
在一些实施例中,基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,包括:响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于所述错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新。
第二方面,本申请实施例提供了一种用户图像识别模型的更新装置,该装置包括:获取模块,被配置成获取至少一目标用户的用户图像数据;识别模块,被配置成将所述用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,所述用户图像识别模型用于对所述用户图像数据进行识别;修正模块,被配置成响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,修正信息用于指示错误识别结果所对应用户图像数据的正确识别结果;更新模块,被配置成基于所述错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在一些实施例中,更新模块进一步被配置成:响应于获取到包含指定信息的更新指令,所述指定信息用于反映用户选中的修正信息,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新。
在一些实施例中,指定信息包括用户选中的修正信息所属的类别信息,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在一些实施例中,指定信息包括用户选中的修正信息所对应的目标用户标识,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在一些实施例中,指定信息包括用户选中的修正信息所对应的目标用户标识以及用户选中的修正信息所属的类别信息,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在一些实施例中,获取模块进一步被配置成:响应于获取到目标用户的授权,获取至少一目标用户的用户图像数据。
在一些实施例中,更新模块进一步被配置成:响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于所述错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被该一个或多个处理器执行,使得一个或多个处理器实现如第一方面的任一实施例的用户图像识别模型的更新方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面的任一实施例的用户图像识别模型的更新方法。
本申请通过获取至少一目标用户的用户图像数据;将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,用户图像识别模型用于对用户图像数据进行识别;响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,修正信息用于指示错误识别结果所对应用户图像数据的正确识别结果;基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型,实现了基于当前用户图像识别模型对用户图像数据识别错误的用户图像数据对当前用户图像识别模型进行更新,可有效提升更新后的用户图像识别模型的识别效果。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其他特征将通过以下的说明书而变得容易理解。
附图说明
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用户图像识别模型的更新方法的一个实施例的流程图;
图3是根据本申请的用户图像识别模型的更新方法的一个应用场景的示意图;
图4是根据本申请的用户图像识别模型的更新方法的又一个实施例的流程图;
图5是根据本申请的用户图像识别模型的更新装置的一个实施例的示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用户图像识别模型的更新方法的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如,图像处理类应用、图像识别类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于手机和笔记本电脑。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供用户图像识别模型的更新服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如,获取终端设备101、102、103发送的至少一目标用户的用户图像数据;将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果;响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,基于所述错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供用户图像识别模型的更新服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要指出的是,本公开的实施例所提供的用户图像识别模型的更新方法可以由服务器105执行,也可以由终端设备101、102、103执行,还可以由服务器105和终端设备101、102、103彼此配合执行。相应地,用户图像识别模型的更新装置包括的各个部分(例如各个单元、子单元、模块、子模块)可以全部设置于服务器105中,也可以全部设置于终端设备101、102、103中,还可以分别设置于服务器105和终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示出了用户图像识别模型的更新方法的实施例的流程示意图200。用户图像识别模型的更新方法包括以下步骤:
步骤201,获取至少一目标用户的用户图像数据。
在本实施例中,执行主体(例如,图1中的服务器105或终端设备101、102、103)可以直接采集一个或多个目标用户的用户图像数据,也可以接收一个或多个目标用户通过有线或无线方式上传的用户图像数据。这里,目标用户主要用于指示处于车内环境下的用户。用户图像数据不局限于用户的人脸图像、用户的身体部位图像、用户的手势图像、用户的行为图像。
具体地,执行主体可以通过车内的图像采集装置获取车A内目标用户A1的用户图像数据,车B内目标用户B1的用户图像数据,以及车C内目标用户C1的用户图像数据。
这里,用户图像数据可以是在目标用户授权的条件下采集的用户图像数据,也可以是未经用户授权下无差别采集的用户图像数据,本申请对此不作限定。
在一些可选的方式中,获取至少一目标用户的用户图像数据,包括:响应于获取到目标用户的授权,获取至少一目标用户的用户图像数据。
在本实现方式中,执行主体在获取到目标用户授权后,才可以控制车内的图像采集设备采集目标用户的用户图像数据。
其中,执行主体获取用户授权的方式可以包括多种,例如,接收到目标用户输入的同意进行图像采集的指令,响应于检测到用户启动进行图像采集的装置等等。
具体地,车A具有语音识别功能,用户进入车A内,发出“启动”指令,执行主体响应于接收到用户的启动指令,即获取到用户授权,控制打开图像采集装置获取用户图像数据。
该实现方式通过响应于获取到目标用户的授权,获取至少一目标用户的用户图像数据,可有效避免在未经目标用户授权的无差别采集图像造成的用户图像数据有效性较差的问题,并且可有针对性地获取特定场景下的用户图像数据,同时保护了用户隐私。
步骤202,将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果。
在本实施例中,执行主体可以将获取的用户图像数据分别输入预先训练完成的用户图像识别模型以获取相应的识别结果。其中,用户图像识别模型主要用于对用户图像数据中所包含的用户相关信息进行识别,例如,识别用户的身份信息、识别用户的手势等等。用户图像识别模型可以基于大量的标注有识别结果的用户图像数据训练得到。
这里,执行主体可以将用户图像识别模型部署在线上,具体地,执行主体可将该用户图像识别模型部署在云端服务器。
需要指出的是,用户图像识别模型可以采用现有技术或未来发展技术中的神经网络模型,例如,卷积神经网络模型、深度神经网络模型、循环神经网络模型等,本申请对此不作限定。
步骤203,响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息。
在本实施例中,执行主体将获取的用户图像数据输入到用户图像识别模型,并获取到用户图像数据的识别结果之后,可以将用户图像数据及所对应的识别结果进行展示,以接收人工输入的判断结果,执行主体进而基于人工输入的判断结果,确定识别结果是否为错误识别结果;也可以将识别结果与预设识别结果进行匹配,以确定识别结果是否为错误识别结果,本申请对此不作限定。
若识别结果为错误识别结果则进一步获取错误识别结果的修正信息。这里,修正信息用于指示错误识别结果所对应用户图像数据的正确识别结果。
执行主体在获取到错误识别结果的修正信息后,可以将错误识别结果所对应的用户图像数据及修正信息进行存储。
具体地,执行主体获取到一目标用户的用户图像数据,用户图像数据所包含的用户相关信息为用户大拇指朝上的点赞手势,即该用户图像数据的识别结果为大拇指朝上的点赞手势。执行主体将该用户图像数据输入至预先训练的用户图像识别模型得到的识别结果为大拇指朝下的不认同手势。执行主体将该用户图像数据及识别结果进行展示,响应于接收到人工输入的识别结果为错误识别结果的信息以及错误识别结果的修正信息(大拇指朝上的点赞手势),确定识别结果为错误识别结果,并将用户图像数据及修正信息进行存储。
步骤204,基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在本实施例中,执行主体可以将错误识别结果所对应的用户图像数据及修正信息作为训练样本对用户图像识别模型进行更新,得到更新后的图像识别模型。
具体地,执行主体可以将错误识别结果所对应的用户图像数据作为用户图像识别模型的输入,将该用户图像数据所对应的修正信息作为期望输出,对用户图像识别模型进行训练以对用户图像识别模型中的参数进行更新,响应于用户图像识别模型的损失函数满足预设条件,则用户图像识别模型训练完成,得到更新后的用户图像识别模型。
需要指出的是,若存在多条错误识别结果所对应的用户图像数据及修正信息,执行主体可以直接基于多条错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,也可以基于用户选中的部分错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,本申请对此不作限定。
此外,执行主体可以直接根据错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,也可以在错误识别结果所对应的用户图像数据的数量大于等于预设数量阈值时,对用户图像识别模型进行更新,以得到更新后的用户图像识别模型。
在一些可选的方式中,基于错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新,得到更新后的用户图像识别模型,包括:响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在本实现方式中,执行主体可以在错误识别结果所对应的用户图像数据大于等于预设的数量阈值时,例如,1000张、10000张等,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
这里,预设的数量阈值可以根据经验、实际需求和具体的应用场景进行设定,本申请对此不作限定。
该方式通过响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型,有效避免了模型被频繁更新,有效提升了模型更新的有效性。
继续参见图3,图3是根据本实施例的用户图像识别模型的更新方法的应用场景的一个示意图。
在图3的应用场景中,在一个具体的示例中,执行主体301获取车辆302中的目标用户A的用户图像数据303,用户图像数据305为包含目标用户A的人脸的图像,获取车辆304中的目标用户B的用户图像数据305,用户图像数据305为包含目标用户B的人脸的图像,获取车辆306中的目标用户C的用户图像数据307,用户图像数据307为包含目标用户C的人脸的图像,将用户图像数据303、305、307分别输入至预先训练的用户图像识别模型以获取相应的识别结果,其中,用户图像识别模型用于对用户图像数据进行识别,其中,用户图像数据303以及用户图像数据307的识别结果为错误识别结果,即用户图像识别模型无法正确识别用户图像数据303及用户图像数据307,例如,无法识别用户图像数据303及用户图像数据307中的图像是否为人脸,则执行主体可获取用户图像数据303及用户图像数据307所对应的修正信息,并将用户图像数据303及所对应的修正信息,用户图像数据307及所对应的修正信息进行存储。进一步地,执行主体可基于错误识别结果所对应的用户图像数据303及所对应的修正信息,用户图像数据307及所对应的修正信息对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
本公开的实施例提供的用户图像识别模型的更新方法,通过获取至少一目标用户的用户图像数据;将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,所述用户图像识别模型用于对所述用户图像数据进行识别;响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,修正信息用于指示错误识别结果所对应用户图像数据的正确识别结果;基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型,有效提升了用户图像识别模型的识别效果。
进一步参考图4,其示出了用户图像识别模型的更新方法的又一个实施例的流程400。本实施例中,用户图像识别模型的更新方法的流程400,可包括以下步骤:
步骤401,获取至少一目标用户的用户图像数据。
在本实施例中,步骤401与图2对应实施例中的步骤201基本一致,这里不再赘述。
步骤402,将用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果。
在本实施例中,步骤402与图2对应实施例中的步骤202基本一致,这里不再赘述。
步骤403,响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息。
在本实施例中,步骤403与图2对应实施例中的步骤203基本一致,这里不再赘述。
步骤404,响应于获取到包含指定信息的更新指令,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在本实施例中,若执行主体获取到用户输入的包含指定信息的指令,其中,指定信息用于反映用户选中的修正信息,则可以在多条错误识别结果所对应的用户图像数据及修正信息中,确定出与指定信息相匹配的修正信息,并进一步基于确定出的相匹配的修正信息及所对应的用户图像数据对用户图像识别模型进行更新,得到更新后的用户图像数据模型。
具体地,当前共有5条错误识别结果所对应的用户图像数据及修正信息,分别为“用户图像数据1-包含用户四肢的图像”、“用户图像数据2-包含用户上肢的图像”、“用户图像数据3-包含用户四肢的图像”、“用户图像数据4-包含用户四肢的图像”以及“用户图像数据5-包含用户上肢的图像”,若接收到的用户发送的包含指定信息为“包含用户四肢的图像”的更新指令,则基于“用户图像数据1-包含用户四肢的图像”、“用户图像数据3-包含用户四肢的图像”以及“用户图像数据4-包含用户四肢的图像”对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在一些可选的方式中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新,包括:基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在本实现方式中,指定信息包括用户选中的修正信息所属的类别信息,类别信息包括以下至少一项:用户人脸类别、用户手势类别、用户行为类别。执行主体在获取到包含指定信息的指令后,可以在多条错误识别结果所对应的用户图像数据及修正信息中,确定出修正信息所属类别与指定信息中的类别信息相匹配的第一修正信息,并进一步基于确定出的第一修正信息及第一修正信息所对应的用户图像数据对用户图像识别模型进行更新,得到更新后的用户图像数据模型。
具体地,当前共有5条错误识别结果所对应的用户图像数据及修正信息,分别为“用户图像数据1-用户点赞手势”、“用户图像数据2-用户人脸”、“用户图像数据3-用户不赞同手势”、“用户图像数据4-用户点赞手势”以及“用户图像数据5-用户人脸”,若接收到的用户发送的包含指定信息为“用户手势”的更新指令,则可确定“用户图像数据1-用户点赞手势”、“用户图像数据3-用户不赞同手势”、“用户图像数据4-用户点赞手势”为与指定信息相匹配的第一修正信息及所对应的用户图像数据,进而基于第一修正信息及所对应的用户图像数据“用户图像数据1-用户点赞手势”、“用户图像数据3-用户不赞同手势”、“用户图像数据4-用户点赞手势”对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
该实现方式通过基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对用户图像识别模型进行更新,有效提升了更新后的用户图像识别模型对指定类别的用户图像数据的精细化识别效果。
在一些可选的方式中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在本实现方式中,指定信息包括用户选中的修正信息所对应的目标用户标识,执行主体在获取到包含指定信息的指令后,可以在多条错误识别结果所对应的用户图像数据及修正信息中,确定出修正信息所对应的目标用户标识与指定信息中的目标用户标识相匹配的第二修正信息,并进一步基于确定出的第二修正信息及第二修正信息所对应的用户图像数据对用户图像识别模型进行更新,得到更新后的用户图像数据模型。
这里,修正信息所对应的目标用户标识可以包含于修正信息中,也可以基于修正信息所对应的用户图像数据的来源确定,本申请对此不作限定。
具体地,当前共有5条错误识别结果所对应的用户图像数据及修正信息,分别为“用户图像数据1-目标用户A的图像”、“用户图像数据2-目标用户B的图像”、“用户图像数据3-目标用户C的图像”、“用户图像数据4-目标用户A的图像”以及“用户图像数据5-目标用户A的图像”,若接收到的用户发送的包含指定信息为“目标用户A”的更新指令,则可确定“用户图像数据1-目标用户A的图像”、“用户图像数据4-目标用户A的图像”以及“用户图像数据5-目标用户A的图像”为与指定信息相匹配的第二修正信息及所对应的用户图像数据,进而基于第二修正信息及所对应的用户图像数据“用户图像数据3-目标用户A的图像”以及“用户图像数据5-目标用户A的图像”对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
该实现方式通过基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新,有效提升了更新后的用户图像识别模型对特定用户的用户图像数据的精细化识别效果。
在一些可选的方式中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在本实现方式中,指定信息包括用户选中的修正信息所对应的目标用户标识以及用户选中的修正信息所属的类别信息,执行主体在获取到包含指定信息的指令后,可以在多条错误识别结果所对应的用户图像数据及修正信息中,确定出修正信息所对应的目标用户标识及所属的类别与指定信息中的目标用户标识相匹配的第三修正信息,并进一步基于确定出的相匹配的第三修正信息及所对应的用户图像数据对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
具体地,当前共有5条错误识别结果所对应的用户图像数据及修正信息,分别为“用户图像数据1-目标用户A-手势图像”、“用户图像数据2-目标用户B的图像-人脸图像”、“用户图像数据3-目标用户C-手势图像”、“用户图像数据4-目标用户A-人脸图像”以及“用户图像数据5-目标用户A-手势图像”,若接收到的用户发送的包含指定信息为“目标用户A-手势图像”的更新指令,则可确定“用户图像数据1-目标用户A-手势图像”、“用户图像数据5-目标用户A-手势图像”为与指定信息相匹配的第三修正信息及所对应的用户图像数据,进而基于第三修正信息及所对应的用户图像数据“用户图像数据1-目标用户A-手势图像”、“用户图像数据5-目标用户A-手势图像”对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
该实现方式通过基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新,有效提升了更新后的用户图像识别模型对特定用户的特定类别的用户图像数据的精细化识别效果
从图4可以看出与图2对应的实施例相比,本实施例中的用户图像识别模型的更新方法的流程400突出了响应于获取到包含指定信息的更新指令,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新,使得执行主体可以根据用户指定的用户图像数据对用户图像识别模型进行更新,可有针对性地提升更新后的用户图像识别模型对用户图像数据进行识别的精细化程度,进而进一步提升了模型的识别效果。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用户图像识别模型的更新装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用户图像识别模型的更新装置500包括:获取模块501、识别模块502、修正模块503及更新模块504。
其中,获取模块501,可被配置成获取至少一目标用户的用户图像数据。
识别模块502,可被配置成将所述用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,所述用户图像识别模型用于对所述用户图像数据进行识别。
修正模块503,可被配置成响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,修正信息用于指示错误识别结果所对应用户图像数据的正确识别结果。
更新模块504,可被配置成基于错误识别结果所对应的用户图像数据及修正信息,对用户图像识别模型进行更新,得到更新后的用户图像识别模型。
在本实施例的一些可选的方式中,更新模块进一步被配置成:响应于获取到包含指定信息的更新指令,指定信息用于反映用户选中的修正信息,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新。
在本实施例的一些可选的方式中,指定信息包括用户选中的修正信息所属的类别信息,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对所述用户图像识别模型进行更新。
在本实施例的一些可选的方式中,指定信息包括用户选中的修正信息所对应的目标用户标识,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在本实施例的一些可选的方式中,指定信息包括用户选中的修正信息所对应的目标用户标识以及用户选中的修正信息所属的类别信息,以及基于与指定信息相匹配的修正信息及所对应的用户图像数据,对用户图像识别模型进行更新,包括:基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
在本实施例的一些可选的方式中,获取模块进一步被配置成:响应于获取到目标用户的授权,获取至少一目标用户的用户图像数据。
在本实施例的一些可选的方式中,更新模块进一步被配置成:响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于所述错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的用户图像识别模型的更新方法的电子设备的框图。
600是根据本申请实施例的用户图像识别模型的更新方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的用户图像识别模型的更新方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用户图像识别模型的更新方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用户图像识别模型的更新方法对应的程序指令/模块(例如,附图5所示的获取模块501、识别模块502、修正模块503、更新模块504。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用户图像识别模型的更新方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储人脸跟踪的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至车道线检测的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用户图像识别模型的更新方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与车道线检测的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,有效提升了用户图像识别模型的更新效果。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (10)
1.一种用户图像识别模型的更新方法,包括:
响应于确定目标用户进入车内,并且接收到目标用户输入的同意进行图像采集的指令,获取至少一目标用户的用户图像数据;
将所述用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,所述用户图像识别模型用于对所述用户图像数据进行识别;
响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,所述修正信息用于指示所述错误识别结果所对应用户图像数据的正确识别结果;
基于所述错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新,得到更新后的用户图像识别模型,包括:响应于获取到包含指定信息的更新指令,所述指定信息用于反映用户选中的修正信息,包括用户选中的修正信息所对应的目标用户标识以及用户选中的修正信息所属的类别信息,所述类别信息为以下至少一项:用户人脸类别、用户手势类别、用户行为类别,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
2.根据权利要求1所述的方法,其中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:
基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对所述用户图像识别模型进行更新。
3.根据权利要求1所述的方法,其中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:
基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
4.根据权利要求1所述的方法,其中,所述基于所述错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新,包括:
响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于所述错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新。
5.一种用户图像识别模型的更新装置,所述装置包括:
获取模块,被配置成响应于确定目标用户进入车内,并且接收到目标用户输入的同意进行图像采集的指令,获取至少一目标用户的用户图像数据;
识别模块,被配置成将所述用户图像数据分别输入至预先训练的用户图像识别模型以获取相应的识别结果,所述用户图像识别模型用于对所述用户图像数据进行识别;
修正模块,被配置成响应于确定识别结果为错误识别结果,获取该错误识别结果的修正信息,所述修正信息用于指示所述错误识别结果所对应用户图像数据的正确识别结果;
更新模块,被配置成基于所述错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新,得到更新后的用户图像识别模型,包括:响应于获取到包含指定信息的更新指令,所述指定信息用于反映用户选中的修正信息,包括用户选中的修正信息所对应的目标用户标识以及用户选中的修正信息所属的类别信息,所述类别信息为以下至少一项:用户人脸类别、用户手势类别、用户行为类别,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:基于所对应的目标用户标识以及所属的类别与指定信息相匹配的第三修正信息及第三修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
6.根据权利要求5所述的装置,其中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:
基于所属的类别与指定信息相匹配的第一修正信息及第一修正信息所对应的用户图像数据,对所述用户图像识别模型进行更新。
7.根据权利要求5所述装置,其中,基于与指定信息相匹配的修正信息及所对应的用户图像数据,对所述用户图像识别模型进行更新,包括:
基于所对应的目标用户标识与指定信息相匹配的第二修正信息及第二修正信息所对应的用户图像数据,对用户图像识别模型进行更新。
8.根据权利要求5所述的装置,其中,所述更新模块进一步被配置成:
响应于错误识别结果所对应的用户图像数据的数量大于等于预设的数量阈值,基于所述错误识别结果所对应的用户图像数据及修正信息,对所述用户图像识别模型进行更新。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011371250.8A CN112487973B (zh) | 2020-11-30 | 2020-11-30 | 用户图像识别模型的更新方法和装置 |
KR1020210077393A KR20210082401A (ko) | 2020-11-30 | 2021-06-15 | 사용자 이미지 식별 모델 업데이트 방법 및 장치 |
KR1020210140067A KR20210134251A (ko) | 2020-11-30 | 2021-10-20 | 사용자 이미지 식별 모델 업데이트 방법 및 장치 |
JP2021172394A JP7285899B2 (ja) | 2020-11-30 | 2021-10-21 | ユーザ画像認識モデルの更新方法、装置、電子機器、コンピュータ可読記録媒体及びコンピュータプログラム |
US17/508,401 US20220044076A1 (en) | 2020-11-30 | 2021-10-22 | Method and apparatus for updating user image recognition model |
EP21204097.6A EP3920094A3 (en) | 2020-11-30 | 2021-10-22 | Method and apparatus for updating user image recognition model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011371250.8A CN112487973B (zh) | 2020-11-30 | 2020-11-30 | 用户图像识别模型的更新方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112487973A CN112487973A (zh) | 2021-03-12 |
CN112487973B true CN112487973B (zh) | 2023-09-12 |
Family
ID=74937387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011371250.8A Active CN112487973B (zh) | 2020-11-30 | 2020-11-30 | 用户图像识别模型的更新方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220044076A1 (zh) |
EP (1) | EP3920094A3 (zh) |
JP (1) | JP7285899B2 (zh) |
KR (2) | KR20210082401A (zh) |
CN (1) | CN112487973B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113508391A (zh) * | 2021-06-11 | 2021-10-15 | 商汤国际私人有限公司 | 一种数据处理方法、装置和系统、介质和计算机设备 |
WO2022259031A1 (en) * | 2021-06-11 | 2022-12-15 | Sensetime International Pte. Ltd. | Methods, apparatuses, systems, media, and computer devices for processing data |
CN115891871B (zh) * | 2022-11-16 | 2024-05-17 | 阿维塔科技(重庆)有限公司 | 车辆座舱的控制方法、装置及计算机可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800805A (zh) * | 2019-01-14 | 2019-05-24 | 上海联影智能医疗科技有限公司 | 基于人工智能的图像处理系统以及计算机设备 |
CN110288049A (zh) * | 2019-07-02 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 用于生成图像识别模型的方法和装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007069756A (ja) | 2005-09-07 | 2007-03-22 | Toyota Motor Corp | 車両用入力操作規制装置 |
JP4910194B2 (ja) | 2007-09-20 | 2012-04-04 | 関西電力株式会社 | アナログ式メータの読取方法、読取装置および読取システム |
GB201517462D0 (en) * | 2015-10-02 | 2015-11-18 | Tractable Ltd | Semi-automatic labelling of datasets |
JP6907315B2 (ja) * | 2016-07-31 | 2021-07-21 | グーグル エルエルシーGoogle LLC | 自動ハンズフリーサービス要求 |
US10074038B2 (en) * | 2016-11-23 | 2018-09-11 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US10489722B2 (en) * | 2017-07-27 | 2019-11-26 | Disney Enterprises, Inc. | Semiautomatic machine learning model improvement and benchmarking |
KR102550932B1 (ko) * | 2017-12-29 | 2023-07-04 | 삼성전자주식회사 | 음성 인식 모델의 개인화 방법 및 장치 |
US11119638B2 (en) * | 2018-09-28 | 2021-09-14 | Apple Inc. | Using face detection to update user interface orientation |
JP6749655B1 (ja) | 2019-03-19 | 2020-09-02 | 株式会社 システムスクエア | 検査装置、異常検出方法、コンピュータプログラム、学習モデルの生成方法、及び学習モデル |
-
2020
- 2020-11-30 CN CN202011371250.8A patent/CN112487973B/zh active Active
-
2021
- 2021-06-15 KR KR1020210077393A patent/KR20210082401A/ko not_active Application Discontinuation
- 2021-10-20 KR KR1020210140067A patent/KR20210134251A/ko not_active Application Discontinuation
- 2021-10-21 JP JP2021172394A patent/JP7285899B2/ja active Active
- 2021-10-22 EP EP21204097.6A patent/EP3920094A3/en not_active Withdrawn
- 2021-10-22 US US17/508,401 patent/US20220044076A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800805A (zh) * | 2019-01-14 | 2019-05-24 | 上海联影智能医疗科技有限公司 | 基于人工智能的图像处理系统以及计算机设备 |
CN110288049A (zh) * | 2019-07-02 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 用于生成图像识别模型的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2022028667A (ja) | 2022-02-16 |
US20220044076A1 (en) | 2022-02-10 |
KR20210134251A (ko) | 2021-11-09 |
KR20210082401A (ko) | 2021-07-05 |
CN112487973A (zh) | 2021-03-12 |
EP3920094A3 (en) | 2022-05-18 |
EP3920094A2 (en) | 2021-12-08 |
JP7285899B2 (ja) | 2023-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112487973B (zh) | 用户图像识别模型的更新方法和装置 | |
CN111539514B (zh) | 用于生成神经网络的结构的方法和装置 | |
CN111523596B (zh) | 目标识别模型训练方法、装置、设备以及存储介质 | |
US10558749B2 (en) | Text prediction using captured image from an image capture device | |
JP2019535055A (ja) | ジェスチャに基づく操作の実施 | |
CN111582454B (zh) | 生成神经网络模型的方法和装置 | |
CN112270711B (zh) | 模型训练以及姿态预测方法、装置、设备以及存储介质 | |
CN111666546B (zh) | 应用的登录方法和装置 | |
CN111582477B (zh) | 神经网络模型的训练方法和装置 | |
JP7267379B2 (ja) | 画像処理方法、事前トレーニングモデルのトレーニング方法、装置及び電子機器 | |
CN111695516B (zh) | 热力图的生成方法、装置及设备 | |
KR20220125320A (ko) | 인간-기계 검증 방법, 장치, 기기 및 기록 매체 | |
CN111666771A (zh) | 文书的语义标签抽取、装置、电子设备及可读存储介质 | |
CN112016523B (zh) | 跨模态人脸识别的方法、装置、设备和存储介质 | |
CN112561059A (zh) | 用于模型蒸馏的方法和装置 | |
CN111767990A (zh) | 神经网络的处理方法和装置 | |
CN113596011B (zh) | 流量识别方法及装置,计算设备和介质 | |
CN111553283B (zh) | 用于生成模型的方法及装置 | |
CN113779616B (zh) | 用于识别数据的方法和装置 | |
CN111767988A (zh) | 神经网络的融合方法和装置 | |
CN111582478B (zh) | 用于确定模型结构的方法和装置 | |
CN113096799B (zh) | 质控方法和装置 | |
CN113377660B (zh) | 测试方法和装置 | |
CN112149807B (zh) | 用户特征信息的处理方法和装置 | |
CN111523452B (zh) | 用于检测图像中人体位置的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211011 Address after: 100176 101, floor 1, building 1, yard 7, Ruihe West 2nd Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing Applicant after: Apollo Zhilian (Beijing) Technology Co.,Ltd. Address before: 2 / F, baidu building, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |