CN103380442A - 信息处理设备 - Google Patents
信息处理设备 Download PDFInfo
- Publication number
- CN103380442A CN103380442A CN2012800092591A CN201280009259A CN103380442A CN 103380442 A CN103380442 A CN 103380442A CN 2012800092591 A CN2012800092591 A CN 2012800092591A CN 201280009259 A CN201280009259 A CN 201280009259A CN 103380442 A CN103380442 A CN 103380442A
- Authority
- CN
- China
- Prior art keywords
- recognition result
- information
- identification
- engine
- wire
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Debugging And Monitoring (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Abstract
本发明的信息处理设备200包括:识别结果获取装置201,用于获取由多个识别引擎211、212和213输出的相应识别结果信息,多个识别引擎对识别目标数据执行不同的识别处理;以及整合识别结果输出装置202,用于输出新识别结果,新识别结果是通过对从多个识别引擎获取的相应识别结果信息进行整合而获得的。识别结果获取装置201被配置为:从多个识别引擎获取具有多个识别引擎共用的数据格式的相应识别结果信息。整合识别结果输出装置202被配置为:基于相应识别结果信息来整合相应识别结果信息,并作为新识别结果输出。
Description
技术领域
本发明涉及信息处理设备,更具体地,涉及通过使用多个识别引擎的识别结果来进一步输出结果的信息处理设备。
背景技术
根据信息处理技术的发展,已经开发了执行识别处理的多种识别引擎。例如,存在多种识别引擎,例如,根据静止图像数据识别人的识别引擎、根据运动图像数据生成追踪人的动线(flow)的位置信息的识别引擎、以及根据话音(speech)数据生成文本数据的识别引擎。作为一个示例,专利文献1公开了配备有用于图像识别和话音识别的识别器的机器人。
现有技术文献
专利文献
专利文献1:日本未审查专利申请公开N0.2004-283959
发明内容
本发明要解决的问题
虽然如上所述已经开发了多种识别引擎,但是相应的识别引擎是根据各自的应用并入到特定的系统中的,因此,难以将这些识别引擎用于其它目的。即使期望重新使用识别引擎,开发能够使用这些识别引擎的新系统需要巨大花费,这是因为识别引擎的输出格式彼此不同。因此,存在这样的问题,即,不能灵活地响应于应用对使用从多个识别引擎获取的输出结果的请求,并且开发这种系统需要巨大花费。
因此,本发明的目的是解决上述问题;即,难以以低成本重新使用从多个识别引擎获取的输出结果。
解决问题的技术手段
为了实现上述目的,本发明的示例性实施例的信息处理设备包括:
识别结果获取装置,用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,其中:
所述识别结果获取装置被配置为:从所述多个识别引擎获取具有所述多个识别引擎共用的数据格式的所述相应识别结果信息;以及
所述整合识别结果输出装置被配置为:基于所述相应识别结果信息来整合所述相应识别结果信息,并作为新识别结果输出。
此外,本发明的另一个示例性的实施例的计算机程序是包括用于使信息处理设备实现以下各项的指令的计算机程序:
识别结果获取装置,用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,
所述计算机程序还包括用于执行以下操作的指令:
使所述识别结果获取装置从所述多个识别引擎中的每一个获取具有所述多个识别引擎共用的数据格式的所述识别结果信息;以及
使所述整合识别结果输出装置基于所述相应识别结果信息来整合所述相应识别结果信息,并作为所述新识别结果输出。
此外,本发明的另一个示例性实施例的信息处理方法包括:
获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理,所述相应识别结果信息具有所述多个识别引擎共用的数据格式;以及
基于从所述多个识别引擎获取的所述相应识别结果信息来整合所述相应识别结果信息,并作为新识别结果输出。
技术效果
利用上述配置,本发明可以提供能够以低成本重新使用从多个识别引擎获取的输出结果的信息处理设备。
附图说明
图1是示出了本发明中的中间层设备的配置的框图;
图2是示出了本发明的第一示例性实施例中的在中间层设备中记录的识别结果的结构的示例的示意图;
图3是示出了本发明的第一示例性实施例中的在中间层设备中记录的识别结果的结构的示例的示意图;
图4是示出了本发明的第一示例性实施例中的在中间层设备中记录的识别结果的结构的示例的示意图;
图5是示出了本发明的第一示例性实施例中的中间层设备的操作的流程图;
图6是示出了本发明的第一示例性实施例中的由中间层设备从识别引擎获取的识别结果的示例的示意图;
图7是示出了本发明的第一示例性实施例中的由中间层设备从识别引擎获取的识别结果的示例的示意图;
图8是示出了本发明的第一示例性实施例中的中间层设备正在整合从识别引擎获取的识别结果的状态的示意图;
图9是示出了本发明的第一示例性实施例中的中间层设备已经整合了从识别引擎获取的识别结果的状态的示意图;
图10是示出了本发明的第二示例性实施例中的在中间层设备中记录的识别结果的结构的示例的示意图;
图11是示出了本发明的第二示例性实施例中的在中间层设备中记录的识别结果的结构的示例的示意图;
图12是示出了本发明的第二示例性实施例中的中间层设备正在整合从识别引擎获取的识别结果的状态的示意图;
图13是示出了本发明的第二示例性实施例中的中间层设备已经整合了从识别引擎获取的识别结果的状态的示意图;以及
图14是示出了本发明的补充注释1中的信息处理设备的配置的框图。
具体实施方式
<第一示例性实施例>
将参照图1至图9来描述本发明的第一示例性实施例。图1至图4是用于描述该示例性实施例中的中间层设备的配置的示意图,图5至图9是用于描述中间层设备的操作的示意图。
[配置]
如图1所示,第一示例性实施例中的信息处理系统包括多个识别引擎21至23、与识别引擎21至23相连的中间层设备10、和在与中间层设备10相连的信息处理终端中实现的应用单元30。
识别引擎21至23是分别对识别目标数据执行不同的识别处理的信息处理设备。识别引擎21至23例如是:根据诸如静止图像数据、运动图像数据和话音数据等的识别目标数据来识别人的识别引擎;根据运动图像数据来生成追踪人的动线的位置信息的识别引擎;以及根据识别目标数据的话音数据来生成文本数据的识别引擎。该示例性实施例中的识别引擎是根据运动图像数据识别先前设定的人的人识别引擎(在下文中通过附图标记21表示)和根据运动图像数据来识别表示对象的轨迹的动线的动线识别引擎(在下文中通过附图标记22表示)。识别引擎不限于上文所描述的执行识别处理的识别引擎,并且其数量不限于上文所描述的两个或者图1中所示的三个。例如,上文提到的人识别引擎可以是不仅识别人而且识别先前设定的对象的对象识别引擎。
具体地说,人识别引擎21根据运动图像数据在相应日期和时间时的帧图像来检测人识别引擎21被请求对其执行识别处理的“特定的人”的先前记录的特征值数据。在检测到特征值数据时,人识别引擎21识别出“特定的人”已经处于在检测日期和时间时获取运动图像数据的照相机的设定位置,并且输出针对识别的“特定的人”设定的人标识信息(人ID)和示出检测到数据的日期/时间和位置的位置信息作为识别结果信息。该示例性实施例中的人识别引擎21根据先前在中间层设备10(如稍后所描述的)中记录的数据格式向中间层设备10输出上述识别结果信息,将在稍后描述该数据格式。
此外,具体地说,动线识别引擎22检测运动图像数据中的运动对象,并且识别对象的时间序列轨迹。然后,动线识别引擎22将以下各项作为识别结果信息进行输出:标识运动对象的对象标识信息(对象ID)、标识检测到的整个轨迹的轨迹标识信息(轨迹ID)、和包括检测到对象的日期/时间和位置(坐标)的动线信息。该示例性实施例中的动线识别引擎22根据先前在中间层设备10(如稍后所描述的)中记录的数据格式向中间层设备10输出上述识别结果信息,将在稍后描述该数据格式。
接下来,将描述应用单元30。应用单元30实现在连接到中间层设备10的信息处理终端中,并且具有向中间层设备10请求识别引擎21至23的识别结果的功能。在该示例实施例中,具体地,应用单元30请求通过重新使用和整合对象识别引擎21的识别结果以及动线识别引擎22的识别结果而获得的新识别结果。具体地,在该示例实施例中描述的示例中,应用30向中间层设备10请求“特定人的动线”。
接下来,将描述中间层设备10。中间层设备10是包括算术设备和存储设备的信息处理设备。中间层设备10包括识别引擎输出获取单元11、实例/类对应判断单元12、输出实例保存单元13和类结构记录单元15,它们是通过向算术设备并入程序来构建的,如图1所示。中间层设备10还在存储设备中包括类结构保存单元14和类ID保存单元16。下面将详细地描述相应的配置。
首先,识别引擎输出获取单元11(识别结果获取装置)获取在识别处理中由上述相应的引擎中的人识别引擎21和动线识别引擎22生成的识别结果信息。然后,实例/类对应判断单元12(识别结果获取装置)将所获取的识别结果信息中的每一个保存在示出了数据格式的事先定义的类结构中。
类结构(其是与人识别引擎21相对应的识别结果信息的数据格式并且是由例如图结构或树结构定义的识别结果定义信息)从类结构记录单元15被存储到类结构保存单元14(定义信息存储装置)和类ID保存单元16中并且被定义。具体地说,如图2所示,通过图结构定义与人识别引擎21相对应的类结构C1,使得由检测到特定人的图像(帧)被获取的位置的坐标(X坐标值、Y坐标值)表示并且还由图像被获取的日期和时间(检测时间)表示的位置信息C12被放置在标识所检测的特定人的人标识信息(人ID)C11之下。因此,实例/类对应判断单元12将在从人识别引擎21实际获取的识别结果信息中包含的值应用于与人识别引擎21相对应的类结构C1的人标识信息(人ID)和位置等等(X坐标、Y坐标、检测时间),并且如图6中所示地进行保存。
此外,如图3所示,通过图结构定义类结构C2(其具有与动线识别引擎22相对应的识别结果信息的数据格式并且是由例如图结构或树结构定义的识别结果定义信息),使得标识检测到的运动对象的整个轨迹的轨迹标识信息(轨迹ID)C22被放置于标识对象的对象标识信息(对象ID)C21之下,并且由形成检测到的对象的轨迹的日期和时间(检测时间)和在这些时间时位置的坐标(X坐标值、Y坐标值)表示的动线信息C23被放置于C22之下。因此,实例/类对应判断单元12将在从动线识别引擎22实际获取的识别结果信息中包含的值应用于与动线识别引擎22相对应的类结构C2的对象标识信息(对象ID)和位置等等(X坐标、Y坐标、检测时间),并且如图7中所示地进行保存。
包含在中间层设备10中的输出实例保存单元13(整合识别结果输出装置)对从人识别引擎21获取的识别结果信息和从动线识别引擎22获取的识别结果信息(它们被应用于事先定义的类结构C1和C2并且如上所述地进行保存)进行整合,并作为新识别结果保存。具体地说,输出实例保存单元13根据类结构C3来整合识别结果信息。事先将类结构C3存储在类结构保存单元14(定义信息存储装置)和类ID保存单元16中,并且类结构C3是通过图结构或树结构来示出整合格式的整合定义信息,该整合格式是表示识别结果信息的整合条件以及在整合以后的新识别结果的数据格式。
如图4所示,表示识别结果信息的整合条件以及在整合以后的新识别结果的数据格式的类结构表示结构C3,使得轨迹标识信息(轨迹ID)C22和动线信息C23与人标识信息(人ID)C11(其是从人识别引擎21获取的识别结果C1的一部分并且标识检测到的特定人)有关并且整合在一起。
在该情况下,如上所述的识别结果信息的整合条件在于:从人识别引擎21输出的人标识信息(人ID)C11与从动线识别引擎21输出的对象标识信息(对象ID)C21的一部分相一致。为了对此进行判断,输出实例保存单元13检查由相应的引擎21和22检测到的识别结果信息是否包括根据预定标准被判断为彼此对应的信息。具体地说,输出实例保存单元13检查由动线识别引擎22输出的动线信息C23是否包括与位置信息C12(即,由对象识别引擎21输出的特定人的检测日期/时间和位置)相一致的信息。在位置信息CI2和动线信息C23的一部分彼此相一致的情况下,输出实例保存单元13将一致的位置信息C23和C23之上的轨迹标识信息C22关联到与一致的位置信息C12相对应的人标识信息(人ID)C11,并且如图9所示地保存新识别结果。
然而,识别结果信息的整合条件不限于如上所述地由相应的引擎21和22检测到的识别结果信息包括彼此相一致的信息。例如,在动线识别引擎22输出的动线信息C23包括“接近于”位置信息C12(即,由人识别引擎21输出的特定人的检测日期/时间和位置)的情况下,输出实例保存单元13可以判断动线信息C23和位置信息C12彼此对应,并且通过将位置信息C23和C23之上的轨迹标识信息C22关联于与位置信息C12相对应的人标识信息C11来进行整合。在该情况下,“接近于”特定人的检测日期/时间和位置将包括处于例如针对检测日期/时间和位置事先设定的容差内的日期/时间和位置。
在上面举例说明的情况中,相应的识别引擎21和22输出的识别结果信息的数据格式和由输出实例保存单元13整合识别结果信息的格式是通过图结构或树结构来定义的,但是可以通过另一种数据格式来定义。
此外,输出实例保存单元13向应用单元30输出如上所述生成和保存的新识别结果。
[操作]
接下来,将参照图5的流程图和图6至图9的数据过渡图来描述上文所述的信息处理系统的操作,具体地说,中间层设备10的操作。
首先,中间层设备10从应用单元30接受针对识别结果的请求(步骤S1)。在本文中,假设中间层设备10接受针对“特定的人的动线”的识别结果的请求。
接下来,中间层设备10从用于输出由应用单元30请求的识别结果的相应识别引擎获取识别结果信息。在该示例实施例中,中间层设备10从人识别引擎21和动线识别引擎22获取相应引擎已经在识别处理中生成的识别结果信息(步骤S2)。然后,中间层设备10根据事先定义的类结构保存已经获取的相应识别结果信息。具体地,中间层设备10将从人识别引擎21获取的识别结果信息应用于如图2所示的与人识别引擎相对应的类结构C1并且如图6所示地进行保存。此外,中间层设备10将从动线识别引擎21获取的识别结果信息应用于如图2所示的与动线识别引擎相对应的类结构C2并且如图7所示地进行保存。
接下来,中间层设备10检查相应识别结果信息所包含的人标识信息(人ID)C11'和对象标识信息(对象ID)C21'的一致性(identity),其中,相应识别结果信息是从人识别引擎21和动线识别引擎22获取的、被应用并保存在相应的类结构C1'和C2'中(如图6和图7所示)(步骤S3,参见图8中的箭头Y2)。具体地,中间层设备10检查从动线识别引擎22输出的动线信息C23'是否包括与从人识别引擎21输出的位置信息C12'相一致的信息。
在动线信息C23'包括与位置信息C12'相一致的信息的情况下,中间层设备10判断包括一致信息的人标识信息(人ID)C11'和对象标识信息(对象ID)C21'是否彼此相同。因此,如图9所示,中间层设备10将人标识信息(人ID)C11'和放置在被判断为与C11'相同的对象标识信息(对象ID)C21'下方的轨迹标识信息C22'以及放置在C22'下方的动线信息C23'进行关联和整合,并作为新识别结果保存(步骤S4)。
此后,中间层设备10向应用单元30输出如上所述地生成和保存的新识别结果(步骤S5)。
在上面的描述中,当从人识别引擎21输出的位置信息C12'与从动线识别引擎22输出的动线信息C23'的一部分相一致时,整合从引擎21和22获取的识别结果,但是整合的条件不限于这种条件。例如,当包含在从人识别引擎21获取的识别结果信息中的人标识信息(人ID)C11'与包含在从动线识别引擎22获取的识别结果信息中的对象标识信息(对象ID)C21'相一致时,可以如上所述地整合识别结果信息。备选地,当从动线识别引擎22输出的动线信息C23'包括“接近于”从人识别引擎21输出的位置信息C12'的信息时,可以整合识别结果信息。
在上面的描述中,按以下顺序来执行处理:从应用单元30接受针对识别结果的请求(步骤S1);从相应的识别引擎获取识别结果(步骤S2);以及合成识别结果(步骤S4)。然而,处理的执行并不受这种过程的限制。例如,可以按以下顺序来执行处理:先执行如图5中所示的步骤S2、S3和S4,也即是说,先从相应的识别引擎获取识别结果并且合成识别结果,并且在中间层设备10中累积合成的结果;并且当从应用单元30接受针对识别结果的请求时,从累积的数据中提取与请求相对应的合成结果并且输出给应用单元30。
因此,在该示例性的实施例中提供中间层设备10以按多个识别引擎公用的数据格式保存识别结果信息促进了重新使用从相应的识别引擎获取的识别结果以用于其它目的。因此,开发识别引擎和请求识别结果的应用变得容易,并且可以以低成本增加识别引擎的多功能。
<第二示例性的实施例>
接下来,将参照图1和图5以及图10至图13来描述本发明的第二示例性的实施例。图1是用于描述该示例性的实施例中的中间层设备的配置的示意图。图5和图10至图13是用于描述中间层设备的操作的示意图。
[配置]
与在第一示例性的实施例中一样,第二示例性的实施例中的信息处理系统包括多个识别引擎21至23、与识别引擎21至23相连的中间层设备10和实现在与中间层设备10相连的信息处理终端中的应用单元30,如图1所示。
该示例性实施例中的两个识别引擎都是根据识别目标数据来识别人的人识别引擎,但是其识别方法彼此不同。例如,第一人识别引擎(在下文中用附图标记21表示)基于来自运动图像数据的事先设定的人的面部的特征数据来识别特定人。此外,第二人识别引擎(在下文中用附图标记22表示)基于来自话音数据的事先设定的人的语音的特征数据来识别特定人。此外,第三人识别引擎(在下文中用附图标记23表示)基于来自话音数据的事先设定的话语(关键词)的内容来识别特定人。然而,识别引擎不限于执行处理的这些识别引擎,并且其个数不限于上文提到的个数。例如,人识别引擎可以是不仅识别人而且识别预设对象的对象识别引擎。
该示例实施例中的相应的人识别引擎21、22和23以事先在中间层设备10中记录的公用数据格式向中间层设备10输出识别结果信息。具体地,人识别引擎21、22和23中的每一个将人候选信息作为识别结果信息进行输出,其中,人候选信息包括基于相应的识别方法的识别结果来标识一个或多个候选人的信息。
相应地,中间层设备10在类结构保存单元14等等中存储类结构C101,类结构C101定义了与人识别引擎21、22和23相对应的相应识别结果信息的数据格式,并且是图结构或树结构的识别结果定义信息,如图10所示。具体地,与相应的人识别引擎21、22和23相对应的类结构C101是由图结构来定义的,在图结构中,标识识别候选中的一个或多个人的人标识信息C111、C112和C113被放置在标识已经执行了识别处理的人识别引擎的引擎标识信息C110的下方,如图10所示。在本文中,类结构C101被定义为使得按从顶部开始的顺序放置和存储作为识别处理的结果最可能成为候选的三个人的人标识信息。因此,中间层设备10的实例/类对应判断单元12通过向人识别引擎21、22和23中的每一个的类结构C101应用识别引擎输出获取单元11已经从人识别引擎21、22和23获取的识别结果信息来进行保存,如图12中的附图标记C101-1、C101-2和C101-3所示。
然后,由中间层设备10包含的输出实例保存单元13整合已经从相应的人识别引擎21、22和23获取的、应用于事先定义的类结构C101并且如上文所述地保存的识别结果信息,并作为新识别结果保存。具体地,输出实例保存单元13根据类结构C102来整合识别结果信息,该类结构C102事先被定义在类结构保存单元14等等中,并且是在图结构或树结构中定义整合格式的整合定义信息,其中,整合格式是表示识别结果信息的整合条件并且表示在整合以后的新识别结果的数据格式。
如图11所述,表示识别结果信息的整合条件以及在整合以后的新识别结果的数据格式的类结构表示整合的结构,以从识别结果信息C120的候选的人标识信息中识别一个人标识信息(人ID)C121,该识别结果信/息C120是从相应的人识别引擎21、22和23获取的。
在该情况下,如上所述的识别结果信息的整合条件在于:在从不同的人识别引擎21、22和23输出的人标识信息(人1D)中存在一致的人标识信息。为了进行判断,输出实例保存单元13检查由引擎21和22输出的相应识别结果信息是否包括根据预定标准被判断为彼此对应的人标识信息。具体地,输出实例保存单元13检查从三个人识别引擎21、22和23输出的所有三个识别结果信息是否包括相同的人标识信息,识别相同的人标识信息(人ID),并且将该人标识信息作为新的标识结果进行保存。
然而,识别结果信息的整合条件不限于由相应的引擎21、22和23检测到的识别结果信息包括彼此相一致的信息。例如,首先根据预定标准来判断属性信息的相似性,其中,属性信息是从与已经检测到的相应的人标识信息(人ID)相对应的人的数据中提取的特征值数据。然后,在根据标准相似性的程度处于预设的范围内的情况下,判断相应的人标识信息的人是相同的。
在上面举例说明的情况中,从相应的识别引擎21、22和23获取的识别结果信息的数据格式以及由输出实例保存单元13整合识别结果信息的格式是由图结构或树结构来定义的,但是可以由另一种数据格式来定义。
此外,输出实例保存单元13向应用单元30输出如上所述生成和保存的新识别结果。
[操作]
接下来,将参照图5的流程图和图10至图13的数据过渡图来描述上文所述的信息处理系统的操作,具体地说,中间层设备10的操作。
首先,中间层设备10从应用单元30接受针对识别结果的请求(步骤S1)。例如,假设中间层设备10接受针对“人的标识”的识别结果的请求。
接下来,中间层设备10从用于输出由应用单元30请求的识别结果的相应识别引擎获取识别结果信息(步骤S2)。然后,中间层设备10根据事先定义的类结构保存已经获取的相应识别结果信息。
具体地,在该示例实施例中,将作为从第一人识别引擎21获取的候选者的三个人标识信息应用于类结构并且对其进行保存,如图12中的附图标记C101-1所示,其中,第一人识别引擎21基于来自运动图像数据的人面部的特征数据来识别人。此外,将作为从第二人识别引擎22获取的候选的三个人标识信息应用于类结构并且对其进行保存,如图12中的附图标记C101-2所示,其中,第二人识别引擎22基于来自话音数据的人语音的特征数据来识别人。此外,将作为从第三人识别引擎23获取的候选的三个人标识信息应用于类结构并且对其进行保存,如图12中的附图标记C101-3所示,其中,第三人识别引擎23基于来自话音数据的话语(关键词)的内容来识别人。
接下来,中间层设备10检查人标识信息(人ID)C111-1至C113-1、C111-2至C113-2和C111-3至C113-3中的彼此对应的人标识信息(在本文中是彼此共用的人标识信息),其中,人标识信息(人ID)C111-1至C113-1、C111-2至C113-2和C111-3至C113-3是从相应的人标识引擎21、22和23获取的并且如图12中所示地应用和保存在定义的类结构中的候选(步骤S3)。在图12中所示的示例中,因为在所有识别结果信息中“人-A”的人标识信息是共用的(如附图标记C111-1、C111-2和C111-3所示),因此中间层设备10将识别结果整合为由“人-A”表示的一个人标识信息C121',如图13所示(步骤S4)。备选地,在作为判断附着至相应人标识信息的属性信息的相似性的结果,相似性的程度高于标准的情况下,中间层设备10可以判断相应的人标识信息中的人是相同的人,并且整合识别结果。
在上文的描述中,按以下顺序来执行处理:从应用单元30接受针对识别结果的请求(步骤S1);从相应的识别引擎获取识别结果(步骤S2);以及合成识别结果(步骤S4)。然而,处理的执行并不受这种过程限制。例如,中间层设备10可以按以下顺序来执行处理:先从相应的识别引擎获取识别结果以合成识别结果,并且将合成的结果累积到中间层设备10中;然后,在从应用单元30接受针对识别结果的请求时,从累积的数据中提取与请求相对应的合成结果,并且输出到应用单元30。
此后,中间层设备10向应用单元30输出如上所述地生成和保存的新识别结果(步骤S5)。
因此,在该示例性实施例中提供中间层设备10并且以多个识别引擎共用的数据格式保存识别结果信息促进了重新使用从相应的识别引擎获取的识别结果以用于其它目的。因此,开发识别引擎和请求识别结果的应用变得容易,并且可以以低成本增加识别引擎的多功能。
在上文的描述中,中间层设备10整合识别结果,使得从候选中识别共同地包含在所有识别结果中的人,其中,所述候选是从人识别引擎21、22和23输出的,但是整合的条件不限于此。中间层设备10可以通过另一种方法(例如,通过整合识别结果以识别包含在识别引擎中的一半识别引擎或者更多识别引擎中的人)来整合识别结果。此外,在上文所描述的示例中,人识别引擎21、22和23中的每一个输出三个候选作为识别结果,但是可以仅输出一个候选作为识别结果,或者可以输出另一数目的候选作为识别结果。
<补充注释>
上文公开的示例性实施例的全部或一部分可以被描述为下面的补充注释。在下文中,将参照图14来描述根据本发明的信息处理设备的配置的概述。然而,本发明不限于下面的配置。
(补充注释1)
一种信息处理设备200,包括:
识别结果获取装置201,用于获取由多个识别引擎211、212和213输出的相应识别结果信息,所述多个识别引擎211、212和213对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置202,用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,其中:
所述识别结果获取装置201被配置为:从所述多个识别引擎获取具有所述多个识别引擎共用的数据格式的所述相应识别结果信息;以及
所述整合识别结果输出装置202被配置为:基于所述相应识别结果信息来整合所述相应识别结果信息,并作为所述新识别结果输出。
(补充注释2)
根据补充注释1所述的信息处理设备,其中,所述整合识别结果输出装置被配置为:当所述相应识别结果信息包括根据预定标准彼此对应的信息时,整合所述相应识别结果信息并作为所述新识别结果输出。
(补充注释3)
根据补充注释1或2所述的信息处理设备,包括:定义信息存储装置,用于存储:识别结果定义信息,定义由所述识别结果获取装置从所述多个识别引擎中的每一个获取的所述识别结果信息的数据格式;以及整合定义信息,定义所述整合识别结果输出装置用以整合所述相应识别结果信息的整合格式,其中:
所述识别结果获取装置被配置为:获取具有由所述识别结果定义信息定义的所述数据格式的所述相应识别结果信息;以及
所述整合识别结果输出装置被配置为:用由所述整合定义信息定义的所述整合格式来整合所述相应识别结果信息,并且输出所述新识别结果。
(补充注释4)
根据补充注释1至3中的任一项所述的信息处理设备,其中,由所述识别结果获取装置从所述多个识别引擎中的每一个获取的所述识别结果信息具有图结构或树结构的数据格式。
(补充注释5)
根据补充注释2所述的信息处理设备,其中:
所述识别结果获取装置被配置为:分别从根据所述识别目标数据来识别对象的对象识别引擎和根据所述识别目标数据来识别表示预定对象的轨迹的动线的动线识别引擎获取所述识别结果信息;以及
所述整合识别结果输出装置被配置为:通过将预定对象的动线信息与对象信息关联来进行整合,并作为所述新识别结果输出,所述动线信息是从所述动线识别引擎获取的所述识别结果信息,并且所述对象信息是从所述对象识别引擎获取的所述识别结果信息。
(补充注释6)
根据补充注释5所述的信息处理设备,其中:
所述识别结果获取装置被配置为:从所述对象识别引擎获取包括位置信息的所述识别结果信息,所述位置信息表示所述对象识别引擎根据所述识别目标数据识别的对象的位置并且还表示识别所述对象的日期和时间;并且还从所述动线识别引擎获取预定对象的动线信息,所述动线信息是由所述动线识别引擎根据所述识别目标数据识别的;以及
所述整合识别结果获取装置被配置为:当从所述动线识别引擎获取的所述动线信息包括根据预定标准与从所述对象识别引擎获取的所述位置信息相对应的信息时,通过将动线信息与对象信息关联来进行整合,并作为所述新识别结果输出,动线信息是从所述动线识别引擎获取的所述识别结果,对象信息由从所述对象识别引擎获取并且包括与所述位置信息相对应的所述信息的所述识别结果信息标识的。
(补充注释7)
根据补充注释2所述的信息处理设备,其中:
所述识别结果获取装置被配置为:从多个对象识别引擎获取所述识别结果信息,所述多个对象识别引擎分别在不同的识别处理中根据所述识别目标数据来识别对象;以及
所述整合识别结果输出装置被配置为:通过基于相应的对象信息识别一个对象信息来进行整合并作为所述新识别结果输出,所述相应的对象信息是从所述多个对象识别引擎获取的所述相应识别结果信息。
(补充注释8)
根据补充注释7所述的信息处理设备,其中:
所述识别结果获取装置被配置为:从所述多个对象识别引擎中的每一个获取包括对象候选信息的所述识别结果信息,所述对象候选者信息表示由所述多个对象识别引擎中的每一个根据所述识别目标数据识别的对象的候选;以及
所述整合识别结果获取装置被配置为:在从所述多个对象识别引擎获取的所述相应的对象候选者信息中识别根据预定标准彼此对应的对象信息,并作为所述新识别结果输出。
(补充注释9)
一种计算机程序,包括用于使信息处理设备实现以下各项的指令:
识别结果获取装置,用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,
所述计算机程序还包括用于执行以下操作的指令:
使所述识别结果获取装置从所述多个识别引擎获取具有所述多个识别引擎共用的数据格式的所述相应识别结果信息;以及
使所述整合识别结果输出装置基于所述相应识别结果信息来整合所述相应识别结果信息,并作为所述新识别结果输出。
(补充注释10)
根据补充注释9所述的计算机程序,包括用于使所述整合识别结果输出装置执行以下操作的指令:当所述相应识别结果信息包括根据预定标准彼此对应的信息时,整合所述相应识别结果信息并作为所述新识别结果输出。
(补充注释11)
一种信息处理方法,包括:
获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理,所述相应识别结果信息具有所述多个识别引擎共用的数据格式;以及
基于从所述多个识别引擎获取的所述相应识别结果信息来整合所述相应识别结果信息,并作为新识别结果输出。
(补充注释12)
根据补充注释11所述的信息处理方法,包括:
当所述相应识别结果信息包括根据预定标准彼此对应的信息时,整合所述相应识别结果信息并作为所述新识别结果输出。
(补充注释13)
一种信息处理设备,包括:
识别结果获取装置,用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,其中:
所述识别结果获取装置被配置为:从对象识别引擎获取包括位置信息的所述识别结果信息,所述位置信息表示由所述对象识别引擎根据所述识别目标数据识别的对象的位置并且还表示识别所述对象的日期和时间,所述对象识别引擎根据所述识别目标数据来识别对象,所述识别结果信息具有所述多个识别引擎共用的数据格式;并且还从所述动线识别引擎获取包括预定对象的动线信息的所述识别结果信息,所述动线信息是由所述动线识别引擎根据所述识别目标数据识别的,所述动线识别引擎根据所述识别目标数据来识别表示预定对象的轨迹的动线,所述识别结果信息具有所述多个识别引擎共用的数据格式;以及
所述整合识别结果输出装置被配置为:当从所述动线识别引擎获取的所述动线信息包括根据预定标准与从所述对象识别引擎获取的所述位置信息相对应的信息时,通过将所述动线信息与对象信息关联来进行整合,并作为所述新识别结果输出,所述动线信息是从所述动线识别引擎获取的所述识别结果的所述动线信息,所述对象信息由从所述对象识别引擎获取并且包括与所述位置信息相对应的所述信息的所述识别结果信息标识的。
(补充注释14)
一种信息处理设备,包括:
识别结果获取装置,用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,其中:
所述识别结果获取装置被配置为:从所述多个对象识别引擎中的每一个获取包括对象候选信息的所述识别结果信息,所述对象候选者信息表示由所述多个对象识别引擎中的每一个根据所述识别目标数据识别的对象的候选,所述对象识别引擎根据所述识别目标数据通过不同的识别处理来识别对象,所述识别结果信息具有所述多个识别引擎共用的数据格式;以及
所述整合识别结果输出装置被配置为:通过在从所述多个对象识别引擎获取的所述相应的对象候选信息中识别根据预定标准彼此对应的一个对象信息来进行整合,并作为所述新识别结果输出。
在示例性的实施例中的每一个中,计算机程序被存储在存储设备中或者被记录在计算机可读记录介质中。例如,记录介质是诸如软盘、光盘、磁光盘和半导体存储器等的便携式介质。
已经参照示例性的实施例描述了本发明,但是本发明不限于上文所描述的示例性实施例。可以用本领域技术人员可以理解的、落入本发明的范围内的各种方式来修改本发明的配置和细节。
本发明基于并要求2011年2月17日提交的日本专利申请No.2011-031613的优先权,该日本专利申请的公开内容通过引用的方式完整地并入本文。
附图标记的描述
10 中间层设备
11 识别引擎输出获取单元
12 实例/类对应判断单元
13 输出实例保存单元
14 类结构保存单元
15 类结构记录单元
16 类1D保存单元
21,22,23 识别引擎
30 应用单元
200 信息处理设备
201 识别结果获取单元
202 整合识别结果输出装置
211,212,213 识别引擎
Claims (12)
1.一种信息处理设备,包括:
识别结果获取装置,所述识别结果获取装置用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,所述整合识别结果输出装置用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,其中:
所述识别结果获取装置被配置为:从所述多个识别引擎获取具有所述多个识别引擎共用的数据格式的所述相应识别结果信息;以及
所述整合识别结果输出装置被配置为:基于所述相应识别结果信息来整合所述相应识别结果信息,并作为所述新识别结果输出。
2.根据权利要求1所述的信息处理设备,其中,所述整合识别结果输出装置被配置为:当所述相应识别结果信息包括根据预定标准彼此对应的信息时,整合所述相应识别结果信息并作为所述新识别结果输出。
3.根据权利要求1或2所述的信息处理设备,包括:定义信息存储装置,所述定义信息存储装置用于存储:识别结果定义信息,所述识别结果定义信息定义由所述识别结果获取装置从所述多个识别引擎中的每一个获取的所述识别结果信息的数据格式;以及整合定义信息,所述整合定义信息定义所述整合识别结果输出装置用以整合所述相应识别结果信息的整合格式,其中:
所述识别结果获取装置被配置为:获取具有由所述识别结果定义信息定义的所述数据格式的所述相应识别结果信息;以及
所述整合识别结果输出装置被配置为:用所述整合定义信息定义的所述整合格式来整合所述相应识别结果信息,并且输出所述新识别结果。
4.根据权利要求1至3中的任一项所述的信息处理设备,其中,由所述识别结果获取装置从所述多个识别引擎中的每一个获取的所述识别结果信息具有图结构或树结构的数据格式。
5.根据权利要求2所述的信息处理设备,其中:
所述识别结果获取装置被配置为:分别从对象识别引擎和动线识别引擎获取所述识别结果信息,所述对象识别引擎根据所述识别目标数据来识别对象,所述动线识别引擎根据所述识别目标数据来识别表示预定对象的轨迹的动线;以及
所述整合识别结果输出装置被配置为:通过将预定对象的动线信息与对象信息进行关联来进行整合,并作为所述新识别结果输出,所述动线信息是从所述动线识别引擎获取的所述识别结果信息,并且所述对象信息是从所述对象识别引擎获取的所述识别结果信息。
6.根据权利要求5所述的信息处理设备,其中:
所述识别结果获取装置被配置为:从所述对象识别引擎获取包括位置信息的所述识别结果信息,所述位置信息表示所述对象识别引擎根据所述识别目标数据识别的对象的位置并且还表示识别所述对象的日期和时间;并且还从所述动线识别引擎获取预定对象的动线信息,所述预定对象是由所述动线识别引擎根据所述识别目标数据识别的;以及
所述整合识别结果获取装置被配置为:当从所述动线识别引擎获取的所述动线信息包括根据预定标准与从所述对象识别引擎获取的所述位置信息相对应的信息时,通过将所述动线信息与所述对象信息关联来进行整合,并作为所述新识别结果输出,所述动线信息是从所述动线识别引擎获取的所述识别结果,所述对象信息由从所述对象识别引擎获取并且包括与所述位置信息相对应的所述信息的所述识别结果信息标识。
7.根据权利要求2所述的信息处理设备,其中:
所述识别结果获取装置被配置为:从多个对象识别引擎获取所述识别结果信息,所述多个对象识别引擎分别在不同的识别处理中根据所述识别目标数据来识别对象;以及
所述整合识别结果输出装置被配置为:通过基于相应对象信息识别一个对象信息来进行整合并作为所述新识别结果输出,所述相应对象信息是从所述多个对象识别引擎获取的所述相应识别结果信息。
8.根据权利要求7所述的信息处理设备,其中:
所述识别结果获取装置被配置为:从所述多个对象识别引擎中的每一个获取包括对象候选信息的所述识别结果信息,所述对象候选信息表示由所述多个对象识别引擎中的每一个根据所述识别目标数据识别的对象的候选;以及
所述整合识别结果获取装置被配置为:在从所述多个对象识别引擎获取的所述相应对象候选信息中识别根据预定标准彼此相对应的对象信息,并作为所述新识别结果输出。
9.一种计算机程序,包括用于使信息处理设备实现以下各项的指令:
识别结果获取装置,所述识别结果获取装置用于获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理;以及
整合识别结果输出装置,所述整合识别结果输出装置用于输出新识别结果,所述新识别结果是通过对从所述多个识别引擎获取的所述相应识别结果信息进行整合而获得的,
所述计算机程序还包括用于执行以下操作的指令:
使所述识别结果获取装置从所述多个识别引擎获取具有所述多个识别引擎共用的数据格式的所述相应识别结果信息;以及
使所述整合识别结果输出装置基于所述相应识别结果信息来整合所述相应识别结果信息,并作为所述新识别结果输出。
10.根据权利要求9所述的计算机程序,包括用于使所述整合识别结果输出装置执行以下操作的指令:当所述相应识别结果信息包括根据预定标准彼此相对应的信息时,整合所述相应识别结果信息并作为所述新识别结果输出。
11.一种信息处理方法,包括:
获取由多个识别引擎输出的相应识别结果信息,所述多个识别引擎对识别目标数据执行不同的识别处理,所述相应识别结果信息具有所述多个识别引擎共用的数据格式;以及
基于从所述多个识别引擎获取的所述相应识别结果信息来整合所述相应识别结果信息,并作为新识别结果输出。
12.根据权利要求11所述的信息处理方法,包括:
当所述相应识别结果信息包括根据预定标准彼此相对应的信息时,整合所述相应识别结果信息并且将所述新识别结果输出。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011031613 | 2011-02-17 | ||
JP2011-031613 | 2011-02-17 | ||
PCT/JP2012/000291 WO2012111252A1 (ja) | 2011-02-17 | 2012-01-19 | 情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103380442A true CN103380442A (zh) | 2013-10-30 |
CN103380442B CN103380442B (zh) | 2016-09-28 |
Family
ID=46672201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280009259.1A Active CN103380442B (zh) | 2011-02-17 | 2012-01-19 | 信息处理设备 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9213891B2 (zh) |
JP (1) | JP6142533B2 (zh) |
CN (1) | CN103380442B (zh) |
BR (1) | BR112013020345B1 (zh) |
RU (1) | RU2562441C2 (zh) |
SG (1) | SG192807A1 (zh) |
WO (1) | WO2012111252A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163583A (zh) * | 2020-09-25 | 2021-01-01 | 珠海智通信息技术有限公司 | 数字表读数的识别方法、识别设备以及计算机可读存储介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105182763A (zh) * | 2015-08-11 | 2015-12-23 | 中山大学 | 一种基于语音识别的智能遥控器及实现方法 |
JP7363163B2 (ja) * | 2019-07-26 | 2023-10-18 | 日本電気株式会社 | 監視装置、監視方法、および、プログラム、並びに、監視システム |
WO2021056050A1 (en) * | 2019-09-24 | 2021-04-01 | NETGENIQ Pty Ltd | Systems and methods for identifying and/or tracking objects |
JP7379059B2 (ja) * | 2019-10-02 | 2023-11-14 | キヤノン株式会社 | 中間サーバ装置、情報処理装置、通信方法 |
US20230127146A1 (en) * | 2021-10-11 | 2023-04-27 | Worlds Enterprises, Inc. | Tracking Two-Dimensional Objects in a Three-Dimensional Coordinate Space |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1811774A (zh) * | 2005-01-28 | 2006-08-02 | 捷讯研究有限公司 | 利用移动通信设备自动集成来自多信息存储单元的内容 |
JP2011008791A (ja) * | 2010-06-30 | 2011-01-13 | Advanced Telecommunication Research Institute International | ロボットの対象物認識方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2874032B2 (ja) * | 1990-11-27 | 1999-03-24 | 富士通株式会社 | ソフトウェア作業ツール |
US5963653A (en) * | 1997-06-19 | 1999-10-05 | Raytheon Company | Hierarchical information fusion object recognition system and method |
JP4239635B2 (ja) * | 2003-03-20 | 2009-03-18 | ソニー株式会社 | ロボット装置、その動作制御方法、及びプログラム |
JP4450306B2 (ja) * | 2003-07-11 | 2010-04-14 | Kddi株式会社 | 移動体追跡システム |
JP3931879B2 (ja) | 2003-11-28 | 2007-06-20 | 株式会社デンソー | センサフュージョンシステム及びそれを用いた車両制御装置 |
RU2315352C2 (ru) * | 2005-11-02 | 2008-01-20 | Самсунг Электроникс Ко., Лтд. | Способ и система для автоматического обнаружения трехмерных образов |
JP5072655B2 (ja) | 2008-03-03 | 2012-11-14 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
JP5282614B2 (ja) | 2009-03-13 | 2013-09-04 | オムロン株式会社 | 視覚認識処理用のモデルデータの登録方法および視覚センサ |
WO2012103525A2 (en) * | 2011-01-28 | 2012-08-02 | Intouch Technologies, Inc. | Interfacing with a mobile telepresence robot |
-
2012
- 2012-01-19 BR BR112013020345-5A patent/BR112013020345B1/pt active IP Right Grant
- 2012-01-19 SG SG2013062302A patent/SG192807A1/en unknown
- 2012-01-19 RU RU2013138366/08A patent/RU2562441C2/ru active
- 2012-01-19 US US14/000,159 patent/US9213891B2/en active Active
- 2012-01-19 CN CN201280009259.1A patent/CN103380442B/zh active Active
- 2012-01-19 WO PCT/JP2012/000291 patent/WO2012111252A1/ja active Application Filing
- 2012-01-19 JP JP2012557806A patent/JP6142533B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1811774A (zh) * | 2005-01-28 | 2006-08-02 | 捷讯研究有限公司 | 利用移动通信设备自动集成来自多信息存储单元的内容 |
JP2011008791A (ja) * | 2010-06-30 | 2011-01-13 | Advanced Telecommunication Research Institute International | ロボットの対象物認識方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163583A (zh) * | 2020-09-25 | 2021-01-01 | 珠海智通信息技术有限公司 | 数字表读数的识别方法、识别设备以及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP6142533B2 (ja) | 2017-06-07 |
RU2562441C2 (ru) | 2015-09-10 |
BR112013020345B1 (pt) | 2021-07-20 |
BR112013020345A2 (pt) | 2017-08-08 |
US9213891B2 (en) | 2015-12-15 |
CN103380442B (zh) | 2016-09-28 |
RU2013138366A (ru) | 2015-02-27 |
US20140037150A1 (en) | 2014-02-06 |
SG192807A1 (en) | 2013-09-30 |
JPWO2012111252A1 (ja) | 2014-07-03 |
WO2012111252A1 (ja) | 2012-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111741356B (zh) | 双录视频的质检方法、装置、设备及可读存储介质 | |
JP6894534B2 (ja) | 情報処理方法及び端末、コンピュータ記憶媒体 | |
US20230376527A1 (en) | Generating congruous metadata for multimedia | |
WO2021120818A1 (en) | Methods and systems for managing image collection | |
CN103380442A (zh) | 信息处理设备 | |
CN115828112B (zh) | 一种故障事件的响应方法、装置、电子设备及存储介质 | |
CN111831629B (zh) | 一种数据处理方法及装置 | |
CN109360550A (zh) | 语音交互系统的测试方法、装置、设备和存储介质 | |
CN110334214B (zh) | 一种自动识别案件中虚假诉讼的方法 | |
CN110245564B (zh) | 一种行人检测方法、系统及终端设备 | |
CN110851761A (zh) | 基于区块链的侵权检测方法、装置、设备及存储介质 | |
CN111931809A (zh) | 数据的处理方法、装置、存储介质及电子设备 | |
CN112328823A (zh) | 多标签分类模型的训练方法、装置、电子设备及存储介质 | |
CN112699758A (zh) | 基于动态手势识别的手语翻译方法、装置、计算机设备及存储介质 | |
CN114268747A (zh) | 基于虚拟数字人的访谈业务处理方法及相关装置 | |
CN114329022A (zh) | 一种色情分类模型的训练、图像检测方法及相关装置 | |
CN110874326A (zh) | 测试用例生成方法、装置、计算机设备及存储介质 | |
US20200089817A1 (en) | Composition Engine for Analytical Models | |
CN111539390A (zh) | 一种基于Yolov3的小目标图像识别方法、设备和系统 | |
CN116311316A (zh) | 病历分类方法、系统、终端及存储介质 | |
CN115512369A (zh) | 文档图像版面分析方法、装置、计算机设备和存储介质 | |
CN114090650A (zh) | 一种样本数据识别方法、装置、电子设备及存储介质 | |
CN114299295A (zh) | 一种数据处理方法及相关装置 | |
CN112989869B (zh) | 人脸质量检测模型的优化方法、装置、设备及存储介质 | |
CN114780757A (zh) | 短媒体标签抽取方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |