CN109465819A - 人体识别系统及人体识别方法 - Google Patents

人体识别系统及人体识别方法 Download PDF

Info

Publication number
CN109465819A
CN109465819A CN201810642016.0A CN201810642016A CN109465819A CN 109465819 A CN109465819 A CN 109465819A CN 201810642016 A CN201810642016 A CN 201810642016A CN 109465819 A CN109465819 A CN 109465819A
Authority
CN
China
Prior art keywords
robot
human body
user
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810642016.0A
Other languages
English (en)
Other versions
CN109465819B (zh
Inventor
大竹晋资
高野安司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Hitachi Systems Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Publication of CN109465819A publication Critical patent/CN109465819A/zh
Application granted granted Critical
Publication of CN109465819B publication Critical patent/CN109465819B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种人体识别系统及人体识别方法,即使在搭载于机器人的摄像头拍摄不到人体脸部的情况下,也能够识别机器人附近的人体。本发明的一个方式中,机器人控制装置(100)基于机器人(100)的位置信息和能够拍摄到该机器人(100)的监视摄像头(200)的位置信息,将机器人(100)获取到的脸部数据和监视摄像头(200)获取到的步态数据与人体的标识符相对应地进行登记。然后,机器人控制装置(110)通过使用机器人(100)获取到的人物的脸部数据或监视摄像头(200)获取到的人物的步态数据、或者使用双方的数据,唯一地确定用户(用户识别信息)。

Description

人体识别系统及人体识别方法
技术领域
本发明涉及利用机器人来对人体(以下也称为“人物”)进行识别的人体识别系统及人体识别方法。
背景技术
以往,存在如下的机器人控制系统:在机器人所获取的图像与保存在机器人控制装置中的图像相似的情况下,基于该图像所附带的属性数据,来决定机器人的动作。
例如,专利文献1中记载了一种机器人控制系统,其通过经由网络的通信,对搭载在移动式机器人上的摄像头所获取的数据(脸部图像数据)进行积累,并基于积累的数据来对移动式机器人实现动作控制。
现有技术文献
专利文献
专利文献1:日本专利特开2015-163415号公报
发明内容
发明所要解决的技术问题
然而,专利文献1所记载的技术中,当人物没有朝向摄像头的方向时或者人物低头注视移动终端等的画面而向下时,或者人物带着口罩等的情况下,搭载于移动式机器人的摄像头就拍摄不到人物的脸部。若移动式机器人的摄像头拍摄不到人物的脸部,则难以对人物进行确定并实现移动式机器人的动作控制。
基于上述状况,希望即使在搭载于机器人的摄像头拍摄不到人物脸部的情况下,也能够识别出机器人附近的人物。
解决技术问题所采用的技术方案
本发明的一个方式的人体识别系统包括:具备摄像头且能够移动的机器人;配置于比该机器人要高的位置的监视摄像头;控制机器人的机器人控制装置;以及控制监视摄像头的摄像头控制装置。
在该人体识别系统中,摄像头控制装置具备步态识别处理部,该步态识别处理部从监视摄像头获取监视摄像头所拍摄到的人体的步行图像,并根据步行图像生成步态识别信息。机器人控制装置还具备:脸部识别处理部,该脸部识别处理部从机器人获取该机器人的摄像头所拍摄到的人体的脸部图像,并根据脸部图像生成脸部识别信息;以及用户识别信息表,该用户识别信息表从摄像头控制装置获取步态识别信息,并将步态识别信息和脸部识别信息与对应的人体的标识符对应起来存储。
发明效果
根据本发明的至少一个方式,即使在搭载于机器人的摄像头拍摄不到人体脸部的情况下,也能够识别机器人附近的人体。
上述以外的问题、结构及效果通过以下实施方式的说明来进一步明确。
附图说明
图1是表示本发明的实施方式1所涉及的机器人管理系统的整体结构的框图。
图2是表示本发明的实施方式1所涉及的机器人的结构例的框图。
图3是表示本发明的实施方式1所涉及的机器人控制装置的结构例的框图。
图4是表示本发明的实施方式1所涉及的机器人监视中心的结构例的框图。
图5是表示本发明的实施方式1所涉及的监视摄像头的结构例的框图。
图6是表示本发明的实施方式1所涉及的摄像头控制装置的结构例的框图。
图7是表示本发明的实施方式1所涉及的机器人管理表的例子的说明图。
图8是表示本发明的实施方式1所涉及的监视摄像头管理表的例子的说明图。
图9是表示本发明的实施方式1所涉及的用户识别信息表的例子的说明图。
图10是表示本发明的实施方式1所涉及的脸部识别信息表的例子的说明图。
图11是表示本发明的实施方式1所涉及的步态识别信息表的例子的说明图。
图12是表示本发明的实施方式1所涉及的机器人与监视摄像头的配置例的说明图。
图13是表示本发明的实施方式1所涉及的摄像头控制装置的步态信息获取处理方法的步骤的流程图。
图14是表示本发明的实施方式1所涉及的以机器人不会移动到区域外为前提的情况下的机器人控制装置的用户信息登记处理方法的步骤的流程图(1)。
图15是表示本发明的实施方式1所涉及的以机器人不会移动到区域外为前提的情况下的机器人控制装置的用户信息登记处理方法的步骤的流程图(2)。
图16是本发明的实施方式2所涉及的在随着机器人的移动从而能够拍摄到机器人所在位置的监视摄像头会发生变更的环境下的机器人控制装置的用户信息登记处理方法的步骤的流程图(1)。
图17是本发明的实施方式2所涉及的在随着机器人的移动从而能够拍摄到机器人所在位置的监视摄像头会发生变更的环境下的机器人控制装置的用户信息登记处理方法的步骤的流程图(2)。
具体实施方式
下面,参照附图,对用于实施本发明的实施方式的例子(以下也称为“本例”)进行说明。附图中,对于具有实质相同的功能或结构的构成要素标注相同的标号,并省略重复说明。
<1.实施方式1>
[机器人管理系统的整体情况]
图1是表示本发明的实施方式1所涉及的机器人管理系统的整体结构的框图。机器人管理系统是本发明的人体识别系统的一个方式。
如图1所示,机器人管理系统1具备:为客户提供建议的机器人100、控制各机器人100的动作并对从各机器人100获取的数据进行处理的机器人控制装置110、以及经由机器人控制装置100对各机器人100的配置进行管理的机器人监视中心120。机器人管理系统1还具备对建筑物300的内部进行拍摄的监视摄像头200、以及控制各监视摄像头200并进行数据处理的摄像头控制装置210。机器人100、机器人控制装置110、监视摄像头200和摄像头控制装置210可以是一台,也可以是多台。
机器人100和机器人控制装置110通过无线LAN等连接,能够相互进行通信。机器人控制装置110和机器人监视中心120、摄像头控制装置210和机器人监视中心110通过互联网等通信网络N连接,能够相互进行通信。监视摄像头200和摄像头控制装置210、机器人控制装置110和摄像头控制装置210通过有线LAN等连接,能够进行通信。机器人控制装置110和摄像头控制装置210彼此的距离较近的情况下,也可以通过无线LAN等无线通信单元以可通信的方式进行连接。
机器人100配置在建筑物300中。机器人100是向着建筑物300内的行人(以下也称为“用户”)自主移动并对商品等提供建议的机器人(自主移动型机器人)。例如,机器人100将建筑物300内各楼层的电梯厅等预设位置作为待机位置,自主移动到对象用户的位置,对商品等提供建议。该机器人100与设置在建筑物300内的机器人控制装置110一直保持无线通信,并以无线的方式受机器人控制装置110的控制。例如,从上述待机位置移动到目的地的路径是根据机器人控制装置110发出的指示而设定的。另外,机器人100也可以是非自主移动的固定型机器人。
机器人控制装置110经由网络N,与设置在建筑物300外部的机器人监视中心120进行通信。网络N可以采用例如互联网。机器人监视中心120与多个建筑物的机器人控制装置110进行通信,监视机器人100的工作状态等。
另外,本例的机器人100的自主移动是指机器人自身进行的移动,而不是指移动所需的判断(路径的判断等)都由机器人自身自主地进行。即,机器人100的移动路径是如上所述地由机器人控制装置110发出的指示所设定的,机器人100本身并不具备判断自主移动路径等的结构。但也可以全由机器人100来进行移动所需的判断。
[机器人的结构]
图2是表示机器人100的结构例的框图。
机器人100具备进行各种处理的CPU(中央处理单元)101,并由在CPU101的控制下执行各种处理的计算机装置、以及与该计算机装置连接的周边设备构成。CPU101经由母线连接至存储各种信息的存储装置102、输入输出各种信息的输入输出装置103、以及能够与机器人控制装置110进行通信的通信接口104。
存储装置102具备输入输出部102a、方案处理部102b、驱动控制部102c和对话控制部102d。输入输出部102a、方案处理部120b、驱动控制部102c和对话控制部102d是基于CPU101发出的指令进行动作的计算机程序所具有的功能。CPU101从存储装置102读取出适当所需的计算机程序到未图示的主存储装置(例如RAM(随机存取存储器))并执行。
输入输出部102a与输入输出装置103之间进行数据的收发,根据需要经由通信接口104与外部装置进行数据的收发。
方案处理部102b是机器人100执行用于实现应对动作(服务)的方案的程序,基于方案向驱动控制部102c和对话控制部102d发出指令。例如,在应对动作是“打招呼”的情况下,方案处理部102b向驱动控制部102c输出鞠躬或开口等的驱动指令,并且向对话控制部102d发出发声指令。方案处理部102b所执行的方案针对每一个应对动作而准备。另外,本例中,将方案处理部102b设置于机器人100,但也可以将方案处理部102b设置于机器人控制装置110。
驱动控制部102c根据方案处理部102b输出的基于方案数据的指令,进行使机器人100自主移动的驱动控制(移动服务)。
对话控制部102d根据方案处理部102b输出的基于方案数据的指令,与行人进行对话(对话服务)。对话控制部120d所进行的与行人的对话通常是使用后述的麦克风103e和扬声器103f通过语音来进行。也可以使用未图示的显示部、触摸屏等,通过显示和输入操作来进行对话。
输入输出装置103具备摄像部103a(摄像头)、测距传感器103b、陀螺仪传感器103c、驱动机构103d、麦克风103e和扬声器103f。
摄像部103a对机器人100的周围进行拍摄,并将拍摄得到的图像数据提供给存储装置102。摄像部103a使用CCD、CMOS等摄像装置构成。该摄像部103a优选为配置于比拍摄对象即行人的身高(例如普通人的平均身高)要低的位置(参照后述的图12)。
测距传感器103b是照射激光或红外线信号,并检测来自周围物体的反射,从而计算测量出周围的空间形状的传感器。测距传感器103b计算测量得到的数据提供给存储装置102。
陀螺仪传感器103c检测机器人100上施加的角加速度,并将检测数据提供给存储装置102。
驱动机构103d基于驱动控制部102c发出的指示,使机器人100移动。驱动机构103d具备至少驱动车轮等的电动机。或者,在机器人100是人型机器人的情况下,为了进行步行的移动,具备驱动相当于脚的构件的致动器。
上述的驱动控制部102c在机器人100移动时,使用摄像部103a拍摄到的影像(拍摄图像)和测距传感器103b检测出的数据来进行避开障碍物等的动作。这里,测距传感器103b的检测数据是利用光波测定的表示周围形状的形状数据、表示到测定对象的距离的距离数据。此外,驱动控制部102c还使用陀螺仪传感器103c、测距传感器103b的数据,来检测建筑物300内的机器人100的当前位置。
麦克风103e获取引导对象者的语音,并将获取的语音数据提供给存储装置102。
扬声器103f输出对话控制部102d所生成的对话用语音等。
当机器人100在驱动机构103d的驱动下移动时,存储装置102的驱动控制部102c对摄像部103a拍摄到的图像、测距传感器103b检测出的周围状况进行判断,进行避开障碍物等的动作。此外,驱动控制部102c还基于陀螺仪传感器103c、测距传感器103b的检测数据等,判断建筑物300内的当前位置。本例的情况下,机器人100所能移动的可移动范围被限制在预先决定的范围内(后述图12的例子中的区域A内等)。即,驱动控制部102c判断得到的当前位置限于该可移动范围内的位置。
通信接口104执行与机器人控制装置110的无线通信。
[机器人控制装置的结构]
图3是表示机器人控制装置110的结构例的框图。
机器人控制装置110由在进行各种处理的CPU111的控制下执行各种处理的计算机装置构成。CPU111经由母线连接至存储装置112和通信接口113。
存储装置112具备输入数据处理部112a、输出数据处理部112b、脸部识别处理部112c和用户识别处理部112d。输入数据处理部112a、输出数据处理部112b、脸部识别处理部112c和用户识别处理部112d是基于CPU111的指令进行动作的计算机程序所具有的功能。另外,存储装置112中还具备通过基于CPU111的指令执行计算机程序而形成的脸部识别信息表112e、步态识别信息表112f、用户识别信息表112g和机器人管理表112h。
输入数据处理部112a对通信接口113从外部装置接收到的数据进行输入处理。
输出数据处理部112b对从通信接口113向外部装置发送的数据进行输出处理。
脸部识别处理部112c从所输入的由机器人100的摄像部103a拍摄到的影像(拍摄图像)中检测出人物的脸部,并计算该脸部图像的特征量,对人物的脸部进行识别。从脸部图像提取出特征量的处理是公知的技术,因此这里不再做详细说明。
用户识别处理部112d基于从人物的脸部图像得到的特征量和/或从人物的步行图像得到的特征量,对用户进行识别。该用户识别处理部112d能够基于机器人100的位置信息和能够拍摄到该机器人的监视摄像头200的位置信息,将机器人100获取到的脸部数据和监视摄像头200获取到的步态数据相关联地进行登记。然后,用户识别处理部112d参照用户识别信息表112g,决定对机器人100识别出的用户要进行的应对动作,并经由输出数据处理部112b,将该应对动作的指示输出到机器人100。这种情况下,用户识别处理部112d也作为机器人动作指示部发挥作用,但用户识别处理部112d和机器人动作指示部也可以由独立的程序构成。如后文所述,机器人控制装置110从摄像头控制装置210获取步行图像和特征量。
脸部识别信息表112中,由脸部识别处理部112c计算出的脸部图像的特征量通过脸部识别处理部112c与脸部信息ID(脸部识别信息的例子)一起同用户ID(Identification)(人体标识符的例子)相关联地存储。利用脸部信息ID,可以识别具有同一特征量的脸部图像。
步态识别信息表112f中,由摄像头控制装置210的步态识别处理部212c计算出的步行图像的特征量与步态信息ID(步态识别信息的例子)一起同用户ID相关联地存储。利用步态信息ID,可以识别具有同一特征量的步行图像。该步态识别信息表112f的信息由机器人控制装置110从摄像头控制装置210获取。
用户识别信息表112g中,用户ID与脸部信息ID、步态信息ID及应对动作等对应起来作为用户信息而存储。
机器人管理表112h存储各机器人100的管理数据。
通信接口113执行与机器人100、机器人监视中心120和摄像头控制装置210的通信。
[机器人监视中心的结构]
图4是表示机器人监视中心120的结构例的框图。
机器人监视中心120具备进行各种处理的CPU121,并由在CPU121的控制下执行各种处理的计算机装置、以及与该计算机装置连接的周边设备构成。CPU121经由母线连接至存储各种信息的存储装置122、能够与机器人控制装置110及摄像头控制装置210进行通信的通信接口123、以及显示部124。
存储装置122具备输入输出数据处理部122a和宣传数据管理部122e。输入输出数据处理部122a和宣传数据管理部122e是基于CPU121的指令进行动作的计算机程序所具有的功能。另外,存储装置122还具备通过基于CPU121的指令执行计算机程序而形成的脸部识别信息表122b、步态识别信息表122c、用户识别信息表122d和机器人管理表122f。
输入输出数据处理部122a对经由通信接口123与机器人100、摄像头控制装置210之间通信的数据进行输入处理或输出处理。
脸部识别信息表122b中汇总存储从多个机器人控制装置110获取的脸部信息ID。
步态识别信息表122c中汇总存储从多个摄像头控制装置210获取的步态信息ID。
用户识别信息表122d中汇总存储从多个机器人控制装置110和多个摄像头控制装置210获取到的信息和用户ID(用户识别信息)。
机器人监视中心120根据脸部识别信息表122b、步态识别信息表122c和用户识别信息表122d,对从各机器人控制装置110和各摄像头控制装置210获取到的信息进行汇总管理。
宣传数据管理部122e生成与用户ID相应的宣传数据,并发送给机器人100的方案处理部102b。宣传数据是与商品等的宣传相关的数据,例如在应对动作是“宣传”的情况下,发送至方案处理部102b。
机器人管理表122f中汇总存储由多个机器人控制装置110所管理的机器人100的管理数据。
通信接口123执行与机器人控制装置110和摄像头控制装置210的通信。
显示部124根据需要显示各表格的内容、脸部图像、步行图像等。显示部124使用液晶显示装置等。
[监视摄像头的结构]
图5是表示监视摄像头200的结构例的框图。
监视摄像头200具备进行各种处理的CPU201,并由在CPU201的控制下执行各种处理的计算机装置、以及与该计算机装置连接的周边设备构成。CPU201经由母线连接至存储各种信息的存储装置202、输入输出各种信息的输入输出装置203、以及能够与摄像头控制装置210进行通信的通信接口204。
存储装置202具备影像处理部202a。影像处理部202a是基于CPU201发出的指令进行动作的计算机程序所具有的功能。CPU201将需要的程序读取到未图示的主存储装置(例如RAM)并适当地执行。
影像处理部202a对摄像部203a拍摄到的影像进行处理,并经由通信接口204发送到摄像头控制装置210。例如,影像处理部202a进行将从摄像部203a输出的原始数据(RAW图像)转换成摄像头控制装置能够处理的数据格式的处理。
输入输出装置203具备摄像部203a(摄像头)。摄像部203a对监视摄像头200的周围进行拍摄,并将拍摄得到的图像数据提供给存储装置202。本实施方式中,优选为各机器人100存在于多个监视摄像头200中的至少一个监视摄像头200的拍摄范围内。即,优选为机器人100位于至少能被1个监视摄像头200拍摄到的位置。摄像部203a使用CCD、CMOS等摄像装置构成。
通信接口204进行与摄像头控制装置210的通信。
[摄像头控制装置的结构]
图6是表示摄像头控制装置210的结构例的框图。
摄像头控制装置210由在进行各种处理的CPU211的控制下执行各种处理的计算机装置构成。CPU211经由母线连接至存储装置212和通信接口213。
存储装置212具备输入数据处理部212a、输出数据处理部212b和步态识别处理部212c。输入数据处理部212a、输出数据处理部212b和步态识别处理部212c是基于CPU211的指令进行动作的计算机程序所具有的功能。此外,存储装置212还具备通过基于CPU211的指令执行计算机程序而形成的步态识别信息表212d和监视摄像头管理表212e。
输入数据处理部212a对通信接口213从外部装置接收到的数据进行输入处理。
输出数据处理部212b对从通信接口213向外部装置发送的数据进行输出处理。
步态识别处理部212c根据所输入的由监视摄像头200的摄像部203a拍摄到的图像数据,计算人物的步行图像的特征量(以下称为“步态特征量”)。从步行图像提取出步态特征量的处理是公知的技术,因此这里不再做详细说明。
步态识别信息表212d中,由步态识别处理部212c计算出的步态特征量通过步态识别处理部212c同用户ID相关联地存储。
监视摄像头管理表212e中存储各监视摄像头200的管理数据。
通信接口213执行与监视机器人200、机器人监视中心120和机器人控制装置110的通信。
[机器人管理表]
图7是表示机器人管理表112h、122f的例子的说明图。
机器人管理表112h、122f具备顾客ID字段、设施ID字段、全球IP字段、机器人ID字段、本地IP字段和区域字段。各字段相互关联地进行管理。
“顾客ID”是基于和机器人100的提供方签订的合约来使用机器人或本实施方式所涉及的商业模式的顾客固有的ID。“设施ID”是配置机器人的设施固有的ID。例如,设施是建筑物、楼宇等的所有分区或一部分分区的使用者(商户、店铺、办公楼等)。“全球IP”是设施的通信设备的全球IP(互联网协议)地址。“机器人ID”是分配给每一台机器人100的固有的ID。“本地IP”是机器人100(通信接口104)的本地IP地址。“区域”表示设施内的机器人100的位置。
例如根据图7的例子,机器人提供方与顾客ID“001”的顾客签订机器人提供合约,在设施ID“001”的设施中使用2台机器人100,在设施ID“002”的设施中使用1台机器人100。设施ID“001”的设施中,机器人ID“001”的机器人100配置在区域“B3”,机器人ID“002”的机器人100配置在区域“B2”。此外,设施ID“002”的设施中,机器人ID“004”的机器人100配置在区域“C2”。
机器人控制装置110所具有的机器人管理表112h仅管理该机器人控制装置110控制的机器人100的信息。另一方面,机器人监视中心120所具有的机器人管理表122f管理该机器人监视中心120监视的所有机器人控制装置110所控制的机器人100的信息。机器人100具有驱动机构103d的情况下,使用机器人100所具有的测距传感器103b、机器人100所具有的驱动机构103d的移动历史(行走历史)、未图示的信标等,获取表示机器人100的位置的区域。
[监视摄像头管理表]
图8是表示监视摄像头管理表212e的例子的说明图。
监视摄像头管理表212e具备顾客ID字段、设施ID字段、全球IP字段、摄像头ID字段、本地IP字段和区域字段。各字段相互关联地进行管理。下面对各表格的各字段进行说明,但对于名称重复的字段省略说明。
“顾客ID”是顾客固有的ID。“设施ID”是设施固有的ID。“全球IP”是设施的通信设备的全球IP地址。“摄像头ID”是分配给每一个监视摄像头200的固有的ID。“本地IP”是监视摄像头200(通信接口204)的本地IP地址。“区域”表示配置在设施内的监视摄像头200的位置。
例如根据图8的例子,对于机器人提供方与顾客ID“001”的顾客签订了合约的机器人提供设施,在设施ID“001”的设施中配置2个监视摄像头200,在设施ID“002”的设施中配置1个监视摄像头200。在设施ID“001”的设施中,摄像头ID“001”的监视摄像头200配置在区域“B3”,摄像头ID“002”的监视摄像头200配置在区域“B2”。此外,设施ID“002”的设施中,摄像头ID“004”的监视摄像头200配置在区域“C2”。
[用户识别信息表]
图9是表示用户识别信息表112g、122d的例子的说明图。
用户识别信息表112g、122d具备用户ID字段、脸部信息ID字段、步态信息ID字段和应对动作字段。各字段相互关联地进行管理。
“用户ID”是对用户识别信息表112g所管理的每一个用户分配的用户固有的ID。“脸部信息ID”是用于参照记录了由机器人100的摄像部103a拍摄到的脸部图像的脸部识别信息表112e、122b的ID。“步态信息ID”是用于参照记录了由监视摄像头200拍摄到的步行图像得到的步态信息的步态识别信息表112f、122c的ID。“应对动作”是机器人100对用户进行的动作(服务)。
例如根据图9的例子,用户ID“0001”与脸部信息ID“0001”相关联。此外,用户ID“0002”与脸部信息ID“0002”、步态信息ID“0001”、应对动作“打招呼”相关联。
机器人控制装置110所具有的用户识别信息表112g和机器人监视中心120所具有的用户识别信息表122d的内容相同。各用户识别信息表112g、122d定期地或者以规定的定时彼此同步地更新,从而使彼此的登记数据一致。
[脸部识别信息表]
图10是表示脸部识别信息表112e、122b的例子的说明图。
脸部识别信息表112e、122b具备脸部识别ID字段、用户ID字段、特征量字段和一个以上的脸部图像字段。各字段相互关联地进行管理。
“脸部信息ID”是用于参照脸部识别信息表112e、122b的ID。“用户ID”是用户固有的ID。“特征量”通过将从脸部图像提取出的脸部特征数值化后得到。本例的特征量是从多幅脸部图像的各脸部图像分别计算得到的特征量的平均值,但也可以为每一幅脸部图像登记特征量。“脸部图像”是机器人100的摄像部103a拍摄到的人物脸部的图像。
例如根据图10的例子,脸部信息ID“0001”与用户ID“0001”、特征量“FaceFeature1”、脸部图像1“FaceImage11”~脸部图像n“FaceImage1n”相关联。
机器人控制装置110所具有的脸部识别信息表112e和机器人监视中心120所具有的脸部识别信息表122b相同。各脸部识别信息表112e、122b定期地或者以规定的定时彼此同步地更新,从而使彼此的登记数据一致。
[步态识别信息表]
图11是表示步态识别信息表112f、122c、212d的例子的说明图。
步态识别信息表112f、122c、212d具备步态信息ID字段、用户ID字段、特征量字段和一个以上的步行图像字段。各字段相互关联地进行管理。
“步态信息ID”是用于参照步态识别信息表112f、122c、212d的ID。“用户ID”是用户固有的ID。“特征量”通过将从步行图像提取出的走路形态(步态)特征数值化后得到。本例的特征量是从多幅步行图像的各步行图像分别计算得到的特征量的平均值,但也可以为每一幅步行图像登记特征量。“步行图像”是监视摄像头200的摄像部203a拍摄到的人物步行时的图像。该步行图像是动态图像、或是以一定时间间隔连续的静止图像。
例如根据图11的例子,步态信息ID“0001”与用户ID“0002”、特征量“WalkFeature1”、步行图像1“WalkImage11”~步行图像“WalkImage1n”相关联。
机器人控制装置110所具有的步态识别信息表112f、机器人监视中心120所具有的步态识别信息表122c以及摄像头控制装置210所具有的步态识别信息表212d相同。各步态识别信息表112f、112c、212d定期地或者以规定的定时彼此同步地更新,从而使彼此的登记数据一致。
下面,参照图12~图15,对在建筑物内获取用户的脸部信息和步态信息并与用户ID相关联地登记的方法进行说明。
[机器人与监视摄像头的配置例]
图12是表示机器人100和监视摄像头200的配置例的说明图。
图12所示的例子中,机器人100和监视摄像头200设置在建筑物300的入口(自动门310)附近。本实施方式中,机器人100位于建筑物300地面所设定的区域A中,监视摄像头200设置在区域A的上方(墙壁或是天花板)。此时,机器人100和监视摄像头200配置在同一位置(区域A)。机器人100和监视摄像头200在同一位置是指机器人100位于监视摄像头200附近(规定距离内),其一个示例为存在于同一区域内(例如区域A)。该机器人100和监视摄像头200的位置信息(区域信息)分别登记在机器人管理表112h、122f和监视摄像头管理表212e中。
本实施方式中,机器人100和监视摄像头200的位置(区域)相同,因此,将机器人100的摄像部103a拍摄到的脸部图像和监视摄像头200的摄像部203a拍摄到的步行图像作为同一人物的图像进行处理。但考虑到拍摄时在同一区域内会存在多名行人。在这种情况下,第1种方法是例如摄像头控制装置210将监视摄像头200的拍摄区域(例如区域A)分割成多个区域,获取与机器人100位于同一分割区域内的行人的步行图像的特征量。
或者第2种方法是摄像头控制装置210获取由监视摄像头200拍摄到的图像所显示出的多名行人中正被机器人100看着的行人(机器人100面向的方向上的行人)的步行图像的特征量。摄像头控制装置210的影像处理部202a能够实时地对拍摄图像所显示的机器人100的位置和方向、以及行人的位置进行分析。
另外,图12中,设置在自动门310旁边的验证装置320是输入用于识别用户U的信息并对用户进行验证的装置。验证装置320可以使用例如读取安全卡等的信息的卡片信息读取装置、使用用户的指纹等生物信息进行验证的生物验证装置等。例如,用户U要进入建筑物300内(区域A)时,在验证装置320上输入用户U的个人信息(卡片信息、生物信息等),在本人确认正常结束之后才允许入内。
[摄像头控制装置进行的步态信息获取处理]
图13是表示摄像头控制装置210的步态信息获取处理方法的步骤的流程图。
首先,摄像头控制装置210的步态识别处理部212c根据从监视摄像头200获取的拍摄图像,判定有没有行人(S1)。在没有识别出行人的情况下,即没有发现行人的情况下(S1:否),步态识别处理部212c继续执行步骤S1的判定处理。然后,当发现行人时(S1:是),计算步行图像的特征量(也称为“步态特征量”)(S2)。
然后,步态识别处理部212c将步行图像及其特征量作为步态数据,经由通信接口213发送给控制同一区域内(或指定的区域内)的机器人100的机器人控制装置110(S3)。步骤S3的处理之后,摄像头控制装置210回到步骤S1的处理。另外,各装置之间进行数据的收发时,通过各装置的通信接口、输入数据处理部和输出数据处理部进行,但在以下的说明中省略各部的记载。
[机器人控制装置进行的用户信息登记处理]
图14和图15是表示以机器人100不会移动到区域外为前提的情况下的机器人控制装置100的用户信息登记处理方法的步骤的流程图(1)和(2)。图14和图15中,以机器人100和监视摄像头200所在的位置为同一区域,且即使在机器人100具有驱动机构103d的情况下也不会移动到区域外为前提。图14和图15示出在此前提下机器人控制装置110获取脸部信息和登记到用户识别信息表中的相关动作。
图14中,首先,机器人控制装置110的脸部识别处理部112c获取由同一区域内的机器人100的摄像部拍摄到的影像(拍摄图像),并判定所获取的拍摄图像内是否存在人物的脸部(S11)。在拍摄图像内不存在人物脸部的情况下(S11:否),脸部识别处理部112c继续执行步骤S11的判定处理。在步骤S11中检测到拍摄图像内有人物脸部存在的情况下(S11:是),脸部识别处理部112c计算脸部图像的特征量,并将脸部图像及其特征量作为脸部数据进行保存(S12)。
然后,用户识别处理部112d判定是否从摄像头控制装置210接收到了步态数据(S13)。本例中,设定为摄像头控制装置210从监视摄像头200获取到步行图像值后,将步行图像及其特征量发送到机器人控制装置110。然后,用户识别处理部112d接收到步态数据时(S13:是),计算接收到的步态数据与登记在步态识别信息表112f中的步态数据的一致度,并判定有没有一致度达到阈值以上的数据(S14)。
在步骤S14中有一致度达到阈值以上的步态数据的情况下(S14:是),用户识别处理部112d将步态数据追加登记到步态识别信息表112f的相应的步态信息ID下。接着,用户识别处理部112d计算步骤S12中获取到的脸部数据与登记在脸部识别信息表112e中的脸部数据的一致度,并判定有没有一致度达到阈值以上的脸部数据(S15)。
在步骤S15中有一致度达到阈值以上的脸部数据的情况下(S15:是),脸部识别处理部112c将脸部数据追加登记到脸部识别信息表112e的相应的脸部信息ID下。然后,用户识别处理部112d从步态识别信息表112f获取在步骤S14中一致度最大的步态数据的用户ID,从脸部识别信息表112e获取在步骤S15中一致度最大的脸部数据的用户ID,判定从步态识别信息表112f获取到的用户数据与从脸部识别信息表112e获取到的用户ID是否相同(S16)。
步骤S16中双方的用户ID一致的情况下(S16:是),用户识别处理部112d控制为使得机器人100实施与该用户ID相关联的用户的属性所对应的应对动作(适合于用户的服务)(S17)。具体而言,用户识别处理部112d从用户识别信息表112g读取出与该用户ID相关联的应对动作,并将该应对动作的信息发送给机器人100。
然后,用户识别处理部112d判定是否继续进行用户信息的登记处理(S18),在继续进行用户信息的登记处理的情况下(S18:是),转移至步骤S11的处理。此外,在不继续进行用户信息的登记的情况下(S18:否),用户识别处理部112d结束一连串的处理。
在上述步骤S16中双方的ID不一致的情况下(S16:否),用户识别处理部112d将双方的用户ID加以合并(S19)。具体而言,用户识别处理部112d将脸部识别信息表112e的相应用户ID和步态识别信息表112f的相应用户ID合并为新生成的用户ID,并在用户识别信息表112g中新增登记该用户ID。另外,用户识别处理部112d将脸部识别信息表112e的相应用户ID和步态识别信息表112f的相应用户ID变更为合并后的用户ID。而且,用户识别处理部112d还按照预先设定的基准,对用户识别信息表112g的合并前的各用户ID相关联的“应对动作”也同样地进行合并。然后,用户识别处理部112d控制为使得在步骤S17中使机器人100实施与用户ID相对应的应对动作。
在机器人100和监视摄像头200的位置(区域)相同的情况下,即使与脸部数据相关联的用户ID和与步态数据相关联的用户ID不一致,双方的用户ID所指的也应当认为是同一人物。从而,如上所述,将双方的用户ID合并是合理的,能够减少存储装置112的数据量。另外,在用户ID合并时,例如将与步态数据相关联的另一用户ID合并到与脸部数据相关联的用户ID中。用户ID合并之后,该另一用户ID被删除。或者,在假设获取时间较新的一方数据反映的是最新的用户状态的情况下,也可以将获取时间较旧的其他用户ID相关联的数据合并到获取时间较新的数据相关联的用户ID中。
另一方面,在步骤S15中没有一致度达到阈值以上的脸部数据的情况下(S15:否),用户识别处理部112d在步态数据一致的用户ID下相关联地登记新的脸部信息ID和脸部数据。具体而言,用户识别处理部112d从步态识别信息表112f获取步骤S14中一致度最大的步态数据的用户ID,将新的脸部信息ID与相应用户ID及步骤S12中获取到的脸部数据相关联地登记到脸部识别信息表112e中(S20)。然后,用户识别处理部112d控制为使得在步骤S17中使机器人100实施与用户ID相对应的应对动作。
此外,在步骤S14中没有一致度达到阈值以上的步态数据的情况下(S14:否),用户识别处理部112d在步态识别信息表112f中与接收到的步态数据相关联地新增登记步态信息ID(图15的S21)。
接着,脸部识别处理部112c计算步骤S12中获取到的脸部数据与登记在脸部识别信息表112e中的脸部数据的一致度,并判定有没有一致度达到阈值以上的脸部数据(图15的S22)。
在步骤S22中有一致度达到阈值以上的脸部数据的情况下(S22:是),脸部识别处理部112c将脸部数据追加登记到脸部识别信息表112e的相应的脸部信息ID下。然后,用户识别处理部112d从脸部识别信息表112e获取与相应的脸部信息ID相关联的用户ID,并在用户设备信息表112g的相应的用户ID的记录中,将步骤S21中新登记的步态信息ID与步态数据相关联地进行登记(S23)。然后,用户识别处理部112d控制为使得在图14的步骤S17中使机器人100实施与用户ID相对应的应对动作。
在步骤S22中没有一致度达到阈值以上的脸部数据的情况下(S22:否),脸部识别处理部112c在脸部识别信息表112e中新增登记脸部信息ID,并与该脸部信息ID相关联地登记在步骤S12中获取到的脸部数据。此外,用户识别处理部112d在用户识别信息表112g中也新增登记用户ID。然后,用户识别处理部112d将脸部识别信息表112e中新增登记的脸部信息ID、及步骤S21中新增登记的步态识别信息表112f的步态信息ID,与该用户ID相关联地登记到用户识别信息表112g中(S24)。
接着,用户识别处理部112d实施与步骤S24中新增登记的用户ID对应的应对动作(S25)。例如,用户识别处理部112d从机器人监视中心120的宣传数据管理部122e获取对于新增用户的应对动作的信息,并前进至图14的步骤S18。
在图14的步骤S13中没有从摄像头控制装置210接收到步态数据的情况下(S13:否),脸部识别处理部112c计算步骤S12中获取到的脸部数据与登记在脸部识别信息表112e中的脸部数据的一致度,并判定有没有一致度达到阈值以上的脸部数据(S26)。
在步骤S26中没有一致度达到阈值以上的脸部数据的情况下(S26:否),脸部识别处理部112c在脸部识别信息表112e中新增登记脸部信息ID,并与该脸部信息ID相关联地登记在步骤S12中获取到的脸部数据。另外,用户识别处理部112d在用户识别信息表112g中也新增登记用户ID,并将脸部识别信息表112e中新增登记的脸部信息ID与该用户ID相关联地登记到用户识别信息表112g中(S27)。
另一方面,在步骤S26中有一致度达到阈值以上的脸部数据的情况下(S26:是),脸部识别处理部112c将步骤S12中获取到的脸部数据追加登记到脸部识别信息表112e的相应的脸部信息ID的记录中。然后,用户识别处理部112d从用户识别信息表112g获取与相应的脸部信息ID相关联的用户ID,控制为使得在图14的步骤S17中使机器人100实施与该用户ID对应的应对动作。
根据上述实施方式1,机器人控制装置110基于机器人100的位置信息、以及能够拍摄到该机器人100的监视摄像头200的位置信息,将机器人100获取到的脸部数据和监视摄像头200获取到的步态数据与对应的用户ID相关联地登记到用户识别信息表112g中。机器人控制装置110通过使用机器人100获取到的人物的脸部数据或监视摄像头200获取到的人物的步态数据、或者使用双方的数据,能够唯一地确定机器人附近的用户。即,本实施方式使用脸部数据(脸部信息ID)和步态数据(步态信息ID)中能够获取到的数据,并采用与相应的数据对应的识别方法,来参照用户识别信息表112g对人物进行识别。从而,即使在只能获取脸部数据和步态数据中的某一方数据的情况下,也能够确定用户,因此能够实施按用户区分的服务。
监视摄像头200与用户的距离很近的情况下、或者拍摄区域内显示出多个行人的情况下,难以获取行人的步行图像。另一方面,在监视摄像头200适当远离用户的情况下、拍摄区域内显示的行人较少的情况下,能够相对容易地获得行人的步行图像。用户识别处理部112d在机器人100的摄像部103a能够拍摄到用户的脸部的环境下(例如商户内),使用脸部图像对人物进行识别(步骤S13为否的情况)。另外,在监视摄像头20能够很好地拍摄到走路的人物的步行(脚)的环境下(例如商户外),使用步行图像对人物进行识别(步骤S13为是的情况,也可以参照实施方式3)。
<2.实施方式2>
实施方式1中,以机器人100的位置必需在规定的监视摄像头200的可拍摄范围之内为前提。而且,所示的是基于机器人100获取到的脸部数据的用户和基于监视摄像头200获取到的步态数据的用户为同一人物从而来确定用户的结构。而在实施方式2中,示出的是机器人100在建筑物300内自由移动从而能够拍摄到机器人100的所在位置的监视摄像头200会发生变更的环境下的用户信息的登记处理。即,实施方式2示出在上述环境下机器人控制装置110获取脸部信息并登记到用户识别信息表中的相关动作。
[机器人控制装置进行的用户信息登记处理]
图16和图17是表示随着机器人100的移动从而能够拍摄到机器人100所在位置的监视摄像头会发生变更的环境下的机器人控制装置110的用户信息登记处理方法的步骤的流程图(1)和(2)。图16和图17表示在机器人100和监视摄像头200存在多个,且机器人100获取到的脸部图像的用户和监视摄像头200获取到的步行图像的用户并不是唯一对应的关系的情况下机器人控制装置110的用户信息登记处理。特别是图16和图17中,示出了对于机器人100拍摄到脸部的用户,由监视摄像头200求出步态数据的情况下的机器人控制装置110的动作,机器人100拍摄到人物的脸部成为该动作的触发条件。
图16中,首先,机器人控制装置110的脸部识别处理部112c获取由同一区域内的机器人100的摄像部拍摄到的影像(拍摄图像),并判定所获取的拍摄图像内是否存在人物的脸部(S31)。在拍摄图像内不存在人物脸部的情况下(S31:否),脸部识别处理部112c继续执行步骤S31的判定处理。在步骤S31中检测到拍摄图像内有人物脸部存在的情况下(S31:是),脸部识别处理部112c计算脸部图像的特征量,并将脸部图像及其特征量作为脸部数据进行保存(S32)。
然后,用户识别处理部112d基于机器人100的测距传感器103b和陀螺仪传感器103c的检测数据,获取机器人100的位置信息(S33),确定机器人100所在的区域。接着,用户识别处理部112d从监视摄像头管理表212e获取能够拍摄到机器人100所在区域的监视摄像头200的摄像头ID(S34)。此外,用户识别处理部112d向具有步骤S34中获取到的摄像头ID的监视摄像头200请求发送步态数据(S35)。
然后,机器人控制装置110执行步骤S35~S50(图16和图17)的处理。另外,步骤S36~S50的处理与实施方式1的步骤S13~S27(图14和图15)的处理相同,因此不再进行说明。
根据上述实施方式2,即使在建筑物300内自由移动的机器人100获取到的脸部图像的用户和监视摄像头200获取到的步行图像的用户难以建立唯一对应关系的情况下,也能够从具有与机器人100的位置信息相关联的摄像头ID的监视摄像头200的拍摄图像得到用户的步行数据。因此,能够与实施方式1同样地通过使用机器人100获取到的人物的脸部数据或监视摄像头200获取到的人物的步态数据、或者使用双方的数据,来唯一地确定用户。
<3.实施方式3>
实施方式3是对于监视摄像头200获取到了步态数据的用户,由机器人100的摄像部103a拍摄到脸部的情况的例子。实施方式3示出在上述情况下机器人控制装置110获取脸部信息并登记到用户识别信息表中的相关动作。实施方式3中,监视摄像头200拍摄到行人成为该动作的触发条件。
首先,摄像头控制装置210从监视摄像头200获取步行图像,然后将生成了步行图像的监视摄像头200的摄像头ID和步行图像及其特征量(步态数据)一起发送至机器人控制装置110。机器人控制装置110的用户识别处理部112d从摄像头控制装置210接收到步态数据时,基于摄像头ID从监视摄像头管理表212e获取相应的监视摄像头200的位置信息(区域)。接着,用户识别处理部112d向存在于相应位置(区域)上或其附近的机器人100发出拍摄行人并获取脸部图像的指令。
然后,机器人控制装置110执行与实施方式1的步骤S13~S27(图14和图15)相对应的处理。其中,与脸部数据相关的处理和与步态数据相关的处理的前后顺序颠倒。即,本实施方式中,在图14的步骤S13中判定拍摄图像内是否检测到人物的脸部,在步骤S14中判定接收到的脸部数据与登记在脸部识别信息表112e中的脸部数据是否一致。然后,在步骤S15中判定接收到的步态数据与登记在步态识别信息表112f中的步态数据是否一致。
<4.实施方式4>
上述实施方式1~3中,将用户ID与脸部信息ID及步态信息ID相关联地进行管理,但也可以将能够用于识别用户的其它信息(卡片信息、生物信息等)、与脸部信息ID和步态信息ID一起与用户ID相关联地进行管理。可以通过读卡器或生物验证装置等读取卡片信息或生物信息,并将该信息与机器人控制装置110获取到的脸部图像、摄像头控制装置210获取到的步态图像相关联,从而用于识别用户。作为卡片信息,例如有安全卡号(工作人员编号等)、信用卡号等。作为生物信息,例如有指纹、虹膜、声纹、手指或手臂的静脉等的信息。
例如图12中,验证装置320和机器人控制装置110通过有线通信或无线通信的方式连接,从而能够进行通信。用户进入建筑物300(或目标楼层)时,将手指放置在验证装置320(此处为指纹验证装置)的读取面上,验证装置320从手指读取指纹,并将指纹信息发送至机器人控制装置110。
机器人控制装置110的脸部识别处理部112c对在接收到的指纹信息通过验证之后马上(设定时间内)进入到区域A内的用户U的脸部进行拍摄,则生成脸部数据和脸部信息ID,并登记到脸部识别信息表112e中。然后,用户识别处理部112d将用户ID与新增脸部信息ID相关联地新增登记在用户识别信息表112g中。此外,用户U进入到区域A内这一情况也可以通过摄像头控制装置210对监视摄像头200的拍摄图像进行分析而检测到。之后,基于脸部图像和/或指纹信息,能够确定用户(用户ID)。
作为另一个例子,对机器人100拍摄到用户U在建筑物300内的商户内为了购入商品而向店员出示信用卡,店员利用读卡装置对用户U的信用卡进行处理这一场面的情况进行说明。这种情况下,机器人100正在看着的方向上的用户U的脸部图像与机器人100正在看着的方向上的读卡装置所读取的卡片信息相关联。这里,在机器人100拍摄不到用户U的脸部图像的情况下,监视摄像头200也可以追踪作为拍摄对象的用户U并在用户U走路的过程中获取步行图像,将卡片信息与步行图像相关联。
上述实施方式4中,使用脸部图像和能够用于识别用户的其他信息(例如卡片信息、生物信息),能够识别出机器人100附近的用户。即,实施方式4中,机器人控制装置110的用户识别处理部112d基于用户的脸部图像和获取到的其它信息,参照用户识别信息表112g,能够确定该用户ID。作为其它信息,除了卡片信息和生物信息之外,还可以使用与用户的声音相关的信息。
另外,实施方式4中,也可以与其它实施方式一样,获取用户U的步行图像,并与脸部图像及其他信息一起与用户ID相关联地进行登记。而且,用户识别处理部112d还可以从步态图像、卡片信息、生物信息和声音信息中选择任一种来作为与脸部图像组合使用的其他信息(识别方法),并基于所选择的信息和脸部图像来进行用户的识别处理。例如,在获得了脸部图像和步态图像和卡片信息的情况下,用户可以将与用户直接相关联的卡片信息和脸部图像用于用户的识别。
根据上述实施方式4,用户识别处理部112d能够根据机器人100的动作状况(例如位置或有没有拍摄到脸部图像)、用户的行为(输入个人信息)、机器人100与用户的对话、商户店员的操作(信用卡的处理等)等状况,适当地使用用户的脸部图像和/或其它信息来识别用户。用户的识别可以使用脸部图像和其它2种信息。
另外,在仅得到了脸部图像的情况下,用户识别处理部112d基于脸部图像进行图15的步骤S26、S27或图17的步骤S49、S50的处理,实施新用户用的服务。另外,在仅能得到其它的1种信息的情况下,用户识别处理部112d进行实施方式3的处理(将步行图像替换为其它信息来使用),实施新用户用的服务。
<5.变形例>
上述实施方式中,说明了机器人控制装置110的用户识别处理部112d识别用户的例子,但也可以是机器人100具备用户识别处理部112d,由机器人100一侧来执行用户的识别处理。
另外,用户识别信息表112g、122d、脸部识别信息表112e、122b、及步态识别信息表112f、122c、212d中登记的数据优选为在经过一定期间后删除。从而,能够减少各装置内的存储装置的存储区域中存储的数据量,能够确保有一定的空闲区域。
此外,本发明并不限于上述各实施例,只要不脱离权利要求书所记载的本发明的范围,当然可以采用其它各种应用例、变形例。
例如,上述实施方式中,为了使本发明容易理解来进行说明,详细且具体地说明了装置和系统的结构,但并不限于一定要具有所说明的所有结构。另外,某一个实施方式的一部分结构可以替换成其它实施方式的结构。另外,某一个实施方式的结构中也可以加入其它实施方式的结构。另外,各实施方式的一部分结构也可以增加、删除或替换其它结构。
此外,上述各结构、功能、处理部、处理单元等各自的一部分或者全部可以由例如在集成电路中进行设计等利用硬件来实现。此外,上述各结构、功能等也可以通过处理器对实现各自功能的程序进行解释、执行从而由软件来实现。实现各功能的程序、表格、文件等的信息可以存放在存储器、硬盘、SSD(固态驱动器)等记录装置、或IC卡、SD卡、DVD等记录介质中。
另外,所示的控制线路、信息线路是为了进行说明而认为是必须示出的,对于产品来说并未示出全部的控制线路、信息线路。实际上可以认为几乎所有的结构都是相互连接的。
标号说明
1 机器人管理系统
100 机器人
101 CPU
102 存储装置
102a 输入输出部
102b 方案处理部
102c 驱动控制部
102d 对话控制部
103 输入输出装置
103a 摄像头
103b 测距传感器
103c 陀螺仪传感器
103d 驱动机构
130e 麦克风
103f 扬声器
110 机器人控制装置
111 CPU
112 存储装置
112a 输入数据处理部
112b 输出数据处理部
112c 脸部识别处理部
112d 用户识别处理部
112e 脸部识别信息表
112f 步态识别信息表
112g 用户识别信息表
112h 机器人管理表
120 机器人监视中心
121 CPU
122 存储装置
122a 输入输出数据处理部
122b 脸部识别信息表
122c 步态识别信息表
122d 用户识别信息表
122e 宣传数据管理部
122f 机器人管理表
124 显示部
200 监视摄像头
201 CPU
202 存储装置
202a 影像处理部
203 输入输出装置
203a 摄像部
210 摄像头控制装置
211 CPU
212 存储装置
212a 输入数据处理部
212b 输出数据处理部
212c 步态识别处理部
212d 步态识别信息表
212e 监视摄像头管理表

Claims (9)

1.一种人体识别系统,包括:具有摄像头且能移动的机器人;配置于比所述机器人要高的位置的监视摄像头;控制所述机器人的机器人控制装置;以及控制所述监视摄像头的摄像头控制装置,所述人体识别系统的特征在于,
所述摄像头控制装置具备步态识别处理部,该步态识别处理部从所述监视摄像头获取所述监视摄像头拍摄到的人体的步行图像,并根据所述步行图像生成步态识别信息,
所述机器人控制装置具备:
脸部识别处理部,该脸部识别处理部从所述机器人获取所述机器人的摄像头拍摄到的人体的脸部图像,并根据所述脸部图像生成脸部识别信息;以及
用户识别信息表,该用户识别信息表从所述摄像头控制装置获取所述步态识别信息,并将所述步态识别信息和所述脸部识别信息与对应的人体的标识符对应起来进行存储。
2.如权利要求1所述的人体识别系统,其特征在于,
所述机器人控制装置还具备用户识别处理部,
所述用户识别处理部使用从所述脸部识别信息和所述步态识别信息中得到的识别信息,并采用与相应的识别信息对应的识别方法,参照所述用户识别信息表来进行所述人体的识别。
3.如权利要求2所述的人体识别系统,其特征在于,
所述机器人的摄像头配置于比所述人体的身高要低的位置。
4.如权利要求3所述的人体识别系统,其特征在于,
所述机器人控制装置还具备机器人动作指示部,
所述机器人动作指示部决定所述机器人对由所述用户识别处理部识别出的所述人体要进行的动作,并指示所述机器人进行所述动作。
5.如权利要求2所述的人体识别系统,其特征在于,
在所述机器人位于所述监视摄像头附近的情况下,所述用户识别处理部将由所述脸部图像生成的脸部识别信息和由所述步行图像生成的步态识别信息作为对于同一人的信息,将所述脸部识别信息和所述步态识别信息对应起来存储于所述用户识别信息表。
6.如权利要求2所述的人体识别系统,其特征在于,
所述用户识别处理部在所述机器人的摄像头能够拍摄到人体脸部时,使用脸部图像进行人体的识别,在所述监视摄像头能够很好地拍摄到走路之人的步行的环境下,使用步行图像进行人体的识别。
7.如权利要求2所述的人体识别系统,其特征在于,
所述用户识别处理部在商户内进行使用了脸部图像的识别,在商户外进行使用了步行图像的识别。
8.如权利要求2所述的人体识别系统,其特征在于,
所述用户识别信息表中,还与所述人体的标识符相对应地存储有对所述人体进行识别时能够与所述脸部图像进行组合来使用的其它信息,
所述用户识别处理部在有所述其它信息输入时,使用所述脸部图像和所述其它信息,并参照所述用户识别信息表来进行所述人体的识别。
9.一种人体识别方法,由人体识别系统执行该人体识别方法,该人体识别系统包括:具有摄像头且能移动的机器人;配置于比所述机器人要高的位置的监视摄像头;控制所述机器人的机器人控制装置;以及控制所述监视摄像头的摄像头控制装置,所述人体识别方法的特征在于,
包括以下步骤:
由所述摄像头控制装置从所述监视摄像头获取所述监视摄像头拍摄到的人体的步行图像,并根据所述步行图像生成步态识别信息的步骤;
由所述机器人控制装置从所述机器人获取所述机器人的摄像头拍摄到的人体的脸部图像,并根据所述脸部图像生成脸部识别信息的步骤;以及
由所述机器人控制装置从所述摄像头控制装置获取所述步态识别信息,并将所述步态识别信息和所述脸部识别信息与对应的人体的标识符对应起来存储到用户识别信息表中的步骤。
CN201810642016.0A 2017-09-08 2018-06-21 人体识别系统及人体识别方法 Active CN109465819B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-172647 2017-09-08
JP2017172647A JP6730236B2 (ja) 2017-09-08 2017-09-08 人識別システム及び人識別方法

Publications (2)

Publication Number Publication Date
CN109465819A true CN109465819A (zh) 2019-03-15
CN109465819B CN109465819B (zh) 2022-04-05

Family

ID=65660038

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810642016.0A Active CN109465819B (zh) 2017-09-08 2018-06-21 人体识别系统及人体识别方法

Country Status (2)

Country Link
JP (1) JP6730236B2 (zh)
CN (1) CN109465819B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860063A (zh) * 2019-04-30 2020-10-30 杭州海康威视数字技术股份有限公司 步态数据构建系统、方法及装置
CN112115773A (zh) * 2020-08-06 2020-12-22 深圳优地科技有限公司 楼层识别方法、装置、设备及存储介质
CN112766225A (zh) * 2021-02-01 2021-05-07 黄岩 基于流动性人员的步态自动建库的装置及方法
CN115100771A (zh) * 2021-03-04 2022-09-23 株式会社日立大厦系统 来访者管理系统和来访者管理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7304531B2 (ja) * 2019-04-09 2023-07-07 パナソニックIpマネジメント株式会社 身体機能管理システム、及び、身体機能管理方法
JP7321773B2 (ja) * 2019-05-24 2023-08-07 キヤノン株式会社 画像形成装置
CN111604906A (zh) * 2020-05-26 2020-09-01 天津市微卡科技有限公司 一种基于步态识别的陪护机器人
EP4332797A4 (en) * 2021-04-30 2024-06-26 NEC Corporation INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
CN115131848A (zh) * 2022-04-01 2022-09-30 深圳市丹德瑞电气有限公司 一种人员信息多维标准化智能采集系统
WO2024004164A1 (ja) * 2022-06-30 2024-01-04 日本電信電話株式会社 ロボットコミュニケーションシステム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110072A (ja) * 2004-10-14 2006-04-27 Mitsubishi Heavy Ind Ltd 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
CN103106393A (zh) * 2012-12-12 2013-05-15 袁培江 一种基于机器人平台的嵌入式人脸识别智能身份认证系统
CN105118104A (zh) * 2015-09-24 2015-12-02 河南鑫山信息科技有限公司 基于步态识别功能的多功能考勤机
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア
CN105787440A (zh) * 2015-11-10 2016-07-20 深圳市商汤科技有限公司 一种基于人脸特征和步态特征的安保管理方法及系统
CN106778556A (zh) * 2016-12-01 2017-05-31 大连因特视智能传感科技有限公司 基于动态人脸识别和步态识别融合的智能身份识别系统
KR20170082078A (ko) * 2016-01-05 2017-07-13 한국전자통신연구원 신원 인식 장치 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110072A (ja) * 2004-10-14 2006-04-27 Mitsubishi Heavy Ind Ltd 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
CN103106393A (zh) * 2012-12-12 2013-05-15 袁培江 一种基于机器人平台的嵌入式人脸识别智能身份认证系统
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア
CN105118104A (zh) * 2015-09-24 2015-12-02 河南鑫山信息科技有限公司 基于步态识别功能的多功能考勤机
CN105787440A (zh) * 2015-11-10 2016-07-20 深圳市商汤科技有限公司 一种基于人脸特征和步态特征的安保管理方法及系统
KR20170082078A (ko) * 2016-01-05 2017-07-13 한국전자통신연구원 신원 인식 장치 및 방법
CN106778556A (zh) * 2016-12-01 2017-05-31 大连因特视智能传感科技有限公司 基于动态人脸识别和步态识别融合的智能身份识别系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860063A (zh) * 2019-04-30 2020-10-30 杭州海康威视数字技术股份有限公司 步态数据构建系统、方法及装置
CN111860063B (zh) * 2019-04-30 2023-08-11 杭州海康威视数字技术股份有限公司 步态数据构建系统、方法及装置
CN112115773A (zh) * 2020-08-06 2020-12-22 深圳优地科技有限公司 楼层识别方法、装置、设备及存储介质
CN112766225A (zh) * 2021-02-01 2021-05-07 黄岩 基于流动性人员的步态自动建库的装置及方法
CN115100771A (zh) * 2021-03-04 2022-09-23 株式会社日立大厦系统 来访者管理系统和来访者管理方法

Also Published As

Publication number Publication date
JP2019049786A (ja) 2019-03-28
CN109465819B (zh) 2022-04-05
JP6730236B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
CN109465819A (zh) 人体识别系统及人体识别方法
JP6502491B2 (ja) 顧客サービスロボットおよび関連するシステムおよび方法
JP6806261B2 (ja) 店舗装置、店舗システム、店舗管理方法、プログラム
US20190005479A1 (en) Interfacing with a point of sale system from a computer vision system
JP6904421B2 (ja) 店舗装置、店舗管理方法、プログラム
JP5157595B2 (ja) 接客システム及び接客方法
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP7540430B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5001930B2 (ja) 動作認識装置及び方法
CN101213563A (zh) 识别物体运动模式的方法
CN107618036B (zh) 控制装置、控制系统和控制方法
KR20190118965A (ko) 시선 추적 시스템 및 방법
JP2019217558A (ja) 対話システム及び対話システムの制御方法
JP6206405B2 (ja) 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム
Mettel et al. Designing and evaluating safety services using depth cameras
US20200175763A1 (en) Content providing device, content providing method, and storage medium
KR20230015272A (ko) 인공지능을 이용한 무인 정보 단말기, 주문 관리 서버 및 주문 정보 제공방법
JP5651639B2 (ja) 情報処理装置、情報表示装置、情報処理方法およびプログラム
JP6981553B2 (ja) 識別システム、モデル提供方法およびモデル提供プログラム
JP2021135363A (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
WO2019150954A1 (ja) 情報処理装置
JP2022117096A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6878582B2 (ja) 表示装置を介した人に対するデータの表示を制御する方法
CN111971149A (zh) 记录介质、信息处理设备和信息处理方法
JP7509720B2 (ja) 作業管理システム、ロボット装置、作業管理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant