JP2019049786A - 人識別システム及び人識別方法 - Google Patents

人識別システム及び人識別方法 Download PDF

Info

Publication number
JP2019049786A
JP2019049786A JP2017172647A JP2017172647A JP2019049786A JP 2019049786 A JP2019049786 A JP 2019049786A JP 2017172647 A JP2017172647 A JP 2017172647A JP 2017172647 A JP2017172647 A JP 2017172647A JP 2019049786 A JP2019049786 A JP 2019049786A
Authority
JP
Japan
Prior art keywords
robot
face
identification information
user
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017172647A
Other languages
English (en)
Other versions
JP6730236B2 (ja
Inventor
晋資 大竹
Shinsuke Otake
晋資 大竹
安司 高野
Yasushi Takano
安司 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Priority to JP2017172647A priority Critical patent/JP6730236B2/ja
Priority to CN201810642016.0A priority patent/CN109465819B/zh
Publication of JP2019049786A publication Critical patent/JP2019049786A/ja
Application granted granted Critical
Publication of JP6730236B2 publication Critical patent/JP6730236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットに搭載されたカメラで人の顔を撮影できない場合でも、ロボットの近くにいる人を識別する。【解決手段】本発明の一態様は、ロボット制御装置110が、ロボット100の位置情報及びそのロボット100を撮影可能な監視カメラ200の位置情報を基に、ロボット100が取得した顔データと監視カメラ200が取得した歩容データを人の識別子と対応付けて登録する。そして、ロボット制御装置110は、ロボット100が取得した人の顔データ若しくは監視カメラ200が取得した人の歩容データ、あるいはその両方を用いることで、ユーザー(ユーザー識別情報)を一意に特定する。【選択図】図9

Description

本発明は、ロボットにより人(以下「人物」とも称する)を識別する人識別システム及び人識別方法に関する。
従来、ロボットが取得した画像がロボット制御装置に保存されている画像と類似する場合に、その画像に紐付けられている属性データに基づいてロボットの動作を決定するロボット制御システムが存在する。
例えば、特許文献1には、移動式ロボットに搭載されたカメラにより取得されるデータ(顔画像データ)の蓄積及び蓄積されたデータに基づく移動式ロボットの動作制御を、ネットワークを介した通信により実現するロボット制御システムが記載されている。
特開2015−163415号公報
しかしながら、特許文献1に記載の技術では、人物がカメラの方向を向いていない場合若しくは人物が携帯端末等の画面をのぞき込んで下を向いている場合、あるいは人物がマスクをかけている場合などには、移動式ロボットに搭載されたカメラで人物の顔を撮影できない。移動式ロボットのカメラで人物の顔を撮影できないと、人物を特定して移動式ロボットの動作制御を実現することが困難になる。
上記の状況から、ロボットに搭載されたカメラで人物の顔を撮影できない場合でも、ロボットの近くにいる人物を識別することが望まれていた。
本発明の一態様の人識別システムは、カメラを備えた移動可能なロボットと、該ロボットよりも高い位置に配置された監視カメラと、ロボットを制御するロボット制御装置と、監視カメラを制御するカメラ制御装置とを含む。
この人識別システムにおいて、カメラ制御装置は、監視カメラが撮影した人の歩行画像を監視カメラから受け取り、歩行画像から歩容識別情報を作成する歩容識別処理部、を備える。またロボット制御装置は、ロボットのカメラが撮影した人の顔画像をそのロボットから受け取り、顔画像から顔識別情報を作成する顔識別処理部と、カメラ制御装置から歩容識別情報を受け取り、歩容識別情報と顔識別情報を対応する人の識別子に対応付けて格納するユーザー識別情報テーブルと、を備える。
本発明の少なくとも一態様によれば、ロボットに搭載されたカメラで人の顔を撮影できない場合でも、ロボットの近くにいる人を識別することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の第1の実施形態例に係るロボット管理システム全体の構成を示すブロック図である。 本発明の第1の実施形態例に係るロボットの構成例を示すブロック図である。 本発明の第1の実施形態例に係るロボット制御装置の構成例を示すブロック図である。 本発明の第1の実施形態例に係るロボット監視センタの構成例を示すブロック図である。 本発明の第1の実施形態例に係る監視カメラの構成例を示すブロック図である。 本発明の第1の実施形態例に係るカメラ制御装置の構成例を示すブロック図である。 本発明の第1の実施形態例に係るロボット管理テーブルの例を示す説明図である。 本発明の第1の実施形態例に係る監視カメラ管理テーブルの例を示す説明図である。 本発明の第1の実施形態例に係るユーザー識別情報テーブルの例を示す説明図である。 本発明の第1の実施形態例に係る顔識別情報テーブルの例を示す説明図である。 本発明の第1の実施形態例に係る歩容識別情報テーブルの例を示す説明図である。 本発明の第1の実施形態例に係るロボットと監視カメラの配置例を示す説明図である。 本発明の第1の実施形態例に係るカメラ制御装置の歩容情報取得処理手法の手順を示すフローチャートである。 本発明の第1の実施形態例に係る、ロボットがエリア外に移動しないことを前提とした場合の、ロボット制御装置のユーザー情報登録処理手法の手順を示すフローチャート(1)である。 本発明の第1の実施形態例に係る、ロボットがエリア外に移動しないことを前提とした場合の、ロボット制御装置のユーザー情報登録処理手法の手順を示すフローチャート(2)である。 本発明の第2の実施形態例に係る、ロボットが移動することでロボットの存在する位置を撮影可能な監視カメラが変更されうる環境における、ロボット制御装置のユーザー情報登録処理手法の手順を示すフローチャート(1)である。 本発明の第2の実施形態例に係る、ロボットが移動することでロボットの存在する位置を撮影可能な監視カメラが変更されうる環境における、ロボット制御装置のユーザー情報登録処理手法の手順を示すフローチャート(2)である。
以下、本発明を実施するための形態の例(以下「本例」と称することがある)について、添付図面を参照しながら説明する。添付図面において実質的に同一の機能又は構成を有する構成要素については、同一の符号を付して重複する説明を省略する。
<1.第1の実施形態>
[ロボット管理システム全体]
図1は、本発明の第1の実施形態例に係るロボット管理システム全体の構成を示すブロック図である。ロボット管理システムは、本発明の人識別システムの一態様である。
図1に示すように、ロボット管理システム1は、顧客への提案を実施するロボット100と、各ロボット100の動作の制御及び各ロボット100から取得したデータの処理を行うロボット制御装置110と、各ロボット100の配置をロボット制御装置110を経由して管理するロボット監視センタ120を備える。さらにロボット管理システム1は、建物300内を撮影する監視カメラ200と、各監視カメラ200の制御及びデータ処理を行うカメラ制御装置210を備える。ロボット100、ロボット制御装置110、監視カメラ200、及びカメラ制御装置210は、一台又は複数台である。
ロボット100とロボット制御装置110とは、無線LANなどを介して相互に通信可能に接続される。ロボット制御装置110とロボット監視センタ120、及びカメラ制御装置210とロボット監視センタ120とは、インターネットなどの通信ネットワークNを介して相互に通信可能に接続される。監視カメラ200とカメラ制御装置210、及びロボット制御装置110とカメラ制御装置210は、有線LANなどを介して通信可能に接続される。ロボット制御装置110とカメラ制御装置210は互いの距離が近い場合には、無線LANなどの無線通信手段により通信可能に接続されてもよい。
ロボット100は、建物300に配置される。ロボット100は、建物300内の歩行者(以下「ユーザー」とも称する)に向かって自律移動して商品等の提案を行うロボット(自律移動型ロボット)である。例えば、ロボット100は、建物300内の各階のエレベーターホールなどの決められた位置を待機位置とし、対象のユーザーの位置まで自律移動して商品等の提案を行う。このロボット100は、常時、建物300内に設置されたロボット制御装置110と無線通信を行い、ロボット制御装置110により無線で制御されるようになっている。例えば、上述した待機位置から目的地まで移動するルートが、ロボット制御装置110からの指示で設定される。なお、ロボット100は、自律移動しない固定型ロボットであってもよい。
ロボット制御装置110は、ネットワークNを介して、建物300の外部に設置されたロボット監視センタ120と通信を行う。ネットワークNとしては、例えばインターネットが適用される。ロボット監視センタ120は、複数の建物のロボット制御装置110と通信を行って、ロボット100の稼働状態などを監視する。
なお、本例のロボット100における自律移動とは、ロボット自身が動いて移動することを意味し、移動のために必要な判断(ルートの判断など)をロボット自身が全て自律的に行うことを意味するものではない。すなわち、ロボット100が移動するルートは、上述したようにロボット制御装置110からの指示で設定され、ロボット100単体で自律的に移動するルートなどを判断する構成になっていない。但し、ロボット100が移動に必要な判断を全て行うようにしてもよい。
[ロボットの構成]
図2は、ロボット100の構成例を示すブロック図である。
ロボット100は、各種の処理を行うCPU(central processing unit:中央制御ユニット)101を備えて、CPU101の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。CPU101は、バスラインを介して、各種の情報を記憶する記憶装置102、各種の情報を入出力する入出力装置103、及びロボット制御装置110と通信可能な通信インターフェース104に接続されている。
記憶装置102は、入出力部102a、シナリオ処理部102b、駆動制御部102c、及び対話制御部102dを備える。入出力部102a、シナリオ処理部102b、駆動制御部102c、及び対話制御部102dは、CPU101からの指令に基づいて動作するコンピュータプログラムが持つ機能である。CPU101は、記憶装置102から適宜必要なコンピュータプログラムを不図示の主記憶装置(例えばRAM(Random Access Memory))に読み出して実行する。
入出力部102aは、入出力装置103との間でデータの送信及び受信を行い、必要に応じて通信インターフェース104を介して外部装置とデータの送信及び受信を行う。
シナリオ処理部102bは、ロボット100が応対動作(サービス)を実現するためのシナリオを実行するプログラムであり、シナリオに基づいて駆動制御部102c及び対話制御部102dに指令を出す。例えば、応対動作が“あいさつ”の場合には、シナリオ処理部102bは駆動制御部102cにお辞儀や口を動かすなどの駆動指令を出すとともに、対話制御部102dに発話指令を出す。シナリオ処理部102bで実行されるシナリオは、応対動作ごとに用意される。なお、本例では、ロボット100にシナリオ処理部102bを設けたが、シナリオ処理部102bをロボット制御装置110に設けてもよい。
駆動制御部102cは、シナリオ処理部102bから出力された、シナリオデータに基づく指令に従ってロボット100を自律移動させる駆動制御(移動サービス)を行う。
対話制御部102dは、シナリオ処理部102bから出力された、シナリオデータに基づく指令に従って歩行者と対話(対話サービス)を行う。対話制御部102dによる歩行者との対話は、通常、後述するマイクロフォン103eとスピーカ103fを使った音声によって行われる。これに対して、不図示の表示部やタッチパネルなどを用いた、表示と入力操作によって対話するようにしてもよい。
入出力装置103は、撮像部103a(カメラ)、測域センサ103b、ジャイロセンサ103c、駆動機構103d、マイクロフォン103e、及びスピーカ103fを備える。
撮像部103aは、ロボット100の周囲を撮影し、撮影して得た画像データを記憶装置102に供給する。撮像部103aは、CCDやCMOS等の撮像装置を用いて構成される。この撮像部103aは、撮影対象である歩行者の身長(例えば一般的な人間の平均身長)よりも低い位置に配置されることが望ましい(後述する図12参照)。
測域センサ103bは、レーザ光や赤外線信号を照射して、周囲の物体からの反射を検出して、周囲の空間形状を計測するセンサである。測域センサ103bで計測されたデータは記憶装置102に供給される。
ジャイロセンサ103cは、ロボット100に加わる角加速度を検出して、検出データを記憶装置102に供給する。
駆動機構103dは、駆動制御部102cからの指示に基づいて、ロボット100を移動させる。駆動機構103dは、少なくとも車輪等を駆動させるモータを備える。あるいは、ロボット100が人型ロボットである場合には、歩行による移動を行うため、脚に相当する部材を駆動するアクチュエータを備える。
上述した駆動制御部102cは、ロボット100が移動する際に、撮像部103aが撮影した映像(撮影画像)、及び測域センサ103bが検出したデータを用いて障害物を避けるなどの動作を行う。ここで、測域センサ103bの検出データは、光波によって測定した周囲の形状を示す形状データや、測定対象との距離を示す距離データである。また、駆動制御部102cは、ジャイロセンサ103cや測域センサ103bのデータを用いて、建物300内のロボット100の現在位置を検出する。
マイクロフォン103eは、案内対象者の音声を取得し、取得した音声データを記憶装置102に供給する。
スピーカ103fは、対話制御部102dで生成された対話用の音声などを出力する。
記憶装置102の駆動制御部102cは、駆動機構103dによる駆動でロボット100が移動する際に、撮像部103aが撮影した画像や、測域センサ103bが検出した周囲状況を判断して、障害物などを避ける動作を行う。また、駆動制御部102cは、ジャイロセンサ103cや測域センサ103bの検出データなどに基づいて、建物300内の現在位置を判断する。本例の場合には、ロボット100が移動できる移動可能範囲は、予め決められた範囲(後述する図12の例でのエリアA内など)に制限される。つまり、駆動制御部102cが判断する現在位置は、その移動可能範囲内での位置に留まる。
通信インターフェース104は、ロボット制御装置110との無線通信を実行する。
[ロボット制御装置の構成]
図3は、ロボット制御装置110の構成例を示すブロック図である。
ロボット制御装置110は、各種の処理を行うCPU111の制御下で各処理が実行されるコンピュータ装置で構成される。CPU111には、バスラインを介して記憶装置112と通信インターフェース113とが接続される。
記憶装置112は、入力データ処理部112a、出力データ処理部112b、顔識別処理部112c、及びユーザー識別処理部112dを備える。入力データ処理部112a、出力データ処理部112b、顔識別処理部112c、及びユーザー識別処理部112dは、CPU111の指令に基づいて動作するコンピュータプログラムが持つ機能である。また、記憶装置112には、CPU111の指令に基づいてコンピュータプログラムを実行することにより形成される、顔識別情報テーブル112e、歩容識別情報テーブル112f、ユーザー識別情報テーブル112g、及びロボット管理テーブル112hを備える。
入力データ処理部112aは、外部装置から通信インターフェース113が受信したデータを入力処理する。
出力データ処理部112bは、外部装置に対して通信インターフェース113から送信するデータを出力処理する。
顔識別処理部112cは、入力されたロボット100の撮像部103aで撮影された映像(撮影画像)から人物の顔を検出してその顔画像の特徴量を計算し、人物の顔を識別する。顔画像から特徴量を抽出する処理は周知技術であるから、ここでは詳細な説明を割愛する。
ユーザー識別処理部112dは、人物の顔画像から得られた特徴量、及び/又は人物の歩行画像から得られた特徴量に基づいてユーザーを識別する。このユーザー識別処理部112dは、ロボット100の位置情報及びそのロボット100を撮影可能な監視カメラ200の位置情報を基に、ロボット100が取得した顔データと監視カメラ200が取得した歩容データを紐付けて登録することを可能にする。そして、ユーザー識別処理部112dは、ユーザー識別情報テーブル112gを参照してロボット100が識別されたユーザーに行う対応動作を決定し、出力データ処理部112bを介して、その対応動作の指示をロボット100に出力する。この場合、ユーザー識別処理部112dは、ロボット動作指示部としても機能するが、ユーザー識別処理部112dとロボット動作指示部を別個のプログラムにより構成してもよい。後述するように、ロボット制御装置110は、カメラ制御装置210から歩行画像及び特徴量を取得する。
顔識別情報テーブル112eには、顔識別処理部112cで計算された顔画像の特徴量が、顔識別処理部112cにより顔情報ID(顔識別情報の例)とともにユーザーID(Identification)(人の識別子の例)と紐付けて格納される。顔情報IDにより同一の特徴量を持つ顔画像が識別される。
歩容識別情報テーブル112fには、カメラ制御装置210の歩容識別処理部212cで計算された歩行画像の特徴量が、歩容情報ID(歩容識別情報の例)とともにユーザーIDと紐付けて格納される。歩容情報IDにより同一の特徴量を持つ歩行画像が識別される。この歩容識別情報テーブル112fの情報を、ロボット制御装置110がカメラ制御装置210から取得する。
ユーザー識別情報テーブル112gは、ユーザーIDに顔情報ID、歩容情報ID、及び応対動作等が対応づけられて、ユーザー情報として格納される。
ロボット管理テーブル112hは、各ロボット100の管理データを格納する。
通信インターフェース113は、ロボット100、ロボット監視センタ120、及びカメラ制御装置210との通信を実行する。
[ロボット監視センタの構成]
図4は、ロボット監視センタ120の構成例を示すブロック図である。
ロボット監視センタ120は、各種の処理を行うCPU121を備えて、CPU121の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。CPU121は、バスラインを介して、各種の情報を記憶する記憶装置122、ロボット制御装置110及びカメラ制御装置210と通信可能な通信インターフェース123、及び表示部124に接続されている。
記憶装置122は、入出力データ処理部122a、及び宣伝データ管理部122eを備える。入出力データ処理部122a、及び宣伝データ管理部122eは、CPU121の指令に基づいて動作するコンピュータプログラムが持つ機能である。また、記憶装置122は、CPU121の指令に基づいてコンピュータプログラムを実行することにより形成される、顔識別情報テーブル122b、歩容識別情報テーブル122c、ユーザー識別情報テーブル122d、及びロボット管理テーブル122fを備える。
入出力データ処理部122aは、通信インターフェース123を介してロボット100やカメラ制御装置210との間で通信されるデータの入力処理又は出力処理を行う。
顔識別情報テーブル122bには、複数のロボット制御装置110から取得した顔情報IDがまとめて格納される。
歩容識別情報テーブル122cには、複数のカメラ制御装置210から取得した歩容情報IDがまとめて格納される。
ユーザー識別情報テーブル122dには、複数のロボット制御装置110及び複数のカメラ制御装置210から取得した情報と、ユーザーID(ユーザー識別情報)がまとめて格納される。
ロボット監視センタ120は、顔識別情報テーブル122b、歩容識別情報テーブル122c、及びユーザー識別情報テーブル122dにより、各ロボット制御装置110及び各カメラ制御装置210から取得した情報をまとめて管理する。
宣伝データ管理部122eは、ユーザーIDに応じた宣伝データを作成してロボット100のシナリオ処理部102bへ送信する。宣伝データは、商品等の宣伝に関するデータであり、例えば応対動作が“宣伝”である場合に、シナリオ処理部102bに送信される。
ロボット管理テーブル122fには、複数のロボット制御装置110に管理されているロボット100の管理データがまとめて格納される。
通信インターフェース123は、ロボット制御装置110及びカメラ制御装置210との通信を実行する。
表示部124には、必要に応じて各テーブルの内容や顔画像や歩行画像等が表示される。表示部124として液晶表示装置などが用いられる。
[監視カメラの構成]
図5は、監視カメラ200の構成例を示すブロック図である。
監視カメラ200は、各種の処理を行うCPU201を備えて、CPU201の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。CPU201は、バスラインを介して、各種の情報を記憶する記憶装置202、各種の情報を入出力する入出力装置203、及びカメラ制御装置210と通信可能な通信インターフェース204に接続されている。
記憶装置202は、映像処理部202aを備える。映像処理部202aは、CPU201からの指令に基づいて動作するコンピュータプログラムが持つ機能である。CPU201は、必要なプログラムを不図示の主記憶装置(例えばRAM)に読み出して適宜実行する。
映像処理部202aは、撮像部203aにより撮影された映像を処理して通信インターフェース204を介してカメラ制御装置210へ送信する。一例として映像処理部202aは、撮像部203aから出力される生データ(RAW画像)をカメラ制御装置で処理可能なデータ形式に変換する処理を行う。
入出力装置203は、撮像部203a(カメラ)を備える。撮像部203aは、監視カメラ200の周囲を撮影し、撮影して得た画像データを記憶装置202に供給する。本実施形態では、各ロボット100は、複数の監視カメラ200のうち少なくとも1台の監視カメラ200の撮影範囲内に存在することが望ましい。つまり、ロボット100は、少なくとも1台の監視カメラ200で撮影される位置にいることが望ましい。撮像部203aは、CCDやCMOS等の撮像装置を用いて構成される。
通信インターフェース204は、カメラ制御装置210との通信を実行する。
[カメラ制御装置の構成]
図6は、カメラ制御装置210の構成例を示すブロック図である。
カメラ制御装置210は、各種の処理を行うCPU211の制御下で各処理が実行されるコンピュータ装置で構成される。CPU211には、バスラインを介して記憶装置212と通信インターフェース213とが接続される。
記憶装置212は、入力データ処理部212a、出力データ処理部212b、及び歩容識別処理部212cを備える。入力データ処理部212a、出力データ処理部212b、及び歩容識別処理部212cは、CPU211の指令に基づいて動作するコンピュータプログラムが持つ機能である。また、記憶装置212は、CPU211の指令に基づいてコンピュータプログラムを実行することにより形成される、歩容識別情報テーブル212d、及び監視カメラ管理テーブル212eを備える。
入力データ処理部212aは、外部装置から通信インターフェース213が受信したデータを入力処理する。
出力データ処理部212bは、外部装置に対して通信インターフェース213から送信するデータを出力処理する。
歩容識別処理部212cは、入力された監視カメラ200の撮像部203aで撮影された画像データから人物の歩行画像の特徴量(以下「歩容特徴量」と称す)を計算する。歩行画像から歩容特徴量を抽出する処理は周知技術であるから、ここでは詳細な説明を割愛する。
歩容識別情報テーブル212dには、歩容識別処理部212cで計算された歩容特徴量が歩容識別処理部212cによりユーザーIDと紐付けて格納される。
監視カメラ管理テーブル212eには、各監視カメラ200の管理データが格納される。
通信インターフェース213は、監視カメラ200、ロボット監視センタ120、及びロボット制御装置110との通信を実行する。
[ロボット管理テーブル]
図7は、ロボット管理テーブル112h,122fの例を示す説明図である。
ロボット管理テーブル112h,122fは、顧客IDフィールド、施設IDフィールド、グローバルIPフィールド、ロボットIDフィールド、ローカルIPフィールド、及びエリアフィールドを備える。各フィールドは、互いに紐付けられて管理されている。
「顧客ID」は、ロボット100の提供者と交わした契約に基づいてロボット若しくは本実施形態に係るビジネスモデルを利用する顧客固有のIDである。「施設ID」は、ロボットが配置される施設固有のIDである。一例として施設は、建物やビルディングなどの全区画又は一部の区画の利用者(テナント、店舗、オフィス等)である。「グローバルIP」は、施設の通信機器のグローバルIP(Internet Protocol)アドレスである。「ロボットID」は、ロボット100ごとに割り当てられた固有のIDである。「ローカルIP」は、ロボット100(通信インターフェース104)のローカルIPアドレスである。「エリア」は、施設内におけるロボット100の位置を表す。
例えば図7の例によれば、ロボット提供者が顧客ID“001”の顧客とロボット提供契約を結び、施設ID“001”の施設において2台のロボット100が利用され、施設ID“002”の施設において1台のロボット100が利用されている。施設ID“001”の施設では、ロボットID“001”のロボット100がエリア“B3”に配置され、ロボットID“002”のロボット100がエリア“B2”に配置されている。また、施設ID“002”の施設では、ロボットID“004”のロボット100がエリア“C2”に配置されている。
ロボット制御装置110が持つロボット管理テーブル112hは、そのロボット制御装置110が制御するロボット100のみの情報を管理する。一方、ロボット監視センタ120が持つロボット管理テーブル122fは、そのロボット監視センタ120が監視する全てのロボット制御装置110が制御するロボット100の情報を管理する。ロボット100が駆動機構103dを有する場合には、ロボット100の位置を表すエリアは、ロボット100の持つ測域センサ103bやロボット100の持つ駆動機構103dの移動履歴(走行履歴)、不図示のビーコンなどを用いて取得される。
[監視カメラ管理テーブル]
図8は、監視カメラ管理テーブル212eの例を示す説明図である。
監視カメラ管理テーブル212eは、顧客IDフィールド、施設IDフィールド、グローバルIPフィールド、カメラIDフィールド、ローカルIPフィールド、及びエリアフィールドを備える。各フィールドは、互いに紐付けられて管理されている。以下に各テーブルの各フィールドについて説明するが、名称が重複するフィールドについては説明を簡略する。
「顧客ID」は、顧客固有のIDである。「施設ID」は、施設固有のIDである。「グローバルIP」は、施設の通信機器のグローバルIPアドレスである。「カメラID」は、監視カメラ200ごとに割り当てられた固有のIDである。「ローカルIP」は、監視カメラ200(通信インターフェース204)のローカルIPアドレスである。「エリア」は、施設内に配置された監視カメラ200の位置を表す。
例えば図8の例によれば、ロボット提供者が顧客ID“001”の顧客と契約を結んだロボット提供施設に関し、施設ID“001”の施設において2台の監視カメラ200が配置され、施設ID“002”の施設において1台の監視カメラ200が配置されている。施設ID“001”の施設では、カメラID“001”の監視カメラ200がエリア“B3”に配置され、カメラID“002”の監視カメラ200がエリア“B2”に配置されている。また、施設ID“002”の施設では、カメラID“004”の監視カメラ200がエリア“C2”に配置されている。
[ユーザー識別情報テーブル]
図9は、ユーザー識別情報テーブル112g,122dの例を示す説明図である。
ユーザー識別情報テーブル112g,122dは、ユーザーIDフィールド、顔情報IDフィールド、歩容情報IDフィールド、及び応対動作フィールドを備える。各フィールドは、互いに紐付けられて管理されている。
「ユーザーID」は、ユーザー識別情報テーブル112gで管理するユーザーごとに割り当てられたユーザー固有のIDである。「顔情報ID」は、ロボット100の撮像部103aで撮影した顔画像を記録した顔識別情報テーブル112e,122bを参照するためのIDである。「歩容情報ID」は、監視カメラ200で撮影した歩行画像から得られる歩容情報を記録した歩容識別情報テーブル112f,122cを参照するためのIDである。「応対動作」は、ロボット100がユーザーに対して行う動作(サービス)である。
例えば図9の例によれば、ユーザーID“0001”に対して顔情報ID“0001”が紐付けられている。また、ユーザーID“0002”に対して顔情報ID“0002”、歩容情報ID“0001”、応対動作“あいさつ”が紐付けられている。
ロボット制御装置110が持つユーザー識別情報テーブル112gと、ロボット監視センタ120が持つユーザー識別情報テーブル122dの内容は、同じものである。各ユーザー識別情報テーブル112g,120dは、定期的に又は所定のタイミングで互いに同期をとって更新され、互いの登録データを一致させるようにしている。
[顔識別情報テーブル]
図10は、顔識別情報テーブル112e,122bの例を示す説明図である。
顔識別情報テーブル112e,122bは、顔情報IDフィールド、ユーザーIDフィールド、特徴量フィールド、及び1以上の顔画像フィールドを備える。各フィールドは、互いに紐付けられて管理されている。
「顔情報ID」は、顔識別情報テーブル112e,122bを参照するためのIDである。「ユーザーID」は、ユーザー固有のIDである。「特徴量」は、顔画像から抽出された顔の特徴を数値化したものである。本例の特徴量は、複数の顔画像の各顔画像から計算した特徴量の平均値であるが、顔画像ごとに特徴量を登録してもよい。「顔画像」は、ロボット100の撮像部103aで撮影した人物の顔の画像である。
例えば図10の例によれば、顔情報ID“0001”に対して、ユーザーID“0001”、特徴量“FaceFeature1”、顔画像1“FaceImage11”から顔画像n“FaceImage1n”が紐付けられている。
ロボット制御装置110が持つ顔識別情報テーブル112eとロボット監視センタ120が持つ顔識別情報テーブル122bは、同じものである。各顔識別情報テーブル112e,122bは、定期的に又は所定のタイミングで互いに同期をとって更新され、互いの登録データを一致させるようにしている。
[歩容識別情報テーブル]
図11は、歩容識別情報テーブル112f,122c,212dの例を示す説明図である。
歩容識別情報テーブル112f,122c,212dは、歩容情報IDフィールド、ユーザーIDフィールド、特徴量フィールド、及び1以上の歩行画像フィールドを備える。各フィールドは、互いに紐付けられて管理されている。
「歩容情報ID」は、歩容識別情報テーブル112f,122c,212dを参照するためのIDである。「ユーザーID」は、ユーザー固有のIDである。「特徴量」は、歩行画像から抽出された歩き方(歩容)の特徴を数値化したものである。本例の特徴量は、複数の歩行画像の各歩行画像から計算した特徴量の平均値であるが、歩行画像ごとに特徴量を登録してもよい。「歩行画像」は、監視カメラ200の撮像部203aで撮影した人物の歩行時の画像である。この歩行画像は、動画、若しくはある時間間隔で連続した静止画である。
例えば図11の例によれば、歩容情報ID“0001”に対して、ユーザーID“0002”、特徴量“WalkFeature1”、歩行画像1“WalkImage11”から歩行画像n“WalkImage1n”が紐付けられている。
ロボット制御装置110が持つ歩容識別情報テーブル112fと、ロボット監視センタ120が持つ歩容識別情報テーブル122cと、カメラ制御装置210が持つ歩容識別情報テーブル212dは、同じものである。各歩容識別情報テーブル112f,112c及び212dは、定期的に又は所定のタイミングで互いに同期をとって更新され、互いの登録データを一致させるようにしている。
以下、建物内でユーザーの顔情報及び歩容情報を取得してユーザーIDに紐付けて登録する方法を、図12〜図15を参照して説明する。
[ロボットと監視カメラの配置例]
図12は、ロボット100と監視カメラ200の配置例を示す説明図である。
図12に示す例では、ロボット100及び監視カメラ200が建物300の入り口(自動ドア310)付近に設置されている。本実施形態おいて、ロボット100は建物300の床面に設定されたエリアAに存在し、監視カメラ200はエリアAの上方(壁若しくは天井)に設置されている。このとき、ロボット100と監視カメラ200は同じ位置(エリアA)に配置されているものとする。ロボット100及び監視カメラ200が同じ位置とは、ロボット100が監視カメラ200の近傍(所定距離内)に位置することであり、その一例が同一エリア(例えばエリアA)に存在することである。このロボット100及び監視カメラ200の位置情報(エリア情報)がそれぞれ、ロボット管理テーブル112h,122f及び監視カメラ管理テーブル212eに登録される。
本実施形態では、ロボット100と監視カメラ200の位置(エリア)が同じであるため、ロボット100の撮像部103aで撮影された顔画像と監視カメラ200の撮像部203aで撮影された歩行画像を、同一人物の画像として扱う。但し、撮影時、同一エリア内に複数の歩行者が存在することも考えられる。このような場合には、第1の方法として、例えばカメラ制御装置210は、監視カメラ200の撮影エリア(例えばエリアA)を複数の領域に分割し、ロボット100と同じ分割領域にいる歩行者の歩行画像の特徴量を取得する。
あるいは第2の方法として、カメラ制御装置210は、監視カメラ200で撮影された画像に映り込んだ複数の歩行者のうち、ロボット100が見ている歩行者(ロボット100が向いている方向にいる歩行者)の歩行画像の特徴量を取得する。カメラ制御装置210の映像処理部202aは、撮影画像に映るロボット100の位置と向き、並びに歩行者の位置をリアルタイムに解析することが可能である。
なお、図12において、自動ドア310の横に設置された認証装置320は、ユーザーUを識別するための情報の入力及びユーザーの認証が行われる装置である。認証装置320としては、例えばセキュリティカード等の情報を読み取るカード情報読取り装置、ユーザーの指紋等の生体情報を用いて認証を行う生体認証装置などが利用される。例えばユーザーUは、建物300内(フロアA)に入るときに、認証装置320にユーザーUの個人情報(カード情報、生体情報等)を入力し、本人確認が正常に終了したら入室が許可される。
[カメラ制御装置による歩容情報取得処理]
図13は、カメラ制御装置210の歩容情報取得処理手法の手順を示すフローチャートである。
まず、カメラ制御装置210の歩容識別処理部212cは、監視カメラ200から取得した撮影画像により歩行者の有無を判定する(S1)。歩行者を認識できない場合、すなわち歩行者を発見できない場合には(S1のNO)、歩容識別処理部212cは、ステップS1の判定処理を継続して実行する。次いで、歩行者を発見すると(S1のYES)、歩行画像の特徴量(「歩容特徴量」ともいう)を計算する(S2)。
次いで、歩容識別処理部212cは、歩行画像とその特徴量を歩容データとして、通信インターフェース213を介して同じエリア内(又は指定されたエリア内)のロボット100を制御するロボット制御装置110へ送信する(S3)。ステップS3の処理後、カメラ制御装置210はステップS1の処理に戻る。なお、各装置間でデータの送信及び受信を行う際には各装置の通信インターフェース、入力データ処理部、及び出力データ処理部を通じて行うが、以下の説明では各部の記載を省略する。
[ロボット制御装置によるユーザー情報登録処理]
図14及び図15は、ロボット100がエリア外に移動しないことを前提とした場合の、ロボット制御装置110のユーザー情報登録処理手法の手順を示すフローチャート(1)及び(2)である。図14及び図15は、ロボット100と監視カメラ200が存在する位置が同じエリアであり、かつロボット100が駆動機構103dを有している場合でもエリア外には移動しないことを前提としている。図14及び図15は、この前提の下で、ロボット制御装置110による顔情報の取得及びユーザー識別情報テーブルへの登録に関する動作を示す。
図14において、まずロボット制御装置110の顔識別処理部112cは、同一エリア内のロボット100の撮像部によって撮影された映像(撮影画像)を取得し、取得した撮影画像内に人物の顔が存在するか否かを判定する(S11)。撮影画像内に人物の顔が存在しなかった場合には(S11のNO)、顔識別処理部112cは、ステップS11の判定処理を継続して実行する。ステップS11において撮影画像内に人物の顔が存在することを検知した場合には(S11のYES)、顔識別処理部112cは、顔画像の特徴量を計算して、顔画像とその特徴量を顔データとして保持する(S12)。
その後、ユーザー識別処理部112dは、カメラ制御装置210から歩容データを受信したか否かを判定する(S13)。本例では、カメラ制御装置210が監視カメラ200から歩行画像を取得したら、歩行画像とその特徴量をロボット制御装置110へ送信するように設定している。そして、ユーザー識別処理部112dは、歩容データを受信すると(S13のYES)、受信した歩容データと歩容識別情報テーブル112fに登録されている歩容データとの一致度を計算して、一致度が閾値以上になるデータの有無を判定する(S14)。
ステップ14において一致度が閾値以上となる歩容データがある場合には(S14のYES)、ユーザー識別処理部112dは、歩容識別情報テーブル112fの該当する歩容情報IDへ歩容データを追加登録する。次に、ユーザー識別処理部112dは、ステップS12で取得した顔データと顔識別情報テーブル112eに登録されている顔データとの一致度を計算して、一致度が閾値以上になる顔データの有無を判定する(S15)。
ステップS15において一致度が閾値以上となる顔データがある場合には(S15のYES)、顔識別処理部112cは、顔識別情報テーブル112eの該当する顔情報IDへ顔データを追加登録する。次いで、ユーザー識別処理部112dは、歩容識別情報テーブル112fからステップS14において一致度が最大となる歩容データのユーザーIDと、顔識別情報テーブル112eからステップ15で一致度が最大となる顔データのユーザーIDを取得し、歩容識別情報テーブル112fから取得したユーザーIDと顔識別情報テーブル112eから取得したユーザーIDとが同一であるか否かを判定する(S16)。
ステップS16において双方のユーザーIDが一致する場合には(S16のYES)、ユーザー識別処理部112dは、ロボット100がそのユーザーIDに紐づくユーザーの属性に応じた応対動作(ユーザーに適したサービス)を実施するよう制御する(S17)。具体的にはユーザー識別処理部112dは、ユーザー識別情報テーブル112gから該当ユーザーIDに紐付けられた対応動作を読み出し、その対応動作の情報をロボット100へ送信する。
次いで、ユーザー識別処理部112dは、ユーザー情報の登録処理を継続するか否かを判定し(S18)、ユーザー情報の登録処理を継続する場合には(S18のYES)、ステップS11の処理に移行する。また、ユーザー情報の登録を継続しない場合には(S18のNO)、ユーザー識別処理部112dは一連の処理を終了する。
上述したステップS16において双方のユーザーIDが一致しない場合には(S16のNO)、ユーザー識別処理部112dは、双方のユーザーIDを統合する(S19)。具体的にはユーザー識別処理部112dは、顔識別情報テーブル112eの該当ユーザーIDと歩容識別情報テーブル112fの該当ユーザーIDとを新たに作成したユーザーIDに統合し、ユーザー識別情報テーブル112gにそのユーザーIDを新規登録する。また、ユーザー識別処理部112dは、顔識別情報テーブル112eの該当ユーザーID及び歩容識別情報テーブル112fの該当ユーザーIDを、統合後のユーザーIDに変更する。さらに、ユーザー識別処理部112dは、ユーザー識別情報テーブル112gの統合前の各ユーザーIDに紐づいていた「応対動作」も同様に、予め設定した基準に従って統合する。そして、ユーザー識別処理部112dは、ステップS17においてロボット100がユーザーIDに対応した応対動作を実施するよう制御する。
ロボット100と監視カメラ200の位置(エリア)が同じである場合には、顔データに紐付いたユーザーIDと歩容データに紐付いたユーザーIDが一致しないとしても、双方のユーザーIDは同一人物のものと考えるのが自然である。それゆえ、上記のとおり双方のユーザーIDを統合することが合理的であり、記憶装置112のデータ量が削減される。なお、ユーザーIDの統合に際しては、例えば顔データに紐付いたユーザーIDに対し、歩容データに紐付いた他のユーザーIDを統合する。ユーザーIDの統合後は、当該他のユーザーIDを削除する。あるいは、取得日時がより新しいデータの方が最新のユーザーの状態を反映しているとして、取得日時の新しいデータに紐付いたユーザーIDに、取得日時の古い他のユーザーIDに紐付いたデータを統合するようにしてもよい。
一方、ステップS15において一致度が閾値以上となる顔データがない場合には(S15のNO)、ユーザー識別処理部112dは、歩容データが一致したユーザーIDに紐付けて新規顔情報IDと顔データを登録する。具体的にはユーザー識別処理部112dは、歩容識別情報テーブル112fからステップS14で一致度が最大となる歩容データのユーザーIDを取得し、顔識別情報テーブル112eに新しい顔情報IDを、該当ユーザーID及びステップS12で取得した顔データと紐付けて登録する(S20)。そして、ユーザー識別処理部112dは、ステップS17においてロボット100がユーザーIDに対応した応対動作を実施するよう制御する。
また、ステップS14において一致度が閾値以上となる歩容データがない場合には(S14のNO)、ユーザー識別処理部112dは、歩容識別情報テーブル112fに受信した歩容データに紐付けて新たに歩容情報IDを登録する(図15のS21)。
次に、顔識別処理部112cは、ステップS12で取得した顔データと顔識別情報テーブル112eに登録されている顔データとの一致度を計算して、一致度が閾値以上になる顔データの有無を判定する(図15のS22)。
ステップS22において一致度が閾値以上となる顔データがある場合には(S22のYES)、顔識別処理部112cは、顔識別情報テーブル112eの該当する顔情報IDへ顔データを追加登録する。そして、ユーザー識別処理部112dは、顔識別情報テーブル112eから該当する顔情報IDに紐付くユーザーIDを取得し、ユーザー識別情報テーブル112gの該当するユーザーIDのレコードに、ステップS21において新規に登録した歩容情報IDと歩容データを紐付けて登録する(S23)。そして、ユーザー識別処理部112dは、図14のステップS17においてロボット100がユーザーIDに対応した応対動作を実施するよう制御する。
ステップS22において一致度が閾値以上となる顔データがない場合には(S22のNO)、顔識別処理部112cは、顔識別情報テーブル112eに新たに顔情報IDを登録し、その顔情報IDに紐付けてステップS12で取得した顔データを登録する。また、ユーザー識別処理部112dは、ユーザー識別情報テーブル112gにも新たにユーザーIDを登録する。そして、ユーザー識別処理部112dは、そのユーザーIDに紐付けて顔識別情報テーブル112eの新規登録した顔情報ID及びステップS21において新規に登録した歩容識別情報テーブル112fの歩容情報IDを、ユーザー識別情報テーブル112gに登録する(S24)。
そして、ユーザー識別処理部112dは、ステップS24において新規に登録したユーザーIDに対応した対応動作を実施する(S25)。例えばユーザー識別処理部112dは、新規ユーザーに対する応対動作の情報を、ロボット監視センタ120の宣伝データ管理部122eから取得し、図14のステップS18に進む。
図14のステップS13においてカメラ制御装置210から歩容データを受信できない場合には(S13のNO)、顔識別処理部112cは、ステップS12で取得した顔データと顔識別情報テーブル112eに登録されている顔データとの一致度を計算して、一致度が閾値以上になる顔データの有無を判定する(S26)。
ステップS26において一致度が閾値以上となる顔データがない場合には(S26のNO)、顔識別処理部112cは、顔識別情報テーブル112eに新たに顔情報IDを登録し、その顔情報IDに紐付けてステップS12で取得した顔データを登録する。また、ユーザー識別処理部112dは、ユーザー識別情報テーブル112gにも新たにユーザーIDを登録し、そのユーザーIDに紐付けて顔識別情報テーブル112eの新規登録した顔情報IDを、ユーザー識別情報テーブル112gに登録する(S27)。
一方、ステップS26において一致度が閾値以上となる顔データがある場合には(S26のYES)、顔識別処理部112cは、顔識別情報テーブル112eの該当する顔情報IDのレコードにステップS12で取得した顔データを追加登録する。そして、ユーザー識別処理部112dは、該当する顔情報IDに紐付くユーザーIDをユーザー識別情報テーブル112gから取得し、図14のステップS17においてロボット100が該当ユーザーIDに対応した応対動作を実施するよう制御する。
上述した第1の実施形態によれば、ロボット制御装置110は、ロボット100の位置情報及びそのロボット100を撮影可能な監視カメラ200の位置情報を基に、ロボット100が取得した顔データと監視カメラ200が取得した歩容データを対応するユーザーIDと紐付けてユーザー識別情報テーブル112gに登録する。ロボット制御装置110は、ロボット100が取得した人物の顔データ若しくは監視カメラ200が取得した人物の歩容データ、あるいはその両方を用いることで、ロボットの近くにいるユーザーを一意に特定することができる。すなわち、本実施形態は、顔データ(顔情報ID)及び歩容データ(歩容情報ID)のうち得られたデータを用い該当するデータに対応した識別方法を用いて、ユーザー識別情報テーブル112gを参照し人物の識別を行う。よって、顔データと歩容データのうちどちらか片方のデータしか取得できない場合においても、ユーザーを特定することができるため、ユーザー個別のサービスを実施することが可能になる。
監視カメラ200は、ユーザーとの距離が近い場合や撮影エリア内に多数の歩行者が映り込んでいる場合には、歩行者の歩行画像を取得することが難しい。一方、監視カメラ200は、ユーザーから適度に離れている場合や撮影エリア内に映り込んでいる歩行者が少数である場合には、比較的容易に歩行者の歩行画像を得ることができる。ユーザー識別処理部112dは、ロボット100の撮像部103aがユーザーの顔を撮影できる環境下(例えばテナント内)では顔画像を用いて人物の識別を行う(ステップS13のNOの場合)。また、監視カメラ20が歩行する人物の歩行(脚)を良好に撮影できる環境下(例えばテナント外)では歩行画像を用いて人物の識別を行う(ステップS13のYESの場合、第3の実施形態も参照)。
<2.第2の実施形態>
第1の実施形態では、ロボット100の位置が所定の監視カメラ200の撮影可能範囲に必ず入っていることを前提にした。そして、ロボット100が取得した顔データに基づくユーザーと監視カメラ200が取得した歩容データに基づくユーザーが同一人物であるとしてユーザーを特定する構成を示した。これに対し、第2の実施形態では、ロボット100が自由に建物300内を移動することでロボット100の存在する位置を撮影可能な監視カメラ200が変更されうる環境におけるユーザー情報の登録処理を示す。つまり、第2の実施形態は、このような環境における、ロボット制御装置110による顔情報の取得及びユーザー識別情報テーブルへの登録に関する動作を示している。
[ロボット制御装置によるユーザー情報登録処理]
図16及び図17は、ロボット100が移動することでロボット100の存在する位置を撮影可能な監視カメラが変更されうる環境における、ロボット制御装置110のユーザー情報登録処理手法の手順を示すフローチャート(1)及び(2)である。図16及び図17は、ロボット100及び監視カメラ200が複数台存在し、ロボット100が取得した顔画像のユーザーと監視カメラ200が取得した歩行画像のユーザーを一意に結び付けられない場合において、ロボット制御装置110のユーザー情報登録処理を示す。特に、図16及び図17は、ロボット100が顔を撮影したユーザーについて、監視カメラ200により歩容データを求める場合におけるロボット制御装置110の動作であり、ロボット100による人物の顔撮影がこの動作のトリガーとなる。
図16において、まずロボット制御装置110の顔識別処理部112cは、同一エリア内のロボット100の撮像部によって撮影された画像(撮影画像)を取得し、取得した撮影画像内に人物の顔が存在するか否かを判定する(S31)。撮影画像内に人物の顔が存在しなかった場合には(S31のNO)、顔識別処理部112cは、ステップS31の判定処理を継続して実行する。ステップS31において撮影画像内に人物の顔が存在することを検知した場合には(S31のYES)、顔識別処理部112cは、顔画像の特徴量を計算して、顔画像とその特徴量を顔データとして保持する(S32)。
次いで、ユーザー識別処理部112dは、ロボット100の測域センサ103b及びジャイロセンサ103cの検出データを基に、ロボット100の位置情報を取得し(S33)、ロボット100が存在するエリアを特定する。そして、ユーザー識別処理部112dは、ロボット100が存在するエリアを撮影可能な監視カメラ200のカメラIDを監視カメラ管理テーブル212eから取得する(S34)。また、ユーザー識別処理部112dは、ステップS34で取得したカメラIDを持つ監視カメラ200に対して、歩容データ送信を要求する(S35)。
次に、ロボット制御装置110は、ステップS36〜S50(図16及び図17)の処理を実行する。なお、ステップS36〜S50の処理は、第1の実施形態のステップS13〜S27(図14及び図15)の処理と同じであるため説明を割愛する。
上述した第2の実施形態によれば、建物300内を自由に移動するロボット100が取得した顔画像のユーザーと監視カメラ200が取得した歩行画像のユーザーを一意に結び付けることが困難な場合でも、ロボット100の位置情報に紐付いたカメラIDを持つ監視カメラ200の撮影画像からユーザーの歩行データを得ることができる。それゆえ、第1の実施形態と同様に、ロボット100が取得した人物の顔データ若しくは監視カメラ200が取得した人物の歩容データ、あるいはその両方を用いることで、ユーザーを一意に特定することができる。
<3.第3の実施形態>
第3の実施形態は、監視カメラ200により歩容データが取得されたユーザーについて、ロボット100の撮像部103aにより顔を撮影する場合の例である。第3の実施形態は、このような場合に、ロボット制御装置110による顔情報の取得及びユーザー識別情報テーブルへの登録に関する動作を示すものである。第3の実施形態では、監視カメラ200による歩行者の撮影がこの動作のトリガーとなる。
まずカメラ制御装置210は監視カメラ200から歩行画像を取得したら、歩行画像を生成した監視カメラ200のカメラIDとともに歩行画像とその特徴量(歩容データ)をロボット制御装置110へ送信する。ロボット制御装置110のユーザー識別処理部112dは、カメラ制御装置210から歩容データを受信すると、カメラIDに基づいて監視カメラ管理テーブル212eから該当する監視カメラ200の位置情報(エリア)を取得する。次いで、ユーザー識別処理部112dは、該当位置(エリア)に存在する若しくは近いロボット100に対し、歩行者を撮影して顔画像を取得するよう指令を出す。
その後、ロボット制御装置110は、第1の実施形態のステップS13〜S27(図14及び図15)に対応する処理を実行する。但し、顔データに関する処理と歩容データに関する処理の順番は入れ替わる。すなわち本実施形態では、図14のステップS13において撮影画像内に人物の顔を検知したか否かを判定し、ステップS14において受信した顔データと顔識別情報テーブル112eに登録されている顔データが一致するか否かを判定する。その後、ステップS15において受信した歩容データと歩容識別情報テーブル112fに登録されている歩容データが一致するか否かを判定する。
<4.第4の実施形態>
上述した第1〜第3の実施形態では、ユーザーIDに顔情報IDと歩容情報IDを紐付けて管理したが、ユーザーの識別に利用可能な他の情報(カード情報、生体情報等)を顔情報IDや歩容情報IDとともにユーザーIDに紐付けて管理してもよい。カード情報や生態情報をカードリーダーや生体認証装置などにより読み取り、それをロボット制御装置110が取得した顔画像やカメラ制御装置210が取得した歩容画像と紐付けて、ユーザーの識別に利用することができる。カード情報としては、例えばセキュリティカード番号(従業員番号等)やクレジットカード番号などがある。生体情報としては、例えば指紋、虹彩、声紋、指や手の静脈等の情報がある。
例えば図12において、認証装置320とロボット制御装置110が有線通信又は無線通信により通信可能に接続されているとする。ユーザーが建物300(若しくは目的のフロア)に入る際に、認証装置320(この場合は指紋認証装置)の読取面に指を置くと、認証装置320は指から指紋を読み取り、ロボット制御装置110へ指紋情報を送信する。
ロボット制御装置110の顔識別処理部112cは、受信した指紋情報を認証した直後(設定時間内)にエリアAに入ってきたユーザーUの顔を撮影すると、顔データ及び顔情報IDを生成して顔識別情報テーブル112eに登録する。次いで、ユーザー識別処理部112dは、新規顔情報IDに紐付けて新たにユーザーIDをユーザー識別情報テーブル112gに登録する。また、ユーザーUがエリアAに入ってきたことは、カメラ制御装置210が監視カメラ200の撮影画像を解析することでも検知できる。以降、顔画像及び/又は指紋情報に基づいて、ユーザー(ユーザーID)を特定することが可能となる。
他の例として、ユーザーUが建物300内のテナントで商品を購入するため店員にクレジットカードを提示し、カード読取り装置により店員がユーザーUのクレジットカードの処理を行っている場面をロボット100が撮影した場合を説明する。この場合、ロボット100が見ている方向にいるユーザーUの顔画像とロボット100が見ている方向にあるカード読取り装置で読み取られたカード情報を紐付ける。ここで、ロボット100がユーザーUの顔画像を撮影できない場合には、監視カメラ200が撮影対象とするユーザーUを追尾してユーザーUが歩行した段階で歩行画像を取得し、カード情報と歩行画像を紐付けるようにしてもよい。
上述した第4の実施形態は、顔画像とユーザーの識別に利用可能な他の情報(例えばカード情報、生体情報)とを用いて、ロボット100の近くにいるユーザーを識別することができる。すなわち第4の実施形態では、ロボット制御装置110のユーザー識別処理部112dは、ユーザーの顔画像と取得した他の情報とに基づいてユーザー識別情報テーブル112gを参照し、該当ユーザーIDを特定することができる。他の情報としては、カード情報及び生体情報の他に、ユーザーの音声に関する情報を利用することもできる。
なお、第4の実施形態においても、他の実施形態と同様に、ユーザーUの歩行画像を取得して顔画像及び他の情報とともに、ユーザーIDに紐付けて登録するようにしてもよい。そして、ユーザー識別処理部112dが、顔画像と組み合わせて使用する他の情報(識別方法)として、歩容画像、カード情報、生体情報又は音声情報のいずれかを選択し、この選択した情報と顔画像とに基づいてユーザーの認識処理を行うようにしてもよい。例えば、顔画像と歩容画像とカード情報が得られている場合、ユーザーと直接関連付けられているカード情報と顔画像とを、ユーザー識別に用いるようにしてもよい。
このような第4の実施形態によれば、ユーザー識別処理部112dは、ロボット100の動作状況(例えば位置や顔画像撮影の有無)やユーザーの行動(個人情報入力)、ロボット100とユーザーとの対話、テナント店員の操作(クレジットカードの処理等)などの状況に応じて、ユーザーの顔画像及び/又は他の情報を適宜用いてユーザーを識別することができる。ユーザーの識別に、顔画像と他の2つの情報とを用いてもよい。
なお、顔画像しか得られなかった場合には、ユーザー識別処理部112dは、顔画像に基づいて図15のステップS26,S27又は図17のステップS49,S50の処理を行い、新規ユーザー用のサービスを実施する。また、他の1つの情報しか得られなかった場合には、ユーザー識別処理部112dは、第3の実施形態の処理(歩行画像を他の情報に置き換えて準用)を行い、新規ユーザー用のサービスを実施する。
<5.変形例>
上述した実施形態では、ロボット制御装置110のユーザー識別処理部112dによりユーザーを識別する例を説明したが、ロボット100がユーザー識別処理部112dを備え、ロボット100側でユーザーの識別処理を実行するようにしてもよい。
また、ユーザー識別情報テーブル112g,122d、顔識別情報テーブル112e,122b、及び歩容識別情報テーブル112f,122c,212dに登録されたデータは、一定期間を経過後に削除することが望ましい。これにより、各装置内の記憶装置の記憶領域に記憶されたデータ量を削減し、一定の空き領域を確保することができる。
さらに、本発明は上述した各実施形態例に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、その他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した実施形態例は本発明を分かりやすく説明するために装置及びシステムの構成を詳細且つ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、ある実施形態例の構成の一部を他の実施形態例の構成に置き換えることは可能である。また、ある実施形態例の構成に他の実施形態例の構成を加えることも可能である。また、各実施形態例の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、又はICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1…ロボット管理システム、 100…ロボット、 101…CPU、 102…記憶装置、 102a…入出力部、 102b…シナリオ処理部、 102c…駆動制御部、 102d…対話制御部、 103…入出力装置、 103a…カメラ、 103b…測域センサ、 103c…ジャイロセンサ、 103d…駆動機構、 103e…マイクロフォン、 103f…スピーカ、 110…ロボット制御装置、 111…CPU、 112…記憶装置、 112a…入力データ処理部、 112b…出力データ処理部、 112c…顔識別処理部、 112d…ユーザー識別処理部、 112e…顔識別情報テーブル、 112f…歩容識別情報テーブル、 112g…ユーザー識別情報テーブル、 112h…ロボット管理テーブル、 120…ロボット監視センタ、 121…CPU、 122…記憶装置、 122a…入出力データ処理部、 122b…顔画像識別情報テーブル、 122c…歩容識別情報テーブル、 122d…ユーザー識別情報テーブル、 122e…宣伝データ管理部、 122f…ロボット管理テーブル、 124…表示部、 200…監視カメラ、 201…CPU、 202…記憶装置、 202a…映像処理部、 203…入出力装置、 203a…撮像部、 210…カメラ制御装置、 211…CPU、 212…記憶装置、 212a…入力データ処理部、 212b…出力データ処理部、 212c…歩容識別処理部、 212d…歩容識別情報テーブル、 212e…監視カメラ管理テーブル

Claims (9)

  1. カメラを備えた移動可能なロボットと、前記ロボットよりも高い位置に配置された監視カメラと、前記ロボットを制御するロボット制御装置と、前記監視カメラを制御するカメラ制御装置とを含む人識別システムであって、
    前記カメラ制御装置は、前記監視カメラが撮影した人の歩行画像を前記監視カメラから受け取り、前記歩行画像から歩容識別情報を作成する歩容識別処理部、を備え、
    前記ロボット制御装置は、前記ロボットのカメラが撮影した人の顔画像を前記ロボットから受け取り、前記顔画像から顔識別情報を作成する顔識別処理部と、
    前記カメラ制御装置から前記歩容識別情報を受け取り、前記歩容識別情報と前記顔識別情報を対応する人の識別子に対応付けて格納するユーザー識別情報テーブルと、を備えることを特徴とする
    人識別システム。
  2. 更に前記ロボット制御装置は、ユーザー識別処理部、を備え、
    前記ユーザー識別処理部は、前記顔識別情報及び前記歩容識別情報のうち得られた識別情報を用い該当する識別情報に対応した識別方法を用いて、前記ユーザー識別情報テーブルを参照し前記人の識別を行うことを特徴とする
    請求項1に記載の人識別システム。
  3. 前記ロボットのカメラは、前記人の身長よりも低い位置に配置されていることを特徴とする
    請求項2に記載の人識別システム。
  4. 更に前記ロボット制御装置は、ロボット動作指示部、を備え、
    前記ロボット動作指示部は、前記ユーザー識別処理部により識別された前記人に対して前記ロボットが行う動作を決定し、前記動作を前記ロボットに指示することを特徴とする
    請求項3に記載の人識別システム。
  5. 前記ロボットが前記監視カメラの近傍に位置する場合には、前記ユーザー識別処理部は、前記顔画像から作成された顔識別情報と前記歩行画像から作成された歩容識別情報が同一人についての情報であるとして、前記顔識別情報と前記歩容識別情報を対応付けて前記ユーザー識別情報テーブルに格納することを特徴とする
    請求項2に記載の人識別システム。
  6. 前記ユーザー識別処理部は、前記ロボットのカメラが人の顔を撮影できるときは顔画像を用いて人の識別を行い、前記監視カメラが歩行する人の歩行を良好に撮影できる環境下では歩行画像を用いて人の識別を行うことを特徴とする
    請求項2に記載の人識別システム。
  7. 前記ユーザー識別処理部は、テナント内では顔画像を用いた識別を行い、テナント外では歩行画像を用いた識別を行うことを特徴とする
    請求項2に記載の人識別システム。
  8. 前記ユーザー識別情報テーブルには更に、前記人を識別する際に前記顔画像と組み合わせて使用可能な他の情報が前記人の識別子と対応付けて格納されており、
    前記ユーザー識別処理部は、前記他の情報が入力されると前記顔画像と前記他の情報を用いて、前記ユーザー識別情報テーブルを参照し前記人の識別を行うことを特徴とする
    請求項2に記載の人識別システム。
  9. カメラを備えた移動可能なロボットと、前記ロボットよりも高い位置に配置された監視カメラと、前記ロボットを制御するロボット制御装置と、前記監視カメラを制御するカメラ制御装置とを含む人識別システムによる人識別方法であって、
    前記カメラ制御装置により、前記監視カメラが撮影した人の歩行画像を前記監視カメラから受け取り、前記歩行画像から歩容識別情報を作成するステップと、
    前記ロボット制御装置により、前記ロボットのカメラが撮影した人の顔画像を前記ロボットから受け取り、前記顔画像から顔識別情報を作成するステップと、
    前記ロボット制御装置により、前記カメラ制御装置から前記歩容識別情報を受け取り、前記歩容識別情報と前記顔識別情報を対応する人の識別子に対応付けてユーザー識別情報テーブルに格納するステップと、を含むことを特徴とする
    人識別方法。
JP2017172647A 2017-09-08 2017-09-08 人識別システム及び人識別方法 Active JP6730236B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017172647A JP6730236B2 (ja) 2017-09-08 2017-09-08 人識別システム及び人識別方法
CN201810642016.0A CN109465819B (zh) 2017-09-08 2018-06-21 人体识别系统及人体识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017172647A JP6730236B2 (ja) 2017-09-08 2017-09-08 人識別システム及び人識別方法

Publications (2)

Publication Number Publication Date
JP2019049786A true JP2019049786A (ja) 2019-03-28
JP6730236B2 JP6730236B2 (ja) 2020-07-29

Family

ID=65660038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172647A Active JP6730236B2 (ja) 2017-09-08 2017-09-08 人識別システム及び人識別方法

Country Status (2)

Country Link
JP (1) JP6730236B2 (ja)
CN (1) CN109465819B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111604906A (zh) * 2020-05-26 2020-09-01 天津市微卡科技有限公司 一种基于步态识别的陪护机器人
WO2020208917A1 (ja) * 2019-04-09 2020-10-15 パナソニックIpマネジメント株式会社 身体機能管理システム、及び、身体機能管理方法
JP2020194008A (ja) * 2019-05-24 2020-12-03 キヤノン株式会社 画像形成装置
CN115131848A (zh) * 2022-04-01 2022-09-30 深圳市丹德瑞电气有限公司 一种人员信息多维标准化智能采集系统
WO2022230204A1 (ja) * 2021-04-30 2022-11-03 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体
WO2024004164A1 (ja) * 2022-06-30 2024-01-04 日本電信電話株式会社 ロボットコミュニケーションシステム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860063B (zh) * 2019-04-30 2023-08-11 杭州海康威视数字技术股份有限公司 步态数据构建系统、方法及装置
CN112115773A (zh) * 2020-08-06 2020-12-22 深圳优地科技有限公司 楼层识别方法、装置、设备及存储介质
CN112766225A (zh) * 2021-02-01 2021-05-07 黄岩 基于流动性人员的步态自动建库的装置及方法
JP7450569B2 (ja) * 2021-03-04 2024-03-15 株式会社日立ビルシステム 来訪者管理システム及び来訪者管理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110072A (ja) * 2004-10-14 2006-04-27 Mitsubishi Heavy Ind Ltd 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106393B (zh) * 2012-12-12 2016-08-17 袁培江 一种基于机器人平台的嵌入式人脸识别智能身份认证系统
CN105118104A (zh) * 2015-09-24 2015-12-02 河南鑫山信息科技有限公司 基于步态识别功能的多功能考勤机
CN105787440A (zh) * 2015-11-10 2016-07-20 深圳市商汤科技有限公司 一种基于人脸特征和步态特征的安保管理方法及系统
KR20170082078A (ko) * 2016-01-05 2017-07-13 한국전자통신연구원 신원 인식 장치 및 방법
CN106778556A (zh) * 2016-12-01 2017-05-31 大连因特视智能传感科技有限公司 基于动态人脸识别和步态识别融合的智能身份识别系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110072A (ja) * 2004-10-14 2006-04-27 Mitsubishi Heavy Ind Ltd 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020208917A1 (ja) * 2019-04-09 2020-10-15 パナソニックIpマネジメント株式会社 身体機能管理システム、及び、身体機能管理方法
JP2020194008A (ja) * 2019-05-24 2020-12-03 キヤノン株式会社 画像形成装置
JP7321773B2 (ja) 2019-05-24 2023-08-07 キヤノン株式会社 画像形成装置
CN111604906A (zh) * 2020-05-26 2020-09-01 天津市微卡科技有限公司 一种基于步态识别的陪护机器人
WO2022230204A1 (ja) * 2021-04-30 2022-11-03 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体
CN115131848A (zh) * 2022-04-01 2022-09-30 深圳市丹德瑞电气有限公司 一种人员信息多维标准化智能采集系统
WO2024004164A1 (ja) * 2022-06-30 2024-01-04 日本電信電話株式会社 ロボットコミュニケーションシステム

Also Published As

Publication number Publication date
CN109465819A (zh) 2019-03-15
CN109465819B (zh) 2022-04-05
JP6730236B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6730236B2 (ja) 人識別システム及び人識別方法
US20220261812A1 (en) Interfacing with a point of sale system from a computer vision system
US10915777B2 (en) Communication terminal, communication system, and image processing method
US6686844B2 (en) Human interface system using a plurality of sensors
US11006864B2 (en) Face detection device, face detection system, and face detection method
JP5674465B2 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
WO2007063970A1 (ja) 監視カメラシステム及び顔画像追跡記録方法
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
WO2020179730A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US10720237B2 (en) Method of and apparatus for operating a device by members of a group
US20190306175A1 (en) Communication terminal, communication system, communication control method, and recording medium
US11017544B2 (en) Communication terminal, communication system, communication control method, and recording medium
JP7027601B2 (ja) ロボット制御装置、ロボット制御方法及びロボット
WO2022009944A1 (ja) 映像解析装置、広域監視システム及びカメラの選定方法
WO2022003766A1 (ja) 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体
JP7020567B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2019003296A (ja) 検収ロボットシステム
KR102632212B1 (ko) 얼굴 인식을 이용하여 차량 정보를 관리하는 전자 장치 및 그 동작 방법
JP2022058833A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JPWO2019097680A1 (ja) 人物表示制御装置、人物表示制御システム及び人物表示制御方法
JP7085925B2 (ja) 情報登録装置、情報処理装置、情報登録装置の制御方法、情報処理装置の制御方法、システム、及びプログラム
KR101332820B1 (ko) 객체 추적 시스템 및 방법, 객체관리장치 및 그 장치의 구동방법, 촬영장치 및 그 장치의 구동방법
JP2013091949A (ja) 機器管理用装置およびプログラム
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
WO2021221098A1 (ja) 入店管理装置、入店管理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R150 Certificate of patent or registration of utility model

Ref document number: 6730236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150