JP2019049786A - 人識別システム及び人識別方法 - Google Patents
人識別システム及び人識別方法 Download PDFInfo
- Publication number
- JP2019049786A JP2019049786A JP2017172647A JP2017172647A JP2019049786A JP 2019049786 A JP2019049786 A JP 2019049786A JP 2017172647 A JP2017172647 A JP 2017172647A JP 2017172647 A JP2017172647 A JP 2017172647A JP 2019049786 A JP2019049786 A JP 2019049786A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- face
- identification information
- user
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 55
- 230000005021 gait Effects 0.000 claims abstract description 121
- 238000012544 monitoring process Methods 0.000 claims abstract description 86
- 238000012545 processing Methods 0.000 claims description 148
- 238000004891 communication Methods 0.000 description 34
- 238000007726 management method Methods 0.000 description 33
- 230000000875 corresponding effect Effects 0.000 description 32
- 230000008569 process Effects 0.000 description 32
- 238000003384 imaging method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 18
- 230000004044 response Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000004590 computer program Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 238000003672 processing method Methods 0.000 description 7
- 238000013523 data management Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
この人識別システムにおいて、カメラ制御装置は、監視カメラが撮影した人の歩行画像を監視カメラから受け取り、歩行画像から歩容識別情報を作成する歩容識別処理部、を備える。またロボット制御装置は、ロボットのカメラが撮影した人の顔画像をそのロボットから受け取り、顔画像から顔識別情報を作成する顔識別処理部と、カメラ制御装置から歩容識別情報を受け取り、歩容識別情報と顔識別情報を対応する人の識別子に対応付けて格納するユーザー識別情報テーブルと、を備える。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
[ロボット管理システム全体]
図1は、本発明の第1の実施形態例に係るロボット管理システム全体の構成を示すブロック図である。ロボット管理システムは、本発明の人識別システムの一態様である。
図2は、ロボット100の構成例を示すブロック図である。
ロボット100は、各種の処理を行うCPU(central processing unit:中央制御ユニット)101を備えて、CPU101の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。CPU101は、バスラインを介して、各種の情報を記憶する記憶装置102、各種の情報を入出力する入出力装置103、及びロボット制御装置110と通信可能な通信インターフェース104に接続されている。
シナリオ処理部102bは、ロボット100が応対動作(サービス)を実現するためのシナリオを実行するプログラムであり、シナリオに基づいて駆動制御部102c及び対話制御部102dに指令を出す。例えば、応対動作が“あいさつ”の場合には、シナリオ処理部102bは駆動制御部102cにお辞儀や口を動かすなどの駆動指令を出すとともに、対話制御部102dに発話指令を出す。シナリオ処理部102bで実行されるシナリオは、応対動作ごとに用意される。なお、本例では、ロボット100にシナリオ処理部102bを設けたが、シナリオ処理部102bをロボット制御装置110に設けてもよい。
対話制御部102dは、シナリオ処理部102bから出力された、シナリオデータに基づく指令に従って歩行者と対話(対話サービス)を行う。対話制御部102dによる歩行者との対話は、通常、後述するマイクロフォン103eとスピーカ103fを使った音声によって行われる。これに対して、不図示の表示部やタッチパネルなどを用いた、表示と入力操作によって対話するようにしてもよい。
ジャイロセンサ103cは、ロボット100に加わる角加速度を検出して、検出データを記憶装置102に供給する。
スピーカ103fは、対話制御部102dで生成された対話用の音声などを出力する。
通信インターフェース104は、ロボット制御装置110との無線通信を実行する。
図3は、ロボット制御装置110の構成例を示すブロック図である。
ロボット制御装置110は、各種の処理を行うCPU111の制御下で各処理が実行されるコンピュータ装置で構成される。CPU111には、バスラインを介して記憶装置112と通信インターフェース113とが接続される。
出力データ処理部112bは、外部装置に対して通信インターフェース113から送信するデータを出力処理する。
顔識別処理部112cは、入力されたロボット100の撮像部103aで撮影された映像(撮影画像)から人物の顔を検出してその顔画像の特徴量を計算し、人物の顔を識別する。顔画像から特徴量を抽出する処理は周知技術であるから、ここでは詳細な説明を割愛する。
歩容識別情報テーブル112fには、カメラ制御装置210の歩容識別処理部212cで計算された歩行画像の特徴量が、歩容情報ID(歩容識別情報の例)とともにユーザーIDと紐付けて格納される。歩容情報IDにより同一の特徴量を持つ歩行画像が識別される。この歩容識別情報テーブル112fの情報を、ロボット制御装置110がカメラ制御装置210から取得する。
ロボット管理テーブル112hは、各ロボット100の管理データを格納する。
通信インターフェース113は、ロボット100、ロボット監視センタ120、及びカメラ制御装置210との通信を実行する。
図4は、ロボット監視センタ120の構成例を示すブロック図である。
ロボット監視センタ120は、各種の処理を行うCPU121を備えて、CPU121の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。CPU121は、バスラインを介して、各種の情報を記憶する記憶装置122、ロボット制御装置110及びカメラ制御装置210と通信可能な通信インターフェース123、及び表示部124に接続されている。
顔識別情報テーブル122bには、複数のロボット制御装置110から取得した顔情報IDがまとめて格納される。
歩容識別情報テーブル122cには、複数のカメラ制御装置210から取得した歩容情報IDがまとめて格納される。
ユーザー識別情報テーブル122dには、複数のロボット制御装置110及び複数のカメラ制御装置210から取得した情報と、ユーザーID(ユーザー識別情報)がまとめて格納される。
ロボット管理テーブル122fには、複数のロボット制御装置110に管理されているロボット100の管理データがまとめて格納される。
表示部124には、必要に応じて各テーブルの内容や顔画像や歩行画像等が表示される。表示部124として液晶表示装置などが用いられる。
図5は、監視カメラ200の構成例を示すブロック図である。
監視カメラ200は、各種の処理を行うCPU201を備えて、CPU201の制御下で各処理が実行されるコンピュータ装置と、そのコンピュータ装置に接続された周辺機器で構成される。CPU201は、バスラインを介して、各種の情報を記憶する記憶装置202、各種の情報を入出力する入出力装置203、及びカメラ制御装置210と通信可能な通信インターフェース204に接続されている。
通信インターフェース204は、カメラ制御装置210との通信を実行する。
図6は、カメラ制御装置210の構成例を示すブロック図である。
カメラ制御装置210は、各種の処理を行うCPU211の制御下で各処理が実行されるコンピュータ装置で構成される。CPU211には、バスラインを介して記憶装置212と通信インターフェース213とが接続される。
出力データ処理部212bは、外部装置に対して通信インターフェース213から送信するデータを出力処理する。
歩容識別処理部212cは、入力された監視カメラ200の撮像部203aで撮影された画像データから人物の歩行画像の特徴量(以下「歩容特徴量」と称す)を計算する。歩行画像から歩容特徴量を抽出する処理は周知技術であるから、ここでは詳細な説明を割愛する。
監視カメラ管理テーブル212eには、各監視カメラ200の管理データが格納される。
通信インターフェース213は、監視カメラ200、ロボット監視センタ120、及びロボット制御装置110との通信を実行する。
図7は、ロボット管理テーブル112h,122fの例を示す説明図である。
ロボット管理テーブル112h,122fは、顧客IDフィールド、施設IDフィールド、グローバルIPフィールド、ロボットIDフィールド、ローカルIPフィールド、及びエリアフィールドを備える。各フィールドは、互いに紐付けられて管理されている。
図8は、監視カメラ管理テーブル212eの例を示す説明図である。
監視カメラ管理テーブル212eは、顧客IDフィールド、施設IDフィールド、グローバルIPフィールド、カメラIDフィールド、ローカルIPフィールド、及びエリアフィールドを備える。各フィールドは、互いに紐付けられて管理されている。以下に各テーブルの各フィールドについて説明するが、名称が重複するフィールドについては説明を簡略する。
図9は、ユーザー識別情報テーブル112g,122dの例を示す説明図である。
ユーザー識別情報テーブル112g,122dは、ユーザーIDフィールド、顔情報IDフィールド、歩容情報IDフィールド、及び応対動作フィールドを備える。各フィールドは、互いに紐付けられて管理されている。
図10は、顔識別情報テーブル112e,122bの例を示す説明図である。
顔識別情報テーブル112e,122bは、顔情報IDフィールド、ユーザーIDフィールド、特徴量フィールド、及び1以上の顔画像フィールドを備える。各フィールドは、互いに紐付けられて管理されている。
図11は、歩容識別情報テーブル112f,122c,212dの例を示す説明図である。
歩容識別情報テーブル112f,122c,212dは、歩容情報IDフィールド、ユーザーIDフィールド、特徴量フィールド、及び1以上の歩行画像フィールドを備える。各フィールドは、互いに紐付けられて管理されている。
図12は、ロボット100と監視カメラ200の配置例を示す説明図である。
図12に示す例では、ロボット100及び監視カメラ200が建物300の入り口(自動ドア310)付近に設置されている。本実施形態おいて、ロボット100は建物300の床面に設定されたエリアAに存在し、監視カメラ200はエリアAの上方(壁若しくは天井)に設置されている。このとき、ロボット100と監視カメラ200は同じ位置(エリアA)に配置されているものとする。ロボット100及び監視カメラ200が同じ位置とは、ロボット100が監視カメラ200の近傍(所定距離内)に位置することであり、その一例が同一エリア(例えばエリアA)に存在することである。このロボット100及び監視カメラ200の位置情報(エリア情報)がそれぞれ、ロボット管理テーブル112h,122f及び監視カメラ管理テーブル212eに登録される。
図13は、カメラ制御装置210の歩容情報取得処理手法の手順を示すフローチャートである。
まず、カメラ制御装置210の歩容識別処理部212cは、監視カメラ200から取得した撮影画像により歩行者の有無を判定する(S1)。歩行者を認識できない場合、すなわち歩行者を発見できない場合には(S1のNO)、歩容識別処理部212cは、ステップS1の判定処理を継続して実行する。次いで、歩行者を発見すると(S1のYES)、歩行画像の特徴量(「歩容特徴量」ともいう)を計算する(S2)。
図14及び図15は、ロボット100がエリア外に移動しないことを前提とした場合の、ロボット制御装置110のユーザー情報登録処理手法の手順を示すフローチャート(1)及び(2)である。図14及び図15は、ロボット100と監視カメラ200が存在する位置が同じエリアであり、かつロボット100が駆動機構103dを有している場合でもエリア外には移動しないことを前提としている。図14及び図15は、この前提の下で、ロボット制御装置110による顔情報の取得及びユーザー識別情報テーブルへの登録に関する動作を示す。
第1の実施形態では、ロボット100の位置が所定の監視カメラ200の撮影可能範囲に必ず入っていることを前提にした。そして、ロボット100が取得した顔データに基づくユーザーと監視カメラ200が取得した歩容データに基づくユーザーが同一人物であるとしてユーザーを特定する構成を示した。これに対し、第2の実施形態では、ロボット100が自由に建物300内を移動することでロボット100の存在する位置を撮影可能な監視カメラ200が変更されうる環境におけるユーザー情報の登録処理を示す。つまり、第2の実施形態は、このような環境における、ロボット制御装置110による顔情報の取得及びユーザー識別情報テーブルへの登録に関する動作を示している。
図16及び図17は、ロボット100が移動することでロボット100の存在する位置を撮影可能な監視カメラが変更されうる環境における、ロボット制御装置110のユーザー情報登録処理手法の手順を示すフローチャート(1)及び(2)である。図16及び図17は、ロボット100及び監視カメラ200が複数台存在し、ロボット100が取得した顔画像のユーザーと監視カメラ200が取得した歩行画像のユーザーを一意に結び付けられない場合において、ロボット制御装置110のユーザー情報登録処理を示す。特に、図16及び図17は、ロボット100が顔を撮影したユーザーについて、監視カメラ200により歩容データを求める場合におけるロボット制御装置110の動作であり、ロボット100による人物の顔撮影がこの動作のトリガーとなる。
第3の実施形態は、監視カメラ200により歩容データが取得されたユーザーについて、ロボット100の撮像部103aにより顔を撮影する場合の例である。第3の実施形態は、このような場合に、ロボット制御装置110による顔情報の取得及びユーザー識別情報テーブルへの登録に関する動作を示すものである。第3の実施形態では、監視カメラ200による歩行者の撮影がこの動作のトリガーとなる。
上述した第1〜第3の実施形態では、ユーザーIDに顔情報IDと歩容情報IDを紐付けて管理したが、ユーザーの識別に利用可能な他の情報(カード情報、生体情報等)を顔情報IDや歩容情報IDとともにユーザーIDに紐付けて管理してもよい。カード情報や生態情報をカードリーダーや生体認証装置などにより読み取り、それをロボット制御装置110が取得した顔画像やカメラ制御装置210が取得した歩容画像と紐付けて、ユーザーの識別に利用することができる。カード情報としては、例えばセキュリティカード番号(従業員番号等)やクレジットカード番号などがある。生体情報としては、例えば指紋、虹彩、声紋、指や手の静脈等の情報がある。
上述した実施形態では、ロボット制御装置110のユーザー識別処理部112dによりユーザーを識別する例を説明したが、ロボット100がユーザー識別処理部112dを備え、ロボット100側でユーザーの識別処理を実行するようにしてもよい。
Claims (9)
- カメラを備えた移動可能なロボットと、前記ロボットよりも高い位置に配置された監視カメラと、前記ロボットを制御するロボット制御装置と、前記監視カメラを制御するカメラ制御装置とを含む人識別システムであって、
前記カメラ制御装置は、前記監視カメラが撮影した人の歩行画像を前記監視カメラから受け取り、前記歩行画像から歩容識別情報を作成する歩容識別処理部、を備え、
前記ロボット制御装置は、前記ロボットのカメラが撮影した人の顔画像を前記ロボットから受け取り、前記顔画像から顔識別情報を作成する顔識別処理部と、
前記カメラ制御装置から前記歩容識別情報を受け取り、前記歩容識別情報と前記顔識別情報を対応する人の識別子に対応付けて格納するユーザー識別情報テーブルと、を備えることを特徴とする
人識別システム。 - 更に前記ロボット制御装置は、ユーザー識別処理部、を備え、
前記ユーザー識別処理部は、前記顔識別情報及び前記歩容識別情報のうち得られた識別情報を用い該当する識別情報に対応した識別方法を用いて、前記ユーザー識別情報テーブルを参照し前記人の識別を行うことを特徴とする
請求項1に記載の人識別システム。 - 前記ロボットのカメラは、前記人の身長よりも低い位置に配置されていることを特徴とする
請求項2に記載の人識別システム。 - 更に前記ロボット制御装置は、ロボット動作指示部、を備え、
前記ロボット動作指示部は、前記ユーザー識別処理部により識別された前記人に対して前記ロボットが行う動作を決定し、前記動作を前記ロボットに指示することを特徴とする
請求項3に記載の人識別システム。 - 前記ロボットが前記監視カメラの近傍に位置する場合には、前記ユーザー識別処理部は、前記顔画像から作成された顔識別情報と前記歩行画像から作成された歩容識別情報が同一人についての情報であるとして、前記顔識別情報と前記歩容識別情報を対応付けて前記ユーザー識別情報テーブルに格納することを特徴とする
請求項2に記載の人識別システム。 - 前記ユーザー識別処理部は、前記ロボットのカメラが人の顔を撮影できるときは顔画像を用いて人の識別を行い、前記監視カメラが歩行する人の歩行を良好に撮影できる環境下では歩行画像を用いて人の識別を行うことを特徴とする
請求項2に記載の人識別システム。 - 前記ユーザー識別処理部は、テナント内では顔画像を用いた識別を行い、テナント外では歩行画像を用いた識別を行うことを特徴とする
請求項2に記載の人識別システム。 - 前記ユーザー識別情報テーブルには更に、前記人を識別する際に前記顔画像と組み合わせて使用可能な他の情報が前記人の識別子と対応付けて格納されており、
前記ユーザー識別処理部は、前記他の情報が入力されると前記顔画像と前記他の情報を用いて、前記ユーザー識別情報テーブルを参照し前記人の識別を行うことを特徴とする
請求項2に記載の人識別システム。 - カメラを備えた移動可能なロボットと、前記ロボットよりも高い位置に配置された監視カメラと、前記ロボットを制御するロボット制御装置と、前記監視カメラを制御するカメラ制御装置とを含む人識別システムによる人識別方法であって、
前記カメラ制御装置により、前記監視カメラが撮影した人の歩行画像を前記監視カメラから受け取り、前記歩行画像から歩容識別情報を作成するステップと、
前記ロボット制御装置により、前記ロボットのカメラが撮影した人の顔画像を前記ロボットから受け取り、前記顔画像から顔識別情報を作成するステップと、
前記ロボット制御装置により、前記カメラ制御装置から前記歩容識別情報を受け取り、前記歩容識別情報と前記顔識別情報を対応する人の識別子に対応付けてユーザー識別情報テーブルに格納するステップと、を含むことを特徴とする
人識別方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172647A JP6730236B2 (ja) | 2017-09-08 | 2017-09-08 | 人識別システム及び人識別方法 |
CN201810642016.0A CN109465819B (zh) | 2017-09-08 | 2018-06-21 | 人体识别系统及人体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017172647A JP6730236B2 (ja) | 2017-09-08 | 2017-09-08 | 人識別システム及び人識別方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019049786A true JP2019049786A (ja) | 2019-03-28 |
JP6730236B2 JP6730236B2 (ja) | 2020-07-29 |
Family
ID=65660038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017172647A Active JP6730236B2 (ja) | 2017-09-08 | 2017-09-08 | 人識別システム及び人識別方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6730236B2 (ja) |
CN (1) | CN109465819B (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111604906A (zh) * | 2020-05-26 | 2020-09-01 | 天津市微卡科技有限公司 | 一种基于步态识别的陪护机器人 |
WO2020208917A1 (ja) * | 2019-04-09 | 2020-10-15 | パナソニックIpマネジメント株式会社 | 身体機能管理システム、及び、身体機能管理方法 |
JP2020194008A (ja) * | 2019-05-24 | 2020-12-03 | キヤノン株式会社 | 画像形成装置 |
CN115131848A (zh) * | 2022-04-01 | 2022-09-30 | 深圳市丹德瑞电气有限公司 | 一种人员信息多维标准化智能采集系统 |
WO2022230204A1 (ja) * | 2021-04-30 | 2022-11-03 | 日本電気株式会社 | 情報処理システム、情報処理方法、及び記録媒体 |
WO2024004164A1 (ja) * | 2022-06-30 | 2024-01-04 | 日本電信電話株式会社 | ロボットコミュニケーションシステム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860063B (zh) * | 2019-04-30 | 2023-08-11 | 杭州海康威视数字技术股份有限公司 | 步态数据构建系统、方法及装置 |
CN112115773A (zh) * | 2020-08-06 | 2020-12-22 | 深圳优地科技有限公司 | 楼层识别方法、装置、设备及存储介质 |
CN112766225A (zh) * | 2021-02-01 | 2021-05-07 | 黄岩 | 基于流动性人员的步态自动建库的装置及方法 |
JP7450569B2 (ja) * | 2021-03-04 | 2024-03-15 | 株式会社日立ビルシステム | 来訪者管理システム及び来訪者管理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006110072A (ja) * | 2004-10-14 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム |
JP2016057908A (ja) * | 2014-09-10 | 2016-04-21 | 宮田 清蔵 | 万引き予防システム及びソフトウエア |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106393B (zh) * | 2012-12-12 | 2016-08-17 | 袁培江 | 一种基于机器人平台的嵌入式人脸识别智能身份认证系统 |
CN105118104A (zh) * | 2015-09-24 | 2015-12-02 | 河南鑫山信息科技有限公司 | 基于步态识别功能的多功能考勤机 |
CN105787440A (zh) * | 2015-11-10 | 2016-07-20 | 深圳市商汤科技有限公司 | 一种基于人脸特征和步态特征的安保管理方法及系统 |
KR20170082078A (ko) * | 2016-01-05 | 2017-07-13 | 한국전자통신연구원 | 신원 인식 장치 및 방법 |
CN106778556A (zh) * | 2016-12-01 | 2017-05-31 | 大连因特视智能传感科技有限公司 | 基于动态人脸识别和步态识别融合的智能身份识别系统 |
-
2017
- 2017-09-08 JP JP2017172647A patent/JP6730236B2/ja active Active
-
2018
- 2018-06-21 CN CN201810642016.0A patent/CN109465819B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006110072A (ja) * | 2004-10-14 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム |
JP2016057908A (ja) * | 2014-09-10 | 2016-04-21 | 宮田 清蔵 | 万引き予防システム及びソフトウエア |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020208917A1 (ja) * | 2019-04-09 | 2020-10-15 | パナソニックIpマネジメント株式会社 | 身体機能管理システム、及び、身体機能管理方法 |
JP2020194008A (ja) * | 2019-05-24 | 2020-12-03 | キヤノン株式会社 | 画像形成装置 |
JP7321773B2 (ja) | 2019-05-24 | 2023-08-07 | キヤノン株式会社 | 画像形成装置 |
CN111604906A (zh) * | 2020-05-26 | 2020-09-01 | 天津市微卡科技有限公司 | 一种基于步态识别的陪护机器人 |
WO2022230204A1 (ja) * | 2021-04-30 | 2022-11-03 | 日本電気株式会社 | 情報処理システム、情報処理方法、及び記録媒体 |
CN115131848A (zh) * | 2022-04-01 | 2022-09-30 | 深圳市丹德瑞电气有限公司 | 一种人员信息多维标准化智能采集系统 |
WO2024004164A1 (ja) * | 2022-06-30 | 2024-01-04 | 日本電信電話株式会社 | ロボットコミュニケーションシステム |
Also Published As
Publication number | Publication date |
---|---|
CN109465819A (zh) | 2019-03-15 |
CN109465819B (zh) | 2022-04-05 |
JP6730236B2 (ja) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6730236B2 (ja) | 人識別システム及び人識別方法 | |
US20220261812A1 (en) | Interfacing with a point of sale system from a computer vision system | |
US10915777B2 (en) | Communication terminal, communication system, and image processing method | |
US6686844B2 (en) | Human interface system using a plurality of sensors | |
US11006864B2 (en) | Face detection device, face detection system, and face detection method | |
JP5674465B2 (ja) | 画像処理装置、カメラ、画像処理方法およびプログラム | |
WO2007063970A1 (ja) | 監視カメラシステム及び顔画像追跡記録方法 | |
JP7484985B2 (ja) | 認証システム、認証方法、及び、プログラム | |
WO2020179730A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10720237B2 (en) | Method of and apparatus for operating a device by members of a group | |
US20190306175A1 (en) | Communication terminal, communication system, communication control method, and recording medium | |
US11017544B2 (en) | Communication terminal, communication system, communication control method, and recording medium | |
JP7027601B2 (ja) | ロボット制御装置、ロボット制御方法及びロボット | |
WO2022009944A1 (ja) | 映像解析装置、広域監視システム及びカメラの選定方法 | |
WO2022003766A1 (ja) | 情報処理装置、顔認証促進システム、情報処理方法、プログラムが記憶された非一時的なコンピュータ可読媒体 | |
JP7020567B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2019003296A (ja) | 検収ロボットシステム | |
KR102632212B1 (ko) | 얼굴 인식을 이용하여 차량 정보를 관리하는 전자 장치 및 그 동작 방법 | |
JP2022058833A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JPWO2019097680A1 (ja) | 人物表示制御装置、人物表示制御システム及び人物表示制御方法 | |
JP7085925B2 (ja) | 情報登録装置、情報処理装置、情報登録装置の制御方法、情報処理装置の制御方法、システム、及びプログラム | |
KR101332820B1 (ko) | 객체 추적 시스템 및 방법, 객체관리장치 및 그 장치의 구동방법, 촬영장치 및 그 장치의 구동방법 | |
JP2013091949A (ja) | 機器管理用装置およびプログラム | |
JP6112346B2 (ja) | 情報収集システム、プログラムおよび情報収集方法 | |
WO2021221098A1 (ja) | 入店管理装置、入店管理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200702 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6730236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |