JP5581758B2 - 人物検出装置、人物検出方法及びプログラム - Google Patents

人物検出装置、人物検出方法及びプログラム Download PDF

Info

Publication number
JP5581758B2
JP5581758B2 JP2010063347A JP2010063347A JP5581758B2 JP 5581758 B2 JP5581758 B2 JP 5581758B2 JP 2010063347 A JP2010063347 A JP 2010063347A JP 2010063347 A JP2010063347 A JP 2010063347A JP 5581758 B2 JP5581758 B2 JP 5581758B2
Authority
JP
Japan
Prior art keywords
person
leg
legs
pattern
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010063347A
Other languages
English (en)
Other versions
JP2011197963A (ja
Inventor
山 姜
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010063347A priority Critical patent/JP5581758B2/ja
Publication of JP2011197963A publication Critical patent/JP2011197963A/ja
Application granted granted Critical
Publication of JP5581758B2 publication Critical patent/JP5581758B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物検出装置、人物検出方法及びプログラムに関する。本発明は、人物検出装置を備えたロボット及び監視システム、並びにコンピュータに人物検出処理を実行させるプログラムが格納されたコンピュータ読み取り可能な記憶媒体にも関する。
人物を正確、且つ、比較的簡単に検出する技術は、様々な分野で求められている。人物の検出が求められる一例としては、ユーザに各種サービスを提供するサービスロボットが挙げられる。サービスロボットは、商業施設、博物館、駅等の公共の空間で案内、搬送等のサービスを提供する際に、ユーザとのインタラクション(Interaction)を効率的に行うために、リアルタイムで人物を検出可能であることが望まれる。
従来、カメラが撮像した画像データに画像処理を施すことにより人物を検出する各種方法が提案されている。一例として、肌色を検出することで人物を検出する方法があるが、この方法では人物の顔等の肌色の部位が撮像されないと人物を検出することができないので、例えば後ろ向きの人物を検出することはできない。
又、他の例として、人物の形状に相当する二次元パターンを予め登録しておき、撮像された二次元パターンと比較することで人物を検出する方法があるが、人物の形状は姿勢により大きく異なり、全ての姿勢に対応する二次元パターンを登録しておくことはできないので、正確に人物を検出することは難しい。更に、人物のパターンを三次元モデルで形成する方法もあるが、二次元パターンを用いる場合と同様の理由で、正確に人物を検出することは難しい。
上記の如くカメラが撮像した画像データに画像処理を施すことにより人物を検出する方法では、扱う画像データの量が比較的多いため、リアルタイムで人物を検出したり、人物を検出した後のサービスへの連携動作を考慮して人物の移動方向や速度を検出することは難しい。更に、カメラが撮像した画像データは、照明や人物の周辺に位置する各種物体を含む環境(以下、人物検出環境と言う)に大きく影響される。例えば、非常に暗い照明のもとでは肌色が検出できなかったり、壁に人物のポスターが貼られているとポスターの人物のパターンを人物と誤検出しまう可能性がある。
特開2007−264778号公報 国際公開第WO2005/020152号明細書 特開2008−288684号公報
従来の人物検出方法では、人物を正確、且つ、比較的簡単に検出することは難しいという問題があった。
そこで、本発明は、人物を正確、且つ、比較的簡単に検出可能な人物検出装置、人物検出方法及びプログラムを提供することを目的とする。
本発明の一観点によれば、重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定する走査手段と、前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出する算出手段と、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンが予め複数登録されている記憶手段と、前記第1及び第2のパターンを比較して、比較結果に基づいて前記対象物から人物の脚の特徴を抽出する抽出手段と、抽出した前記特徴に基づいて前記対象物が人物であるか否かを判断する判断手段を備え、前記複数の第2のパターンは、前記両脚が前記基準位置に対して前後しているパターン、前記両脚が前記基準位置に対して左右に並んで離間しているパターン、及び前記両脚が前記基準位置に対して左右に並んで接続しているパターンを含む人物検出装置が提供される。
本発明の一観点によれば、重力方向と平行な垂直面以外の任意平面で走査範囲を走査部により走査して基準位置から前記走査範囲内の対象物までの距離を測定する工程と、前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出する工程と、前記第1のパターンと、予め記憶部に複数登録されている、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンをプロセッサにより比較して、比較結果に基づいて前記対象物から人物の脚の特徴をプロセッサにより抽出する工程と、抽出した前記特徴に基づいて前記対象物が人物であるか否かを前記プロセッサで判断する工程を含み、前記複数の第2のパターンは、前記両脚が前記基準位置に対して前後しているパターン、前記両脚が前記基準位置に対して左右に並んで離間しているパターン、及び前記両脚が前記基準位置に対して左右に並んで接続しているパターンを含む人物検出方法が提供される。
本発明の一観点によれば、コンピュータに、走査部に指示を出力させて重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定させる走査手順と、前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出させる算出手順と、前記第1のパターンと、記憶部に予め複数登録されている、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンを比較させ、比較結果に基づいて前記対象物から人物の脚の特徴を抽出させる抽出手順と、抽出した前記特徴に基づいて前記対象物が人物であるか否かを判断させる判断手順を実行させ、前記複数の第2のパターンは、前記両脚が前記基準位置に対して前後しているパターン、前記両脚が前記基準位置に対して左右に並んで離間しているパターン、及び前記両脚が前記基準位置に対して左右に並んで接続しているパターンを含むプログラムが提供される。
開示の人物検出装置、人物検出方法及びプログラムによれば、人物を正確、且つ、比較的簡単に検出することが可能となる。
本発明の第1実施例におけるサービスロボットの一例を示す側面図である。 レーザレンジファインダの走査範囲を説明する図である。 人物検出装置の動作を説明するフローチャートである。 レンジデータのクラスタ化を説明する図である。 基準位置に対する人物の両脚のパターンを説明する図である。 人物検出装置の一例を示すブロック図である。 図3に示すステップS3の処理をより詳細に説明するフローチャートである。 パターン照合を説明するフローチャートである。 脚と人物との依存関係を説明する図である。 図3に示すステップS4の処理をより詳細に説明するフローチャートである。 人物定義リスト、脚定義リスト及び非関連脚定義リストの一例を説明する図である。 本発明の第2実施例におけるサービスロボットの一部の一例を示す側面図である。 本発明の第3実施例におけるサービスロボットの一部の一例を示す側面図である。
開示の人物検出装置、人物検出方法及びプログラムでは、重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から走査範囲内の対象物までの距離を測定し、測定した距離に基づいて対象物の任意平面上の断面形状に相当する第1のパターンを算出する。第1のパターンは、予め複数登録されている人物の両脚に相当する任意平面上の断面形状の第2のパターンと比較され、比較結果に基づいて対象物から人物の脚の特徴を抽出する抽出し、抽出した特徴に基づいて対象物が人物であるか否かを判断する。
第2のパターンは、人物の両脚が基準位置に対して前後しているパターン、基準位置に対して並んで離間しているパターン、及び基準位置に対して並んで接続しているパターンを含み、第1のパターンが人物の両脚の特徴を含むか否かを判断するために用いられる。
基準位置から対象物までの距離は、カメラ等の撮像手段を用いないので、人物検出環境に大きく影響されることなく測定できる。又、人物を検出するためのデータ処理量は、カメラで撮像した画像データを処理する場合と比較すると非常に少ない。このため、人物を正確、且つ、比較的簡単に検出可能となる。
以下に、開示の人物検出装置、人物検出方法及びプログラムの各実施例を図面と共に説明する。
(第1実施例)
先ず、本発明の第1実施例における人物検出装置について説明する。本実施例では、説明の便宜上、人物検出装置がサービスロボットに適用されているものとする。尚、以下の説明では、人物の「脚」とは、足首から脛(スネ)、膝(ヒザ)、腿(タイ)までを含む。尚、「腿」は、膝から上を指す上腿(ジョウタイ)と、膝から下を指す下腿(カタイ)を含む。
図1は、本実施例におけるサービスロボットの一例を示す側面図であり、図2は、走査装置又は走査手段として機能するレーザレンジファインダ(LRF:Laser Range Finder)の走査範囲を説明する図である。
図1に示すように、ユーザに各種サービスを提供するサービスロボット1は、例えば人型のロボット本体2と、ベース部3を有する。ロボット本体2は、ユーザに対する案内等のサービスをアーム等の動きで提供する可動部と、ユーザに対する案内等のサービスを音声で提供する音声出力部と、ユーザに対する案内等のサービスを表示で行う表示部等を含む。ベース部3は、LRF4を含む人物検出装置、サービスロボット1をXY平面と平行な平面(以下、説明の便宜上「移動面」と言う)上の任意の方向へ移動させる駆動部(図示せず)等を含む。LRF4は、人物の脚を検出して脚との距離を測定するので、移動面に対して人物の脚を検出するのに適した高さ位置のXY平面を走査する位置に設けられている。サービスロボット1は、商業施設、博物館、駅等の公共の空間で案内、搬送等のサービスを提供する際に、ユーザ(即ち、人物)とのインタラクション(Interaction)を効率的に行うために、リアルタイムで人物を検出するよう構成されている。尚、ロボット本体2自体の構成は、提供するサービスに応じて適切に周知の構成を採用可能であるため、その詳細な図示及び説明は省略する。又、ベース部3内の駆動部の構成や駆動方法等も、周知の構成及び駆動方法を採用可能であるため、その詳細な図示及び説明は省略する。
図2に示すように、LRF4は、測定の開始、走査時間(又は、走査周期)、測定の終了等の指示に応答して、重力方向と平行な垂直面以外の任意平面の一例であるXY平面で走査範囲9をレーザビームにより走査して基準位置から走査範囲9内の対象物までの距離を測定する。基準位置は、この例ではLRF4の位置である。走査範囲9は、LRF4が距離の測定が可能な基準位置を中心とした所定の半径、且つ、所定の角度範囲で決まる扇状の領域である。この例では、走査範囲9は二次元に限定されている。走査時間(又は、走査周期)は、レーザビームが走査範囲9の一端から他端までを走査するのに要する時間である。LRF4自体は周知であるため、その構成及び動作の説明は省略する。後述するように、人物検出装置は、LRF4が測定した距離に基づいて対象物のXY平面上の断面形状に相当するパターン(第1のパターン)を算出して人物検出に用いる。
図3は、人物検出装置の動作を説明するフローチャートである。図3において、ステップS1は、LRF4が測定したレンジデータDrを所定周期でサンプリングする。又、ステップS2は、サンプリングされたレンジデータDrにフィルタ処理を施すと共に、レンジデータDrからセグメント(Segment)を形成してセグメントからクラスタ(Cluster)を形成する。
図4は、レンジデータDrのクラスタ化を説明する図である。図4において、LRF4の走査範囲9で検出された対象物11〜13のレンジデータDrのうち、ステップS1において所定周期でサンプリングされたレンジデータDrを丸印で示す。又、各対象物11〜13の輪郭(又は、エッジ)は太線で示す。rはLRF4により測定されたi番目のレンジデータDrの基準位置からの距離、ri+1はLRF4により測定されたi+1番目のレンジデータDri+1の基準位置からの距離、rはLRF4により測定されたj番目のレンジデータDrの基準位置からの距離、rj+1はLRF4により測定されたj+1番目のレンジデータDrj+1の基準位置からの距離を示す。
サンプリングされたレンジデータDrには、ステップS2においてスパイク(Spike)や反射によるノイズを減少させたり、細かい変動を無視させるためのフィルタ処理が施される。フィルタ処理は、例えばバウンドフィルタ(Bound Filter)、メディアンフィルタ(Median Filter)等の周知のフィルタにより施すことができる。
フィルタ処理を施された連続する2つのサンプリング点におけるレンジデータDrは、ステップS2において例えば2点の基準位置からの距離の差が第1の閾値以下であり、且つ、2点のXY平面上の距離が第2の閾値以下であると、同じ対象物のエッジの1つのセグメントを形成するものとして抽出され、同じ対象物のセグメントから1つのクラスタが形成される。つまり、1つのクラスタは、1つの対象物のセグメントを形成するレンジデータDrの集合である。
尚、XY平面上における人物の脚の候補となる断面形状の半径、又は、半径の平均値、又は、半径の範囲は、予め経験値等から求めておくことができる。従って、例えば図4の例では、対象物13の断面形状の半径が例えば人物の脚の候補と判定できる所定範囲外の値、或いは、対となる脚の候補の断面形状が後述する所定の位置関係になければ、対象物13は人物の脚ではないと判定可能となる。尚、LRF4の検出特性上、レンジデータDrは対象物の輪郭の約半分に対してのみ検出されるが、輪郭の約半分に対するレンジデータDrのXY平面上の位置、隣接するレンジデータDrで形成されるセグメントのXY平面上の曲率、1つのクラスタを形成する全てのレンジデータDrが包含される仮想円の最小半径等から対象物の半径を推定することができる。一方、対象物11の断面形状の半径が人物の脚の候補と判定できる所定範囲内の値、且つ、対となる脚の候補の断面形状が後述する所定の位置関係にあれば、対象物11は人物の脚であると判定可能となる。
例えばレンジデータDrを含む対象物11とレンジデータDri+1を含む対象物13の場合、基準位置からの距離r,ri+1の差が第1の閾値を超えており、対象物11と対象物13の断面形状が所定の位置関係を満たさないので、対象物11と対象物13は同じ人物の脚として検出されることはない。これに対し、レンジデータDrを含む対象物11とレンジデータDrj+1を含む対象物12の場合、基準位置からの距離r,rj+1の差が第1の閾値以下であり、対象物11と対象物12の断面形状が所定の位置関係を満たすので、対象物11と対象物12は同じ人物の脚として検出される。
このようにして、ステップS2では、測定されたレンジデータDrから各クラスタを管理するクラスタリストを作成する。クラスタリストには、レンジデータDrの数(測定点の数)、クラスタの中心座標、クラスタの中心座標から基準位置までの距離、クラスタを形成する全てのレンジデータDrが包含される仮想円の最小半径、クラスタを形成するレンジデータDrが直線を形成しているか否かの情報等が含まれる。尚、レンジデータDrの数、クラスタの中心座標、クラスタの中心座標から基準位置までの距離、クラスタを形成する全てのレンジデータDrが包含される仮想円の最小半径、クラスタを形成するレンジデータDrが直線を形成しているか否かの情報等は、いずれも周知の方法で算出可能であるため、その説明は省略する。
図3の説明に戻るに、ステップS3は、ステップS2で形成されたクラスタリストに基づいてクラスタを選別して人物の脚の特徴を図5に示すパターン(第2のパターン)P1,P2,P3に基づいて抽出する。クラスタを選別して抽出される人物の脚の特徴とは、人物の脚に似ている特徴、或いは、人物の脚らしい(即ち、脚である可能性が高い)特徴である。図5は、基準位置に対する人物の両脚L1,L2のXY平面上のパターンP1,P2,P3を説明する図である。パターンP1はLRF4が検出する両脚L1,L2が基準位置に対して前後しているパターン、パターンP2は両脚L1,L2が基準位置に対して並んで離間している(即ち、両脚L1,L2間に間隙が検出される)パターン、パターンP3は両脚L1,L2が基準位置に対して並んで接続している(即ち、両脚L1,L2間に間隙が検出されない)パターンである。図5では、説明の便宜上、パターンP1〜P3の移動方向の一例が太い矢印で示されている。
ステップS4では、ステップS3で抽出した特徴に基づいて対象物が人物であるか否かを判断して人物を検出する。この例では、ステップS4は、ステップS3で抽出した特徴の運動特性及び幾何情報に基づいて人物を検出する。特徴の運動特性は脚の候補の移動情報等を含み、特徴の幾何情報は同一人物の2脚の候補の情報等を含む。ステップS4の処理の詳細については後述する。
図6は、人物検出装置の一例を示すブロック図である。図6において、人物検出装置11は、プログラムを実行するコンピュータを形成するCPU(Central Processing Unit)12、メモリ13、タイマ14、他の装置とのインタフェースを形成する通信部15、及びLRF4を有する。CPU12は、人物検出プログラムを実行することで上記ステップS1〜S4を含む人物検出処理の各手順を実行する。メモリ13は、人物検出プログラム、及び、レンジデータDr等の検出デーや上記クラスタリスト等の各種リストを含む各種データを格納する。タイマ14は、レンジデータDrのサンプリング周期等の時間を管理する。タイマ14は、CPU12内に設けられていても良い。通信部15は、図1のサービスロボット1の場合であれば、ベース部3内の人物検出装置11から見た外部装置(図示せず)に人物検出処理の結果等を通知したり、外部装置から人物検出処理を要求するコマンド等をCPU12に入力したりする。この外部装置には、ロボット本体2内の可動部、音声出力部、表示部等が含まれる。
尚、コンピュータに人物検出処理の各手順を実行させる人物検出プログラムは、メモリ13を含む適切なコンピュータ読み取り可能な記憶媒体に格納されていれば良く、人物検出プログラムを格納する記憶媒体は特に限定されない。
CPU12は、測定の開始、走査時間(又は、走査周期)、測定の終了等の指示をLRF4に出力する。CPU12は、これらの指示に応答してLRF4が測定した距離に基づいて対象物のXY平面上の断面形状に相当する第1のパターンを算出する算出部又は算出手段として機能する。メモリ13は、人物の両脚に相当するXY平面上の断面形状の第2のパターンP1〜P3が予め複数登録されている記憶部又は記憶手段として機能する。CPU12は、第1及び第2のパターンを比較して、比較結果に基づいて対象物から人物の脚の特徴を抽出する抽出部又は抽出手段、及び、抽出した特徴に基づいて対象物が人物であるか否かを判断する判断部又は判断手段としても機能する。
図7は、図3に示すステップS3の処理をより詳細に説明するフローチャートである。図7において、ステップS11では、図3のステップS2で形成されたクラスタの中から未処理であるk番目のクラスタCkを取得する。kの初期値は例えば1である。ステップS12では、前処理を行いクラスタCkが脚である可能性があるか否か、即ち、クラスタCkが脚の候補であるか否かを判定する。この前処理では、例えばクラスタCkを形成する全てのレンジデータDrが包含される仮想円の最小半径RCkを求め、最小半径RCkが予め定義された最小値Rminより大きく、且つ、予め定義された最大値Rmaxの2倍より小さいという第1の条件、最小半径RCk内のレンジデータDrの数が4個より大きいという第2の条件、及びクラスタCkを形成するレンジデータDrが直線を形成しないという第3の条件の全てを満たしていると、クラスタCkが脚である可能性がありステップS12の判定結果がYESであると判断する。ステップS12の判定結果がNOであると、ステップS13では、kをk=k+1にインクリメントして処理をステップS12へ戻すことで、ステップS2で形成されたクラスタの中から次の未処理クラスタCk+1を取得する。
ステップS12の判定結果がYESであると、ステップS14では、kをk=k+1にインクリメントしてステップS2で形成されたクラスタの中から次の未処理クラスタCk+1を取得する。ステップS15では、2個のクラスタCk,Ck+1がパターンP1に相当するか否かを判定し、判定結果がYESであると処理はステップS16へ進み、判定結果がNOであると処理はステップS17へ進む。ステップS15の判定結果がYESの場合に実行されるステップS16では、2個のクラスタCk,Ck+1を両脚の候補リストに追加し、処理はステップS13へ進む。抽出された脚の特徴を表す両脚の候補リストには、クラスタCkの中心座標が脚L1の座標として登録され、クラスタCk+1の中心座標が脚L2の座標として登録される。ステップS17では、kをk=k+1にインクリメントしてステップS2で形成されたクラスタの中から次の未処理クラスタCk+2を取得する。
ステップS18では、2個のクラスタCk,Ck+2がパターンP2に相当するか否かを判定し、判定結果がYESであると処理はステップS16へ進み、判定結果がNOであると処理はステップS19へ進む。ステップS18の判定結果がYESの場合に実行されるステップS16では、2個のクラスタCk,Ck+2を両脚の候補リストに追加し、処理はステップS13へ進む。ステップS19では、2個のクラスタCk,Ck+2がパターンP3に相当するか否かを判定し、判定結果がYESであると処理はステップS20へ進み、判定結果がNOであると処理はステップS13へ進む。ステップS20では、2個のクラスタCk,Ck+2を単脚の候補リストに追加し、処理はステップS13へ進む。抽出された脚の特徴を表す単脚の候補リストには、例えばクラスタCkの中心座標とクラスタCk+2の中心座標の中間点が単脚(接続状態の脚L1,L2)の座標として登録される。
図8は、パターン照合を説明するフローチャートである。図8に示す処理は、図7のステップS15において2個のクラスタがパターンP1に相当するか否か、或いは、図7のステップS18において2個のクラスタがパターンP2に相当するか否かを判断する際に実行される。予め定義した閾値α、β、γ、Lrminの値を適切に設定することにより、パターンP1或いはパターンP2との照合が可能となる。説明の便宜上、以下の説明ではパターンP1との照合を行うものとする。
図8において、ステップS31では、2個のクラスタCk,Ck+1のクラスタリストを参照してこれらのクラスタリストに登録された情報を取得する。ステップS32では、クラスタCkを形成する全てのレンジデータDrが包含される仮想円RckとクラスタCk+1を形成する全てのレンジデータDrが包含される仮想円Rck+1の相似度Sr=Rck/Rck+1を算出する。ステップS33では、クラスタCkの中心座標から基準位置までの距離DとクラスタCk+1の中心座標から基準位置までの距離Dk+1の相似度Sd=|D−Dk+1|を算出する。又、ステップS34では、クラスタCkの中心座標からクラスタCk+1の中心座標までの距離Dck,k+1を算出する。
ステップS35では、Sr<α、Sd<β、Dck,k+1<γ、Rck<Lrmin、Rck+1<Lrminの全ての条件を満足しているか否かを判定する。ここで、αは仮想円の相似度Srに対する閾値、βはクラスタ中心座標から基準位置までの距離の相似度Sdに対する閾値、γはクラスタの中心座標間の距離に対する閾値、Lrminは人体の脚とみなす最小半径を示す閾値である。ステップS35の判定結果がNOであると、ステップS36は照合失敗、即ち、クラスタCk,Ck+1がパターンP1に相当しないと判断し、図7のステップS15の判定結果はNOとなる。一方、ステップS35の判定結果がYESであると、ステップS37は照合成功、即ち、クラスタCk,Ck+1がパターンP1に相当すると判断し、図7のステップS15の判定結果はYESとなる。
パターンP2との照合を行う場合には、予め定義した閾値α、β、γ、Lrminの値をパターンP2との照合用の値に変更するだけで、ステップS31〜S37が上記パターンP1との照合の場合と同様に行われる。この場合、ステップS35の判定結果がNOであると、ステップS36は照合失敗、即ち、クラスタCk,Ck+2がパターンP2に相当しないと判断し、図7のステップS18の判定結果はNOとなる。一方、ステップS35の判定結果がYESであると、ステップS37は照合成功、即ち、クラスタCk,Ck+2がパターンP2に相当すると判断し、図7のステップS18の判定結果はYESとなる。
図7のステップS19において2個のクラスタがパターンP3に相当するか否かは、例えば2個のクラスタを形成する全てのレンジデータDrが包含される仮想円の最小半径が予め定義された最小値Rminより大きく、且つ、予め定義された最大値Rmaxより小さいか否かを判定することで判断可能である。この場合の仮想円は、2個のクラスタの中心座標の中間点を中心とするものであっても良い。
上記ステップS3で抽出した特徴は、人物の脚に似ている特徴、或いは、人物の脚らしい(即ち、脚である可能性が高い、脚の候補の)特徴である。従って、ステップS4では、抽出された脚の特徴を表す脚(両脚又は単脚)の候補リストから人物の脚を抽出する。ステップS4では更に、脚の候補リストから抽出した脚に基づいて人物の検出を行い、抽出した脚と検出結果となる人物との関連付けも行う。
例えば、人物の脚は、候補が脚と特定された時点(又は、初期状態)の候補の位置を示すXY座標InitPos、タイマ14で管理されており候補が脚と特定された時の時間(又は、時刻)を示すタイムスタンプInitTimestamp、脚と特定された候補の現在位置を示すXY座標CurrentPos、脚と特定された候補の予測位置を示すXY座標PredictPos、脚と特定された候補の現在速度を表すベクトルCurrentVel、脚と特定された候補を脚として持つ人物Human等の情報で定義する。
一方、脚と特定された候補に基づいて検出した人物は、唯一の人物を示す識別情報ID、人物の現在位置を示すXY座標CurrentPos、人物の予測位置を示すXY座標PredictPos、人物の現在速度を示すベクトルCurrentVel、人物の両脚を示すLeftLeg, RightLeg等の情報(即ち、要素)で定義する。
図9は、脚と人物との依存関係を説明する図である。図9において、実線は人物とこの人物を定義する情報の人物定義リストHuman、人物の左脚とこの人物の左脚を定義する情報の左脚定義リストLeftLeg、及び人物の右脚とこの人物の右脚を定義する右脚定義リストRightLegの関係を示す。又、破線は、人物定義リストHumanの情報、左脚定義リストLeftLegの情報、及び右脚定義リストRightLegの情報の依存関係を示す。
候補の脚への特定、脚と特定された候補とこの候補から検出された人物との関連付け、脚及び人物の状態更新等を含む処理は、上記の如き定義リストHuman, LeftLeg, RightLegに基づいて任意検出サイクルTiで実行される。このような処理に必要な情報には、直前の検出サイクル(以下、「前回検出サイクル」と言う)Ti-1の脚定義リストLegTi-1の情報、前回検出サイクルTi-1で検出された人物の人物定義リスト(前回検出サイクルTi-1の検出結果)HTi-1の情報、現在の検出サイクル(以下、「今回検出サイクル」と言う)Tiで抽出された候補が新たに脚と特定された脚定義リストLegTiの情報等が含まれる。
図10は、図3に示すステップS4の処理をより詳細に説明するフローチャートである。図10において、ステップS41では、今回検出サイクルTiで抽出された候補が新たに脚と特定された新脚定義リストNLegTiを全てメモリ13に登録する。又、ステップS41では、今回検出サイクルTiで抽出された候補が新たに脚と特定された新脚定義リストNLegTi中の脚の現在位置を示すXY座標CurrentPosと、前回検出サイクルTi-1の全ての脚定義リストLegTi-1中の脚の現在位置を示すXY座標CurrentPosとを周知の最短距離近傍法(Nearest Neighborhood Algorithm)を用いて照合する。具体的には、新脚定義リストNLegTi中の脚の現在位置を示すXY座標CurrentPosと、前回検出サイクルTi-1の全ての脚定義リストLegTi-1中の脚の現在位置を示すXY座標CurrentPosとの最短距離を算出し、最短距離が閾値以下であれば最短距離近傍法により照合が成功した(以下、「照合成功」と言う)と判断して処理はステップ42へ進む。一方、照合の結果最短距離が閾値以下である新脚定義リストNLegTi中の脚の現在位置を示すXY座標CurrentPosが検出されないと、照合が不成功である(以下、「照合不成功」と言う)と判断して新脚定義リストNLegTiは他の脚又は人物と関連付けができていない非関連脚定義リストLegFeatureTiとしてメモリ13に登録し、次の検出サイクル(以下、「次回検出サイクル」と言う)Ti+1で抽出された候補が新たに脚と特定された新脚定義リストNLegTi+1が作成されるまで待つ。ステップS41で用いられる閾値は、新脚定義リストNLegTiが両脚に関するものであれば例えば人物の最大半径(例えば、1m)に設定されて2脚と2脚の最短距離を算出し、新脚定義リストNLegTiが単脚に関するものであれば1脚と1脚の最短距離が算出される。2脚と2脚の最短距離とは、2脚の中心と2脚の中心との間の最短距離である。
図11は、人物定義リストHuman、脚定義リストLeg及び非関連脚定義リストLegFeatureの一例を説明する図である。この例では、脚定義リストLeg1, Leg2が人物定義リストHuman1と関連付けられており、...、脚定義リストLegN, LegN+1が人物定義リストHumanMがと関連付けられているが、非関連脚定義リストLegFeature1, LegFeature2は他の脚又は人物と関連付けられていない。尚、新脚定義リストNLegの構成は、脚定義リストLegと同じ構成で良い。
ステップS41において照合成功と判断されると、ステップS42では、今回検出サイクルTiの脚定義リストLegTi中の脚の現在位置を示すXY座標CurrentPosを新脚定義リストNLegTi中の対応するXY座標CurrentPosで更新すると共に、脚定義リストLegTi中の現在速度を表すベクトルCurrentVelを更新してメモリ13に登録する。現在速度を表すベクトルCurrentVelは、新脚定義リストNLegTi中の脚の現在位置を示すXY座標CurrentPosと前回脚定義リストLegTi-1中の脚の現在位置を示すXY座標CurrentPosの差分と、検出サイクルタイムDTから推定可能である。更に、ステップS42では、今回検出サイクルTiまでに検出できていない脚の候補を更に抽出するため、照合できた候補を新脚定義リストNLegTiから削除すると共に、一定時間内に照合できない新脚定義リストNLegTiの要素も削除することで、新脚定義リストNLegTiを更新する。
ステップS43では、他の脚又は人物と関連付けができていると判断され、且つ、更新した脚定義リストLegTiの要素を参照している人物定義リストHumanTiの要素を更新する。具体的には、人物定義リストHumanTiの対応するXY座標CurrentPosと現在速度を表すベクトルCurrentVelを更新してメモリ13に登録する。尚、例えば人物定義リストHumanTiの左脚要素LeftLeg又は右脚要素RightLegを無効(NULL)に更新することによって、この人物定義リストHumanTiが定義する人物に対して基準位置から見える脚の本数が変わる。
このように、ステップS42により今回検出サイクルTiの脚定義リストLegTiの要素(即ち、脚の状態)が更新され、ステップS43により今回検出サイクルTiの人物定義リストHumanTiの要素(即ち、人物の状態)が更新される。
ステップS44では、メモリ13に登録されている、前回検出サイクルTi-1の他の脚又は人物と関連付けができていない非関連脚定義リストLegFeatureTi-1中の脚の現在位置を示すXY座標CurrentPosがあれば、更新された今回検出サイクルTiの新脚定義リストNLegTi中の脚の現在位置を示すXY座標CurrentPosとの最短距離を算出する。又、ステップS44では、この最短距離が閾値以下であれば最短距離近傍法により照合が成功した(「照合成功」)と判断して、照合が成功した非関連脚定義リストLegFeatureTi-1中のXY座標CurrentPosを非関連脚定義リストLegFeatureTi-1から削除すると共に、新たに脚と特定された候補の現在位置として、即ち、検出サイクルTiの脚定義リストLegTiの要素としてメモリ13に登録することで脚定義リストLegTiを更新する。このように、ステップS44では、新脚定義リストNLegTiから、前回検出サイクルTi-1で検出されていない脚の候補を抽出する。つまり、上記ステップS41〜S43の処理が完了した時点で新脚定義リストNLegTiが要素が登録されていない空リスト以外の場合、前回検出サイクルTi-1で検出されていない脚の候補と新脚定義リストNLegTiの各要素との最短距離を計算し、最短距離近傍法で候補を照合する。最短距離が閾値以下であれば、今回検出サイクルTiの新脚定義リストNLegTiの要素で定義した位置を新位置とする新たな脚を作成し、脚定義リストLegTiに追加する。
ステップS44の処理が完了した時点で、前回検出サイクルTi-1の脚定義リストLegTi-1と新脚定義リストNLegTiの要素の情報に基づいて、今回検出サイクルTiの脚定義リストLegTiの作成が完了する。この状態では、今回検出サイクルTiの脚定義リストLegTiを用いて人物の状態を更新することができる。
ステップS45では、前回検出サイクルTi-1で検出されている人物の状態を更新する。つまり、上記如く更新した今回検出サイクルTiの脚定義リストLegTiと、この脚定義リストLegTiの要素を参照する人物定義リストHumanTiとの関連付けに基づいて、今回検出サイクルTiの人物の位置又は移動速度を以下のように更新する。先ず、人物の2脚を検出することができ、且つ、両脚の距離が人物の最大半径(例えば、1m)以下の場合、両脚の中心で人物の位置を更新する。又、更新前後の脚の位置の差分とサイクルタイムDTで脚の移動速度を計算する。人物の2脚を検出することができ、且つ、両脚の距離が人物の最大半径を超える場合、両脚が同時に静止或いは移動する場合にはこの人物を人物定義リストHumanTiから削除する。この場合、両脚の静止或いは移動は、脚の移動速度から判断することが可能である。更に、人物の単脚しか検出できない場合、人物の位置をこの単脚の位置で更新し、上記の場合と同様に脚の速度も更新する。人物の脚が全て検出されない場合、脚が一時的に遮蔽されている可能性があるため、新たな脚の候補の全てに対し、人物の現在位置と最短距離を持つ2脚を選択する。この選択された2脚と人物との最短距離が探索半径Rs以内(例えば、Rs=1.5×(人の最大半径))であれば、この2脚を使って人物の状態を更新し、上記の場合と同様に脚の移動速度も更新する。
尚、一定時間内(例えば、2検出サイクル)で人物定義リストHumanTi中の要素の更新がなければ、その人物定義リストHumanTiで表される人物は削除する。上記の如き処理が完了した時点で、前回検出サイクルTi-1で検出した人物の状態(位置、速度)、即ち、人今回検出サイクルTiの人物定義リストHumanTiの更新が全て完了する。
ステップS46では、新たな人物を検出する。つまり、脚定義リストLegTiで表される、人物定義リストHumanTiへの参照がなく、且つ、前回検出サイクルTi-1で検出した人物との関連付けができていない各脚に対し、脚定義リストLegTiで表される他の脚との距離を算出する。又、算出された最短距離が人物の最大半径以内である脚と関連付けができていない脚とで形成される脚ペアのうち、少なくとも一方の脚が静止していない脚ペアを新たな人物の2脚とみなして今回サイクルTiで新たに検出した人物の脚として人物定義リストHumanTiに追加する。これにより、新たな人物を検出することができ、処理はステップS41へ戻る。
尚、ステップS4において、ステップS3で抽出した人物の脚に似ている特徴(或いは、人物の脚らしい(即ち、脚である可能性が高い)特徴)に基づいて対象物が人物であるか否かを判断して人物を検出する方法は、図10の手順を用いる方法に限定されるものではなく、人物の脚に似ている特徴に基づいて対象物が人物であるか否かを判断する方法であれば特に限定されない。
(第2実施例)
上記第1実施例では、LRF4は、測定の開始、走査時間(又は、走査周期)、測定の終了等の指示に応答して、重力方向と平行な垂直面以外の任意平面の一例であるXY平面を走査するが、本発明の第2実施例においては、LRF4はXY平面に対して90°以外の任意の角度傾斜させた任意平面を走査する。
尚、上記第1実施例及び以下に説明する第2実施例において、重力方向と平行な垂直面以外の任意平面を走査するのは、直立している人物の脚は概ね重力方向と平行であるため重力方向と平行な垂直面を走査しても人物の脚を検出することは極めて難しいからである。
図12は、本発明の第2実施例におけるサービスロボット1のベース部3の一例を示す図である。図12中、図1と同一部分には同一符号を付し、その説明は省略する。図12に示す例では、LRF4はXY平面に対して角度θ傾斜させた任意走査面を走査する。この例では、LRF4の走査面はXY平面に対して下向きに傾斜しているが、上向きに傾斜していても良い。又、角度調整機構6により角度θを可変設定(又は、チルト)可能な構成としても良い。
任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定可能な距離測定装置としてLRFを用いる場合、LRFは人物の脚を検出するのに適した高さ位置に設けられる。上記角度θが0≦θ<90°の場合、LRFの高さ位置は人物の膝から下腿にかけての部位を検出するのに適した高さ位置に設けられることが望ましく、上記角度θが0<θ<90°の場合、LRFの走査面はXY平面に対して下向きに傾斜していることが望ましい。LRFの高さ位置が人物の膝や下腿を検出するのに適した高さ位置に設けられることが望ましい理由は、LRFから見て同一人物の膝対や下腿対の方が上腿対と比較すると互いを遮蔽する確率が低いからである。
(第3実施例)
上記第1実施例では、LRF4はサービスロボット1に1個設けられているが、LRF4を複数設けても良い。本発明の第3実施例においては、LRF4はサービスロボット1に2個設けられる。
図13は、本発明の第3実施例におけるサービスロボット1のベース部3の一例を示す図である。図13中、図12と同一部分には同一符号を付し、その説明は省略する。図13に示す例では、LRF4がサービスロボット1に2個設けられている。2個のLRF4は、互いに平行な任意平面を走査しても、互いに交差する任意平面を走査しても良い。例えば、図13において上側のLRF4の走査角度を角度調整機構6により調整可能な構成とし、且つ、下側のLRF4は位置が固定されてXY平面を走査する構成としても良い。尚、LRF4が2個の場合、サービスロボット1の基準位置は、各々のLRF4の位置となる。
2個以上のLRFを用いてサービスロボットの基準位置から対象物までの距離を測定する場合、2個以上のLRFによる2以上の平面における測定結果のマッチングを行うことにより測定結果の精度を向上させることができる。例えば、1個のLRFでは遮蔽等により脚が測定しにくい場合であっても、2個以上のLRFの測定結果のマッチングを行うことで、1個のLRFの走査面では少なくとも一部が遮蔽されている脚であっても他のLRFの走査面における測定結果から脚である確率を、周知のマッチング手法により正確に演算することができる。
尚、2個以上のLRFを用いる場合、少なくとも1個のLRFはサービスロボットに設け、他のLRFは壁等に固定的に設けても良い。又、少なくとも1個のLRFを設けたサービスロボットを複数用いても良い。これらの場合、言うまでもなく、少なくとも1個のLRFが設けられた1台のサービスロボットは、壁や他のサービスロボットに設けられたLRFの測定結果を無線通信により図6に示す通信部15等を介して受信すれば、2以上の平面での測定結果のマッチングを行うことができる。これらの場合、複数のLRFで共通に用いるXY座標の原点は、壁等の固定点であっても、基準となる1台のサービスロボットの基準点であっても良い。
又、同じXY平面を走査する1個のLRFが設けられた2台以上のサービスロボットの測定結果のマッチングを行う場合であっても、2台以上のサービスロボットのLRFは対象物に対して異なる位置から走査しているので、同じXY平面上の異なる位置からの測定結果のマッチングを行うことで、測定結果の精度を向上させることができる。
(変形例)
言うまでもなく、上記各実施例による人物検出結果を、カメラを用いる人物検出方法等の他の人物検出方法による人物検出結果と組み合わせて人物検出の精度を向上することが可能である。この場合、人物検出環境によらず人物検出の精度を向上できる。
上記各実施例では、サービスロボットの基準位置から対象物までの距離をLRFを用いて測定しているが、任意平面で二次元に限定された走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定可能な距離測定装置
(DME:Distance Measuring Equipment)であれば、距離を測定する走査装置又は走査手段はLRF以外の距離測定装置を用いるものであっても良い。
又、人物検出装置の適用はサービスロボットに限定されるものではなく、人物検出処理を要求するコマンドを人物検出装置に出力し、人物検出装置からの人物検出処理の結果の通知が入力される監視制御部(又は、コンピュータ)を備えた監視システム等へも適用可能である。
以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定する走査手段と、
前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出する算出手段と、
人物の両脚に相当する前記任意平面上の断面形状の第2のパターンが予め複数登録されている記憶手段と、
前記第1及び第2のパターンを比較して、比較結果に基づいて前記対象物から人物の脚の特徴を抽出する抽出手段と、
抽出した前記特徴に基づいて前記対象物が人物であるか否かを判断する判断手段を備えた、人物検出装置。
(付記2)
前記第2のパターンは、前記走査手段が検出する両脚が前記基準位置に対して前後しているパターン、前記基準位置に対して両脚が並んで離間しているパターン、及び前記基準位置に対して両脚が並んで接続しているパターンを含む、付記1記載の人物検出装置。
(付記3)
前記判断手段は、抽出した前記特徴の運動特性及び幾何情報に基づいて人物を検出する、付記1又は2記載の人物検出装置。
(付記4)
前記算出手段は、前記距離に基づいて前記対象物の位置を検出サイクルで算出し、
前記判断手段は、前記対象物の前回の検出サイクルにおける位置と前記対象物の現在の検出サイクルおける位置とを最短距離近傍法を用いて照合することで、前記対象物の移動を前記特徴の運動特性として求める、付記3記載の人物検出装置。
(付記5)
前記走査手段は、複数の任意平面上の走査範囲を走査する、付記1乃至4のいずれか1項記載の人物検出装置。
(付記6)
前記複数の任意平面は互いに平行である、付記5記載の人物検出装置。
(付記7)
前記複数の任意平面は互いに所定角度を成す、付記5記載の人物検出装置。
(付記8)
前記走査手段は、レーザレンジファインダ(LRF)を有する、付記1乃至7のいずれか1項記載の人物検出装置。
(付記9)
前記走査手段は、任意平面の数分のレーザレンジファインダ(LRF)を有する、付記1乃至7のいずれか1項記載の人物検出装置。
(付記10)
付記1乃至9のいずれか1項記載の人物検出装置と、
人物検出処理を要求するコマンドを前記人物検出装置に出力し、前記人物検出装置からの人物検出処理の結果の通知が入力されるロボット本体を備えた、サービスロボット。
(付記11)
付記1乃至9のいずれか1項記載の人物検出装置と、
人物検出処理を要求するコマンドを前記人物検出装置に出力し、前記人物検出装置からの人物検出処理の結果の通知が入力される監視制御部をを備えた、監視システム。
(付記12)
重力方向と平行な垂直面以外の任意平面で走査範囲を走査部により走査して基準位置から前記走査範囲内の対象物までの距離を測定する工程と、
前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出する工程と、
前記第1のパターンと、予め記憶部に複数登録されている、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンをプロセッサにより比較して、比較結果に基づいて前記対象物から人物の脚の特徴をプロセッサにより抽出する工程と、
抽出した前記特徴に基づいて前記対象物が人物であるか否かを前記プロセッサで判断する工程を含む、人物検出方法。
(付記13)
前記第2のパターンは、前記走査部が検出する両脚が前記基準位置に対して前後しているパターン、前記基準位置に対して両脚が並んで離間しているパターン、及び前記基準位置に対して両脚が並んで接続しているパターンを含む、付記12記載の人物検出方法。
(付記14)
前記判断する工程は、抽出した前記特徴の運動特性及び幾何情報に基づいて人物を検出する、付記12又は13記載の人物検出方法。
(付記15)
コンピュータに、
走査部に指示を出力して重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定させる走査手順と、
前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出させる算出手順と、
前記第1のパターンと、記憶部に予め複数登録されている、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンを比較させ、比較結果に基づいて前記対象物から人物の脚の特徴を抽出させる抽出手順と、
抽出した前記特徴に基づいて前記対象物が人物であるか否かを判断させる判断手順
を実行させるためのプログラム。
(付記16)
前記第2のパターンは、前記走査手段が検出する両脚が前記基準位置に対して前後しているパターン、前記基準位置に対して両脚が並んで離間しているパターン、及び前記基準位置に対して両脚が並んで接続しているパターンを含む、付記15記載のプログラム。
(付記17)
前記判断手順は、前記コンピュータに、抽出した前記特徴の運動特性及び幾何情報に基づいて人物を検出させる、付記15又は16記載のプログラム。
(付記18)
付記15乃至17のいずれか1項記載のプログラムが格納された、コンピュータ読み取り可能な記憶媒体。
以上、開示の人物検出装置、人物検出方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
1 サービスロボット
2 ロボット本体
3 ベース部
4 LRF
6 角度調整機構
11 人物検出装置
12 CPU
13 メモリ
14 タイマ
15 通信部

Claims (6)

  1. 重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定する走査手段と、
    前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出する算出手段と、
    人物の両脚に相当する前記任意平面上の断面形状の第2のパターンが予め複数登録されている記憶手段と、
    前記第1及び第2のパターンを比較して、比較結果に基づいて前記対象物から人物の脚の特徴を抽出する抽出手段と、
    抽出した前記特徴に基づいて前記対象物が人物であるか否かを判断する判断手段を備え
    前記複数の第2のパターンは、前記両脚が前記基準位置に対して前後しているパターン、前記両脚が前記基準位置に対して左右に並んで離間しているパターン、及び前記両脚が前記基準位置に対して左右に並んで接続しているパターンを含む、人物検出装置。
  2. 前記判断手段は、抽出した前記特徴の運動特性及び幾何情報に基づいて人物を検出し、
    前記特徴の運動特性は脚の候補の移動情報を含み、
    前記特徴の幾何情報は同一人物の2脚の候補の情報を含む、請求項記載の人物検出装置。
  3. 前記走査手段は、レーザレンジファインダを有し、
    前記算出手段は、前記レーザレンジファインダが測定したレンジデータを所定周期でサンプリングして形成したセグメントからクラスタを形成し、
    連続する2つのサンプリング点におけるレンジデータは、2点の前記基準位置からの距離の差が第1の閾値以下であり、且つ、前記2点の前記重力方向と垂直な水平面上の距離が第2の閾値以下であると、同じ対象物のエッジの1つのセグメントを形成し、
    同じ対象物の複数のセグメントから1つのクラスタが形成され、前記1つのクラスタは、1つの対象物のセグメントを形成するレンジデータの集合である、請求項1又は2記載の人物検出装置。
  4. 前記算出手段は、前記クラスタを管理するクラスタリストを作成し、
    前記クラスタリストは、各クラスタを形成するレンジデータの数、各クラスタの中心座標、各クラスタの前記中心座標から前記基準位置までの距離、各クラスタを形成する全てのレンジデータが包含される仮想円の最小半径、及び各クラスタを形成するレンジデータが直線を形成しているか否かの情報を含み、
    前記抽出手段は、前記クラスタリストに基づいて前記クラスタを選別して前記比較結果から前記人物の脚の特徴を抽出する、請求項3記載の人物検出装置。
  5. 重力方向と平行な垂直面以外の任意平面で走査範囲を走査部により走査して基準位置から前記走査範囲内の対象物までの距離を測定する工程と、
    前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出する工程と、
    前記第1のパターンと、予め記憶部に複数登録されている、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンをプロセッサにより比較して、比較結果に基づいて前記対象物から人物の脚の特徴をプロセッサにより抽出する工程と、
    抽出した前記特徴に基づいて前記対象物が人物であるか否かを前記プロセッサで判断する工程を含み、
    前記複数の第2のパターンは、前記両脚が前記基準位置に対して前後しているパターン、前記両脚が前記基準位置に対して左右に並んで離間しているパターン、及び前記両脚が前記基準位置に対して左右に並んで接続しているパターンを含む、人物検出方法。
  6. コンピュータに、
    走査部に指示を出力して重力方向と平行な垂直面以外の任意平面で走査範囲を走査して基準位置から前記走査範囲内の対象物までの距離を測定させる走査手順と、
    前記距離に基づいて前記対象物の前記任意平面上の断面形状に相当する第1のパターンを算出させる算出手順と、
    前記第1のパターンと、記憶部に予め複数登録されている、人物の両脚に相当する前記任意平面上の断面形状の第2のパターンを比較させ、比較結果に基づいて前記対象物から人物の脚の特徴を抽出させる抽出手順と、
    抽出した前記特徴に基づいて前記対象物が人物であるか否かを判断させる判断手順
    を実行させ
    前記複数の第2のパターンは、前記両脚が前記基準位置に対して前後しているパターン、前記両脚が前記基準位置に対して左右に並んで離間しているパターン、及び前記両脚が前記基準位置に対して左右に並んで接続しているパターンを含む、プログラム。
JP2010063347A 2010-03-18 2010-03-18 人物検出装置、人物検出方法及びプログラム Expired - Fee Related JP5581758B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010063347A JP5581758B2 (ja) 2010-03-18 2010-03-18 人物検出装置、人物検出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010063347A JP5581758B2 (ja) 2010-03-18 2010-03-18 人物検出装置、人物検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011197963A JP2011197963A (ja) 2011-10-06
JP5581758B2 true JP5581758B2 (ja) 2014-09-03

Family

ID=44876091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010063347A Expired - Fee Related JP5581758B2 (ja) 2010-03-18 2010-03-18 人物検出装置、人物検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5581758B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
JP6481960B2 (ja) * 2015-03-23 2019-03-13 日本電気株式会社 足元の位置を検出する情報処理システム、情報処理方法及びプログラム
JP6755713B2 (ja) * 2016-05-25 2020-09-16 キヤノン株式会社 追尾装置、追尾方法及びプログラム
JP7506643B2 (ja) 2021-08-26 2024-06-26 株式会社デンソー 物体認識装置、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4100239B2 (ja) * 2003-04-22 2008-06-11 松下電工株式会社 障害物検出装置と同装置を用いた自律移動ロボット、障害物検出方法、及び障害物検出プログラム
JP2008288684A (ja) * 2007-05-15 2008-11-27 Toyota Central R&D Labs Inc 人物検出装置及びプログラム

Also Published As

Publication number Publication date
JP2011197963A (ja) 2011-10-06

Similar Documents

Publication Publication Date Title
JP7556556B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Quintero et al. Pedestrian intention recognition by means of a hidden markov model and body language
US8965050B2 (en) Behavior analysis device
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
US8731829B2 (en) Flow line detection system, flow line detection method, and flow line detection program
US20140334670A1 (en) Three-Dimensional Object Modelling Fitting & Tracking
US20210172741A1 (en) Accompanying service method and device for intelligent robot
TW201816362A (zh) 障礙物的檢測方法及相關裝置
WO2009004479A2 (en) System and process for detecting, tracking and counting human objects of interest
JP5728815B2 (ja) 物体検出装置
JP2009190164A (ja) 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法
JP2004094288A (ja) 指示位置検出装置及び自律ロボット
JP2014204375A (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
JP2013156718A (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP4644992B2 (ja) 距離画像を用いた人体検知方法
JP5581758B2 (ja) 人物検出装置、人物検出方法及びプログラム
US20200364444A1 (en) Information processing apparatus and method of authentication
CN108303096A (zh) 一种视觉辅助激光定位系统及方法
JP7422456B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5561066B2 (ja) 人物検出装置、人物検出方法及びプログラム
JP2015219868A (ja) 情報処理装置、情報処理方法、プログラム
JP4419543B2 (ja) 検出装置および検出方法
JP6742157B2 (ja) 物体検出装置、物体検出システム、物体検出方法、およびプログラム
JP2010039617A (ja) 対象物追跡装置及びプログラム
JP6546057B2 (ja) 複数のカメラ間での人物の追跡装置、追跡方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140630

R150 Certificate of patent or registration of utility model

Ref document number: 5581758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees