JP2006065419A - 人検出装置 - Google Patents

人検出装置 Download PDF

Info

Publication number
JP2006065419A
JP2006065419A JP2004244414A JP2004244414A JP2006065419A JP 2006065419 A JP2006065419 A JP 2006065419A JP 2004244414 A JP2004244414 A JP 2004244414A JP 2004244414 A JP2004244414 A JP 2004244414A JP 2006065419 A JP2006065419 A JP 2006065419A
Authority
JP
Japan
Prior art keywords
person
human
image
information
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004244414A
Other languages
English (en)
Other versions
JP4475060B2 (ja
Inventor
Hidekazu Araki
秀和 荒木
Tsuyoshi Yamane
剛志 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2004244414A priority Critical patent/JP4475060B2/ja
Publication of JP2006065419A publication Critical patent/JP2006065419A/ja
Application granted granted Critical
Publication of JP4475060B2 publication Critical patent/JP4475060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】人が監視空間内に存在することを周囲環境の明るさや、人の周囲の物体の存在にかかわらず、正確迅速に検出することができる人検出装置を提供する。
【解決手段】
距離情報計測手段1により、監視空間内に存在する人や物の距離が計測点毎に得られ、その距離情報から高さ方向のデータを取得して高さの情報を有するマップ画像をマップ生成手段3で作成する。人候補領域抽出手段4では、マップ画像データと人間の上半身の形状に関する情報用いて人が存在すると判断される領域を抽出する。人判定手段6は、人候補領域の水平方向の平面画像と人型モデル画像記憶部13に記憶されている人体形状画像との一致の程度により人であるかどうかの判定を行う。
【選択図】 図1

Description

本発明は、監視空間における人の存否の判断を行う人検出装置に関する。
従来、夜間の道路等における歩行者を検出するために、撮像時刻の異なる画像間で差分を求めることにより、移動物体として人を検出することが行われている(例えば、特許文献1参照)。
また、3次元位置測定装置を用いて検知対象物までの距離を測定し、距離の分布パターンを距離画像として記憶させ、この距離画像とあらかじめ登録された基準パターンとの差画像を抽出して一致度を評価して検知対象物が存在するかどうかを判断する検出装置が提案されている(例えば、特許文献2参照)。
特開平11−31230号公報 特開2003−196656号公報
しかし、上記従来の画像間で差分を求めて人を検出する装置では、撮像画像の明るさの変化から人を検出するので、静止している物体・人は検出できない。また、周囲環境の明るさと人の明るさの差が少ない場合、例えば、白い壁の前に存在する白っぽい服の人物のような場合には、明るさの変化が少ないので、検出することが困難である。
一方、距離の分布パターンを距離画像として記憶させ、基準パターンと比較して人を検出する検出装置では、人が監視空間に存在する場合の基準パターンを様々に想定して多く作成しておく必要があり、一致度を評価するのにも時間がかる。また、人が重なり合っている場合や、人と他の物体が距離測定の方向に対して重なっている場合には、人が存在すると判定することが困難であった。
本発明は、上述した課題を解決するために創案されたものであり、人が監視空間内に存在することを周囲環境の明るさや、人の周囲の物体の存在にかかわらず、正確迅速に検出することができる人検出装置を提供することを目的としている。
上記目的を達成するために、請求項1記載の発明は、3次元空間内の測定対象物の距離情報を取得する距離情報計測手段と、前記距離情報計測手段で取得された距離情報から高さの情報を算出して測定点の高さ情報を2次元平面上に表したマップ情報を生成するマップ生成手段と、人を水平方向から見た場合の人体形状モデル画像が記憶された人型モデル画像記憶部と、平均的な人体の上半身の形状に関する情報に基づいて前記マップ情報から人が存在すると推定できる人候補領域を抽出する人候補領域抽出手段と、前記人候補領域の水平方向の平面画像と人体形状モデル画像との一致の程度により人であるかどうかを判断する人判定手段とを備えたことを特徴とする人検出装置である。
また、請求項2記載の発明は、前記人候補領域抽出手段で抽出された人候補領域から人体の幅方向に直交する方向を人が向いている方向として推定する人方向推定手段を備えたことを特徴とする請求項1記載の人検出装置である。
また、請求項3記載の発明は、前記人方向推定手段は、人候補領域のマップ情報のうち肩付近の情報を用いることを特徴とする請求項2記載の人検出装置である。
また、請求項4記載の発明は、前記人方向推定手段は、推定した人の幅方向において、頭部と推定される部分の長さの割合に基づいて人であるかどうかを判断することを特徴とする請求項2〜請求項3記載の人検出装置である。
また、請求項5記載の発明は、前記人判定手段は、前記人方向推定手段で推定された人の方向を用いて人候補領域のマップ情報を正面視となるように画像処理を行った後、前記人体形状モデル画像との一致の程度を算出することを特徴とする請求項2〜請求項4記載の人検出装置である。
また、請求項6記載の発明は、前記人型モデル画像記憶部には、人体形状の左半身、右半身の簡易モデル画像も格納されており、前記人判定手段は人の幅方向において前記簡易モデル画像と人候補領域内の正面視画像との一致の程度により人であるかどうかを判断することを特徴とする請求項5記載の人検出装置である。
また、請求項7記載の発明は、顔表面の3次元モデル形状が記憶された特徴3次元モデル記憶部を備え、前記人方向推定手段は、人候補領域のマップ情報から頭部の長さに相当する画像を抽出し、この画像と前記顔表面の3次元モデル形状との一致の程度により人の前後方向を推定することを特徴とする請求項2〜請求項6記載の人検出装置である。
本発明によれば、高さ方向の情報を有するマップ情報を作成して垂直方向から人が存在している領域かどうか判断しているので、周囲環境の明るさに影響されず、人が重なり合っている場合や人の周囲に物が存在している場合でも、正確迅速に検出することができる。
以下、図面を参照して本発明の一実施形態を説明する。図1は本発明の人検出装置の構成例を示す図である。
人検出装置は、距離情報計測手段1、人検出処理装置2で構成されており、図示はしていないが、3次元空間内の画像を取得するためのカメラ装置も備えている。
人検出処理装置2は、コンピュータ処理システムにより構成されており、一般のコンピュータ処理システムと同様、CPU、記憶装置やメモリ、モニタ、キーボード等から構成され、各部の動作はCPUによって制御される。距離情報計測手段1、カメラ装置(図示せず)と人検出処理装置2とはインタフェース部により接続されており、人検出処理装置2内からの制御信号にしたがって距離情報や画像情報を取得して、人検出処理装置2内に送信するようになっている。
人検出処理装置2は、マップ生成手段3、人候補領域抽出手段4、人方向推定手段5、人判定手段6、顔画像取得部7、出力手段8、記憶部9で構成されている。また、記憶部9には、上面視人体モデル情報記憶部10、特徴3次元モデル記憶部11、特徴濃淡モデル記憶部12、人型モデル画像記憶部13等が格納されている。
図2は、人検出装置を配置して、監視空間内の情報を得る様子を示したものである。距離情報計測手段1は、例えばレーザ光距離測定装置のように、投射光が測定対象物に反射して戻ってくるまでの時間に基づいて測定対象物までの距離を測定する(Time−Of−Flight法)ものを用いるが、複数台のTVカメラを用いるステレオ画像法によるものであっても良く、測定対象物の距離情報を得ることができる手段であれば良い。
距離情報計測手段1の測定方向は、床32の床面に平行ではなく、やや斜め下方に向けられている。距離情報計測手段1により、図2に示す空間内の人A、人B、椅子31、床32等の各対象物の距離が計測点毎に得られ、この距離から各計測点の3次元座標が求められる。図2に示すように、上記3次元座標は距離情報計測手段1の座標系(センサ座標系)Xs、Ys、Zsで算出される。なお、Osはセンサ座標系の原点を示す。
これらのセンサ座標データはマップ生成手段3に送られる。マップ生成手段3では、まず、センサ座標データを図2に示す床面上に設定されたマップ座標系Xm、Ym、Zmに変換する。この変換は以下のように行われる。
床面に設定されたマップ座標系とセンサ座標系の相対位置関係をあらかじめ算出しておく。両座標系間の回転のずれと並行位置ずれを示す行列式を[R]、[T]とすると、センサ座標系(Xs、Ys、Zs)からマップ座標系における座標(Xm、Ym、Zm)への変換は、以下のように行われる。
次に、マップ座標系に変換された計測点の中でXm座標及びZm座標が同一座標となる3次元データの内、Ym座標(床面からの高さに相当する)が最も大きい点の位置を(Xm、Zm)座標の2次元平面上にプロットする。上記Xm座標及びZm座標が同一座標となる3次元データであるかどうかについては、マップの画素の大きさをgx、gzとしたとき、2点間のXm座標とZm座標の各々の差が共に、gx以下でかつgz以下であるときに同一座標(同一地点)であると判断する。
プロットを行う場合に、Ym座標値(床面からの高さに相当する)に応じてグレースケール(濃淡)を割り当てておく。例えば床面上の高さ(Ym=0)を黒色とし、監視空間内の最も高い点(例えば、人間の頭頂部)を白色とし、床面から人間の頭頂部までの間の高さに対して何段階かのグレースケールを割り当てるようにしても良い。以上のようにして生成されたマップ画像を示すのが図3である。濃淡は、床面からの高さを表しており、明るい程高いことを示す。ところで、距離情報計測手段1からの投射光が届かない部分、例えば人Bの右肩や右手の部分のデータは得られないので表示されていない。また、人Aについても、図3では背面の部分が表示されているが、実際には少しデータが存在しない部分が存在する。
次に、このマップ画像データを用いて人候補領域抽出手段4では、人が存在すると判断される領域を抽出する。人候補領域抽出手段4は、上面視人体モデル情報記憶部10に格納されているデータを用いるが、上面視人体モデル情報記憶部10には、図4に示すような平均的日本人の上半身の体格に関する情報が格納されている。例えば、人間の肩幅の長さW、人間頭部の長さK、人間の床面投影面積C等である。
図5は人候補領域の抽出手順を示す。まず、マップ上の任意の点Aに着目し、着目点Aから所定距離離れた位置の点Bをすべて抽出する(S1)。この所定距離は、上面視人体モデル情報記憶部10から人間の肩幅の長さWを読み出し、そのWの半分の値を用いる。
次に、点Aと抽出されたすべての点Bとを比較し、点Aと点Bの床面からの高低差(マップ画像上の濃淡差に相当)が、所定範囲内であれば、その点Aを抽出する(S2)。この所定範囲についても、上面視人体モデル情報記憶部10内の人間頭部の長さ情報が用いられ、Thr1=K、Thr2=1.5×K となる。すなわち、人間の肩近傍のデータを用いる。抽出された点Aを中心とし、人間の肩幅Wに相当する直径の円領域内で、点Aとの高低差が所定範囲(0〜1.5×K)内である点を抽出する(S3)。
S3で抽出された点のうち、マップ上で隣接している点同士を連結して同一領域にグルーピングする(S4)。そのグルーピングされた領域が、C/2(人間の床面投影面積C
の半分)〜Cまでの範囲内であれば、その領域を人候補領域とする(S5)。マップ上を走査しながら、次の点Aに順次移動する(S6)。移動した点AについてS1〜S5までの処理が既に行われ、マップ上のすべての点についてS1〜S5までの処理が行われたと判断された場合に終了となり、そうでなければ、S1に戻って前記の処理を行っていく(S7)。
上記人候補領域抽出が終了すると、人判定手段6で人であるかどうかの判定を行う。本実施例では、人方向推定手段5を用いない場合の人判定の手順を説明する。図6が人判定動作を示すフローチャートである。
人判定手段6では、まず、人候補領域抽出手段4で抽出された人候補領域内の3次元データをXmYm平面に投影して、人物の平面像Sを生成する(S11)。この平面像Sと人型モデル画像記憶部13に記憶されている人型モデル画像Miとの正規化相関値Riを算出する(S12)。正規化相関値Riは、平面像Sと人型モデル画像Miとの一致度を表す。人型モデル画像記憶部13には、人間が向いている方向(Ym軸の回りの回転)毎に、図4に示すような人間全体のXmYm平面画像が存在し、これら複数枚の画像が格納されている。
そして、人型モデル画像記憶部13に格納されている各人型モデル画像と平面像Sとの正規化相関値Riがすべて算出されたなら(S13)、これらの正規化相関値Riのうち最も大きい値Rを選択する(S14)。Rがあらかじめ設定された閾値(thrR)以上であれば、人候補領域部分を人であると判定し(S16)、閾値(thrR)未満であれば人でないと判定する(S17)。この判定結果が出力手段8に表示される。本実施例では、顔画像取得部7も用いない。
以上のように、まず、高さ方向の情報を有するマップ画像を作成して、人候補領域を推定するようにしているので、水平方向から見ると人が重なり合っている場合にも精度良く人を分離して検出することができる。
次に、人方向推定手段5を用いた場合の実施例を説明する。距離情報計測手段1で得た情報に対して、マップ生成手段3、人候補領域抽出手段4で行われる動作は、上述の実施例と同様である。人候補領域抽出手段4で抽出された人候補領域から人方向の推定手順を示すのが図8である。
人方向推定手段5では、まず、人候補領域内に含まれる点の中で、床面からの高さが最も高い点(マップ画像上の濃度が最も大きい)の高さHmaxを求める(S21)。本実施例では、Hmaxは人間の頭頂部の高さとなる。人候補領域内でHmaxからの高低差が人間の頭部の長さK〜1.5×Kまでの範囲の点(人間の肩近傍のデータ)を抽出する(S22)。抽出したマップ画像上の点群に対して、2次モーメントを算出して、その主軸方向を人方向とする(S23)。このようして人方向を推定した結果を図7に示す。
次に、人方向を示す直線L上でかつ、人候補領域内における高さデータをサンプリングし(S24)、高さが(Hmax−K/2)以上のデータ点数Nuと、(Hmax−K/2)未満のデータ点数Nlの比αを算出する(S25)。データ点数Nuは人間の肩幅方向における頭部の長さに相当し、データ点数Nlは肩幅から頭部の長さを除いた長さに相当する。αが所定範囲内であるかどうか判断し(S26)、αが所定範囲内であれば図14の次ステップに進み(S27)、所定範囲外であれば、人でないと判断して次ステップ以降の処理を中止する(S28)。また、αをNuと(Nu+Nl)との比として計算して判断するようにしても良い。
以上のようすれば、データ量の少ないマップ情報から人の方向を高速に推定することができる。また、人の方向を定めるときに、人間の肩付近のデータのみを用いて処理しているので、データ量を少なくして、処理の高速化を図れるとともに、距離情報計測手段1で測定誤差の生じやすい頭部の毛髪の影響(頭髪部が暗い色の場合、投射光が戻ってこない)を防ぐことができるので、人方向推定の精度を高めることができる。さらに、人判定手段6の前段の人方向推定手段5でも人であるかどうかを判断しているので、人でないと判断した場合には、次の処理以降を行う必要がなくなるため、高速処理が行える。
次に、この段階では人の方向は定まったが、前後は定まっていない。人の前後を決定する手順を示したのが、図14である。
人候補領域内でHmaxからの高低差がK(人間の頭部の長さ)までの範囲の点を抽出する(S41)。抽出したマップ上の点群に対して、表面の高低差が所定範囲内の点を目、鼻、口の特徴候補点として抽出する(S42)。この抽出される様子を示したのが、図15である。もし、特徴候補点が抽出できなければ(S43)、頭、体とも見えている方向を後ろ方向と判断する(S49)。
特徴候補点が抽出できた場合には、特徴候補点を特徴3次元モデル記憶部11に記憶されている特徴3次元モデル(人間の頭部形状モデル)の特徴点と照合する。ところで、特徴点をR、人候補領域のマップ情報から抽出した特徴点位置をXs(R)、特徴3次元モデルの特徴点位置をX(R)とすると、特徴候補点と特徴3次元モデルの特徴点との距離の総和S(R)は以下のようになる。
上記照合は、総和S(R)を算出して行われる(S44)。この様子を示すのが、図16である。
総和S(R)が所定の閾値以下であれば(S45)、図17のように特徴候補点の3次元位置を特徴位置とする(S46)。一方、総和S(R)が所定の閾値を超えている場合には、頭、体とも見えている方向を後ろ方向と判断する(S49)。図18に示すように、床面からの最高位置Tに対して目、鼻、口の特徴点が存在する方向を頭部正面方向とし(S47)、頭部正面方向の存在する体の方向を、前方向とする(S48)。
以上のように、人間の体方向が推定された結果を示すのが、図19である。人の方向に対してどちらが前側であるかがわかれば、人の方向に対して直角の方向が体の前方向になる。頭部正面方向と体の前方向とにずれが生じるのは、顔を斜め横に向けているためである。
上記のように、人方向推定手段5により人の方向等が推定された場合、人判定手段6で行われる動作は、先の実施例とは異なるものとなる。図9に人判定手段6の動作を示す。
図10に示すように、人方向推定手段で求めた、人方向を示す直線Lと頭頂部点Tとで構成される平面πを算出する(S31)。人候補領域内の計測データを平面πに投影して図11のように投影像Sを生成する(S32)。平面πは人の方向に沿って設定されているので、投影像Sは図15のように、人候補の正面像となる。次に、投影像Sと人型モデル画像記憶部13に記憶されている人型モデル画像Mと照合する。
照合は、前述したように平面像Sと人型モデル画像Mとの正規化相関処理により行われる。照合の結果、正規化相関値(平面像Sと人型モデル画像Mとの一致度を表す)が、あらかじめ設定された閾値(thrR)以上であれば、人候補を人であると判定し、閾値(thrR)未満であれば人でないと判定する。先の実施例とは異なり、人方向を用いることにより投影像Sは正面方向となるので、人型モデル画像Mは正面モデル画像のみで良く、人の姿勢(方向)に対応した多数の人型モデル画像を記憶させる必要がない。
ところで、図2の人Aであれば、距離情報計測手段1に対して向き合う形となり、正面のデータは計測されるので、図11のように正面像を算出することができるが、人Bの場合には、距離情報計測手段1から隠れている部分は計測されないので、投影像Sは完全な正面像とはならずに、図12のような像となる。したがって、人型モデル画像記憶部13には、図13に示すような右半身人型モデル画像と左半身人型モデル画像の2つについても記憶させておき、照合はそれぞれ独立して行う。このように不完全な正面視画像であっても、対応できるようにしている。
また、右半身人型モデル画像と左半身人型モデル画像の2つを記憶させておかなくても、人型全体の正面モデル画像の左または右から不完全な正面視画像である投影像S(例えば図12のような投影像)に相当する割合の部分までのデータを投影像Sと照合し、一致度が所定値以上になれば、人候補を人であると判定するようにしても良い。
この動作を示すのが、S33以下である。投影像Sと右半身人型モデル画像との正規化相関値Rrを算出し(S33)、投影像Sと左半身人型モデル画像との正規化相関値Rlを算出し(S34)する。RrとRlの大きい方を選択し(S35)、所定の閾値と比較して(S36)閾値以上の場合に人候補領域は人であると判定し(S37)、閾値未満の場合に人でないと判定する(S38)。
顔画像取得部7では、頭部画像情報を頭部距離情報から形成されるポリゴンデータにテクスチャマッピングし、人方向推定手段5で求めた頭部正面方向が画像に対して正面視となるよう、図20のように回転を行い、正面視の頭部画像情報を生成する。図21に正面視の頭部画像情報の例を示すが、中央の三角形状は鼻の部分を表す。このようにして、判定された結果や画像情報などが出力手段8に表示される。
次に、人の前後を判定するのに、人方向推定手段5において図8、図14とは異なる手順で行われる実施例を説明する。図22は、人方向推定手段5での動作を示すフローチャートである。まず、本実施例では、距離情報計測手段1で測定する監視空間内の映像を撮影するカメラ装置を用いて距離情報とともに画像データも得るようにしている。
人方向推定手段5では、人候補領域内でHmaxからの高低差が人間の頭部長さK内にある点を抽出する(S51)。図23のように抽出したマップ上の点群に相当する画像情報を取得し、画像情報の中から濃淡パターンマッチングにより頭髪部を抽出する(S52)。図24に頭髪部を抽出した結果を示す。図23から図24の頭髪部を除き、特徴濃淡モデル記憶部12に記憶されている各モデルとの照合を行う。特徴濃淡モデル記憶部12には、図25に示すような目モデル、鼻モデル、口モデルの各パーツ毎の画像情報(濃淡情報)があらかじめ記憶されている。
頭髪部が抽出されない場合には、S51で抽出されたマップ上の点群に相当する画像情報の中から特徴点を切り出した画像と特徴濃淡モデル記憶部12に記憶されている特徴濃淡モデルとの正規化相関値FRを算出する(S55)。
画像上での位置を(x、y)、切り出し画像の画素値I(x、y)、モデル画像の画素値をM(x、y)、切り出し画像の画素の平均値を<I>、モデル画像の画素の平均値を<M>とすると、正規化相関値FRは以下のようになる。
一方、頭髪部を抽出できた場合には、図25に示すように特徴濃淡モデルである目モデル、鼻モデル、口モデルと頭髪部を除いた画像から特徴点を切り出した画像との正規化相関値FRを算出する(S54)。FRが所定の閾値未満であれば(S56)、頭、体とも見えている方向を後ろ方向とし(S60)、閾値以上であれば(S56)、図26のように特徴濃淡モデルの位置に相当する3次元位置を特徴位置とする(S57)。図18と同様に床面から最高位置Tに対して目、鼻、口の存在する方向を頭部の正面方向とし(S58)、人の方向のうち、頭部正面方向の向きを人の前方向とする(S59)。このようにすれば、図19と同様に、人の方向、頭部正面方向、体の前方向が定まる。
頭髪部が暗い色の場合、投射光が戻ってこないため、頭髪部の距離情報の誤差が大きくなることがあるが、本実施例では、画像情報を用いて特徴抽出を行っているため、頭髪を安定して検出でき、頭髪部とは反対方向に特徴点が存在することがわかるので、高精度、高速に特徴を検出できる。また、頭髪部を除いて特徴抽出を行うので、高速に特徴抽出を行うことができる。なお、人判定手段6以降の動作については上記2番目の実施例と同様となるので説明を省略する。
本発明の人検出装置の構成例を示す図である。 人検出装置を配置して、監視空間内の情報を得る様子を示す図である。 マップ生成手段で生成されたマップ画像を示す図である。 上面視人体モデル情報の例を示す図である。 人候補領域の抽出手順を示すフローチャート図である。 人判定の手順を示すフローチャート図である。 人方向推定結果を示す図である。 人方向推定手順を示すフローチャート図である。 人判定の手順を示すフローチャート図である 人方向Lと平面πの関係を示す図である。 平面πにおける正面像を示す図である。 図2の人Bの場合の平面πにおける像を示す図である。 人型モデル画像記憶部に記憶された半身像を示す図である。 人の前後を推定する手順を示すフローチャート図である。 抽出された特徴候補点を示す図である。 特徴候補と特徴3次元モデルとを照合する様子を示す図である。 特徴候補を特徴位置とした様子を示す図である。 図17から頭部正面方向を決定する様子を示す図である。 人の方向に対して頭部正面方向等の関係を示す図である。 頭部が正面視となるように回転を行う様子を示図である。 図20の回転結果を示す図である。 人の前後を推定する手順を示すフローチャート図である。 頭部の画像情報を示す図である。 図23の画像から頭髪部のみを抽出した画像を示す図である。 頭髪部を除いた画像とモデル画像との照合を示す図である。 特徴位置を3次元位置に対応させる様子を示す図である。
符号の説明
1 距離情報計測手段
2 人検出処理装置
3 マップ生成手段
4 人候補領域抽出手段
5 人方向推定手段
6 人判定手段
7 顔画像取得部
8 出力手段
9 記憶部
10 上面視人体モデル情報記憶部
11 特徴3次元モデル記憶部
12 特徴濃淡モデル記憶部
13 人型モデル画像記憶部

Claims (7)

  1. 3次元空間内の測定対象物の距離情報を取得する距離情報計測手段と、
    前記距離情報計測手段で取得された距離情報から高さの情報を算出して測定点の高さ情報を2次元平面上に表したマップ情報を生成するマップ生成手段と、
    人を水平方向から見た場合の人体形状モデル画像が記憶された人型モデル画像記憶部と、
    平均的な人体の上半身の形状に関する情報に基づいて前記マップ情報から人が存在すると推定できる人候補領域を抽出する人候補領域抽出手段と、
    前記人候補領域の水平方向の平面画像と人体形状モデル画像との一致の程度により人であるかどうかを判断する人判定手段とを備えたことを特徴とする人検出装置。
  2. 前記人候補領域抽出手段で抽出された人候補領域から人体の幅方向に直交する方向を人が向いている方向として推定する人方向推定手段を備えたことを特徴とする請求項1記載の人検出装置。
  3. 前記人方向推定手段は、人候補領域のマップ情報のうち肩付近の情報を用いることを特徴とする請求項2記載の人検出装置。
  4. 前記人方向推定手段は、推定した人の幅方向において、頭部と推定される部分の長さの割合に基づいて人であるかどうかを判断することを特徴とする請求項2〜請求項3のいずれか1項に記載の人検出装置。
  5. 前記人判定手段は、前記人方向推定手段で推定された人の方向を用いて人候補領域のマップ情報を正面視となるように画像処理を行った後、前記人体形状モデル画像との一致の程度を算出することを特徴とする請求項2〜請求項4のいずれか1項に記載の人検出装置。
  6. 前記人型モデル画像記憶部には、人体形状の左半身、右半身の簡易モデル画像も格納されており、前記人判定手段は人の幅方向において前記簡易モデル画像と人候補領域内の正面視画像との一致の程度により人であるかどうかを判断することを特徴とする請求項5記載の人検出装置。
  7. 顔表面の3次元モデル形状が記憶された特徴3次元モデル記憶部を備え、前記人方向推定手段は、人候補領域のマップ情報から頭部の長さに相当する画像を抽出し、この画像と前記顔表面の3次元モデル形状との一致の程度により人の前後方向を推定することを特徴とする請求項2〜請求項6のいずれか1項に記載の人検出装置。
JP2004244414A 2004-08-24 2004-08-24 人検出装置 Active JP4475060B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004244414A JP4475060B2 (ja) 2004-08-24 2004-08-24 人検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004244414A JP4475060B2 (ja) 2004-08-24 2004-08-24 人検出装置

Publications (2)

Publication Number Publication Date
JP2006065419A true JP2006065419A (ja) 2006-03-09
JP4475060B2 JP4475060B2 (ja) 2010-06-09

Family

ID=36111894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004244414A Active JP4475060B2 (ja) 2004-08-24 2004-08-24 人検出装置

Country Status (1)

Country Link
JP (1) JP4475060B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015931A (ja) * 2006-07-07 2008-01-24 Honda Motor Co Ltd 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム
JP2008186099A (ja) * 2007-01-26 2008-08-14 Matsushita Electric Works Ltd 顔認証装置
JP2009128075A (ja) * 2007-11-20 2009-06-11 Ihi Corp 物体認識方法
JP2011081634A (ja) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd 人体向き推定装置及び人体向き推定方法
JP2016075693A (ja) * 2011-03-30 2016-05-12 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101512141B1 (ko) 2013-06-27 2015-04-16 영남대학교 산학협력단 사람 움직임 방향을 고려한 스마트 조명 제어 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242106A (ja) * 1991-01-16 1992-08-28 Nippondenso Co Ltd 顔の認識装置
JPH08286680A (ja) * 1995-02-17 1996-11-01 Takenaka Komuten Co Ltd 音抽出装置
JPH0993472A (ja) * 1995-09-28 1997-04-04 Matsushita Electric Ind Co Ltd 自動監視装置
JPH09259271A (ja) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> 人物照合装置
JP2002352231A (ja) * 2001-05-29 2002-12-06 Matsushita Electric Ind Co Ltd 人体端点検出方法及び装置
JP2003057007A (ja) * 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242106A (ja) * 1991-01-16 1992-08-28 Nippondenso Co Ltd 顔の認識装置
JPH08286680A (ja) * 1995-02-17 1996-11-01 Takenaka Komuten Co Ltd 音抽出装置
JPH0993472A (ja) * 1995-09-28 1997-04-04 Matsushita Electric Ind Co Ltd 自動監視装置
JPH09259271A (ja) * 1996-03-22 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> 人物照合装置
JP2002352231A (ja) * 2001-05-29 2002-12-06 Matsushita Electric Ind Co Ltd 人体端点検出方法及び装置
JP2003057007A (ja) * 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宮城玲子,外2名: "複数のステレオカメラを用いた人物形状モデルの復元", 情報処理学会研究報告CVIM, vol. 2004, no. 40, JPN6009060428, 7 May 2004 (2004-05-07), JP, pages 93 - 100, ISSN: 0001470799 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015931A (ja) * 2006-07-07 2008-01-24 Honda Motor Co Ltd 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム
JP2008186099A (ja) * 2007-01-26 2008-08-14 Matsushita Electric Works Ltd 顔認証装置
JP4710841B2 (ja) * 2007-01-26 2011-06-29 パナソニック電工株式会社 顔認証装置
JP2009128075A (ja) * 2007-11-20 2009-06-11 Ihi Corp 物体認識方法
JP2011081634A (ja) * 2009-10-07 2011-04-21 Sogo Keibi Hosho Co Ltd 人体向き推定装置及び人体向き推定方法
JP2016075693A (ja) * 2011-03-30 2016-05-12 株式会社国際電気通信基礎技術研究所 計測装置,計測方法および計測プログラム

Also Published As

Publication number Publication date
JP4475060B2 (ja) 2010-06-09

Similar Documents

Publication Publication Date Title
KR102109941B1 (ko) 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치
EP1983484B1 (en) Three-dimensional-object detecting device
KR100422370B1 (ko) 3차원 물체 부피계측시스템 및 방법
JP6554169B2 (ja) 物体認識装置及び物体認識システム
JP3987048B2 (ja) 車両周辺監視装置
JP6125188B2 (ja) 映像処理方法及び装置
JP5820774B2 (ja) 路面境界推定装置及びプログラム
CN109643366A (zh) 用于监控车辆驾驶员的状况的方法和系统
CN110503040B (zh) 障碍物检测方法及装置
JP2013101045A (ja) 物品の3次元位置姿勢の認識装置及び認識方法
EP2541465A2 (en) Vehicle periphery monitoring system
JP2004530144A (ja) 画像情報を提供する方法
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP2007072628A (ja) 顔向き判別装置
CN106573588A (zh) 驾驶辅助装置、驾驶辅助方法和程序
JP7064163B2 (ja) 3次元情報取得システム
JP4337266B2 (ja) 3次元測定方法および3次元測定システム
JP2006343859A (ja) 画像処理装置及び画像処理方法
CN109886064A (zh) 确定可驾驶空间的边界的方法
JP3732757B2 (ja) 画像認識方法および画像認識装置
KR101815697B1 (ko) 위조 얼굴 판별 장치 및 방법
US20220051435A1 (en) Image processing apparatus, image processing method, and program
JP4475060B2 (ja) 人検出装置
JP4873711B2 (ja) 三次元物体を検出する装置
JP2007241477A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100301

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3