JP4082190B2 - Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device - Google Patents

Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device Download PDF

Info

Publication number
JP4082190B2
JP4082190B2 JP2002343094A JP2002343094A JP4082190B2 JP 4082190 B2 JP4082190 B2 JP 4082190B2 JP 2002343094 A JP2002343094 A JP 2002343094A JP 2002343094 A JP2002343094 A JP 2002343094A JP 4082190 B2 JP4082190 B2 JP 4082190B2
Authority
JP
Japan
Prior art keywords
voting
person
image
head
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002343094A
Other languages
Japanese (ja)
Other versions
JP2004178229A (en
Inventor
智治 中原
剛志 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2002343094A priority Critical patent/JP4082190B2/en
Publication of JP2004178229A publication Critical patent/JP2004178229A/en
Application granted granted Critical
Publication of JP4082190B2 publication Critical patent/JP4082190B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ヒューマンマシンインターフェイス、パーソナルロボット、画像監視、自律移動装置等における、画像から人をコンピュータにより自動的に検出する方法に関する。
【0002】
【従来の技術】
従来、画像からコンピュータにより人を自動的に見つける方法として、動きのある部分を人とみなして検出する方法、人を代表する部分である顔や頭部を肌色や顔部品により検出して人を検出する方法がある。前者の例として、予め作成した背景画像と入力される画像との差分を取ることにより変化した部分を人として検出するものがある(例えば、特許文献1参照)。後者の例として、顔を楕円としてモデル化し、楕円検出による顔検出するものがある(例えば、特許文献2参照)。また、頭部を円としてモデル化し、円形状検出による頭部検出を行うものがある(例えば、特許文献3参照)。
【0003】
【特許文献1】
特開平11−311682号公報
【特許文献2】
特開平11−185026号公報
【特許文献3】
特開2001−222719号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上述した文献1に示されるような検出方法においては、画像上の明度の大きく変化した領域を人とするため、光が差し込んできて明度が変化する場合や、椅子などの物が移動する場合も人として検出してしまう問題がある。また、文献2に示されるような検出方法においては、様々な場面において肌色を安定して検出することは難しく、また、肌色領域を楕円に当てはめて正しいのは正面の時であるので斜め向きの場合は検出が難しく、さらに、後ろ向きの場合は頭部を検出することができないという問題がある。また、文献3に示されるような検出方法においては、投票に使用するテンプレートの形状が同心円状であるため、検出に寄与しない投票が多く、処理時間が無駄になると共に、偽の投票値のピークが作られて誤検出が発生するという問題がある。
【0005】
本発明は、上記課題を解消するものであって、簡単な構成により画像から高速に人の検出を行うと共に、画像世界に対する実世界における、撮像装置から人までの概略の位置を求めることができる人の存在位置検出装置とその検出方法及び同検出装置を用いた自律移動装置を提供することを目的とする。
【0006】
【課題を解決するための手段及び発明の効果】
上記課題を達成するために、請求項1の発明は、撮像装置で撮像した画像から人の頭部画像を抽出することにより人の存在及びその位置を検出する装置において、人の頭部画像の形状を外側に凸な曲線で囲まれる図形の形状モデルで近似すると共に、撮像装置のレンズの焦点距離と撮像装置から検出対象とする人までの検出距離と人の頭部の標準サイズとに基づき決定される人の頭部画像の輪郭の大きさの範囲を推定して前記形状モデルの標準サイズ及びサイズ範囲を予め決定しておき、該標準サイズの形状モデルの境界曲線上の各点に濃度勾配方向を定義し、該形状モデルの内部に代表点を定義し、該代表点に該形状モデルの標準サイズに対応する投票部を備えると共に形状モデルの境界曲線上の注目する点から代表点を結ぶ線として定義される代表点方向線の線上であって前記代表点の前又は後に前記サイズ範囲に対応する投票部を備えて、該標準サイズの形状モデルの境界曲線により作成した投票テンプレートを参照可能に準備する投票テンプレート準備手段と、撮像装置から入力された画像をデジタル化し、デジタル化された撮像画像をメモリに記憶する撮像画像データ記憶手段と、前記撮像画像に対し人物の外郭や顔の輪郭等に相当する画素からなるエッジ部を抽出するための微分処理を施し、所定の微分強度以上となる画素をエッジ画素として抽出すると共に、前記撮像画像から濃度勾配方向を算出し、抽出した各エッジ画素毎に濃度勾配方向データを付加したエッジ画像を生成しメモリに記憶するエッジ画像データ生成手段と、前記撮像画像及びエッジ画像の各画素位置と対応する位置に投票用セルを有する投票空間を生成しメモリに記憶する投票空間生成手段と、前記エッジ画像の各エッジ画素上に、該エッジ画素に付加した濃度勾配方向に対応する濃度勾配方向を有する前記投票テンプレートの境界曲線上の点を重ね、このとき該投票テンプレートの投票部が位置するエッジ画像上の画素位置に対応する投票空間の投票用セルに投票してメモリに記憶することを各エッジ画素毎に行い、該投票空間の各セルの投票値を集計する投票処理手段と、投票が行われた投票空間で所定のしきい値以上の投票値を有するセルを検出し、検出したセルに対応する撮像画像上の位置を人の頭部位置として検出する人存在位置検出手段と、を備え、前記投票テンプレート準備手段が、前記標準サイズの形状モデルの境界曲線上の各点に対し、該点に定義した濃度勾配方向と逆方向の濃度勾配方向を有する前記境界曲線上の点を互いに共役な共役点として定義し、互いに共役な点の一方が前記形状モデルの内部に有する投票部と同じ相対位置関係を保って、前記互いに共役な点の他方が前記形状モデルの外部にさらに投票部を備えた人の存在位置検出装置である。
【0007】
上記構成においては、撮像画像上において人の位置を人の頭部の位置で代表させ、人の頭部の形状を簡単な図形でモデル化した投票テンプレートであって検出距離の範囲に幅を持たせるため線分状の複数の投票部を備えることとした投票テンプレートを用いて、撮像画像から得たエッジ画像上のエッジ画素毎に投票処理を行うので、頭部形状やサイズの変動を吸収して頭部形状を確実に検出できる。また、エッジ画像の各エッジ画素に濃度勾配方向の情報をもたせて、各エッジ画素の濃度勾配方向で定まる投票部にのみ投票するので、画像中から円形状曲線を検出する、いわゆる円検出用ハフ(Hough)変換のような、全方向にわたる投票処理を行う必要がなく、人検出のための投票処理数を少なくでき、人の頭部形状を高速に検出できる。また、上記構成においては、人頭部における画像濃度が反転した画像に対し、同時に投票処理できるように、互いに共役な投票部を投票テンプレートに備えるので、一通りの投票処理で画像濃度が反転した二通りの人頭部画像に対する投票ができ、前述の効果に加え、さらに安定して確実な検出を高速に行うことができる。
【0012】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票処理手段は、エッジ画像の各エッジ画素について、注目するエッジ画素とその近傍の複数のエッジ画素からなる輪郭の曲率を求めて曲率中心の存在する方向を判定し、前記注目するエッジ画素に対する前記投票に際し、前記曲率中心の存在する方向の投票部位置に対応する投票空間の投票用セルに投票するものである。
【0013】
上記構成においては、曲率中心のある側のみの投票処理で済むので、さらに効率的に人の頭部を抽出でき、人の存在位置を高速に検出することができる。なお、必要な輪郭の曲率を求める演算は、投票処理の最初の一回だけである。
【0014】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、投票テンプレートの代表点近傍であって前記代表点方向線の両側にさらに投票部を備えたものである。
【0015】
上記構成においては、エッジ付近の濃度勾配方向が変動しても、代表点両側近傍にも投票部を備えたので、このような幅を持たせた投票部への投票により投票位置の変動を吸収して形状モデルの中心近傍に投票することができ、信頼性の高い検出を行うことができる。
【0016】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、形状モデルの境界曲線上の各点に対する投票部の相対位置を、該各点における濃度勾配方向をインデックスとして、表形式でメモリに記憶するものである。
【0017】
上記構成においては、投票テンプレートの投票部の位置を予め表形式でメモリに記憶しているので、投票処理時にはこの表を参照して投票位置を求めればよいため、投票のための計算が少なく高速な処理が実現できる。
【0018】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、予め撮像装置から人までの距離毎に投票テンプレートのデータを保管し、前記投票処理手段は、検出対象までの距離を測定する距離センサの距離測定結果に基づいて前記投票テンプレートのデータを参照して投票テンプレートを設定し、投票するものである。
【0019】
上記構成においては、撮像装置から人までの距離を距離センサにより求めた上で、画像上で検出する頭部のサイズを限定して検出を行うので、信頼性の高い検出を高速に行うことができる。
【0020】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記人存在位置検出手段は、検出した所定のしきい値以上の投票値を有するセルが複数の塊に分れている場合には、塊間の距離を調べ、該距離が所定範囲内に存在する場合にはグループ化して統合し、統合された塊の代表点に対応する撮像画像上の位置を人の頭部位置として検出するものである。
【0021】
上記構成においては、所定のしきい値以上の投票値を持つセルを統合することにより、投票が分散している場合でも、形状モデルを検出して人の頭部位置を精度良く検出することができる。
【0022】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、撮像装置から検出対象とする人までの検出距離範囲を任意に複数設定して検出距離範囲毎の形状モデルの標準サイズとサイズ範囲及びこれらに基づく投票テンプレートを準備し、前記投票空間生成手段は、前記検出距離範囲毎に投票空間を生成し、前記投票処理手段は、各検出距離範囲に対応する投票テンプレート毎に検出距離範囲が対応する投票空間に対し上記投票処理を行い、前記人存在位置検出手段は、各検出距離範囲に対応する投票空間中で所定しきい値以上の投票値を有するセルを検出すると、人存在位置をそれらの検出距離範囲に対応させるものである。
【0023】
上記構成においては、撮像装置から遠近方向に多くの人候補が存在する中で、特定の距離範囲にいる人候補のみ選択して検出処理を行うことができる。
【0024】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、形状モデルのサイズ範囲が所定値以上の場合、該サイズ範囲が所定値以下となるように人の検出距離範囲を分割し、該分割された範囲毎に形状モデルの標準サイズとサイズ範囲及びこれらに基づく投票テンプレートを持ち、前記投票空間生成手段は、該分割された検出距離範囲毎に投票空間を生成し、前記投票処理手段は、該分割された検出距離範囲毎に対応する投票テンプレート毎に検出距離範囲が対応する投票空間に対し上記投票処理を行い、前記人存在位置検出手段は、該分割された検出距離範囲毎に対応する投票空間中で所定しきい値以上の投票値を有するセルを検出すると、人存在位置をそれらの検出距離範囲に対応させるものである。
【0025】
上記構成においては、人の存在する範囲が遠近方向に広い場合、人の存在する範囲を分割して形状モデルのサイズ範囲を所定値以下とすることとしたので、特定の大きさの頭部のみを検出することができ、誤検出の発生を抑制して検出精度を高くすることができる。
【0026】
請求項の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、人の頭部形状を同一の形状モデルで姿勢が異なる複数の形状で近似し、各姿勢の形状毎に投票テンプレートを準備し、前記投票空間生成手段は、該姿勢の形状毎に投票空間を生成し、前記投票処理手段は、該姿勢の異なる形状毎に投票空間上の各セルに投票処理を行うものである。
【0027】
上記構成においては、姿勢の異なる複数の形状モデルを準備することとしたので、傾いた頭部にも区別して対処でき、精度の高い人検出をすることができる。
【0028】
請求項10の発明は、請求項に記載の人の存在位置検出装置において、前記投票テンプレート準備手段は、人の頭部形状を異なる複数の形状モデル形状で近似し、各形状モデルの形状毎に投票テンプレートを準備し、前記投票空間生成手段は、該形状モデルの形状毎に投票空間を生成し、前記投票処理手段は、該形状モデル毎に投票空間上の各セルに投票処理を行うものである。
【0029】
上記構成においては、複数の形状モデルとそれらに対応する投票テンプレートと投票空間を備えることとしたので、異なる形状モデルを使用して人検出ができ、様々な頭部形状の検出をすることができる。
【0030】
請求項11の発明は、請求項に記載の人の存在位置検出装置において、前記人存在位置検出手段は、前記検出した撮像画像上の頭部位置に頭部をモデル化した形状を投影して得られる投影像のサイズの画像を切出すものである。
【0031】
上記構成においては、撮像画像上の頭部サイズ毎に頭部画像の切り出しを行っているので、不要な背景部分の面積が少ない適切な大きさの切出し頭部画像が得られる。
【0032】
請求項12の発明は、請求項11に記載の人の存在位置検出装置において、前記人存在位置検出手段は、前記切出した画像を、予め頭部の向き毎に分類して記憶した頭部データと比較することにより、頭部の向きを識別して検出するものである。
【0033】
上記構成においては、検出された頭部画像を、頭部の向き毎にパターン認識できるので、頭部の位置と共に、頭部の向きも知ることができる。
【0034】
請求項13の発明は、請求項12に記載の人の存在位置検出装置において、前記人存在位置検出手段は、前記頭部の向きとして複数の候補が出力される時、前記切出した画像を予め決めた複数の小画像に分割し、分割した各小画像間の濃度分布の違いにより頭部の向きを決定するものである。
【0035】
上記構成においては、切出された頭部画像の濃度分布をより詳細に調べることができるので、頭部の向きを精度よく決定することができる。
【0036】
請求項14の発明は、請求項7に記載の人の存在位置検出装置において、前記人存在位置検出手段は、人の頭部位置検出に使用した投票空間に対応する人の検出距離範囲の中央の位置を、撮像装置から人までの距離と推定するものである。
【0037】
上記構成においては、撮像画像中での人の位置の検出だけでなく、実世界における、撮像装置から人までの距離を推定することができる。
【0038】
請求項15の発明は、請求項7に記載の人の存在位置検出装置において、前記人存在位置検出手段は、前記検出した撮像画像上の頭部の位置及び撮像装置の焦点距離により撮像装置に対する人存在位置方向を求め、人の頭部位置検出に使用した投票空間に対応する人の検出距離範囲の中央の位置を撮像装置から人までの距離と推定し、人の方向と人までの距離とにより、撮像装置に対する人の位置を求めるものである。
【0039】
上記構成においては、撮像画像中での人の位置の検出だけでなく、実世界における、撮像装置から人までの距離及びその方角が分かる。
【0040】
請求項16の発明は、請求項又は請求項14に記載の人の存在位置検出装置において、前記人存在位置検出手段は、撮像装置の視線方向の空間を撮像装置から所定の距離毎にゾーン分けし、各ゾーン内での人の有無状態について前回検出時の結果と現在の検出結果とを比較し、現在検出した人が属するゾーンが前回検出した人が属するゾーンよりも近いゾーンのときは人が近づいていると判定し、現在検出した人が属するゾーンが前回検出した人が属するゾーンよりも遠いゾーンのときは人が遠ざかっていると判定し、現在検出した人が属するゾーンと前回検出した人が属するゾーンが同じときは人が止まっていると判定するものである。
【0041】
上記構成においては、撮像装置から所定の距離毎にゾーン分けして、各ゾーンにおける人の有無の比較により、人が撮像装置に向かって近付いて来ているのか、遠ざかっているのかの人の動きを知ることができる。
【0042】
請求項17の発明は、請求項15に記載の人の存在位置検出装置において、前記人存在位置検出手段は、撮像装置位置を基準に、撮像装置の視線方向の空間を複数のエリアに分割した人存在マップを作成し、各エリアを、人を検出したエリアと、未確認のエリアと、人が居ないエリアに分類して人の存在位置を検出するものである。
【0043】
上記構成においては、人の存在マップを作成し、実世界における人を検出したエリア、未確認のエリア、人がいないエリアを区別して撮像装置からの人の存在を知ることができるので、人に衝突しない高度な移動制御を行う自律移動装置の制御に応用できる。
【0044】
請求項18の発明は、請求項15に記載の人の存在位置検出装置において、前記人存在位置検出手段は、撮像装置位置を基準に、撮像装置の視線方向の空間を複数のエリアに分割した人存在マップを作成し、人を検出した位置を該マップ上の対応する位置に登録すると共に、該検出した人の頭部の切出し画像を検出位置と関係付けして記憶し、前回検出時点のマップと現時点のマップとを比較し、前回検出時点での注目する人の検出位置から移動可能な範囲内に検出した現時点における人及びその検出位置を対応付けの候補とし、対応付け候補が1つの場合には対応付けして追跡し、対応付け候補が複数ある場合には、前回検出時点における人の検出位置と関係付けして記憶した頭部の切出し画像と、対応付け候補とされる人の頭部の切出し画像との画像相関を計算し、相関度の一番高い対応付け候補の人及びその検出位置を正しい対応付けとして追跡するものである。
【0045】
上記構成においては、検出した人を識別して追跡するので、人の動きを正確に知ることができる。
【0046】
請求項19の発明は、撮像装置で撮像した撮像画像から人の頭部画像を抽出することにより人の存在及びその位置を検出する方法において、人の頭部画像の形状を外側に凸な曲線で囲まれる図形の形状モデルで近似すると共に、撮像装置のレンズの焦点距離と撮像装置から検出対象とする人までの検出距離と人の頭部の標準サイズとに基づき決定される人の頭部画像の輪郭の大きさの範囲を推定して前記形状モデルの標準サイズ及びサイズ範囲を予め決定しておき、該標準サイズの形状モデルの境界曲線上の各点に濃度勾配方向を定義し、該形状モデルの内部に代表点を定義し、該代表点に該形状モデルの標準サイズに対応する投票部を備えると共に形状モデルの境界曲線上の注目する点から代表点を結ぶ線として定義される代表点方向線の線上であって前記代表点の前又は後に前記サイズ範囲に対応する投票部を備えて、該標準サイズの形状モデルの境界曲線により作成した投票テンプレートを参照可能に準備する投票テンプレート準備過程と、撮像装置から入力され、デジタル化された撮像画像をメモリに記憶する撮像画像データ記憶過程と、前記撮像画像に対し人物の外郭や顔の輪郭等に相当する画素からなるエッジ部を抽出するための微分処理を施し、所定の微分強度以上となる画素をエッジ画素として抽出すると共に、前記撮像画像から濃度勾配方向を算出し、抽出した各エッジ画素毎に濃度勾配方向データを付加したエッジ画像を生成するエッジ画像データ生成過程と、前記撮像画像及びエッジ画像の各画素位置と対応する位置に投票用セルを有する投票空間を生成しメモリに記憶する投票空間生成過程と、前記エッジ画像の各エッジ画素上に、該エッジ画素に付加した濃度勾配方向に対応する濃度勾配方向を有する前記投票テンプレートの境界曲線上の点を重ね、このとき該投票テンプレートの投票部が位置するエッジ画像上の画素位置に対応する投票空間の投票用セルに投票してメモリに記憶することを各エッジ画素毎に行い、該投票空間の各セルの投票値を集計する投票処理過程と、投票が行われた投票空間で所定のしきい値以上の投票値を有するセルを検出し、検出したセルに対応する撮像画像上の位置を人の頭部位置として検出する人存在位置検出過程と、を備え、前記投票テンプレート準備過程が、前記標準サイズの形状モデルの境界曲線上の各点に対し、該点に定義した濃度勾配方向と逆方向の濃度勾配方向を有する前記境界曲線上の点を互いに共役な共役点として定義し、互いに共役な点の一方が前記形状モデルの内部に有する投票部と同じ相対位置関係を保って、前記互いに共役な点の他方が前記形状モデルの外部にさらに投票部を備えて、該標準サイズの形状モデルの境界曲線により作成した投票テンプレートを参照可能に準備する人の存在位置検出方法である。
【0047】
上記検出方法においては、人の位置を人の頭部の位置で代表させ、人の頭部モデルとして円または楕円など外側に凸な曲線で囲まれる簡単な図形の形状モデルを用い、いわゆるハフ変換により人の頭部を検出するので、簡単な投票処理によって人の存在位置検出ができる。また、ハフ変換の投票処理を、着目するエッジ画素の全方向にわたって行うことなく、注目エッジ画素における濃度勾配方向に基づきエッジ画素の両側方向のみについて行うので、投票処理量が少なく、高速な人検出処理を実現することができる。また、撮像装置から特定の検出距離範囲内の人の頭部の大きさのみを検出対象とする投票テンプレートを用いるので、検出距離の推定ができると共に撮像画像上で信頼性の高い人の頭部検出を行うことができる。また、上記検出方法においては、人頭部における画像濃度が反転した画像に対し、同時に投票処理できるように、互いに共役な投票部を投票テンプレートに備えるので、一通りの投票処理で画像濃度が反転した二通りの人頭部画像に対する投票ができ、前述の効果に加え、さらに安定して確実な検出を高速に行うことができる。
【0048】
請求項20の発明は、請求項15乃至請求項17のいずれかに記載の人の存在位置検出装置を用いて検出された人の位置情報を利用して移動の制御をする自律移動装置である。
【0049】
上記構成においては、撮像装置を自律移動装置に搭載し、人の存在位置検出装置を用いて人を検出し、自律移動装置周辺の人の位置を認識した上で、自律移動装置を移動する制御が行えるので、人の存在に適応して人を回避する動作や人に通路を譲る退避動作を実現することができる。
【0050】
【発明の実施の形態】
以下、本発明の一実施形態に係る人の存在位置検出装置とその検出方法及び同検出装置を用いた自律移動装置について、図面を参照して説明する。図1は人の存在位置検出装置のブロック構成を示す。人の存在位置検出装置は、撮像装置2で撮像した画像を人の存在位置検出装置本体1において画像処理し、人の頭部画像を抽出することにより人の存在及びその位置を検出して、その結果を例えば警報発生手段9を用いて外部に警報音として出力する。人の頭部画像を抽出する方法には一般化ハフ変換を応用した方法が用いられる。
【0051】
人の存在位置検出処理の概要を説明する。撮像装置2から入力された画像は、撮像画像データ記憶手段3においてアナログ画像からデジタル画像にA/D変換された撮像画像としてメモリに記憶される。次に、エッジ画像データ生成手段4において、撮像画像が画像濃度について微分処理され、微分強度値が所定のしきい値以上の点がエッジ画素として抽出され、抽出されたエッジ画素からなるエッジ画像が生成される。生成されたエッジ画像は、各エッジ画素点における濃度勾配方向のデータが付加されてメモリに記憶される。
【0052】
続いて、投票処理手段5では、投票テンプレート準備手段6で準備された各検出距離ごとの投票テンプレートを用いて、投票空間生成手段7で準備された投票空間に、一般化ハフ変換を応用した方法により、投票が行われる。次に、人存在位置検出手段8では、各検出距離範囲に対応する投票空間毎に、所定のしきい値以上の投票値を持つセルが検出され、検出されたセルの位置に対応する撮像画像上の位置に人頭部の存在が検出される。また、人存在位置検出手段8は、人の頭部が検出された投票空間に対応する検出距離範囲(ゾーン)の中央距離値を撮像装置から人までの距離として決定すると共に、そのゾーン番号を警報発生手段9に出力する。警報音発生手段9は、各ゾーン番号に対応した警報音を選択し警報音を発生させる。
【0053】
このような人の存在位置検出装置は、例えばエリアセンサとして用いることができる。図2はエリアセンサの概念を示す。人の存在位置検出装置の撮像装置2の視野前方の撮像エリアARが、撮像装置2の基準点Oからの距離L1〜L4によって複数の検出ゾーンZN1,ZN2,ZN3に分けられる。各ゾーン毎に人が検出されたときのエリアセンサとしての動作が設定される。例えば、各ゾーン毎の距離と緊急性に基づく動作として、第1ゾーンZN1では強い警報音発生、第2ゾーンZN2では中程度の警報音発生、第3ゾーンZN3では弱い警報音発生とすることができる。以下において、人存在位置検出装置の各構成手段毎に説明する。
【0054】
(撮像画像データ記憶手段とエッジ画像データ生成手段)
撮像画像データ記憶手段3及びエッジ画像データ生成手段4における処理を図3乃至図7により説明する。図3は撮像画像データ記憶手段3の処理フローを示す。撮像装置2によって撮像された画像のアナログ信号がA/D変換され、撮像画像P0が作成され(S101)、メモリに記憶される(S102)。図4(a)は撮像画像P0の例を示す。
【0055】
また、エッジ画像データ生成手段4において、撮像画像P0が微分処理され、図4(b)に示すエッジ画像P1が得られる。図5はエッジ画像生成のフローを示す。微分ステップ(S201)を説明する。撮像画像P0は濃淡画像である。この濃淡画像から人物の外郭や顔の輪郭等に相当する画素よりなるエッジ部を抽出するための微分処理は、「エッジは濃度変化が大きい部分に対応している」という考え方を基本にしている。微分処理は、図6に示すように、撮像画像P0を3×3画素の局所並列ウインドウW33によって水平方向x、上下方向yについてそれぞれ走査して行われる。局所並列ウインドウW33は、図7(a)に示すように、注目する画素I(i,j)=a5と、その画素a5の周囲の8画素(8近傍)a1〜a4,a6〜a9とから構成される。局所並列ウインドウW内33の各画素a1〜a9に対し、図7(b)に示すx方向微分オペレータOPxを作用させてx方向微分値Gx(i,j)を計算し、図7(c)に示すy方向微分オペレータOPyを作用させてy方向微分値Gy(i,j)を計算する。計算式は以下となる。ただし、以下において、引数i,jは一部省略している。
Gx=a3+2×a6+a9−a1−2×a4−a7
Gy=a1+2×a2+a3−a7−2×a8−a9
これらをもとに微分強度値J(i,j)と濃度勾配方向Ψ(i,j)が次式によって求められる。
J=sqr(Gx×Gx+Gy×Gy)
Ψ=arctan(Gy/Gx)
ここで、sqrは平方根演算、arctanは逆正接である。また、Gx又はGyが0のときの濃度勾配方向Ψは、Gx=0、Gy>0のときΨ=90゜、Gx=0、Gy<0のときΨ=270゜、Gy=0、Gx>0のときΨ=0゜、Gy=0、Gx<0のときΨ=180゜である。以上の処理が微分ステップ(S201)で行われる。
【0056】
続いて、各画素における微分強度値J(i,j)が所定のしきい値と比較され、所定のしきい値以上の微分強度値を有する画素I(i,j)がエッジ画素として抽出される(S202でYes)。メモリ上のエッジ画素位置には濃度勾配方向Ψ(i,j)データが保管される(S203)。撮像画像P0の全ての画素について微分処理が行われた後(S204でYes)、エッジ画像P1としてメモリに記憶される(S205)。
【0057】
(投票テンプレート準備手段)
投票テンプレート準備手段6における処理を図8乃至図17により説明する。図8は人頭部の形状モデルを示す。撮像画像中において人の頭部画像を抽出し、撮像画像中における人の存在及びその位置を検出するために、人の頭部画像の形状を外側に凸な曲線で囲まれる図形の形状モデルで近似する。例えば、図8(a)の三角型T1、図8(b)の四角型T2、図8(c)の楕円型T3、図8(d)の円型T4が形状モデルとして用いられる。各凸形状モデルの内部には、例えば図形の重心点に、代表点Gが定められている。
【0058】
これらの形状モデルのサイズについて説明する。図9は実物人間と画像中の人との寸法関係を示す。撮像装置のレンズの焦点距離fと、撮像装置から検出対象とする人までの検出距離Lと、実世界の人頭部の標準サイズ(頭部幅Dと頭部高H)とに基づいて、撮像画像中の人の頭部画像の輪郭の大きさ(頭部幅dと頭部高h)が決定される。実世界の人頭部の標準サイズにサイズ範囲と検出距離Lの幅を考慮して前記形状モデルの標準サイズ及びサイズ範囲が予め決定される。
【0059】
形状モデルから作成される投票テンプレートについて説明する。図10(a)(b)は三角型形状モデルT1による投票テンプレートを示す。図10(a)に示すように、標準サイズの形状モデルT10を構成する境界曲線上の各点に、例えば各点における接線方向と直交する方向(法線方向)であって、形状モデルの内部(前記凸な曲線で囲まれる内部側)方向に、濃度勾配方向ベクトルNが定義される。濃度勾配方向ベクトルNは、例えば画像上の水平方向xを基準とする濃度勾配方向Ψによって特定される。また、形状モデルの内部に定められた代表点Gに形状モデルの標準サイズに対応する投票部Vp0が設けられる。また、図10(b)に示すように、形状モデルの境界曲線上の注目する点から代表点を結ぶ線として定義される代表点方向線rの線上であって代表点Gの前又は後に前記サイズ範囲に対応する投票部Vp1,Vp2が設けられる。これらの投票部Vp1,Vp2は、標準サイズの形状モデルT10よりも、小さい形状モデルT11及び大きい形状モデルT12に対しても同時に投票可能とし、標準サイズ範囲からの変動を吸収するための投票部である。このように、形状モデルに濃度勾配方向Ψと投票部Vp0,Vp1,Vp2を備えた投票テンプレートが、各標準形状モデル毎に作成されてメモリに参照可能に準備される。このような投票部は、形状モデルのサイズ範囲が大きい場合には、必要に応じて代表点方向線rの線上にさらに多数設けることができる。
【0060】
明暗反転した画像に対応した投票テンプレートについて説明する。図11及び図12は人頭部の画像濃度が反転した場合の投票テンプレートを示す。投票テンプレートは、後述するようにエッジ画像の画素点における濃度勾配方向と投票テンプレートの濃度勾配方向とを互いに参照して用いられる。濃度勾配方向ベクトルNは、図11(a)に示すように、エッジ画像の各エッジ画素pxにおいて濃度レベルの低い画像部分つまり暗い画像部分A2から濃度レベルの高い画像部分つまり明るい画像部分A1に向かうベクトルNとして定義される。ところで、人頭部画像が撮像されるときの照明の具合によって、人頭部に対する濃度勾配方向が頭部内向きの場合と頭部外向きの場合が生じる。例えば、背景に対し頭部が明るい場合(撮像モードpとする)、図11(b)に示すように濃度勾配方向ベクトルN1,N2は内向きとなり、背景に対し頭部が暗い場合(撮像モードqとする)、図11(c)に示すように濃度勾配方向ベクトルNは外向きとなる。
【0061】
このような、2種類の頭部画像に対応できるように、投票部を設けることで人頭部検出の効率を上げることができる。その方法を説明する。標準サイズの形状モデルの境界曲線上の各点に対して、例えば図11(b)の形状モデルTp上の点Pに定義した濃度勾配方向ベクトルN1と逆方向の濃度勾配方向ベクトルN2を有する前記境界曲線上の他の点Qを、互いに共役な共役点として定義する。そして、互いに共役な点の一方の点Qが形状モデルの内部に有する投票部Vp2と同じ相対位置関係を保って、前記互いに共役な点の他方の点Pが形状モデルTpの外部にさらに投票部を備えるようにする。このようにして、明暗反転した画像に対応した投票部を備えた投票テンプレートが図12に示されている。濃度勾配方向Ψ、Φはそれぞれ撮像モードp、qに対する投票テンプレートの濃度勾配方向に対応し、図11(b)のVp1,Vp2はそれぞれ図12のVp、Vqに対応する。
【0062】
濃度勾配方向の変動への対処について説明する。図13は2次元的な投票部を備えた投票テンプレートを示す。投票テンプレートは、エッジ画像の画素点における濃度勾配方向と投票テンプレートの濃度勾配方向とを互いに参照して用いられるので、エッジ画素の濃度勾配方向が頭部画像における頭部輪郭から想定される本来の濃度勾配方向とずれが生じた場合に、そのずれを吸収する投票部を設けることで信頼性の高い検出ができる。そのような投票部として、図13(a)に示されるように、投票テンプレートの代表点近傍であって代表点方向線rの両側にさらに投票部を備える。図の例の場合、形状モデルの境界曲線上の各点に対し、9つの投票部Vp0〜Vp8を形状モデルの内部に、また9つの投票部Vq0〜Vq8を形状モデルの外部に備えている。図13(b)は、追加した投票部が濃度勾配方向の変動を吸収する様子を示す。
【0063】
投票テンプレート表について説明する。図14は投票部の座標を示し、図15及び図16は投票テンプレート表を示す。投票テンプレートの濃度勾配方向と、エッジ画像の画素点における濃度勾配方向との比較参照を容易とするために投票テンプレート表を準備する。投票テンプレート表は、図14(a)(b)に示すように、形状モデルの境界曲線上の各点に対する投票部Vp,Vqの相対位置Δxp、Δyp、Δxq、Δyq(引数省略)を、各点における濃度勾配方向Ψ、Φをインデックスとして、表形式でメモリに記憶したものである。
【0064】
次に、形状モデルの種類とこれらの形状モデルに基づく投票テンプレートについて説明する。図17は本発明で用いられる形状モデルの種類の例を示す。形状モデルの種類としては、前述した形状の種類T1〜T4以外に、各検出距離範囲のゾーンZN1,ZN2,ZN3毎の標準サイズ、及び頭を傾けた左傾きと右傾きの形状モデルが用いられる。投票テンプレート準備手段は、撮像装置から検出対象とする人までの検出距離範囲を任意に複数設定して検出距離範囲毎の形状モデルの標準サイズとサイズ範囲及びこれらに基づく投票テンプレートを準備する。投票空間生成手段は、前記検出距離範囲毎に投票空間を生成し、投票処理手段は、各検出距離範囲に対応する投票テンプレート毎に検出距離範囲が対応する投票空間に対し上記投票処理を行う。また、人存在位置検出手段は、各検出距離範囲に対応する投票空間中で所定しきい値以上の投票値を有するセルを検出すると、人存在位置をそれらの検出距離範囲に対応させる。多くの人の中から、撮像装置から特定の距離範囲に居る人のみ選択して検出することができる。
【0065】
また、投票テンプレート準備手段は、形状モデルのサイズ範囲が所定値以上の場合、サイズ範囲が所定値以下となるように人の検出距離範囲を分割し(上記までの説明では全体の分割範囲は3つであった)、該分割された範囲毎に形状モデルの標準サイズとサイズ範囲及びこれらに基づく投票テンプレートを準備することとし、投票空間生成手段は、該分割された検出距離範囲毎に投票空間を生成し、投票処理手段は、該分割された検出距離範囲毎に対応する投票テンプレート毎に検出距離範囲が対応する投票空間に対し上記投票処理を行う。人を検出しようとする範囲が広くてサイズ範囲が大きくなった場合、形状モデルのサイズ範囲に対応して投票テンプレートの投票部が長くなり、間違った投票により偽の投票値が高いセルを作る誤検出発生の可能性が高くなる。人の存在する範囲を分割して形状モデルのサイズ範囲を所定値以下とすることにより、特定の大きさの頭部のみを検出することができ検出精度を高くすることができる。
【0066】
また、投票テンプレート準備手段は、人の頭部形状を同一の形状モデルで姿勢が異なる複数の形状で近似し、上述の頭を傾けた左傾きと右傾きの形状モデルのように、各姿勢の形状毎に投票テンプレートを準備し、投票空間生成手段は、各姿勢の形状毎に投票空間を生成し、投票処理手段は、各姿勢の異なる形状毎に投票空間上の各セルに投票処理を行う。姿勢の異なる形状モデルごとに検出を行うため、傾いた頭部も検出することができる。
【0067】
また、投票テンプレート準備手段は、人の頭部形状を異なる複数の形状モデル形状で近似し、各形状モデルの形状毎に投票テンプレートを準備し、前記投票空間生成手段は、該形状モデルの形状毎に投票空間を生成し、前記投票処理手段は、該形状モデル毎に投票空間上の各セルに投票処理を行う。異なる形状モデルを使用して検出するため、様々な頭部形状の検出をすることができる。
【0068】
(投票空間生成手段と投票処理手段)
投票空間とその生成について、及び撮像画像・エッジ画像との関係について説明する。図18はエッジ画素及び投票セルの座標の関係を示す。投票空間生成手段は、図18に示すように撮像画像P0及びエッジ画像P1の各画素位置と対応する位置に投票セルVCを有する投票空間P2を生成しメモリに記憶する。投票空間P2は投票テンプレートの種類に応じて複数生成される。
【0069】
投票と集計処理について説明する。投票処理手段は、エッジ画像P1上の各エッジ画素上に、そのエッジ画素に付加した濃度勾配方向ベクトルN1に対応する濃度勾配方向ベクトルN2を有する前記投票テンプレートの境界曲線上の点を重ね、このとき投票テンプレートの投票部が位置するエッジ画像P1上の画素位置に対応する投票空間P2の投票用セルVp,Vqに投票してメモリに記憶し、これらのことを各エッジ画素毎に行い、投票空間の各セルの投票値を集計する。図19は投票して集計された投票空間における投票値の分布を示す。投票処理手段は、複数種類の投票テンプレートを用いる場合、各投票テンプレート毎に設けた投票空間に対してこれらの投票及び集計処理を行う。
【0070】
投票に際してエッジ画素列のなす曲率を利用することについて説明する。図20は曲率中心方向と投票部の関係を示す。投票処理手段は、エッジ画像の各エッジ画素について、注目するエッジ画素pxとその近傍の複数のエッジ画素からなる輪郭の曲率を求めて曲率中心の存在する方向ρを判定し、注目するエッジ画素pxに対する投票に際し、曲率中心の存在する方向ρの投票部Vの位置に対応する投票空間の投票用セルに投票する。人画像の輪郭から生成したエッジ画素からなる輪郭の曲率中心は、人頭部の画像の濃淡モードによらず頭部画像中心方向を向くので、投票処理を有効な片側にのみ行うことができる。
【0071】
(人存在位置検出手段と警報音発生手段)
人存在ゾーンの判定について説明する。図21は投票が行われた各ゾーン毎の投票空間、図22は投票空間における人検出と現実空間のゾーンとの関係を示す。人存在位置検出手段は、投票が行われた投票空間P21,P22,P23で所定のしきい値以上の投票値を有するセルを検出し、検出したセルに対応する撮像画像上の位置を人の頭部位置として検出する。図21の場合、投票空間P22におけるセルC5が人の頭部を示しているとされ、その座標x2,y2が同じく撮像画像上の位置座標とされる。撮像画像中に検出された人頭部、したがって検出された人の実世界における存在位置は、人頭部画像が投票空間P22において検出されたことにより、図22に示される検出距離範囲の区分による第2ゾーンZN2とされる。この場合、撮像装置から人までの距離としてゾーン境界距離L2,L3の平均値(検出距離範囲の中央の位置)LZ2=(L2+L3)/2が用いられる。
【0072】
所定値以上の投票値を有する被投票セルが特定範囲内に分布している場合について説明する。図23は投票値の山が複数の峯を持つ場合を示す。人存在位置検出手段は、図に示すように検出した所定のしきい値以上の投票値を有するセルC6が複数の峯を有する塊に分れている場合には、塊間の距離を調べ、該距離が所定範囲内に存在する場合には全体をグループ化して1つに統合し、統合した塊の代表点に対応する撮像画像上の位置(x3,y3)を人の頭部位置として検出する。所定のしきい値以上の投票値を持つセルを統合することにより、投票が分散してしまった場合でも、正しく輪郭モデルを検出し、人の頭部位置を精度良く検出することができる。
【0073】
人存在位置検出手段は、分割された検出範囲毎に設けられた投票空間の各投票空間毎に、所定のしきい値以上の投票値を有するセルを検出し、該検出したセルに対応する画像上の位置を人の頭部候補位置として検出する。その後、人存在位置検出手段は、各分割された検出範囲ごとの投票空間で検出された頭部候補位置間の距離を調べ、該距離が所定範囲内に存在する場合にはグループ化して統合し、統合された頭部候補の代表点に対応する画像上の位置を人の頭部位置とする。各検出範囲ごとに得られた結果を統合することにより、信頼性の高い検出を行うことができる。
【0074】
人存在位置検出手段は、人の存在位置の検出処理を撮像装置に近い側の検出範囲から遠い側の検出範囲の順に処理し、人の頭部位置が検出されると、検出された撮像画像上の位置周囲の所定の範囲は検出終了領域として記憶し、撮像装置から遠い側の検出範囲の処理を行う場合に、該検出終了領域は検出処理を行わないこととしてもよい。撮像画像上で頭部が大きく投影されることになる、撮像装置から近い側の検出距離範囲の処理を行って頭部が検出されると、撮像画像におけるその部分では、より遠方の人は、検出された画像の背後となるため人検出の可能性はなく、検出を止めることにより処理量を減らして高速な処理を実現することができる。
【0075】
検出距離範囲と警報音発生について説明する。図24は警報音発生手段の処理フローを示す。警報音発生手段は、各ゾーンごとの距離と緊急性に基づく動作として、第3ゾーンZN3では弱い警報音(S302)、第2ゾーンZN2では中程度の警報音(S304)、第1ゾーンZN1では強い警報音発生(S306)を行う。
【0076】
(距離センサを併用する人の存在検出装置)
距離センサと人の存在位置検出装置との組合せについて説明する。図25は検出装置のブロック構成を示す。人の存在位置検出装置に距離センサを併用することで、より効率的な動作を実現することができる。撮像装置2の近傍、例えばその上部に縦に並べて設置した距離センサ10により物体までの距離が計測される。その計測結果に基づきゾーン選択手段11で、各ゾーンZN1,ZN2,ZN3の中から検出距離範囲が選択されると共に、頭部画像のサイズを決定される。決定された頭部画像サイズに対応する投票テンプレートを用いて、選択されたゾーンについてのみ投票空間を生成し、以降の投票等の処理が進められる。投票による人存在位置検出処理の回数は、通常、(ゾーン数)×(頭部形状数)×(頭部姿勢数)回必要であるが、距離センサを用いることによって、(頭部形状数)×(頭部姿勢数)回となり、1/(ゾーン数)に処理回数を減らすことができる。このような処理を行うために、投票テンプレート準備手段は、予め撮像装置から人までの距離毎に投票テンプレートのデータを保管し、投票処理手段は、検出対象までの距離を測定する距離センサの距離測定結果に基づいて前記投票テンプレートのデータを参照して投票テンプレートを設定して投票する。撮像装置から人までの距離を距離センサにより求めた上で、画像上で検出する頭部のサイズを限定して検出を行うので、信頼性の高い検出を行うことができる。
【0077】
(自律移動装置の移動制御)
人の存在位置検出装置の自律移動装置への適用について説明する。図26は当該自律移動装置の外観図、図27はそのブロック構成を示す。自律移動装置12は、障害物や人M1,M2,M3を検知し、障害物や人に対して回避・停止や警報音発生等を行いながら自らその移動を制御しつつ、物品搬送や人の引率等を行う装置である。自律移動装置12は、前方に撮像装置2aと人の存在位置検出装置本体1a、後方に撮像装置2bと人の存在位置検出装置本体1bを備えている。前方及び後方の人の存在位置検出装置本体1a、1bからの人検出結果の出力は、走行経路計画部101、車輪駆動制御部102に伝えられ、モータドライバ103により駆動モータ104が駆動されて、自律移動の動作が行われる。また、駆動モータ104の回転数がエンコーダ105により計測され、移動距離計測部106により走行距離及び走行速度が求められて車輪駆動制御部102にフィードバックされる。
【0078】
(人存在方向の検出)
検出した人の存在方向決定について説明する。図28はその決定方法を示す。人存在位置検出手段は、検出した撮像画像上の頭部の位置b及び撮像装置の焦点距離fにより撮像装置2に対する人存在位置方向の角度φ=arctan(b/f)を求める。人の頭部位置検出に使用した投票空間(距離によって形状モデルのサイズが定まり、投票テンプレート及び対応する投票空間が定まっている)に対応する人の検出距離範囲の中央の位置、例えば人Mの検出された第3ゾーンZN3に対しLZ3=(L3+L4)/2、を撮像装置から人までの距離と推定する。このように、人Mの方向(角φ)と人までの距離(距離LZ3)とにより、実世界における撮像装置に対する人の位置を求めることができる。
【0079】
(人存在マップ、人接近・遠ざかり、及び追跡)
ゾーン(人検出距離範囲)間の人移動検出について説明する。図29は人存在位置の時間経過の例を示す。人存在位置検出手段は、撮像装置の視線方向の空間を撮像装置から所定の距離毎に、例えば遠距離の第3ゾーンZN3、中距離の第2ゾーンZN2、近距離の第1ゾーンZN1に分けて、各ゾーン内での人の有無状態について前回検出時刻t=T(−1)における検出結果と、次の検出時刻t=T(0)における検出結果と、その後の検出時刻t=T(+1)などのように、人の存在位置を時系列的に比較して人の実世界での移動を判定する。図29に示した例では、現在検出した人が属するゾーンZN1が前回検出した人が属するゾーンZN2よりも近いゾーンであるため人が近づいていると判定される。また、その後の時刻t=T(+1)に検出した人が属するゾーンZN2が現在検出した人が属するゾーンZN1がよりも遠いゾーンであるため、人が遠ざかっていると判定される。また、現在検出した人が属するゾーンと前回検出した人が属するゾーンが同じときは人が止まっていると判定される。なお、検出された人の同一性の同定、いわゆる追跡については後述される。
【0080】
実世界における人存在マップについて説明する。図30は人存在マップの意味付けを示す。人存在位置検出手段は、撮像装置2の位置を基準に、撮像装置2の視線方向の空間を複数の、例えば15×9の、エリアに分割した人存在マップ30を作成し、各エリアを、人を検出したエリア31と、人がいないエリア32と、未確認のエリア33とに分類して人の存在位置を検出する。このような人存在マップ30は、実世界において、例えば、自律移動装置を制御する時に人に衝突しない高度な移動制御に応用できる。
【0081】
人存在マップを用いた人の追跡について説明する。図31は人の追跡方法を示す。人存在位置検出手段は、上述したように人存在マップ30を作成し、人を検出した位置を人存在マップ30上の対応する位置E1,E2,E3に登録すると共に、検出した人の頭部の切出し画像を検出位置と関係付けして記憶する(切出し画像については後述)。そして、前回検出時刻t=T(−1)のマップと次の検出時刻t=T(0)のマップとを比較し、前回検出時点での注目する人の検出位置E1,E2,E3からそれぞれの移動可能な範囲AR1,AR2,AR3内に検出した現時点における人及びその検出位置F1,F2,F3を対応付けの候補とする。位置E1と位置F1のように対応付け候補が1つの場合には対応付けして追跡する。位置E2に対する位置F2,F3、位置E3に対する位置F2,F3のように対応付け候補が複数ある場合には、前回検出時点における人の検出位置と関係付けして記憶した頭部の切出し画像と、対応付け候補とされる人の頭部の切出し画像との画像相関を計算し、相関度の一番高い対応付け候補の人及びその検出位置を正しい対応付けとして追跡する。
【0082】
(検出した位置の頭部画像の検証)
撮像画像からの検出人頭部画像の切出しについて悦明する。図32は頭部画像の切出しを示す。人存在位置検出手段は、検出した撮像画像P0上の頭部位置に頭部をモデル化した形状を投影して得られる投影像のサイズ(頭部幅d、頭部高h)の画像を切り出す。切り出された画像40は、明るさ・大きさで正規化され、予め記憶した頭部・非頭部のデータと比較され、頭部の検出が検証される。投影像のサイズd,hは次のようにして求められる。人存在位置検出手段では、各検出距離範囲に対応する投票空間毎に、所定のしきい値以上の投票値を持つセルを検出し、検出したセルに対応する撮像画像P0上の位置を人の頭部位置候補として検出する。人の頭部候補が検出された投票空間に対応する検出距離の範囲の中央の位置が撮像装置から人候補までの距離、また、そのゾーン番号が人候補のいるゾーンの番号として出力される。例えば前出の図2に示されるように第3ゾーンZN3に人候補が存在する場合、人候補の検出範囲は撮像装置から近い側がL3、遠い側がL4であり、したがって、撮像装置から人候補までの距離はLZ3=(L3+L4)/2とされる。また、頭部画像サイズは、d=f・D/LZ3、h=f・H/LZ3となる。ここで、D,Hは検出に用いられた形状モデルの頭部標準サイズである。
【0083】
(パターン認識)
頭部標準画像と切出し画像とのパターンマッチングについて説明する。図33は頭部パターン空間、図34は頭部画像のパターン認識フローを示す。頭部画像のパターン認識を行うことで、検出した人の同一性判断とその人の移動追跡が可能となる。また、過誤検出防止が可能となる。頭部画像のパターン認識は、図33に示される予めメモリに学習保存したn次元パターン空間における頭部パターン部分空間HS0と頭部画像とを比較して行われる。まず、撮像エリアARにおけるゾーン番号mの検出距離範囲に対応する投票空間が処理の対象として選択される(S401)。投票空間の投票セルにおいて、所定しきい値以上の投票値がなければ次のセルの評価に進み(S402でNo)、所定しきい値以上の投票値があれば、そのセルにおいて人候補を検出したとして、人候補までの実世界における距離LZm=(L(m+1)+L(m))/2を計算する(S403)。次に、頭部画像サイズ、幅d=f・D/LZm、高さh=f・H/LZmを計算する(S404)。得られた頭部画像サイズd,hで頭部画像が撮像画像から切り出される(S405)。
【0084】
続いて、切り出された頭部画像をn次元パターン空間に移行するために正規化が行われる。正規化は、画像の大きさを予め決めた頭部標準画像サイズdn,hnに、画像濃度について濃度平均値と濃度分散値を予め決めた頭部標準画像サイズ内画素の濃度平均値Avと濃度分散値Varになるように行われる(S406)。正規化された頭部画像の各画素の値をベクトルの要素としてn(n=dn×hn)次元のベクトルを作成し、これを正規化頭部画像ベクトルVhnとする(S407)。次に、n次元パターン空間において、正規化された頭部画像ベクトルVhnが占める位置を調べ(S408)、予め多くの既知の正規化された頭部画像及び非頭部画像を用いてn次元のベクトル空間中に設けられた部分空間のうち、頭部パターン部分空間に正規化された頭部画像ベクトルVhnが含まれるか否かを調べる(S409)。頭部パターン部分空間に正規化された頭部画像ベクトルVhnが含まれていれば(S409でYes)、切出し画像を人頭部画像と判定し(S410)、頭部画像位置LZmを出力する(S411)。頭部パターン部分空間に正規化された頭部画像ベクトルVhnが含まれていなければ(S409でNo)、切出し画像は人頭部画像でないと判定する(S412)。以上の処理が全セルについて行われた後(S413)、次のゾーン番号(m+1)に対応する投票空間の処理が行われる(S414)。なお、ステップS403とS404はステップS401の直後に1回だけ処理するようにしてもよい。
【0085】
(平均値、分散値)
頭部画像の濃度平均値と分散値を用いた判定ついて説明する。図35は同判定のフローを示す。切り出された頭部画像の平均値Avxと分散値Varxと予め計算しておいた既知の頭部画像の平均値Avと分散値Varと比較する(S501)。切り出された頭部画像の平均値Avxと分散値Varxが所定の許容範囲α、β内、つまり、
Av−α<Avx<Av+α
Var−β<Varx<Var+β
のときに、切り出された画像は頭部画像であると判定する(S502でYes、S503)。このように、切り出された画像の明度の平均値・分散値を求め、これらの平均値・分散値と、予め設定した平均値・分散値のしきい値とを比較することにより、頭部の検出を検証することで、信頼性の高い頭部位置の検出ができる。
【0086】
(肌色)
頭部画像の肌色を用いた判定について説明する。図36は同判定のフローを示す。また、別の検証方法として、切り出された画像中に占める肌色画素の割合Sxと、予め求めておいた正面を向いた顔画像中に占める肌色画素の割合Skと比較する(S61)。肌色画素の割合Sxが所定の共用範囲γ内、つまり、
Sk−γ<Sx<Sk+γ
のときに、切り出された画像は正面向きの頭部画像であると判定する(S602でYes、S603)。このように、検出された頭部の画像を、切出された画像に含まれる肌色の割合を使って頭部かどうか検証することにより、信頼性の高い頭部位置の検出ができる。
【0087】
(頭部の向きの検出)
頭部パターン空間を用いた正面向き頭部でない頭部の検出について説明する。図37は頭部パターン空間を示す。前述のように、正規化された頭部画像の各画素の値をベクトルの要素としてn(n=dn×hn)次元のベクトルを作成し、これを正規化頭部画像ベクトルVhnとする。予め、多くの既知の正規化された正面頭部画像、左向き頭部画像、右向き頭部画像および非頭部画像を使って、n次元のベクトル空間中で正面頭部パターン部分空間HS0、左向き頭部パターン部分空間HSL、右向き頭部パターン部分空間HSRを学習しておき、人頭部検出時には、正規化された頭部画像ベクトルVhnが、いずれかの頭部パターン空間内に入るか否かで、切り出された頭部画像が確かに人の頭部かどうかの検証及び、頭部の向きの識別を行う。人の頭部であると検証されたとき、撮像画像上のこの頭部位置を撮像画像上の人の位置として出力すると共に、頭部の向きも出力する。
【0088】
(頭部の向きの決定)
頭部パターン空間を用いた頭部の向きの判定について説明する。図38は頭部パターン空間、図39は頭部画像の例を示す。人存在位置検出手段は、前記頭部の向きとして複数の候補が出力される時、前記切出した画像を予め決めた複数の小画像に分割し、分割した各小画像間の濃度分布の違いにより頭部の向きを決定する。図38に示すように、上述した頭部向き毎の頭部パターン部分空間HS0,HSL,HSRが重なり、さらに、正規化頭部画像ベクトルVhnが重なる空間に存在することになり、異なる頭部向きが同時に頭部向き候補として出力される場合がある。このような場合でも正しい頭部の向きを識別できるように、図39(a)に示すように、切り出した頭部画像40の中央に分割線41を引き、この分割線の両側の領域42、43について、各領域の濃度の総和の比を比較する。分割線左側の濃度の総和をSL,同右側の濃度の総和をSR、判定しきい値をth1,th2として、
th1≦SL/SR の場合は、右向き
th2<SL/SR<th1 の場合は、正面向き
SL/SR≦th2 の場合は、左向き
であるとして頭部向きを判定する。
【0089】
(人の存在及びその位置を検出する方法)
撮像装置で撮像した撮像画像から人の頭部画像を抽出することにより人の存在及びその位置を検出する方法について説明する。図40は同検出方法のフローを示す。まず、投票テンプレート準備過程において投票テンプレートの準備が行われる(S701)。この投票テンプレート準備過程では、▲1▼人の頭部画像の形状を近時した外側に凸な曲線で囲まれる図形の形状モデルが準備され、▲2▼撮像装置のレンズの焦点距離と撮像装置から検出対象とする人までの検出距離と人の頭部の標準サイズとに基いて撮像画像上における人の頭部画像の輪郭の大きさが推定され、▲3▼前記形状モデルの標準サイズ及びサイズ範囲が決められる。また、▲4▼標準サイズの形状モデルの境界曲線上の各点に濃度勾配方向が定義され、▲5▼該形状モデルの内部に代表点が定義され、▲6▼該代表点に該形状モデルの標準サイズに対応する投票部が備えられる。さらに、▲7▼形状モデルの境界曲線上の注目する点から代表点を結ぶ線として定義される代表点方向線の線上であって前記代表点の前又は後に前記サイズ範囲に対応する投票部が備えられる。▲8▼また、濃度反転した頭部画像に対応するための投票部を形状モデルの境界曲線上の外部にも備えて、形状モデルの内部と外部の一対の投票部とすることもできる。このようにして、検出が想定される人の検出距離範囲及び人頭部の形状モデル毎に、標準サイズの形状モデルが準備され、そのそれらの標準形状モデルに濃度勾配方向と複数の投票部を備えた投票テンプレートが作成され、参照可能にメモリに記憶・準備される。
【0090】
また、投票空間生成過程において、撮像画像及びエッジ画像の各画素位置と対応する位置に投票用セルを有する投票空間が生成されメモリに記憶される(S702)。
【0091】
次に、撮像画像データ記憶過程において、撮像装置から入力されデジタル化された撮像画像がメモリに記憶される(S703)。次に、エッジ画像データ生成過程において、前記撮像画像に対し人物の外郭や顔の輪郭等に相当する画素からなるエッジ部が微分処理により抽出され、所定の微分強度以上となる画素がエッジ画素として抽出されると共に、撮像画像から算出された濃度勾配方向が、抽出された各エッジ画素毎に付加されてエッジ画像が生成される(S704)。
【0092】
次に、投票処理過程において、▲1▼準備された投票テンプレートの内のまず1つが選択され、▲2▼エッジ画像の各エッジ画素上に、該エッジ画素に付加した濃度勾配方向に対応する濃度勾配方向を有する投票テンプレートの境界曲線上の点が重ねられ、▲3▼このとき投票テンプレートの投票部が位置する投票空間の投票用セルに投票されメモリに記憶される。▲4▼全てのエッジ画素について投票処理が行われる。次に、▲5▼他の投票テンプレートが選択され、その投票テンプレートに対応する投票空間に前記と同じ投票処理が行われる。▲6▼このような投票処理が、全ての投票テンプレートについて行われる。また、各投票に際し、投票空間の各セルの投票値が集計される(S705)。
【0093】
次に、人存在位置検出過程において、▲1▼投票が行われた各投票空間で所定のしきい値以上の投票値を有するセルが検出され、▲2▼所定量の投票値が検出されたセルに対応する撮像画像上の位置が撮像画像上における人の頭部位置として検出される(S706)。
【0094】
上述の一連の人の存在位置検出過程が終了した後、再度検出を行う場合(S707でNo)、ステップS703から上記過程が繰り返して行われる。
【0095】
この方法は、従来の着目するエッジ画素の全方向に亘って投票を行うハフ変換の投票処理と異なり、各エッジ画素の片側方向の領域にのみ若しくは両側方向の領域のみについて投票を行うため、処理量が少なく高速な処理を実現することができる。撮像装置から特定の範囲内の人の頭部の大きさのみを検出対象とするため、信頼性の高い人の頭部検出を行うことができる。
【0096】
なお、本発明は、上記構成に限られることなく種々の変形が可能である。例えば、上記説明では、投票空間の投票セルと撮像画像及びエッジ画像の画素は1対1に対応しているとしているが、1つの投票セルに複数の画素を対応させるようにしてもよい。
【図面の簡単な説明】
【図1】 本発明の一実施形態による人の存在位置検出装置のブロック構成図。
【図2】 同装置を応用したエリアセンサの概念図。
【図3】 同装置の撮像画像データ記憶手段の処理フロー図。
【図4】 (a)は撮像画像図、(b)は同エッジ画像図。
【図5】 本発明の一実施形態によるエッジ画像データ生成手段におけるフロー図。
【図6】 撮像画像の座標図。
【図7】 (a)は3×3画素局所ウインドウの図、(b)はx方向微分オペレータの図、(c)はy方向微分オペレータ図。
【図8】 (a)〜(d)は本発明の一実施形態による人頭部の形状モデルを示す図。
【図9】 実世界の人と画像中の人との寸法関係を示す図。
【図10】 (a)(b)は本発明の一実施形態による投票テンプレートの図。
【図11】 (a)は濃度勾配方向を説明する図、(b)(c)は本発明の一実施形態による投票テンプレートの図。
【図12】 本発明の一実施形態による投票テンプレートの図。
【図13】 本発明の一実施形態による投票テンプレートの図。
【図14】 (a)(b)は本発明の一実施形態による投票テンプレートの投票部の座標を示す図。
【図15】 本発明の一実施形態による投票テンプレート表の図。
【図16】 本発明の一実施形態による投票テンプレート表の図。
【図17】 本発明の一実施形態による形状モデルの種類を示す図。
【図18】 (a)は本発明の一実施形態によるエッジ画像図、撮像空間、投票空間の関係図、(b)はエッジ画像の図、(c)は投票空間の図。
【図19】 本発明の一実施形態による投票空間における投票値の分布図。
【図20】 (a)(b)は本発明の一実施形態による曲率半径方向と投票部の関係を示す図。
【図21】 本発明の一実施形態による投票後のゾーン毎の投票空間の図。
【図22】 本発明の一実施形態による現実空間のゾーンの図。
【図23】 投票値の山が複数の峯を持つ場合を示す図。
【図24】 本発明の一実施形態による警報音発生手段の処理フロー図。
【図25】 本発明の一実施形態による検出装置のブロック構成図。
【図26】 本発明の一実施形態による自律移動装置の外観図。
【図27】 同上自律移動装置ののブロック構成図。
【図28】 本発明の一実施形態による撮像装置と人の存在方向決定を説明する図。
【図29】 本発明の一実施形態による人存在位置の時間経過を示す図。
【図30】 本発明の一実施形態による人存在マップ図。
【図31】 (a)(b)は本発明の一実施形態による人存在マップ図。
【図32】 (a)は撮像画像図、(b)は切出し頭部画像図。
【図33】 n次元パターン空間の図。
【図34】 本発明の一実施形態による頭部画像のパターン認識フロー図。
【図35】 本発明の一実施形態によるは頭部画像判定のフロー図。
【図36】 本発明の一実施形態によるは頭部向き判定のフロー図。
【図37】 n次元パターン空間の図。
【図38】 n次元パターン空間の図。
【図39】 (a)〜(b)は頭部画像の図。
【図40】 本発明の一実施形態による人の存在位置検出方法のフロー図。
【符号の説明】
1 人の存在位置検出装置本体
2 撮像装置
3 撮像画像データ記憶手段
4 エッジ画像データ生成手段
5 投票処理手段
6 投票テンプレート準備手段
7 投票空間生成手段
8 人存在位置検出手段
9 警報発生手段
12 自律移動装置
30 人存在マップ
31 人を検出したエリア
32 人がいないエリア
33 未確認のエリア
G 代表点
P,Q 共役点
P0 撮像画像
P1 エッジ画像
P2 投票空間
r 代表点方向線
T 投票テンプレート
T1〜T4 形状モデル
V,Vp,Vp0〜Vp8、Vq0〜Vq8 投票部
VC 投票セル
Ψ,Φ 濃度勾配方向
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method of automatically detecting a person from an image by a computer in a human machine interface, personal robot, image monitoring, autonomous mobile device, or the like.
[0002]
[Prior art]
Conventionally, as a method of automatically finding a person by a computer from an image, a method in which a moving part is regarded as a person and detected, a face or head that is a representative part of a person is detected by skin color or facial parts. There is a way to detect. As an example of the former, there is one that detects a changed portion as a person by taking a difference between a background image created in advance and an input image (see, for example, Patent Document 1). As an example of the latter, there is one that models a face as an ellipse and detects the face by ellipse detection (see, for example, Patent Document 2). In addition, there is one that models the head as a circle and performs head detection by circular shape detection (see, for example, Patent Document 3).
[0003]
[Patent Document 1]
JP-A-11-311682
[Patent Document 2]
Japanese Patent Laid-Open No. 11-185026
[Patent Document 3]
JP 2001-222719 A
[0004]
[Problems to be solved by the invention]
However, in the detection method as shown in the above-mentioned document 1, since a region where the brightness on the image has changed greatly is a person, when the brightness changes due to light being inserted or an object such as a chair moves. In some cases, there is a problem of detecting as a person. Further, in the detection method as shown in Document 2, it is difficult to stably detect the skin color in various scenes, and the skin color region is applied to the ellipse so that it is correct when it is in front. In this case, it is difficult to detect, and there is a problem that the head cannot be detected when facing backward. Further, in the detection method as shown in Document 3, since the shape of the template used for voting is concentric, there are many votes that do not contribute to detection, processing time is wasted, and the peak of the false vote value Has a problem that false detection occurs.
[0005]
The present invention solves the above-described problem, and can detect a person from an image at high speed with a simple configuration and can obtain an approximate position from the imaging device to the person in the real world with respect to the image world. An object of the present invention is to provide a human presence position detection device, a detection method thereof, and an autonomous mobile device using the detection device.
[0006]
[Means for Solving the Problems and Effects of the Invention]
  In order to achieve the above object, the invention of claim 1 is a device for detecting a person's presence and position by extracting a person's head image from an image captured by an imaging device. Approximate the shape with a figure model surrounded by an outwardly convex curve, and based on the focal length of the lens of the imaging device, the detection distance from the imaging device to the person to be detected, and the standard size of the human head A standard size and a size range of the shape model are determined in advance by estimating a range of the contour size of the human head image to be determined, and density is determined at each point on the boundary curve of the shape model of the standard size. A gradient direction is defined, a representative point is defined inside the shape model, a voting unit corresponding to the standard size of the shape model is provided at the representative point, and a representative point is selected from points of interest on the boundary curve of the shape model. Defined as connecting line A voting unit that includes a voting unit corresponding to the size range before or after the representative point on the line of the representative point direction line, and prepares the voting template created by the boundary curve of the shape model of the standard size so that it can be referred to Corresponding to a template preparation unit, a captured image data storage unit that digitizes an image input from the imaging device and stores the digitized captured image in a memory, and a person's outline or facial contour with respect to the captured image A differential process for extracting an edge portion composed of pixels is performed, pixels having a predetermined differential intensity or higher are extracted as edge pixels, a density gradient direction is calculated from the captured image, and a density is determined for each extracted edge pixel. Edge image data generating means for generating an edge image to which gradient direction data is added and storing it in a memory, and each pixel of the captured image and the edge image A voting space generating means for generating a voting space having voting cells at positions corresponding to the positions and storing them in a memory; and a density gradient corresponding to the density gradient direction added to the edge pixel on each edge pixel of the edge image The points on the boundary curve of the voting template having a direction are overlapped, and at this time, the voting cells in the voting space corresponding to the pixel positions on the edge image where the voting part of the voting template is located are voted and stored in the memory For each edge pixel, and a voting processing means for counting the voting values of each cell in the voting space, and detecting and detecting a cell having a voting value equal to or higher than a predetermined threshold in the voting space where the voting is performed. And a human presence position detecting means for detecting a position on the captured image corresponding to the selected cell as a human head position.The voting template preparation means conjugates each point on the boundary curve having a density gradient direction opposite to the density gradient direction defined for each point on the boundary curve of the standard size shape model. Defined as a conjugate point, one of the points conjugate to each other maintains the same relative positional relationship as the voting unit inside the shape model, and the other of the points conjugated to each other further has a voting unit outside the shape model. PreparationIt is a person's presence position detection device.
[0007]
  In the above configuration, a voting template in which the position of a person is represented by the position of the person's head on the captured image, and the shape of the person's head is modeled with a simple figure, and the range of the detection distance is wide. The voting template, which is provided with a plurality of voting sections in the form of line segments, is used to perform voting processing for each edge pixel on the edge image obtained from the captured image, so that variations in head shape and size are absorbed. The head shape can be detected reliably. In addition, since each edge pixel of the edge image is provided with information on the density gradient direction, and voting is performed only to the voting unit determined by the density gradient direction of each edge pixel, so-called circle detection hough that detects a circular curve from the image. Perform voting in all directions, such as (Hough) conversionNaTherefore, the number of voting processes for human detection can be reduced, and the human head shape can be detected at high speed.In the above configuration, the voting template conjugate to each other is provided in the voting template so that the voting process can be performed simultaneously on the image in which the image density in the human head is inverted, so that the image density is inverted in one voting process. Voting can be performed for two types of human head images, and in addition to the above-described effects, more stable and reliable detection can be performed at high speed.
[0012]
  Claim2The invention of claim1In the human presence position detecting device described in the above, the voting processing means obtains the curvature of the contour composed of the edge pixel of interest and a plurality of edge pixels in the vicinity of each edge pixel of the edge image, and the center of curvature exists. A direction is determined, and when voting for the edge pixel of interest, the voting cell in the voting space corresponding to the voting part position in the direction in which the center of curvature exists is voted.
[0013]
In the above configuration, only the voting process on the side having the center of curvature is sufficient, so that the head of the person can be extracted more efficiently and the position of the person can be detected at high speed. Note that the calculation for obtaining the curvature of the necessary contour is only performed once at the beginning of the voting process.
[0014]
  Claim3The invention of claim1The voting template preparation means includes a voting unit in the vicinity of the representative point of the voting template and on both sides of the representative point direction line.
[0015]
In the above configuration, even if the concentration gradient direction near the edge fluctuates, voting units are also provided near both sides of the representative point. Therefore, voting to the voting unit having such a width absorbs fluctuations in voting positions. Thus, voting can be performed near the center of the shape model, and detection with high reliability can be performed.
[0016]
  Claim4The invention of claim1The voting template preparation means stores the relative position of the voting unit with respect to each point on the boundary curve of the shape model in a tabular format using the concentration gradient direction at each point as an index. To remember.
[0017]
In the above configuration, since the position of the voting part of the voting template is stored in the memory in a table format in advance, it is only necessary to obtain the voting position by referring to this table at the time of voting processing. Can be realized.
[0018]
  Claim5The invention of claim1The voting template preparation means stores the voting template data in advance for each distance from the imaging device to the person, and the voting processing means measures the distance to the detection target. The voting template is set by referring to the data of the voting template based on the distance measurement result of the distance sensor, and voted.
[0019]
In the above configuration, the distance from the imaging device to the person is obtained by the distance sensor, and the detection is performed by limiting the size of the head to be detected on the image, so that highly reliable detection can be performed at high speed. it can.
[0020]
  Claim6The invention of claim1In the human presence position detecting device according to the above, the human presence position detecting means, when the detected cell having a vote value greater than or equal to a predetermined threshold is divided into a plurality of chunks, the distance between the chunks If the distances are within a predetermined range, they are grouped and integrated, and the position on the captured image corresponding to the representative point of the integrated mass is detected as the human head position.
[0021]
In the above configuration, by integrating cells having voting values equal to or greater than a predetermined threshold, it is possible to detect a human head position accurately by detecting a shape model even when voting is dispersed. it can.
[0022]
  Claim7The invention of claim1In the human presence position detection device according to the above, the voting template preparation unit arbitrarily sets a plurality of detection distance ranges from the imaging device to the person to be detected, and the standard size and size of the shape model for each detection distance range Ranges and voting templates based thereon are prepared, the voting space generation means generates a voting space for each detection distance range, and the voting processing means detects a detection distance range for each voting template corresponding to each detection distance range. Performs the above voting process on the corresponding voting space, and when the person presence position detecting means detects a cell having a voting value equal to or larger than a predetermined threshold in the voting space corresponding to each detection distance range, Are made to correspond to those detection distance ranges.
[0023]
In the above configuration, among many human candidates in the perspective direction from the imaging apparatus, only the human candidates within a specific distance range can be selected and the detection process can be performed.
[0024]
  Claim8The invention of claim1In the human presence position detecting device described in the above, when the size range of the shape model is a predetermined value or more, the voting template preparation unit divides the human detection distance range so that the size range is a predetermined value or less. Each of the divided ranges has a standard size and a size range of the shape model and a voting template based thereon, and the voting space generation unit generates a voting space for each of the divided detection distance ranges, and the voting processing unit Performs the voting process on the voting space corresponding to the detection distance range for each vote template corresponding to each of the divided detection distance ranges, and the person presence position detecting means When a cell having a vote value equal to or greater than a predetermined threshold value is detected in the corresponding vote space, the person presence position is made to correspond to the detection distance range.
[0025]
In the above configuration, when the range where the person exists is wide in the perspective direction, the size range of the shape model is set to a predetermined value or less by dividing the range where the person exists, so only the head of a specific size Can be detected, and the detection accuracy can be increased by suppressing the occurrence of erroneous detection.
[0026]
  Claim9The invention of claim1In the human presence position detecting device described in the above, the voting template preparation unit approximates the human head shape with a plurality of shapes with different postures using the same shape model, and prepares a voting template for each shape of each posture. The voting space generating unit generates a voting space for each shape of the posture, and the voting processing unit performs voting processing on each cell on the voting space for each shape having a different posture.
[0027]
In the above configuration, since a plurality of shape models having different postures are prepared, it is possible to cope with the inclined heads with distinction, and highly accurate human detection can be performed.
[0028]
  Claim10The invention of claim1The voting template preparation means approximates the human head shape with a plurality of different shape model shapes, prepares a voting template for each shape model shape, and the voting space The generation unit generates a voting space for each shape of the shape model, and the voting processing unit performs voting processing on each cell on the voting space for each shape model.
[0029]
In the above configuration, since a plurality of shape models, voting templates and voting spaces corresponding to them are provided, people can be detected using different shape models, and various head shapes can be detected. .
[0030]
  Claim11The invention of claim1In the human presence position detecting device according to the above, the human presence position detecting unit is configured to project an image having a size of a projection image obtained by projecting a shape modeling a head on the head position on the detected captured image. It is what is cut out.
[0031]
In the above configuration, since the head image is cut out for each head size on the captured image, a cut-out head image having an appropriate size with a small area of an unnecessary background portion can be obtained.
[0032]
  Claim12The invention of claim11In the human presence position detecting device described above, the human presence position detecting means compares the clipped image with head data that is classified and stored in advance for each head orientation, thereby determining the head orientation. Identify and detect.
[0033]
In the above configuration, since the detected head image can be recognized for each head orientation, the head orientation can be known together with the head orientation.
[0034]
  Claim13The invention of claimTo 12In the human presence position detection apparatus described above, the human presence position detection unit divides the cut-out image into a plurality of predetermined small images when a plurality of candidates are output as the head orientation. The orientation of the head is determined based on the difference in density distribution between the small images.
[0035]
In the above configuration, since the density distribution of the extracted head image can be examined in more detail, the orientation of the head can be determined with high accuracy.
[0036]
  Claim14The invention of claim7In the human presence position detecting device described above, the human presence position detecting means is configured to determine a center position of a human detection distance range corresponding to the voting space used for detecting the head position of the person as a distance from the imaging device to the person. It is estimated.
[0037]
In the above configuration, not only the detection of the position of the person in the captured image but also the distance from the imaging apparatus to the person in the real world can be estimated.
[0038]
  Claim15The invention of claim7In the human presence position detection device described above, the human presence position detection means obtains a human presence position direction with respect to the imaging device based on the detected position of the head on the captured image and the focal length of the imaging device, and the human head The center position of the human detection distance range corresponding to the voting space used for position detection is estimated as the distance from the imaging apparatus to the person, and the position of the person relative to the imaging apparatus is obtained from the direction of the person and the distance to the person. Is.
[0039]
In the above configuration, not only the detection of the position of the person in the captured image but also the distance from the imaging apparatus to the person and the direction in the real world can be known.
[0040]
  Claim16The invention of claim7Or claims14In the human presence position detecting device described in the above, the human presence position detecting unit divides the space in the line-of-sight direction of the imaging device into predetermined zones from the imaging device, and the previous presence state of each person in each zone Compare the detection result with the current detection result, and if the zone to which the currently detected person belongs is closer to the zone to which the previously detected person belongs, determine that the person is approaching, If the zone to which the previously detected person belongs is farther than the zone to which the previously detected person belongs, it is determined that the person is moving away, and if the zone to which the currently detected person belongs and the zone to which the previously detected person belongs are the same, the person is stopped It is determined.
[0041]
In the above-described configuration, the movement of the person whether the person is approaching or moving away from the imaging device by dividing the zone at a predetermined distance from the imaging device and comparing the presence or absence of the person in each zone Can know.
[0042]
  Claim17The invention of claimTo 15In the human presence position detection device described above, the human presence position detection means creates a human presence map in which the space in the line-of-sight direction of the imaging device is divided into a plurality of areas based on the imaging device position, A person's location is detected by classifying an area where a person is detected, an unconfirmed area, and an area where no person is present.
[0043]
In the above configuration, a human presence map is created, and it is possible to know the existence of a person from the imaging device by distinguishing the area where the person was detected in the real world, the unconfirmed area, and the area where there is no person. It can be applied to the control of autonomous mobile devices that perform advanced mobility control.
[0044]
  Claim18The invention of claimTo 15In the human presence position detection device described above, the human presence position detection unit detects a person by creating a human presence map in which a space in the line-of-sight direction of the imaging device is divided into a plurality of areas based on the imaging device position. Register the position at the corresponding position on the map, store the cut-out image of the detected person's head in association with the detected position, compare the previous detection point map with the current map, The current person detected within a movable range from the detection position of the person of interest at the time of detection and its detection position are used as candidates for association. If there are multiple attachment candidates, calculate the image correlation between the extracted image of the head stored in association with the detection position of the person at the time of the previous detection and the extracted image of the person's head that is the matching candidate And correlation It is to track the human and detecting the position of the highest correlation candidate as a correct correspondence.
[0045]
In the above configuration, since the detected person is identified and tracked, the movement of the person can be accurately known.
[0046]
  Claim19In the method of detecting the presence and position of a person by extracting a person's head image from a captured image captured by an imaging device, the shape of the person's head image is surrounded by an outwardly convex curve The contour of the human head image, which is approximated by the shape model of the figure, and determined based on the focal length of the lens of the imaging device, the detection distance from the imaging device to the person to be detected, and the standard size of the human head A standard size and a size range of the shape model are determined in advance, a concentration gradient direction is defined at each point on the boundary curve of the shape model of the standard size, and the shape model A representative point direction line defined as a line connecting a representative point to a point of interest on a boundary curve of the shape model, with a representative point defined inside, a voting unit corresponding to the standard size of the shape model at the representative point On the line A voting template preparation process that includes a voting unit corresponding to the size range before or after the representative point and prepares a voting template created by a boundary curve of the shape model of the standard size so that it can be referred to, and input from the imaging device , A captured image data storage process for storing the digitized captured image in a memory, and a differential process for extracting an edge portion composed of pixels corresponding to a contour of a person, a contour of a face, and the like on the captured image, Edge image data generation that extracts pixels having a predetermined differential intensity or more as edge pixels, calculates a density gradient direction from the captured image, and generates an edge image with density gradient direction data added to each extracted edge pixel And a voting space having voting cells at positions corresponding to the pixel positions of the captured image and the edge image. A voting space generation process to be performed, and a point on the boundary curve of the voting template having a density gradient direction corresponding to the density gradient direction added to the edge pixel is superimposed on each edge pixel of the edge image. The voting cells in the voting space corresponding to the pixel positions on the edge image where the voting part of the template is located are voted and stored in the memory for each edge pixel, and the voting values of each cell in the voting space are totaled Voting process to be performed and a cell having a voting value equal to or higher than a predetermined threshold in the voting space where the voting is performed, and a position on the captured image corresponding to the detected cell is detected as a human head position. Human location detection processIn the voting template preparation process, for each point on the boundary curve of the shape model of the standard size, the points on the boundary curve having a concentration gradient direction opposite to the concentration gradient direction defined for the point are conjugated with each other. Defined as a conjugate point, one of the points conjugate to each other maintains the same relative positional relationship as the voting unit inside the shape model, and the other of the points conjugated to each other further has a voting unit outside the shape model. Prepare the voting template created by the boundary curve of the standard size shape model so that it can be referred toThis is a human location detection method.
[0047]
  In the above detection method, the person's position is represented by the position of the person's head, and a simple figure shape model surrounded by an outwardly convex curve such as a circle or an ellipse is used as the person's head model, so-called Hough transform Since the person's head is detected by the above, the presence position of the person can be detected by a simple voting process. In addition, the Hough transform voting process is performed only on both sides of the edge pixel based on the density gradient direction of the target edge pixel without performing it in all directions of the target edge pixel. Processing can be realized. In addition, since a voting template that uses only the size of the head of a person within a specific detection distance range from the imaging device as a detection target is used, the detection distance can be estimated and the human head highly reliable on the captured image Detection can be performed.Further, in the above detection method, the voting template conjugate to each other is provided in the voting template so that voting processing can be simultaneously performed on an image in which the image density in the human head is inverted, so that the image density is inverted by a single voting process. In addition to the above-described effects, more stable and reliable detection can be performed at high speed.
[0048]
  Claim20The invention of claim15To claims17It is an autonomous mobile device which controls movement using the position information of the person detected using the person presence position detecting apparatus described in any of the above.
[0049]
In the above configuration, the imaging device is mounted on the autonomous mobile device, the person is detected using the human presence position detection device, the position of the person around the autonomous mobile device is recognized, and the autonomous mobile device is moved. Therefore, it is possible to realize an operation of avoiding a person by adapting to the presence of the person and a retreating operation of giving up a passage to the person.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a human presence position detection device, a detection method thereof, and an autonomous mobile device using the detection device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a block configuration of a human presence position detection apparatus. The human presence position detection device performs image processing on an image captured by the imaging device 2 in the human presence position detection device main body 1 and detects a human presence and its position by extracting a human head image. The result is output to the outside as an alarm sound using, for example, the alarm generation means 9. A method applying generalized Hough transform is used as a method for extracting a human head image.
[0051]
An outline of the human presence position detection process will be described. The image input from the imaging device 2 is stored in the memory as a captured image that is A / D converted from an analog image to a digital image in the captured image data storage unit 3. Next, in the edge image data generation means 4, the captured image is differentiated with respect to the image density, a point having a differential intensity value equal to or greater than a predetermined threshold is extracted as an edge pixel, and an edge image composed of the extracted edge pixels is obtained. Generated. The generated edge image is stored in the memory with the data of the density gradient direction at each edge pixel point added.
[0052]
Subsequently, the voting processing means 5 uses a voting template for each detection distance prepared by the voting template preparation means 6 and applies a generalized Hough transform to the voting space prepared by the voting space generation means 7. The vote is performed. Next, in the human presence position detecting means 8, a cell having a vote value equal to or greater than a predetermined threshold is detected for each voting space corresponding to each detection distance range, and a captured image corresponding to the detected cell position is detected. The presence of the human head is detected at the upper position. The person presence position detecting means 8 determines the center distance value of the detection distance range (zone) corresponding to the voting space in which the person's head is detected as the distance from the imaging device to the person, and the zone number is determined. Output to the alarm generation means 9. The alarm sound generating means 9 selects an alarm sound corresponding to each zone number and generates an alarm sound.
[0053]
Such a human presence position detecting device can be used as an area sensor, for example. FIG. 2 shows the concept of the area sensor. The imaging area AR in front of the visual field of the imaging device 2 of the human presence position detection device is divided into a plurality of detection zones ZN1, ZN2, and ZN3 by distances L1 to L4 from the reference point O of the imaging device 2. The operation as an area sensor when a person is detected is set for each zone. For example, as an operation based on the distance and urgency for each zone, a strong warning sound is generated in the first zone ZN1, a medium warning sound is generated in the second zone ZN2, and a weak warning sound is generated in the third zone ZN3. it can. Hereinafter, each constituent unit of the human presence position detection device will be described.
[0054]
(Captured image data storage means and edge image data generation means)
Processing in the captured image data storage unit 3 and the edge image data generation unit 4 will be described with reference to FIGS. FIG. 3 shows a processing flow of the captured image data storage means 3. An analog signal of an image captured by the imaging device 2 is A / D converted, and a captured image P0 is created (S101) and stored in a memory (S102). FIG. 4A shows an example of the captured image P0.
[0055]
Further, the edge image data generation means 4 performs a differentiation process on the captured image P0, and an edge image P1 shown in FIG. 4B is obtained. FIG. 5 shows a flow of edge image generation. The differentiation step (S201) will be described. The captured image P0 is a grayscale image. The differentiation process for extracting the edge portion composed of pixels corresponding to the outline of the person, the contour of the face, etc. from this grayscale image is based on the idea that “the edge corresponds to the portion where the density change is large”. . As shown in FIG. 6, the differentiation process is performed by scanning the captured image P0 in the horizontal direction x and the vertical direction y, respectively, by a 3 × 3 pixel local parallel window W33. As shown in FIG. 7A, the local parallel window W33 includes a pixel I (i, j) = a5 of interest, and eight pixels (near 8) a1 to a4 and a6 to a9 around the pixel a5. Composed. An x-direction differential value Gx (i, j) is calculated by applying the x-direction differential operator OPx shown in FIG. 7B to each pixel a1 to a9 in the local parallel window W, and FIG. The y-direction differential value Gy (i, j) is calculated by operating the y-direction differential operator OPy shown in FIG. The calculation formula is as follows. However, in the following, the arguments i and j are partially omitted.
Gx = a3 + 2 * a6 + a9-a1-2 * a4-a7
Gy = a1 + 2 × a2 + a3-a7-2 × a8-a9
Based on these, the differential intensity value J (i, j) and the concentration gradient direction Ψ (i, j) are obtained by the following equation.
J = sqr (Gx × Gx + Gy × Gy)
Ψ = arctan (Gy / Gx)
Here, sqr is a square root operation, and arctan is an arc tangent. The concentration gradient direction ψ when Gx or Gy is 0 is ψ = 90 ° when Gx = 0, Gy> 0, ψ = 270 ° when Gx = 0, Gy <0, Gy = 0, Gx> When 0, ψ = 0 °, Gy = 0, and when Gx <0, ψ = 180 °. The above processing is performed in the differentiation step (S201).
[0056]
Subsequently, the differential intensity value J (i, j) in each pixel is compared with a predetermined threshold value, and a pixel I (i, j) having a differential intensity value greater than or equal to the predetermined threshold value is extracted as an edge pixel. (Yes in S202). The density gradient direction Ψ (i, j) data is stored at the edge pixel position on the memory (S203). After differential processing is performed on all the pixels of the captured image P0 (Yes in S204), the edge image P1 is stored in the memory (S205).
[0057]
(Voting template preparation means)
Processing in the voting template preparation means 6 will be described with reference to FIGS. FIG. 8 shows a shape model of the human head. In order to detect the human head image in the captured image, and to detect the presence and position of the person in the captured image, the shape model of the figure surrounded by an outwardly convex curve Approximate. For example, the triangular shape T1 in FIG. 8A, the square shape T2 in FIG. 8B, the elliptic shape T3 in FIG. 8C, and the circular shape T4 in FIG. 8D are used as the shape models. Inside each convex shape model, for example, a representative point G is defined at the center of gravity of the figure.
[0058]
The sizes of these shape models will be described. FIG. 9 shows the dimensional relationship between the real person and the person in the image. Based on the focal length f of the lens of the imaging device, the detection distance L from the imaging device to the person to be detected, and the standard size of the human head in the real world (head width D and head height H), The size (head width d and head height h) of the head image of the person in the captured image is determined. The standard size and size range of the shape model are determined in advance in consideration of the size range and the width of the detection distance L to the standard size of the human head in the real world.
[0059]
The voting template created from the shape model will be described. 10A and 10B show voting templates based on the triangular shape model T1. As shown in FIG. 10A, each point on the boundary curve constituting the standard size shape model T10 is, for example, a direction (normal direction) orthogonal to the tangential direction at each point, and the inside of the shape model. A density gradient direction vector N is defined in the direction (inner side surrounded by the convex curve). The density gradient direction vector N is specified by, for example, the density gradient direction Ψ with reference to the horizontal direction x on the image. In addition, a voting unit Vp0 corresponding to the standard size of the shape model is provided at the representative point G defined inside the shape model. Also, as shown in FIG. 10B, the representative point direction line r defined as a line connecting the representative point to the point of interest on the boundary curve of the shape model, and before or after the representative point G Voting units Vp1 and Vp2 corresponding to the size range are provided. These voting units Vp1 and Vp2 are voting units that can simultaneously vote for a smaller shape model T11 and a larger shape model T12 than a standard size shape model T10, and absorb fluctuations from the standard size range. is there. In this manner, a voting template having a shape model having a concentration gradient direction Ψ and voting units Vp0, Vp1, and Vp2 is created for each standard shape model and prepared so that it can be referred to the memory. If the size range of the shape model is large, a larger number of such voting units can be provided on the representative point direction line r as necessary.
[0060]
A voting template corresponding to an image that is light and dark is described. 11 and 12 show voting templates when the image density of the human head is reversed. As will be described later, the voting template is used by referring to the density gradient direction at the pixel points of the edge image and the density gradient direction of the voting template. As shown in FIG. 11A, the density gradient direction vector N is directed from an image part having a low density level, that is, a dark image part A2, to an image part having a high density level, that is, a bright image part A1, at each edge pixel px of the edge image. Defined as vector N. By the way, depending on the lighting condition when the human head image is captured, there are cases where the density gradient direction with respect to the human head is inward of the head and outward of the head. For example, when the head is bright with respect to the background (imaging mode p), the density gradient direction vectors N1 and N2 are inward as shown in FIG. 11B, and when the head is dark with respect to the background (imaging mode). q), the density gradient direction vector N is outward as shown in FIG.
[0061]
The efficiency of human head detection can be increased by providing a voting unit so that it can cope with such two types of head images. The method will be described. For each point on the boundary curve of the standard size shape model, for example, the density gradient direction vector N2 opposite to the concentration gradient direction vector N1 defined at the point P on the shape model Tp in FIG. Another point Q on the boundary curve is defined as a conjugate point conjugate to each other. Then, one point Q of the conjugate points maintains the same relative positional relationship as the voting unit Vp2 included in the shape model, and the other point P of the mutually conjugate points is further outside the shape model Tp. Be prepared. FIG. 12 shows a voting template having a voting unit corresponding to an image that has been inverted in this way. The density gradient directions ψ and Φ correspond to the density gradient directions of the voting template for the imaging modes p and q, respectively. Vp1 and Vp2 in FIG. 11B correspond to Vp and Vq in FIG.
[0062]
A description will be given of how to deal with fluctuations in the concentration gradient direction. FIG. 13 shows a voting template having a two-dimensional voting unit. Since the voting template is used by referring to the density gradient direction at the pixel point of the edge image and the density gradient direction of the voting template, the original grading direction of the edge pixel is assumed from the head contour in the head image. When a deviation from the concentration gradient direction occurs, a highly reliable detection can be performed by providing a voting unit that absorbs the deviation. As such a voting unit, as shown in FIG. 13A, a voting unit is further provided near the representative point of the voting template and on both sides of the representative point direction line r. In the example shown in the figure, for each point on the boundary curve of the shape model, nine voting parts Vp0 to Vp8 are provided inside the shape model, and nine voting parts Vq0 to Vq8 are provided outside the shape model. FIG. 13B shows how the added voting unit absorbs fluctuations in the concentration gradient direction.
[0063]
The voting template table will be described. FIG. 14 shows the coordinates of the voting unit, and FIGS. 15 and 16 show voting template tables. A voting template table is prepared to facilitate comparison reference between the density gradient direction of the voting template and the density gradient direction at the pixel points of the edge image. As shown in FIGS. 14A and 14B, the voting template table indicates the relative positions Δxp, Δyp, Δxq, Δyq (argument omitted) of the voting parts Vp, Vq with respect to each point on the boundary curve of the shape model. The density gradient directions Ψ and Φ at the points are stored as an index in a memory in a tabular format.
[0064]
Next, types of shape models and voting templates based on these shape models will be described. FIG. 17 shows examples of types of shape models used in the present invention. As the types of shape models, in addition to the shape types T1 to T4 described above, standard sizes for the zones ZN1, ZN2, and ZN3 of each detection distance range, and shape models with left and right tilts with tilted heads are used. . The voting template preparation unit arbitrarily sets a plurality of detection distance ranges from the imaging device to the person to be detected, and prepares a standard size and size range of the shape model for each detection distance range and a voting template based on these. The voting space generating means generates a voting space for each detection distance range, and the voting processing means performs the voting process for the voting space corresponding to the detection distance range for each voting template corresponding to each detection distance range. Further, when the person presence position detecting means detects cells having a vote value equal to or larger than a predetermined threshold in the voting space corresponding to each detection distance range, the person presence position is made to correspond to the detection distance range. Only a person within a specific distance range from the imaging device can be selected and detected from many people.
[0065]
In addition, when the size range of the shape model is equal to or larger than the predetermined value, the voting template preparation unit divides the human detection distance range so that the size range is equal to or smaller than the predetermined value (in the above description, the total divided range is 3 The standard size and size range of the shape model and a voting template based on these are prepared for each of the divided ranges, and the voting space generation means generates a voting space for each of the divided detection distance ranges. The voting processing means performs the voting process on the voting space corresponding to the detection distance range for each voting template corresponding to each of the divided detection distance ranges. If the range to detect people is wide and the size range becomes large, the voting part of the voting template becomes longer corresponding to the size range of the shape model, and an error in creating a cell with a high false voting value due to incorrect voting The possibility of occurrence of detection increases. By dividing the range in which a person exists and setting the size range of the shape model to a predetermined value or less, only a head having a specific size can be detected, and the detection accuracy can be increased.
[0066]
The voting template preparation means approximates a human head shape with a plurality of shapes having the same shape model and different postures. A voting template is prepared for each shape, the voting space generating unit generates a voting space for each shape of each posture, and the voting processing unit performs voting processing on each cell on the voting space for each shape having a different posture. . Since detection is performed for each shape model having a different posture, a tilted head can also be detected.
[0067]
Further, the voting template preparation means approximates a human head shape with a plurality of different shape model shapes, prepares a voting template for each shape model shape, and the voting space generation means for each shape model shape. The voting space is generated for each cell on the voting space for each of the shape models. Since detection is performed using different shape models, various head shapes can be detected.
[0068]
(Voting space generating means and voting processing means)
The relationship between the voting space and its generation and the captured image / edge image will be described. FIG. 18 shows the relationship between the coordinates of edge pixels and voting cells. As shown in FIG. 18, the voting space generating means generates a voting space P2 having a voting cell VC at a position corresponding to each pixel position of the captured image P0 and the edge image P1, and stores it in the memory. A plurality of voting spaces P2 are generated according to the types of voting templates.
[0069]
The voting and counting process will be described. The voting processing means superimposes a point on the boundary curve of the voting template having a density gradient direction vector N2 corresponding to the density gradient direction vector N1 added to the edge pixel on each edge pixel on the edge image P1. When voting cells Vp and Vq in the voting space P2 corresponding to the pixel position on the edge image P1 where the voting part of the voting template is located are voted and stored in the memory, these are performed for each edge pixel and voted. The voting value of each cell in the space is aggregated. FIG. 19 shows the distribution of voting values in a voting space that is voted and aggregated. When a plurality of types of voting templates are used, the voting processing means performs these voting and counting processes on the voting space provided for each voting template.
[0070]
The use of the curvature formed by the edge pixel row at the time of voting will be described. FIG. 20 shows the relationship between the curvature center direction and the voting part. For each edge pixel of the edge image, the voting processing means determines the direction ρ in which the center of curvature exists by obtaining the curvature of the contour composed of the edge pixel px of interest and a plurality of edge pixels in the vicinity thereof, and the edge pixel px of interest When voting for voting, the voting cell in the voting space corresponding to the position of the voting part V in the direction ρ where the center of curvature exists is voted. Since the center of curvature of the contour composed of edge pixels generated from the contour of the human image faces the head image center direction regardless of the density mode of the human head image, the voting process can be performed only on one effective side.
[0071]
(Person presence detection means and alarm sound generation means)
The determination of the person presence zone will be described. FIG. 21 shows a voting space for each zone where voting is performed, and FIG. 22 shows a relationship between human detection in the voting space and a zone in the real space. The human presence position detecting means detects a cell having a voting value equal to or larger than a predetermined threshold in the voting spaces P21, P22, and P23 where voting is performed, and determines the position on the captured image corresponding to the detected cell. Detect as head position. In the case of FIG. 21, it is assumed that the cell C5 in the voting space P22 indicates a human head, and the coordinates x2 and y2 are also the position coordinates on the captured image. The human head detected in the captured image, and thus the presence position of the detected person in the real world, depends on the division of the detection distance range shown in FIG. 22 when the human head image is detected in the voting space P22. The second zone is ZN2. In this case, the average value of the zone boundary distances L2 and L3 (the center position of the detection distance range) LZ2 = (L2 + L3) / 2 is used as the distance from the imaging device to the person.
[0072]
A case will be described in which voted cells having vote values greater than or equal to a predetermined value are distributed within a specific range. FIG. 23 shows a case where a hill of vote values has a plurality of ridges. When the cell C6 having a vote value equal to or more than a predetermined threshold value detected as shown in the figure is divided into lumps having a plurality of folds, the human presence position detecting means examines the distance between the lumps, When the distance is within a predetermined range, the whole is grouped and integrated into one, and the position (x3, y3) on the captured image corresponding to the representative point of the integrated lump is detected as the human head position. To do. By integrating cells having voting values equal to or greater than a predetermined threshold value, it is possible to accurately detect a contour model and accurately detect a human head position even when voting is dispersed.
[0073]
The human presence position detecting means detects a cell having a voting value equal to or greater than a predetermined threshold value for each voting space of the voting space provided for each divided detection range, and an image corresponding to the detected cell. The upper position is detected as a human head candidate position. Thereafter, the human presence position detecting means examines the distance between the head candidate positions detected in the voting space for each of the divided detection ranges, and if the distance is within the predetermined range, it is grouped and integrated. The position on the image corresponding to the representative point of the integrated head candidate is set as the human head position. By integrating the results obtained for each detection range, highly reliable detection can be performed.
[0074]
The human presence position detection means processes the detection processing of the human presence position in the order of the detection range farther from the detection range closer to the imaging device, and when the human head position is detected, the detected captured image is detected. A predetermined range around the upper position may be stored as a detection end region, and when the detection range far from the imaging apparatus is processed, the detection end region may not be detected. When the head is detected by performing the processing of the detection distance range on the side closer to the imaging device, the head is projected greatly on the captured image, in that part of the captured image, Since it is behind the detected image, there is no possibility of human detection. By stopping detection, the processing amount can be reduced and high-speed processing can be realized.
[0075]
The detection distance range and alarm sound generation will be described. FIG. 24 shows a processing flow of the alarm sound generating means. The warning sound generating means operates based on the distance and urgency for each zone, and is a weak warning sound (S302) in the third zone ZN3, a medium warning sound (S304) in the second zone ZN2, and in the first zone ZN1. A strong warning sound is generated (S306).
[0076]
(Person presence detection device that uses a distance sensor)
A combination of the distance sensor and the human presence position detection device will be described. FIG. 25 shows a block configuration of the detection apparatus. A more efficient operation can be realized by using a distance sensor in combination with a human presence position detection device. The distance to the object is measured by the distance sensor 10 arranged in the vicinity of the imaging device 2, for example, vertically above the imaging device 2. Based on the measurement result, the zone selection means 11 selects a detection distance range from the zones ZN1, ZN2, and ZN3, and determines the size of the head image. Using a voting template corresponding to the determined head image size, a voting space is generated only for the selected zone, and subsequent processes such as voting are advanced. The number of person presence position detection processes by voting usually requires (number of zones) x (number of head shapes) x (number of head postures) times, but by using a distance sensor, (number of head shapes) X (the number of head postures) times, and the number of processes can be reduced to 1 / (number of zones). In order to perform such processing, the voting template preparation means stores the voting template data in advance for each distance from the imaging device to the person, and the voting processing means measures the distance of the distance sensor that measures the distance to the detection target. Based on the measurement result, refer to the data of the voting template to set a voting template and vote. Since the distance from the imaging device to the person is obtained by a distance sensor and detection is performed by limiting the size of the head detected on the image, highly reliable detection can be performed.
[0077]
(Movement control of autonomous mobile devices)
An application of the human presence position detection device to the autonomous mobile device will be described. FIG. 26 is an external view of the autonomous mobile device, and FIG. 27 shows a block configuration thereof. The autonomous mobile device 12 detects obstacles and people M1, M2 and M3, and controls the movement of the obstacles and people while avoiding / stopping and generating alarm sounds. It is a device that performs the pulling. The autonomous mobile device 12 includes an imaging device 2a and a human presence position detection device main body 1a in the front, and an imaging device 2b and a human presence position detection device main body 1b in the rear. Outputs of human detection results from the front and rear human presence position detection device main bodies 1a and 1b are transmitted to the travel route planning unit 101 and the wheel drive control unit 102, and the drive motor 104 is driven by the motor driver 103. Autonomous movement is performed. Further, the rotation speed of the drive motor 104 is measured by the encoder 105, and the travel distance and travel speed are obtained by the travel distance measurement unit 106 and fed back to the wheel drive control unit 102.
[0078]
(Detection of human presence direction)
Determining the presence direction of the detected person will be described. FIG. 28 shows the determination method. The human presence position detection means obtains an angle φ = arctan (b / f) in the human presence position direction with respect to the imaging device 2 from the detected head position b on the captured image and the focal length f of the imaging device. The central position of the person's detection distance range corresponding to the voting space (the shape model size is determined by the distance, the voting template and the corresponding voting space are determined) used for detecting the human head position, for example, For the detected third zone ZN3, LZ3 = (L3 + L4) / 2 is estimated as the distance from the imaging device to the person. Thus, the position of the person relative to the imaging device in the real world can be obtained from the direction (angle φ) of the person M and the distance to the person (distance LZ3).
[0079]
(People presence map, human approach / distraction, and tracking)
Human movement detection between zones (person detection distance range) will be described. FIG. 29 shows an example of the passage of time of the person presence position. The human presence position detection means divides the space in the line-of-sight direction of the imaging device into a third zone ZN3 at a long distance, a second zone ZN2 at a middle distance, and a first zone ZN1 at a short distance at a predetermined distance from the imaging device. Then, the detection result at the previous detection time t = T (−1), the detection result at the next detection time t = T (0), and the subsequent detection time t = T ( As in +1), the movement of the person in the real world is determined by comparing the position of the person in time series. In the example shown in FIG. 29, it is determined that the person is approaching because the zone ZN1 to which the currently detected person belongs is closer to the zone ZN2 to which the previously detected person belongs. Further, since the zone ZN2 to which the person detected at the subsequent time t = T (+1) belongs is a farther zone than the zone ZN1 to which the currently detected person belongs, it is determined that the person is moving away. Further, when the zone to which the currently detected person belongs and the zone to which the previously detected person belongs are the same, it is determined that the person is stopped. The identification of the detected person's identity, so-called tracking will be described later.
[0080]
Explain the human presence map in the real world. FIG. 30 shows the meaning of the person presence map. The human presence position detection means creates a human presence map 30 in which the space in the line-of-sight direction of the imaging device 2 is divided into a plurality of, for example, 15 × 9 areas based on the position of the imaging device 2, The presence position of the person is detected by classifying the area 31 where the person is detected, the area 32 where no person is present, and the unconfirmed area 33. Such a person presence map 30 can be applied to advanced movement control that does not collide with a person in the real world, for example, when controlling an autonomous mobile device.
[0081]
The tracking of a person using a person presence map will be described. FIG. 31 shows a person tracking method. The person presence position detecting means creates the person presence map 30 as described above, registers the position where the person is detected in the corresponding positions E1, E2, E3 on the person presence map 30, and detects the head of the detected person. The extracted image is stored in association with the detection position (the extracted image will be described later). Then, the map of the previous detection time t = T (−1) is compared with the map of the next detection time t = T (0), and the detection positions E1, E2, E3 of the person of interest at the previous detection time are respectively compared. Are detected within the movable ranges AR1, AR2, AR3 and their detected positions F1, F2, F3 as candidates for association. When there is one association candidate such as the position E1 and the position F1, the association candidates are tracked. When there are a plurality of association candidates such as positions F2 and F3 with respect to the position E2 and positions F2 and F3 with respect to the position E3, a cut-out image of the head stored in association with the detection position of the person at the previous detection time point, The image correlation with the cut-out image of the person's head as the candidate for association is calculated, and the person with the highest degree of correlation and the detected position are tracked as correct association.
[0082]
(Verification of the head image of the detected position)
A description will be given of the extraction of the detected human head image from the captured image. FIG. 32 shows the extraction of the head image. The human presence position detecting means cuts out an image having a size (head width d, head height h) of a projection image obtained by projecting a shape modeling the head on the detected head position on the captured image P0. . The clipped image 40 is normalized by brightness and size, compared with head / non-head data stored in advance, and the detection of the head is verified. The sizes d and h of the projected image are obtained as follows. The human presence position detecting means detects a cell having a voting value equal to or greater than a predetermined threshold value for each voting space corresponding to each detection distance range, and determines the position on the captured image P0 corresponding to the detected cell. Detect as head position candidate. The center position of the detection distance range corresponding to the voting space in which the human head candidate is detected is output as the distance from the imaging device to the human candidate, and the zone number is output as the number of the zone where the human candidate exists. For example, as shown in FIG. 2 above, when there are human candidates in the third zone ZN3, the detection range of the human candidates is L3 on the side closer to the imaging device and L4 on the far side, and accordingly, from the imaging device to the human candidate. Is set to LZ3 = (L3 + L4) / 2. The head image size is d = f · D / LZ3 and h = f · H / LZ3. Here, D and H are standard head sizes of the shape model used for detection.
[0083]
(Pattern recognition)
The pattern matching between the head standard image and the cut-out image will be described. FIG. 33 shows a head pattern space, and FIG. 34 shows a pattern recognition flow of a head image. By performing pattern recognition of the head image, it is possible to determine the identity of the detected person and to track the movement of that person. In addition, error detection can be prevented. Pattern recognition of the head image is performed by comparing the head image with the head pattern partial space HS0 in the n-dimensional pattern space that has been learned and stored in advance in the memory shown in FIG. First, a voting space corresponding to the detection distance range of the zone number m in the imaging area AR is selected as a processing target (S401). If the voting cell in the voting space does not have a voting value greater than or equal to a predetermined threshold, the process proceeds to evaluation of the next cell (No in S402), and if there is a voting value greater than or equal to the predetermined threshold, a human candidate is detected in that cell As a result, the distance LZm = (L (m + 1) + L (m)) / 2 in the real world to the human candidate is calculated (S403). Next, the head image size, width d = f · D / LZm, and height h = f · H / LZm are calculated (S404). A head image is cut out from the captured image with the obtained head image sizes d and h (S405).
[0084]
Subsequently, normalization is performed to transfer the cut out head image to the n-dimensional pattern space. In the normalization, the head standard image size dn, hn whose image size is determined in advance, and the density average value Av and the density average value Av and density of the pixels in the head standard image size whose density dispersion value is determined in advance for the image density. The distribution value Var is set (S406). An n (n = dn × hn) -dimensional vector is created using the values of the pixels of the normalized head image as vector elements, and this is set as a normalized head image vector Vhn (S407). Next, the position occupied by the normalized head image vector Vhn in the n-dimensional pattern space is examined (S408), and an n-dimensional image is obtained using a number of known normalized head images and non-head images in advance. It is checked whether or not the normalized head image vector Vhn is included in the head pattern partial space among the partial spaces provided in the vector space (S409). If the normalized head image vector Vhn is included in the head pattern subspace (Yes in S409), the clipped image is determined to be a human head image (S410), and the head image position LZm is output ( S411). If the normalized head image vector Vhn is not included in the head pattern subspace (No in S409), it is determined that the cut-out image is not a human head image (S412). After the above processing is performed for all cells (S413), the processing of the voting space corresponding to the next zone number (m + 1) is performed (S414). Note that steps S403 and S404 may be processed only once immediately after step S401.
[0085]
(Average value, variance value)
The determination using the density average value and the variance value of the head image will be described. FIG. 35 shows a flow of the same determination. The average value Avx and variance value Varx of the clipped head image are compared with the average value Av and variance value Var of a known head image calculated in advance (S501). The average value Avx and variance value Varx of the clipped head image are within a predetermined allowable range α, β, that is,
Av−α <Avx <Av + α
Var−β <Varx <Var + β
In this case, it is determined that the clipped image is a head image (Yes in S502, S503). In this way, the average value / dispersion value of the brightness of the clipped image is obtained, and by comparing the average value / dispersion value with a preset average value / dispersion value threshold, By verifying the detection, a highly reliable head position can be detected.
[0086]
(Skin color)
The determination using the skin color of the head image will be described. FIG. 36 shows a flow of the same determination. As another verification method, the ratio Sx of the skin color pixels in the cut-out image is compared with the ratio Sk of the skin color pixels in the face image facing forward, which is obtained in advance (S61). The skin color pixel ratio Sx is within a predetermined shared range γ, that is,
Sk-γ <Sx <Sk + γ
At this time, it is determined that the clipped image is a head image facing the front (Yes in S602, S603). As described above, the head position can be detected with high reliability by verifying whether or not the detected head image is the head using the ratio of the skin color included in the clipped image.
[0087]
(Head direction detection)
The detection of a head that is not a front-facing head using the head pattern space will be described. FIG. 37 shows the head pattern space. As described above, an n (n = dn × hn) -dimensional vector is created using the values of each pixel of the normalized head image as vector elements, and this is defined as a normalized head image vector Vhn. Using a number of known normalized frontal head images, leftward head images, rightward head images, and non-head images in advance, the frontal head pattern subspace HS0, leftward heads in an n-dimensional vector space The sub-pattern subspace HSL and the right-facing head pattern subspace HSR are learned, and when a human head is detected, whether or not the normalized head image vector Vhn falls within any head pattern space. Then, it is verified whether or not the cut out head image is surely a human head, and the orientation of the head is identified. When it is verified that the head is a human head, the head position on the captured image is output as the position of the person on the captured image, and the head orientation is also output.
[0088]
(Determining head orientation)
The determination of the head orientation using the head pattern space will be described. FIG. 38 shows an example of a head pattern space, and FIG. 39 shows an example of a head image. When a plurality of candidates are output as the head direction, the human presence position detection unit divides the cut image into a plurality of predetermined small images, and the difference in density distribution between the divided small images Determine head orientation. As shown in FIG. 38, the head pattern partial spaces HS0, HSL, HSR for each head orientation described above overlap, and further, the normalized head image vector Vhn exists in the overlapping space. May be simultaneously output as head orientation candidates. In order to identify the correct head orientation even in such a case, as shown in FIG. 39A, a dividing line 41 is drawn at the center of the cut-out head image 40, and regions 42 on both sides of the dividing line. For 43, the ratio of the sum of the densities in each region is compared. The sum of the density on the left side of the dividing line is SL, the sum of the density on the right side is SR, and the determination thresholds are th1 and th2.
If th1 ≦ SL / SR, turn right
When th2 <SL / SR <th1, facing front
If SL / SR ≦ th2, turn left
The head orientation is determined as.
[0089]
(Method of detecting the presence and position of a person)
A method for detecting the presence and position of a person by extracting a head image of the person from a captured image captured by the imaging apparatus will be described. FIG. 40 shows the flow of the detection method. First, a voting template is prepared in a voting template preparation process (S701). In this voting template preparation process, (1) a shape model of a figure surrounded by an outwardly convex curve is prepared, and (2) the focal length of the lens of the image pickup device and the image pickup device are prepared. The size of the contour of the human head image on the captured image is estimated based on the detection distance from the target to the person to be detected and the standard size of the human head, and (3) the standard size of the shape model and Size range is determined. (4) A density gradient direction is defined at each point on the boundary curve of the standard size shape model, (5) a representative point is defined inside the shape model, and (6) the shape model is defined at the representative point. A voting part corresponding to the standard size of the system is provided. And (7) a voting unit corresponding to the size range on the line of the representative point direction defined as a line connecting the representative point to the representative point on the boundary curve of the shape model and before or after the representative point. Provided. (8) It is also possible to provide a voting unit for dealing with the head image whose density has been inverted on the outside of the boundary curve of the shape model as a pair of voting units inside and outside the shape model. In this way, a standard size shape model is prepared for each human detection distance range and human head shape model, and the density gradient direction and a plurality of voting units are added to the standard shape model. A prepared voting template is created and stored in a memory so that it can be referred to.
[0090]
In the voting space generation process, a voting space having voting cells at positions corresponding to the pixel positions of the captured image and the edge image is generated and stored in the memory (S702).
[0091]
Next, in the captured image data storage process, the digitized captured image input from the imaging device is stored in the memory (S703). Next, in the edge image data generation process, an edge portion composed of pixels corresponding to the outline of the person, the contour of the face, etc. is extracted from the captured image by differentiation processing, and pixels having a predetermined differential intensity or higher are used as edge pixels. In addition to the extraction, the density gradient direction calculated from the captured image is added to each extracted edge pixel to generate an edge image (S704).
[0092]
Next, in the voting process, (1) one of the prepared voting templates is selected, and (2) the density corresponding to the density gradient direction added to the edge pixel on each edge pixel of the edge image. The points on the boundary curve of the voting template having the gradient direction are overlapped. (3) At this time, the voting cells in the voting space where the voting part of the voting template is located are voted and stored in the memory. (4) Voting processing is performed for all edge pixels. Next, (5) another voting template is selected, and the same voting process as described above is performed on the voting space corresponding to the voting template. (6) Such a voting process is performed for all voting templates. In each vote, the vote values of each cell in the voting space are totaled (S705).
[0093]
Next, in the person presence position detection process, (1) a cell having a voting value equal to or higher than a predetermined threshold value is detected in each voting space where voting is performed, and (2) a predetermined amount of voting value is detected. The position on the captured image corresponding to the cell is detected as the human head position on the captured image (S706).
[0094]
When detection is performed again after the above-described series of human presence position detection processes is completed (No in S707), the above processes are repeated from step S703.
[0095]
Unlike the conventional Hough transform voting process in which voting is performed in all directions of the edge pixel of interest, this method performs voting only in one side area or only in both side areas of each edge pixel. A small amount and high-speed processing can be realized. Since only the size of a person's head within a specific range from the imaging device is set as a detection target, highly reliable human head detection can be performed.
[0096]
The present invention is not limited to the above-described configuration, and various modifications can be made. For example, in the above description, the voting cells in the voting space correspond to the pixels of the captured image and the edge image on a one-to-one basis, but a plurality of pixels may correspond to one voting cell.
[Brief description of the drawings]
FIG. 1 is a block diagram of a human presence position detection apparatus according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram of an area sensor to which the same device is applied.
FIG. 3 is a processing flow diagram of captured image data storage means of the apparatus.
4A is a captured image diagram, and FIG. 4B is an edge image diagram.
FIG. 5 is a flowchart in edge image data generation means according to an embodiment of the present invention.
FIG. 6 is a coordinate diagram of a captured image.
7A is a diagram of a 3 × 3 pixel local window, FIG. 7B is a diagram of an x-direction differential operator, and FIG. 7C is a y-direction differential operator diagram.
FIGS. 8A to 8D are diagrams showing a shape model of a human head according to an embodiment of the present invention.
FIG. 9 is a diagram showing a dimensional relationship between a person in the real world and a person in the image.
10A and 10B are voting template diagrams according to an embodiment of the present invention.
FIGS. 11A and 11B are diagrams for explaining a concentration gradient direction, and FIGS. 11B and 11C are diagrams of voting templates according to an embodiment of the present invention. FIGS.
FIG. 12 is a diagram of a voting template according to one embodiment of the present invention.
FIG. 13 is a diagram of a voting template according to one embodiment of the present invention.
FIGS. 14A and 14B are views showing coordinates of a voting part of a voting template according to an embodiment of the present invention.
FIG. 15 is a diagram of a voting template table according to an embodiment of the present invention.
FIG. 16 is a diagram of a voting template table according to an embodiment of the present invention.
FIG. 17 is a diagram showing types of shape models according to an embodiment of the present invention.
18A is an edge image diagram according to an embodiment of the present invention, a relationship diagram of an imaging space and a voting space, FIG. 18B is a diagram of an edge image, and FIG. 18C is a diagram of a voting space.
FIG. 19 is a distribution diagram of voting values in a voting space according to an embodiment of the present invention.
FIGS. 20A and 20B are views showing a relationship between a radius of curvature direction and a voting unit according to an embodiment of the present invention.
FIG. 21 is a diagram of a voting space for each zone after voting according to an embodiment of the present invention.
FIG. 22 is a diagram of a zone in real space according to one embodiment of the present invention.
FIG. 23 is a diagram showing a case where a hill of vote values has a plurality of ridges.
FIG. 24 is a process flow diagram of an alarm sound generating means according to an embodiment of the present invention.
FIG. 25 is a block diagram of a detection apparatus according to an embodiment of the present invention.
FIG. 26 is an external view of an autonomous mobile device according to an embodiment of the present invention.
FIG. 27 is a block diagram of the above autonomous mobile device.
FIG. 28 is a diagram for explaining determination of the presence direction of an imaging device and a person according to an embodiment of the present invention.
FIG. 29 is a diagram showing a time lapse of a person location according to an embodiment of the present invention.
FIG. 30 is a human presence map according to one embodiment of the present invention.
FIGS. 31A and 31B are person presence map diagrams according to one embodiment of the present invention.
32A is a captured image diagram, and FIG. 32B is a cut head image diagram.
FIG. 33 is a diagram of an n-dimensional pattern space.
FIG. 34 is a pattern recognition flow diagram of a head image according to an embodiment of the present invention.
FIG. 35 is a flowchart of head image determination according to an embodiment of the present invention.
FIG. 36 is a flowchart of head orientation determination according to an embodiment of the present invention.
FIG. 37 is a diagram of an n-dimensional pattern space.
FIG. 38 is a diagram of an n-dimensional pattern space.
FIGS. 39A and 39B are diagrams of head images. FIGS.
FIG. 40 is a flowchart of a human location detection method according to an embodiment of the present invention.
[Explanation of symbols]
One person location detection device
2 Imaging device
3 Captured image data storage means
4 Edge image data generation means
5 Voting processing means
6 Voting template preparation means
7 Voting space generation means
8 person presence position detection means
9 Alarm generation means
12 Autonomous mobile devices
30 person presence map
31 areas where people were detected
32 area without people
33 Unidentified area
G representative point
P, Q conjugate point
P0 captured image
P1 edge image
P2 voting space
r Representative point direction line
T voting template
T1-T4 shape model
V, Vp, Vp0 to Vp8, Vq0 to Vq8 Voting section
VC voting cell
Ψ, Φ concentration gradient direction

Claims (20)

撮像装置で撮像した画像から人の頭部画像を抽出することにより人の存在及びその位置を検出する装置において、
人の頭部画像の形状を外側に凸な曲線で囲まれる図形の形状モデルで近似すると共に、撮像装置のレンズの焦点距離と撮像装置から検出対象とする人までの検出距離と人の頭部の標準サイズとに基づき決定される人の頭部画像の輪郭の大きさの範囲を推定して前記形状モデルの標準サイズ及びサイズ範囲を予め決定しておき、
該標準サイズの形状モデルの境界曲線上の各点に濃度勾配方向を定義し、該形状モデルの内部に代表点を定義し、該代表点に該形状モデルの標準サイズに対応する投票部を備えると共に形状モデルの境界曲線上の注目する点から代表点を結ぶ線として定義される代表点方向線の線上であって前記代表点の前又は後に前記サイズ範囲に対応する投票部を備えて、該標準サイズの形状モデルの境界曲線により作成した投票テンプレートを参照可能に準備する投票テンプレート準備手段と、
撮像装置から入力された画像をデジタル化し、デジタル化された撮像画像をメモリに記憶する撮像画像データ記憶手段と、
前記撮像画像に対し人物の外郭や顔の輪郭等に相当する画素からなるエッジ部を抽出するための微分処理を施し、所定の微分強度以上となる画素をエッジ画素として抽出すると共に、前記撮像画像から濃度勾配方向を算出し、抽出した各エッジ画素毎に濃度勾配方向データを付加したエッジ画像を生成しメモリに記憶するエッジ画像データ生成手段と、
前記撮像画像及びエッジ画像の各画素位置と対応する位置に投票用セルを有する投票空間を生成しメモリに記憶する投票空間生成手段と、
前記エッジ画像の各エッジ画素上に、該エッジ画素に付加した濃度勾配方向に対応する濃度勾配方向を有する前記投票テンプレートの境界曲線上の点を重ね、このとき該投票テンプレートの投票部が位置するエッジ画像上の画素位置に対応する投票空間の投票用セルに投票してメモリに記憶することを各エッジ画素毎に行い、該投票空間の各セルの投票値を集計する投票処理手段と、
投票が行われた投票空間で所定のしきい値以上の投票値を有するセルを検出し、検出したセルに対応する撮像画像上の位置を人の頭部位置として検出する人存在位置検出手段と、を備え
前記投票テンプレート準備手段が、前記標準サイズの形状モデルの境界曲線上の各点に対し、該点に定義した濃度勾配方向と逆方向の濃度勾配方向を有する前記境界曲線上の点を互いに共役な共役点として定義し、互いに共役な点の一方が前記形状モデルの内部に有する投票部と同じ相対位置関係を保って、前記互いに共役な点の他方が前記形状モデルの外部にさらに投票部を備えたことを特徴とする人の存在位置検出装置。
In an apparatus for detecting the presence and position of a person by extracting a person's head image from an image captured by the imaging apparatus,
The shape of the human head image is approximated by a shape model of a figure surrounded by an outwardly convex curve, the focal length of the lens of the imaging device, the detection distance from the imaging device to the person to be detected, and the human head Presuming the standard size and size range of the shape model by estimating the size range of the contour of the human head image determined based on the standard size of
A density gradient direction is defined at each point on the boundary curve of the standard size shape model, a representative point is defined inside the shape model, and a voting unit corresponding to the standard size of the shape model is provided at the representative point. And a voting unit corresponding to the size range before or after the representative point on a representative point direction line defined as a line connecting the representative point to a representative point on the boundary curve of the shape model, A voting template preparation means for preparing a voting template created by a boundary curve of a standard size shape model so that it can be referred to;
Captured image data storage means for digitizing an image input from the imaging device and storing the digitized captured image in a memory;
The captured image is subjected to differential processing for extracting an edge portion composed of pixels corresponding to the outline of a person, the contour of a face, etc., and pixels having a predetermined differential intensity or higher are extracted as edge pixels, and the captured image An edge image data generating means for calculating a density gradient direction from the image data, generating an edge image with density gradient direction data added for each extracted edge pixel, and storing the edge image in a memory;
Voting space generating means for generating a voting space having a voting cell at a position corresponding to each pixel position of the captured image and the edge image, and storing the voting space in a memory;
A point on the boundary curve of the voting template having a density gradient direction corresponding to the density gradient direction added to the edge pixel is superimposed on each edge pixel of the edge image, and at this time, the voting part of the voting template is located. Voting processing means for voting to a voting cell in a voting space corresponding to a pixel position on an edge image and storing it in a memory for each edge pixel, and counting the voting values of each cell in the voting space;
Human presence position detecting means for detecting a cell having a voting value equal to or greater than a predetermined threshold in a voting space where voting is performed, and detecting a position on a captured image corresponding to the detected cell as a human head position , equipped with a,
The voting template preparation means conjugates each point on the boundary curve having a density gradient direction opposite to the density gradient direction defined for each point on the boundary curve of the standard size shape model. A conjugate point is defined, and one of the points conjugate to each other maintains the same relative positional relationship as the voting unit inside the shape model, and the other of the points conjugate to each other further includes a voting unit outside the shape model. A human presence position detecting device characterized by that.
前記投票処理手段は、エッジ画像の各エッジ画素について、注目するエッジ画素とその近傍の複数のエッジ画素からなる輪郭の曲率を求めて曲率中心の存在する方向を判定し、前記注目するエッジ画素に対する前記投票に際し、前記曲率中心の存在する方向の投票部位置に対応する投票空間の投票用セルに投票することを特徴とする請求項に記載の人の存在位置検出装置。For each edge pixel of the edge image, the voting processing means determines a direction in which the center of curvature exists by obtaining a curvature of a contour composed of the edge pixel of interest and a plurality of edge pixels in the vicinity of the edge pixel of interest. 2. The human presence position detecting apparatus according to claim 1 , wherein, in the voting, a voting cell is voted on a voting cell in a voting space corresponding to a voting position in a direction in which the center of curvature exists. 前記投票テンプレート準備手段は、投票テンプレートの代表点近傍であって前記代表点方向線の両側にさらに投票部を備えたことを特徴とする請求項に記載の人の存在位置検出装置。2. The human presence position detection apparatus according to claim 1 , wherein the voting template preparation unit further includes voting units in the vicinity of a representative point of the voting template and on both sides of the representative point direction line. 前記投票テンプレート準備手段は、形状モデルの境界曲線上の各点に対する投票部の相対位置を、該各点における濃度勾配方向をインデックスとして、表形式でメモリに記憶することを特徴とする請求項に記載の人の存在位置検出装置。The voting template preparation means according to claim a relative position of the voting unit for each point on the boundary curve of the shape model, the density gradient direction in the respective points as an index, and to store in memory in a table format 1 The human presence position detecting device described in 1. 前記投票テンプレート準備手段は、予め撮像装置から人までの距離毎に投票テンプレートのデータを保管し、
前記投票処理手段は、検出対象までの距離を測定する距離センサの距離測定結果に基づいて前記投票テンプレートのデータを参照して投票テンプレートを設定し、投票することを特徴とする請求項に記載の人の存在位置検出装置。
The voting template preparation means stores voting template data for each distance from the imaging device to the person in advance,
The voting process unit, according to claim 1, referring to the data of the vote templates based on the distance measurement result of the distance sensor that measures the distance to the detection target to set the voting template, wherein the vote Position detection device.
前記人存在位置検出手段は、検出した所定のしきい値以上の投票値を有するセルが複数の塊に分れている場合には、塊間の距離を調べ、該距離が所定範囲内に存在する場合にはグループ化して統合し、統合された塊の代表点に対応する撮像画像上の位置を人の頭部位置として検出することを特徴とする請求項に記載の人の存在位置検出装置。When the detected cell having a vote value equal to or greater than a predetermined threshold is divided into a plurality of chunks, the human presence position detecting means checks the distance between the chunks and the distance is within a predetermined range. which is integrated by grouping if, integrated existing position detection of a person as claimed in claim 1, characterized in that to detect the position on the corresponding captured image to the representative point of the mass as a head position of the person apparatus. 前記投票テンプレート準備手段は、撮像装置から検出対象とする人までの検出距離範囲を任意に複数設定して検出距離範囲毎の形状モデルの標準サイズとサイズ範囲及びこれらに基づく投票テンプレートを準備し、
前記投票空間生成手段は、前記検出距離範囲毎に投票空間を生成し、
前記投票処理手段は、各検出距離範囲に対応する投票テンプレート毎に検出距離範囲が対応する投票空間に対し上記投票処理を行い、
前記人存在位置検出手段は、各検出距離範囲に対応する投票空間中で所定しきい値以上の投票値を有するセルを検出すると、人存在位置をそれらの検出距離範囲に対応させることを特徴とする請求項に記載の人の存在位置検出装置。
The voting template preparation means optionally sets a plurality of detection distance ranges from the imaging device to the person to be detected to prepare a standard size and size range of the shape model for each detection distance range, and a voting template based thereon,
The voting space generating means generates a voting space for each detection distance range,
The voting processing means performs the voting process on the voting space corresponding to the detection distance range for each voting template corresponding to each detection distance range,
The human presence position detecting means, when detecting a cell having a vote value equal to or greater than a predetermined threshold in a voting space corresponding to each detection distance range, causes the human presence position to correspond to the detection distance range. The human presence position detecting device according to claim 1 .
前記投票テンプレート準備手段は、形状モデルのサイズ範囲が所定値以上の場合、該サイズ範囲が所定値以下となるように人の検出距離範囲を分割し、該分割された範囲毎に形状モデルの標準サイズとサイズ範囲及びこれらに基づく投票テンプレートを持ち、
前記投票空間生成手段は、該分割された検出距離範囲毎に投票空間を生成し、
前記投票処理手段は、該分割された検出距離範囲毎に対応する投票テンプレート毎に検出距離範囲が対応する投票空間に対し上記投票処理を行い、
前記人存在位置検出手段は、該分割された検出距離範囲毎に対応する投票空間中で所定しきい値以上の投票値を有するセルを検出すると、人存在位置をそれらの検出距離範囲に対応させることを特徴とする請求項に記載の人の存在位置検出装置。
The voting template preparation means divides the human detection distance range so that the size range is equal to or smaller than a predetermined value when the size range of the shape model is equal to or larger than a predetermined value, and the shape model standard is divided into the divided ranges. Has a size and size range and voting templates based on them,
The voting space generating means generates a voting space for each of the divided detection distance ranges,
The voting processing means performs the voting process on the voting space corresponding to the detection distance range for each voting template corresponding to each divided detection distance range,
When the person presence position detecting means detects a cell having a vote value equal to or larger than a predetermined threshold in the corresponding voting space for each of the divided detection distance ranges, the person presence position is made to correspond to those detection distance ranges. The human presence position detecting device according to claim 1 .
前記投票テンプレート準備手段は、人の頭部形状を同一の形状モデルで姿勢が異なる複数の形状で近似し、各姿勢の形状毎に投票テンプレートを準備し、
前記投票空間生成手段は、該姿勢の形状毎に投票空間を生成し、
前記投票処理手段は、該姿勢の異なる形状毎に投票空間上の各セルに投票処理を行うことを特徴とする請求項に記載の人の存在位置検出装置。
The voting template preparation means approximates a human head shape with a plurality of shapes having different postures in the same shape model, and prepares a voting template for each shape of each posture,
The voting space generating means generates a voting space for each shape of the posture,
2. The human presence position detection apparatus according to claim 1 , wherein the voting processing means performs voting processing on each cell in the voting space for each shape having a different posture.
前記投票テンプレート準備手段は、人の頭部形状を異なる複数の形状モデル形状で近似し、各形状モデルの形状毎に投票テンプレートを準備し、
前記投票空間生成手段は、該形状モデルの形状毎に投票空間を生成し、
前記投票処理手段は、該形状モデル毎に投票空間上の各セルに投票処理を行うことを特徴とする請求項に記載の人の存在位置検出装置。
The voting template preparation means approximates a human head shape with a plurality of different shape model shapes, prepares a voting template for each shape model shape,
The voting space generating means generates a voting space for each shape of the shape model,
2. The human presence position detecting apparatus according to claim 1 , wherein the voting processing means performs voting processing on each cell on the voting space for each shape model.
前記人存在位置検出手段は、前記検出した撮像画像上の頭部位置に頭部をモデル化した形状を投影して得られる投影像のサイズの画像を切出すことを特徴とする請求項に記載の人の存在位置検出装置。The person present position detecting means to claim 1, characterized in that cutting out size image of the projection image obtained by projecting the detected shape that models the head to the head position on the captured image The human presence position detection device described. 前記人存在位置検出手段は、前記切出した画像を、予め頭部の向き毎に分類して記憶した頭部データと比較することにより、頭部の向きを識別して検出することを特徴とする請求項11に記載の人の存在位置検出装置。The human presence position detecting means identifies and detects the orientation of the head by comparing the cut image with head data previously classified and stored for each orientation of the head. The human presence position detection apparatus according to claim 11 . 前記人存在位置検出手段は、前記頭部の向きとして複数の候補が出力される時、前記切出した画像を予め決めた複数の小画像に分割し、分割した各小画像間の濃度分布の違いにより頭部の向きを決定することを特徴とする請求項12に記載の人の存在位置検出装置。The human presence position detection unit divides the cut image into a plurality of predetermined small images when a plurality of candidates are output as the head direction, and a difference in density distribution between the divided small images 13. The human presence position detecting device according to claim 12, wherein the orientation of the head is determined by the method. 前記人存在位置検出手段は、人の頭部位置検出に使用した投票空間に対応する人の検出距離範囲の中央の位置を、撮像装置から人までの距離と推定することを特徴とする請求項7に記載の人の存在位置検出装置。The human presence position detecting means estimates a central position of a human detection distance range corresponding to a voting space used for detecting a human head position as a distance from the imaging device to the human. present position detecting device of a person according to 7. 前記人存在位置検出手段は、前記検出した撮像画像上の頭部の位置及び撮像装置の焦点距離により撮像装置に対する人存在位置方向を求め、人の頭部位置検出に使用した投票空間に対応する人の検出距離範囲の中央の位置を撮像装置から人までの距離と推定し、人の方向と人までの距離とにより、撮像装置に対する人の位置を求めることを特徴とする請求項7に記載の人の存在位置検出装置。The human presence position detecting means obtains the human presence position direction with respect to the imaging device from the detected head position on the captured image and the focal length of the imaging device, and corresponds to the voting space used for detecting the human head position. the center position of the detection distance range of human estimates the distance from the imaging apparatus to humans, by the distance to the direction and human human, according to claim 7, wherein the determination of the position of the person relative to the imaging device Position detection device. 前記人存在位置検出手段は、撮像装置の視線方向の空間を撮像装置から所定の距離毎にゾーン分けし、各ゾーン内での人の有無状態について前回検出時の結果と現在の検出結果とを比較し、現在検出した人が属するゾーンが前回検出した人が属するゾーンよりも近いゾーンのときは人が近づいていると判定し、現在検出した人が属するゾーンが前回検出した人が属するゾーンよりも遠いゾーンのときは人が遠ざかっていると判定し、現在検出した人が属するゾーンと前回検出した人が属するゾーンが同じときは人が止まっていると判定することを特徴とする請求項又は請求項14に記載の人の存在位置検出装置。The human presence position detection means divides the space in the line-of-sight direction of the imaging device into predetermined zones from the imaging device, and the result of the previous detection and the current detection result of the presence / absence state of a person in each zone In comparison, if the zone to which the currently detected person belongs is closer to the zone to which the previously detected person belongs, it is determined that the person is approaching, and the zone to which the currently detected person belongs is more than the zone to which the previously detected person belongs claims determined to stay away person when the far zone, the zone a person who detected current has zones and previously detected belonging belongs and judging the same time is stopped human 7 Or the human presence position detection apparatus of Claim 14 . 前記人存在位置検出手段は、撮像装置位置を基準に、撮像装置の視線方向の空間を複数のエリアに分割した人存在マップを作成し、各エリアを、人を検出したエリアと、未確認のエリアと、人が居ないエリアに分類して人の存在位置を検出することを特徴とする請求項15に記載の人の存在位置検出装置。The human presence position detecting means creates a human presence map in which the space in the line-of-sight direction of the imaging device is divided into a plurality of areas based on the imaging device position, and each area is divided into an area where a person is detected and an unidentified area. The human presence position detection apparatus according to claim 15, wherein the human presence position is detected by classifying the areas into areas where no people are present. 前記人存在位置検出手段は、撮像装置位置を基準に、撮像装置の視線方向の空間を複数のエリアに分割した人存在マップを作成し、人を検出した位置を該マップ上の対応する位置に登録すると共に、該検出した人の頭部の切出し画像を検出位置と関係付けして記憶し、前回検出時点のマップと現時点のマップとを比較し、前回検出時点での注目する人の検出位置から移動可能な範囲内に検出した現時点における人及びその検出位置を対応付けの候補とし、対応付け候補が1つの場合には対応付けして追跡し、
対応付け候補が複数ある場合には、前回検出時点における人の検出位置と関係付けして記憶した頭部の切出し画像と、対応付け候補とされる人の頭部の切出し画像との画像相関を計算し、相関度の一番高い対応付け候補の人及びその検出位置を正しい対応付けとして追跡することを特徴とする請求項15に記載の人の存在位置検出装置。
The human presence position detection means creates a human presence map in which the space in the line-of-sight direction of the imaging device is divided into a plurality of areas based on the imaging device position, and sets the position where the person is detected as a corresponding position on the map. Register and store the cut-out image of the detected person's head in association with the detection position, compare the map at the previous detection time with the current map, and detect the detection position of the person of interest at the previous detection time And the current person detected within the movable range and its detection position as a candidate for association, and if there is one association candidate, associate and track,
When there are a plurality of association candidates, the image correlation between the cut-out image of the head stored in association with the detection position of the person at the previous detection time and the cut-out image of the head of the person that is the association candidate is calculated. 16. The person presence position detecting apparatus according to claim 15, wherein the person's presence position detecting apparatus according to claim 15, wherein the person's presence position detecting apparatus according to claim 15 is calculated and tracks the person having the highest correlation degree and the detected position thereof as correct associations.
撮像装置で撮像した撮像画像から人の頭部画像を抽出することにより人の存在及びその位置を検出する方法において、
人の頭部画像の形状を外側に凸な曲線で囲まれる図形の形状モデルで近似すると共に、撮像装置のレンズの焦点距離と撮像装置から検出対象とする人までの検出距離と人の頭部の標準サイズとに基づき決定される人の頭部画像の輪郭の大きさの範囲を推定して前記形状モデルの標準サイズ及びサイズ範囲を予め決定しておき、
該標準サイズの形状モデルの境界曲線上の各点に濃度勾配方向を定義し、該形状モデルの内部に代表点を定義し、該代表点に該形状モデルの標準サイズに対応する投票部を備えると共に形状モデルの境界曲線上の注目する点から代表点を結ぶ線として定義される代表点方向線の線上であって前記代表点の前又は後に前記サイズ範囲に対応する投票部を備えて、該標準サイズの形状モデルの境界曲線により作成した投票テンプレートを参照可能に準備する投票テンプレート準備過程と、
撮像装置から入力され、デジタル化された撮像画像をメモリに記憶する撮像画像データ記憶過程と、
前記撮像画像に対し人物の外郭や顔の輪郭等に相当する画素からなるエッジ部を抽出するための微分処理を施し、所定の微分強度以上となる画素をエッジ画素として抽出すると共に、前記撮像画像から濃度勾配方向を算出し、抽出した各エッジ画素毎に濃度勾配方向データを付加したエッジ画像を生成するエッジ画像データ生成過程と、
前記撮像画像及びエッジ画像の各画素位置と対応する位置に投票用セルを有する投票空間を生成しメモリに記憶する投票空間生成過程と、
前記エッジ画像の各エッジ画素上に、該エッジ画素に付加した濃度勾配方向に対応する濃度勾配方向を有する前記投票テンプレートの境界曲線上の点を重ね、このとき該投票テンプレートの投票部が位置するエッジ画像上の画素位置に対応する投票空間の投票用セルに投票してメモリに記憶することを各エッジ画素毎に行い、該投票空間の各セルの投票値を集計する投票処理過程と、
投票が行われた投票空間で所定のしきい値以上の投票値を有するセルを検出し、検出したセルに対応する撮像画像上の位置を人の頭部位置として検出する人存在位置検出過程と、を備え
前記投票テンプレート準備過程が、前記標準サイズの形状モデルの境界曲線上の各点に対し、該点に定義した濃度勾配方向と逆方向の濃度勾配方向を有する前記境界曲線上の点を互いに共役な共役点として定義し、互いに共役な点の一方が前記形状モデルの内部に有する投票部と同じ相対位置関係を保って、前記互いに共役な点の他方が前記形状モデルの外部にさらに投票部を備えて、該標準サイズの形状モデルの境界曲線により作成した投票テンプレートを参照可能に準備することを特徴とする人の存在位置検出方法。
In a method for detecting the presence and position of a person by extracting a head image of the person from a captured image captured by an imaging device,
The shape of the human head image is approximated by a shape model of a figure surrounded by an outwardly convex curve, the focal length of the lens of the imaging device, the detection distance from the imaging device to the person to be detected, and the human head Presuming the standard size and size range of the shape model by estimating the size range of the contour of the human head image determined based on the standard size of
A density gradient direction is defined at each point on the boundary curve of the standard size shape model, a representative point is defined inside the shape model, and a voting unit corresponding to the standard size of the shape model is provided at the representative point. And a voting unit corresponding to the size range before or after the representative point on a representative point direction line defined as a line connecting the representative point to a representative point on the boundary curve of the shape model, A voting template preparation process in which a voting template created by a boundary curve of a standard size shape model can be referred to, and
A captured image data storage process of storing a digitized captured image input from the imaging device in a memory;
The captured image is subjected to differential processing for extracting an edge portion composed of pixels corresponding to the outline of a person, the contour of a face, etc., and pixels having a predetermined differential intensity or higher are extracted as edge pixels, and the captured image An edge image data generation process for calculating a density gradient direction from the image and generating an edge image with density gradient direction data added for each extracted edge pixel;
A voting space generation process for generating a voting space having a voting cell at a position corresponding to each pixel position of the captured image and the edge image and storing the voting space in a memory;
A point on the boundary curve of the voting template having a density gradient direction corresponding to the density gradient direction added to the edge pixel is superimposed on each edge pixel of the edge image, and at this time, the voting part of the voting template is located. Voting process for voting to a voting cell in a voting space corresponding to a pixel position on an edge image and storing it in a memory for each edge pixel, and totaling the voting value of each cell in the voting space;
A human presence position detection process for detecting a cell having a voting value equal to or higher than a predetermined threshold in a voting space where voting is performed, and detecting a position on a captured image corresponding to the detected cell as a human head position; , equipped with a,
In the voting template preparation process, for each point on the boundary curve of the shape model of the standard size, a point on the boundary curve having a concentration gradient direction opposite to the concentration gradient direction defined for the point is conjugated with each other. A conjugate point is defined, and one of the points conjugate to each other maintains the same relative positional relationship as the voting unit inside the shape model, and the other of the points conjugate to each other further includes a voting unit outside the shape model. A method for detecting the presence position of a person , comprising preparing a voting template created by a boundary curve of a standard model of a shape model .
請求項15乃至請求項17のいずれかに記載の人の存在位置検出装置を用いて検出された人の位置情報を利用して移動の制御をすることを特徴とする自律移動装置。An autonomous mobile device that controls movement by using position information of a person detected by using the human presence position detection apparatus according to any one of claims 15 to 17 .
JP2002343094A 2002-11-26 2002-11-26 Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device Expired - Fee Related JP4082190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002343094A JP4082190B2 (en) 2002-11-26 2002-11-26 Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002343094A JP4082190B2 (en) 2002-11-26 2002-11-26 Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device

Publications (2)

Publication Number Publication Date
JP2004178229A JP2004178229A (en) 2004-06-24
JP4082190B2 true JP4082190B2 (en) 2008-04-30

Family

ID=32704949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002343094A Expired - Fee Related JP4082190B2 (en) 2002-11-26 2002-11-26 Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device

Country Status (1)

Country Link
JP (1) JP4082190B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673342A (en) * 2008-09-12 2010-03-17 索尼株式会社 Object detecting device, imaging apparatus, object detecting method, and program

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879848B2 (en) * 2003-03-14 2007-02-14 松下電工株式会社 Autonomous mobile device
JP4645108B2 (en) * 2004-09-09 2011-03-09 パナソニック電工株式会社 Autonomous mobile device
JP4135702B2 (en) * 2004-11-25 2008-08-20 松下電工株式会社 Intercom system
JP2007072665A (en) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd Object discrimination device, object discrimination method and object discrimination program
JP4887539B2 (en) * 2008-02-07 2012-02-29 本田技研工業株式会社 Object type determination device
JP2012017936A (en) * 2010-07-09 2012-01-26 Shimizu Corp Management and support system of work place environment
CN104718507B (en) 2012-11-05 2017-03-29 松下知识产权经营株式会社 The walking information generation device of automatic walking apparatus, method and automatic walking apparatus
JP6218089B2 (en) * 2013-06-18 2017-10-25 パナソニックIpマネジメント株式会社 Imaging position determination device and imaging position determination method
JP5685665B1 (en) * 2014-04-28 2015-03-18 ヴィスコ・テクノロジーズ株式会社 Image recognition device
JP6556675B2 (en) * 2016-08-26 2019-08-07 株式会社Zmp Object detection method and apparatus
JP7047306B2 (en) * 2017-09-27 2022-04-05 沖電気工業株式会社 Information processing equipment, information processing methods, and programs
CN113949906A (en) * 2021-12-01 2022-01-18 深圳市佰慧智能科技有限公司 Video preview playback system and management method based on video networking sharing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101673342A (en) * 2008-09-12 2010-03-17 索尼株式会社 Object detecting device, imaging apparatus, object detecting method, and program
CN101673342B (en) * 2008-09-12 2012-11-28 索尼株式会社 Object detecting device, imaging apparatus, object detecting method, and program

Also Published As

Publication number Publication date
JP2004178229A (en) 2004-06-24

Similar Documents

Publication Publication Date Title
KR102109941B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
Martin et al. Real time head model creation and head pose estimation on consumer depth cameras
Keller et al. A new benchmark for stereo-based pedestrian detection
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
KR101184097B1 (en) Method for determining frontal pose of face
EP2430588B1 (en) Object recognition method, object recognition apparatus, and autonomous mobile robot
JP4082190B2 (en) Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device
JP2021523443A (en) Association of lidar data and image data
CN102375974A (en) Information processing apparatus and information processing method
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
US11132530B2 (en) Method for three-dimensional graphic reconstruction of a vehicle
JP2020061140A (en) Learning method of cnn for monitoring blind spots, testing method, learning device, and testing device
Muñoz-Salinas et al. Multi-camera head pose estimation
EP3905195A1 (en) Image depth determining method and living body identification method, circuit, device, and medium
US20210334569A1 (en) Image depth determining method and living body identification method, circuit, device, and medium
Gu et al. Histograms of the normalized inverse depth and line scanning for urban road detection
JP2014134856A (en) Subject identification device, subject identification method, and subject identification program
Coenen et al. Detection and 3d modelling of vehicles from terrestrial stereo image pairs
JP2020061139A (en) Learning method of cnn for monitoring blind spots, testing method, learning device, and testing device
US11138755B2 (en) Analysis apparatus, analysis method, and non transitory storage medium
Coenen et al. Recovering the 3d pose and shape of vehicles from stereo images
JPWO2020175085A1 (en) Image processing device and image processing method
JP2017016460A (en) Traffic flow measurement device and traffic flow measurement method
Sato et al. Seat Belt Detection Using Genetic Algorithm-Based Template Matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080204

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140222

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees