JP4231320B2 - 移動体の検出装置 - Google Patents

移動体の検出装置 Download PDF

Info

Publication number
JP4231320B2
JP4231320B2 JP2003095483A JP2003095483A JP4231320B2 JP 4231320 B2 JP4231320 B2 JP 4231320B2 JP 2003095483 A JP2003095483 A JP 2003095483A JP 2003095483 A JP2003095483 A JP 2003095483A JP 4231320 B2 JP4231320 B2 JP 4231320B2
Authority
JP
Japan
Prior art keywords
image
moving object
contour
moving body
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003095483A
Other languages
English (en)
Other versions
JP2004302905A (ja
Inventor
信男 檜垣
貴通 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003095483A priority Critical patent/JP4231320B2/ja
Priority to US10/808,327 priority patent/US7254253B2/en
Publication of JP2004302905A publication Critical patent/JP2004302905A/ja
Application granted granted Critical
Publication of JP4231320B2 publication Critical patent/JP4231320B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs

Description

【0001】
【産業上の利用分野】
この発明は移動体の検出装置に関し、より詳しくは、撮像した画像に基づき、物体や人などの移動体を検出する移動体の検出装置に関する。
【0002】
【従来の技術】
撮像した画像に基づいて移動体を検出する装置として、従来、例えば特許文献1に記載される技術が知られている。かかる技術にあっては、時系列に入力された撮像画像間の差分を求め、輝度に変化が生じた領域を移動体として検出すると共に、その輪郭を複数の領域に分割して抽出し、分割して抽出した輪郭に基づいて移動体全体の輪郭形状を抽出するようにしている。
【0003】
【特許文献1】
特開平6−138137号公報(第5頁、段落0035から0039など)
【0004】
【発明が解決しようとする課題】
上記した従来技術にあっては、時系列に入力された撮像画像間の差分を求め、輝度に変化が生じた領域を移動体として検出していることから、複数の物体が隣接して移動する場合、即ち、複数の移動体が隣接して存在する場合、それらを1つの移動体として検出してしまうおそれがあった。
【0005】
従って、この発明の目的は上記した不都合を解消し、複数の移動体が隣接して存在する場合であっても、それらを個別の移動体として検出できるようにした移動体の検出装置を提供することにある。
【0006】
【課題を解決するための手段】
上記した課題を解決するために、請求項1項においては、複数の撮像手段で時系列にステレオ視して得た複数の撮像画像に基づいて移動体の輪郭を抽出し、前記移動体を検出する移動体の検出装置において、前記複数の撮像画像の視差に基づいて撮像対象までの距離を示す距離画像を生成する距離画像生成手段、時系列に入力される前記撮像画像間の差分を求めて差分画像を生成する差分画像生成手段、前記撮像画像の輝度が所定レベル以上変化する画素を抽出してエッジ画像を生成するエッジ画像生成手段、前記距離画像と差分画像に基づいて前記移動体が存在すると推定される位置までの距離を示す移動体距離を設定する移動体距離設定手段、前記エッジ画像から前記移動体距離に対応する画素を抽出して移動体距離画像を生成する移動体距離画像生成手段、前記移動体距離画像内の画素数を累計してヒストグラム化する画素累計手段、前記累計した画素数が最大となる位置を中心線として前記移動体距離画像に前記移動体の輪郭の抽出を実行すべき輪郭抽出領域を設定する輪郭抽出領域設定手段、前記移動体距離画像に前記エッジ画像を重ねて前記輪郭抽出領域の中心線を補正する中心線補正手段、および前記中心線が補正された輪郭抽出領域内において前記移動体の輪郭を抽出して前記移動体を検出する移動体検出手段、を備えるように構成した。
【0007】
このように、請求項1項にあっては、ステレオ視して得た複数の撮像画像の視差に基づく撮像対象までの距離を示す距離画像と、時系列に入力される撮像画像間の差分をとった差分画像と、撮像画像の輝度が所定レベル以上変化する画素を抽出したエッジ画像とを生成し、前記距離画像と差分画像に基づいて前記移動体が存在すると推定される位置までの距離を示す移動体距離を設定し、前記エッジ画像から前記移動体距離に対応する画素を抽出して移動体距離画像を生成し、前記移動体距離画像内の画素数を累計してヒストグラム化し、前記累計した画素数が最大となる位置を中心線として前記移動体距離画像に、前記移動体の輪郭の抽出を実行すべき輪郭抽出領域を設定すると共に、前記エッジ画像に基づいて前記輪郭抽出領域の中心線を補正し、前記中心線が補正された輪郭抽出領域内において前記移動体の輪郭を抽出して前記移動体を検出するように構成したので、移動体の輪郭の抽出を、移動体が個別に存在する領域に限定して行うことができ、よって複数の移動体が隣接して存在する場合であっても、それらを個別の移動体として検出することができる。
【0008】
さらに、前記エッジ画像に基づいて中心線を補正する、より具体的には、移動体の輪郭によく合致したエッジ画像のピークに前記中心線を位置させるように構成したので、累計した画素数が最大となる位置と移動体の中心が一致しない場合であっても、輪郭抽出領域に移動体(個別の移動体)全体を収めることができ、よって隣接して存在する複数の移動体を、個別の移動体として精度良く検出することができる。
【0009】
尚、この明細書において「移動体」とは、人などの生物であっても良いし、非生物であっても良い。また、物体の一部(人でいえば腕や足など)であるか全部(人でいえば全身)であるかも問わない。
【0010】
また、請求項2項にあっては、さらに、前記撮像対象から所定の色彩を抽出して所定色彩領域画像を生成する所定色彩画像生成手段、および前記所定の色彩の配置パターンを複数記憶させたデータベース、を備えると共に、前記中心線補正手段は、前記所定色彩領域画像と前記所定の色彩の配置パターンを比較し、最も近似する配置パターンに基づいて前記輪郭抽出領域の中心線を補正するように構成した。
【0011】
このように、請求項2項にあっては、さらに前記撮像対象から所定の色彩を抽出して所定色彩領域画像を生成すると共に、前記所定色彩領域画像とデータベースに記憶された所定の色彩の配置パターンを比較し、最も近似する配置パターンに基づいて前記輪郭抽出領域の中心線を補正するように構成した、より具体的には、エッジ画像のピークが複数存在する場合において、中心線を位置させるべきピークを所定の色彩(例えば肌色)の配置パターンに基づいて判定するように構成したので、エッジ画像のピークが複数存在する場合であっても、中心線を移動体の中心に正確に位置させることができ、よって隣接して存在する複数の移動体を、個別の移動体として一層精度良く検出することができる。
【0012】
また、請求項3項にあっては、前記移動体検出手段は、前記移動体の輪郭を動的輪郭モデルによって抽出するように構成した。
【0013】
上記した請求項1項および2項の構成により、移動体が個別に存在する領域を正確に絞り込むことができるため、比較的処理が複雑な動的輪郭モデル、いわゆるスネーク(Snakes)を用いて移動体の輪郭を抽出する場合であっても、演算処理を軽減させて実時間で処理することが可能となる。
【0014】
【発明の実施の形態】
以下、添付図面を参照してこの発明の一つの実施の形態に係る移動体の検出装置を説明する。
【0015】
尚、この実施の形態においては、移動体の検出装置を、2足歩行ロボットに搭載した場合を例にとって説明する。図1はその2足歩行ロボット(以下「ロボット」という)1の正面図、図2はその側面図である。
【0016】
図1に示すように、ロボット1は、2本の脚部2を備えると共に、その上方には上体(基体)3が設けられる。上体3の上部には頭部4が設けられると共に、上体3の両側には2本の腕部5が連結される。また、図2に示すように、上体3の背部には格納部6が設けられ、その内部には歩行制御ECUや画像処理ECU(電子制御ユニット。後述)およびロボット1の関節を駆動する電動モータのバッテリ電源(図示せず)などが収容される。尚、図1および図2に示すロボット1は、内部構造を保護するためのカバーが取着されたものを示す。
【0017】
図3を参照して上記したロボット1の内部構造を関節を中心に説明する。
【0018】
図示の如く、ロボット1は、左右それぞれの脚部2に6個の関節を備える。計12個の関節は、腰部の脚回旋用の鉛直軸(Z軸あるいは重力軸)まわりの関節10R,10L(右側をR、左側をLとする。以下同じ)、股(腰部)のロール方向(X軸まわり)の関節12R,12L、股(腰部)のピッチ方向(Y軸まわり)の関節14R,14L、膝部のピッチ方向(Y軸まわり)の関節16R,16L、足首のピッチ方向(Y軸まわり)の関節18R,18L、および同ロール方向(X軸まわり)の関節20R,20Lから構成される。脚部2R(L)の下部には足平(足部)22R,22Lが取着される。
【0019】
このように、脚部2は、股関節(腰関節)10R(L),12R(L),14R(L)、膝関節16R(L)、および足関節18R(L),20R(L)から構成される。股関節と膝関節は大腿リンク24R(L)で、膝関節と足関節は下腿リンク26R(L)で連結される。
【0020】
脚部2は股関節を介して上体3に連結されるが、図3では上体3を上体リンク28として簡略的に示す。前記したように、上体3には腕部5が連結される。腕部5は、肩部のピッチ方向の関節30R,30L、同ロール方向の関節32R,32L、腕の回旋用の鉛直軸まわりの関節34R,34L、肘部のピッチ軸まわりの関節36R,36L、手首回旋用の鉛直軸まわりの関節38R,38Lから構成される。手首の先にはハンド(エンドエフェクタ)40R,40Lが取着される。
【0021】
このように、腕部5は、肩関節30R(L),32R(L),34R(L)、肘関節36R(L)、手首関節38R(L)から構成される。また肩関節と肘関節とは上腕部リンク42R(L)で、肘関節とハンドとは下腕部リンク44R(L)で連結される。
【0022】
頭部4は、鉛直軸まわりの首関節46およびそれと直交する軸で頭部4を回転させる頭部揺動機構48から構成される。頭部4の内部には、2個のCCDカメラ(撮像手段)50R(L)が、左右に並列してステレオ視(複眼視)自在に取りつけられる。CCDカメラ50R(L)がそれぞれ撮像して得た画像(カラー画像)は画像処理ECU80に送られ、そこで後述する移動体の検出処理が行われる。尚、CCDカメラ50R(L)はそれぞれ、320×240の画素を備えると共に、水平60度、垂直40度の視野を有する。
【0023】
ロボット1は、上記の如く、左右の脚部2R(L)について合計12の自由度を与えられ、歩行中にこれらの12個の関節を適宜な角度で駆動することで、足全体に所望の動きを与えることができ、任意に3次元空間を歩行させることができる。また、腕部5も左右の腕についてそれぞれ5つの自由度を与えられ、これらの関節を適宜な角度で駆動することで所望の作業を行わせることができる。
【0024】
また、足関節の下方の足部22R(L)には公知の6軸力センサ54R(L)が取着され、ロボットに作用する外力の内、接地面からロボットに作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。
【0025】
さらに、上体3には傾斜センサ56が設置され、鉛直軸に対する傾きとその角速度を示す信号を出力する。さらに、各関節を駆動する電動モータ(図示省略)には、その回転量を検出するロータリエンコーダ(図示省略)が設けられる。
【0026】
6軸力センサ54R(L)などのセンサ出力や画像処理ECU80の出力は、歩行制御ECU60に送られる。
【0027】
歩行制御ECU60は、その内部のROM(図示省略)に格納されているデータや上記した各センサおよび画像処理ECU80の出力に基づいて各関節の駆動に必要な制御値(操作量)を算出して各関節を駆動する電動モータに出力する。
【0028】
図4は、画像処理ECU80の動作を機能的に示すブロック図である。
【0029】
以下、同図を参照して説明する。
【0030】
図示の如く、画像処理ECU80の動作は、左右のCCDカメラ50R,50Lから入力された画像を解析する入力画像解析ブロック80Aと、解析された画像から移動体を検出する移動体検出ブロック80Bとで構成される。
【0031】
入力画像解析ブロック80Aは、距離画像生成部80aと、差分画像生成部80bと、エッジ画像生成部80cと、肌色領域画像生成部80dとからなる。
【0032】
距離画像生成部80aは、同時刻に左側のCCDカメラ50Lと右側のCCDカメラ50Rで撮像された2つの画像の視差に基づき、ロボット1から撮像対象までの距離(奥行き)を示す距離画像DeIを生成する。具体的には、距離画像生成部80aは、左側のCCDカメラ50Lを基準カメラとし、この基準とされた左側のCCDカメラ50Lで撮像された画像(以下「基準画像BI」という)と、右側のCCDカメラ50Rで同時刻に撮像された画像(以下「同時刻画像」という)とを、所定の大きさのブロック(例えば16×16画素)でブロックマッチングし、基準画像からの視差を計測すると共に、計測した視差の大きさ(視差量)を基準画像の各画素に対応付けて距離画像DeIを生成する。尚、視差は、その値が大きいほどCCDカメラ50R(L)から近いことを示し、小さいほど遠く離れていることを示す。
【0033】
図5に、左側のCCDカメラ50Lで撮像された基準画像BI示す。以降、図5に示す3人の人(人間)が撮像された画像に基づいて説明を続ける。尚、基準画像BIにおいて、右側(図に向かって右側)の人を人Aとし、中央の人を人Bとし、左側の人を人Cとする。図示の如く、人Aは、右手Arhを頭部Ahの右横に挙げている。また、人Aと人Bは、実空間において、CCDカメラ50R(L)から1.63mだけ離間した位置に起立しており、人Cは、CCDカメラ50R(L)から1.96mだけ離間した位置に起立しているものとする。
【0034】
図6に、距離画像生成部80aで生成された距離画像DeIを示す。距離画像DeIは、視差を画素値として表現するため、図6に示すように、CCDカメラ50R(L)に近いほど明るく(人A、人B)、遠いほど暗い(人C)画像になる。尚、図6では、理解の便宜のため、画像の濃淡を斜線の間隔を相違させることによって示す。即ち、図6においては、斜線の間隔が広い領域ほど明るく(近く)、間隔が狭い領域ほど暗い(遠い)ことを意味する。また、黒く塗られた点は、人A,B,Cより遠く離れている(視差が小さい)ことを示す。
【0035】
図4の説明に戻ると、差分画像生成部80bは、左側のCCDカメラ50Lで時系列に撮像された2つの基準画像BIの差分をとり、差分画像DiIを生成する。具体的には、差分画像生成部80bは、左側のCCDカメラ50Lで時系列(時刻tと時刻t+Δt)に撮像された2つの基準画像BIの差分を求め、差のあった画素には動き(移動)のあった画素として画素値1を与えると共に、差のなかった画素には動き(移動)のなかった画素として画素値0を与えることで、差分画像DiIを生成する。尚、差分画像生成部80bでは、生成した差分画像DiIに対してさらにメディアンフィルタなどの適宜なフィルタ処理を施すことにより、ノイズを除去する。また、ロボット1が移動することによって時刻tと時刻t+Δtの基準画像BI内の背景が変化する場合は、CCDカメラ50Lの移動量に基づいて時刻t+Δtに撮像した基準画像BIを補正することで、移動体の動きのみを差分として検出するようにする。
【0036】
図7に、差分画像生成部80bで生成された差分画像DiIを示す。同図において、黒で示す領域が画素値1を与えた領域、即ち、動きのあった画素を示し、白で示す領域が画素値0を与えた領域、即ち、動きのなかった画素を示す。従って同図は、時刻tから時刻t+Δtまでの間に、人Aの右手Arhや頭部Ah、人Bの右手Brhに最も大きな動き(移動)が生じたことを示す。
【0037】
図4の説明に戻ると、エッジ画像生成部80cは、左側のCCDカメラ50Lで撮像された基準画像BIに基づいてエッジ画像EIを生成する。具体的には、エッジ画像生成部80cは、前記基準画像BIの輝度が所定レベル以上変化する画素をエッジとして検出し、検出したエッジのみからなるエッジ画像EIを生成する。尚、エッジの検出は、より具体的には、画像全体に所定の重み係数を有するオペレータ(Sovelオペレータなど)を当て、対応する画素輝度値の積を算出し、行または列単位で隣の線分と所定値以上の差を有する線分をエッジとして検出することによって行う。
【0038】
図8に、エッジ画像生成部80cで生成されたエッジ画像EIを示す。図示の如く、輝度が大きく変化する背景と各人A,B,Cの境界線が、エッジとして検出される。
【0039】
図4の説明に戻ると、肌色領域画像生成部80dは、左側のCCDカメラ50Lで撮像された基準画像BIから肌色の領域を抽出して肌色領域画像CIを生成する。具体的には、肌色領域画像生成部80dは、前記基準画像BIをRGB値(Red,Green,Blue)からHLS空間(色相、明度、彩度)に変換し、色相、明度および彩度の全てが予め設定された肌色に関するしきい値を超えた画素に肌色を呈する画素として画素値1を与え、他の画素に肌色以外の色彩を呈する画素として画素値0を与えることで、肌色領域画像CIを生成する。また、肌色領域画像生成部80dでは、生成した肌色領域画像CIに対してさらにメディアンフィルタなどの適宜なフィルタ処理を施すことにより、ノイズを除去する。
【0040】
図9に、肌色領域画像生成部80dで生成された肌色領域画像CIを示す。同図において、黒で示す領域が画素値1を与えた領域、即ち、肌色を呈する画素を示し、白で示す領域が画素値0を与えた領域、即ち、肌色以外の色彩を呈する画素を示す。図示の如く、基準画像BIのうち、人A,B,Cの肌色部分(肌が露出した部分)、即ち、それぞれの頭部(より詳しくは顔部)Ah,Bh,Chと、人A,Bの右手(より詳しくは手のひら)Arh,Brhと、人A,Bの左手(より詳しくは手のひら)Alh,Blhが肌色領域として抽出される。尚、人Cの両手は、図5に示す如く体の後ろで組まれていることから、肌色領域として抽出されない。
【0041】
図4の説明に戻ると、移動体検出ブロック80Bは、移動体距離設定部80eと、移動体距離画像生成部80fと、輪郭抽出領域設定部80gと、中心線補正部80hと、移動体検出部80iと、距離画像更新部80jとからなる。
【0042】
移動体距離設定部80eは、前記した距離画像DeIと差分画像DiIに基づいて移動体(人A,B,C)が存在すると推定される位置までの距離(以下「移動体距離」という)を設定する。具体的には、移動体距離設定部80eは、距離画像DeIで表された視差(距離)ごとに、その視差に対応する位置にある差分画像DiIの画素数を累計すると共に、累計値が最大となる視差(距離)に移動体が存在していると推定し、移動体距離として設定する。
【0043】
図7に示した差分画像では、人Aの右手Arhや頭部Ah、人Bの右手Brhに最も大きな動き(移動)が生じていることから、図6に示す距離画像DeIにおいて、CCDカメラ50R(L)から1.63mの距離を示す視差が移動体距離として設定されることになる。尚、移動体距離設定部80eは、入力された距離画像DeIと差分画像DiIを、画像処理ECU内の図示しないRAMに記憶させる。
【0044】
図4の説明を続けると、移動体距離設定部80eで設定された移動体距離は、移動体距離画像生成部80fに送出される。移動体距離画像生成部80fは、エッジ画像EIから前記移動体距離に対応する画素を抽出して移動体距離画像TDeIを生成する。
【0045】
具体的には、移動体距離画像生成部80fは、前記移動体距離±αの視差の幅(奥行き)を、最も動きの大きい移動体が存在する視差の範囲として設定する。ここで、αの値は、移動体を人と仮定した場合、例えば0.5mに設定される。従って、図10に示すように、移動体距離画像TDeIには、人A,Bを示すエッジの他、人A,Bから0.33m後方に位置する人Cを示すエッジも抽出される。一方、それより後方に位置する背景を示すエッジは、削除される。
【0046】
移動体距離画像生成部80fで生成された移動体距離画像TDeIは、輪郭抽出領域設定部80gに送出される。輪郭抽出領域設定部80gは、前記移動体距離画像TDeI内の画素数を累計してヒストグラム化すると共に、累計した画素数が最大となる位置を中心線として、移動体距離画像TDeIに、移動体の輪郭の抽出を実行すべき輪郭抽出領域を設定する。
【0047】
具体的には、輪郭抽出領域設定部80gは、移動体距離画像生成部80fで生成された移動体距離画像TDeIの垂直方向の画素数を累計し、ヒストグラム化する。図11に、移動体距離画像TDeIの垂直方向の画素(符号PE)と、作成したヒストグラム(符号H)を示す。尚、同図(および後述の図12と図13)において、理解の便宜のため、画素PEの背景に図5で示した基準画像BIを重畳して示す。
【0048】
輪郭抽出領域設定部80gは、さらに、作成したヒストグラムHが最大となる位置に中心線CLを設定する。そして、設定した中心線CLを中心に、図12に示す如く、移動体の輪郭の抽出(後述)を実行すべき輪郭抽出領域Tを設定する。より具体的には、中心線CLを中心として水平方向に所定の幅を有すると共に、垂直方向に所定の幅を有する範囲を、輪郭抽出領域Tとして設定する。
【0049】
これにより、移動体(人Aと人B)が隣接して存在している場合であっても、それらを個別の移動体として分割した上で輪郭の抽出を実行することができる。尚、水平方向の所定の幅は、移動体を人と仮定した場合、肩幅程度の値、具体的には0.5mに設定する。また、垂直方向の所定の幅は、移動体までの距離とカメラパラメータ(CCDカメラ50R(L)のパン、チルト角など)の値に基づき、移動体を十分に覆うことのできる範囲(移動体を人と仮定した場合、例えば2.0m)に設定する。
【0050】
ここで、ヒストグラムHが最大となる位置を輪郭抽出領域Tの中心に設定するのは、そこに移動体の中心(図12を例にとって説明すれば、人Aの頭部Ah)が存在すると考えられるためである。しかしながら、移動体距離画像TDeIは、エッジ画像EIをベースとして生成されているため、頭部と背景の境界線付近に多くの画素が存在する。
【0051】
従って、図12に示すように、ヒストグラムHが最大となる位置、即ち、中心線CLが、頭部(人Aの頭部Ah)の中心から端部方向へとずれる場合がある。輪郭抽出領域Tは、検出すべき移動体に対応した大きさの範囲に設定されるため、中心線CLが移動体の中心からずれると、図12に示すように、移動体の一部(人Aの右手Arh)が輪郭抽出領域Tの外方に突出してしまい、移動体を正確に検出できないおそれがある。尚、輪郭抽出領域Tを拡大すれば移動体の全てを領域内に収めることができるが、輪郭抽出領域Tは、移動体の輪郭の抽出が行われる領域であるので、処理の負担上、領域を拡大するのは好ましくない。
【0052】
そこで、この実施の形態にあっては、輪郭抽出領域Tが適正な位置となるように、輪郭抽出領域設定部80gで設定した中心線CLを補正するようにした。
【0053】
図4の説明に戻ると、輪郭抽出領域設定部80gで設定された中心線CLと輪郭抽出領域Tは、中心線補正部80hに送出され、そこで前記エッジ画像EIに基づいて中心線CLの位置と輪郭抽出領域Tが補正される。
【0054】
具体的には、中心線補正部80hは、エッジ画像EIと、中心線CLおよび輪郭抽出領域Tが設定された移動体距離画像TDeIを入力し、エッジ画像EIと移動体距離画像TDeIを重ね合わせて中心線CLを補正する。
【0055】
エッジ画像EIは、移動体の外形線によく合致しているため、前記中心線CLを、エッジ画像EIで垂直方向のピークが現れる位置(即ち、移動体で最も高い位置に存在する頭部の中心)に補正することで、中心線CLを移動体の中心に正確に位置させることができる。
【0056】
しかしながら、図8の人Aのように、手を頭部と同じ高さ付近まで挙げている場合などにあっては、エッジ画像EIに複数のピークが存在するため、どのピークを頭部として認識すべきかという問題が生じる。
【0057】
そこで、中心線補正部80hでは、前記した肌色領域画像生成部80dで生成された肌色領域画像CIを入力し、入力した肌色領域画像CIを、データベースDB(図13に示す)に記憶された複数の肌色領域の配置パターンと比較すると共に、最も近似する配置パターンに基づき、頭部として認識すべきエッジ画像のピークを判定するようにした。尚、データベースDBは、画像処理ECU80内の図示しないROMに格納される。
【0058】
上記について敷衍すると、データベースDBには、図13に示す如く、頭部(顔部)と手(手のひら)からなる肌色領域(斜線で示す)の配置パターンが複数記憶される。肌色領域の配置パターンとしては、例えば、頭部の横に手を位置させる(パターン1)、手を頭部より上方に挙げる(パターン2)、握手を求める位置に手を配置する(パターン3)、などのパターンが記憶される。中心線補正部80hは、それら配置パターンと肌色領域画像CIとを比較し、最も近似する配置パターンを選択することで、肌色領域画像CIにおいて、どの肌色領域が頭部を表しているのかを判定することができる。尚、データベースDBに記憶された各パターンは、前記移動体距離設定部80eで設定された移動体距離に応じて適宜補正されることは言うまでもない。
【0059】
そして、中心線補正部80hは、頭部と認識された肌色領域画像CIの肌色領域に対応するエッジ画像EIのピークに、前記した輪郭抽出領域Tの中心線CLを位置させる(補正する)。これにより、エッジ画像EIのピークが複数存在する場合であっても、中心線CLを移動体の中心に正確に位置させることができる。図14に、補正後の中心線CCLと輪郭抽出領域CTを示す。
【0060】
図4の説明に戻ると、中心線補正部80hで設定された補正後の中心線CCLと輪郭抽出領域CTは、移動体検出部80iに送出される。
【0061】
移動体検出部80iは、補正後の輪郭抽出領域CT内において、公知の動的輪郭モデル(スネーク:Snakes)によって移動体(人A)の輪郭(図14で符号Oで示す)を抽出して移動体を検出する。また、図14に示す如く、移動体の重心位置(輪郭Oを含む内部領域の重心位置)を算出すると共に、ロボット1から移動体の重心位置までの距離[m]と方向[deg]を算出する。
【0062】
移動体検出部80iで抽出された移動体の輪郭O、および算出されたロボット1から移動体の重心位置までの距離と方向は、移動体情報として歩行制御ECU60に送出される。歩行制御ECU60は、入力された移動体情報に基づき、必要であれば、ロボット1を停止させる、あるいは移動体を回避させるように、ロボット1の各関節を駆動する電動モータを作動させる。尚、ロボット1の歩容の生成手法に関しては、本出願人が先に提案した特開2002−326173号公報などに詳しく記載されているため、ここでの説明は省略する。
【0063】
また、移動体検出部80iで算出された移動体情報は、距離画像更新部80jにも送出される。距離画像更新部80jは、移動体検出部80iで算出された移動体情報に基づき、移動体距離設定部80eで記憶させた距離画像DeIを更新する。
【0064】
具体的には、輪郭Oを含む内部領域に対応する距離画像DeIの画素値を0に設定する。換言すれば、輪郭の抽出が完了した移動体の存在領域を、距離画像DeIから削除する。距離画像更新部80jによって距離画像DeIを更新されると、その情報は更新情報として移動体距離設定部80eに送出される。これにより、上述の移動体の検出処理を継続することで、次回以降の処理において、人Bや人Cを個別の移動体として検出することができる。
【0065】
このように、この実施の形態にあっては、基準画像BIの輝度が所定レベル以上変化した画素を抽出してなるエッジ画像EIから、さらに移動体までの距離(移動体距離)に対応する画素を抽出して移動体距離画像TDeIを生成し、移動体距離画像TDeI内の画素数を累計したヒストグラムが最大となる位置を中心線として前記移動体距離画像TDeIに輪郭抽出領域Tを設定すると共に、前記移動体距離画像TDeIにエッジ画像EIを重ねて輪郭抽出領域Tの中心線CLを補正し、補正された輪郭抽出領域CT内において移動体の輪郭を抽出して移動体を検出するように構成したので、移動体の輪郭の抽出を、移動体が個別に存在する領域に限定して行うことができ、よって複数の移動体が隣接して存在する場合であっても、それらを個別の移動体として検出することができる。
【0066】
また、移動体距離画像TDeIにエッジ画像EIを重ねて中心線CLを補正する、換言すれば、移動体の輪郭によく合致したエッジ画像EIのピークに前記中心線CLを位置させるように構成したので、累計した画素数が最大となる位置と移動体の中心が一致しない場合であっても、前記輪郭抽出領域(補正後の輪郭抽出領域CT)に移動体(個別の移動体)全体を収めることができ、よって隣接して存在する複数の移動体を、個別の移動体として精度良く検出することができる。
【0067】
さらに、基準画像BIから肌色を抽出して肌色領域画像CIを生成すると共に、前記肌色領域画像CIとデータベースDBに記憶された肌色領域の配置パターンを比較し、最も近似する配置パターンに基づいて輪郭抽出領域Tの中心線CLを補正する、換言すれば、エッジ画像EIのピークが複数存在する場合において、中心線CLを位置させるべきピークを肌色領域の配置パターンに基づいて判定するように構成したので、エッジ画像EIのピークが複数存在する場合であっても、中心線CLを移動体の中心に正確に位置させることができ、よって隣接して存在する複数の移動体を、個別の移動体として一層精度良く検出することができる。
【0068】
また、移動体が個別に存在する領域を正確に絞り込むことができるため、比較的処理が複雑な動的輪郭モデル(スネーク)を用いて移動体の輪郭を抽出する場合であっても、演算処理を軽減させて実時間で処理することが可能となる。
【0069】
以上のように、この発明の一つの実施の形態にあっては、複数の撮像手段(左右のCCDカメラR(L))で時系列にステレオ視して得た複数の撮像画像に基づいて移動体の輪郭を抽出し、前記移動体を検出する移動体(人A,B,C)の検出装置において、前記複数の撮像画像の視差(具体的には、左側のCCDカメラ50Lで撮像した基準画像BIと右側のCCDカメラ50Rで撮像した同時刻画像の視差)に基づいて撮像対象までの距離を示す距離画像DeIを生成する距離画像生成手段(距離画像生成部80a)、時系列(t,t+Δt)に入力される前記撮像画像(基準画像BI)間の差分を求めて差分画像DiIを生成する差分画像生成手段(差分画像生成部80b)、前記撮像画像(基準画像BI)の輝度が所定レベル以上変化する画素を抽出してエッジ画像EIを生成するエッジ画像生成手段(エッジ画像生成部80c)、前記距離画像DeIと差分画像DiIに基づいて前記移動体が存在すると推定される位置までの距離を示す移動体距離を設定する移動体距離設定手段(移動体距離設定部80e)、前記エッジ画像EIから前記移動体距離に対応する画素を抽出して移動体距離画像TDeIを生成する移動体距離画像生成手段(移動体距離画像生成部80f)、前記移動体距離画像TDeI内の画素数を累計してヒストグラム化する(ヒストグラムHを作成する)画素累計手段(輪郭抽出領域設定部80g)、前記累計した画素数が最大となる位置を中心線CLとして前記移動体距離画像TDeIに、前記移動体の輪郭の抽出を実行すべき輪郭抽出領域Tを設定する輪郭抽出領域設定手段(輪郭抽出領域設定部80g)、前記エッジ画像EIに基づいて前記輪郭抽出領域Tの中心線CLを補正する中心線補正手段(中心線補正部80h)、および前記中心線CLが補正された輪郭抽出領域T内において前記移動体の輪郭O(人Aの輪郭)を抽出して前記移動体を検出する移動体検出手段(移動体検出部80i)、を備えるように構成した。
【0070】
さらに、前記撮像対象(基準画像BI)から所定の色彩(肌色領域)を抽出して所定色彩領域画像(肌色領域画像CI)を生成する所定色彩画像生成手段(肌色領域画像生成部80d)、および前記所定の色彩の配置パターンを複数記憶させたデータベースDB、を備えると共に、前記中心線補正手段(中心線補正部80h)は、前記所定色彩領域画像と前記所定の色彩の配置パターンを比較し、最も近似する配置パターンに基づいて前記輪郭抽出領域Tの中心線CLを補正するように構成した。
【0071】
また、前記移動体検出手段(移動体検出部80i)は、前記移動体の輪郭Oを動的輪郭モデル(スネーク)によって抽出するように構成した。
【0072】
尚、上記において、基準画像BIから肌色領域を抽出して肌色領域画像CIを生成するようにしたが、移動体の特徴(特に姿勢の特徴)を認識できる色彩であれば、他の色彩であっても良い。
【0073】
【発明の効果】
請求項1項にあっては、ステレオ視して得た複数の撮像画像の視差に基づく撮像対象までの距離を示す距離画像と、時系列に入力される撮像画像間の差分をとった差分画像と、撮像画像の輝度が所定レベル以上変化する画素を抽出したエッジ画像とを生成し、前記距離画像と差分画像に基づいて前記移動体が存在すると推定される位置までの距離を示す移動体距離を設定し、前記エッジ画像から前記移動体距離に対応する画素を抽出して移動体距離画像を生成し、前記移動体距離画像内の画素数を累計してヒストグラム化し、前記累計した画素数が最大となる位置を中心線として前記移動体距離画像に、前記移動体の輪郭の抽出を実行すべき輪郭抽出領域を設定すると共に、前記エッジ画像を重ねて前記輪郭抽出領域の中心線を補正し、前記中心線が補正された輪郭抽出領域内において前記移動体の輪郭を抽出して前記移動体を検出するように構成したので、移動体の輪郭の抽出を、移動体が個別に存在する領域に限定して行うことができ、よって複数の移動体が隣接して存在する場合であっても、それらを個別の移動体として検出することができる。
【0074】
さらに、前記エッジ画像に基づいて中心線を補正する、より具体的には、移動体の輪郭によく合致したエッジ画像のピークに前記中心線を位置させるように構成したので、累計した画素数が最大となる位置と移動体の中心が一致しない場合であっても、輪郭抽出領域に移動体(個別の移動体)全体を収めることができ、よって隣接して存在する複数の移動体を、個別の移動体として精度良く検出することができる。
【0075】
請求項2項においては、さらに前記撮像対象から所定の色彩を抽出して所定色彩領域画像を生成すると共に、前記所定色彩領域画像とデータベースに記憶された所定の色彩の配置パターンを比較し、最も近似する配置パターンに基づいて前記輪郭抽出領域の中心線を補正するように構成した、より具体的には、エッジ画像のピークが複数存在する場合において、中心線を位置させるべきピークを所定の色彩(例えば肌色)の配置パターンに基づいて判定するように構成したので、エッジ画像のピークが複数存在する場合であっても、輪郭抽出領域の中心線を移動体の中心に正確に位置させることができ、よって隣接して存在する複数の移動体を、個別の移動体として一層精度良く検出することができる。
【0076】
請求項3項にあっては、請求項1項および2項で記載される構成により、移動体が個別に存在する領域を正確に絞り込むことができるため、比較的処理が複雑な動的輪郭モデル(スネーク)を用いて移動体の輪郭を抽出する場合であっても、演算処理を軽減させて実時間で処理することが可能となる。
【図面の簡単な説明】
【図1】この発明の一つの実施の形態に係る移動体の検出装置が搭載される、2足歩行ロボットの正面図である。
【図2】図1に示す2足歩行ロボットの右側面図である。
【図3】図1に示す2足歩行ロボットの内部構造を関節を中心に全体的に示す概略図である。
【図4】図3に示す画像処理ECUの構成を機能的に示すブロック図である。
【図5】図4に示すCCDカメラのうち、左側のCCDカメラで撮像した基準画像を示す説明図である。
【図6】図4に示す距離画像生成部で生成される距離画像を示す説明図である。
【図7】図4に示す差分画像生成部で生成される差分画像を示す説明図である。
【図8】図4に示すエッジ画像生成部で生成されるエッジ画像を示す説明図である。
【図9】図4に示す肌色領域画像生成部で生成される肌色領域画像を示す説明図である。
【図10】図4に示す移動体距離画像生成部で生成される移動体距離画像を示す説明図である。
【図11】図4に示す輪郭抽出領域設定部で設定されるヒストグラムと中心線を示す説明図である。
【図12】図4に示す輪郭抽出領域設定部で設定される輪郭抽出領域を示す説明図である。
【図13】図4に示す中心線補正部で使用されるデータベースを示す説明図である。
【図14】図4に示す中心線補正部で補正された中心線と輪郭抽出領域を示す説明図である。
【符号の説明】
1 2足歩行ロボット
2 脚部
3 上体
5 腕部
50R (右側の)CCDカメラ(撮像手段)
50L (左側の)CCDカメラ(撮像手段)
80 画像処理ECU
80a 距離画像生成部(距離画像生成手段)
80b 差分画像生成部(差分画像生成手段)
80c エッジ画像生成部(エッジ画像生成手段)
80d 肌色領域画像生成部(所定色彩領域画像生成手段)
80e 移動体距離設定部(移動体距離設定手段)
80f 移動体距離画像生成部(移動体距離画像生成手段)
80g 輪郭抽出領域設定部(画素累計手段、輪郭抽出領域設定手段)
80h 中心線補正部(中心線補正手段)
80i 移動体検出部(移動体検出手段)
A 人(移動体)
BI 基準画像(撮像画像)
B 人(移動体)
C 人(移動体)
CI 肌色領域画像(所定色彩領域画像)
CL 中心線
DB データベース
DeI 距離画像
DiI 差分画像
EI エッジ画像
O 輪郭
T 輪郭抽出領域
TDeI 移動体距離画像

Claims (3)

  1. 複数の撮像手段で時系列にステレオ視して得た複数の撮像画像に基づいて移動体の輪郭を抽出し、前記移動体を検出する移動体の検出装置において、
    a.前記複数の撮像画像の視差に基づいて撮像対象までの距離を示す距離画像を生成する距離画像生成手段、
    b.時系列に入力される前記撮像画像間の差分を求めて差分画像を生成する差分画像生成手段、
    c.前記撮像画像の輝度が所定レベル以上変化する画素を抽出してエッジ画像を生成するエッジ画像生成手段、
    d.前記距離画像と差分画像に基づいて前記移動体が存在すると推定される位置までの距離を示す移動体距離を設定する移動体距離設定手段、
    e.前記エッジ画像から前記移動体距離に対応する画素を抽出して移動体距離画像を生成する移動体距離画像生成手段、
    f.前記移動体距離画像内の画素数を累計してヒストグラム化する画素累計手段、
    g.前記累計した画素数が最大となる位置を中心線として前記移動体距離画像に、前記移動体の輪郭の抽出を実行すべき輪郭抽出領域を設定する輪郭抽出領域設定手段、
    h.前記エッジ画像に基づいて前記輪郭抽出領域の中心線を補正する中心線補正手段、
    および
    i.前記中心線が補正された輪郭抽出領域内において前記移動体の輪郭を抽出して前記移動体を検出する移動体検出手段、
    を備えることを特徴とする移動体の検出装置。
  2. さらに、
    j.前記撮像対象から所定の色彩を抽出して所定色彩領域画像を生成する所定色彩画像生成手段、
    および
    k.前記所定の色彩の配置パターンを複数記憶させたデータベース、
    を備えると共に、前記中心線補正手段は、前記所定色彩領域画像と前記所定の色彩の配置パターンを比較し、最も近似する配置パターンに基づいて前記輪郭抽出領域の中心線を補正することを特徴とする請求項1項記載の移動体の検出装置。
  3. 前記移動体検出手段は、前記移動体の輪郭を動的輪郭モデルによって抽出することを特徴とする請求項1項または2項記載の移動体の検出装置。
JP2003095483A 2003-03-31 2003-03-31 移動体の検出装置 Expired - Fee Related JP4231320B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003095483A JP4231320B2 (ja) 2003-03-31 2003-03-31 移動体の検出装置
US10/808,327 US7254253B2 (en) 2003-03-31 2004-03-25 Moving object detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003095483A JP4231320B2 (ja) 2003-03-31 2003-03-31 移動体の検出装置

Publications (2)

Publication Number Publication Date
JP2004302905A JP2004302905A (ja) 2004-10-28
JP4231320B2 true JP4231320B2 (ja) 2009-02-25

Family

ID=32985463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003095483A Expired - Fee Related JP4231320B2 (ja) 2003-03-31 2003-03-31 移動体の検出装置

Country Status (2)

Country Link
US (1) US7254253B2 (ja)
JP (1) JP4231320B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7376250B2 (en) * 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
JP4670303B2 (ja) * 2004-10-06 2011-04-13 ソニー株式会社 画像処理方法及び画像処理装置
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
JP4384021B2 (ja) 2004-12-14 2009-12-16 本田技研工業株式会社 脚式ロボットの制御装置
JP4516516B2 (ja) * 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
DE602006009885D1 (de) 2005-12-12 2009-12-03 Honda Motor Co Ltd Steuersystem für einen beweglichen Roboter mit Beinen
JP2007160440A (ja) 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
EP1870210A1 (en) * 2006-06-22 2007-12-26 Honda Research Institute Europe GmbH Evaluating visual proto-objects for robot interaction
JP4699298B2 (ja) * 2006-06-28 2011-06-08 富士フイルム株式会社 人体領域抽出方法および装置並びにプログラム
JP2008243184A (ja) * 2007-02-26 2008-10-09 Fujifilm Corp 濃淡画像の輪郭補正処理方法及びその装置
JP2009115621A (ja) * 2007-11-06 2009-05-28 Toshiba Corp 移動体画像追尾装置
JP4982407B2 (ja) * 2008-02-22 2012-07-25 株式会社東芝 移動体画像追尾装置及び方法
JP5432545B2 (ja) * 2009-02-25 2014-03-05 株式会社トプコン 対象物検出装置
CN101937563B (zh) * 2009-07-03 2012-05-30 深圳泰山在线科技有限公司 一种目标检测方法和设备及其使用的图像采集装置
TWI405143B (zh) * 2009-11-27 2013-08-11 Altek Corp 用於辨識的物件影像校正裝置與其方法
US8290248B2 (en) * 2009-12-31 2012-10-16 Mitsubishi Electric Research Laboratories, Inc. Determining disparity search range in stereo videos
CN101900536B (zh) * 2010-07-28 2011-11-16 西安交通大学 基于数字图像法的物体表面形貌的测量方法
CN101908214B (zh) * 2010-08-10 2012-05-23 长安大学 基于邻域相关的背景重构的运动目标检测方法
JP5957359B2 (ja) * 2012-10-19 2016-07-27 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
JP6334925B2 (ja) * 2013-01-18 2018-05-30 キヤノンメディカルシステムズ株式会社 動作情報処理装置及び方法
US10694106B2 (en) 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing
CN103700087B (zh) * 2013-11-28 2016-09-28 深圳市智美达科技股份有限公司 移动侦测方法和装置
JP6364836B2 (ja) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
DE102015204867A1 (de) * 2015-03-18 2016-09-22 Kuka Roboter Gmbh Robotersystem und Verfahren zum Betrieb eines teleoperativen Prozesses
JP2017158644A (ja) * 2016-03-07 2017-09-14 富士通株式会社 測定装置、測定方法及び測定プログラム
WO2019172733A2 (ko) * 2019-05-08 2019-09-12 엘지전자 주식회사 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3288086B2 (ja) 1992-10-26 2002-06-04 株式会社東芝 動物体抽出装置
JP3366497B2 (ja) * 1995-07-12 2003-01-14 松下電器産業株式会社 部品検出方法
JP3054681B2 (ja) * 1995-07-19 2000-06-19 工業技術院長 画像処理方法
JPH09106500A (ja) * 1995-10-12 1997-04-22 Fuji Heavy Ind Ltd 車輌の運転支援装置
JP3802653B2 (ja) * 1997-05-21 2006-07-26 オリンパス株式会社 立体画像表示装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP3562751B2 (ja) * 1998-06-09 2004-09-08 矢崎総業株式会社 前方車両検出方法及び装置
JP3454726B2 (ja) * 1998-09-24 2003-10-06 三洋電機株式会社 顔向き検出方法及びその装置
JP3833424B2 (ja) * 1999-09-22 2006-10-11 三菱電機株式会社 障害物検出装置
JP2002117390A (ja) * 2000-10-05 2002-04-19 Olympus Optical Co Ltd 画像処理装置
JP3726032B2 (ja) 2001-04-27 2005-12-14 本田技研工業株式会社 脚式移動ロボットの目標運動生成装置
JP3952460B2 (ja) * 2002-11-19 2007-08-01 本田技研工業株式会社 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP4235018B2 (ja) * 2003-03-31 2009-03-04 本田技研工業株式会社 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP4153818B2 (ja) * 2003-03-31 2008-09-24 本田技研工業株式会社 ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP4153819B2 (ja) * 2003-03-31 2008-09-24 本田技研工業株式会社 ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム

Also Published As

Publication number Publication date
JP2004302905A (ja) 2004-10-28
US20040190752A1 (en) 2004-09-30
US7254253B2 (en) 2007-08-07

Similar Documents

Publication Publication Date Title
JP4231320B2 (ja) 移動体の検出装置
JP4080932B2 (ja) 2足歩行ロボットの制御装置
EP2894011B1 (en) Walk-assistive robot and method of controlling the same
US8315455B2 (en) Robot system, robot control device and method for controlling robot
JP4511919B2 (ja) 多面体認識装置
TWI466062B (zh) 重建三維模型的方法與三維模型重建裝置
CN107646125B (zh) 移动球体的感测装置及感测方法
KR101188715B1 (ko) 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
US20160184998A1 (en) Robot identification system
JP2015106252A (ja) 顔向き検出装置及び3次元計測装置
JP7355974B2 (ja) 距離推定装置および方法
US9235895B2 (en) Method for estimating direction of person standing still
KR20130078913A (ko) 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자
JP2967086B1 (ja) 多眼画像処理による人物の三次元姿勢推定方法
CN109448105B (zh) 基于多深度图像传感器的三维人体骨架生成方法及系统
KR100824744B1 (ko) 모서리 형태를 이용한 이동로봇의 자기위치 검출 시스템 및방법
JP2006215743A (ja) 画像処理装置及び画像処理方法
Nguyen et al. Real-time obstacle detection for an autonomous wheelchair using stereoscopic cameras
JP6841553B2 (ja) 撮像装置
CN115526897A (zh) 特高压换流站消防机器人火焰定位方法及系统
Lim et al. Depth image based gait tracking and analysis via robotic walker
JP2004254960A (ja) 視線方向検出装置および視線方向検出方法
JP2006190195A (ja) 対象物姿勢推定装置
Sessner et al. Robust Obstacle Mapping for Visually Impaired Jogger on Less Structured Paths
CN108814912B (zh) 一种基于多目视觉测量的智能避障系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081205

R150 Certificate of patent or registration of utility model

Ref document number: 4231320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees