JP4588914B2 - Object position measuring device - Google Patents

Object position measuring device Download PDF

Info

Publication number
JP4588914B2
JP4588914B2 JP2001128708A JP2001128708A JP4588914B2 JP 4588914 B2 JP4588914 B2 JP 4588914B2 JP 2001128708 A JP2001128708 A JP 2001128708A JP 2001128708 A JP2001128708 A JP 2001128708A JP 4588914 B2 JP4588914 B2 JP 4588914B2
Authority
JP
Japan
Prior art keywords
distance
outer shape
detection processing
outline
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001128708A
Other languages
Japanese (ja)
Other versions
JP2002323301A (en
Inventor
收文 中山
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001128708A priority Critical patent/JP4588914B2/en
Publication of JP2002323301A publication Critical patent/JP2002323301A/en
Application granted granted Critical
Publication of JP4588914B2 publication Critical patent/JP4588914B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はステレオ距離計測の手法により得た映像内の各物体までの距離情報に基づき映像内に映っている物体を検出する装置において、照明状態の変化などによって映像全体または一部の明るさが増減して、結果として物体の一部の距離情報が欠落する場合においても、安定に物体を検出して物体の3次元位置を計測するものに関する。
【0002】
映像中の任意の物体を検出し、その3次元位置を特定する装置は、例えば路上映像から車両の位置を計測して車両の通過の有無や通過速度を算出する交通流計測システムや、人が往来する映像から通過する人の位置や人数を計測する人物監視システムなど、物体監視システム一般に適用可能である。
【0003】
またベルトコンベア上を運ばれてくる物品の種別を判別する物流システムにおいて、その物品の大きさや映像特徴から運ばれている物品を特定する物品識別へ適用することも可能であり、その外に無人搬送システムで走行ルート上にある障害物を特定するための物体検出手段としての適用や、自律ロボットシステムにおいて、周囲にある物体の位置や大きさを計測する認識処理への適用が可能である。
【0004】
【従来の技術】
従来の、センサ周囲の距離情報を用いて物体の位置を計測する計測方式は、最初にステレオ距離計測方式によってセンサ周囲にある物体の各位置までの距離(これを距離情報という)を計測して、次に得られた距離情報から特定の大きさや形を持つ部位を抽出して該当物体として識別する。この識別された物体は距離情報を有しているので、その距離情報により、センサから見たステレオ画像により3次元位置が計測できる。
【0005】
この方式の代表例として実吉 敬二、塙 圭二、十川 能之、荒井 一真等の「ステレオ画像を用いた運転支援のための前方状況認識システム」電子情報通信学会技術研究報告PRMU97−25〜36pp.39−46の方式を例として説明する。
【0006】
これによれば、図8に示す如く、計測したい物体21を含む情景を2台のテレビカメラ22、23を用いて撮影し、ステレオ画像を得る。ここでは左右水平に取付けられたテレビカメラを用いているので、左右1対のステレオ画像24、25の映像が取得できる。
【0007】
次にこのステレオ画像24、25から明るさが急変する点群であるエッジ点を、ステレオ画像を微分処理して抽出して、左右画像それぞれに対するエッジ画像26、27を得る。続して、後述するステレオ距離計測処理により、各エッジ点について画像の位置ずれ検出画面28に示す如く、ずれ量dを検出し、このずれ量dと、テレビカメラ22、23の距離にもとづきこのエッジ点について物体までの距離を計測する。
【0008】
ステレオ距離計測処理とは、一方のエッジ画像、例えばエッジ画像26中の各位置において、N×N画素の局所領域を設ける。そしてそれぞれの局所領域毎に、他方のエッジ画像27中にN×N画素の局所領域を設け、他方のエッジ画像27中でこの局所領域を走査することにより、エッジ画像26の局所領域と同じエッジ点の分布するエッジ画像27における局所領域を検出する。すなわち左のエッジ画像26と右のエッジ画像27から同一物体を示す個所を探し出す処理を行う。これがステレオ距離計測処理である。
【0009】
物体は、左右画像では距離に応じて映る位置つまり投影される位置が異なるため逆に同一物体の画像での投影位置を左右画像から探し求めることでその位置ずれ量を検出することで、物体までの距離を計算することができる。
【0010】
このステレオ処理によって画像の各エッジ点で求められた距離の情報は、3次元空間の一点にマッピングされるので、距離が求まった各エッジ点についてマッピング作業を行い、3次元空間での位置の分布を得る。この3次元空間で、例えば予め定めた路面の位置より上方にあり、かつ車両の幅・高さ・奥行きに合致する3次元の塊を検出することで、計測対象である車両を識別することができる。
【0011】
【発明が解決しようとする課題】
このような対象情景の各位置までの距離情報を取得し、その距離情報にのみ基づいて物体位置を計測する逐次的な方式では、物体までの距離情報が得られている場合には、物体を識別でき、その3次元位置を計測することができる。
【0012】
ところが、例えば屋外で稼働する場合を考えると、日照変化や天候変化により照度の増減があるため、映像全体が暗くなり過ぎたり、明るくなり過ぎたりして、対象物体と背景の明るさが似てきてしまい、対象物体の外形を示すエッジ点の検出位置がずれることがある。
【0013】
しかもその位置ずれは、左右上下のいずれの方向に生じるかは各エッジ毎に独立であるため、エッジ点毎のステレオ処理において、局所領域毎のエッジ点の分布形状を比較しても左右画像から一致する部分が見つけられず、物体外形の距離が計測できなかったり、一致部分を見つけられたとしてもエッジの位置がずれを含むため、誤った距離の情報を呈することとなる。結果として物体外形を示す距離情報が欠落して物体の検出ができなかったり、誤った距離情報を用いて誤った位置に物体があると誤認識してしまう問題があった。
【0014】
2つの画像によるステレオ処理では、設置した2台のカメラと平行な方向のエッジについては原理的に距離を求めることができない。例えば左右水平にカメラを設置した場合には、水平線エッジの距離を算出できず、物体の縦方向の外形しか距離は得られない。実際に照度変化が生じたときに、どのように物体外形の距離情報が欠けるかを観察すると、物体外形の全体が得られない場合よりも、物体左右端の外形のいずれかが欠けることが多い。物体外形の左右端のいずれかが欠けると、3次元的な幅や高さが変わるので、物体として検出できない。
【0015】
このような状況を考えると物体の外形の一部から距離情報が得られない場合でも物体の位置を正確に検出できることが必要である。従って本発明の目的は、物体の外形の一部から距離情報が得られない場合でも物体の位置を正確に検出することができる物体位置計測装置を提供することである。
【0016】
【課題を解決するための手段】
本発明の原理構成を図1に示す。図1において1はステレオ画像撮影部、2はステレオ処理部、3は物体検出処理部、4は物体検出処理選択部、5は全体外形物体検出処理部、6は部分外形物体検出処理部である。本発明の前記目的は下記(1)〜(3)により達成することができる。
【0017】
(1)ステレオ計測距離情報から物体を検出する物体位置計測装置において、検出すべき物体の外形の全体で距離情報が得られているか否かを判断する物体検出処理選択手段4と、
前記外形の全体で距離情報が得られているとき、物体位置を決定する全体外形物体検出処理手段5と、
前記物体の外形の一部の距離情報が欠けている場合に、予め用意した物体の外形の見え方モデルを使用して外形の欠けている部分を識別し、欠けた部分に対応する位置のエッジ点の如き特徴量の塊に基づき外形を形成し、この塊に基づいてステレオ対応付けを行うことにより、前記欠けた部分の外形の距離を算出する部分外形物体検出処理手段6を具備したことを特徴とする物体位置計測装置。
【0018】
(2)前記部分外形物体検出処理手段6は前記エッジ点の如き特徴量の塊の平均位置に基づいてステレオ対応付けを行うこと特徴とする前記(1)記載の物体位置計測装置。
【0019】
(3)前記全体外形物体検出処理手段5と、前記部分外形物体検出処理手段6において、複数の物体位置候補を算出して、これらを物体位置決定処理手段に送出し、物体位置決定処理手段では過去に求められた物体位置の情報を用いて複数の物体位置候補から正しい物体位置を決定可能にしたことを特徴とする前記(1)または前記(2)記載の物体位置計測装置。
【0020】
これにより下記の作用効果を奏する。
【0021】
(1)物体外形の全体で距離が得られている場合に物体位置を決定する処理部に加えて、物体外形の一部の距離情報が欠けている場合でも、予め用意した物体の外形の見え方のモデルを用いて外形の欠けた部分に対しても距離を算出する処理部を設けたので、物体外形全体で距離が得られている場合は勿論のこと、物体外形の一部が欠けている場合でも、正確に物体を検出することができる。
【0022】
(2)ステレオ処理で距離が求められない、一部の欠けた外形について、エッジ点などのように距離とは異なる特徴量の塊を使用して外形を形成するので、一部が欠けた外形に対しても外形部分を正確に得ることができる。
【0023】
(3)過去に得られた物体位置の情報を用いて複数の物体位置候補から正しい物体位置を時系列的に得ることができるので、背景にもエッジ点があるような場合でもそれを誤認することなく正確に物体を検出することができる。
【0024】
【発明の実施の形態】
本発明の概略を図1及び図2に基づき説明する。図1は本発明の概略構成図、図2は外形の一部が欠けている場合の処理状態説明図である。
【0025】
先ず2個のカメラを有するステレオ画像撮影部1で得られたステレオ画像を、ステレオ処理部2に送出し、距離情報を取得する。この距離情報は、従来方式と同じ手法で得られるものであり、ステレオ画像を微分処理して明るさが急変するエッジ部分を検出し、次に左右の画像から得られたエッジ部分の一致する同一部分を検出し、この同一部分のズレを求めて距離を得るものである。従来は、物体検出処理に際し、距離情報を3次元空間にマッピングして、その3次元点情報から物体の幅・高さ・奥行きのモデル(3次元モデルであり、検出物体があらかじめどのようなサイズのものかを予め記述したものであり、複数の固定の場合も、また式で表現した可変サイズの場合もある)を用いて物体を検出する処理のみを、全体外形物体検出処理部5で行っていた。
【0026】
これに対し、本発明では、距離情報から物体を検出する処理において、従来からの物体外形の全体で距離が得られている場合だけでなく、物体外形の一部の距離情報が欠けている場合には、予め用意した物体の外形の見え方のモデルを用いて、外形のどこが欠けているのかを識別し、欠けた部分では再度外形の距離を、図1に示す部分外形物体検出処理部6で行い、この全体外形の距離が得られている場合の処理と、物体外形の一部の距離情報が欠けている場合の処理を物体検出処理選択部4で切替制御することにより、物体外形の全体が得られている場合でも、物体外形の一部が欠けている場合でも安定に物体を検出できるようにしたものである。
【0027】
物体外形の一部が欠けている場合の処理は、図1における部分外形物体検出処理部6で行うものであり、本発明の重要な構成部分であるので、この物体の外形が欠けた部分で再度外形の距離を算出する処理を図2により説明する。図2では左右水平状態にカメラを取り付け物体の形状を矩形(直方体)として、その左端の外形しか距離情報が得られていない場合を想定している。
【0028】
まず一方の画像(ここでは左カメラで撮影した左画像)の各エッジ位置について距離を定めた距離画像(左距離画像)に対して、物体の外形の見え方モデルMを当てはめて、外形が欠けているかいないか調べる(処理▲1▼)。これにより外形右端の欠けていることが検出される。
【0029】
次に欠けていると判断された個所(この場合は右端)については直接エッジ画像を調べ、物体の外形に相当する距離が求まっていないエッジ点の有無を調査する(処理▲2▼)。
【0030】
もしこの距離の求められていないエッジ点があれば、それらエッジ点群を一塊として抽出する(処理▲3▼)。そしてこのエッジ塊を、欠けていた外形右端と見なす(処理▲4▼)。
【0031】
この操作を他方画像(ここでは右距離画像)についても同様に行い、外形右端を形成するエッジ塊を検出する(処理▲1▼′、▲2▼′、▲3▼′、▲4▼′)。
【0032】
次に前記左距離画像より得られている距離情報外形を外形左端とし(処理▲5▼)、前記処理▲4▼より得られた外形右端を統合して左統合画面を作成する。同様にして右距離画像より得られている距離情報外形を外形左端とし(処理▲5▼′)前記処理▲4▼′より得られた外形右端を統合して右統合画面を作成する。そして左統合画像と右統合画像の右端の塊同士を対応ずけ(例えば平均位置を算出)、右端外形の距離を算出する(処理▲6▼)。
【0033】
このように物体と背景との明るさの差が減少した場合のように、エッジ点自体は存在するが、その検出された位置の精度が低く左右画像間でエッジ点毎の対応つまりエッジ点の一致検出が無理である場合でもエッジの塊同士では対応付けられることを意味している。
【0034】
しかしエッジ点だけを頼りに物体外形を定めると、背景のエッジなど物体ではない誤った部分のエッジを用いて物体外形と誤認する場合が発生する。そこで本発明では、後述する第2の実施の形態に説明するように、部分外形物体検出処理部6では、モデル一致度(物体らしさの評価値)を定めておき、物体位置を探索しながらそのモデル一致度が高かった上位K番目(Kは1以上)の複数の物体候補を出力する。そして物体の運動の履歴情報等の過去の物体位置の情報から動きの滑らかさなどを判断して物体位置決定処理を行い、複数の候補の中から最も物体である可能性の高いものを最終的な物体位置として出力する。これにより物体外形の一部が欠けても、背景や他の物体の影響を受けることなく、正しい物体位置を決定することができる。
【0035】
本発明の一実施の形態を図3〜図5により、他図を参照して説明する。図3は本発明の一実施の形態、図4は距離画像説明図、図5は走査範囲説明図、図6は物体外形の見え方モデルと外形検出領域の関係説明図である。
【0036】
図中、他図と同記号は同一部を示し、1はステレオ画像撮影部、2はステレオ処理部、3は物体検出処理部、4は物体検出処理選択部、5は全体外形物体検出処理部、6は部分外形物体検出処理部である。
【0037】
ステレオ画像撮影部1は設置位置が異なる2台以上、例えば2台のカメラから構成され、このステレオカメラ装置により、例えば2枚のステレオ画像を取得するものである。
【0038】
ステレオ処理部2は、ステレオ画像撮影部1で得られたステレオ画像を入力として、最初にそれぞれの入力画像について徴分処理を行い、明るさが急変する箇所すなわちエッジ点を抽出し、エッジ画像を作成する。次にこのステレオ画像のエッジ画像を入力として同部分を求めるステレオ対応付け処理を行い、同一部分に対してはその画像のずれ量より距離を求める。そして距離の求められているもののみエッジ点毎に奥行き情報を有する距離画像を作成し、ステレオ処理部2の出力とする。また同時に最初に求めたエッジ画像群もステレオ処理部2の出力として後段処理のため出力する。
【0039】
物体検出処理部3は、ステレオ処理部2の前記出力である距離画像とエッジ画像群を入力として、物体を検出して3次元位置を定める処理を行うものであり、物体検出処理選択部4、全体外形物体検出処理部5、部分外形物体検出処理部6等を備えている。
【0040】
物体検出処理選択部4は、入力された距離情報(距離画像)から物体らしい部位Pi i ≧1)(物体断片と呼ぶ)を抽出し、予め用意した物体の3次元形状を表した物体形状モデルMj j ≧1)から定まる画像での見え方モデルMLi j j ≧1)を物体断片Pi に当てはめ、距離情報について物体外形が欠けているかを判断するものである。なお見え方モデルとは、物体をその見る位置に応じて示したものであり、同一物体でもその見える位置により形状が変わるものであり、例えば直方体の場合、真横からみれば見え方モデルは矩形になり、斜め横方向から見れば見え方モデルは正面部分の他に側面が見える形状となる。図2の例は直方体を真横から見た場合の見え方モデルMを示している。
【0041】
もし欠けが無ければ、物体検出処理選択部4は処理を全体外形物体検出処理部5に移して物体外形全体の距離情報を用いて物体の有無を判断し、物体が有るならばその位置を決定する。また物体検出処理選択部4は物体外形に欠けがあると判断すれば、処理を部分外形物体検出処理部6に移して部分的な外形の距離情報と欠けた部分ではエッジ点情報を用いて物体の有無を判定し、物体があればその位置を決定する。
【0042】
以下に各部の詳細内容について説明する。
【0043】
まず、物体検出処理選択部4について説明する。物体検出処理選択部4では、最初に次の手順で物体断片Pi (0≦i ≦N;Nは物体断片の数)を検出する。Pi の検出の手法として、図4に示す如く、まず、距離画像Dimgを幅と高さがGw ×Gh の小領域Gk (グリッド)に区切り、各小領域毎に含まれるエッジ点の距離分布の平均値と分散値及びエッジ点の個数を求め、距離の分散値が閾値より大きな領域もしくはエッジ点の個数が閾値以下の領域は距離が一定でなく不安定領域として削除する。残りの小領域については、距離画像上(2次元)での小領域Gk 間の距離差L1 と小領域間が持つ3次元空間での距離差(奥行差)L2 とが、それぞれ閾値以内にある小領域群を一つにまとめて物体断片Pi として抽出する。これは、3次元的に近くに位置する塊を物体断片として抽出していることになる。
【0044】
次に、得られた各物体断片Pi に対して、物体の3次元形状モデルMj (1≦j≦Nm;Nmは用意する物体形状モデルの種別数)を用いて、そのモデルそれぞれを物体断片Pi の位置(距離)に置いた時の物体外形がどのように見えるかを表す「物体外形見え方モデルMLi j 」(iは物体断片の番号、jは使用しているモデルの番号で、1≦j≦Nm;Nmは用意する物体形状モデルの種別数)を作成する。物体の3次元形状モデルはどのようなものでも良いが、ここでは実現例の一つとして、物体の幅MWj 、高さMHj 、奥行きMDj を示す直方体モデルを採用する。
【0045】
各物体断片Pi の3次元位置の中心位置(Cxi,Cyi,Czi )に直方体モデルの前面を合わせるように置くと、直方体の各頂点は(Cxi ±MWj /2,Cyi ±MHj /2,Czi )×(Cxi ±MWj /2,Cyi ±MHj /2,Czi +MDj )(符号組合せは任意)となる。各頂点位置を(X,Y,Z)として、カメラの内部パラメータである焦点距離fと2台のカメラ間距離bとを用いて、画像上への投影位置(x,y)を下式(1)により求め、投影点を囲む最小矩形領域
【0046】
【数1】

Figure 0004588914
【0047】
を物体外形の見え方モデルMLi j (1≦j≦Nm;Nmは用意する物体形状モデルの種別数)とする。この物体外形の見え方モデルMLi j の大きさで距離画像内を走査していき、以下に述べる判断条件(1)を満たす場合には、物体外形全体が求まったと見なす。このとき、k(i)番目の物体候補Oij k(i)を生成して、Oij k(i)に対してその走査位置を記録するとともに、全体外形物体検出処理部5へ移行するフラグを立てる。このk(i)とは、i番目の物体断片Pi に対して検出された物体候補に付けられる通し番号で、候補毎に異なる番号が付され、複数の候補が検出されても良いことを意味する。
【0048】
また、後述する判断条件(2)を満たす場合には、物体外形の一部が求まったと見なし、k(i)番目の物体候補Oij k(i)を生成して、その走査位置を記録するとともに、部分外形物体検出処理部6へ移行するフラグを立てる。
【0049】
条件(1)も(2)も満足しない場合は、物体は存在しないと見なし、走査作業を続行する。走査範囲は、図5に示すように、物体断片Pi と物体の見え方モデルMLi j が重なる最左端から最右端までの範囲、すなわち、物体断片Pi の右側と見え方モデルMLi j の右側が一致する位置から、物体断片Pi の左側と見え方モデルMLi j の左側が一致する位置までの範囲とする。
【0050】
判断条件(1):(外形全体が得られているかの検査)
ここでは、ステレオカメラが並んだ方向を水平軸と考えたとき(実際に水平である必要は無い)、左側に位置するカメラ(画像)を左、右側に位置するカメラ(画像)を右とする。このとき、ステレオの性質上、物体の縦成分しか距離が求まらない。従って、物体外形として重要なのは、左右端の縦の外形である。そこで、この左右端の外形の有無を外形全体が得られているか否かの判断基準とする。
【0051】
物体外形の見え方モデルMLi j を距離画像内に設置し、図6に示すような調査領域(R1〜R3)を見え方モデルMLi j の位置を基準に設定する。ここで、R1は外形の左端側の存在を検査するための領域、R2は右端側の外形の存在を検査する領域、R3は物体の内部か外部かを判定する領域である。領域の大きさは次のように定める。R1、R2については、高さは見え方モデルMLi j の高さMHi j と同じで、幅Rw は見え方モデルMLi j の幅MWi j を基準にある関数F(MWi j )で与えるものとし、例えばF(X)=X/4などである。R1とR2を設定する位置は図6に示したように、R1やR2の幅の1/2が見え方モデルと重なるようにする。また、R3は見え方モデル内でR1、R2でない部分とする。従って、領域R3の幅はMWi j −F(MWi j )で、高さはMHi j である。
【0052】
外形の検出領域R1、R2について、以下に示す条件の両者を満足する時に、物体の外形が全て見つかったと判断する。
【0053】
(左端側の検査領域R1内にある距離を有すエッジ点の数)≧閾値Th1
(右端側の検査領域R2内にある距離を有すエッジ点の数)≧閾値Th1
ここで、閾値Th1 は、領域R1(またはR2)に存在すべき距離を有すエッジ点の数の最低値を定めたノイズによる影響を抑制するための閾値である。これ以上の数のエッジ点がある時に安定して距離を有すエッジ点の塊が存在する、すなわち距離を有す外形が存在すると見なす。
【0054】
判断条件(2):(外形の一部分が得られているか、すなわち一部が欠けているかの検査)
判断条件(1)と同様に、物体外形の見え方モデルMLi j をステレオ画像のうちの一方の距離画像内に設置し、図6で示した調査領域(R1、R2)について、以下のいずれかの条件を満足するか調べる。
【0055】
【数2】
Figure 0004588914
【0056】
ここで、「距離が求まっていないエッジ点」とは、物体と背景との間の明るさの変化が少ないなどの理由によりエッジ点の位置がずれてしまい、ステレオ処理で左右エッジ画像間で同一箇所を定められず、距離が求まっていないエッジ点を指す。このいずれかの条件を満たすならば、一方の端では3次元位置を定められる距離情報を持つ物体外形があり、他方端では、距離は分からないが、塊として物体外形を形成し得る特徴(痕跡)が存在することを表す。ます、距離が求まっていないエッジ点の数に対する閾値Th2 は、閾値Th1 に対して
【0057】
【数3】
Figure 0004588914
【0058】
なる関係を持つ値とする。ここで式中のTは、全エッジ点に対する平均対応率であり、あらかじめ、例えば実験により求めておくものであり、全エッジ数のうち、平均的に距離が求まるエッジ点の数の割合を表す。通常は、全てのエッジ点に対して距離が求まらないので、1以下の数値となる。この関数Tを用いることで、距離が求まっているエッジ点の数と、距離が求まっていないエッジ点の数と影響がほぼ等しくなるように調整している。
【0059】
もし、式2の条件のいずれかを満足するならば、物体の外形の一部が見つかった(一部が欠けている)可能性があると判断して、下記の次処理で説明する、他方画像で同様に外形の有無を調査する。この調査の目的は、互いに異なる物体の一部分ずつを組合せて、一部の外形が欠けた物体であるとする誤認識を防ぐためであり、ステレオ画像間で矛盾無く「外形が欠けている」と判断できるかを確認している。
【0060】
もし、式2のどちらも満足しないならば、判断条件(2)を満足しないとして返る。
【0061】
次処理である他方画像での物体外形の有無の判定は、次のように行う。まず、元の画像における外形検出領域R1またはR2のうち、「距離を有すエッジ点を多く含む領域」側の平均距離に基づいて、他方画像における物体の見えるべき位置を算出する(後述)。次に、他方画像での見えるべき位置で図6で示した調査領域を設定し、元の画像で「距離が求まっていないエッジ点を多く含む領域」側と同一側の領域において、以下の条件を満足するか調べる。
【0062】
(距離が求まっているエッジ点の数)≦閾値Th3
(距離が求まっていないエッジ点の数)≦閾値Th2
この条件は、ステレオ画像間で、物体の左右端の同一側で距離を有す外形が欠けていることを判断するためのものである。上記の2つの条件を満足するならば、矛盾無く外形の一部が欠けているので、判断条件(2)を満足するとして返る。もし満足しないならば、判断条件(2)は満足しないとする。
【0063】
他方画像における物体の見えるべき位置の算出は、次のように行う。一方画像のエッジ点位置E1 (xe 1,e 1 )と他方画像でのエッジ点位置E2 (xe 2,e 2 )の関係は、エッジ点の距離DE 、カメラの焦点距離f、カメラ間距離bによって以下のように関連付けられる(水平に設置されたステレオの場合)。
【0064】
【数4】
Figure 0004588914
【0065】
従って、物体外形のうち距離が求まっている側の平均距離Dmeanを用いて、物体外形の見え方モデルMLi j の矩形領域をx方向に計算値分だけずらすことで、他方画像での物体の見えるべき位置を決定できる。
【0066】
もし、i番目の物体断片Pi について、全ての物体モデルを用いて走査を終了したならば、他の物体断片Pk (k=i+1 )について以上の操作を繰り返す。もし全ての物体断片について以上の処理を施したならば、物体検出処理選択部4の処理を終え、それぞれの物体候補Oij k(i)毎に関連付けられた物体検出処理(全体外形物体検出処理部5、又は、部分外形物体検出処理部6)へ処理を移す。
【0067】
次に、全体外形物体検出処理部5について説明する。全体外形物体検出処理部5では、物体断片Pi に関して走査により得られた距離を有する外形が全体から得られている物体候補Oij k について、物体の有無を判定し、物体があると判定されたならば、その3次元位置を決定する。処理の詳細について説明する。まず、i番目の物体断片に対して、j番目の物体モデル(見え方モデルMLi j )を走査して求まったk番目の物体候補Oij k (0≦k≦NOj i ;NOj i はi番目の物体断片に対して、j番目のモデルを走査したときに得られる物体候補の数)について、見え方モデルMLi j を当てはめた時の当てはめ度合の良し悪しを評価するためのモデル一致度E1ij k を計算し、物体断片Pi 毎に、用いた見え方モデル全てから得られた物体候補の中でモデル一致度が最大となる値E1i max と、それを与えるモデル位置(j,k)を次のように求める。
【0068】
【数5】
Figure 0004588914
【0069】
もし、最大値E1i max が閾値以上なら、(j,k)で与えられる位置(物体見え方モデルMLi j をk番目の物体候補を与える位置に置いた位置)に物体が存在すると決定する。もし最大値E1i max が閾値以下なら、物体断片Pi に対する物体は存在しないと決定する。
【0070】
ここで、見え方モデルとの一致度E1ij k は、与えられたモデルと画像から得られる物体の特徴量がどれだけ符合するかを表す量であれば、その実現方法については特に言及しないが、例えば次のようなものである。図6に示した外形検出領域R1、R2で、距離を有すエッジ点の個数の合計をE1in 1 とし、物体内部検出領域R3で距離を有すエッジ点の内、外形検出領域R1、R2の平均距離との差が閾値以内の点数をE1in 2 、閾値以上の点数をE1out とする時、以下の式でモデル一致度を与える。
【0071】
E1ij k =E1in 1 +E1in 2 −E1out
これは、物体の外形部や内部から物体と同一距離を持つエッジ点が得られるほど、また、物体の内部からは検査中の物体以外の証拠である距離の異なるエッジ点が得られていないほど高い得点になり、物体らしいとするものである。
【0072】
続いて、部分外形物体検出処理部6について説明する。本処理では、物体断片Pi に関して走査により得られた距離を有す外形が一部(左右端のいずれか)からしか得られない場合に、物体の有無を判定し、物体があると判定されたならば、その3次元位置を決定する処理である。処理の詳細は、見え方モデルとの一致度の計算方法が異なることを除いては、先の全体外形物体検出処理部5と同じである。
【0073】
部分外形での物体検出処理での見え方モデル一致度E2ij k は、全体外形での物体検出処理の時と同様に、与えられたモデルと画像から得られる物体の特徴量がどれだけ符合するかを表す量であれば、その実現方法については特に言及しないが、例えば次のようなものである。
【0074】
図6に示した外形検出領域R1、R2のいずれかで距離を有すエッジ点を含む側での距離を有すエッジ点の個数をE2in 1 、他方の距離が求まらないエッジ点を含む側の外形検出領域内にある距離が求まらないエッジ点の個数から求まる評価値をE2in 2 とし、物体内部検出領域R3における距離を有すエッジ点の内、外形検出領域R1、R2のいずれかで距離を有す側から求まる平均距離との差が閾値以内の点数をE2in 3 、閾値以上の点数をE2out とする時、以下の式でモデル一致度を与える。
【0075】
E2ij k =E2in 1 +E2in 2 +E2in 3 −E2out
ただし、E2in 2 =(外形検出領域内のエッジ点の数)×T(Tは式2と同じ平均対応率)
この式の意味は、先の全体外形物体検出処理部5と同じであり、物体の外形部や内部から物体と同一距離を持つエッジ点が得られるほど、また、物体の内部からは検査中の物体外である証拠である距離の異なるエッジ点が得られていないほど高い得点になり、物体らしいとするものである。ただし、距離が求まるエッジ点数と距離が求まらないエッジ点数の影響を同じにするために、E2in 2 の算出で計数Tをかけてある。
【0076】
本発明の第2の実施の形態を図7により他図を参考にして説明する。図7において、他図と同記号は同一部分を示し、10は物体検出処理部、11は全体外形物体検出処理部、12は部分外形物体検出処理部、13は物体位置決定処理部である。
【0077】
物体検出処理部10は、前記図3に示す物体検出処理部3と同様に、ステレオ処理部2から距離情報とエッジ情報を受け取り、物体位置を出力するものではあるが、図3と異なる点は、物体検出処理部10を構成する全体外形物体検出処理部11と、部分外形物体検出処理部12は、前記図3の全体外形物体検出処理部5と、部分外形物体検出処理部6のように、各物体断片Pi に対して唯一の物体位置を決定するものではなく、複数のK個(K≧2)の物体位置候補Ui k (kは物体位置候補の番号を表し、0≦k≦K)を選定することと、この複数の物体位置候補Ui k を新たに設けた物体位置決定処理部13により、過去の物体の情報を用いて、複数の物体位置候補Ui k から、それぞれの物体断片Pi に対応する物体位置を決定することである。
【0078】
この構成により、画像から得られる情報のみで物体位置を決定せずに、過去の物体の、例えば移動情報等の、情報にもっとも符合する位置を決定することができ、常に安定して正しく物体位置を決定することができる。
【0079】
以下に、前記図3の構成と異なる部分について詳述する。
【0080】
まず、全体外形物体検出処理部11について述べる。前記図3に示す全体外形物体検出処理部5と比較して違う点は、i番目の物体断片Pi に対してj番目の見え方モデルMLi j を走査して得られたk番目の物体候補Oij k について、見え方モデルMLi j を当てはめた時の当てはめ度合いの良し悪しを評価するモデル一致度E1ij k を用いて、物体断片Pi 毎に、用いた見え方モデル全てを通して得られた物体候補Oij k (0≦i≦N,1≦j≦Nm)の中から、モデル一致度が大きいものから上位k番目までを物体位置候補Ui k (0≦k≦K)として出力する点である。
【0081】
次に、部分外形物体検出処理部12について述べる。前記図3に示す部分外形物体検出処理部6と比較して違う点は、先ほどと同様に、物体候補Oij k について、見え方モデルMLi j を当てはめた時の当てはめ度合の良し悪しを評価するモデル一致度E2ij k を用いて、物体断片Pi 毎に、用いた見え方モデル全てを通して得られた物体候補Oij k (0≦i≦N,1≦j≦Nm)の中から、モデル一致度が大きいものから上位k番目までを物体位置候補Ui k (0≦k≦K)として出力する点である。
【0082】
続いて、物体位置決定処理部13について述べる。今、既にN0 個の物体Wq q は物体の番号を表し、0≦q≦N0 である)が検出されているとする。それぞれの物体Wq 毎に運動モデルを持ち、前回までの物体位置の履歴から、運動モデルを用いて今回存在し得る物体位置Wpre q を予測する。運動モデルの実際については特段規定せず、例えば一時刻前の位置からの線形予測モデルや、カルマンフィルタを用いた予測モデルで良い。ある予測物体位置Wpre q に対して、N個の物体断片Pi のそれぞれについて求めた物体位置候補Ui k (0≦k≦K)とを比較して、3次元での距離差が閾値以内なら、予測物体位置Wpre q と物体位置候補Ui k から物体位置Wpre q =Fp (Wpre q ,Ui k )として、物体位置Wpre q を更新する。そしてWpre q と対応しなかった残りの物体位置候補Ui k は、同時には存在し得ないので、物体位置候補から削除する。
【0083】
この操作により、物体位置Wpre q と対応が求まらなかった物体位置候補Ui k (0≦k≦K,0≦i≦N)については各物体断片Pi から検出された物体位置候補Ui k (0≦k≦K)毎に、評価値が最も高い候補位置に新たに物体が検出されたとして、物体位置Wpre q+1 として登録する。この結果、検出された物体数をN0 ←N0 +1とする。
【0084】
また、物体位置候補Ui k (0≦k≦K,0≦i≦N)のいずれとも対応が付かなかった物体位置Wpre q があるならば、その物体位置Wpre q を削除する。
この結果、検出された物体数をN0 ←N0 −1とする。
【0085】
このようにして予測した位置のものともっとも近いものを抽出することができるので、背景のエッジなど物体ではない部分のエッジを用いて物体外形と誤認するようなことはなく、過去の物体位置の情報つまり運動の履歴情報等から動きの滑らかさなどを用いて、もっとも物体である可能性の高いものを最終的な物体位置として正確に出力できる。
【0086】
本発明は、距離情報から物体を検出する方式において、従来からの物体外形の全体で距離情報が求まっている場合だけでなく、物体外形の一部の距離情報が欠けている場合には、予め用意した物体の外形の見え方のモデルを用いて、外形のどこが欠けているか識別し、欠けた部分では再度外形の距離を算出する処理を追加し、この2つの方式を適宜切り替えることで、物体外形の一部が欠けても安定に物体を検出できるようにしたことにより、照明状態の変化などによって映像全体の明るさが増減して、結果として物体の一部の距離情報が欠落する場合においても、安定に物体を検出できる。
【0087】
【発明の効果】
本発明によれば下記の効果を奏することができる。
【0088】
(1)物体外形の全体で距離が得られている場合に物体位置を決定する処理部に加えて、物体外形の一部の距離情報が欠けている場合でも、予め用意した物体の外形の見え方のモデルを用いて外形の欠けた部分に対しても距離を算出する処理部を設けたので、物体外形全体で距離が得られている場合は勿論のこと、物体外形の一部が欠けている場合でも、正確に物体を検出することができる。
【0089】
(2)ステレオ処理で距離が求められない、一部の欠けた外形について、エッジ点などのように距離とは異なる特徴量の塊を使用して外形を形成するので、一部が欠けた外形に対しても外形部分を正確に得ることができる。
【0090】
(3)過去に得られた物体位置の情報を用いて複数の物体位置候補から正しい物体位置を時系列的に得ることができるので、背景にもエッジ点があるような場合でもそれを誤認することなく正確に物体を検出することができる。
【図面の簡単な説明】
【図1】本発明の概略構成図である。
【図2】本発明における外形の一部が欠けている場合の処理説明図である。
【図3】本発明の一実施の形態である。
【図4】距離画像説明図である。
【図5】走査範囲説明図である。
【図6】物体外形の見え方モデルと外形検出領域の関係説明図である。
【図7】本発明の第2の実施の形態である。
【図8】ステレオ画像による位置ずれ検出説明図である。
【符号の説明】
1 ステレオ画像撮影部
2 ステレオ処理部
3、10 物体検出処理部
4 物体検出処理選択部
5、11 全体外形物体検出処理部
6、12 部分外形物体検出処理部[0001]
BACKGROUND OF THE INVENTION
The present invention is an apparatus for detecting an object shown in a video based on distance information to each object in the video obtained by a stereo distance measurement technique. The present invention relates to an apparatus that stably detects an object and measures the three-dimensional position of the object even when the distance information of some of the object is lost as a result.
[0002]
A device that detects an arbitrary object in a video and identifies its three-dimensional position is, for example, a traffic flow measurement system that measures the position of a vehicle from a road image and calculates the presence / absence of passing of the vehicle, The present invention can be applied to general object monitoring systems such as a person monitoring system that measures the positions and the number of people passing from a moving image.
[0003]
In addition, in a logistics system that determines the type of article carried on the belt conveyor, it can be applied to article identification for identifying the article being carried from the size and image characteristics of the article. It can be applied as an object detection means for identifying an obstacle on a travel route in a transport system, or can be applied to a recognition process for measuring the position and size of a surrounding object in an autonomous robot system.
[0004]
[Prior art]
The conventional measurement method for measuring the position of an object using distance information around the sensor first measures the distance to each position of the object around the sensor (this is called distance information) by the stereo distance measurement method. Then, a part having a specific size or shape is extracted from the distance information obtained and identified as a corresponding object. Since the identified object has distance information, the three-dimensional position can be measured by a stereo image viewed from the sensor based on the distance information.
[0005]
As representative examples of this method, Keiji Miyoshi, Shinji Tsuji, Noriyuki Togawa, Kazuma Arai, etc., “Advancing situation recognition system for driving assistance using stereo images”, IEICE Technical Report PRMU 97-25-36pp. The method 39-46 will be described as an example.
[0006]
According to this, as shown in FIG. 8, a scene including the object 21 to be measured is photographed using the two television cameras 22 and 23 to obtain a stereo image. Here, since a television camera mounted horizontally is used, a pair of left and right stereo images 24 and 25 can be acquired.
[0007]
Next, edge points, which are point groups whose brightness changes suddenly, are extracted from the stereo images 24 and 25 by differentiating the stereo image to obtain edge images 26 and 27 for the left and right images, respectively. Subsequently, as shown in the image displacement detection screen 28 for each edge point by a stereo distance measurement process described later, a displacement amount d is detected. Based on the displacement amount d and the distance between the television cameras 22 and 23, this edge amount is detected. The distance to the object is measured for the edge point.
[0008]
In the stereo distance measurement process, a local region of N × N pixels is provided at each position in one edge image, for example, the edge image 26. For each local region, a local region of N × N pixels is provided in the other edge image 27, and the same edge as the local region of the edge image 26 is scanned by scanning this local region in the other edge image 27. A local region in the edge image 27 in which points are distributed is detected. That is, a process of searching for a portion indicating the same object from the left edge image 26 and the right edge image 27 is performed. This is the stereo distance measurement process.
[0009]
Since the position of the object in the left and right images is different depending on the distance, that is, the position to be projected differs, by detecting the amount of positional deviation by searching the left and right images for the projection position of the same object image, The distance can be calculated.
[0010]
Since the distance information obtained at each edge point of the image by this stereo processing is mapped to one point in the three-dimensional space, mapping is performed for each edge point for which the distance is obtained, and the position distribution in the three-dimensional space is performed. Get. In this three-dimensional space, for example, a vehicle that is a measurement target can be identified by detecting a three-dimensional lump that is above a predetermined road surface position and that matches the width, height, and depth of the vehicle. it can.
[0011]
[Problems to be solved by the invention]
In the sequential method of acquiring the distance information to each position of the target scene and measuring the object position based only on the distance information, if the distance information to the object is obtained, the object is The three-dimensional position can be measured.
[0012]
However, for example, when operating outdoors, because the illuminance increases or decreases due to changes in sunlight or weather, the entire image becomes too dark or too bright, and the brightness of the target object and the background becomes similar. As a result, the detection position of the edge point indicating the outer shape of the target object may shift.
[0013]
In addition, since the position shifts in the left, right, up, and down directions are independent for each edge, even in the stereo processing for each edge point, even if the edge point distribution shape for each local region is compared, Even if a matching portion cannot be found and the distance of the object outer shape cannot be measured, or even if a matching portion is found, the position of the edge includes a shift, and thus information on an incorrect distance is presented. As a result, there is a problem that distance information indicating the outer shape of the object is lost and the object cannot be detected, or that the object is erroneously recognized as being in the wrong position using the incorrect distance information.
[0014]
In stereo processing using two images, the distance cannot be obtained in principle for the edge in the direction parallel to the two installed cameras. For example, when a camera is installed horizontally on the left and right, the distance of the horizontal line edge cannot be calculated, and the distance can be obtained only in the vertical outline of the object. Observing how the distance information of the object outline is missing when illuminance changes actually occur, it is often the case that one of the outlines at the left and right ends of the object is missing, compared to when the entire object outline cannot be obtained. . If either of the left and right ends of the object outline is missing, the three-dimensional width and height change, and therefore cannot be detected as an object.
[0015]
Considering such a situation, it is necessary to be able to accurately detect the position of an object even when distance information cannot be obtained from a part of the outer shape of the object. Accordingly, an object of the present invention is to provide an object position measuring apparatus capable of accurately detecting the position of an object even when distance information cannot be obtained from a part of the outer shape of the object.
[0016]
[Means for Solving the Problems]
The principle configuration of the present invention is shown in FIG. In FIG. 1, 1 is a stereo image photographing unit, 2 is a stereo processing unit, 3 is an object detection processing unit, 4 is an object detection processing selection unit, 5 is an overall external object detection processing unit, and 6 is a partial external object detection processing unit. . The object of the present invention can be achieved by the following (1) to (3).
[0017]
  (1) In an object position measurement device that detects an object from stereo measurement distance information, an object detection processing selection unit 4 that determines whether distance information is obtained for the entire outer shape of the object to be detected;
  When distance information is obtained for the entire outer shape, the entire outer shape object detection processing means 5 for determining the object position;
  When the distance information of a part of the outer shape of the object is missing, the missing part of the outer shape is identified using a model of the appearance of the outer shape of the object prepared in advance.An outline is formed on the basis of a feature block such as an edge point at a corresponding position, and stereo matching is performed based on the block.An object position measuring apparatus comprising a partial outline object detection processing means 6 for calculating an outline distance.
[0018]
  (2)The partial outline object detection processing means 6,SaidA block of features such as edge pointsBased on the average position ofPerform stereo mappingTheThe object position measuring apparatus according to (1), characterized in that it is characterized in that
[0019]
(3) The overall outline object detection processing means 5 and the partial outline object detection processing means 6 calculate a plurality of object position candidates and send them to the object position determination processing means. The object position measuring apparatus according to (1) or (2), wherein a correct object position can be determined from a plurality of object position candidates using information on an object position obtained in the past.
[0020]
As a result, the following effects can be obtained.
[0021]
(1) In addition to the processing unit for determining the object position when the distance is obtained for the entire object outline, even if the distance information of a part of the object outline is missing, the appearance of the prepared object outline is visible A processing unit is provided that calculates the distance even for parts with missing outlines using the other model, so if the distance is obtained for the entire object outline, part of the object outline is missing. Even if it is, the object can be detected accurately.
[0022]
(2) For some missing outlines for which the distance cannot be obtained by stereo processing, the outline is formed using a lump of feature amount different from the distance, such as an edge point. The outer shape portion can be accurately obtained.
[0023]
(3) Since the correct object position can be obtained in time series from a plurality of object position candidates using the object position information obtained in the past, it is mistaken even when there is an edge point in the background. An object can be detected accurately without any problems.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
The outline of the present invention will be described with reference to FIGS. FIG. 1 is a schematic configuration diagram of the present invention, and FIG. 2 is an explanatory diagram of a processing state when a part of the outer shape is missing.
[0025]
First, a stereo image obtained by the stereo image photographing unit 1 having two cameras is sent to the stereo processing unit 2 to acquire distance information. This distance information is obtained by the same method as in the conventional method, and the edge portion obtained by the differential processing of the stereo image is detected and then the edge portion obtained from the left and right images is the same. A part is detected, and a distance is obtained by obtaining a deviation of the same part. Conventionally, when the object detection processing, and mapping the distance information in three-dimensional space, a model (three-dimensional model of the width, height and depth of the object from the 3-dimensional point information, what size detection object in advance The entire outline object detection processing unit 5 performs only the process of detecting an object using a plurality of fixed cases or a variable size expressed by an expression). It was.
[0026]
On the other hand, in the present invention, in the process of detecting an object from distance information, not only when the distance is obtained for the entire outer shape of the object but also when the distance information of a part of the outer shape of the object is missing Is used to identify where the outline is missing using a model of the appearance of the outline of the object prepared in advance, and the outline distance is detected again in the missing part, and the partial outline object detection processing unit 6 shown in FIG. The object detection processing selection unit 4 performs switching control between the processing in the case where the distance of the entire outer shape is obtained and the processing in the case where the distance information of a part of the object outer shape is missing. The object can be stably detected even when the whole is obtained or when a part of the object outline is missing.
[0027]
The processing when the part of the object outline is missing is performed by the partial outline object detection processing unit 6 in FIG. 1 and is an important component of the present invention. The process of calculating the outer distance again will be described with reference to FIG. In FIG. 2, it is assumed that the camera is attached in a horizontal state and the shape of the object is a rectangle (a rectangular parallelepiped), and distance information is obtained only for the outer shape of the left end.
[0028]
First, the appearance model M of the outer shape of the object is applied to the distance image (left distance image) in which the distance is determined for each edge position of one image (here, the left image taken by the left camera), and the outer shape is missing. It is checked whether it is present (process {circle around (1)}). Thereby, it is detected that the outer right edge is missing.
[0029]
Next, the edge image is directly examined for the portion determined to be missing (in this case, the right end), and the presence / absence of an edge point whose distance corresponding to the outer shape of the object is not found is examined (processing (2)).
[0030]
If there is an edge point for which the distance is not obtained, the edge point group is extracted as a lump (processing (3)). Then, this edge lump is regarded as the missing right edge of the outer shape (processing (4)).
[0031]
This operation is performed in the same manner for the other image (here, the right distance image) to detect the edge block forming the outer right edge (processing (1) ′, (2) ′, (3) ′, (4) ′). .
[0032]
Next, the distance information outer shape obtained from the left distance image is set as the outer left edge (processing (5)), and the outer right edge obtained from the processing (4) is integrated to create a left integrated screen. Similarly, the distance information outer shape obtained from the right distance image is set as the outer left end (process (5) '), and the right outer edge obtained from the process (4)' is integrated to create a right integrated screen. Then, the right end chunks of the left integrated image and the right integrated image are associated with each other (for example, the average position is calculated), and the distance of the right end outline is calculated (processing (6)).
[0033]
In this way, the edge point itself exists as in the case where the brightness difference between the object and the background is reduced, but the accuracy of the detected position is low, and the correspondence between the edge points between the left and right images, that is, the edge point This means that even if coincidence detection is impossible, the edge blocks are associated with each other.
[0034]
However, when the object outline is determined only by using the edge points, there is a case where the object outline is mistakenly used by using an edge of an incorrect part such as a background edge that is not an object. Therefore, in the present invention, as described in a second embodiment to be described later, the partial outline object detection processing unit 6 determines the model coincidence (evaluation value of object-likeness) and searches for the object position. A plurality of top K-th candidate objects (K is 1 or more) having a high model matching degree are output. Then, the object position determination process is performed by determining the smoothness of the movement from the information of the past object position such as the history information of the object movement, and the object having the highest possibility of being the object is finally determined from a plurality of candidates. Output as an accurate object position. Thus, even if a part of the object outline is missing, the correct object position can be determined without being affected by the background or other objects.
[0035]
An embodiment of the present invention will be described with reference to FIGS. 3 is an embodiment of the present invention, FIG. 4 is an explanatory diagram of a distance image, FIG. 5 is an explanatory diagram of a scanning range, and FIG. 6 is an explanatory diagram of a relationship between an appearance model of an object outer shape and an outer shape detection region.
[0036]
In the figure, the same symbols as those in the other figures indicate the same parts, 1 is a stereo image photographing unit, 2 is a stereo processing unit, 3 is an object detection processing unit, 4 is an object detection processing selection unit, and 5 is an overall outline object detection processing unit. , 6 are partial outline object detection processing units.
[0037]
The stereo image photographing unit 1 is composed of two or more cameras having different installation positions, for example, two cameras, and obtains, for example, two stereo images by this stereo camera device.
[0038]
The stereo processing unit 2 uses the stereo image obtained by the stereo image capturing unit 1 as an input, first performs a collection process for each input image, extracts a point where the brightness changes suddenly, that is, an edge point, and extracts the edge image. create. Next, stereo association processing for obtaining the same portion is performed by using the edge image of the stereo image as an input, and the distance is obtained from the shift amount of the image for the same portion. Then, a distance image having depth information for each edge point is created only for those for which a distance is required, and is used as the output of the stereo processing unit 2. At the same time, the edge image group obtained first is also output as the output of the stereo processing unit 2 for subsequent processing.
[0039]
The object detection processing unit 3 receives the distance image and the edge image group, which are the outputs of the stereo processing unit 2, and performs processing to detect an object and determine a three-dimensional position. The object detection processing selection unit 4, An overall external object detection processing unit 5, a partial external object detection processing unit 6 and the like are provided.
[0040]
The object detection processing selection unit 4 uses the input distance information (distance image) to determine the part P that seems to be an object.i(i≧ 1) (referred to as an object fragment) is extracted, and an object shape model M representing a three-dimensional shape of an object prepared in advancej(jAppearance model ML with an image determined from ≧ 1)i j(j≧ 1) is the object fragment PiTo determine whether the object outline is missing from the distance information. The appearance model is an object that is shown depending on the position where the object is viewed.The shape of the object changes depending on the position where the object is seen.For example, in the case of a rectangular parallelepiped, the appearance model is rectangular when viewed from the side. Thus, when viewed from an oblique lateral direction, the visible model has a shape in which the side surface can be seen in addition to the front portion. The example of FIG. 2 shows the appearance model M when the rectangular parallelepiped is viewed from the side.
[0041]
If there is no chip, the object detection processing selection unit 4 moves the process to the entire outer shape object detection processing unit 5 to determine the presence / absence of the object using the distance information of the entire outer shape of the object, and determines the position if there is an object. To do. If the object detection processing selection unit 4 determines that the object outline is missing, the process is transferred to the partial outline object detection processing unit 6 and the object information is obtained using the partial outline distance information and the edge point information in the missing part. If there is an object, its position is determined.
[0042]
The detailed contents of each part will be described below.
[0043]
First, the object detection process selection unit 4 will be described. In the object detection processing selection unit 4, first, the object fragment P isi(0 ≦i≦ N; N is the number of object fragments). PiAs shown in FIG. 4, first, the distance image Dimg has a width and height of G as shown in FIG.w× GhSmall region GkDivide into (grids), find the average value and variance value of edge point distance distribution included in each small area, and the number of edge points, and the area where the variance value of distance is greater than the threshold or the number of edge points is less than the threshold The area is deleted as an unstable area whose distance is not constant. For the remaining small regions, the small region G on the distance image (two-dimensional)kDistance difference between1Difference in depth (depth difference) L2Are grouped together into a small area group each within the threshold, and the object fragment PiExtract as This means that a block located three-dimensionally close is extracted as an object fragment.
[0044]
Next, each obtained object fragment PiOn the other hand, the three-dimensional shape model M of the objectj(1 ≦ j ≦ Nm; Nm is the number of types of object shape models to be prepared)i"Object outline appearance model ML that represents how the object outline looks when placed at the position (distance)i j(Where i is the number of the object fragment, j is the number of the model being used, 1 ≦ j ≦ Nm; Nm is the number of types of object shape models to be prepared). Any 3D shape model of the object may be used, but here, as one of the realization examples, the object width MWj, Height MHj, Depth MDjA rectangular parallelepiped model is used.
[0045]
Each object fragment PiCenter position (Cxi,Cyi,Czi) So that the front of the rectangular parallelepiped model is aligned, each vertex of the rectangular parallelepiped is (Cxi± MWj/ 2, Cyi± MHj/ 2, Czi) X (Cxi± MWj/ 2, Cyi± MHj/ 2, Czi+ MDj) (The code combination is arbitrary). Each vertex position is set to (X, Y, Z), and the projection position (x, y) on the image is expressed by the following formula (X) using the focal length f and the distance between two cameras b, which are internal parameters of the camera. The minimum rectangular area obtained by 1) and surrounding the projection point
[0046]
[Expression 1]
Figure 0004588914
[0047]
A model ML for the appearance of an objecti j(1 ≦ j ≦ Nm; Nm is the number of types of object shape models to be prepared). This object external appearance model MLi jWhen the range image is scanned within the range image and the determination condition (1) described below is satisfied, it is considered that the entire object outline has been obtained. At this time, the k (i) th object candidate Oij k (i)To generate Oij k (i)In addition, the scanning position is recorded, and a flag for shifting to the entire outline object detection processing unit 5 is set. This k (i) is the i-th object fragment PiIs a serial number assigned to the detected object candidate, and a different number is assigned to each candidate, which means that a plurality of candidates may be detected.
[0048]
In addition, when a determination condition (2) described later is satisfied, it is considered that a part of the object outline has been obtained, and the k (i) th object candidate Oij k (i)Is generated, the scanning position is recorded, and a flag for shifting to the partial outline object detection processing unit 6 is set.
[0049]
If neither condition (1) nor (2) is satisfied, it is assumed that no object exists and the scanning operation is continued. The scanning range is as shown in FIG.iAnd object appearance model MLi jIs the range from the leftmost edge to the rightmost edge whereiRight side and view model MLi jFrom the position where the right side of the object coincides,iLeft side and view model MLi jThe range to the position where the left side of the line matches.
[0050]
Judgment condition (1): (Inspection of whether the entire outer shape is obtained)
Here, when the direction in which the stereo cameras are arranged is considered as the horizontal axis (it does not have to be horizontal), the left camera (image) is the left and the right camera (image) is the right. . At this time, due to the nature of stereo, only the vertical component of the object can be obtained. Therefore, what is important as the outer shape of the object is the vertical outer shape at the left and right ends. Therefore, the presence / absence of the outer shape at the left and right ends is used as a criterion for determining whether or not the entire outer shape is obtained.
[0051]
Object appearance model MLi jIs placed in the distance image, and the investigation area (R1 to R3) as shown in FIG.i jThe position of is set as a reference. Here, R1 is a region for inspecting the presence of the outer shape on the left end side, R2 is a region for inspecting the presence of the outer shape on the right end side, and R3 is a region for determining whether the object is inside or outside. The size of the area is determined as follows. For R1 and R2, the height is the appearance model MLi jHeight MHi jSame as Width RwIs a visible model MLi jWidth MWi jFunction F (MWi j), For example, F (X) = X / 4. As shown in FIG. 6, the positions where R1 and R2 are set are set so that half of the widths of R1 and R2 overlap with the appearance model. R3 is a portion that is not R1 or R2 in the appearance model. Therefore, the width of the region R3 is MWi j-F (MWi j), The height is MHi jIt is.
[0052]
Regarding the outer shape detection regions R1 and R2, when both of the following conditions are satisfied, it is determined that all the outer shapes of the object have been found.
[0053]
(Number of edge points having a distance in the inspection region R1 on the left end side) ≧ threshold Th1
(The number of edge points having a distance in the inspection region R2 on the right end side) ≧ threshold Th1
Here, the threshold Th1Is a threshold value for suppressing the influence of noise that defines the minimum value of the number of edge points having a distance that should exist in the region R1 (or R2). When there are more edge points than this, it is considered that there is a lump of edge points stably having a distance, that is, there is an outline having a distance.
[0054]
Judgment condition (2): (Inspection of whether a part of the outer shape is obtained, that is, a part is missing)
Similar to the determination condition (1), the object external appearance appearance model MLi jIs installed in one of the stereo images, and the investigation region (R1, R2) shown in FIG. 6 is examined to satisfy any of the following conditions.
[0055]
[Expression 2]
Figure 0004588914
[0056]
Here, the “edge point whose distance is not determined” is the same between the left and right edge images in stereo processing because the position of the edge point is shifted due to a small change in brightness between the object and the background. An edge point whose location cannot be determined and whose distance is not determined. If one of these conditions is met, there is an object outline having distance information that can determine a three-dimensional position at one end, and the distance (at the other end does not know the distance, but a feature that can form the object outline as a lump (trace) ) Is present. First, the threshold Th for the number of edge points for which the distance is not determined2Is the threshold Th1Against
[0057]
[Equation 3]
Figure 0004588914
[0058]
A value having the relationship Here, T in the equation is an average correspondence rate with respect to all edge points, and is obtained in advance by experiment, for example, and represents a ratio of the number of edge points whose distance is obtained on average among the total number of edges. . Usually, since the distance is not obtained for all edge points, the numerical value is 1 or less. By using this function T, the number of edge points for which the distance is determined is adjusted to be substantially equal to the number of edge points for which the distance is not determined.
[0059]
If any of the conditions of Equation 2 is satisfied, it is determined that a part of the outer shape of the object may have been found (partially missing), and will be described in the following processing. In the same way, examine the image for the presence of an outline. The purpose of this survey is to prevent misrecognition that an object lacks a part of its outline by combining parts of different objects. Check whether it can be judged.
[0060]
If neither of the expressions 2 is satisfied, it returns that the judgment condition (2) is not satisfied.
[0061]
The determination of the presence or absence of the object outline in the other image, which is the next process, is performed as follows. First, a position where an object should be visible in the other image is calculated based on the average distance on the “region including many edge points having a distance” side in the outer shape detection region R1 or R2 in the original image (described later). Next, the investigation area shown in FIG. 6 is set at a position to be seen in the other image, and the following condition is satisfied in the area on the same side as the “area including many edge points whose distance is not determined” in the original image. Find out if you are satisfied.
[0062]
(Number of edge points for which distance is determined) ≦ threshold ThThree
(Number of edge points for which distance is not determined) ≦ threshold Th2
This condition is for determining that a stereo image having a distance on the same side of the left and right ends of an object is missing between stereo images. If the above two conditions are satisfied, a part of the outer shape is missing without contradiction, and it is returned that the determination condition (2) is satisfied. If not satisfied, it is assumed that the judgment condition (2) is not satisfied.
[0063]
On the other hand, the calculation of the position where the object should be visible in the image is performed as follows. On the other hand, the edge point position E of the image1(Xe 1,ye 1) And edge point position E in the other image2(Xe 2,ye 2) Is related to the distance D of the edge points.E, And the camera focal length f and the inter-camera distance b are related as follows (in the case of a stereo installed horizontally).
[0064]
[Expression 4]
Figure 0004588914
[0065]
Therefore, using the average distance Dmean on the side where the distance is found in the object outline, the object outline appearance model ML is used.i jThe position where the object should be visible in the other image can be determined by shifting the rectangular area by the calculated value in the x direction.
[0066]
If i-th object fragment PiIf the scanning is completed using all the object models, another object fragment Pk(K =i + 1) Repeat the above operation. If all the object fragments have been subjected to the above processing, the processing of the object detection processing selection unit 4 is finished, and each object candidate Oij k (i)The process is transferred to the object detection process (the entire outer object detection processing unit 5 or the partial outer object detection processing unit 6) associated with each.
[0067]
Next, the overall outer shape object detection processing unit 5 will be described. In the overall outline object detection processing unit 5, the object fragment PiObject candidate O from which the outline having the distance obtained by scanning is obtained from the wholeij kWith respect to, the presence or absence of an object is determined, and if it is determined that there is an object, its three-dimensional position is determined. Details of the processing will be described. First, for the i-th object fragment, the j-th object model (view model MLi j) To find the kth object candidate Oij k(0 ≦ k ≦ NOj iNOj iIs the appearance model ML for the number of object candidates obtained when the jth model is scanned with respect to the ith object fragment.i jModel agreement E1 for evaluating the degree of fit when fittingij kTo calculate the object fragment PiEvery time, the value E1 that maximizes the model coincidence among the object candidates obtained from all the appearance models used.i maxAnd the model position (j, k) that gives it is determined as follows.
[0068]
[Equation 5]
Figure 0004588914
[0069]
If the maximum value E1i maxIs equal to or greater than the threshold value, the position given by (j, k) (object appearance model MLi jIs determined to be present at a position where the kth object candidate is to be provided. If the maximum value E1i maxIs less than the threshold, the object fragment PiIt is determined that there is no object for.
[0070]
Here, the degree of coincidence E1 with the appearance modelij kIs a quantity that represents how much the feature quantity of an object obtained from a given model and an image matches, but the implementation method is not particularly mentioned, but for example, is as follows. In the outer shape detection regions R1 and R2 shown in FIG. 6, the total number of edge points having a distance is E1.in 1Of the edge points having a distance in the object internal detection region R3 and the difference between the average distances of the outer shape detection regions R1 and R2 within a threshold is E1.in 2, E1 points above the thresholdout, The model agreement is given by the following formula.
[0071]
E1ij k= E1in 1+ E1in 2-E1out
This is because the edge point having the same distance as the object is obtained from the outer part of the object or the inside of the object, and the edge point having a different distance that is evidence other than the object being examined is not obtained from the inside of the object. It is a high score and it seems to be an object.
[0072]
Next, the partial outline object detection processing unit 6 will be described. In this process, the object fragment PiIf the outer shape having a distance obtained by scanning can be obtained only from a part (one of the left and right ends), the presence or absence of the object is determined, and if it is determined that there is an object, its three-dimensional position It is a process to determine. The details of the process are the same as those of the overall outline object detection processing unit 5 except that the method of calculating the degree of coincidence with the appearance model is different.
[0073]
Appearance model coincidence E2 in object detection processing with partial outlineij kAs with the object detection processing for the entire outline, there is no particular mention as to how to realize it as long as it represents how much the feature quantity of the object obtained from a given model and image matches. For example, it is as follows.
[0074]
The number of edge points having a distance on the side including the edge point having a distance in either one of the outer shape detection regions R1 and R2 shown in FIG.in 1E2 is an evaluation value obtained from the number of edge points whose distance is not found in the contour detection region on the side including the edge point whose other distance is not found.in 2E2 is the number of points within the threshold that the difference from the average distance obtained from the side having the distance in either of the outer shape detection areas R1 and R2 among the edge points having the distance in the object internal detection area R3 is E2.in Three, E2 points above the thresholdout, The model agreement is given by the following formula.
[0075]
E2ij k= E2in 1+ E2in 2+ E2in Three-E2out
However, E2in 2= (Number of edge points in the contour detection region) × T (T is the same average correspondence rate as in Equation 2)
The meaning of this expression is the same as that of the entire outline object detection processing unit 5 described above, and the edge point having the same distance as the object is obtained from the outline part or the inside of the object. The score is so high that edge points with different distances, which are evidence of being out of the object, are not obtained, and the object seems to be an object. However, in order to make the influence of the number of edge points from which the distance can be obtained and the number of edge points from which the distance cannot be obtained the same, E2in 2The count T is multiplied by the calculation of.
[0076]
A second embodiment of the present invention will be described with reference to FIG. In FIG. 7, the same symbols as those in the other figures indicate the same parts, 10 is an object detection processing unit, 11 is an overall external object detection processing unit, 12 is a partial external object detection processing unit, and 13 is an object position determination processing unit.
[0077]
Similar to the object detection processing unit 3 shown in FIG. 3, the object detection processing unit 10 receives distance information and edge information from the stereo processing unit 2 and outputs an object position, but differs from FIG. The entire outer object detection processing unit 11 and the partial outer object detection processing unit 12 constituting the object detection processing unit 10 are the same as the entire outer object detection processing unit 5 and the partial outer object detection processing unit 6 of FIG. , Each object fragment PiAre not determined for a single object position, but a plurality of K (K ≧ 2) object position candidates Ui k(K represents the number of the object position candidate, 0 ≦ k ≦ K), and the plurality of object position candidates Ui kThe object position determination processing unit 13 newly provided with a plurality of object position candidates U using the past object information.i kTo each object fragment PiThe object position corresponding to is determined.
[0078]
With this configuration, it is possible to determine the position of the past object that best matches the information, such as movement information, without determining the object position based only on the information obtained from the image, and always stably and correctly position the object. Can be determined.
[0079]
In the following, portions different from the configuration of FIG. 3 will be described in detail.
[0080]
First, the overall outer shape object detection processing unit 11 will be described. The difference from the overall outline object detection processing unit 5 shown in FIG. 3 is that the i-th object fragment PiThe jth appearance model MLi jKth object candidate O obtained by scanningij kAbout the appearance model MLi jModel agreement E1 that evaluates whether the degree of fitting is good or bad when fittingij kUsing the object fragment PiFor each candidate object O obtained through all the appearance models usedij kFrom (0 ≦ i ≦ N, 1 ≦ j ≦ Nm), the object position candidate U from the one with the highest model matching degree to the top k-thi k(0 ≦ k ≦ K).
[0081]
Next, the partial outline object detection processing unit 12 will be described. The difference from the partial outline object detection processing unit 6 shown in FIG. 3 is that the object candidate O is similar to the above.ij kAbout the appearance model MLi jModel agreement E2 that evaluates whether the degree of fitting is good or bad when fittingij kUsing the object fragment PiFor each candidate object O obtained through all the appearance models usedij kFrom (0 ≦ i ≦ N, 1 ≦ j ≦ Nm), the object position candidates U from the one with the highest model matching degree to the top kthi k(0 ≦ k ≦ K).
[0082]
Next, the object position determination processing unit 13 will be described. N already0Object Wq(qRepresents the number of the object, 0 ≦ q ≦ N0) Is detected. Each object WqEach object has a motion model, and the object position W that can exist this time using the motion model from the history of the object position until the previous timepre qPredict. The actual motion model is not particularly specified, and for example, a linear prediction model from a position one hour before or a prediction model using a Kalman filter may be used. Predicted object position Wpre qN object fragments PiObject position candidate U obtained for eachi k(0 ≦ k ≦ K), and if the three-dimensional distance difference is within the threshold, the predicted object position Wpre qAnd object position candidate Ui kTo object position Wpre q= Fp(Wpre q, Ui k) As the object position Wpre qUpdate. And Wpre qThe remaining object position candidate U that did not correspond toi kSince they cannot exist simultaneously, they are deleted from the object position candidates.
[0083]
By this operation, the object position Wpre qObject position candidate U for which correspondence was not foundi k(0 ≦ k ≦ K, 0 ≦ i ≦ N), each object fragment PiObject position candidate U detected fromi kFor each (0 ≦ k ≦ K), it is assumed that a new object is detected at the candidate position with the highest evaluation value.pre q + 1Register as As a result, the number of detected objects is expressed as N0← N0+1.
[0084]
Also, the object position candidate Ui kObject position W that does not correspond to any of (0 ≦ k ≦ K, 0 ≦ i ≦ N)pre qIf there is an object position Wpre qIs deleted.
As a result, the number of detected objects is expressed as N0← N0-1.
[0085]
Since the object closest to the predicted position can be extracted in this way, the edge of the part that is not the object such as the background edge is not mistaken for the object outline, and the past object position Using information such as motion history information and the like, smoothness of movement can be used to accurately output the most likely object as the final object position.
[0086]
In the method of detecting an object from distance information, the present invention is not limited to the case where the distance information is obtained for the entire object outline in the past, but when the distance information of a part of the object outline is missing. Using the prepared model of the appearance of the object, identify where the outline is missing, add processing to calculate the distance of the outline again at the missing part, and switch between these two methods as appropriate. When it is possible to detect an object stably even if a part of the outline is missing, the brightness of the entire image increases or decreases due to changes in lighting conditions, etc. However, the object can be detected stably.
[0087]
【The invention's effect】
According to the present invention, the following effects can be obtained.
[0088]
(1) In addition to the processing unit for determining the object position when the distance is obtained for the entire object outline, even if the distance information of a part of the object outline is missing, the appearance of the prepared object outline is visible A processing unit is provided that calculates the distance even for parts with missing outlines using the other model, so if the distance is obtained for the entire object outline, part of the object outline is missing. Even if it is, the object can be detected accurately.
[0089]
(2) For some missing outlines for which the distance cannot be obtained by stereo processing, the outline is formed using a lump of feature amount different from the distance, such as an edge point. The outer shape portion can be accurately obtained.
[0090]
(3) Since the correct object position can be obtained in time series from a plurality of object position candidates using the object position information obtained in the past, it is mistaken even when there is an edge point in the background. An object can be detected accurately without any problems.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of the present invention.
FIG. 2 is an explanatory diagram of processing when a part of the outer shape is missing in the present invention.
FIG. 3 is an embodiment of the present invention.
FIG. 4 is an explanatory diagram of a distance image.
FIG. 5 is an explanatory diagram of a scanning range.
FIG. 6 is an explanatory diagram of a relationship between an object appearance appearance model and an outline detection region.
FIG. 7 is a second embodiment of the present invention.
FIG. 8 is an explanatory diagram of misregistration detection using stereo images.
[Explanation of symbols]
1 Stereo image capture unit
2 Stereo processing unit
3, 10 Object detection processing unit
4 Object detection processing selection section
5, 11 Overall outline object detection processing unit
6, 12 Partial outline object detection processing unit

Claims (3)

ステレオ計測距離情報から物体を検出する物体位置計測装置において、
検出すべき物体の外形の中でステレオ計測で距離が求まらないステレオカメラと水平な成分を除く距離情報が得られているか否かを判断する物体検出処理選択手段と、
前記外形の全体で距離情報が得られているとき、物体位置を決定する全体外形物体検出処理手段と、
前記物体の外形の一部の距離情報が欠けている場合に、予め用意した物体の外形の見え方モデルを使用して外形の欠けている部分を識別し、欠けた部分に対応する位置のエッジ点の如き特徴量の塊に基づき外形を形成し、この塊に基づいてステレオ対応付けを行うことにより、前記欠けた部分の外形の距離を算出する部分外形物体検出処理手段
を具備したことを特徴とする物体位置計測装置。
In an object position measuring device that detects an object from stereo measurement distance information,
Object detection processing selection means for determining whether or not distance information excluding a horizontal component and a stereo camera whose distance is not obtained by stereo measurement in the outer shape of the object to be detected;
When distance information is obtained for the entire outer shape, the entire outer shape object detection processing means for determining the object position;
When the distance information of a part of the outer shape of the object is missing, the missing part of the outer shape is identified using a model of the appearance of the outer shape of the object prepared in advance, and the edge at the position corresponding to the missing part A partial external object detection processing unit is provided that calculates an external distance of the missing portion by forming an external shape based on a mass of feature quantities such as points and performing stereo matching based on the mass. An object position measuring device.
前記部分外形物体検出処理手段は前記エッジ点の如き特徴量の塊の平均位置に基づいてステレオ対応付けを行うこと特徴とする請求項1記載の物体位置計測装置。 Said partial outline object detection processing means, an object position measuring device according to claim 1, characterized in that the stereo correspondence based on the average position of the mass of such characteristic amounts of the edge points. 前記全体外形物体検出処理手段と、前記部分外形物体検出処理手段において、複数の物体位置候補を算出して、これらを物体位置決定処理手段に送出し、物体位置決定処理手段では過去に求められた物体位置の情報を用いて複数の物体位置候補から正しい物体位置を決定可能にしたことを特徴とする請求項1または請求項2記載の物体位置計測装置。In the whole outer shape object detection processing means and the partial outer shape object detection processing means, a plurality of object position candidates are calculated and sent to the object position determination processing means. 3. The object position measuring apparatus according to claim 1, wherein a correct object position can be determined from a plurality of object position candidates using the object position information.
JP2001128708A 2001-04-26 2001-04-26 Object position measuring device Expired - Fee Related JP4588914B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001128708A JP4588914B2 (en) 2001-04-26 2001-04-26 Object position measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001128708A JP4588914B2 (en) 2001-04-26 2001-04-26 Object position measuring device

Publications (2)

Publication Number Publication Date
JP2002323301A JP2002323301A (en) 2002-11-08
JP4588914B2 true JP4588914B2 (en) 2010-12-01

Family

ID=18977366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001128708A Expired - Fee Related JP4588914B2 (en) 2001-04-26 2001-04-26 Object position measuring device

Country Status (1)

Country Link
JP (1) JP4588914B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2014067320A (en) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd Stereo camera device
JP6600945B2 (en) * 2015-01-20 2019-11-06 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, and computer program
JP6968691B2 (en) * 2017-12-27 2021-11-17 株式会社ミツバ Obstacle detector

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0990026A (en) * 1995-09-27 1997-04-04 Honda Motor Co Ltd Object detecting device and its method
JP2001091232A (en) * 1999-09-24 2001-04-06 Sony Corp Three-dimensional shape measuring device and method, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0990026A (en) * 1995-09-27 1997-04-04 Honda Motor Co Ltd Object detecting device and its method
JP2001091232A (en) * 1999-09-24 2001-04-06 Sony Corp Three-dimensional shape measuring device and method, and recording medium

Also Published As

Publication number Publication date
JP2002323301A (en) 2002-11-08

Similar Documents

Publication Publication Date Title
US9123242B2 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
US7769227B2 (en) Object detector
González et al. Automatic traffic signs and panels inspection system using computer vision
JP4970195B2 (en) Person tracking system, person tracking apparatus, and person tracking program
US11093762B2 (en) Method for validation of obstacle candidate
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
JP2008065634A (en) Object detection apparatus and object detection method
CN111409070B (en) Detection method and device, intelligent robot and storage medium
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP3577875B2 (en) Moving object extraction device
JP4067340B2 (en) Object recognition device and object recognition method
JPH09297849A (en) Vehicle detector
Omar et al. Detection and localization of traffic lights using YOLOv3 and Stereo Vision
JPH11257931A (en) Object recognizing device
Zhanabatyrova et al. Automatic map update using dashcam videos
JP4588914B2 (en) Object position measuring device
JP4150218B2 (en) Terrain recognition device and terrain recognition method
JPH10312463A (en) Recognizing method for object and its device
CN115657021A (en) Fire detection method for movable robot and movable robot
Tang Development of a multiple-camera tracking system for accurate traffic performance measurements at intersections
Schilling et al. Mind the gap-a benchmark for dense depth prediction beyond lidar
Boudet et al. A supervised classification approach towards quality self-diagnosis of 3D building models using digital aerial imagery
JPH1096607A (en) Object detector and plane estimation method
JP2000261787A (en) Method and system for detecting intruding object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100726

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100909

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees