JP4660569B2 - 物体検出装置及び物体検出方法 - Google Patents

物体検出装置及び物体検出方法 Download PDF

Info

Publication number
JP4660569B2
JP4660569B2 JP2008074462A JP2008074462A JP4660569B2 JP 4660569 B2 JP4660569 B2 JP 4660569B2 JP 2008074462 A JP2008074462 A JP 2008074462A JP 2008074462 A JP2008074462 A JP 2008074462A JP 4660569 B2 JP4660569 B2 JP 4660569B2
Authority
JP
Japan
Prior art keywords
candidate point
candidate
time
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008074462A
Other languages
English (en)
Other versions
JP2009229226A (ja
Inventor
豪 田崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008074462A priority Critical patent/JP4660569B2/ja
Priority to US12/379,784 priority patent/US8208686B2/en
Publication of JP2009229226A publication Critical patent/JP2009229226A/ja
Application granted granted Critical
Publication of JP4660569B2 publication Critical patent/JP4660569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体を検出する物体検出装置及び物体検出方法に関する。
ロボット等の移動体にとって、安全な走行を行うために周囲の物体(障害物)を検出して、検出した物体が動物体であるか、静止物体であるかに応じた回避動作を行うことは重要である。そこで従来から移動体の移動情報と距離測定センサを用いて、過去の画像から現在の画像を推定し、推定された画像と現在の画像との差分を取ることで物体を検出する手法が開発されている。しかしながら、画像全体の推定画像を作成するため、画像中の物体までの距離を測定するセンサが必要となる。
距離を測定するセンサを用いない手法としては、特許文献1のように、カメラ画像から地面に対してだけ距離を正確に測ることができる鳥瞰図を作成し、過去の鳥瞰図の路面際線が、現在の鳥瞰図の路面際線と一致するよう画像変換するものがある。そして、路面際線の不一致点を物体として検出する。
しかしながら、特許文献1では、路面際線が実際に路面上の線であるか否かを判断する手法は検討されていない。又、現在と過去の画像で路面際線が対応することを前提としており、路面上に動物体が多く存在する場合は使用できない。又、動物体が少ない場合でも、画像全体で差分をとるため、動物体が過去に存在した位置にも虚像ができ、誤作動につながる上、動物体と静止物体とを識別できない。
特開2006−268076号公報
本発明の目的は、距離を測定するセンサを用いることなく、精度良く物体を検出可能な物体検出装置及び物体検出方法を提供することである。
本願発明の一態様によれば、(イ)撮像装置が撮像した画像に含まれる画素から地面と該地面上に配置された物体界面との接点の候補点を検出する候補点検出部と、(ロ)候補点を検出するために用いる探索閾値を記憶する探索閾値記憶部と、(ハ)候補点の位置をトラッキングし、撮像装置が撮像した第1及び第2の時刻における候補点の位置をそれぞれ算出するトラッキング部と、(ニ)第1の時刻における候補点の位置に、第1の時刻から第2の時刻までの撮像装置の移動量を合算することにより第2の時刻における推定位置を算出し、該推定位置と、トラッキングによる第2の時刻における候補点の位置との差分を算出する差分算出部と、(ホ)候補点の状態を記憶する候補点状態記憶部と、(ヘ)状態を判定するための状態判定閾値を記憶する状態判定閾値記憶部と、(ト)差分と状態判定閾値とを比較して、第2の時刻における候補点の新たな状態を判定し、該新たな状態に応じて、探索閾値記憶部に記憶されている探索閾値又は候補点状態記憶部に記憶されている状態を変更する状態判定部とを備える物体検出装置が提供される。
本願発明の他の態様によれば、(イ)探索閾値記憶部から探索閾値を読み出し、撮像装置が撮像した画像に含まれる画素から地面と該地面上に配置された物体界面との接点の候補点を検出するステップと、(ロ)候補点の位置をトラッキングし、撮像装置が撮像した第1及び第2の時刻における候補点の位置をそれぞれ算出するステップと、(ハ)第1の時刻における候補点の位置に、第1の時刻から第2の時刻までの撮像装置の移動量を合算することにより第2の時刻における推定位置を算出し、該推定位置と、トラッキングによる第2の時刻における候補点の位置との差分を算出するステップと、(ニ)差分と状態を判定するための状態判定閾値とを比較して、第2の時刻における候補点の新たな状態を判定するステップとを含む物体検出方法が提供される。
本発明によれば、距離を測定するセンサを用いることなく、精度良く物体を検出可能な物体検出装置及び物体検出方法を提供することができる。
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。又、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることはもちろんである。
又、以下に示す実施の形態は、この発明の技術的思想を具体化するための装置や方法を例示するものであって、この発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。
(物体検出装置)
本発明の実施の形態に係る物体検出装置は、図1に示すように、中央演算処理装置(CPU)1と、このCPU1の動作に必要なプログラムやCPU1の演算に必要なデータ等を記録する記憶装置2と、ロボット等の移動体に搭載され画像を撮像する撮像装置3と、移動体を移動させるモータ等の駆動装置4を備える。
本発明の実施の形態に係る物体検出装置においては、撮像装置3として曲面ミラーを装着した広角カメラを使用する場合を説明するが、一方向のみを撮像する一般的なカメラを利用しても実現可能である。以下において一般的なカメラと実現方法が異なる処理については適宜説明を加える。
なお、後述する画像上の位置とは、撮像装置3にて撮像された画像における位置、すなわち画素の座標を指し、カメラ座標上の位置とは、画像から現実空間における水平方向の位置を推定するために物体検出装置が用いる仮想空間上の座標を指し、例えば画像上の位置を座標変換した後の座標を指す。
図2に、撮像装置3が撮像した画像の一例を示す。人102,103が動物体であり、机104及び柱105がそれぞれ静止物体である。画像の中心Cの周辺の領域100は、鏡を用いて撮像した広角画像に存在する地面上の点を示さない画素からなる領域である。鳥瞰図作成可能領域101は、撮像装置3の本体やレンズの特性に基づき予め設定された中心Cから地平線までの領域である。
図1に示したCPU1は、撮像装置3が撮像した画像に含まれる画素から、地面(床)と地面上に配置された物体との接点(床際点)の候補点を検出する候補点検出部11と、検出した候補点の画像上の位置を時系列にトラッキングし、第1及び第2の時刻における候補点の画像上の位置を算出するトラッキング部12と、第1及び第2の時刻における候補点の画像上の位置を、候補点が地面の高さにあると仮定した2次元座標にそれぞれ座標変換する座標変換部13と、座標変換した第1の時刻における候補点のカメラ座標上の位置から推定した第2の時刻における推定位置と、第2の時刻における候補点のカメラ座標上の位置との差分を算出する差分算出部14と、差分から第2の時刻における候補点の新たな状態を判定し、新たな候補点の状態に応じて、記憶装置2の探索閾値記憶部21に記憶されている候補点を検出するために用いる探索閾値又は記憶装置2の候補点状態記憶部25に記憶されている状態を変更する状態判定部15とをハードウェア資源であるモジュール(論理回路)として論理的に備えている。更に、駆動装置4を駆動し移動体の移動を制御する信号を出力する移動制御部16をハードウェア資源であるモジュール(論理回路)として論理的に備えている。又、CPU1には必要に応じて入力装置や出力装置等が接続されていても良い。
候補点検出部11は、記憶装置2の探索閾値記憶部21から探索閾値δθを読み出し、撮像装置3が撮像した画像において、状態判定部15から指定された画像上の方向θの地面と物体界面との接点の候補点Pθの位置を検出する。方向θは一定間隔で定義される。ここではθ=1度,2度,…,360度とし、1度に1個ずつ合計360個の候補点を検出する場合を説明するが、この値は使用するアプリケーションによって変更すれば良い。
候補点検出部11は、図3に示すように、画像上の中心Cから領域100を探索範囲から除いて遠方に向かって他の画素との輝度差を求めながら、式(1)を満たさなくなるまで、距離rを一定画素数ずつ伸ばしていく。

|I(r+1,θ)−I(r,θ)|<δθ …(1)

ここで、I(r,θ)は、画像上の撮像装置3が配置された位置を原点とした画像座標系における座標(rcosθ,rsinθ)の画素値(輝度)を示す。そして、初めて式(1)を満たさなくなるときの距離rにある画素を候補点Pθとし、その距離rを用いて式(2)のように候補点Pθの位置(x,y)が計算される。

x=rcosθ,y=rsinθ …(2)

なお、通常のカメラを用いる場合、予めキャリブレーションしておいたパラメータを用いて方向θを算出したのち同様の処理をすれば良い。
又、上記では画素値(輝度)の差で候補点の検出を行っているが、候補点の検出方法は特に限定されず、閾値を用いて候補点を検出する手法であればよい。
又、システム起動時に初期画像が得られたときは、状態判定部15からの方向θの指定がないので、候補点検出部11は、撮像装置3が進む可能性があるすべての方向について、一定の探索閾値δθで候補点を検出する。検出した各候補点の位置を記憶装置2の候補点位置記憶部22に登録するとともに、各候補点の状態を「まだ判定不能な点(以後、この状態を「NEW」と呼ぶ。)」として、候補点位置記憶部22に登録した候補点の位置と対応付けるためのIDとともに記憶装置2の候補点状態記憶部25に登録する。
トラッキング部12は、候補点検出部11により検出された候補点の位置を、例えばLucasKanadeアルゴリズムにより時系列でトラッキングし、撮像装置3により取得された第1の時刻(過去)及び第2の時刻(現在)における画像上の候補点の画像上の位置を算出し、候補点の画像上の位置を候補点位置記憶部22に登録する。なお、第1及び第2の時刻は任意の時刻であり特に限定されない。
座標変換部13は、記憶装置2の座標変換テーブル記憶部23に記憶されている座標変換テーブルを用いて、候補点位置記憶部22に記憶されている第1の時刻における各候補点の画像上の位置と、第2の時刻における各候補点の画像上の位置を、候補点が地面の高さにあると仮定して2次元座標(撮像装置3が設置された位置を原点としたカメラ座標系)に座標変換する。
座標変換テーブルは、画像上の座標とカメラ座標系の座標との対応関係を示す表であり、撮像装置3を予めキャリブレーションし、式(3)及び(4)を用いて作成可能である。
Figure 0004660569
ここで、図4に示すように、Xは撮影する対象の実世界(3次元)におけるX座標(カメラ座標)、Yは撮影する対象の実世界(3次元)におけるY座標(カメラ座標)、Zは撮影する対象の実世界(3次元)におけるZ座標(カメラ座標)を示す。fはレンズの焦点距離、b及びcはそれぞれ使用する全方位ミラー5の形状によって決定されるパラメータ、xは得られた画像上における撮影対象のx座標(画像座標)、yは得られた画像上における撮影対象のy座標(画像座標)を示す。Zはカメラが設置してある高さなので、既知としてある。
なお、一般的なカメラを用いる場合には例えば透視投影の式を用いて同様に変換テーブルを作成すれば良い。
又、座標変換部13は、鳥瞰図作成可能領域101の外側に存在する候補点については座標変換できないということで、座標変換した結果として「FALSE」を出力する。
図5は、撮像装置(広角カメラ)3により撮像された画像の一例を示す。図5においては、説明の便宜上、一部の候補点のみを×印で示す。上下に伸びる通路106のエッジに対応して検出された候補点(×印)が歪んだ並びで表現されている。図5に示した画像座標上の候補点(×印)が変換テーブルを用いてカメラ座標上に射影された鳥瞰図画像を図6に示す。図6の鳥瞰図画像上では、通路106のエッジに対応する候補点(×印)の並びの歪みが少なくなっている。
移動制御部16は、駆動装置4に制御指令値を与えて移動体を移動させる。又、移動制御部16は、エンコーダ等から得られる第1の時刻における画像取得地点から第2の時刻における画像取得地点までの移動量を差分算出部14に出力する。
差分算出部14は、座標変換部13により座標変換された第1の時刻における候補点の位置に、移動制御部16から得られる移動体の移動量を合算して、第2の時刻における候補点の推定位置(候補点が静止物体とした場合の推定位置)として算出する。更に、第2の時刻におけるカメラ座標上の候補点の推定位置と、トラッキングにより得られた第2の時刻におけるカメラ座標上の候補点のカメラ座標上の位置との距離の差分を算出する。又、差分算出部14は、座標変換部13により「FALSE」が出力されている場合には「FALSE」を出力する。
状態判定部15は、差分算出部14により算出された各候補点毎の差分、候補点状態記憶部25に記憶されている各候補点の状態、候補点位置記憶部22に記憶されている各候補点の位置を用いて、各候補点の状態をそれぞれ判定する。更に、状態判定部15は、各候補点の状態の判定結果に基づき、候補点状態記憶部25に記憶されている各候補点の状態や、探索閾値記憶部21に記憶されている各方向の探索閾値δθを動的に変更する。
記憶装置2は、探索閾値記憶部21、候補点位置記憶部22、座標変換テーブル記憶部23、状態判定閾値記憶部24及び候補点状態記憶部25を備える。
探索閾値記憶部21は、移動体が移動する可能性がある各方向θ毎に固有の探索閾値δθを記憶している。探索閾値記憶部21に記憶されている各方向の探索閾値δθは状態判定部15により変更される。変更により探索閾値δθの値が上限Tmaxを超えたらTmaxに、下限Tminを下回ったらTminになるように調整される。
候補点位置記憶部22は、候補点検出部11により検出された各候補点の位置、トラッキング部12によりトラッキングされた時系列の各候補点の位置、状態判定部15により変更された各候補点の位置を、各候補点のIDとともに画像座標系で記憶している。
座標変換テーブル記憶部23は、座標変換テーブルを記憶する。
状態判定閾値記憶部24は、各候補点の状態を判定するために用いる状態判定下限閾値及び状態判定上限閾値等を記憶している。状態判定下限閾値及び状態判定上限閾値は、候補点と移動体の距離が離れるほど、候補点の位置の座標変換の誤差が大きくなる上、細かく調べる必要も無いため、撮像装置3から候補点までの距離が大きくなるにつれて単調増加する。例えば、状態判定下限閾値及び状態判定上限閾値は、取得した画像が鏡を用いた広角画像であった場合、撮像装置3から候補点までの距離が大きくなるにつれて上に凸な単調増加関数で示される増加を行う。
候補点状態記憶部25は、候補点検出部11により検出された候補点に設定された状態(NEW)や、状態判定部15で判定された候補点の状態を記憶する。ここで記憶されている状態は、「NEW」の他に、「静止物体界面と地面との接点」と判定された状態(以後「STABLE」と呼ぶ)、「動物体界面と地面との接点」と判定された状態(以後「DYNAMIC」と呼ぶ)、「移動体と近接している物体上の点」と判定された状態(以後「NEAR」と呼ぶ)の合計4種類である。
記憶装置2としては、例えば半導体メモリ、磁気ディスク、光ディスク、光磁気ディスクや磁気テープ等が採用可能である。半導体メモリとしては、例えば、ROM及びRAMが採用可能である。ROMは、CPU1において実行されるプログラムを格納することが可能である(プログラムの詳細は後述する。)。RAMは、CPU1におけるプログラム実行処理中に利用されるデータ等を一時的に格納したり、作業領域として利用される一時的なデータメモリ等として機能させることが可能である。
(物体検出方法)
次に、本発明の実施の形態に係る物体検出方法の一例を、図7のフローチャートを参照しながら説明する。
ステップS101において、撮像装置3が、図2に示すような画像を逐次撮像する。
ステップS102において、候補点検出部11が、探索閾値記憶部21に記憶されている探索閾値δθを用いて、図3に示すように、撮像装置3が撮像した画像に含まれる画素から、地面と物体界面との接点の候補点Pθを検出する。候補点は、各方向θ毎に固有の探索閾値δθをそれぞれ用いて、移動体が進む可能性があるすべての方向に対して、一定の角度θ毎に検出される。
ステップS103において、トラッキング部12が、候補点検出部11により検出した各候補点Pθの位置を時系列にそれぞれトラッキングし、第1の時刻(過去)における画像上の各候補点の画像上の位置及び第2の時刻(現在)における画像上の各候補点の画像上の位置をそれぞれ算出する。
ステップS104において、座標変換部13が、座標変換テーブル記憶部23に記憶されている座標変換テーブルを用いて、トラッキング部12により得られた第1及び第2の時刻における画像上の各候補点の画像上の位置を、候補点が地面の高さにあると仮定した2次元座標にそれぞれ座標変換する。
ステップS105において、差分算出部14が、座標変換部13により座標変換した第1の時刻における候補点のカメラ座標上の位置に、移動制御部16から得られた第1の時刻から第2の時刻までの撮像装置3の移動量を合算したものを第2の時刻における候補点の推定位置とし、第2の時刻における候補点の推定位置と、座標変換部13により座標変換した第2の時刻における候補点のカメラ座標上の位置との差分を算出する。
ステップS106において、状態判定部15が、候補点状態記憶部25に記憶されている候補点の状態、及び差分算出部14により算出された差分から、第2の時刻における各候補点の状態をそれぞれ判定する。更に、状態判定部15が、第2の時刻における各候補点の状態に応じて、探索閾値記憶部21に記憶されている各方向の探索閾値δθや候補点状態記憶部25に記憶されている各候補点の状態をそれぞれ変更する。
(状態判定処理)
次に、図7のステップS106の状態判定処理の詳細を、図8のフローチャートを参照しながら説明する。
(イ)ステップS201において、候補点を探索する方向θを0度(移動体が進む可能性がある範囲の一端の方向)に設定し、ステップS202において方向θを1度増加させる。ステップS203において、方向θが移動体が進む可能性がある範囲内かを判定する。方向θが、移動体が進む可能性がある範囲の他端の方向を越えたら処理を完了する。一方、方向θが移動体が進む可能性がある範囲内の場合にはステップS204に進む。
(ロ)ステップS204において、状態判定部15が、同じ方向θにおける複数の候補点の重なりの有無を判定する。トラッキングにより他の方向にあった候補点が方向θに移動してくることにより候補点同士が重なる可能性があるからである。同じ方向θに複数の候補点の重なりが無い場合にはステップS206に進む。一方、同じ方向θに複数の候補点の重なりが有る場合には、ステップS205において撮像装置3から距離が遠い候補点を消去し、撮像装置3に最も近い一つの候補点を残すことにより重なりを除去する。更に、消去された候補点に対応する探索閾値記憶部21に記憶されている探索閾値δθ、候補点状態記憶部25に記憶されている状態、候補点位置記憶部22に記憶されている位置をそれぞれ削除する。
(ハ)ステップS206において、状態判定部15が、方向θの候補点の有無を判定する。トラッキングにより方向θの候補点が他の方向に移動したり消滅したりして候補点が無い可能性があるからである。方向θに候補点が有る場合にはステップS208に進む。一方、方向θに候補点が無い場合には、ステップS207において、状態判定部15が、方向θを指定して候補点検出部11に新たな候補点を検出させる。そして、状態判定部15が、新たな候補点の状態として「NEW」を候補点状態記憶部25に登録後、新たな候補点の位置を候補点位置記憶部22に登録する。その後、ステップS202の手順に戻る。
(ニ)ステップS208において、状態判定部15が、方向θの候補点に対して状態・探索閾値更新処理を行う。状態・探索閾値更新処理の詳細については後述する。状態・探索閾値更新処理の後、ステップS202の手順に戻る。この結果、すべての方向について状態・探索閾値更新処理が行われる。
なお、ステップS204及びS205において方向θ毎に候補点の重なりの判定及び重なりの除去をし、ステップS206及びS207において方向θ毎に候補点の有無の判定及び新たな候補点の検出をする手順を説明したが、ステップS201の手順よりも前に、ステップS204及びS205の手順と同様にすべての方向において候補点の重なりの判定及び重なりの除去をし、ステップS206及びS207の手順と同様にすべての方向において候補点の有無の判定及び新たな候補点の検出をすることにより、すべての方向に一つずつ候補点を設定してから、ステップS201〜S203、S207と同様の手順で各方向θについて状態・探索閾値更新処理を行っても良い。
(NEW用状態・探索閾値更新処理)
次に、図8のステップS208の状態・探索閾値更新処理において、候補点状態記憶部25に記憶されている候補点の状態が「NEW」のときの状態・探索閾値更新処理の詳細を、図9のフローチャートを参照しながら説明する。ここで判定する候補点の状態は「NEW」、「STABLE」、「DYNAMIC」、「NEAR」の4種類である。以下、画像座標上における方向θの候補点の位置を(r,θ)、状態をS(θ)、差分算出部14により算出された差分をd(θ)とする。
(イ)ステップS301において、状態判定部15が、差分算出部14により差分d(θ)が得られたか判定する。差分算出部14から「FALSE」が出力されており、差分d(θ)が得られていない場合にはステップS302に進む。
(ロ)ステップS302において、差分d(θ)が得られていないのは、物体が撮像装置3に近接しているため地面を全く検出できなかった場合(S(θ)が「NEAR」の場合)か、探索閾値を更新した方が好ましく、図10に示すように遠方の物体上に候補点Pが検出された場合かのいずれかである可能性がある。そこで、状態判定部15が、方向θの探索閾値δθをδ減少させて探索閾値記憶部21に登録する。更に、状態判定部15が、候補点検出部11に方向θを指定して、探索閾値δθ−δを用いて、画像上の中心Cから領域100を探索範囲から除いて遠方に向かって、式(1)を満たさなくなるときの距離rの画素(以下、「候補点候補」という。)Pの位置(r,θ)を候補点Pの位置(r,θ)よりも手前に検出させる。
(ハ)ステップS303において、状態判定部15が、画像の中心Cから領域100を除いて候補点候補Pnの位置(rn,θ)までに含まれる画素のRGB輝度値の平均を算出する。更に、既に地面であると判断された他の候補点からRGB輝度値の平均を算出するか、地面の色(床色)のRGB輝度値の平均を予め得ておく。そして、画像の中心Cから領域100を除いて候補点候補Pnの位置(rn,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)とし、予め得ておいた地面の色のRGB輝度値の平均又は既に地面であると判断された候補点から得られたRGB輝度値の平均をR(θ)、G(θ)、B(θ)として、式(5)を用いてS(θ)の最終的な判定を行う。

(R(θ)−R(θ))2+(G(θ)−G(θ))2+(B(θ)−B(θ))2<δRGB …(5)

閾値δRGBは、例えば状態判定閾値記憶部24に記憶されている。式(5)を満たす場合には、探索閾値を更新した方が好ましく、遠方の物体上に候補点が検出された場合であると推定されるので、候補点候補Pnの位置(rn,θ)を新たな候補点として選択し、候補点位置記憶部22に登録する。ステップS304において状態判定部15が、S(θ)として「NEW」を候補点状態記憶部25に登録する。一方、ステップS303において式(5)を満たさない場合には元の候補点Pを選択する。ステップS305において、状態判定部15が探索閾値記憶部21に記憶されている方向θの探索閾値δθ−δを元の探索閾値δθに戻す。ステップS306において、状態判定部15がS(θ)として「NEAR」を候補点状態記憶部25に登録する。
(ニ)ステップS301において差分d(θ)が得られている場合にはステップS307に進む。ステップS307において、状態判定部15が式(6)を用いて差分d(θ)が状態判定下限閾値δ(r)より小さいか判定する。

d(θ)<δ(r) …(6)

式(6)を満たす場合にはステップS308に進む。
(ホ)ステップS308において、差分d(θ)が小さいのでS(θ)が「STABLE」になる可能性が高いが、図11に示すように、照明光の反射や地面の模様のために物体と地面との接点よりも手前に候補点Pが検出された可能性がある。そこで、状態判定部15が方向θを指定して候補点検出部11に探索閾値δθを用いて候補点Pの位置(r,θ)よりも遠方に候補点候補Pnを検出させる。このとき、より遠方まで探索を行うため探索閾値δθをδ増加させ、探索閾値記憶部21に登録し、登録した探索閾値δθ+δを用いても良い。
(ヘ)ステップS309において、図12のフローチャートの手順により候補点候補Pnを選択するか否か判定する。即ち、図12のステップS401において、トラッキング部12が、第2の時刻における候補点候補Pnの位置(rn,θ)を時系列とは逆(過去)にトラッキングし、第1の時刻における候補点候補Pnの画像上の位置を算出する。座標変換部13が、第1の時刻における候補点候補Pnの画像上の位置及び第2の時刻における候補点候補Pnの画像上の位置をそれぞれ座標変換する。差分算出部14が、第1の時刻における座標変換した候補点候補Pnのカメラ座標上の位置に移動制御部16から得られる移動体の移動量を合算して、第2の時刻における候補点候補Pnの推定位置を算出する。更に、第2の時刻における候補点候補Pnの推定位置と、第2の時刻における候補点候補Pnのカメラ座標上の位置との距離の差分d(θ)を算出する。状態判定部15が、式(6)を用いて、差分d(θ)が状態判定下限閾値δ(r)よりも小さいか判定する。候補点候補Pnが式(6)を満たす場合には候補点候補Pnの位置(rn,θ)が地面であり、元の候補点Pより遠方には床が広がり、候補点候補Pnも元の候補点Pも地面上の点であると推定される。したがって、ステップS402において、状態判定部15が、遠方の床際により近いであろう候補点候補Pnを新たな候補点として選択し、候補点候補Pnの位置(rn,θ)を候補点位置記憶部22に登録する。一方、式(6)を満たさない場合にはステップS403に進む。
(ト)ステップS403において、状態判定部15が式(7)を用いて差分d(θ)が状態判定上限閾値δ(r)よりも大きいか判定する。

(θ)>δ(r) …(7)

式(7)を満たす場合、候補点候補Pnは地面上の点ではなく、物体上の点である可能性が高く、元の候補点Pより先には物体があると推定される。したがって、ステップS404において、状態判定部15が元の候補点Pを選択し、元の候補点Pの位置(r,θ)を候補点位置記憶部22に再登録する。一方、式(7)を満たさない場合にはステップS405に進む。
(チ)ステップS405において、画像の中心Cから領域100を除いて候補点候補Pnの位置(rn,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)とし、候補点候補Pnの位置(rn,θ)から候補点Pの位置(r,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)として、式(5)を満たすか判定する。式(5)を満たす場合には候補点候補Pnが地面上の点であると推定されるので、状態判定部15が候補点候補Pnを選択し、図9のステップS304において「NEW」を候補点状態記憶部25に登録する。一方、式(5)を満たさない場合には地面上の点でないと推定されるので、状態判定部15が元の候補点Pを選択し、図9のステップS310において、状態判定部15が探索閾値記憶部21に記憶されている方向θの探索閾値δθ+δを元の探索閾値δθに戻す。更に、ステップS311において、S(θ)として「STABLE」を候補点状態記憶部25に登録する。
(リ)ステップS307において式(6)を満たさない場合にはステップS312に進む。ステップS312において、状態判定部15が、式(7)を用いて差分d(θ)が状態判定上限閾値δ(r)よりも大きいか判定する。式(7)を満たす場合、差分d(θ)が大きいので、物体が移動体及び撮像装置3に近接しているため地面を検出できなかった場合(S(θ)が「NEAR」の場合)か、物体が動物体であったため推定位置と異なった場合(S(θ)が「DYNAMIC」の場合)か、探索閾値を更新した方が好ましく、遠方の物体上に候補点が検出された場合である可能性がある。ステップS314において、方向θの探索閾値δθをδ減少させて探索閾値記憶部21に登録する。登録した探索閾値δθ−δを用いて候補点検出部11が候補点Pの位置(r,θ)よりも手前に候補点候補Pnの位置(rn,θ)を検出する。
(ヌ)ステップS315において、状態判定部15が画像の中心Cから領域100を除いて候補点候補Pnの位置(rn,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)とし、候補点候補Pnの位置(rn,θ)から候補点Pの位置(r,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)として、式(5)を用いてS(θ)の最終的な判定を行う。式(5)を満たさない場合、探索閾値を更新した方が好ましい場合と推定される。そこで、ステップS304において、状態判定部15が候補点候補Pnを新たな候補点として選択し、S(θ)を「NEW」として候補点状態記憶部25に登録し、候補点候補Pnの位置(rn,θ)を候補点位置記憶部22に登録する。一方、ステップS315において式(5)を満たす場合にはS(θ)が「NEAR」又は「DYNAMIC」と推定される。元の候補点Pを選択し、ステップS316において探索閾値記憶部21に記憶されている方向θの探索閾値δθ−δを元の探索閾値δθに戻す。
(ル)ステップS317において、状態判定部15が画像の中心Cから領域100を除いて候補点Pの位置(r,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)とし、予め得ておいた地面の色のRGB輝度値の平均又は既に地面であると判断された点を計算したときに得られたRGB輝度値の平均をR(θ)、G(θ)、B(θ)として、式(5)を用いてS(θ)の最終的な判定を行う。式(5)を満たす場合、候補点Pの位置(r,θ)までが地面であり、物体が動物体であると推定されるので、ステップS318において、S(θ)を「DYNAMIC」として候補点状態記憶部25に登録する。一方、式(5)を満たさない場合には、物体が移動体及び撮像装置3に近接しているため地面を検出できなかった場合と推定されるので、ステップS306において、状態判定部15がS(θ)として「NEAR」を候補点状態記憶部25に登録する。
(ヲ)ステップS312において式(7)を満たさない場合にはステップS313に進む。ステップS313において、画像の中心Cから領域100を除いて候補点Pの位置(r,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)とし、予め得ておいた地面の色のRGB輝度値の平均又は既に地面であると判断された候補点から得られたRGB輝度値の平均をR(θ)、G(θ)、B(θ)として、状態判定部15が、式(5)を用いてS(θ)の最終的な判定を行う。式(5)を満たす場合にはステップS311に進み、状態判定部15が、S(θ)を「STABLE」として候補点状態記憶部25に登録する。一方、式(5)を満たさない場合にはステップS306に進み、状態判定部15がS(θ)を「NEAR」として候補点状態記憶部25に登録する。
(状態・探索閾値更新処理)
次に、図8のステップS208の状態・探索閾値更新処理において、候補点状態記憶部25に記憶されているS(θ)が「NEW」、「STABLE」、「DYNAMIC」、「NEAR」のいずれかの場合の詳細を図13のフローチャートを参照しながら説明する。
(イ)ステップS501において、状態判定部15が、候補点状態記憶部25に記憶されているS(θ)が「STABLE」か否か判定する。S(θ)が「STABLE」の場合にはステップS502に進む。
(ロ)ステップS502において、S(θ)が「STABLE」の可能性はあるが、動物体がたまたま動いていなかった可能性もある。そこで、状態判定部15が、式(7)を用いてd(θ)が状態判定上限閾値δ(r)よりも大きいか判定する。式(7)を満たす場合には動物体がたまたま動いていなかった場合と推定される。ステップS503において、S(θ)として「DYNAMIC」を候補点状態記憶部25に登録する。一方、ステップS502において式(7)を満たなさい場合にはステップS504に進む。
(ハ)ステップS504において、S(θ)が「STABLE」の可能性があるが、移動体又は撮像装置3の移動により「NEAR」になっている可能性もある。そこで、状態判定部15が、状態判定閾値記憶部24に記憶されている閾値と、移動体から候補点Pまでの距離とを比較して、候補点Pと移動体との距離が閾値よりも小さいか判定する。候補点と移動体との距離が閾値よりも小さい場合、ステップS505において、S(θ)を「NEAR」として候補点状態記憶部25に登録する。一方、候補点と移動体との距離が閾値以上の場合、候補点状態記憶部25に登録された「STABLE」を維持する。
(ニ)ステップS501において候補点状態記憶部25に記憶されているS(θ)が「STABLE」以外の場合にはステップS506に進む。ステップS506において、状態判定部15が、S(θ)が「NEW」か否か判定する。S(θ)が「NEW」の場合、ステップS507においてS(θ)が「NEW」のときの状態・探索閾値更新処理を行う。この「NEW」のときの状態・探索閾値更新処理は、図9のフローチャートの手順と実質的に同様であるので、重複した説明を省略する。
(ホ)ステップS506において、候補点状態記憶部25に記憶されているS(θ)が「NEW」ではない場合にはステップS508に進む。ステップS508において、状態判定部15が、S(θ)が「DYNAMIC」か否か判定する。S(θ)が「DYNAMIC」の場合にはステップS509に進む。
(ヘ)ステップS509において、図14に示すように、S(θ)が「DYNAMIC」である可能性があるが、ノイズである可能性もある。そこで、状態判定部15が、方向θの両隣の方向θ−1,θ+1の候補点P(r,θ−1),P(r,θ+1)のそれぞれの状態S(θ+D),S(θ−D)のいずれかが「DYNAMIC」か判定する。S(θ+D),S(θ−D)のいずれも「DYNAMIC」ではない場合、ノイズであると推定されるので、ステップS510において、状態判定部15が方向θを指定して候補点検出部11に新たな候補点を検出させ、新たな候補点の位置を候補点位置記憶部22に登録する。ステップS511において、S(θ)として「NEW」を候補点状態記憶部25に登録する。一方、ステップS509において、S(θ+D),S(θ−D)のいずれかが「DYNAMIC」の場合、候補点状態記憶部25に記憶されているS(θ)は「DYNAMIC」のまま変更しない。
(ト)ステップS508において候補点状態記憶部25に記憶されているS(θ)が「DYNAMIC」ではない場合、ステップS512に進む。ステップS512において、S(θ)が「NEAR」である可能性が高いが、移動体や動物体の移動により「NEAR」ではなくなっている可能性もある。そこで、ステップS512において、状態判定部15が方向θを指定して候補点検出部11に候補点候補Pnを検出させる。ここでは、S(θ)が「NEAR」のままであるか否かを調べるために、探索閾値δθは増減せずにそのまま用いて候補点候補Pnを探索する。この結果、元の候補点Pの位置(r,θ)とほぼ同じような位置に候補点候補Pnが検出される。
(チ)ステップS513において、状態判定部15が、画像の中心Cから領域100を除いて候補点候補Pnの位置(rn,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)とし、候補点候補Pnの位置(rn,θ)から候補点Pの位置(r,θ)までに含まれる画素のRGB輝度値の平均をR(θ)、G(θ)、B(θ)として、式(5)を満たすか判定する。式(5)を満たす場合、画像の中心Cから候補点候補Pnまでの色と、元の候補点Pから候補点候補Pnまでの色は類似しているので、S(θ)を「NEAR」と最終的に判定し、候補点状態記憶部25に記憶されている「NEAR」を維持する。一方、式(5)を満たさず色が異なっている場合は、2つの場合に分けられる。一つは、今まで「NEAR」であった物体が移動することで、物体と中心Cとの間に地面が見えるようになり、中心Cから候補点候補Pnまでの色が床色であり、候補点候補Pnから元の候補点Pまでの色が今まで「NEAR」としていた物体の色となる場合がある。もう一つは、今まで「NEAR」であった物体が更に近づくことで、色が変わって見えたという場合がある。いずれにせよ、色の変化が激しい点(つまり閾値以上に色が変わっている場所にある候補点候補Pn)の方がトラッキングしやすいので、式(5)を満たさない場合にはS(θ)を候補点候補Pnを選択し、「NEAR」のままであるかどうかは後段の処理に任せる形にする。状態判定部15が、S(θ)を「NEW」として候補点状態記憶部25に登録し、候補点候補Pnの位置(rn,θ)を候補点位置記憶部22に登録する。
以上説明したように、本発明の実施の形態によれば、床面際線が取れる仮定している手法ではなく、候補点が実際に地面と物体界面との接点であるかを判定するので、動物体が存在している場合であっても一つの撮像装置3以外に距離を測定するセンサを用いず、撮像装置3単体で物体を検出することができる。
又、トラッキングした候補点のカメラ座標上の位置と、移動体の移動量を用いた候補点の推定位置とを比較することで、候補点が静止物体界面と地面との接点であるか、動物体界面と地面との接点であるかを識別できる。したがって、動物体が存在していても、物体の虚像をなくし、物体が動物体か、静止物体かを識別して、識別結果に応じた行動回避を行うことができる。
(物体検出プログラム)
又、図7〜図9、図12及び図13に示した一連の手順は、図7〜図9、図12及び図13と等価なアルゴリズムのプログラムにより、図1に示した物体検出装置を制御して実行できる。このプログラムは、例えば記憶装置2に記憶させれば良い。又、このプログラムは、コンピュータ読取り可能な記録媒体に記憶し、この記録媒体を記憶装置2に読み込ませることにより、本発明の実施の形態の一連の手順を実行することができる。
ここで、「コンピュータ読取り可能な記録媒体」とは、例えばコンピュータの外部メモリ装置、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープ等のプログラムを記録することができるような媒体等を意味する。具体的には、フレキシブルディスク、CD−ROM,MOディスク等が「コンピュータ読取り可能な記録媒体」に含まれる。例えば、物体検出装置の本体は、フレキシブルディスク装置(フレキシブルディスクドライブ)および光ディスク装置(光ディスクドライブ)を内蔵若しくは外部接続するように構成できる。
フレキシブルディスクドライブに対してはフレキシブルディスクを、又光ディスクドライブに対してはCD−ROMをその挿入口から挿入し、所定の読み出し操作を行うことにより、これらの記録媒体に格納されたプログラムを記憶装置2にインストールすることができる。又、所定のドライブ装置を接続することにより、例えばROMや、磁気テープ装置を用いることもできる。更に、インターネット等の情報処理ネットワークを介して、このプログラムを記憶装置2に格納することが可能である。
(その他の実施の形態)
上記のように、本発明は実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
又、式(6)及び式(7)では状態判定下限閾値δ(r)及び状態判定上限閾値δ(r)をそれぞれ用いたが、状態判定下限閾値δ(r)及び状態判定上限閾値δ(r)は同じ値であっても良い。
又、図9のステップS303,S309,S313,S315,S317及び図13のステップS513の手順において、式(5)を用いてRGBの色情報を用いて最終的な判定を行ったが、RGBの色情報を用いる代わりに逆トラッキングを用いて最終的に判定しても良いし、RGB以外の色情報を利用して最終的に判定しても良い。又、式(5)のような単純比較だけでなく、混合ガウス分布(GMM)等の確率分布を利用した手法を用いることもできる。
又、第1及び第2の時刻における候補点の状態を判定する場合を説明したが、時系列に沿って動的に候補点の状態判定処理を行っても良いのは勿論である。
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
本発明の実施の形態に係る物体検出装置の一例を示すブロック図である。 本発明の実施の形態に係る撮像装置が撮像した画像の一例を示す概略図である。 本発明の実施の形態に係る撮像装置が撮像した画像における候補点の検出方法を説明するための概略図である。 本発明の実施の形態に係る候補点の座標変換の方法を説明するための概略図である。 本発明の実施の形態に係る候補点の座標変換前の画像上の位置を示す画像の概略図である。 本発明の実施の形態に係る候補点の座標変換後のカメラ座標上の位置を示す鳥瞰図画像の概略図である。 本発明の実施の形態に係る物体検出方法を説明するためのフローチャートである。 本発明の実施の形態に係る状態判定処理の手順を説明するためのフローチャートである。 本発明の実施の形態に係る候補点の状態が「NEW」のときの状態・探索閾値変更処理の手順を説明するためのフローチャートである。 本発明の実施の形態に係る候補点候補の検出方法の一例を説明するための概略図である。 本発明の実施の形態に係る候補点候補の検出方法の他の一例を説明するための概略図である。 本発明の実施の形態に係る候補点候補の判定処理の手順を説明するためのフローチャートである。 本発明の実施の形態に係る状態・探索閾値変更処理の手順を説明するためのフローチャートである。 本発明の実施の形態に係る状態判定処理の一例を説明するための概略図である。
符号の説明
1…中央演算処理装置(CPU)
2…記憶装置
3…撮像装置
4…駆動装置
5…全方位ミラー
11…候補点検出部
12…トラッキング部
13…座標変換部
14…差分算出部
15…状態判定部
16…移動制御部
21…探索閾値記憶部
22…候補点位置記憶部
23…座標変換テーブル記憶部
24…状態判定閾値記憶部
25…候補点状態記憶部

Claims (6)

  1. 撮像装置が撮像した画像に含まれる画素から地面と該地面上に配置された物体界面との接点の候補点を検出する候補点検出部と、
    前記候補点を検出するために用いる探索閾値を記憶する探索閾値記憶部と、
    前記候補点の位置をトラッキングし、前記撮像装置が撮像した第1及び第2の時刻における前記候補点の位置をそれぞれ算出するトラッキング部と、
    前記第1の時刻における前記候補点の位置に、前記第1の時刻から前記第2の時刻までの前記撮像装置の移動量を合算することにより前記第2の時刻における推定位置を算出し、該推定位置と、前記トラッキングによる前記第2の時刻における前記候補点の位置との差分を算出する差分算出部と、
    前記候補点の状態を記憶する候補点状態記憶部と、
    前記状態を判定するための状態判定閾値を記憶する状態判定閾値記憶部と、
    前記差分と前記状態判定閾値とを比較して、前記第2の時刻における前記候補点の新たな状態を判定する状態判定部
    とを備えることを特徴とする物体検出装置。
  2. 前記候補点検出部が、前記画素と前記画素から遠方方向にある他の画素との輝度差を求めると共に、前記画像上の前記撮像装置に近い位置から遠方へ向かって、前記輝度差が前記探索閾値より大きい前記画素を探索することを特徴とする請求項1に記載の物体検出装置。
  3. 前記第1及び第2の時刻における前記候補点の位置を、前記地面上の座標に相当する2次元座標にそれぞれ座標変換する座標変換部と、
    前記画像上の座標と、前記2次元座標との対応関係を示す座標変換テーブルを記憶する座標変換テーブル記憶部とを更に備えることを特徴とする請求項1又は2に記載の物体検出装置。
  4. 前記差分算出部が、座標変換後の前記第1の時刻における前記候補点の位置に、前記第1の時刻から前記第2の時刻までの前記撮像装置の移動量を合算して前記推定位置として算出することを特徴とする請求項3に記載の物体検出装置。
  5. 前記状態判定部が、
    前記第2の時刻において前記画像上の前記撮像装置に近い位置から遠方へ向かう方向に前記候補点が複数個有るか判定し、
    前記候補点が複数個ある場合、前記撮像装置からより遠方にある前記候補点を消去し、
    前記消去されなかった前記候補点の新たな状態を判定する
    ことを特徴とする請求項1〜4のいずれか1項に記載の物体検出装置。
  6. 探索閾値記憶部から探索閾値を読み出し、撮像装置が撮像した画像に含まれる画素から地面と該地面上に配置された物体界面との接点の候補点を検出するステップと、
    前記候補点の位置をトラッキングし、前記撮像装置が撮像した第1及び第2の時刻における前記候補点の位置をそれぞれ算出するステップと、
    前記第1の時刻における前記候補点の位置に、前記第1の時刻から前記第2の時刻までの前記撮像装置の移動量を合算することにより前記第2の時刻における推定位置を算出し、該推定位置と、前記トラッキングによる前記第2の時刻における前記候補点の位置との差分を算出するステップと、
    前記差分と前記状態を判定するための状態判定閾値とを比較して、前記第2の時刻における前記候補点の新たな状態を判定するステップ
    とを含むことを特徴とする物体検出方法。
JP2008074462A 2008-03-21 2008-03-21 物体検出装置及び物体検出方法 Active JP4660569B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008074462A JP4660569B2 (ja) 2008-03-21 2008-03-21 物体検出装置及び物体検出方法
US12/379,784 US8208686B2 (en) 2008-03-21 2009-02-27 Object detecting apparatus and method for detecting an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008074462A JP4660569B2 (ja) 2008-03-21 2008-03-21 物体検出装置及び物体検出方法

Publications (2)

Publication Number Publication Date
JP2009229226A JP2009229226A (ja) 2009-10-08
JP4660569B2 true JP4660569B2 (ja) 2011-03-30

Family

ID=41088967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008074462A Active JP4660569B2 (ja) 2008-03-21 2008-03-21 物体検出装置及び物体検出方法

Country Status (2)

Country Link
US (1) US8208686B2 (ja)
JP (1) JP4660569B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190299A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
WO2014157058A1 (ja) * 2013-03-28 2014-10-02 日本電気株式会社 鳥検知装置、鳥検知システム、鳥検知方法およびプログラム
CN104658309A (zh) * 2013-11-21 2015-05-27 上海博泰悦臻电子设备制造有限公司 停车场提醒方法及系统
JP6440411B2 (ja) * 2014-08-26 2018-12-19 日立オートモティブシステムズ株式会社 物体検出装置
JP6579925B2 (ja) * 2015-11-17 2019-09-25 キヤノン株式会社 画像再生装置およびその制御方法ならびにプログラムならびに記録媒体
RU2679200C1 (ru) * 2018-04-10 2019-02-06 ООО "Ай Ти Ви групп" Способ и система отображения данных с видеокамеры
DE102019200753A1 (de) * 2019-01-22 2020-07-23 Conti Temic Microelectronic Gmbh Verfahren zur Überwachung einer Position eines Stützrades eines Anhängers und ein Kamerasystem zur Überwachung einer Position eines Stützrades eines Anhängers sowie ein Kraftfahrzeug mit einem Kamerasystem
US11580661B2 (en) * 2020-11-23 2023-02-14 Motorola Solutions, Inc. Device, method and system for estimating elevation in images from camera devices
US12079984B2 (en) * 2021-03-05 2024-09-03 Applied Materials, Inc. Detecting an excursion of a CMP component using time-based sequence of images
CN115953702A (zh) * 2022-12-30 2023-04-11 亿航智能设备(广州)有限公司 一种基于无人机的地面差异检测方法、系统及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188294A (ja) * 2006-01-13 2007-07-26 Central Res Inst Of Electric Power Ind 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP2009080572A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動物体検出装置及び動物体検出方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268076A (ja) 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム
JP4958279B2 (ja) * 2006-05-17 2012-06-20 株式会社デンソーアイティーラボラトリ 物体検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188294A (ja) * 2006-01-13 2007-07-26 Central Res Inst Of Electric Power Ind 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
JP2009080572A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動物体検出装置及び動物体検出方法

Also Published As

Publication number Publication date
US8208686B2 (en) 2012-06-26
US20090238407A1 (en) 2009-09-24
JP2009229226A (ja) 2009-10-08

Similar Documents

Publication Publication Date Title
JP4660569B2 (ja) 物体検出装置及び物体検出方法
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN109001757B (zh) 一种基于2d激光雷达的车位智能检测方法
JP2008204458A (ja) 2次元実写映像から3次元モデルを生成する方法及び装置
US11532166B2 (en) Obstacle positioning method, device and terminal
JP4899647B2 (ja) 距離測定プログラム、距離測定装置、距離測定方法
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
US11928805B2 (en) Information processing apparatus, information processing method, and storage medium for defect inspection and detection
JP2011134234A (ja) 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
JP2021033510A (ja) 運転支援装置
JP5396585B2 (ja) 地物特定方法
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
US20090226094A1 (en) Image correcting device and method, and computer program
JP6523196B2 (ja) 推定装置、方法及びプログラム
JP2010055340A (ja) 走行路推定装置及びプログラム
JP2010009236A (ja) 平面領域推定装置及びプログラム
US20210402616A1 (en) Information processing apparatus, information processing method, mobile robot, and non-transitory computer-readable storage medium
KR102624644B1 (ko) 벡터 맵을 이용한 이동체의 맵 매칭 위치 추정 방법
JP4462533B2 (ja) 路面走行レーン検出装置
JP5176523B2 (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
JP5251460B2 (ja) 接近物体検出装置、接近物体検出プログラム、接近物体検出方法
JP2009080572A (ja) 動物体検出装置及び動物体検出方法
JP4107273B2 (ja) 移動体検出装置
JP4013872B2 (ja) 障害物検出装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4660569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3