JP2006268345A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2006268345A
JP2006268345A JP2005084479A JP2005084479A JP2006268345A JP 2006268345 A JP2006268345 A JP 2006268345A JP 2005084479 A JP2005084479 A JP 2005084479A JP 2005084479 A JP2005084479 A JP 2005084479A JP 2006268345 A JP2006268345 A JP 2006268345A
Authority
JP
Japan
Prior art keywords
feature point
image
parallax
moving body
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005084479A
Other languages
English (en)
Other versions
JP4177826B2 (ja
Inventor
Manabu Nishiyama
学 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005084479A priority Critical patent/JP4177826B2/ja
Priority to US11/384,827 priority patent/US7729512B2/en
Publication of JP2006268345A publication Critical patent/JP2006268345A/ja
Application granted granted Critical
Publication of JP4177826B2 publication Critical patent/JP4177826B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】装置自身が移動するような動的環境下でも移動体を撮像して得られた画像から移動体を検出する画像処理装置および画像処理方法を提供する。
【解決手段】異なる二視点から第一および第二の撮像装置により移動体を撮像することにより得られる第一および第二の画像を取得する画像取得手段と、第一の画像から複数の特徴点を検出する特徴点検出手段と、第一の画像および第二の画像を用いてステレオ画像処理を行うことにより、特徴点毎の視差を表す視差分布を得るステレオ画像処理手段と、視差分布における視差に対するしきい値を決定するしきい値決定手段と、視差分布においてしきい値を上回る視差を有する特徴点を移動体内特徴点に分類する特徴点分類手段と、移動体内特徴点を用いて第一の画像中の移動体の画像領域を検出する移動体検出手段とを具備する。
【選択図】図1

Description

本発明は、異なる地点から移動体を撮像して得られた複数の画像をステレオ画像処理し、移動体を画像上で検出する画像処理装置および画像処理方法に関する。
人物に追従する移動ロボットの視覚処理系に関して種々の研究開発が進められている。移動ロボットが人物等の移動体に追従するよう移動するとき、視覚処理系はまず移動体を撮像してその3次元位置を画像処理により計測する。この計測結果に従って、ロボットは移動のための駆動系の制御量等を算出する。
従来、監視システム等で用いられてきた背景差分による人物検出技術や、画像処理により人物の頭部を認識する技術が知られており、これらの技術を移動ロボットの視覚処理系に応用することが考えられる。
しかしながら、ロボットの移動により背景画像は大きく変化することから、背景差分法は移動ロボットの視覚処理系には適さない。また、人との位置関係や遮蔽などで追従対象の頭部が必ずしもロボットの視界内にとらえられるとは限らないことから、人物の頭部認識技術も有効ではない。
さらに、移動ロボットが人間の生活空間内で活動することを考慮すると、処理対象のデータを削減して高速に処理できること、環境変化に対して頑健であることなども必要である。
なお、シーン変化に依存しない人物検出手法として、距離画像とフレーム間差分を用いる技術が例えば下記特許文献1、2に記載されている。
特開2004−299025号公報 特開2004−301607号公報
本発明は、移動体を撮像して得られた画像を高速に画像処理して動的な環境下で移動体を検出する画像処理装置および画像処理方法を提供することを目的とする。
本発明の一観点に係る画像処理装置は、異なる二視点から第一および第二の撮像装置により移動体を撮像することにより得られる第一および第二の画像を取得する画像取得手段と、前記第一の画像から複数の特徴点を検出する特徴点検出手段と、前記第一の画像および前記第二の画像を用いてステレオ画像処理を行うことにより、前記特徴点毎の視差を表す視差分布を得るステレオ画像処理手段と、前記視差分布における視差に対するしきい値を決定するしきい値決定手段と、前記視差分布において前記しきい値を上回る視差を有する特徴点を移動体内特徴点に分類する特徴点分類手段と、前記移動体内特徴点を用いて前記第一の画像中の前記移動体の画像領域を検出する移動体検出手段とを具備する。
本発明の別の観点に係る画像処理方法は、異なる二視点から第一および第二の撮像装置により移動体を撮像することによりフレーム単位で得られる第一および第二の画像を取得する画像取得ステップと、前記第一の画像から複数の特徴点を検出する特徴点検出ステップと、前記第一の画像および前記第二の画像を用いてステレオ画像処理を行うことにより、前記特徴点毎の視差を表す視差分布を得るステレオ画像処理ステップと、前記視差分布における視差に対するしきい値を決定するしきい値決定ステップと、前記特徴点検出ステップにより第一のフレーム時刻に検出された各特徴点と第二のフレーム時刻に検出された各特徴点との間の互いに対応する特徴点対を求めるステップと、前記特徴点対間の移動量と移動方向で示される移動速度を計測して特徴点対毎の移動速度を表す移動速度分布を求めるステップと、前記移動速度分布に対して移動体領域かそれ以外の領域かを識別するための識別境界を決定する識別境界決定ステップと、前記視差分布において前記しきい値を上回る視差を有する特徴点及び前記識別境界により識別される移動体領域に対応する特徴点を前記移動体内特徴点に分類する特徴点分類ステップと、前記移動体内特徴点を用いて前記第一の画像中の前記移動体の画像領域を検出する移動体検出ステップとを有する。
本発明によれば、装置自身が移動するような動的環境下でも移動体を撮像して得られた画像から移動体を検出する画像処理装置および画像処理方法を提供できる。
以下、図面を参照しながら本発明の実施形態を説明する。
(第1の実施形態)
本発明の第1の実施形態は、異なる地点から複数の撮像装置により移動体を撮像し、少ないデータ量で高速にステレオ画像処理を行って移動体の画像領域を検出する画像処理装置に関する。本装置は、例えば移動ロボットの視覚処理系に適用することができる。
図1は本発明の第1実施形態に係る画像処理装置のブロック図である。
撮像装置(カメラ)101は対象物を撮像するための手段であり、異なる二視点から移動体を撮像できるように複数台設けられる。図1には2台の撮像装置101が示されているが、本発明の実施にあたり、少なくとも2台以上であれば撮像装置101の台数に制限はない。
画像取得部102は、複数の撮像装置101により二視点から移動体を撮像して得られた第一および第二の画像の映像信号を取得し、コンピュータで処理しやすいディジタルの画像データへ変換する。
特徴点検出部103は、複数の撮像装置101により移動体を撮像して得られた第一および第二の画像のいずれか一方(本実施形態では例えば「第一の画像」とする)から複数の特徴点を検出する。撮像装置101を2台備える本実施形態の場合において、第一の画像は左画像に相当し、第二の画像は右画像に相当するものとする。
ステレオ画像処理部104は、画像取得部102により取得された第一の画像および第二の画像を用いてステレオ画像処理を行うことにより、特徴点検出部103により検出された特徴点毎の視差を表す視差分布をステレオ画像処理結果として得る。
しきい値決定部105は、視差分布における視差に対するしきい値を決定する。このしきい値は、画像上の背景と移動体とを視差の大小により区別するために用いられる。特徴点検出部103により検出された複数の特徴点は次のように分類がなされる。すなわち、前記視差分布においてしきい値を上回る視差を有する特徴点を移動体内特徴点とし、それ以外の特徴点を背景内特徴点とする。
対象物領域検出検出部106は、移動体特徴点が有する視差と、複数の撮像装置101の光学特性および撮像装置101間の距離とにより該複数の撮像装置101から移動体までの距離を算出し、算出された距離に基づいて当該移動体の画像領域を検出する。
以上のように構成された本実施形態の動作について説明する。図2は第1の実施形態に係る対象物検出の処理手順を示すフローチャートである。
先ずST201では、画像取得部102を通じて複数台の撮像装置101からディジタル画像データの形で画像を取得する。こうして得られる撮像装置101の台数分の画像において、一度のステレオ画像処理に供する画像は全ての撮像装置101で同時刻に撮影されたものであることが望ましい。同時刻に撮影できない場合には、撮影タイミングに応じて後で述べるステレオ画像処理結果を補正する必要がある。
次にST202では、複数の画像のうちの一枚(ここでは左画像としている)から複数の特徴点の抽出を行う。ここでいう特徴点とは、画像中で輝度が大きく変化している部位のことをいう。このような点を画像から数百個程度抽出し、後の処理に用いることで以降の処理を安定に、しかも高速に実行することを可能にしている。
特徴点の抽出方法について説明する。この抽出方法は周囲との間の輝度差がしきい値以上の点を特徴点として検出するものである。まず、画像中の1画素を選ぶ。これを点pとする。さらにp周辺の小領域Wを考える。このWに対して以下のような行列Mを計算する。
Figure 2006268345
,Dはそれぞれ小領域Wにおいてx、y方向に隣り合う画素同士の輝度値の差分を表す。この行列Mの2つの固有値λ,λが大きい場合、点pの周りはx方向、y方向ともに輝度値の変化が大きいことを表す。すなわちpはコーナー点である。したがって、適当なしきい値λをあらかじめ決めておき、画像内の各画素をpとして行列Mを求め、固有値λ,λがともにλよりも大きいときpを特徴点とする。この特徴点抽出方法はあくまで一例であり、この後のステレオ画像処理でのブロックマッチングにおいて正しい結果が得られる可能性が高い。尚、画像中の小領域内の輝度値の変化が大きな点が抽出できる方法であれば他の方法を用いてもよい。例えば、画像からコーナー点検出アルゴリズムやエッジ検出アルゴリズムの結果として得られる点群を特徴点としてもよい。
次にST203では、抽出された特徴点群に対してステレオ画像処理を行い、特徴点ごとに視差を算出する。このステレオ画像処理について説明する。図3は左右に並べた撮像装置101で撮影された画像であって、左画像301は左側の撮像装置で撮影され、右画像302は右側の撮像装置で撮影されたものである。特徴点はST202において左画像301から抽出されている。
このとき以下のように処理する。まず左画像301の各特徴点ごとにその点を中心とする小領域w1を決める。小領域w1の大きさはあらかじめ決めておく。次に右画像302から小領域w1と同じ大きさの小領域w2を切り出し、小領域w1と比較して最も類似しているもの、すなわち小領域w1と同じ部位が映っている箇所を探索する。このときの小領域w1と小領域w2の類似度の測定方法であるが、双方の画素値の差の絶対値の総和や2乗誤差の総和などを用いることができる。また、右画像内の探索方法(いわゆる対応点探索)については、撮像装置101間の相対的な位置関係が既知であれば、小領域w1に対応する領域は右画像内の1つの直線上に限定される。この場合、小領域w2を直線上で1画素ずつ動かして類似度を求めていけば目的の箇所が発見される。こうして得られる最も類似度が高い小領域w2の中心を点p’とする。以上により特徴点pに対応する右画像中の点p’が得られる。図4に示すように、撮像装置101の光学特性(焦点距離)と撮像装置101間の位置関係(距離)とが分かれば、左画像401上の点pと右画像402上の点p’からこれらに対応する3次元位置p’’を三角測距により求めることができる。図4によれば、画像上の点pと点p’との間の距離が離れているほど点p’’は撮像装置101に近いことが分かる。そこで本実施形態では、実際には特徴点ごとに点pと点p’とが何画素離れているか、つまり各特徴点の視差を求め、特徴点の属性として付与する。
次にST204では、視差に関する特徴点の頻度分布を算出する。視差に関する特徴点の頻度分布は、ST204において得られた特徴点毎の視差を表す視差分布(ステレオ画像処理結果)を用いて次のように算出する。すなわち視差0画素からDmax画素(あらかじめ決めておく)までそれぞれ何個の特徴点があるかをカウントする。背景の前に移動体が存在する場合、この段階で得られる頻度分布は図5に示すように大きく2つの山に分かれていると考えられる。このとき視差の大きな方の山に属する特徴点群は、移動体上の特徴点であると見ることができる。
次にST205では、図5に示した視差に関する頻度分布を2つの山に分けるための視差のしきい値Tを求める。しきい値Tの決定は例えば以下のようにして行う。最初はしきい値Tが(視差)0であると仮定する。仮定されたしきい値Tにより、特徴点群はしきい値T以下の視差のもの、しきい値Tよりも大きな視差を持ったものの2つのクラスに分けることができる。二分された特徴点群に対しクラス内の視差の分散値δ 、および2つのクラス間の分散値δ を次のように求め、2つの分散値の比
Figure 2006268345
を計算する。そして0からDmaxまででηが最も大きくなるような視差の値をしきい値Tとする。
次にST206では、特徴点の視差に関する頻度分布は大きく2つの山に分かれるという仮定に基づき、特徴点を2つに分類する。すなわち、ST205で決定されるしきい値Tとの比較の結果、しきい値T以下の視差を持った特徴点を背景内特徴点に、しきい値Tよりも大きな視差を持つ特徴点を移動体内特徴点に分類する。
次にST207では、移動体内特徴点に分類された特徴点群から画像中で移動体が占める画像領域を求める。その方法を図6を用いて説明する。図6において画像601は撮像装置101により撮影された画像のうち、特徴点抽出を行ったものであり、画像内には人物605が映っているとする。ST206までの処理の結果、移動体内特徴点に分類された特徴点群602が得られたとする。まず、画像全体を複数の大きなブロック603に分割する。分割ブロック603のサイズはあらかじめ決めておく。分割された各ブロック603について移動体内特徴点の数をカウントする。この数があらかじめ決めておいた数以上であればそのブロックは移動体の占める領域であると判定する。全ての判定の後、移動体領域と判定されても隣接するブロックが全て移動体領域でないものを除去し、残った領域を移動体領域604であると決定する。
最後にST208において、処理結果を出力する。ST207で求めた画像中の移動体領域と撮像装置101からの3次元位置情報を出力する。移動体の3次元位置情報については、領域の重心に近いなどの条件で移動体内特徴点を1つ選択し、その点のステレオ画像処理結果すなわち視差から図4のようにして3次元位置情報を求めて出力する。以上の処理により、移動体までの大まかな相対位置関係とその大きさを求めることができる。
以上説明した本発明の第一の実施形態によれば、撮像装置101から移動体までの距離情報をステレオ画像処理により求め、画像から移動体を背景と区別して検出することができる。その処理において、画像から抽出した輝度変化の大きな特徴点を用いることとしていることから、安定してステレオ画像処理を行うことができ、処理対象のデータを削減して高速に処理することが可能になる。
(第2の実施形態)
図7は本発明の第2実施形態に係る画像処理装置のブロック図である。本実施形態は画像中の特徴点の視差情報だけでなく速度情報をも取得し、速度情報に基づく判別を行っている点で上述した第1の実施形態と異なる。速度情報については速度の大小だけでなく向きをも判別の対象としているため、第2の実施形態は特に移動ロボットなど、撮像装置101が移動する装置構成での画像処理に有効である。
画像記録部703はフレーム間の特徴点の移動速度を求めるために、前のフレーム時刻の画像データを記録する。 特徴点速度計測部705は画像記録部703に記録された1つ前のフレーム時刻の画像と新たなフレーム時刻に撮影された画像との間の互いに対応する特徴点対を求め、特徴点対間の移動量と移動方向で示される移動速度を計測して特徴点対毎の移動速度を表す移動速度分布を求める。
速度判別部706は、移動速度分布に対し移動体領域かそれ以外の領域かを識別するための識別境界を決定し、この識別境界を用いて移動体領域に対応する特徴点を判別する(速度による判別)。
特徴点分類部709は視差による判別と速度による判別の結果を統合する。具体的には、視差分布においてしきい値を上回る視差を有する特徴点及び識別境界により識別される移動体領域に対応する特徴点を移動体内特徴点に分類する。
その他の構成要素は上述した第1の実施形態と同様であるので説明を省略する。
以上のように構成された本実施形態の動作について説明する。図8は第2の実施形態に係る移動体検出の処理手順を示すフローチャートである。ST801から805までの処理は第1の実施形態と基本的に同じであるが、2フレーム時刻以降の場合、ST803において画像記録部703に記録された1フレーム時刻前の画像と新たに撮像装置701から得られる画像とを用いて、フレーム前後での特徴点の移動速度を求める。移動速度の具体的な求め方の一例としてブロックマッチングによる手法を説明する。まず、前フレームの画像から特徴点の周りをブロックとして切り出す。このブロックに最も類似した箇所を、新たな画像から一定の範囲を探索する。これらの処理で必要なブロックサイズや探索範囲はあらかじめ決めておく。また画像ブロックとの類似度の尺度としてはステレオ画像処理と同様に絶対値誤差の総和や2乗誤差の総和などを用いることができる。これにより前フレームの特徴点が新たなフレームでどこに移動したかが求められる。また、このとき最も良い類似度が一定値以下であれば、特徴点を見失ったとみなして特徴点から除外する。以上により、残った特徴点には速度情報が付加される。尚、2フレーム間の特徴点の移動が求められれば他の方法を用いても良く、例えば一般に知られるような異なるフレームの画像間からオプティカルフローを求めるアルゴリズムを用いることも可能である。オプティカルフローについては例えば参考文献(Lucas, B. and Kanade T., "An Iterative Image Registration Technique with an Application to Stereo Vision", in Proc. DARPA Image Understanding Workshop, 1981.)に記載されている。
ST804の特徴点抽出について、手法自体は第1の実施形態と同じであるが、2フレーム目以降の場合、特徴点の数が一定数以下になった場合にのみ補充のためにST804を実行する。ST805は第1の実施形態と同じ処理であるので説明を省略する。ST806は1フレーム目の処理かどうかの分岐である。2フレーム目以降でないと特徴点の速度情報を使えないので処理を分ける。1フレーム目の場合は第1の実施形態と同じで特徴点毎の視差の分布から移動体と背景を判別する。そのため、ST807からST809までの処理は第1の実施形態と同じであるから説明を省略し、2フレーム目以降の処理について説明する。
2フレーム目以降の各特徴点には画像処理により求められた視差の値が与えられている。また、前フレームの画像とのブロックマッチングに成功している特徴点については前フレームからの移動速度も与えられている。これらの情報を用いて特徴点集合から移動体上にある特徴点を判別する。まず視差による判別を行うため、ST810で特徴点集合を背景とそれ以外に分けるためのしきい値を決定する。このときのしきい値の決め方としては、前のフレームでの判別結果に従うように決める。すなわち、前フレームにおいて背景であった特徴点は新たなフレームでも背景に、前フレームにおいて背景以外であったならば新たなフレームでも背景以外となるようにしきい値を決定する。これはつまり前フレームの判別結果を教師信号として判別境界を学習していることになる。この学習を実現するための具体的手法の一例を説明する。まずしきいの初期値には0と視差の最大値Dmaxの平均値、もしくは前フレームのしきい値など適当な値を入れておく。さらに学習の度合いを表す定数αの値を決めておく。そして前フレームの判別結果が与えられている特徴点全てについて、現時点でのしきい値の大小で判定を行い、前フレームの判別結果と一致するかを確認する。一致するならば、しきい値はそのままとし、誤った判別がされた場合に限り、しきい値を修正する。修正の仕方は判別を誤った特徴点の視差をd、このときのしきい値をT、新たなしきい値をT’とすると、背景となるべき特徴点が背景以外と判別された、つまりしきい値が小さすぎた場合は、T’=T+αdとする。逆に大きすぎた場合はT’=T−αdと修正する。これを前フレームの判別結果が与えられている特徴点全てについて一定回繰り返す。もし全ての特徴点で誤りが無くなればその時点で終了する。そうでなくても一定回繰り返した後に終了する。これにより視差のしきい値が決定する。なお、説明したしきい値決定の手法はあくまで一例に過ぎず、教師付きの学習の手法であればどれでも利用可能である。
ST810で視差を用いた判別のためのしきい値が決まるわけであるが、例えば背景と移動体との距離が近づいている場合、視差のしきい値処理で判別を行うことは困難である。このためST811では決定された視差のしきい値が本当に有効かを判定する。具体的な手法を説明すると、前フレームの判別結果を持った特徴点群でもう一度判定を行い、判定を誤った特徴点の数をカウントする。その数が一定の割合以上であれば視差のしきい値は有効でないと判定して前のフレームの判別結果をそのまま用いる(ST812)。前フレームの情報がない特徴点については「未判別」のラベルをつけておく。誤りの数が一定以下の場合は学習により決定したしきい値を用いて背景かそれ以外かを判別する。今度は前フレームの判別結果を持たない新たに追加された特徴点についても判別を行い、しきい値との大小に応じて「背景」と「背景以外」のラベルを付ける(ST813)。
ST814以降では、特徴点の移動速度分布に対して移動体領域かそれ以外の領域かを識別するための識別境界を決定し、視差分布においてしきい値を上回る視差を有する特徴点及び識別境界により識別される移動体領域に対応する特徴点を移動体内特徴点に分類する。このとき、単純に速度の大小だけでなく、速度の方向をも考慮に入れ、動的に判別境界を定めるようにしている。このため、静止物体であっても画像では見かけ上の動きが発生するような、移動ロボットなどに搭載された画像処理においても有効な手法となっている。
まずST814では速度を大きさと方向からなる2次元のデータと見なし、2次元空間(平面)上で静止物体と移動体とに分類するための境界線の方程式を求める。この具体的な方法は、ST810と同じように前フレームの判別結果を教師データとして、判別の誤りが生じたときのみ境界の修正を行う。ただし、ST810と異なるのは修正の対象がしきい値ではなく、境界線をあらわす直線の方程式になることである。この場合はST810の説明におけるdを速度ベクトルと見なせば同様に処理可能である。以上により速度を表す2次元平面上での境界線が決まる。なお、この手法に限らず教師付きの学習手法であれば同じように境界線を決定できる。
ST815では、ST814で決定された境界線が有効かどうかを判定する。例えば移動体がたまたま停止したとき、画像内の見かけ上の動きは静止物体と全く同じになってしまうことから、速度による判別は不可能になる。判定の方法はST811と同じであり、前フレームの情報を持った特徴点をもう一度判別させて誤った数をカウントする。これが一定の割合以上であればST817に進み、静止物体か移動体かの判定は前のフレームの判定結果に従う。誤りが一定の割合よりも小さければST816に進み、特徴点が決定された境界線のどちらにあるかで2つに分類する。そして、分類された2つの特徴点集合のうち、ST813までの視差による判別で「背景」のラベルを付けられた特徴点が多い方の集合を静止物体、少ない方の集合を移動体と判別する。
ST818ではこれまでの特徴点の視差、速度による判別結果を統合して特徴点の分類を行う。まず、視差による判別で背景内特徴点に分類された特徴点はそのまま「背景」に属する特徴点であると判断する。一方、視差では移動体内特徴点に分類されたが、速度では「静止物体」と判別された特徴点は「障害物」に属する特徴点であると判断する。そして視差分布に基づいて移動体内特徴点に分類され、さらに速度でも「移動体」と判別されたもののみ目的の「移動体」であると判断する。このように単に移動体でないものに対しても近くにあるもの、遠くにあるものを判別することで、移動ロボットのような実施形態では目標の情報と同様に重要な障害物情報を同時に取得できるようになる。
以上の処理により1フレーム目の場合、2フレーム目以降の場合ともに「移動体」に属する特徴点集合が求まるわけであるが、ST819において画像中に移動体が占める領域を求める。さらにST820では求められた移動体領域と撮像装置701からの相対距離を求めて出力する。これらは第1の実施形態の場合と同じなので説明を省略する。
以上説明した第2の実施形態によれば、撮像装置701自身が移動するような状況下であっても安定して移動体を検出し続けることが可能である。また、過去の時刻からの経験による学習結果を新たな特徴点に対しても適用していくため、特徴点がどんどん入れ替わっていくような不安定な状況にも強くなる。さらに特徴点の視差の量、移動速度という2つの特徴量を判別に用いるかどうかを動的に判断することにより、移動体の移動の方向、速さや背景物体との位置関係など時々刻々と変化する状況にも安定して対応できる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第1実施形態に係る画像処理装置のブロック図 第1の実施形態に係る対象物検出の処理手順を示すフローチャート 画像間のブロックマッチングを説明するための図 ステレオ画像処理による3次元情報の取得について説明するための図 視差に関する頻度分布を示すグラフ 特徴点集合から対象物領域を求める方法を説明するための図 本発明の第2実施形態に係る画像処理装置のブロック図 第2の実施形態に係る移動体検出の処理手順を示すフローチャート
符号の説明
101…撮像装置;
102…画像取得部;
103…特徴点検出部;
104…ステレオ画像処理部;
105…しきい値決定部;
106…移動体領域検出部;
301…左画像;
302…右画像;
401…左画像;
402…右画像;
601…画像;
602…特徴点;
603…ブロック領域;
604…求められる移動体領域;
605…実際の移動体領域;
701…撮像装置;
702…画像取得部;
703…画像記録部;
704…特徴点検出部;
705…特徴点速度計測部;
706…速度判別部;
707…ステレオ画像処理部;
708…しきい値決定部;
709…特徴点分類部;
710…移動体領域検出部

Claims (14)

  1. 異なる二視点から第一および第二の撮像装置により移動体を撮像することにより得られる第一および第二の画像を取得する画像取得手段と、
    前記第一の画像から複数の特徴点を検出する特徴点検出手段と、
    前記第一の画像および前記第二の画像を用いてステレオ画像処理を行うことにより、前記特徴点毎の視差を表す視差分布を得るステレオ画像処理手段と、
    前記視差分布における視差に対するしきい値を決定するしきい値決定手段と、
    前記視差分布において前記しきい値を上回る視差を有する特徴点を移動体内特徴点に分類する特徴点分類手段と、
    前記移動体内特徴点を用いて前記第一の画像中の前記移動体の画像領域を検出する移動体検出手段とを具備する画像処理装置。
  2. 異なる二視点から第一および第二の撮像装置により移動体を撮像することによりフレーム単位で得られる第一および第二の画像を取得する画像取得手段と、
    前記第一の画像から複数の特徴点を検出する特徴点検出手段と、
    前記第一の画像および前記第二の画像を用いてステレオ画像処理を行うことにより、前記特徴点毎の視差を表す視差分布を得るステレオ画像処理手段と、
    前記視差分布における視差に対するしきい値を決定するしきい値決定手段と、
    前記特徴点検出手段により第一のフレーム時刻に検出された各特徴点と第二のフレーム時刻に検出された各特徴点との間の互いに対応する特徴点対を求める手段と、
    前記特徴点対間の移動量と移動方向で示される移動速度を計測して特徴点対毎の移動速度を表す移動速度分布を求める手段と、
    前記移動速度分布に対して移動体領域かそれ以外の領域かを識別するための識別境界を決定する識別境界決定手段と、
    前記視差分布において前記しきい値を上回る視差を有する特徴点及び前記識別境界により識別される移動体領域に対応する特徴点を移動体内特徴点に分類する特徴点分類手段と、
    前記移動体内特徴点を用いて前記第一の画像中の前記移動体の画像領域を検出する移動体検出手段とを具備する画像処理装置。
  3. 前記特徴点検出手段は、周囲との間の輝度差がしきい値以上の点を特徴点として検出する請求項1または2記載の画像処理装置。
  4. 前記しきい値決定手段は、前記複数の特徴点を2つのクラスに分類した際の、クラス内の視差の分散値とクラス間の視差の分散値との比に基づいて前記視差に対するしきい値を決定する請求項1または2記載の画像処理装置。
  5. 前記しきい値決定手段は、前記特徴点分類手段により前フレームにおいて計算された特徴点の分類結果を教師信号として学習により前記視差に対するしきい値を決定する請求項1または2記載の画像処理装置。
  6. 前記しきい値決定手段により決定されたしきい値の有効性を判定する手段をさらに具備する請求項5記載の画像処理装置。
  7. 前記特徴点対を求める手段は、前記特徴点対をブロックマッチングにより求める請求項2記載の画像処理装置。
  8. 前記複数の特徴点の数を計数する計数手段と、
    前記計数手段の結果に応じて前記ブロックマッチングにより互いに対応する特徴点対が存在しない場合に新規の特徴点を追加する手段とをさらに具備する請求項7記載の画像処理装置。
  9. 前記識別境界決定手段は、前記特徴点分類手段の分類結果を教師信号として前記識別境界を学習により決定する請求項2記載の画像処理装置。
  10. 前記識別境界決定手段により決定された識別境界の有効性を判定する手段をさらに具備する請求項9記載の画像処理装置。
  11. 前記移動体検出手段は、前記第一の画像を複数のブロックに分割する手段と、前記ブロック内の前記移動体内特徴点の数を計数する手段とを有し、前記移動体内特徴点を一定数以上含むブロックを前記移動体の画像領域として検出する請求項1または2記載の画像処理装置。
  12. 前記移動体内特徴点が有する視差と前記第一および第二の撮像装置の光学特性と前記第一および第二の撮像装置間の距離により前記の撮像装置から前記移動体までの距離を算出する手段をさらに具備する請求項1または2記載の画像処理装置。
  13. 異なる二視点から第一および第二の撮像装置により移動体を撮像することにより得られる第一および第二の画像を取得する画像取得ステップと、
    前記第一の画像から複数の特徴点を検出する特徴点検出ステップと、
    前記第一の画像および前記第二の画像を用いてステレオ画像処理を行うことにより、前記特徴点毎の視差を表す視差分布を得るステレオ画像処理ステップと、
    前記視差分布における視差に対するしきい値を決定するしきい値決定ステップと、
    前記視差分布において前記しきい値を上回る視差を有する特徴点を移動体内特徴点に分類する特徴点分類ステップと、
    前記移動体内特徴点を用いて前記第一の画像中の前記移動体の画像領域を検出する移動体検出ステップとを有する画像処理方法。
  14. 異なる二視点から第一および第二の撮像装置により移動体を撮像することによりフレーム単位で得られる第一および第二の画像を取得する画像取得ステップと、
    前記第一の画像から複数の特徴点を検出する特徴点検出ステップと、
    前記第一の画像および前記第二の画像を用いてステレオ画像処理を行うことにより、前記特徴点毎の視差を表す視差分布を得るステレオ画像処理ステップと、
    前記視差分布における視差に対するしきい値を決定するしきい値決定ステップと、
    前記特徴点検出ステップにより第一のフレーム時刻に検出された各特徴点と第二のフレーム時刻に検出された各特徴点との間の互いに対応する特徴点対を求めるステップと、
    前記特徴点対間の移動量と移動方向で示される移動速度を計測して特徴点対毎の移動速度を表す移動速度分布を求めるステップと、
    前記移動速度分布に対して移動体領域かそれ以外の領域かを識別するための識別境界を決定する識別境界決定ステップと、
    前記視差分布において前記しきい値を上回る視差を有する特徴点及び前記識別境界により識別される移動体領域に対応する特徴点を前記移動体内特徴点に分類する特徴点分類ステップと、
    前記移動体内特徴点を用いて前記第一の画像中の前記移動体の画像領域を検出する移動体検出ステップとを有する画像処理方法。
JP2005084479A 2005-03-23 2005-03-23 画像処理装置および画像処理方法 Expired - Fee Related JP4177826B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005084479A JP4177826B2 (ja) 2005-03-23 2005-03-23 画像処理装置および画像処理方法
US11/384,827 US7729512B2 (en) 2005-03-23 2006-03-21 Stereo image processing to detect moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005084479A JP4177826B2 (ja) 2005-03-23 2005-03-23 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2006268345A true JP2006268345A (ja) 2006-10-05
JP4177826B2 JP4177826B2 (ja) 2008-11-05

Family

ID=37035224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005084479A Expired - Fee Related JP4177826B2 (ja) 2005-03-23 2005-03-23 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US7729512B2 (ja)
JP (1) JP4177826B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198159A (ja) * 2007-02-16 2008-08-28 Mitsubishi Precision Co Ltd 共連れ検知システム
CN102316355A (zh) * 2011-09-15 2012-01-11 丁少华 3d机器视觉信号的生成方法及3d机器视觉传感器
WO2019188697A1 (ja) * 2018-03-27 2019-10-03 Groove X株式会社 自律行動型ロボット、データ提供装置およびデータ提供プログラム
JP2021033407A (ja) * 2019-08-19 2021-03-01 Kddi株式会社 オブジェクト抽出装置、方法およびプログラム

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1014829A3 (nl) * 2002-05-13 2004-05-04 Joval N V Werkwijze en inrichting voor het bepalen van de
WO2007079805A1 (de) * 2006-01-08 2007-07-19 Hermann Tropf Erstellung eines abstandsbildes
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
WO2009020277A1 (en) * 2007-08-06 2009-02-12 Samsung Electronics Co., Ltd. Method and apparatus for reproducing stereoscopic image using depth control
KR101520619B1 (ko) * 2008-02-20 2015-05-18 삼성전자주식회사 스테레오 동기화를 위한 스테레오스코픽 영상의 시점 결정방법 및 장치
JP4871315B2 (ja) * 2008-03-26 2012-02-08 富士フイルム株式会社 複眼撮影装置およびその制御方法並びにプログラム
CN101854518A (zh) * 2009-03-30 2010-10-06 鸿富锦精密工业(深圳)有限公司 物体侦测系统及方法
CN103593851B (zh) * 2009-03-31 2017-11-28 松下知识产权经营株式会社 立体图像处理器
JP2011029905A (ja) 2009-07-24 2011-02-10 Fujifilm Corp 撮像装置、方法およびプログラム
JP5434339B2 (ja) * 2009-07-29 2014-03-05 ソニー株式会社 撮像制御装置、撮像システム、撮像方法、プログラム
US20110169923A1 (en) * 2009-10-08 2011-07-14 Georgia Tech Research Corporatiotion Flow Separation for Stereo Visual Odometry
US8294768B2 (en) * 2009-11-23 2012-10-23 Hon Hai Precision Industry Co., Ltd. System and method for motion detection
JP5556394B2 (ja) * 2010-06-07 2014-07-23 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US9485495B2 (en) * 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
US9582928B2 (en) * 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
JP5472538B2 (ja) * 2011-06-14 2014-04-16 日産自動車株式会社 距離計測装置及び環境地図生成装置
US20130009949A1 (en) * 2011-07-05 2013-01-10 Texas Instruments Incorporated Method, system and computer program product for re-convergence of a stereoscopic image
KR101843450B1 (ko) * 2011-08-23 2018-03-29 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
CN103123722B (zh) 2011-11-18 2016-04-27 株式会社理光 道路对象检测方法和系统
US9223404B1 (en) * 2012-01-27 2015-12-29 Amazon Technologies, Inc. Separating foreground and background objects in captured images
JP5743935B2 (ja) * 2012-03-19 2015-07-01 株式会社東芝 対象物検出装置および対象物検出方法
CN103365063B (zh) * 2012-03-31 2018-05-22 北京三星通信技术研究有限公司 三维图像拍摄方法和设备
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US10140717B2 (en) * 2013-02-27 2018-11-27 Hitachi Automotive Systems, Ltd. Imaging apparatus and vehicle controller
US9609305B1 (en) * 2013-03-13 2017-03-28 Amazon Technologies, Inc. Feature-based rectification of stereo cameras
US9934451B2 (en) 2013-06-25 2018-04-03 Microsoft Technology Licensing, Llc Stereoscopic object detection leveraging assumed distance
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9715735B2 (en) * 2014-01-30 2017-07-25 Flipboard, Inc. Identifying regions of free space within an image
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
CN110460792B (zh) * 2014-08-19 2022-03-08 松下知识产权经营株式会社 再现方法及再现装置
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US10187623B2 (en) * 2014-12-26 2019-01-22 Korea Electronics Technology Institute Stereo vision SoC and processing method thereof
KR20190013224A (ko) * 2017-08-01 2019-02-11 엘지전자 주식회사 이동 단말기

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185720A (ja) * 1995-12-28 1997-07-15 Canon Inc 画像抽出装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2953712B2 (ja) * 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
FR2700654B1 (fr) * 1993-01-19 1995-02-17 Thomson Csf Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques.
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
JP4079690B2 (ja) * 2002-05-23 2008-04-23 株式会社東芝 物体追跡装置及び方法
US7251346B2 (en) * 2002-11-19 2007-07-31 Honda Motor Co., Ltd. Moving object detection device, moving object detection method, and moving object detection program
JP4235018B2 (ja) 2003-03-31 2009-03-04 本田技研工業株式会社 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
JP2004299025A (ja) 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
US7366325B2 (en) * 2003-10-09 2008-04-29 Honda Motor Co., Ltd. Moving object detection using low illumination depth capable computer vision

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185720A (ja) * 1995-12-28 1997-07-15 Canon Inc 画像抽出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198159A (ja) * 2007-02-16 2008-08-28 Mitsubishi Precision Co Ltd 共連れ検知システム
CN102316355A (zh) * 2011-09-15 2012-01-11 丁少华 3d机器视觉信号的生成方法及3d机器视觉传感器
WO2019188697A1 (ja) * 2018-03-27 2019-10-03 Groove X株式会社 自律行動型ロボット、データ提供装置およびデータ提供プログラム
JP2021033407A (ja) * 2019-08-19 2021-03-01 Kddi株式会社 オブジェクト抽出装置、方法およびプログラム
JP7121708B2 (ja) 2019-08-19 2022-08-18 Kddi株式会社 オブジェクト抽出装置、方法およびプログラム

Also Published As

Publication number Publication date
JP4177826B2 (ja) 2008-11-05
US7729512B2 (en) 2010-06-01
US20060215903A1 (en) 2006-09-28

Similar Documents

Publication Publication Date Title
JP4177826B2 (ja) 画像処理装置および画像処理方法
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9877012B2 (en) Image processing apparatus for estimating three-dimensional position of object and method therefor
KR101647370B1 (ko) 카메라 및 레이더를 이용한 교통정보 관리시스템
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
US7769227B2 (en) Object detector
CN107005655B (zh) 图像处理方法
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
JP2006071471A (ja) 移動体高さ判別装置
KR20110084028A (ko) 이미지 데이터를 이용한 거리 측정 장치 및 방법
JP2006236184A (ja) 画像処理による人体検知方法
JPH11257931A (ja) 物体認識装置
JP4123138B2 (ja) 車両検知方法及び車両検知装置
KR102270009B1 (ko) 다채널 영상 인공지능 알고리즘 기반 이동 물체 탐지 및 거리 추정 방법
Naser et al. Infrastructure-free NLoS obstacle detection for autonomous cars
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP4946897B2 (ja) 距離計測装置
JP2009266155A (ja) 移動体追跡装置及びその方法
Rougier et al. 3D head trajectory using a single camera
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Yang et al. Design flow of motion based single camera 3D mapping
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP2018151940A (ja) 障害物検出装置および障害物検出方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4177826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees