JP5942771B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP5942771B2
JP5942771B2 JP2012230850A JP2012230850A JP5942771B2 JP 5942771 B2 JP5942771 B2 JP 5942771B2 JP 2012230850 A JP2012230850 A JP 2012230850A JP 2012230850 A JP2012230850 A JP 2012230850A JP 5942771 B2 JP5942771 B2 JP 5942771B2
Authority
JP
Japan
Prior art keywords
image
edge
unit
edge image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012230850A
Other languages
English (en)
Other versions
JP2014081874A (ja
Inventor
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012230850A priority Critical patent/JP5942771B2/ja
Priority to EP13188258.1A priority patent/EP2722814A3/en
Priority to US14/053,920 priority patent/US9208387B2/en
Publication of JP2014081874A publication Critical patent/JP2014081874A/ja
Application granted granted Critical
Publication of JP5942771B2 publication Critical patent/JP5942771B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、撮像された画像を処理する画像処理装置及び画像処理方法に関する。
従来、例えば車両のような移動体にカメラを取り付け、路面を含む周囲画像を撮像して、路面上の模様の移動量から移動体である車両の移動量を計測する方法がある(例えば非特許文献1参照)。
滝本周平,伊藤崇晶,"車載カメラを用いた単眼測距検証システムの開発",2006年7月 SEIテクニカルレビュー・第169号、p82−87
従来技術では、カメラで撮影した路面画像を、上方から見たトップビューに変換し、2時刻間でのトップビューの路面模様の移動量を用いて車両の移動量を求めている。トップビューは、路面に投影した画像であり、路面投影像とも称す。
図1は、従来技術の問題点を説明する図である。図1に示す例を用いると、まず、時刻1のトップビューの画像と、時刻2のトップビューの画像との照合処理が行われる。次に、パターンが最も一致するときの画像のズレ量から、移動体の移動量が推定される。
このとき、照明光(例えば太陽光)によって移動体の影が路面に映る場合を考える。理想的には、図1(a)に示すように、移動体の影に影響されずに、路面の模様のみで移動量が推定されるとよい。
しかし、従来技術の方法を用いると、実際には、移動体の影が時刻1と時刻2との時間差が小さい場合、図1(b)に示すように、移動体の影部分で照合がとれてしまい、誤ったズレ量が推定されてしまう。
誤推定が起こる理由としては、移動体の影の形状はほとんど変わらず、移動体に対する影の相対的な位置もほとんど変化しないことから、移動体の影の形状が、路面の模様よりも一致性が高くなるからである。
よって、従来技術の方法では、移動体に設置された撮像部により撮像された画像を用いて移動体の移動量を推定する際、移動体の影の影響により移動量を適切に推定することができなかった。
そこで、開示の技術では、移動体に設置された撮像部により撮像された画像を用いて移動体の移動量を推定する際、移動体の移動量を適切に推定することを目的とする。
開示の一態様における画像処理装置は、移動体に設置された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出する抽出部と、前記第1エッジ画像及び/又は前記第2エッジ画像から、前記抽出部により抽出されたエッジを除去する除去部と、前記除去部により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行う照合部と、前記照合部により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する推定部と、を備える。
開示の技術によれば、移動体に設置された撮像部により撮像された画像を用いて移動体の移動量を推定する際、移動体の移動量を適切に推定することができる。
従来技術の問題点を説明する図。 実施例1における画像処理システムの構成の一例を示すブロック図。 実施例1における画像処理装置の機能の一例を示すブロック図。 投影画像の一例を示す図。 微分処理の結果の一例を示す図。 実施例1における移動量推定を説明する図。 実施例1における画像処理の一例を示すフローチャート。 実施例1における影エッジ画像の生成処理の一例を示すフローチャート。 実施例1における非影エッジ画像の生成処理の一例を示すフローチャート。 実施例2における画像処理装置の機能の一例を示すブロック図。 実施例2における重み画像の生成を説明する図。 実施例2における画像処理の一例を示すフローチャート。 実施例2における重み画像生成処理の一例を示すフローチャート。 実施例2における照合処理の一例を示すフローチャート。 実施例3における画像処理装置の機能の一例を示すブロック図。 実施例3における移動量推定を説明する図。 実施例3における重み画像の生成を説明する図。 実施例3における画像処理の一例を示すフローチャート。 実施例3における対応エッジ画像の生成処理の一例を示すフローチャート。 実施例3における重み画像生成処理の一例を示すフローチャート。
以下、添付図面に基づいて各実施例を説明する。
[実施例1]
まず、実施例1における画像処理システム1の構成について説明する。画像処理システム1は、例えば、移動体としての車両に設置されたカメラと、車両に搭載された処理装置とを有する車載システムである。
<構成>
図2は、実施例1における画像処理システム1の構成の一例を示すブロック図である。図2に示す画像処理システム1は、画像処理装置10と、撮像部20とを有する。撮像部20は、撮像部A20−1、撮像部B20−2、撮像部C20−3、撮像部D20−4を有する。以下、各撮像部を区別しない場合は、各撮像部を総称して撮像部20とも称する。撮像部A20−1は、例えばフロントカメラ、撮像部B20−2は、例えばリアカメラ、撮像部C20−3は、例えばライトカメラ、撮像部D20−4は、例えばレフトカメラである。
撮像部20は、移動体より下の下面(例えば路面)を含む周辺を撮像し、撮像画像を画像処理装置10に出力する。なお、撮像部20の数は、4つに限られず、少なくとも1つ以上あればよい。
画像処理装置10は、撮像部20から取得した撮像画像を用いて、移動体の移動量を推定する。このとき、画像処理装置10は、撮像画像中に存在する移動体の影部分を推定し、影部分の影響を取り除くことで、移動量を適切に推定する。
また、画像処理装置10は、制御部11と、主記憶部12と、補助記憶部13と、通信部14と、ドライブ装置15と、撮像部I/F16とを有する。これらの各部は、データ通信可能なように相互にデータバスを介して接続されている。
制御部11は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部11は、主記憶部12や補助記憶部13に記憶されたプログラムを実行する演算装置であり、入力装置や記憶装置からデータを受け取り、演算、加工した上で、出力装置や記憶装置に出力する。
主記憶部12は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部12は、制御部11が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
補助記憶部13は、例えばHDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。補助記憶部13は、例えば撮像部20から取得した画像を記憶する。
通信部14は、有線又は無線で周辺機器とデータ通信を行う。通信部14は、例えばネットワークを介して、画像を取得し、補助記憶部13に記憶する。
ドライブ装置15は、記録媒体30、例えばフレキシブルディスクやCD(Compact Disc)から、後述する画像処理プログラムを読み出し、記憶装置にインストールしてもよい。
また、記録媒体30に、画像処理プログラムを格納し、この記録媒体30に格納されたプログラムは、ドライブ装置15を介して画像処理装置10にインストールされる。インストールされた画像処理プログラムは、画像処理装置10により実行可能となる。
撮像部I/F16は、撮像部20とのインタフェースであり、撮像部20に対し、制御信号を送信したり、撮像部20により撮像された画像を取得したりする。
なお、図示していないが、画像処理システム1は、撮像画像や処理された画像を表示する表示部を設けてもよい。
<機能>
図3は、実施例1における画像処理装置10aの機能の一例を示すブロック図である。以下、実施例1における画像処理装置10の機能を説明する際は、画像処理装置10aと表記する。図3に示す画像処理装置10aは、入力部101と、投影画像生成部102と、第1画像DB(データベース)103と、抽出部104と、除去部105と、照合部106と、推定部107とを有する。
なお、入力部101は、例えば撮像部I/F16により実現されうる。投影画像生成部102と、抽出部104と、除去部105と、照合部106と、推定部107とは、例えば画像処理プログラムを実行する制御部11、及びワークメモリとしての主記憶部12により実現されうる。第1画像DB103は、例えば主記憶部12や補助記憶部13により実現されうる。
入力部101は、移動体に設置し、路面を含む周辺を撮像する撮像部20から撮像画像を入力する。また、入力部101は、アナログ画像ならばデジタル変換し、デジタル画像ならばデジタル画像を入力する。
また、入力部101は、カラー画像の場合はモノクロ画像に変換して、所定メモリ内に格納し、投影画像生成部102に出力する。なお、入力部101は、少なくとも1台(例えば撮像部A20−1)の撮像部20から撮像画像を入力し、複数の撮像部20が設置される場合は、各撮像部20からの撮像画像を入力し、それぞれ所定のメモリ内に画像を格納する。
投影画像生成部102は、撮像部20から撮像された各画像を用いて、上方から前記移動体を含む下面側を投影した画像を示す投影画像を生成する。例えば、投影画像生成部102は、路面を上方から見た場合に相当する投影画像(例えば濃淡画像)を生成する。投影画像生成部102は、生成した投影画像をエッジ画像生成部121に出力する。
ここで、投影画像の生成処理について説明する。
(路面投影像作成処理)
投影画像生成部102は、移動体に定めた移動体座標系M−XYZを設定する。ここでは、路面上に原点を取り、進行方向をY軸、横方向をX軸、路面から上方向をZ軸とする。
このとき、路面座標系は、O−XYとなる。移動体座標系で表したm番目の撮像部の取り付け位置は、Rm(回転行列)、Tm(並進ベクトル)で表される。投影画像の1画素の大きさに対する実路面でのサイズは、MX,MYで表される。
また、投影画像の大きさは、wx、wyで表され、投影画像の中心位置は、(cx、cy)で表される。ただし、hx=wx/2、hy=wy/2となる。このとき、投影画像の位置(x、y)に対する画素値vは、以下の式で与えられる。
v=pm(px、py) ・・・式(1)
px=fx×r×cos(φ)+cx ・・・式(2)
py=fy×r×sin(φ)+cy ・・・式(3)
r=tan(θ) ・・・式(4)
θ=arctan(sqrt(QX^2+QY^2)/QZ) ・・・式(5)
φ=arctan(QX/QY) ・・・式(6)
QV=(QX,QY,QZ)^T ・・・式(7)
QV=Rm*(U−Tm) ・・・式(8)
U=(UX,UY,0) ・・・式(9)
UX=MX×(x−hx) ・・・式(10)
UY=MY×(y−hy) ・・・式(11)
ただし、(fx、fy)は、撮像部20の横方向と縦方向の焦点距離を表し、(cx、cy)は、画像中心画素位置を表し、pm(px、py)は、m番目の撮像画像の位置(px、py)における画素値を表すものとする。
以上の式を用いることで、投影画像生成部102は、路面を映した投影画像を生成できる。図4は、投影画像の一例を示す図である。図4に示す投影画像は、上方から移動体5を含む路面側を映した画像に相当する。図4に示す例では、路面の模様a11が投影画像に含まれる。この路面の模様a11を用いて移動体5の移動量が推定される。
エッジ画像生成部121は、移動体に設置された少なくとも1つ以上の撮像部20により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像とを生成する。第2時刻は、例えば第1時刻より後とする。
例えば、エッジ画像生成部121は、投影画像を取得し、投影画像についてのエッジ抽出を行い、エッジ画像を生成する。エッジ画像生成部121は、次の時刻での処理のために、エッジ画像を第1画像DB103に保存すると共に、抽出部104に出力する。
具体的には、エッジ画像生成部121は、投影画像に対して、例えばSobelのような一般的な微分オペレータを作用させて、映像を生成する(Sobelオペレータについては、O'REILLY 詳解OpenCVなどを参照)。
エッジ画像生成部121は、微分処理の後に、予め定めた閾値と比較し、エッジ強度が閾値以上のエッジのみを残すノイズ除去処理を施す。これら微分処理によって、画像輝度が大きく変化する境界のエッジ画像が得られる。
図5は、微分処理の結果の一例を示す図である。図5に示す例では、投影画像im11に対し、微分処理を行い、閾値比較を行うことで、エッジ画像im12が生成される。
図3に戻り、第1画像DB103は、例えば、現時刻(例えば第2時刻)と1時刻前の時刻(例えば第1時刻)のエッジ画像を保存する。第1画像DB103は、現時刻のエッジ画像(例えば第2エッジ画像)が入力されると、1時刻前の一つ前の時刻のエッジ画像を破棄して、現時刻のエッジ画像と1時刻前の時刻のエッジ画像(第1エッジ画像)とを保存する。なお、以下では、1時刻前のエッジ画像をE1とし、現時刻のエッジ画像をE2とも表記する。
抽出部104は、第1エッジ画像(E1)と、第2エッジ画像(E2)とを重ね合わせ、位置が重なるエッジを抽出する。例えば、抽出部104は、第1エッジ画像(E1)と、第2エッジ画像(E2)とを第1DB103から入力し、第1エッジ画像と第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出し、影部分とみなす。抽出部104は、影部分とみなしたエッジを含む影エッジ画像(Es)を生成する。抽出部104は、生成した影エッジ画像を除去部105に出力する。
除去部105は、第1エッジ画像及び/又は第2エッジ画像から、抽出部104により抽出されたエッジを除去する。例えば、除去部105は、第1エッジ画像から影エッジ画像を除去し、非影エッジ画像を生成する。除去部105は、生成した非影エッジ画像(Ens)を、照合部106に出力する。
照合部106は、除去部105により両方又はいずれか一方で影部分のエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行う。照合部106は、例えば、非影エッジ画像(Ens)と、第2エッジ画像(E2)とを摂動照合し、エッジパターンが最も一致する摂動量を算出する。この摂動量が、画像間のズレ量を表す。
具体的には、照合部106は、非影エッジ画像と第2エッジ画像を対象に、縦方向と、横方向にそれぞれ予め決められた量だけ画像を1画素ずつずらしていきながら、2つの画像間の一致度を算出する。縦方向と、横方向にそれぞれ予め決められた量だけ画像を1画素ずつずらす処理を、摂動とも称す。照合部106は、この一致度が最も高い摂動量をズレ量とする。
推定部107は、照合部106により照合されたエッジ画像間のズレ量を用いて移動体の移動量を推定する。例えば、推定部107は、最良の照合位置を与える最良摂動量(dxm、dym)が定まると、投影画像での1画素が占める路面上での大きさを横WX,縦WYとすると、移動量(MX,MY)を、次の式を用いて求める。
MX=dxm×WX ・・・式(12)
MY=dym×WY ・・・式(13)
以上の構成、機能を有することで、移動体に設置された撮像部から撮像された画像を用いて移動量を推定する際、撮像画像に映りこんだ移動体の影の影響を除去して適切に移動量を推定することができる。
(具体例)
次に、実施例1における移動量推定の流れについて具体例を用いて説明する。図6は、実施例1における移動量推定を説明する図である。
ここで、前述したように、移動体の影は、短時間ではその形状はほぼ変化せず、また、その影の位置もほぼ変化しないことに着目する。よって、画像処理装置10aは、少なくとも2時刻のそれぞれの投影画像のエッジ画像を相対的な移動量を0にして重ね合わせ、エッジ位置が重なる箇所を移動体の影と推定する。
まず、投影画像生成部102は、時刻1の投影画像im21から、エッジ画像im22を生成する。また、投影画像生成部102は、同様にして、時刻2(時刻1<時刻2)の投影画像im31から、エッジ画像im32を生成する。
次に、抽出部104は、エッジ画像im22とエッジ画像im32とを相対的な移動量を0にして重ね合わせ、エッジ位置が重なるエッジを抽出する。抽出されたエッジが移動体による影とみなされる。抽出部104は、抽出されたエッジを含む影エッジ画像im41を生成する。
次に、除去部105は、この例では、時刻1のエッジ画像im22から影エッジ画像im41を除去したエッジ画像im42を生成する。
次に、照合部106は、時刻2のエッジ画像im32とエッジ画像im42とを比較し、エッジパターンが最も一致する画像間のズレ量を求める。推定部107は、求められたズレ量を用いて移動体の移動量を推定する。
なお、エッジ画像im42の領域ar21と領域ar22とのエッジは、移動体の影であると誤認されてしまうが、その他のエッジパターンが残っているので、それほど問題とはならない。
<動作>
次に、実施例1における画像処理システム1の動作について説明する。図7は、実施例1における画像処理の一例を示すフローチャートである。図7に示す処理は、2枚目以降の画像を取得した場合の移動量推定処理である。1枚目の画像に対しては、ステップS103までの処理が行われる。
ステップS101で、入力部101は、各撮像部20から撮像された画像を取得する。ステップS102で、投影画像生成部102は、例えば、各撮像部20から撮像された画像を取得し、これらを変換しつつ合成することで路面を投影した画像に相当する投影画像を生成する。
ステップS103で、エッジ画像生成部121は、投影画像からエッジを抽出し、エッジ画像を生成する。
ステップS104で、抽出部104は、エッジ画像生成部121から取得した時刻2のエッジ画像と、第1画像DB103から取得した時刻1のエッジ画像とを重ね合わせ、エッジ位置が同じエッジを含む影エッジ画像を生成する。
ステップS105で、除去部105は、例えば時刻1のエッジ画像から影エッジ画像に含まれるエッジを除去する。影エッジ画像に含まれるエッジ部分は、移動体の影と推定されたエッジである。
ステップS106で、照合部106は、影が除去された時刻1のエッジ画像と、時刻2のエッジ画像とを用いて照合処理を行う。照合処理を行うことで、画像間のズレ量が求められる。
ステップS107で、推定部107は、照合部106から取得したズレ量を用いて移動体の移動量を推定する。
(影エッジ画像の生成処理)
図8は、実施例1における影エッジ画像の生成処理の一例を示すフローチャートである。図8に示す処理で用いるパラメータは、以下の通りである。
E1(x,y):前時刻での路面投影エッジ画像(x、yは画像内の画素位置を表す)
E2(x,y):現時刻での路面投影エッジ画像(x、yは画像内の画素位置を表す)
Es(x,y):前時刻の座標系における影エッジの有無を表すフラグ画像(x,yは画像内の画素位置を、Es(x,y)が1は、影エッジであることを表す)
th1:エッジの存在を判定するための閾値で、一例としてth1=1
図8に示すステップS201で、抽出部104は、Esを0に初期化する。ステップS202で、抽出部104は、変数iを0に設定する。変数iは、画像の縦方向の位置を示すパラメータである。
ステップS203で、抽出部104は、iがwy以上であるか否かを判定する。wyは、画像の縦方向の長さを表す。i≧wyであれば(ステップS203−YES)処理を終了し、i<wyであれば(ステップS203−NO)ステップS204に進む。
ステップS204で、抽出部104は、変数jを0に設定する。変数jは、画像の横方向の位置を示すパラメータである。
ステップS205で、抽出部104は、jがwx以上であるか否かを判定する。wxは、画像の横方向の長さを表す。j≧wxであれば(ステップS205−YES)ステップS208に進み、j<wxであれば(ステップS205−NO)ステップS206に進む。
ステップS206で、抽出部104は、次の条件(1)を満たすか否かを判定する。
E1(j,i)≧th1かつ
E2(j,i)≧th1 ・・・条件(1)
条件(1)が満たされれば(ステップS206−YES)ステップS207に進み、条件(1)が満たされなければ(ステップS206−NO)ステップS208に進む。
ステップS207で、抽出部104は、Es(j,i)に1を代入する。ステップS208で、抽出部104は、jを1つインクリメントする。ステップS208の後、ステップS205に戻る。
ステップS209で、抽出部104は、iを1つインクリメントする。ステップS209の後、ステップS203に戻る。
以上の処理を行うことで、影とみなされるエッジを含む影エッジ画像(例えば図6の影エッジ画像im41)を生成することができる。
(非影エッジ画像の生成処理)
図9は、実施例1における非影エッジ画像の生成処理の一例を示すフローチャートである。図9に示す処理で用いる新たなパラメータは、以下の通りである。
Ens(x,y):前時刻の座標系における非影エッジの有無を表すフラグ画像(x,yは画像内の画素位置を、Ens(x,y)が1は、非影エッジであることを表す)
図9に示すステップS301で、除去部105は、Ensを0に初期化する。ステップS302で、除去部105は、変数iを0に設定する。変数iは、画像の縦方向の位置を示すパラメータである。
ステップS303で、除去部105は、iがwy以上であるか否かを判定する。wyは、画像の縦方向の長さを表す。i≧wyであれば(ステップS303−YES)処理を終了し、i<wyであれば(ステップS303−NO)ステップS304に進む。
ステップS304で、除去部105は、変数jを0に設定する。変数jは、画像の横方向の位置を示すパラメータである。
ステップS305で、除去部105は、jがwx以上であるか否かを判定する。wxは、画像の横方向の長さを表す。j≧wxであれば(ステップS305−YES)ステップS208に進み、j<wxであれば(ステップS305−NO)ステップS306に進む。
ステップS306で、除去部105は、次の条件(2)を満たすか否かを判定する。
E1(j,i)≧th1かつ
Es(j,i)==0 ・・・条件(2)
条件(2)が満たされれば(ステップS306−YES)ステップS307に進み、条件(2)が満たされなければ(ステップS306−NO)ステップS308に進む。
ステップS307で、除去部105は、Ens(j,i)に1を代入する。ステップS308で、除去部105は、jを1つインクリメントする。ステップS308の後、ステップS305に戻る。
ステップS309で、除去部105は、iを1つインクリメントする。ステップS309の後、ステップS303に戻る。
以上の処理を行うことで、影とみなされるエッジを含む影エッジ画像(例えば図6の非影エッジ画像im42)を生成することができる。なお、影エッジ画像と、非影エッジ画像との生成処理は、図8と図9とで分けて説明したが、1つの処理にまとめても良い。
以上、実施例1によれば、移動体に設置された撮像部により撮像された画像を用いて移動体の移動量を推定する際、移動体の移動量を適切に推定することができる。
[実施例2]
次に、実施例2における画像処理システムについて説明する。実施例2では、影部分と非影部分との重み係数を含む重み画像を生成することで、各部の影響を可変にすることができる。
<構成>
実施例2における画像処理システムの構成は、図2に示した実施例1における構成と同様であるため、同じ符号を用いる。
<機能>
図10は、実施例2における画像処理装置10bの機能の一例を示すブロック図である。以下、実施例2における画像処理装置10の機能を説明する際は、画像処理装置10bと表記する。図10に示す画像処理装置10bは、入力部101と、投影画像生成部102と、第1画像DB103と、抽出部104と、除去部105と、重み画像生成部201と、照合部202と、推定部107とを有する。以下、実施例1と異なる機能について主に説明する。
重み画像生成部201は、例えば画像処理プログラムを実行する制御部11、及びワークメモリとしての主記憶部12により実現されうる。
重み画像生成部201は、時刻1のエッジ画像(E1)のエッジのうち、抽出部104により抽出されたエッジを含む第1エッジ群と、第1エッジ群以外のエッジを含む第2エッジ群とで、異なる重み係数を含む重み画像を生成する。例えば、重み画像生成部201は、除去部105から影エッジ画像Esと、非影エッジ画像Ensとを入力として、照合処理で使用するエッジの重み画像W(x,y)を生成する。
具体的には、重み画像生成部201は、非影エッジ画像で1の値を有する位置に、重み係数w2を与え、影エッジ画像で1の値を有する位置に、重み係数w1を与える。これにより、重み係数を含む重み画像が生成される。
照合部202は、重み画像Wを用いて時刻1の第1エッジ画像(E1)及び時刻2の第2エッジ画像(E2)の一致度を求め、この一致度を用いて照合処理を行う。例えば、照合部202は、第1画像DB103から第1エッジ画像(E1)と、第2エッジ画像(E2)とを取得し、重み画像生成部201から取得した重み画像Wを用いてエッジ画像同士を摂動照合し、エッジパターンが最も一致する摂動量を算出する。推定部107は、実施例1と同様にして、この摂動量に基づいて移動体の移動量を推定する。
以上の構成、機能を有することで、実施例2における画像処理装置10bは、影部分と非影部分との重み係数を含む重み画像を生成することで、各部の影響を可変にすることができる。
(重み画像)
次に、実施例2における重み画像Wについて説明する。図11は、実施例2における重み画像の生成を説明する図である。図11に示す例では、影エッジ画像(Es)で1の値を有する位置に重み係数w1が与えられ、非影エッジ画像(Ens)で1の値を有する位置に重み係数w2が与えられると、重み画像Wが生成される。なお、w2とw1との関係は、w2>w1とする。これにより、影部分の影響を非影部分よりも小さくすることができる。
<動作>
次に、実施例2における画像処理システムの動作について説明する。図12は、実施例2における画像処理の一例を示すフローチャートである。図12に示す処理は、2枚目以降の画像を取得した場合の移動量推定処理である。1枚目の画像に対しては、ステップS403までの処理が行われる。
ステップS401〜S405の処理は、図7に示すステップS101〜S104の処理と同様である。
ステップS406で、重み画像生成部201は、影エッジ画像(Es)と非影エッジ画像(Ens)とを用いて、影部分と、非影部分とで異なる重み係数を含む重み画像を生成する。
ステップS407で、照合部202は、第1エッジ画像(E1)と、第2エッジ画像(E2)と、重み画像Wとを用いて照合処理を行う。照合処理を行うことで、画像間のズレ量が求められる。
ステップS408で、推定部107は、照合部202から取得したズレ量を用いて移動体の移動量を推定する。
(重み画像生成処理)
図13は、実施例2における重み画像生成処理の一例を示すフローチャートである。図13に示す処理で用いる新たなパラメータは、以下の通りである。
W(x,y):重み係数を含む重み画像(x,yは画像内の画素位置を表す)
図13に示すステップS501で、重み画像生成部201は、重み画像W(x,y)を0に初期化する。ステップS502で、重み画像生成部201は、iを0に設定する。
ステップS503で、重み画像生成部201は、iがwy以上であるか否かを判定する。i≧wyであれば(ステップS503−YES)処理を終了し、i<wyであれば(ステップS503−NO)ステップS504に進む。ステップS504で、重み画像生成部201は、jを0に設定する。
ステップS505で、重み画像生成部201は、jがwx以上であるか否かを判定する。j≧wxであれば(ステップS505−YES)ステップS511に進み、j<wxであれば(ステップS505−NO)ステップS506に進む。
ステップS506で、重み画像生成部201は、非影エッジ画像内のEns(j,i)が1であるか否かを判定する。Ens(j,i)が1であれば(ステップS506−YES)ステップS507に進み、Ens(j,i)が1でなければ(ステップS506−NO)ステップS508に進む。
ステップS507で、重み画像生成部201は、W(j,i)に重み係数w2を設定する。
ステップS508で、重み画像生成部201は、影エッジ画像内のEs(j,i)が1であるか否かを判定する。Es(j,i)が1であれば(ステップS508−YES)ステップS509に進み、Es(j,i)が1でなければ(ステップS508−NO)ステップS510に進む。
ステップS509で、重み画像生成部201は、W(j,i)に重み係数w1を設定する。
ステップS510で、重み画像生成部201は、jを1つインクリメントする。ステップS510の後、ステップS505に戻る。
ステップS511で、重み画像生成部201は、iを1つインクリメントする。ステップS511の後、ステップS503に戻る。
以上の処理により、影部分と、非影部分とで、異なる重み係数を含む重み画像を生成することができる。
(照合処理)
図14は、実施例2における照合処理の一例を示すフローチャートである。図14に示す処理で用いる新たなパラメータは、以下の通りである。
SC:スコア値
SCmax:最大スコア値
(wx、wy):エッジ画像の横幅、縦幅
(DX,DY):横方向摂動量と縦方向摂動量で共に予め定めた定数(例:10,10)
S:エッジスコア加算値
D:重み加算値
(dx、dy):摂動値
(i,j):エッジ画像(E1)の画像内位置
(ii,jj):エッジ画像(E2)の画像内位置
(dxm、dym):最良スコア値を与える最良摂動量
M:大きな定数(例えば1000)
図14に示すステップS601で、照合部202は、SCmaxを−1に、dxmとdymとを0に設定する。ステップS602で、照合部202は、dyを−DYに設定する。
ステップS603で、照合部202は、dy>DYであるか否かを判定する。dy>DYであれば(ステップS603−YES)処理を終了し、dy>DYでなければ(ステップS603−NO)ステップS604に進む。ステップS604で、照合部202は、dxを−DYに設定する。
ステップS605で、照合部202は、dx>DXであるか否かを判定する。dx>DXであれば(ステップS605−YES)ステップS606に進み、dx>DXでなければ(ステップS605−NO)ステップS607に進む。ステップS606で、照合部202は、dyを1つインクリメントする。
ステップS607で、照合部202は、Sを0に、Dを0に設定する。ステップS608で、iを0に設定する。
ステップS609で、照合部202は、i≧wyであるか否かを判定する。i≧wyであれば(ステップS609−YES)ステップS618に進み、i≧wyでなければ(ステップS609−NO)ステップS610に進む。ステップS610で、照合部202は、jを0に設定する。
ステップS611で、照合部202は、j≧wxであるか否かを判定する。j≧wxであれば(ステップS611−YES)ステップS612に進み、j≧wxでなければ(ステップS611−NO)ステップS613に進む。ステップS612で、照合部202は、iを1つインクリメントする。
ステップS613で、照合部202は、次の算出を行う。
ii=i+dy ・・・式(14)
jj=j+dx ・・・式(15)
ステップS614で、照合部202は、次の条件(3)を満たすか否かを判定する。
(ii<0 or ii≧wy)or
(jj<0 or jj≧wx) ・・・条件(3)
この条件(3)は、エッジ画像同士が重複しているかを判定する条件である。条件(3)が満たされれば(ステップS614−YES)ステップS617に進み、条件(3)が満たされなければ(ステップS614−NO)ステップS615に進む。
ステップS615で、照合部202は、次の設定を行う。
v1=E1(j,i)
v2=E2(jj,ii)
ww=W(j,i)
ステップS616で、照合部は、次の算出を行う。
S=S+ww×(M−|v1−v2|) ・・・式(16)
D=D+ww ・・・式(17)
ステップS617で、照合部202は、jを1つインクリメントする。ステップS617の処理の後は、ステップS611に戻る。
ステップS618で、照合部202は、D>0であるか否かを判定する。D>0であれば(ステップS618−YES)ステップS619に進み、D>0でなければ(ステップS618−NO)ステップS620に進む。
ステップS619で、照合部202は、次の算出を行う。
SC=S/D ・・・式(18)
ステップS620で、照合部202は、SCにs1を代入する。s1は、予め設定された小さな値である。s1は、例えば負の値である。
ステップS621で、SC>SCmaxであるか否かを判定する。SC>SCmaxであれば(ステップS621−YES)ステップS622に進み、SC>SCmaxでなければ(ステップS621−NO)ステップS623に進む。
ステップS622で、照合部202は、次の設定を行う。
SCmax=SC
dxm=dx
dym=dy
ステップS623で、照合部202は、dxを1つインクリメントする。ステップS623の処理の後は、ステップS605に戻る。
この処理により、照合部202は、スコア値が最も高くなる摂動量を求めることができる。
以上の処理では、照合部202は、時刻1のエッジ画像(E1)を基準に、時刻2のエッジ画像(E2)を横方向−DXからDXまで、縦方向に−DYからDYまで摂動させながら、それぞれの摂動位置で両エッジ画像を比較する。また、照合部202は、次の式(19)で表すエッジスコア加算値(S)を算出しつつ、最もスコア値(SC)が大きくなる摂動位置を算出する。
Figure 0005942771
重み係数は、例えばw1=0とすれば、実施例1と同様の効果が得られ、例えばw1=1、w2=3とすれば、影エッジの影響も少し残しつつ、スコア値を算出することができる。
以上、実施例2によれば、移動体に設置された撮像部により撮像された画像を用いて移動体の移動量を推定する際、移動体の移動量を適切に推定することができる。また、実施例2によれば、影部分と非影部分との重み係数を含む重み画像を生成することで、各部の影響を可変にすることができる。
[実施例3]
次に、実施例3における画像処理システムについて説明する。実施例3では、移動体の影部分として削除したエッジのうち、移動体の影以外と推定されるエッジを補完することで、移動量の推定精度を向上させることができる。
<構成>
実施例3における画像処理システムの構成は、図2に示した実施例1における構成と同様であるため、同じ符号を用いる。
<機能>
図15は、実施例3における画像処理装置10cの機能の一例を示すブロック図である。以下、実施例3における画像処理装置10の機能を説明する際は、画像処理装置10cと表記する。
図15に示す画像処理装置10cは、入力部101と、投影画像生成部102と、第1画像DB103と、抽出部104と、除去部105と、重み画像生成部303と、照合部304と、推定部107と、対応エッジ画像生成部301と、第2画像DB302とを有する。以下、実施例1、2と異なる機能について主に説明する。
対応エッジ画像生成部301と重み画像生成部303とは、例えば画像処理プログラムを実行する制御部11、及びワークメモリとしての主記憶部12により実現されうる。また、第2画像DB301は、例えば主記憶部12や補助記憶部13により実現されうる。
対応エッジ画像生成部301は、第1エッジ画像(E1)及び第2エッジ画像(E2)の照合処理で対応が取れたエッジを含む第3エッジ画像(対応エッジ画像)を生成する。例えば、対応エッジ画像生成部301は、照合処理によって時刻1と時刻2とのエッジ画像のズレ量が求まった際に、最良のズレ量を与える位置関係での時刻1と時刻2とのエッジ画像の共通するエッジを抽出する。対応エッジ画像生成部301は、抽出したエッジを含む第3エッジ画像Em(x,y)を生成する。
第2画像DB302は、対応エッジ画像生成部301で生成された第2エッジ画像Emを保存する。
重み画像生成部303は、重み係数を次の関係式が成り立つように設定する。
w2>w3>w1
w1:影エッジ画像(第1エッジ群)のエッジのうち、第2エッジ群及び第3エッジ画像のエッジ以外のエッジに位置する重み係数
w2:非影エッジ画像(第2エッジ群)のエッジに位置する重み係数と
w3:第3エッジ画像のエッジのうち、非影エッジ画像のエッジ以外のエッジに位置する重み係数
実施例3における重み画像の生成は、第3エッジ画像を用いて、影エッジ画像で除去されたエッジを補完することに相当する。補完と言える理由は、第3エッジ画像は、エッジパターンで照合が取れたエッジであり、例えば路面上のパターンである可能性が高く、移動体の影部分ではないと推定されるからである。
例えば、重み画像生成部303は、除去部105から影エッジ画像Esと、非影エッジ画像Ensとを入力し、第2画像DB302から第3エッジ画像を入力し、照合処理で使用するエッジの重み画像W(x,y)を生成する。
照合部304は、重み画像Wを用いて時刻1の第1エッジ画像(E1)及び時刻2の第2エッジ画像(E2)の一致度を求め、この一致度を用いて照合処理を行う。例えば、照合部304は、第1画像DB103から第1エッジ画像(E1)と、第2エッジ画像(E2)とを取得し、重み画像生成部303から取得した重み画像Wを用いてエッジ画像同士を摂動照合し、エッジパターンが最も一致する摂動量を算出する。推定部107は、実施例1と同様にして、この摂動量に基づいて移動体の移動量を推定する。
以上の構成、機能を有することで、実施例3における画像処理装置10cは、照合処理で一致したエッジを用いて非影エッジ画像を補完することで、照合精度を向上させ、結局は移動量の推定精度を向上させることができる。
(具体例)
次に、実施例3における移動量推定の流れについて具体例を用いて説明する。図16は、実施例3における移動量推定を説明する図である。
まず、画像処理装置10cは、時刻1と時刻2とのエッジ画像に対して、照合処理を行い、移動量の推定を行う。このとき、照合処理で一致したエッジ部分を含む第3エッジ画像im91が生成される。
次に、投影画像生成部102は、時刻2の投影画像から、エッジ画像im61を生成する。また、投影画像生成部102は、同様にして、時刻3(時刻2<時刻3)の投影画像から、エッジ画像im71を生成する。
次に、抽出部104は、エッジ画像im61とエッジ画像im71とを相対的な移動量を0にして重ね合わせ、エッジ位置が重なるエッジを抽出する。抽出されたエッジが移動体による影とみなされる。抽出部104は、抽出されたエッジを含む影エッジ画像im81を生成する。
次に、除去部105は、この例では、時刻2のエッジ画像im61から影エッジ画像im81を除去したエッジ画像im82を生成する。
次に、重み画像生成部303は、エッジ画像im82に第3エッジ画像im91を付加し、補完後のエッジ画像im83を生成する。
次に、照合部303は、時刻3のエッジ画像im71と補完されたエッジ画像im83とを比較し、エッジパターンが最も一致する画像間のズレ量を求める。推定部107は、求められたズレ量を用いて移動体の移動量を推定する。
次に、対応エッジ画像生成部301は、照合処理で対応が取れたエッジ部分のエッジ画像im92を生成する。
これにより、移動体の影と推定されるエッジのみを除去することができるようになり、移動量の推定精度を向上させることができる。
(重み画像)
次に、実施例3における重み画像Wについて説明する。図17は、実施例3における重み画像の生成を説明する図である。図17に示す例では、影エッジ画像(Es)で1の値を有する位置に重み係数w1が与えられ、非影エッジ画像(Ens)で1の値を有する位置に重み係数w2が与えられ、対応エッジ画像(Ems)で1の値を有する位置に重み係数w3が与えられると、重み画像Wが生成される。なお、w3とw2とw1との関係は、w2>w3>w1とする。なお、w2とw3は、同じでもよい。これにより、移動体の影部分の影響を非影部分よりも小さくすることができる。
<動作>
次に、実施例3における画像処理システムの動作について説明する。図18は、実施例3における画像処理の一例を示すフローチャートである。図18に示す処理は、2枚目以降の画像を取得した場合の移動量推定処理である。1枚目の画像に対しては、ステップS703までの処理が行われる。
ステップS701〜S705の処理は、図7に示すステップS101〜S104の処理と同様である。
ステップS706で、重み画像生成部303は、影エッジ画像(Es)と非影エッジ画像(Ens)と、第3エッジ画像(Em)を用いて、影部分と、非影部分と、対応エッジ部分で異なる重み係数を含む重み画像を生成する。
ステップS707で、照合部304は、第1エッジ画像(E1)と、第2エッジ画像(E2)と、重み画像Wとを用いて照合処理を行う。照合処理を行うことで、画像間のズレ量が求められる。
ステップS708で、推定部107は、照合部304から取得したズレ量を用いて移動体の移動量を推定する。
ステップS709で、対応エッジ画像生成部301は、照合処理で対応がとれたエッジ部分を含む第3エッジ画像を生成する。なお、対応エッジ画像生成部301は、影の影響を除去する前のエッジ画像同士で対応がとれたエッジを用いてもよいし、影の影響を除去したエッジ画像同士で対応がとれたエッジを用いてもよい。
(対応エッジ画像生成処理)
図19は、実施例3における対応エッジ画像の生成処理の一例を示すフローチャートである。図19に示す処理で用いる新たなパラメータは、以下の通りである。
(sx、sy):照合処理によって求まった前時刻と現時刻とのエッジ画像が最も対応するための画像のずれ量
Em(x,y):前時刻の座標系における対応エッジの有無を表すフラグ画像(x、yは画像内の画素位置を、Em(x,y)が1は、対応エッジであることを表す)
図19に示すステップS801で、対応エッジ画像生成部301は、Emを0に初期化する。ステップS802で、対応エッジ画像生成部301は、変数iを0に設定する。変数iは、画像の縦方向の位置を示すパラメータである。
ステップS803で、対応エッジ画像生成部301は、iがwy以上であるか否かを判定する。wyは、画像の縦方向の長さを表す。i≧wyであれば(ステップS803−YES)処理を終了し、i<wyであれば(ステップS803−NO)ステップS804に進む。
ステップS804で、対応エッジ画像生成部301は、変数jを0に設定する。変数jは、画像の横方向の位置を示すパラメータである。
ステップS805で、対応エッジ画像生成部301は、jがwx以上であるか否かを判定する。wxは、画像の横方向の長さを表す。j≧wxであれば(ステップS805−YES)ステップS808に進み、j<wxであれば(ステップS805−NO)ステップS806に進む。
ステップS806で、対応エッジ画像生成部301は、次の条件(4)を満たすか否かを判定する。
E1(j,i)≧th1 かつ
E2(j+sx,i+sy)≧th1 ・・・条件(4)
条件(4)が満たされれば(ステップS806−YES)ステップS807に進み、条件(4)が満たされなければ(ステップS806−NO)ステップS808に進む。
なお、ステップS806で、対応エッジ画像生成部301は、移動体の影の影響を除去して対応エッジを求めたい場合は、次の条件(5)を用いるとよい。
Ens(j,i)==1 かつ
E2(j+sx,i+sy)≧th1 ・・・条件(5)
ステップS807で、対応エッジ画像生成部301は、Em(j,i)に1を代入する。ステップS808で、対応エッジ画像生成部301は、jを1つインクリメントする。ステップS808の後、ステップS805に戻る。
ステップS809で、対応エッジ画像生成部301は、iを1つインクリメントする。ステップS809の後、ステップS803に戻る。
以上の処理を行うことで、照合処理で対応が取れたエッジ(対応エッジ)を含む対応エッジ画像(例えば図16に示す第3エッジ画像im91、im92)を生成することができる。
(重み画像生成処理)
図20は、実施例3における重み画像生成処理の一例を示すフローチャートである。図20に示すステップS901〜S907の処理は、図13に示すステップS501〜S507の処理と同様である。
ステップS908で、重み画像生成部303は、対応エッジ画像内のEm(j,i)が1であるか否かを判定する。Em(j,i)が1であれば(ステップS908−YES)ステップS909に進み、Em(j,i)が1でなければ(ステップS908−NO)ステップS910に進む。
ステップS909で、重み画像生成部303は、W(j,i)に重み係数w3を設定する。
ステップS910〜S913の処理は、図13に示すステップS508〜S511の処理と同様である。なお、実施例3における照合処理は、実施例2における照合処理と同様である。
以上の処理により、影部分と、非影部分と、対応エッジ部分とで異なる重み係数を含む重み画像を生成することができる。なお、w1=0と設定することは、対応エッジを補完した非影エッジ画像を用いて照合処理を行うことに相当する。また、特別な場合として、非影エッジのみを用いる場合、重み画像生成部303は、w1=w3=0とし、w2を0以外に設定することも可能である。
以上、実施例3によれば、移動体に設置された撮像部により撮像された画像を用いて移動体の移動量を推定する際、移動体の移動量を適切に推定することができる。また、実施例3によれば、移動体の影部分として削除したエッジのうち、移動体の影以外と推定されるエッジを補完することで、移動量の推定精度を向上させることができる。
以上の各実施例で求められた移動体の移動量は、次の技術に適用できる。
・ 自車の挙動を解析し、運転支援や運転危険分析への活用
・ 移動量と映像特徴点追跡とを用いる移動ステレオにより周囲物位置の計測
なお、前述した各実施例で説明した移動量推定処理を含む画像処理を実現するためのプログラムを記録媒体に記録することで、各実施例で説明した処理をコンピュータに実施させることができる。
例えば、このプログラムを記録媒体に記録し、このプログラムが記録された記録媒体をコンピュータなどに読み取らせて、前述した処理を実現させることも可能である。
なお、記録媒体は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。また、記録媒体は、搬送波などの一過性のものを含まない。
以上、画像処理装置及びプログラムについて詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した各実施例の構成要素を全部又は複数を組み合わせることも可能である。
なお、以上の各実施例に関し、さらに以下の付記を開示する。
(付記1)
移動体に搭載された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出する抽出部と、
前記第1エッジ画像及び/又は前記第2画像のエッジ画像から、前記抽出部により抽出されたエッジを除去する除去部と、
前記除去部により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行う照合部と、
前記照合部により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する推定部と、
を備える画像処理装置。
(付記2)
前記第1エッジ画像のエッジのうち、前記抽出部により抽出されたエッジを含む第1エッジ群と、該第1エッジ群以外のエッジを含む第2エッジ群とで、異なる重み係数を含む重み画像を生成する重み画像生成部をさらに備え、
前記照合部は、
前記重み画像を用いて前記第1エッジ画像及び前記第2エッジ画像の一致度を求め、該一致度を用いて前記照合処理を行う付記1記載の画像処理装置。
(付記3)
前記第1エッジ画像及び前記第2エッジ画像の照合処理で対応が取れたエッジを含む第3エッジ画像を生成する対応エッジ画像生成部をさらに備え、
前記重み画像生成部は、
前記第2エッジ群のエッジ位置に対する第2重み係数と、前記第3エッジ画像のエッジのうち、前記第2エッジ群のエッジ以外のエッジ位置に対する第3重み係数と、前記第1エッジ群のエッジのうち、前記第2エッジ群及び前記第3エッジ画像のエッジ以外のエッジ位置に対する第1重み係数との関係を、前記第2重み係数>前記第3重み係数>前記第1重み係数に設定する付記2記載の画像処理装置。
(付記4)
複数の撮像部から撮像された各画像を用いて、上方から前記移動体を含む下面側を投影した画像を示す投影画像を生成する投影画像生成部をさらに備え、
前記抽出部は、
前記第1時刻の投影画像から抽出された第1エッジ画像と、前記第2時刻の投影画像から抽出された第2エッジ画像とを用いる付記1乃至3いずれか一項に記載の画像処理装置。
(付記5)
前記重み画像生成部は、
前記第1エッジ画像における前記第2エッジ群のエッジに対し、前記第3エッジ画像に含まれるエッジを補完する付記3記載の画像処理装置。
(付記6)
移動体に搭載された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出し、
前記第1エッジ画像及び/又は前記第2画像のエッジ画像から、前記抽出されたエッジを除去する除去処理を行い、
前記除去処理により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行い、
前記照合処理により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する
処理をコンピュータが実行する画像処理方法。
1 画像処理システム
10 画像処理装置
20 撮像部
101 入力部
102 投影画像生成部
103 第1画像DB
104 抽出部
105 除去部
106、202、304 照合部
107 推定部
201、303 重み画像生成部
301 対応エッジ画像生成部
302 第2画像DB

Claims (5)

  1. 移動体に設置された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出する抽出部と、
    前記第1エッジ画像及び/又は前記第2エッジ画像から、前記抽出部により抽出されたエッジを除去する除去部と、
    前記除去部により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行う照合部と、
    前記照合部により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する推定部と、
    を備える画像処理装置。
  2. 前記第1エッジ画像のエッジのうち、前記抽出部により抽出されたエッジを含む第1エッジ群と、該第1エッジ群以外のエッジを含む第2エッジ群とで、異なる重み係数を含む重み画像を生成する重み画像生成部をさらに備え、
    前記照合部は、
    前記重み画像を用いて前記第1エッジ画像及び前記第2エッジ画像の一致度を求め、該一致度を用いて前記照合処理を行う請求項1記載の画像処理装置。
  3. 前記第1エッジ画像及び前記第2エッジ画像の照合処理で対応が取れたエッジを含む第3エッジ画像を生成する対応エッジ画像生成部をさらに備え、
    前記重み画像生成部は、
    前記第2エッジ群のエッジ位置に対する第2重み係数と、前記第3エッジ画像のエッジのうち、前記第2エッジ群のエッジ以外のエッジ位置に対する第3重み係数と、前記第1エッジ群のエッジのうち、前記第2エッジ群及び前記第3エッジ画像のエッジ以外のエッジ位置に対する第1重み係数との関係を、前記第2重み係数>前記第3重み係数>前記第1重み係数に設定する請求項2記載の画像処理装置。
  4. 複数の撮像部から撮像された各画像を用いて、上方から前記移動体を含む下面側を投影した画像を示す投影画像を生成する投影画像生成部をさらに備え、
    前記抽出部は、
    前記第1時刻の投影画像から抽出された第1エッジ画像と、前記第2時刻の投影画像から抽出された第2エッジ画像とを用いる請求項1乃至3いずれか一項に記載の画像処理装置。
  5. 移動体に設置された1つ以上の撮像部により撮像された画像を用いて、第1時刻の画像から抽出された第1エッジ画像と、前記第1時刻より後の第2時刻の画像から抽出された第2エッジ画像とを重ね合わせ、位置が重なるエッジを抽出し、
    前記第1エッジ画像及び/又は前記第2エッジ画像から、前記抽出されたエッジを除去する除去処理を行い、
    前記除去処理により両方又はいずれか一方でエッジが除去された第1エッジ画像及び第2エッジ画像に対して照合処理を行い、
    前記照合処理により照合されたエッジ画像間のズレ量を用いて前記移動体の移動量を推定する
    処理をコンピュータが実行する画像処理方法。
JP2012230850A 2012-10-18 2012-10-18 画像処理装置及び画像処理方法 Expired - Fee Related JP5942771B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012230850A JP5942771B2 (ja) 2012-10-18 2012-10-18 画像処理装置及び画像処理方法
EP13188258.1A EP2722814A3 (en) 2012-10-18 2013-10-11 Image processing device and image processing method
US14/053,920 US9208387B2 (en) 2012-10-18 2013-10-15 Image processing device and image processing method to estimate movement of a movable body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012230850A JP5942771B2 (ja) 2012-10-18 2012-10-18 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2014081874A JP2014081874A (ja) 2014-05-08
JP5942771B2 true JP5942771B2 (ja) 2016-06-29

Family

ID=49382251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012230850A Expired - Fee Related JP5942771B2 (ja) 2012-10-18 2012-10-18 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US9208387B2 (ja)
EP (1) EP2722814A3 (ja)
JP (1) JP5942771B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6511777B2 (ja) * 2014-11-10 2019-05-15 セイコーエプソン株式会社 画像処理装置、画像処理方法およびプログラム
JP6503308B2 (ja) * 2016-02-18 2019-04-17 富士通フロンテック株式会社 画像処理装置及び画像処理方法
CN109740483A (zh) * 2018-12-26 2019-05-10 南宁五加五科技有限公司 一种基于深层神经网络的水稻生长期检测方法
JP7279685B2 (ja) * 2020-04-23 2023-05-23 トヨタ自動車株式会社 情報処理システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59305180D1 (de) 1992-11-10 1997-02-27 Siemens Ag Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz
DE69624980T2 (de) * 1995-05-18 2003-07-17 Omron Corp., Kyoto Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras
JP2003178309A (ja) 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc 移動量推定装置
JP4270183B2 (ja) * 2005-08-22 2009-05-27 トヨタ自動車株式会社 白線検出装置
JPWO2007083494A1 (ja) * 2006-01-17 2009-06-11 日本電気株式会社 図形認識装置、図形認識方法および図形認識プログラム
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP5083142B2 (ja) * 2008-09-19 2012-11-28 三菱自動車工業株式会社 車両周辺監視装置
US9177389B2 (en) * 2009-01-09 2015-11-03 Konica Minolta Holdings, Inc. Motion vector generation apparatus and motion vector generation method
JP5066558B2 (ja) * 2009-09-17 2012-11-07 日立オートモティブシステムズ株式会社 自車影認識装置
JP5505723B2 (ja) * 2010-03-31 2014-05-28 アイシン・エィ・ダブリュ株式会社 画像処理システム及び位置測位システム
US8294794B2 (en) * 2010-07-06 2012-10-23 GM Global Technology Operations LLC Shadow removal in an image captured by a vehicle-based camera for clear path detection
WO2012016374A1 (en) * 2010-08-03 2012-02-09 Empire Technology Development Llc Method for identifying objects in video

Also Published As

Publication number Publication date
JP2014081874A (ja) 2014-05-08
EP2722814A2 (en) 2014-04-23
EP2722814A3 (en) 2015-10-28
US9208387B2 (en) 2015-12-08
US20140112543A1 (en) 2014-04-24

Similar Documents

Publication Publication Date Title
CN109658504B (zh) 地图数据标注方法、装置、设备及存储介质
KR102051889B1 (ko) 스마트 글래스에서 2d 데이터를 기반으로 3d 증강현실을 구현하는 방법 및 시스템
CN109829875B (zh) 用于估计视差的方法和装置
JP6230751B1 (ja) 物体検出装置および物体検出方法
JP6857697B2 (ja) 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体
CN110349213A (zh) 基于深度信息的位姿确定方法、装置、介质与电子设备
CN111024040A (zh) 距离估计方法和设备
JP5942771B2 (ja) 画像処理装置及び画像処理方法
US9928426B1 (en) Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
US11189032B2 (en) Method and apparatus for extracting a satellite image-based building footprint
JP2012212282A (ja) 路面状態検出装置、路面状態検出方法、及び路面状態検出プログラム
JP5552892B2 (ja) 画像処理装置および画像処理プログラム
KR20170091496A (ko) 양안 시차 영상의 처리 방법 및 장치
WO2009116590A1 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
US9959661B2 (en) Method and device for processing graphics data in graphics processing unit
JP2011134012A (ja) 画像処理装置、その画像処理方法及びプログラム
CN105868767B (zh) 人脸特征点定位方法和装置
JP5987660B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN115493612A (zh) 一种基于视觉slam的车辆定位方法及装置
CN109523570A (zh) 运动参数计算方法及装置
US9569674B2 (en) Movement amount estimation device, movement amount estimation method, and computer-readable recording medium storing movement amount estimation program
KR101436695B1 (ko) 깊이 영상을 이용한 손 검출 장치 및 방법
JP5867167B2 (ja) 影検出装置
JP7265961B2 (ja) アノテーション支援方法、アノテーション支援装置、及びアノテーション支援プログラム
JP6996200B2 (ja) 画像処理方法、画像処理装置、および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160509

R150 Certificate of patent or registration of utility model

Ref document number: 5942771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees