JP2013200778A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2013200778A
JP2013200778A JP2012069558A JP2012069558A JP2013200778A JP 2013200778 A JP2013200778 A JP 2013200778A JP 2012069558 A JP2012069558 A JP 2012069558A JP 2012069558 A JP2012069558 A JP 2012069558A JP 2013200778 A JP2013200778 A JP 2013200778A
Authority
JP
Japan
Prior art keywords
image
unit
divided region
filter
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012069558A
Other languages
English (en)
Other versions
JP5935435B2 (ja
Inventor
Yasutaka Okada
康貴 岡田
Masami Mizutani
政美 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012069558A priority Critical patent/JP5935435B2/ja
Priority to US13/668,778 priority patent/US9390336B2/en
Publication of JP2013200778A publication Critical patent/JP2013200778A/ja
Application granted granted Critical
Publication of JP5935435B2 publication Critical patent/JP5935435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】単眼のカメラで自車両の左右側方の撮像を可能とし、少ない演算量で接近物を検知することを可能とする。
【解決手段】画像処理装置10は、車両の側方の情報を含む画像を撮像する撮像部11と、画像を複数の領域に分割し、画像の側端の中心を含む第1の分割領域画像と、画像の側端の中心を含まない第2の分割領域画像とを規定する規定部12と、第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または第2の分割領域画像に対して第2のフィルタを用いて平滑化を行う平滑化部13を備える。更に画像処理装置10は、第1の分割領域画像または第2の分割領域画像から特徴点を抽出する抽出部14と、取得時間が異なる複数の第1の分割領域画像または第2の分割領域画像の特徴点からオプティカルフローを算出する算出部15と、オプティカルフローに基づいて車両に接近する接近物を判定する判定部16を備える。
【選択図】図1

Description

本明細書で開示される実施様態は、接近物を検知することによる移動体の運転操作を支援する画像処理技術に関する。
近年、自動車の安全運転を支援する技術として、運転者から見難い範囲や、死角となる範囲の画像を運転者へ提示する技術が各種提案されている。特に、T字路等の道路においては、車両の左右側方の視野が著しく悪い為、支援技術の中でも重要視されている。この様な支援技術として、車両の前端に左右側方を撮像する複数のカメラを配置し、複数のカメラで撮像した画像を車載モニタ等の表示部に表示する技術が開示されている。また、他車両や歩行者等の自車両に対する接近物の早期検知を目的とした、接近物の検知技術についても提案されている。例えば、複数の画像を時系列順に撮像し、各画像の特徴点を抽出し、各画像間で特徴点を比較して特徴の相関が高い特徴点と対応付けを行い、オプティカルフローを生成して、接近物を検知するという技術が開示されている。なお、この様な接近物検知機能は、汎用的なナビゲーション機能と兼用される様になっている。これにより、一つの表示部で接近物検知機能とナビゲーション機能とを兼用出来る様になっている。
特開2005−276056号公報
上述の通り、運転者の死角となる左右側方を撮像する為には、複数のカメラが必要となる。しかしながら、コストの観点からカメラを複数配置させることは現実的ではない。更に、オプティカルフローを用いた接近物検知においては、特徴点情報を格納するためのメモリ容量の制約や、演算量が大きなオプティカルフロー演算を実行するためのCPU(Central Processing Unit)のリソースの制約(以下、メモリ容量の制約とCPUのリソースの制約を含めて演算量の制約と称する)により、十分な検知精度を確保することが難しい場合がある。よって、従来技術においては、単眼のカメラで自車両の左右側方の撮像が可能であり、かつ少ない演算量で接近物を検知することが可能となる接近物を検知する画像処理技術は提唱されていない状況である。
本発明は、単眼のカメラで自車両の左右側方の撮像を可能とし、かつ少ない演算量で接近物を検知することが可能となる画像処理装置を提供することを目的とする。
本発明が開示する一様態における画像処理装置は、車両の前端に配置され、車両の側方の情報を含む画像を撮像する撮像部と、画像を複数の領域に分割し、画像の側端の中心を含む第1の分割領域画像と、画像の側端の中心を含まない第2の分割領域画像とを規定する規定部を備える。更に画像処理装置は、第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または第2の分割領域画像に対して第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う平滑化部を備える。更に画像処理装置は、第1の分割領域画像または第2の分割領域画像から特徴点を抽出する抽出部と、取得時間が異なる複数の第1の分割領域画像または第2の分割領域画像の特徴点からオプティカルフローを算出する算出部を備えなる。更に画像処理装置は、オプティカルフローに基づいて車両に接近する接近物を判定する判定部を備える。
なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、単眼のカメラで自車両の左右側方の撮像を可能とし、かつ少ない演算量で接近物を検知することが可能となる。
一つの実施形態による画像処理装置の構成の一例を示す図である。 (a)は、画像処理装置が配置される自車両の上面図である。(b)は画像処理装置が配置される自車両の側面図である。 画像処理装置の撮像部による撮像領域の一例を示す図である。 画像処理装置の撮像部による撮像画像と、第1の分割画像領域と第2の分割画像領域の一例を示す図である。 (a)は、第1のフィルタの一例となる3×3画素の大きさの平均化フィルタを示す。(b)は、第2のフィルタの一例となる5×5画素の大きさの平均化フィルタを示す。 撮像画像の第1の分割画像領域と第2の分割画像領域から抽出された特徴点の一例を示す図である。 (a)、(b)は、抽出部が抽出した特徴点のデータ構造の一例である。 (a)、(b)は、算出部によるオプティカルフローの算出処理の一例となる概念図である。 (a)は、オプティカルフローのグルーピング処理の概念図である。(b)は、判定部が生成したオプティカルフローのグルーピング処理のデータ構造の一例である。 特徴点の登録順序となる画像の走査順序を規定する概念図である。 画像処理装置における接近物の検知処理の一例を示すフローチャートである 画像処理装置の各機能ブロックとして動作させることのできるコンピュータのハードウェア構成の一例を示す図である。
以下に、一つの実施形態による画像処理装置、画像処理方法、画像処理用コンピュータプログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
(実施例1)
図1は、一つの実施形態による画像処理装置の構成の一例を示す図である。画像処理装置10は、撮像部11、規定部12、平滑化部13、抽出部14、算出部15、判定部16、提示部17、記憶部18、制御部19、速度検出部20、操蛇角検出部21を含んでいる。
画像処理装置10が有するこれらの各部は、例えば、それぞれ個別のワイヤードロジックによるハードウェア回路として形成される。あるいは画像処理装置10が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として画像処理装置10に実装されてもよい。さらに、画像処理装置10が有するこれらの各部は、画像処理装置10が有するプロセッサ上で実行されるコンピュータプログラムにより実現される機能モジュールであってもよい。
撮像部11は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。撮像部11は魚眼レンズを用いることで、単眼で自車両の両側方の情報を含む画像を撮像することが可能となる。なお撮像部11は、例えば、自車両の前端の中心に配置される。また、画像処理装置10は、撮像部11から自車両の側方の情報を含む画像を取得する図示しない取得部を備えても良い。
規定部12は、撮像部11が撮像する画像を受け取り、当該画像を複数の領域に分割する。具体的には、画像の側端の中心を含む第1の分割領域画像と、画像の側端の中心を含まない第2の分割領域画像とを規定する。更に、規定部12は、第1の分割領域画像を画像の側端から中心に向かって面積が小さくなる様に規定し、第2の分割領域画像を、画像の側端から中心に向かって面積が大きくなる様に規定する。なお、規定部12による第1の分割領域画像と第2の分割領域画像の規定処理の詳細については後述する。
平滑化部13は、規定部12が規定した第1の分割領域画像に対して第1のフィルタを用いて平滑化を行う。また、平滑化部13は、規定部12が規定した第2の分割領域画像に対して第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う。なお、平滑化部13による第1のフィルタならびに第2のフィルタを用いた平滑化処理の詳細については後述する。
抽出部14は、平滑化部13が平滑化した第1の分割領域画像または第2の分割領域画像から特徴点を抽出する。なお、抽出部14は、第2の分割領域画像よりも先に第1の分割領域画像に対して特徴点を抽出しても良い。なお、抽出部14による特徴点の抽出処理の詳細については後述する。
算出部15は、抽出部11が取得する取得時間が異なる複数の第1の分割領域画像または第2の分割領域画像の特徴点からオプティカルフローを算出する。なお、算出部15によるオプティカルフローの算出処理の詳細については後述する。
判定部16は、算出部15が算出したオプティカルフローに基づいて自車両に近接する他車両や歩行者等の接近物を判定する。なお、判定部16による接近物の判定処理の詳細については後述する。
提示部17は、例えば、ディスプレイなどの表示デバイス、または、スピーカー等の発音デバイスである。提示部17は、判定部16が判定した接近物の有無を運転者(ユーザ)に提示する。
記憶部18は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。なお、記憶部13は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。記憶部18には、例えば判定部16が判定した接近物に関する位置情報が記憶される。
制御部19は、撮像部11、速度検出部20と、操舵角検出部21に接続され、速度検出部20により検出される自車両の速度が所定の閾値(例えば10Km/h)以上の場合、必要に応じて撮像部11による撮像を停止させる。また、制御部19は、操舵角検出部21により検出される自車両の操舵角が所定の閾値(例えば10度)以上の場合に、必要に応じて撮像部11による撮像を停止させる。
速度検出部20は自車両の車輪の回転数等に基づいて、自車両の速度を検出する。速度検出部20が検出した速度情報は、制御部19に出力される。
操舵角検出部21は、自車両のハンドルの操舵角等に基づいて、自車両の操舵角を検出する。操舵角検出部21が検出した操舵角情報は、制御部19に出力される。
図2(a)は、画像処理装置が配置される自車両の上面図である。図2(b)は画像処理装置が配置される自車両の側面図である。図2(a)、(b)に図示されている通り、撮像部11は、例えば、自車両22の前端の中央に配置されている。また、提示部17は、例えば、自車両22の内部に配置される。撮像部11ならびに提示部17以外の画像処理装置10が有するその他の各部は、撮像部11または提示部17の近傍、または、任意の場所に配置することが可能である。また、図2(b)に図示されている通り、撮像部11は仰角φと、俯角φが付与される。仰角φと、俯角φは、自車両の車高等に応じて自車両の前方と側方が適切に撮像される様に適宜調整されれば良い。
図3は、画像処理装置の撮像部による撮像領域の一例を示す図である。図3に示す通り、撮像部11に魚眼レンズを用いることで画角は、運転者の視野範囲を大きく超える180〜190度まで広がる為、単眼で自車両の側方の情報を含む画像を撮像することが可能となる。なお、図3にはT字路を例示として図示したが、十字路等の他の形状においても、本実施例に開示される画像処理装置10を適用することが可能である。
(規定部12による第1の分割領域画像と第2の分割領域画像の規定処理)
図4は、画像処理装置の撮像部による撮像画像と、第1の分割画像領域と第2の分割画像領域の一例を示す図である。規定部12は、撮像部11から撮像画像を受け取ると、画像を複数の領域に分割する。具体的には、図4に示す通り、上方分割線と下方分割線を用いて画像の側端の中心を含む第1の分割領域画像と、画像の側端の中心を含まない第2の分割領域画像とを規定する。
更に規定部12は、第1の分割領域画像を画像の側端から中心に向かって面積が小さくなる様に規定し、第2の分割領域画像を、画像の側端から中心に向かって面積が大きくなる様に規定する。図4に示す例においては、上方分割線ならびに下方分割線は、例えば原点を画像中心とした任意の2次曲線で規定することが可能である。詳細は後述するが、第1の分割領域画像は、第2の分割領域画像よりも多くの特徴点が抽出される為、上方分割線の2次曲線における最小点ならび曲率は、画像処理装置10が許容する演算量に基づいて規定すれば良い。下方分割線についても、最小点を最大点に置き換えて考えることが出来る為、詳細な説明は省略する。
なお、画像中心付近が運転者の視野範囲であることを考慮すると、上方分割線の最小点または、下側分割線の最大点は、画像中心(原点)に出来るだけ近接または接する様に規定し、曲率を大きく規定することで、第1の分割領域画像に対して接近物の早期検知に必要となる自車両の側方領域を多く含ませることが可能となる。なお、上側分割線ならびに下側分割線は、画像中心(原点)を通る一次関数を用いて規定しても良い。
また、規定部12は、撮像部11の図示しないレンズディストーションデータを用いて上方分割線ならびに下方分割線を規定することが可能である。例として上方分割線の規定方法の手順(1)〜(5)について記載する。
(1)上方分割線を表す光線ベクトルViを、極座標表現で定義する。
Vi=(θi、φ、1);(但し、θは方位、φは仰角、1は長さ)、(例:θi=−90、 −67.5、 −45、 −22.5、 0、 22.5、 45、 67.5、 90 (deg)を9分割し、φ=5degとする。)
(2)極座標表現の3DベクトルViは、一意的にカーテジアン表現に変換可能であり、これをUiと規定する。
(3)撮像部11の地面に対する姿勢がλ=(α、β、γ)のとき(但し、αはロール角、βはピッチ角、γはヨー角とする)、撮像部11が撮像する画像における上方分割線は、U’iの様に観測される。
U’i=R−1(λ)Ui;(但し、R(λ)は回転行列)
(4)入射方向が任意の3DベクトルU’は、撮像部11のレンズディスト―ションデータに従って、画像上の2次元座標pに変換可能である。ここで、U’iに対応する画像上の点をpiとする。
(5)点piを順序に従い、直線発生アルゴリズムもしくはスプライン発生アルゴリズムを適用させることで結線し、上方分割線の曲線を構成する点例を得ることができる。なお、下方分割線は、仰角φを俯角φ2に置き換えることで規定することが出来る為、詳細な説明は省略する。
(平滑化部13による平滑化処理)
図5(a)は、第1のフィルタの一例となる3×3画素の大きさの平均化フィルタを示す。図5(b)は、第2のフィルタの一例となる5×5画素の大きさの平均化フィルタを示す。図5(a)、(b)に示される通り、各フィルタに格納される係数をすべて加算すると値が1となる。第2のフィルタは第1のフィルタよりも大きい係数を有している為、平滑化の効果が第1のフィルタに比較して大きくなる。なお、第1または第2のフィルタは平均化フィルタの他に、フィルタの原点(中央)に近いほど大きな重みが付加される加重平均化フィルタや、ガウシアンフィルタを用いることが可能である。
平滑化部13は、第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、第2の分割領域画像に対しては、第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う。なお、平滑部13は、第1の分割領域画像または第2の分割領域画像のいずれかのみに対して平滑化を行っても良いし、第1の分割領域画像と第2の分割領域画像の双方に対して平滑化を行っても良い。これにより、接近物の早期検知に必要となる自車両の側方領域を含む第1の分割領域画像において多くの特徴点が含まれることになり、それ以外の第2の分割領域画像においては特徴点を少なくさせることが可能となる。
(抽出部14による特徴点の抽出処理)
抽出部14は、平滑化部13により平滑化が行われた画像に対して特徴点を抽出する。特徴点の抽出においては、ハリスオペレータ等の公知の手段を用いて特徴点を抽出することが可能である。なお、メモリ容量を考慮して、抽出部14は、第2の分割領域画像よりも先に第1の分割領域画像に対して特徴点を抽出しても良い。図6は、撮像画像の第1の分割画像領域と第2の分割画像領域から抽出された特徴点の一例を示す図である。平滑化部13により、第1の分割領域画像に対しては、第1のフィルタを用いて平滑化が実施され、第2の分割領域画像に対しては、第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化をされている。これにより、図6に示される通り、接近物の早期検知に必要となる自車両の側方領域を含む第1の分割領域画像において多くの特徴点が抽出することが出来、それ以外の第2の分割領域画像においては特徴点を少なくさせることが可能となる。これにより演算量を削減させることが可能となる。
ところで、撮像部11に魚眼レンズを用いた場合は、魚眼レンズの光学特性上、運転者の視野範囲となる自車両の前方の分解能が高くなり、自車両の側方の分解能が低くなる。このことは、自車両の前方においてはより多くの特徴点が抽出され、接近物の早期検知が必要となる自車両の側方においては抽出される特徴点が少なくなることを意味している。
しかしながら、本実施例においては、第1の分割領域画像を画像の側端から中心に向かって面積が小さくなる様に規定し、第2の分割領域画像を、画像の側端から中心に向かって面積が大きくなる様に規定している。この為、分解能が高くなる自車両の前方(運転者の視野範囲)では大きなフィルタ係数を有する第2のフィルタで平滑化が行われる為、特徴点の抽出を抑制させることが可能となっている。換言すると、本実施例においては、魚眼レンズを用いたことによる分解能の分布の影響について解消させることが可能となっている。
図7(a)、(b)は、抽出部が抽出した特徴点のデータ構造の一例である。図7(a)は、撮像部11が撮像を開始した時刻t=1.0の時の画像から抽出した特徴点のデータ構造の一例である。抽出部14は図示しないキャッシュメモリ等を有しており、特徴点のデータをそれぞれ格納する。抽出部14は、抽出した特徴点に対して任意のIDとファイル名を付与し、特徴点の画像上の座標(x、y)ならびに特徴量の一例となる輝度値Iを格納する。なお、画像上の座標(x、y)の単位は例えばピクセルであり、原点は、例えば、画像の左上に設定すれば良い。図7(b)は、撮像部11が撮像を開始した時刻t=2.0の画像から抽出した特徴点の時のデータ構造の一例である。抽出部14は、時刻t=1.0の時と同様に特徴点のデータをそれぞれ図示しないキャッシュメモリ等に格納する。
(算出部15によるオプティカルフローの算出処理)
算出部15は、抽出部14が抽出した特徴点のデータからオプティカルフローを算出する。図8(a)、(b)は、算出部によるオプティカルフローの算出処理の一例となる概念図である。オプティカルフローは、例えばSAD(Sum of Absolute Difference;差分絶対値和)の相関演算法を用いることで算出することが出来る。ここで、SADは、以下の数式で定義される。
(但し(x、y)は特徴点の画像上の座標値、I1、Iは連続する時刻の輝度値)
上述の(数1)は、同じ位置の画素の輝度値の差の絶対値の合計を計算し、合計値が小さいほど、類似度が高いことを意味し、完全一致するとSADの値は0になる。算出部15は、所定の閾値tを用いて、オプティカルフローの算出の基準として、閾値tよりもSAD値が小さい、かつ、SADが最小となる特徴点の組み合わせを対応付ける。
図8(a)の例では、時刻t=1.0の特徴点と、時刻t=2.0の特徴点の組み合わせの対応付けにおいて、時刻t=2.0におけるIDとIDの双方のSAD値が閾値tよりも小さい。この場合は、SADが最小となるIDを組み合わせて対応付ける。この例示では、時刻t=1.0のIDは、時刻t=2.0のIDと組み合わせる。算出部15は、組み合わせられた特徴点の座標値から、特徴点の移動方向と移動距離となるベクトル、すなわち、オプティカルフローを算出することが可能となる。
図8(b)の例では、時刻t=1.0の特徴点と、時刻t=2.0の特徴点の組み合わせの対応付けにおいて、時刻t=2.0におけるIDとIDの双方のSAD値が閾値tよりも大きい。この場合は、特徴点の組み合わせの対応付けは行わない。また、算出部15は、画像に含まれるすべての特徴点について、SAD値を算出する必要はなく、特徴点の座標近傍の領域内(m×n(m、nは自然数)画素の領域内)で特徴点の対応付けの処理を行えば良い。
また、SADの他に、SSD(Sum of Squared intensity difference)やNCC(Normalized Cross Correlation)等の相関演算法を用いることも可能である。なお、算出部15は、所定の閾値lを用いて、閾値l以下のオプティカルフローをノイズとして削除しても良い。また、算出部15は、オプティカルフローを算出するにあたり、ある特徴点が所定の閾値z回以上にわたり、同じ位置に存在する場合は、静止物(背景)として特徴点を削除しても良い。更に、算出部15は、算出したオプティカルフローの方向が前時刻のオプティカルフローと異なる場合が所定の閾値a回以上となる場合は、ノイズとして特徴点を削除しても良い。
(判定部16による接近物の判定処理)
判定部16は、算出部15よりオプティカルフローを受け取り、接近物の有無を判定する。ここで、判定部16は、必要に応じて、図6の画像中心より左側の領域においては、右方向のベクトル成分を有するオプティカルフローのみを抽出し、画像中心より右側の領域においては、左方向のベクトル成分を有するオプティカルフローのみを抽出しても良い。判定部16は、算出部15より受け取る複数のオプティカルフローに対してそれぞれ位置が近接しており、類似する方向を有するものをグルーピングしてフレームIDを付与する。なお、位置の近接度や方向の類似度は適宜設定すれば良い。
図9(a)は、オプティカルフローのグルーピング処理の概念図である。図9(b)は、判定部が生成したオプティカルフローのグルーピング処理のデータ構造の一例である。図9(a)に示される様に、判定部16は、オプティカルフローを任意の位置近接度や方向類似度を用いてグルーピングする。判定部16は、グルーピングしたオプティカルフローを、例えば長方形で近似してフレームを生成し、生成したフレームの左上を基準座標(x、y)として、フレームの長さw、高さh、更に前時刻t−1と対応するフレームIDを、判定部16が有する図示しないキャッシュメモリ等に格納する。格納されたデータは、例えば、図9(b)に示される様なデータ構造となる。また、判定部16は、他車両や歩行者の扁平率や、面積を考慮し、フレームの扁平率(w/h)やフレームの面積(w×h)に基づいてグルーピングを行っても良い。
判定部16は、任意の時刻にわたり、フレームが同一方向に向かっている場合や、フレームが任意の閾値の回数s以上、互いに重畳している場合は、フレームを接近物と判定する。判定部16は、接近物が有りと判定した場合は、判定結果を提示部17に出力する。なお、判定部16は、接近物と判定されたフレームの領域情報、具体的には図9(b)に示す接近物検知領域情報等を提示部17と記憶部18に出力しても良い。
提示部17は、運転者に対して、接近物の存在を早期に知らせる為に、フレームの領域情報に基づき赤枠等で、接近物の位置を提示部17に表示する。また、一般的なカーナビゲーションの機能を提示部17が備える場合は、地図情報に接近物の位置を重畳して表示しても良い。また、提示部17は音声により、運転者に対して接近物の存在を通知しても良い。
実施例1に開示される画像処理装置によれば、単眼のカメラで自車両の左右側方の撮像を可能とし、かつ少ない演算量で接近物を検知することが可能となる。
(実施例2)
自車両へ接近する他車両等の接近物は、自車両へ接近するにつれて車両のフロント部分が画像に対して大きく撮像される。この特徴は撮像部11に魚眼レンズを用いた場合には、より顕著なものとなる。一般的に、車両のフロント部は、車両の他の部分と比べて、グリル等の複雑な形状を有しているものが多く、特徴点が多く抽出されやすい傾向にある。このため、特徴点が過剰に抽出されてしまうことで、メモリ容量の制約上、画像の側方から新たに接近してくる他車両等の接近物に対して特徴点を十分に割り当てることが難しくなる場合も想定され得る。
この点を考慮し、実施例1の処理に加えて、画像処理装置10の平滑化部13は、第1のフィルタを用いて平滑化を行った第1の分割領域画像の一部に対して、第2フィルタを用いて平滑化を行う。平滑化部13は、平滑化処理を実施する際に、記憶部18を参照し、接近物と判定されたフレームの接近物検知領域情報を取得する。参照部は、接近物と判定されたフレームの接近物検知領域情報に基づいて接近物付近の領域に対して第2のフィルタを用いて平滑化を行う。なお、平滑化部13は、第1の分割領域画像の一部に対して第2のフィルタ以外にも任意の係数を有するフィルタを用いて平滑化を行うことが可能である。
実施例2に開示される画像処理装置によれば、実施例1に開示される画像処理装置に比較して更に少ない演算量で接近物を検知することが可能となる。
(実施例3)
上述の実施例1または実施例2においては、例えば、第1の分割領域画像において、ビル群などの背景に複雑なテクスチャを有する物体が含まれる場合、多くの特徴点が当該物体から抽出されてしまう為、自車両と接触する可能性が高い接近物の特徴点を十分に抽出することが出来ない場合も想定され得る。
この点を考慮し、実施例1または実施例2の処理に加えて、画像処理装置10の抽出部14は、第1の分割領域画像を画像の側端の中心を起点として、画像を上端方向または下端方向に走査して特徴点を抽出する。また、抽出部14は、第2の分割領域画像を、画像の側端の中心から離反する様に、画像を上端方向または下端方向に走査して特徴点を抽出する。更に、抽出部14は、自車両の規定進行方向に基づき、接近物が車両に近接する近接方向を規定し、近接方向に基づいて上端方向または下端方向の走査の優先度を付与する。
換言すると、抽出部14は、接近物の存在確率に基づき、特徴点を登録する順序となる画像の走査順序を規定する。特徴点の登録方向と走査順序を規定するにあたり、車両の規定進行方向を定める必要がある。例えば、日本においては、車両は左車線を走行する為、規定進行方向は左方向とする。この場合、接近物が自車両に近接する近接方向は、画像の側端中心より下端の領域においては左方向となる。また、画像の側端中心より上端の領域では、接近物が自車両に近接する近接方向は、右方向となる。
また、画像を画像の中心で左右に分割した場合においては、それぞれ側端中心より下端の領域と、画像の側端中心より上端の領域では接近物の存在確率は異なる。図10は、特徴点の登録順序となる画像の走査順序を規定する概念図である。抽出部14は画像を側端中心で上下に分割し、更に画像中心で左右に分割する。なお、画像の分割は規定部12が実行しても良い。分割領域の大きさは許容される演算量に応じて適宜規定すれば良い。図10において規定進行方向が左方向の場合、右側分割領域においては、画像中心より下側の方が、日本において規定進行方向が左となる左車線を検知する確率が高い為、画像の側端の中心を起点として画像の下端方向に走査して特徴点を抽出する。なお、走査順序の優先度は以下の(1)〜(4)の順序となる。
(1)右側分割領域画像>左側分割領域画像
(2)第1の分割領域画像>第2の分割領域画像
(3)画像側端>画像中心
(4)下方向走査>上方向走査(右側分割領域画像の場合)、上方向走査>下方向走査 (左側分割領域画像の場合)
実施例3に開示される画像処理装置によれば、メモリ容量の制約から抽出可能な特徴点数が制限されている場合においても、接近物を早期に検知することが出来る。
(近接物の検知処理)
次に、画像処理装置10の動作について説明する。図11は、画像処理装置における接近物の検知処理の一例を示すフローチャートである。
ステップS1101において、速度検出部20は自車両の車輪の回転数等により、自車両の速度を検出し、自車両の速度が所定の閾値(例えば10Km/h)以下か否かを判定する。
自車両の速度が所定の閾値以下の場合(ステップS1101−Yes)は、ステップS1102において、操舵角検出部21は、自車両のハンドルの操舵角等により、自車両の操舵角を検出し、自車両の操舵角が所定の閾値(例えば10度)以下か否かを判定する。
自車両の操舵角が所定の閾値以下の場合(ステップS1102−Yes)は、ステップS1103において、撮像部11は自車両の側方の情報を含む画像を撮像する。なお、自車両の速度と操舵角が所定の閾値以上の場合(ステップS1101−No、ステップS1102−No)は、自車両の速度と操舵角が所定の閾値以下になるまで一連の処理を繰り返す。
ステップS1104において、規定部12は、撮像部11から受け取った画像を上方分割線と下方分割線を用いて画像の側端の中心を含む第1の分割領域画像と、画像の側端の中心を含まない第2の分割領域画像とを規定する。なお、ステップS1104において、規定部12は、第1の分割領域画像を画像の側端から中心に向かって面積が小さくなる様に規定し、第2の分割領域画像を、画像の側端から中心に向かって面積が大きくなる様に規定しても良い。
ステップS1105において、平滑化部13は、第1の分割領域画像に対して第1のフィルタを用いて平滑化を行う。また、平滑化部13は第2の分割領域画像に対して第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う。ここで、平滑化部13は、後述する記憶部18に格納される接近物の位置情報(接近物検知領域情報)を参照し、第1のフィルタを用いて平滑化を行った第1の分割領域画像の一部に対して、第2フィルタを用いて更に平滑化を行っても良い。
ステップS1106において、抽出部14は、接近物の存在確率に基づき、特徴点を登録する順序となる画像の走査順序を規定する。具体的には、抽出部14は、第1の分割領域画像を画像の側端の中心を起点として、画像を上端方向または下端方向に走査して特徴点を抽出する。また、抽出部14は、第2の分割領域画像を、画像の側端の中心から離反する様に、画像を上端方向または下端方向に走査して特徴点を抽出する。なお、ステップS1106は必要に応じて実行されれば良く、必須のステップではない。
ステップS1107において、抽出部14は、平滑化部13により平滑化が行われた画像に対して特徴点を抽出する。なお、抽出部14は、メモリ容量を考慮して、抽出部14は、第2の分割領域画像よりも先に第1の分割領域画像に対して特徴点を抽出しても良い。
ステップS1108において、算出部15は、抽出部14が抽出した特徴点のデータからオプティカルフローを算出する。なお、ステップS1108において、なお、算出部15は、所定の閾値1を用いて、閾値l以下のオプティカルフローをノイズとして削除しても良い。また、算出部15は、オプティカルフローを算出するにあたり、ある特徴点が所定の閾値z回以上にわたり、同じ位置に存在する場合は、静止物(背景)として特徴点を削除しても良い。更に、算出部15は、算出したオプティカルフローの方向が前時刻のフローと異なる場合が所定の閾値a回以上となる場合は、ノイズとして特徴点を削除しても良い。
ステップS1109において、判定部16は、算出部15よりオプティカルフローを受け取り、接近物の有無を判定する。なお、ステップS1109において、判定部16は、オプティカルフローを任意の位置近接度や方向類似度を用いてグルーピングする。判定部16は、グルーピングしたオプティカルフローを例えば、例えば長方形で近似してフレームを生成し、生成したフレームの左上を基準座標(x、y)として、フレームの長さw、高さh、更に前時刻t−1と対応するフレームIDを、判定部16が有する図示しないキャッシュメモリに格納する。
また、ステップS1109において、判定部16は、他車両や歩行者の扁平率や、面積を考慮し、フレームの扁平率(w/h)やフレームの面積(w×h)に基づいてグルーピングを行っても良い。判定部16は、任意の時刻にわたり、フレームが同一方向に向かっている場合や、フレームが任意の閾値の回数s以上、互いに重畳している場合は、フレームを接近物と判定する。
ステップS1110において、判定部16は、接近物が有りと判定した場合(ステップS1110−Yes)は、判定結果を提示部17に出力する。なお、この時、判定部16は、接近物と判定されたフレームの領域情報、具体的には、接近物検知領域情報を提示部17と記憶部18に出力しても良い。この場合は、ステップS1112において、接近物検知領域情報が記憶部18に格納される。記憶部に格納された接近物検知領域情報は、上述の通り、ステップS1105において、平滑化部13に参照される。
ステップS1110において、判定部16は、接近物が無しと判定した場合(ステップS1110−No)は、処理をS1101に戻す。このとき、判定部16が有する図示しないキャッシュメモリに格納されたオプティカルフロー等の各種データは削除しても良い。
ステップS1111において、提示部17は、運転者に対して、接近物の存在を早期に知らせる為に、フレームの領域情報に基づき赤枠等で、接近物の位置を提示部17に表示する。また、一般的なカーナビゲーションの機能を提示部17が備える場合は、地図情報に接近物の位置を重畳して表示しても良い。また、提示部17は音声により、運転者に対して接近物の存在を通知しても良い。
なお、前述した各実施例に係る画像処理装置の各機能ブロックを、コンピュータを用いて構成することも可能である。図12は、画像処理装置の各機能ブロックとして動作させることのできるコンピュータのハードウェア構成の一例を示す図である。図12に示す通り、コンピュータ30は、MPU31、ROM32、RAM33、入力装置34、表示装置35、インターフェース装置36、及び記録媒体駆動装置37を備えている。なお、これらの構成要素はバスライン38を介して接続されており、MPU31の管理の下で各種のデータを相互に授受することができる。
MPU(Micro Processing Unit)31は、このコンピュータ30全体の動作を制御する演算処理装置である。ROM(Read Only Memory)32は、所定の制御プログラムや各種の定数値が予め記録されている読み出し専用半導体メモリである。MPU31は、この制御プログラムをコンピュータ30の起動時に読み出して実行することにより、このコンピュータ30の各構成要素の動作制御が可能となる。
RAM(Random Access Memory)33は、MPU31が各種の制御プログラムを実行する際に、必要に応じて作業用記憶領域として使用する、随時書き込み読み出し可能な半導体メモリである。なお、このRAM33は、図1における記録部18として機能する。
入力装置34は、例えばキーボード装置であり、コンピュータ30の使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をMPU31に送付する。
表示装置35は例えば液晶ディスプレイであり、MPU31から送付される表示データに応じて各種のテキストや画像を表示する。インターフェース装置36は、このコンピュータ30に接続される各種機器との間での各種データの授受の管理を行う。より具体的には、インターフェース装置36は、カメラ11から送られてくる撮像画像信号のアナログ−デジタル変換や、例えば、制御部19を駆動させるための駆動信号の出力などを行う。
このような構成を有するコンピュータ30を、前述した各実施例に係る画像処理装置の各機能ブロックとして機能させることができる。例えば、図11を用いて説明した各処理手順をMPU31に行わせるための制御プログラムを作成する。作成した制御プログラムはROM32に予め格納しておく。そして、MPU31に所定の実行開始指示を与えてこの制御プログラムを読み出させて実行させる。こうすることで、MPU31が、図1における撮像部11、規定部12、平滑化部13、抽出部14、算出部15、判定部16、提示部17、記憶部18、制御部19、速度検出部20、操舵角検出部21として機能するようになる。従って、コンピュータ30のインターフェース装置36に撮像部11を接続することで、図1の画像処理装置を構成することができる。
なお、記録媒体駆動装置37は、可搬型記録媒体39に記録されている各種の制御プログラムやデータの読み出しを行う装置である。例えば、ROM32としてフラッシュメモリを使用し、MPU31が、可搬型記録媒体39に記録されている前述の制御プログラムを、記録媒体駆動装置38を介して読み出してROM32に格納するようにコンピュータ30を構成してもよい。この場合には、MPU31は、所定の実行開始指示を受けた時には、MPU31がROM32に格納した制御プログラムを読み出して実行するようにする。
なお、可搬型記録媒体39としては、例えば、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)などの非一時的(non-transitory)な記録媒体が利用可能である。また、可搬型記録媒体39として、例えばUSB(Universal Serial Bus)規格のコネクタが備えられている半導体メモリも利用可能である。
また、接近物検知対象の画像は、動画でもよく、各フレーム毎に、上記の処理を行ってもよいし、所定間隔のフレーム毎に上記処理を行ってもよい。
また、上述の実施例において、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
車両の側方の情報を含む画像を撮像する撮像部と、
前記画像を複数の領域に分割し、前記画像の側端の中心を含む第1の分割領域画像と、前記画像の側端の中心を含まない第2の分割領域画像とを規定する規定部と、
前記第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または前記第2の分割領域画像に対して前記第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う平滑化部と、
前記第1の分割領域画像または前記第2の分割領域画像から特徴点を抽出する抽出部と、
取得時間が異なる複数の前記第1の分割領域画像または前記第2の分割領域画像の特徴点からオプティカルフローを算出する算出部と、
前記オプティカルフローに基づいて前記車両に接近する接近物を判定する判定部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記規定部は、前記第1の分割領域画像を前記画像の側端から中心に向かって面積が小さくなる様に規定し、前記第2の分割領域画像を、前記画像の側端から中心に向かって面積が大きくなる様に規定することを特徴とする付記1記載の画像処理装置。
(付記3)
前記抽出部は、前記第2の分割領域画像よりも先に前記第1の分割領域画像に対して特徴点を抽出することを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記判定部が判定した接近物の位置情報を記憶する記憶部を更に有し、
前記平滑化部は、前記位置情報に基づき、前記第1のフィルタを用いて平滑化を行った前記第1の分割領域画像の一部に対して、前記第2フィルタを用いて平滑化を行うことを特徴とする付記1ないし付記3いずれか一つに記載の画像処理装置。
(付記5)
前記抽出部は、前記第1の分割領域画像を前記画像の側端の中心を起点として、画像を上端方向または下端方向に走査して特徴点を抽出することを特徴とする付記1ないし付記4いずれか一つに記載の画像処理装置。
(付記6)
前記抽出部は、前記第2の分割領域画像を、前記画像の側端の中心から離反する様に、前記画像を上端方向または下端方向に走査して特徴点を抽出することを特徴とする付記1ないし付記5いずれか一つに記載の画像処理装置。
(付記7)
前記抽出部は、前記車両の規定進行方向に基づき、前記接近物が前記車両に近接する近接方向を規定し、前記近接方向に基づいて前記上端方向または前記下端方向の走査の優先度を付与することを特徴とする付記5または付記6に記載の画像処理装置。
(付記8)
前記車両の車両速度を検出する速度検出部と、
前記車両速度に基づいて前記撮像部の撮像を停止させる制御部と、
を更に備えることを特徴とする付記1記載の画像処理装置。
(付記9)
前記車両の操蛇角を検出する操蛇角検出部と、
前記操蛇角に基づいて前記撮像部の撮像を停止させる制御部と、
を更に備えることを特徴とする付記1記載の画像処理装置。
(付記10)
前記撮像部は魚眼レンズを有していることを特徴とする付記1記載の画像処置装置。
(付記11)
車両の側方の情報を含む画像を取得し、
前記画像を複数の領域に分割し、前記画像の側端の中心を含む第1の分割領域画像と、前記画像の側端の中心を含まない第2の分割領域画像とを規定し、
前記第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または前記第2の分割領域画像に対して前記第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化し、
前記第1の分割領域画像または前記第2の分割領域画像から特徴点を抽出し、
取得時間が異なる複数の前記第1の分割領域画像または前記第2の分割領域画像の特徴点からオプティカルフローを算出し、
前記オプティカルフローに基づいて前記車両に接近する接近物を判定する
処理をコンピュータが実行する画像処理方法。
(付記12)
前記規定することは、前記第1の分割領域画像を前記画像の側端から中心に向かって面積が小さくなる様に規定し、前記第2の分割領域画像を、前記画像の側端から中心に向かって面積が大きくなる様に規定することを特徴とする付記11記載の画像処理方法。
(付記13)
前記抽出することは、前記第2の分割領域画像よりも先に前記第1の分割領域画像に対して特徴点を抽出することを特徴とする付記11または付記12記載の画像処理方法。
(付記14)
前記判定することが判定した接近物の位置情報が記憶されている記憶部から前記位置情報を取得し、
前記平滑化することは、前記位置情報に基づき、前記第1のフィルタを用いて平滑化を行った前記第1の分割領域画像の一部に対して、前記第2フィルタを用いて平滑化を行うことを特徴とする付記11ないし付記13いずれか一つに記載の画像処理方法。
(付記15)
前記抽出することは、前記第1の分割領域画像を前記画像の側端の中心を起点として、画像を上端方向または下端方向に走査して特徴点を抽出することを特徴とする付記11ないし付記14いずれか一つに記載の画像処理方法。
(付記16)
前記抽出することは、前記第2の分割領域画像を、前記画像の側端の中心から離反する様に、前記画像を上端方向または下端方向に走査して特徴点を抽出することを特徴とする付記11ないし付記15いずれか一つに記載の画像処理方法。
(付記17)
前記抽出することは、前記車両の規定進行方向に基づき、前記接近物が前記車両に近接する近接方向を規定し、前記近接方向に基づいて前記上端方向または前記下端方向の走査の優先度を付与することを特徴とする付記15または付記16に記載の画像処理方法。
(付記18)
車両の側方の情報を含む画像を取得し、
前記画像を複数の領域に分割し、前記画像の側端の中心を含む第1の分割領域画像と、前記画像の側端の中心を含まない第2の分割領域画像とを規定し、
前記第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または前記第2の分割領域画像に対して前記第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行い、
前記第1の分割領域画像または前記第2の分割領域画像から特徴点を抽出し、
取得時間が異なる複数の前記第1の分割領域画像または前記第2の分割領域画像の特徴点からオプティカルフローを算出し、
前記オプティカルフローに基づいて前記車両に接近する接近物を判定する
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記19)
車両の側方の情報を含む画像を撮像部から取得する取得部と、
前記画像を複数の領域に分割し、前記画像の側端の中心を含む第1の分割領域画像と、前記画像の側端の中心を含まない第2の分割領域画像とを規定する規定部と、
前記第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または前記第2の分割領域画像に対して前記第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う平滑化部と、
前記第1の分割領域画像または前記第2の分割領域画像から特徴点を抽出する抽出部と、
取得時間が異なる複数の前記第1の分割領域画像または前記第2の分割領域画像の特徴点からオプティカルフローを算出する算出部と、
前記オプティカルフローに基づいて前記車両に接近する接近物を判定する判定部と、
を備えることを特徴とする画像処理装置。
撮像部11
規定部12
平滑化部13
抽出部14
算出部15
判定部16
提示部17
記憶部18
制御部19
速度検出部20
操舵角検出部21

Claims (7)

  1. 車両の側方の情報を含む画像を撮像する撮像部と、
    前記画像を複数の領域に分割し、前記画像の側端の中心を含む第1の分割領域画像と、前記画像の側端の中心を含まない第2の分割領域画像とを規定する規定部と、
    前記第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または前記第2の分割領域画像に対して前記第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化を行う平滑化部と、
    前記第1の分割領域画像または前記第2の分割領域画像から特徴点を抽出する抽出部と、
    取得時間が異なる複数の前記第1の分割領域画像または前記第2の分割領域画像の特徴点からオプティカルフローを算出する算出部と、
    前記オプティカルフローに基づいて前記車両に接近する接近物を判定する判定部と、
    を備えることを特徴とする画像処理装置。
  2. 前記規定部は、前記第1の分割領域画像を前記画像の側端から中心に向かって面積が小さくなる様に規定し、前記第2の分割領域画像を、前記画像の側端から中心に向かって面積が大きくなる様に規定することを特徴とする請求項1記載の画像処理装置。
  3. 前記抽出部は、前記第2の分割領域画像よりも先に前記第1の分割領域画像に対して特徴点を抽出することを特徴とする請求項1または請求項2記載の画像処理装置。
  4. 前記判定部が判定した接近物の位置情報を記憶する記憶部を更に有し、
    前記平滑化部は、前記位置情報に基づき、前記第1のフィルタを用いて平滑化を行った前記第1の分割領域画像の一部に対して、前記第2フィルタを用いて平滑化を行うことを特徴とする請求項1ないし請求項3いずれか一項に記載の画像処理装置。
  5. 前記抽出部は、前記第1の分割領域画像を前記画像の側端の中心を起点として、画像を上端方向または下端方向に走査して特徴点を抽出することを特徴とする請求項1ないし請求項4いずれか一項に記載の画像処理装置。
  6. 前記抽出部は、前記車両の規定進行方向に基づき、前記接近物が前記車両に近接する近接方向を規定し、前記近接方向に基づいて前記上端方向または前記下端方向の走査の優先度を付与することを特徴とする請求項5記載の画像処理装置。
  7. 車両の側方の情報を含む画像を取得し、
    前記画像を複数の領域に分割し、前記画像の側端の中心を含む第1の分割領域画像と、前記画像の側端の中心を含まない第2の分割領域画像とを規定し、
    前記第1の分割領域画像に対して第1のフィルタを用いて平滑化を行い、または前記第2の分割領域画像に対して前記第1のフィルタよりも大きい係数を有する第2のフィルタを用いて平滑化し、
    前記第1の分割領域画像または前記第2の分割領域画像から特徴点を抽出し、
    取得時間が異なる複数の前記第1の分割領域画像または前記第2の分割領域画像の特徴点からオプティカルフローを算出し、
    前記オプティカルフローに基づいて前記車両に接近する接近物を判定する
    処理をコンピュータが実行する画像処理方法。
JP2012069558A 2012-03-26 2012-03-26 画像処理装置、画像処理方法 Active JP5935435B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012069558A JP5935435B2 (ja) 2012-03-26 2012-03-26 画像処理装置、画像処理方法
US13/668,778 US9390336B2 (en) 2012-03-26 2012-11-05 Image processing device, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012069558A JP5935435B2 (ja) 2012-03-26 2012-03-26 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2013200778A true JP2013200778A (ja) 2013-10-03
JP5935435B2 JP5935435B2 (ja) 2016-06-15

Family

ID=49211437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012069558A Active JP5935435B2 (ja) 2012-03-26 2012-03-26 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US9390336B2 (ja)
JP (1) JP5935435B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089204A (ko) * 2016-12-13 2019-07-30 구글 엘엘씨 하드웨어에서의 평균 풀링의 수행

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009007342A1 (de) * 2009-02-04 2010-08-05 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer geltenden Fahrspurmarkierung
JP6102213B2 (ja) * 2012-11-22 2017-03-29 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
US10558870B2 (en) 2016-11-08 2020-02-11 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN108833920B (zh) * 2018-06-04 2022-02-11 四川大学 一种基于光流和块匹配的dvc边信息融合方法
CN115641359B (zh) * 2022-10-17 2023-10-31 北京百度网讯科技有限公司 确定对象的运动轨迹的方法、装置、电子设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3398934B2 (ja) * 1997-09-08 2003-04-21 矢崎総業株式会社 車両用監視方法
JP2005276056A (ja) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp ノーズビューモニタ装置
JP2005318568A (ja) * 2004-03-30 2005-11-10 Fuji Photo Film Co Ltd 画像補正装置、および画像補正方法
JP2008282106A (ja) * 2007-05-08 2008-11-20 Fujitsu Ltd 障害物検出方法および障害物検出装置
US20090174773A1 (en) * 2007-09-13 2009-07-09 Gowdy Jay W Camera diagnostics
JP2010211578A (ja) * 2009-03-11 2010-09-24 Nissan Motor Co Ltd 移動物体検出装置及び移動物体検出方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
GB0305304D0 (en) * 2003-03-07 2003-04-09 Qinetiq Ltd Scanning apparatus and method
US7190282B2 (en) * 2004-03-26 2007-03-13 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Nose-view monitoring apparatus
WO2005098366A1 (ja) * 2004-03-31 2005-10-20 Pioneer Corporation 経路案内システム及び方法
US8199198B2 (en) * 2007-07-18 2012-06-12 Delphi Technologies, Inc. Bright spot detection and classification method for a vehicular night-time video imaging system
US8259998B2 (en) * 2008-09-30 2012-09-04 Mazda Motor Corporation Image processing device for vehicle
JP5500369B2 (ja) * 2009-08-03 2014-05-21 アイシン精機株式会社 車両周辺画像生成装置
JP2011035776A (ja) * 2009-08-04 2011-02-17 Sanyo Electric Co Ltd 映像情報処理装置およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3398934B2 (ja) * 1997-09-08 2003-04-21 矢崎総業株式会社 車両用監視方法
JP2005276056A (ja) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp ノーズビューモニタ装置
JP2005318568A (ja) * 2004-03-30 2005-11-10 Fuji Photo Film Co Ltd 画像補正装置、および画像補正方法
JP2008282106A (ja) * 2007-05-08 2008-11-20 Fujitsu Ltd 障害物検出方法および障害物検出装置
US20090174773A1 (en) * 2007-09-13 2009-07-09 Gowdy Jay W Camera diagnostics
JP2010211578A (ja) * 2009-03-11 2010-09-24 Nissan Motor Co Ltd 移動物体検出装置及び移動物体検出方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089204A (ko) * 2016-12-13 2019-07-30 구글 엘엘씨 하드웨어에서의 평균 풀링의 수행
JP2020506454A (ja) * 2016-12-13 2020-02-27 グーグル エルエルシー ハードウェアにおける平均プーリングの実行
KR102315346B1 (ko) 2016-12-13 2021-10-19 구글 엘엘씨 하드웨어에서의 평균 풀링의 수행
KR20210127813A (ko) * 2016-12-13 2021-10-22 구글 엘엘씨 하드웨어에서의 평균 풀링의 수행
US11232351B2 (en) 2016-12-13 2022-01-25 Google Llc Performing average pooling in hardware
KR102370563B1 (ko) 2016-12-13 2022-03-03 구글 엘엘씨 하드웨어에서의 평균 풀링의 수행

Also Published As

Publication number Publication date
JP5935435B2 (ja) 2016-06-15
US9390336B2 (en) 2016-07-12
US20130250107A1 (en) 2013-09-26

Similar Documents

Publication Publication Date Title
JP5935435B2 (ja) 画像処理装置、画像処理方法
JP6031819B2 (ja) 画像処理装置、画像処理方法
US20160063705A1 (en) Systems and methods for determining a seam
JP6376429B2 (ja) 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6062122B2 (ja) 運転支援装置、運転支援方法及びプログラム
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6171593B2 (ja) 視差図からの対象追跡方法及びシステム
JPWO2018051459A1 (ja) 物体検出装置および物体検出方法
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP2017162116A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US9715632B2 (en) Intersection recognizing apparatus and computer-readable storage medium
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
WO2018211930A1 (ja) 物体検出装置、物体検出方法、及び、コンピュータが読取可能な記録媒体
WO2016063545A1 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP2018503195A (ja) 物体検出方法及び物体検出装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
KR101257871B1 (ko) 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법
JP5906696B2 (ja) 車両周辺撮影装置および車両周辺画像の処理方法
JP2015200976A (ja) 移動量推定装置、移動量推定方法、およびプログラム
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP2009077022A (ja) 運転支援システム及び車両
KR102458896B1 (ko) 세그멘테이션 맵 기반 차량 번호판 인식 방법 및 장치
JP4736611B2 (ja) 画像処理装置および画像処理方法
JP5891751B2 (ja) 画像間差分装置および画像間差分方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160119

TRDD Decision of grant or rejection written
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R150 Certificate of patent or registration of utility model

Ref document number: 5935435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150