JP5375958B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP5375958B2
JP5375958B2 JP2011519373A JP2011519373A JP5375958B2 JP 5375958 B2 JP5375958 B2 JP 5375958B2 JP 2011519373 A JP2011519373 A JP 2011519373A JP 2011519373 A JP2011519373 A JP 2011519373A JP 5375958 B2 JP5375958 B2 JP 5375958B2
Authority
JP
Japan
Prior art keywords
image
unit
vanishing point
camera
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011519373A
Other languages
English (en)
Other versions
JPWO2010146695A1 (ja
Inventor
誠也 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2010146695A1 publication Critical patent/JPWO2010146695A1/ja
Application granted granted Critical
Publication of JP5375958B2 publication Critical patent/JP5375958B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像を処理する画像処理装置等に関する。
近年、移動体の周囲に設置した複数のカメラが撮影した画像を用いて、移動体を上方から撮影したような俯瞰(鳥瞰)図や、各画像を合成して360度のパノラマ画像を表示する技術が普及している。このように、カメラが撮影した画像を俯瞰図などに変換する場合や、各画像を合成してパノラマ画像を表示するためには、カメラの位置(x座標、y座標、z座標)や角度(俯角ψ、回転角φ、パン角θ)等のパラメータを用いる。
移動体にカメラを設置する場合、カメラの各パラメータは取り付け条件によって異なり、取り付け誤差を含むため、カメラの各パラメータを正確に求めるためのキャリブレーションが必要となる。カメラを搭載する移動体については、出荷時に特殊な冶具を利用してキャリブレーションを行う。しかし、出荷後の経年劣化やカメラ取り付け部分の劣化などによりカメラのパラメータが徐々に変化する。
例えば、カメラの角度に変化が生じると、カメラから画像上で抽出した対象物までの距離算出結果が変化してしまうので、俯瞰画像やパノラマ画像が適切に表示されなくなる。そのため、出荷後もカメラのキャリブレーションを実行することが望ましい。なお、出荷後は、特殊な冶具を利用することが困難であり、特殊な冶具を利用しないでキャリブレーションを実行することが求められる。
出荷後にキャリブレーションを行う技術として、移動体が走行する直線道路の左右の白線を抽出し、抽出した白線に基づいてカメラのキャリブレーションを実行する技術が考案されている。また、路面にペイントされた標識の幾何形状を用いてカメラのキャリブレーションを実行する技術も知られている。
特開2003−329411号公報 特開2001−225709号公報 特開2008−11174号公報 特開2000−11133号公報 特開2004−205398号公報
しかしながら、上述した従来の技術では、カメラで撮影した画像中の路面が平面であることや、白線やペイントが想定した形状を満たしていることを前提としている。しかし、前記前提を満たしていない場合には、従来の技術を適用することが出来ないという問題があった。
また、白線やペイントが想定した形状を満たしていたとしても、ペイントや白線を他車両が遮っている場合には、同様に従来の技術を適用することが出来ない。このように、白線やペイントが歪んでいることや、ペイントや白線を他車両が遮るような状況は、実際の交通環境では多々発生する状況である。
従って、カメラのパラメータがずれていたとしても、キャリブレーションを実行可能な状況になかなかめぐり合うことが出来ず、キャリブレーションを適切に実行できていない。
本発明は、上記に鑑みてなされたものであって、実際の交通環境に左右されないで、出荷後のキャリブレーションの実行時期を正確に判定可能な画像処理装置および画像処理方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、この画像処理装置は、移動体に設置されたカメラから当該移動体の走行中に撮影された画像を取得し、取得した画像を積算した積算画像を生成する積算部と、前記積算画像から輝度エッジを抽出し、当該輝度エッジに基づいて決定した各直線の交点を消失点として特定する消失点特定部と、前記消失点の座標と基準座標とを基にして、前記カメラのパラメータが適切な値であるか否かを判定する判定部とを有することを要件とする。
本発明にかかる画像処理装置は、実際の交通環境に左右されないで、出荷後のキャリブレーションの実行時期を正確に判定することが出来る。
図1は、本実施例1にかかる画像処理装置の構成を示す図である。 図2は、カメラのパラメータを説明するための図である。 図3は、本実施例2にかかるキャリブレーション装置の構成を示す図である。 図4は、キャリブレーション装置の処理の概要を説明するための図(1)である。 図5は、キャリブレーション装置の処理の概要を説明するための図(2)である。 図6は、直進している車両を示す図である。 図7は、カメラが撮影した映像の一例を示す図である。 図8は、720×480画素のモノクロ画像の一例を示す図である。 図9は、画像積算平均処理部の構成を示す図である。 図10は、レンズ歪み補正部の処理を説明するための図である。 図11は、エッジ抽出部の処理を説明するための図である。 図12は、キャリブレーション装置の処理手順を示すフローチャートである。 図13は、走行状態判定部の処理手順を示すフローチャートである。 図14は、実施例にかかるキャリブレーション装置を構成するコンピュータのハードウェア構成を示す図である。
以下に、本発明にかかる画像処理装置および画像処理方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1にかかる画像処理装置の構成を示す図である。図1に示すように、この画像処理装置100は、カメラ10、積算部110、消失点特定部120、判定部130を有する。
積算部110は、移動体に設置されたカメラ10から移動体の走行中に撮影された画像を取得し、取得した画像を積算した積算画像を生成する処理部である。
消失点特定部120は、積算画像から輝度エッジを抽出し、輝度エッジに基づいて決定した各直線の交点を消失点として特定する処理部である。
判定部130は、消失点の座標と基準座標とを基にして、カメラのパラメータが適切な値であるか否かを判定する処理部である。
上記の画像処理装置100によれば、積算画像から消失点を求めるので、実際の交通環境に左右されないで、出荷後にカメラのキャリブレーションを実行すべきか否かを判定できる。
まず、カメラのパラメータについて説明する。図2は、カメラのパラメータを説明するための図である。図2に示すように、カメラ10のパラメータは、カメラ10を原点とするカメラ座標系X、Y、Z軸において、カメラのX軸周りの角度を示す俯角ψ、Z軸周りの角度を示す回転角φ、Y軸周りの角度を示すパン角θを有する。なお、Z軸はカメラ10の光軸に対応する。
次に、本実施例2にかかるキャリブレーション装置の構成について説明する。図3は、本実施例2にかかるキャリブレーション装置の構成を示す図である。図3に示すように、このキャリブレーション装置200は、カメラ10、舵角センサ11、車速センサ12、走行状態判定部201、画像処理部202、輝度画像変換部203、画像積算平均処理部204、レンズ歪み補正部205を有する。また、キャリブレーション装置200は、エッジ抽出部206、消失点抽出部207、消失点格納部208、誤差判定部209、HMI210、補正処理部211、カメラパラメータ格納部212を有する。キャリブレーション装置200は、例えば、車両内に設置されているものとする。
ここで、各処理部の詳細な説明を行う前に、キャリブレーション装置200の処理の概要について説明する。図4および図5は、キャリブレーション装置の処理の概要を説明するための図である。
図4に示すように、キャリブレーション装置200は、カメラ10が撮影した画像を積算し、積算した画像を平均化することで、積算平均した輝度画像を生成する。以下の説明において、積算平均した輝度画像を積算平均画像と表記する(ステップS10)。例えば、本実施例2にかかるキャリブレーション装置200は、1024フレームの画像を積算し、積算した画像の各画素の輝度値を1024で割ることで、積算平均画像を生成する。
キャリブレーション装置200は、カメラ10のレンズ歪みを考慮して、積算平均画像に対するレンズ歪み補正を実行する(ステップS11)。
続いて、図5に移行する。キャリブレーション装置200は、レンズ歪み補正後の積算画像にフィルタリング処理を実行することで、積算平均画像からエッジを抽出する(ステップS12)。以下の説明において、エッジを抽出された積算平均画像をエッジ画像と表記する。
キャリブレーション装置200は、エッジ画像に含まれるエッジの点列をつないだ直線を消失線として算出する。また、キャリブレーション装置200は、各消失線の交点を消失点として算出する(ステップS13)。キャリブレーション装置200は、算出した消失点と基準消失点とを比較し、各消失点の距離が閾値以上となる場合に、キャリブレーションを実行すると判定する。
図6は、直進している車両を示す図である。車両に設置されたカメラ10に撮影された静止物体は、相対的に車両の動きの逆方向に移動するため、カメラ10の画像中で、移動方向と平行な軌跡を描く。従って、カメラ10が撮影した画像から積算平均画像を生成すると、図4に示したように、車両の進行方向と一致しない方向に伸びる輝度勾配は平均化され、移動方向と平行な輝度勾配のみが強く残る。
そして、図5で説明したように、キャリブレーション装置200が、輝度勾配をフィルタリングすることで、輝度エッジを求めると、この輝度エッジは、車両の動きによって生成された消失線と一致する。キャリブレーション装置200は、各消失線の交点を算出することで、消失点を決定することが出来る。
続いて、図3に示した各処理部の説明を行う。カメラ10は、映像を撮影するカメラである。カメラ10は、撮影した映像のデータを画像処理部202、輝度画像変換部203に出力する。図7は、カメラが撮影した映像の一例を示す図である。
舵角センサ11は、車両の舵角を検出するセンサである。舵角センサ11は、舵角のデータを走行状態判定部201に出力する。車速センサ12は、車両の速度を検出するセンサである。車速センサ12は、車速のデータを走行状態判定部201に出力する。
走行状態判定部201は、舵角のデータおよび車速のデータを基にして、現在の車両の走行状態が、消失点の算出に適しているか否かを判定する処理部である。具体的に、走行状態判定部201は、現在の舵角の絶対値が基準舵角(例えば、1deg)未満であり、かつ、現在の速度の絶対値が基準速度(例えば、30km/s)以上の場合に、消失点の算出に適していると判定する。
一方、走行状態判定部201は、現在の舵角の絶対値が基準舵角以上である場合、または、現在の速度の絶対値が基準速度未満の場合に、消失点の算出に適していないと判定する。
走行状態判定部201は、消失点の算出に適していると判定した場合には、画像積算平均処理部204のフラグをオンに設定する。走行状態判定部201は、消失点の算出に適していないと判定した場合には、画像積算平均処理部204のフラグをオフに設定する。
画像処理部202は、カメラパラメータ格納部212に格納されたカメラのパラメータを基にして、カメラ10から出力された映像を解析する処理部である。例えば、画像処理部202は、白線の画像上の座標を特定し、白線が画像上の所定範囲に進入した場合に、車両が車線を逸脱したと判定し、ユーザに警告を行う。または、画像処理装置202は、映像に含まれる障害物を検出し、ユーザに衝突警報を出力してもよい。
輝度画像変換部203は、カメラ10から出力される映像を、720×480画素のモノクロ画像に変換し、変換したモノクロ画像を画像積算平均部204に出力する処理部である。図8は、720×480画素のモノクロ画像の一例を示す図である。なお、モノクロ画像の各画素は、それぞれ8bitの情報(輝度値)を有しているものとする。
画像積算平均処理部204は、輝度画像変換部203から順次モノクロ画像を取得し、各モノクロ画像を積算、平均化することで、積算平均画像を生成する処理部である。画像積算平均処理部204は、積算平均画像をレンズ歪み補正部205に出力する。
なお、画像積算平均処理部204は、フラグがオンになっている間に輝度画像変換部203から取得したモノクロ画像を積算する。画像積算平均処理部204は、フラグがオフになっている間に輝度画像変換部203から取得したモノクロ画像は、積算せず、破棄する。
ここで、画像積算平均処理部204の構成について説明する。図9は、画像積算平均処理部204の構成を示す図である。図9に示すように、この画像積算平均処理部204は、フレームバッファ204a、画像積算部204b、フレームカウンタ204c、画像出力部204d、初期化部204eを有する。
フレームバッファ204aは、720×480個の記憶領域を有する二次元メモリである。フレームバッファ204aの各記憶領域は、それぞれ20bitの情報を記憶する。
画像積算部204bは、モノクロ画像を輝度画像変換部203から取得し、モノクロ画像の各輝度値と、フレームバッファ204aの各輝度値とを加算し、加算結果をフレームバッファ204aの該当記憶領域に戻す処理を繰り返し実行する処理部である。
具体的に、画像積算部204bは、フレームバッファ204aのn行目m列目(n=1〜480、m=1〜720)の記憶領域に記憶された20bitの輝度値を取得する。画像積算部204bは、フレームバッファ204aから取得した輝度値と、モノクロ画像のn行目m列目の画素の輝度値(8bit)とを加算し、加算結果を、フレームバッファ204aのn行目m列目の記憶領域に格納する。
画像積算部204bは、画像積算部204bのフラグがオン状態で、輝度画像変換部203からモノクロ画像を取得する度に、上記の加算処理を繰り返し実行する。そして、画像積算部204bは、加算処理を実行するたびにフレームカウンタ204cのフレーム数に1を加算する。画像積算部204bのフラグがオン状態の間は、車両は直進走行中である。
なお、画像積算部204bは、画像積算部204bのフラグがオフ状態で、輝度画像変換部203からモノクロ画像を取得した場合には、上記の加算処理を実行することなく、取得したモノクロ画像を破棄する。画像積算部204bのフラグがオフ状態の間は、車両は直進走行中ではない。
フレームカウンタ204cは、積算したフレーム数を格納する記憶部である。フレームカウンタ204cに格納されるフレーム数の初期値は0となる。
画像出力部204dは、フレームカウンタ204cのフレーム数が1024となった時点で、フレームバッファ204aの各記憶領域に記憶された加算値(20bit)を取得し、各加算値をそれぞれ1024で割る(16bit右シフトする)ことで、積算平均画像を生成する処理部である。画像出力部204dは、積算平均画像をレンズ歪み補正部205に出力する。画像出力部204dは、積算平均画像を生成した後に、初期化部204eに制御信号を出力する。
初期化部204eは、画像出力部204dから制御信号を取得した場合に、フレームバッファ204aの各記憶領域の情報を0に設定すると共に、フレームカウンタ204cのフレーム数を0に設定する。
図3の説明に戻る。レンズ歪み補正部205は、画像積算平均処理部204から積算平均画像を取得した場合に、積算平均画像のレンズ歪みを補正する処理部である。レンズ歪み補正部205は、レンズ歪みを補正した積算平均画像をエッジ抽出部206に出力する。
レンズ歪み補正部205が積算平均画像のレンズ歪みを補正することで、積算平均画像の投影を理想的な透視法投影に変換する。
具体的に、レンズ歪み補正部205は、変換テーブルを有し、変換テーブルに基づいて、積算平均画像を補正する。図10は、レンズ歪み補正部205の処理を説明するための図である。図10に示すように、変換テーブルは、補正前の座標と、補正後の座標とを対応付けて記憶している。例えば、変換テーブルの1行目では、補正前のx、y座標が(10、2)であり、補正後のx、y座標が(0、0)となっている。
レンズ歪み補正部205は、変換テーブルの1行目を参照し、積算平均画像の座標(10、2)の輝度値を、座標(0、0)に移す。レンズ歪み補正部205は、他の行も同様に参照し、積算平均画像の輝度値を他の座標に移すことで、積算平均画像を補正する。
なお、レンズ歪み補正部205は、変換テーブルを用いる代わりに、入射角と画像高からなるレンズ歪みのデータを基にして、逐次積算平均画像の補正を行っても良い。
エッジ抽出部206は、レンズ歪み補正部205から補正後の積算平均画像を取得し、積算平均画像にフィルタリング処理を実行することで、積算平均画像からエッジを抽出したエッジ画像を生成する処理部である。エッジ抽出部206は、エッジ画像をエッジ抽出部206に出力する。
図11は、エッジ抽出部206の処理を説明するための図である。エッジ抽出部206は、積算平均画像にフィルタをあて、フィルタの各値と該当する積算平均画像上の各輝度値を乗算し、各乗算結果を足し合わせる。そして、エッジ抽出部206は、各乗算結果を足し合わせた結果が、一定の閾値(例えば100)を越えた場合に、フィルタの中心ブロックに対応する輝度値を128に設定する。一方、エッジ抽出部206は、各乗算結果を足し合わせた結果が、一定の閾値(例えば−100)以下になる場合に、フィルタの中心ブロックに対応する輝度値を−128に設定する。各乗算結果がいずれの条件も満たさない場合は、フィルタの中心ブロックに対応する輝度値を0に設定する。
例えば、フィルタと重なる積算平均画像の領域において、a行目b列目の輝度値をBabとし、各乗算結果を足し合わせた結果をAとすると、
A=−1×B11+−1×B12+−1×B13+0×B21+0×B22++0×B23+1×B31+1×B32+−1×B33
となる。エッジ抽出部206は、Aが正の場合として例えば100以上の場合に、B22に対応する輝度値を128に設定し、Aが負の場合として例えば−100以下の場合に、B22に対応する輝度値を−128に設定し、それ以外の場合は輝度値を0に設定する。
エッジ抽出部206は、フィルタを積算平均画像上にて移動させ、順次積算平均画像の輝度値を設定することで、エッジ画像を生成する。
図3の説明に戻る。消失点抽出部207は、エッジ抽出部206からエッジ画像を取得し、エッジ画像に基づいて消失点の座標を算出する処理部である。消失点抽出部207は、エッジ画像に含まれる輝度値128の点列を直線でつなぐことで、消失線を算出する。また、消失点抽出部207は、エッジ画像に含まれる輝度値−128の点列を直線でつなぐことで、消失線を算出する。消失点抽出部207は、点列から消失線を算出する場合に、周知のHough変換を利用しても良い。
消失点抽出部207は、消失線を算出した後に、各消失線の交点を求め、求めた交点の座標を消失点の座標とする。消失点抽出部207は、消失点の座標を誤差判定部209に出力する。また、消失点抽出部207は、消失線の情報も誤差判定部209に出力する。
消失点格納部208は、基準となる消失点の座標を格納する記憶部である。以下の説明において、基準となる消失点の座標を基準消失点座標と表記する。
誤差判定部209は、消失点抽出部207から取得した消失点の座標と、基準消失点座標とを比較して、カメラ10のパラメータを再調整するか否かを判定する処理部である。誤差判定部209は、消失点抽出部207から取得した消失点の座標と、基準消失点座標との距離が閾値以上の場合に、パラメータの再調整が必要であると判定する。誤差判定部209は、パラメータの再調整が必要であると判定した場合に、パラメータの再調整が必要である旨の情報を、HMI210、補正処理部211に出力する。また、誤差判定部209は、消失点の座標を補正処理部211に出力する。
HMI(Human Machine Interface)210は、誤差判定部209からパラメータの再調整が必要である旨の情報を取得した場合に、画像処理部202を介して、パラメータの再調整が必要である旨をディスプレイ(図示略)に表示する処理部である。
補正処理部211は、誤差判定部209からパラメータの再調整が必要である旨の情報を取得した場合に、カメラパラメータ格納部212に格納されたパラメータの補正を行う処理部である。
補正処理部211は、誤差判定部209から取得した消失点の座標と、消失点格納部208の基準消失点座標とのずれを算出し、算出したずれに基づいて、パラメータの補正を行う。具体的に、補正処理部211は、XY座標系(X軸は画像の平行方向、Y軸は画像の垂直方向)において、消失点の座標と基準消失点座標とのX軸のずれXs、Y軸のずれYsを算出する。
例えば、補正処理部211は、ずれ角Δψ、Δθを
Δψ=tan−1(Xs/Lx)
Δθ=tan−1(Ys/Ly)
により算出する。なお、Lx、Lyはカメラ10の焦点距離である。
補正処理部211は、カメラパラメータ格納部212に格納されたパラメータの俯角ψにΔψを加え、パン角θにΔθを加えることで、パラメータを補正する。また、補正処理部211は、パラメータの補正が完了した後に、誤差判定部209から取得した消失点の座標を、基準消失点座標として、消失点格納部208に格納する。なお、補正処理部211は、消失点格納部208に格納されていた過去の基準消失点座標を破棄する。
カメラパラメータ格納部212は、カメラ10のパラメータを格納する記憶部である。カメラパラメータ格納部212は、上述したパラメータのほかに、カメラ10の3次元座標(x、y、z)も記憶しておいても良い。
次に、本実施例2にかかるキャリブレーション装置200の処理手順について説明する。図12は、キャリブレーション装置200の処理手順を示すフローチャートである。図12に示すように、キャリブレーション装置200は、カメラ10から映像データを取得し(ステップS101)、映像データをモノクロ画像に逐次変換する(ステップS102)。
キャリブレーション装置200は、画像を積算し、積算した画像を平均化し(ステップS103)、積算平均画像のレンズ歪みを補正する(ステップS104)。キャリブレーション装置200は、積算平均画像からエッジを抽出し(ステップS105)、消失点の座標を算出する(ステップS106)。
キャリブレーション装置200は、基準消失点座標と現在の消失点の座標を比較して、各消失点座標の距離が閾値以上となるか否かを判定する(ステップS107)。キャリブレーション装置200は、各消失点座標の距離が閾値未満の場合に(ステップS108,No)、処理を終了する。
一方、キャリブレーション装置200は、各消失点座標の距離が閾値以上の場合に(ステップS108,Yes)、再調整が必要である旨を通知し(ステップS109)、カメラのパラメータを補正する(ステップS110)。
次に、図3の走行状態判定部201の処理手順について説明する。図13は、走行状態判定部201の処理手順を示すフローチャートである。図13に示すように、走行状態判定部201は、舵角センサ11および車速センサから舵角、車速を取得し(ステップS201)、舵角の絶対値が1deg未満であるか否かを判定する(ステップS202)。
走行状態判定部201は、舵角の絶対値が1deg以上の場合に(ステップS203,No)、画像積算平均処理部204のフラグをオフに設定する(ステップS204)。走行状態判定部201は、舵角の絶対値が1deg未満の場合に(ステップS203,Yes)、車速の絶対値が30km以上であるか否かを判定する(ステップS205)。
走行状態判定部201は、車速の絶対値が30km未満の場合に(ステップS206,No)、ステップS204に移行する。一方、走行状態判定部201は、車速の絶対値が30km以上の場合に(ステップS206,Yes)、フラグをオンに設定する(ステップS207)。
上述してきたように、本実施例2にかかるキャリブレーション装置200は、車両走行中の画像を積算・平均化することで、消失線を特定するので、平坦な路面や平行な路側線(白線)が無い状況でも動きの消失線を算出することができるので、実際の交通環境に左右されないで、出荷後にキャリブレーションの適切に実行することが出来る。すなわち、交通環境に左右されないで、カメラのパラメータを正確に補正することが出来る。
また、本実施例2にかかるキャリブレーション装置200は、舵角センサ11、車速センサ12から出力される舵角、車速に基づいて、画像の積算を中断するので、消失点にずれを生じさせるような線開示の映像を積算してしまうことを回避することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1、2以外にも種々の異なる形態にて実施されてよいものである。そこで、以下では実施例3として本発明に含まれる他の実施例を説明する。
(1)走行状態の判定について
上記の実施例2では、走行状態判定部201が、舵角センサ11、車速センサ12を用いて車両が直進しているか否かを判定していたがこれに限定されるものではない。走行状態判定部201は、その他のセンサ、例えば、加速度センサやジャイロセンサを用いて、車両の走行状態を判定しても良い。
(2)システムの構成など
本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、図3にて説明した輝度画像変換部203、画像積算平均処理部204、レンズ歪み補正部205、エッジ抽出部206、消失点抽出部207、誤差判定部209、消失点格納部208、補正処理部211に対応する機能をサーバに持たせ、かかるサーバに、カメラの撮影した画像や、パラメータ等の各データを送信することで、サーバが、パラメータの補正を実行するように構成しても良い。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図14は、実施例にかかるキャリブレーション装置200を構成するコンピュータのハードウェア構成を示す図である。図14に示すように、このコンピュータ(キャリブレーション装置)300は、入力装置301、モニタ302、カメラ303、舵角センサ、車速センサ等の各種センサ304、RAM(Random Access Memory)305を有する。また、コンピュータ300は、ROM(Read Only Memory)306、他の装置と通信を行う通信制御装置307、記憶媒体からデータを読み取る媒体読取装置308、CPU(Central Processing Unit)309、HDD(Hard Disk Drive)310を有する。各装置301〜310は、バス311に接続する。
HDD310には、上記したキャリブレーション装置200の機能と同様の機能を発揮するキャリブレーションプログラム310bが記憶されている。CPU309がキャリブレーションプログラム310bを読み出して実行することにより、キャリブレーションプロセス309aが起動される。ここで、キャリブレーションプロセス309aは、図3に示した、走行状態判定部201、画像処理部202、輝度画像変換部203、画像積算平均処理部204、レンズ歪み補正部205、エッジ抽出部206、消失点抽出部207、誤差判定部209、HMI210、補正処理部211に対応する。
また、HDD310は、消失点格納部208、パラメータ格納部212に記憶される情報に対応する各種データ310aを記憶する。CPU309は、HDD310に格納された各種データ310aを読み出して、RAM305に格納し、RAM305に格納された各種データ305aおよびカメラ303に撮影された画像、各種センサ304からの情報に基づいて、パラメータを補正する。
ところで、図14に示したキャリブレーションプログラム310bは、必ずしも最初からHDD310に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などにキャリブレーションプログラム310bを記憶しておき、コンピュータがこれらからキャリブレーションプログラム310bを読み出して実行するようにしてもよい。
10,303 カメラ
11 舵角センサ
12 車速センサ
100 画像処理装置
110 積算部
120 消失点特定部
130 判定部
200 キャリブレーション装置
201 走行状態判定部
202 画像処理装置
203 輝度画像変換部
204 画像積算平均処理部
205 レンズ歪み補正部
206 エッジ抽出部
207 消失点抽出部
208 消失点格納部
209 誤差判定部
210 HMI
211 補正処理部
212 カメラパラメータ格納部
300 コンピュータ
301 入力装置
302 モニタ
304 各種センサ
305 RAM
306 ROM
307 通信制御装置
308 媒体読取装置
309 CPU
309a キャリブレーションプロセス
310 HDD
310a 各種データ
310b キャリブレーションプログラム
311 バス

Claims (5)

  1. 移動体に設置されたカメラから当該移動体の移動中に撮影された各画像の輝度値を画素毎に加算し、加算した輝度値を画素毎に平均化することで、積算画像を生成する積算部と、
    前記積算画像から輝度エッジを抽出し、当該輝度エッジに基づいて決定した各直線の交点を消失点として特定する消失点特定部と、
    前記消失点の座標と基準座標とを基にして、前記カメラのパラメータが適切な値であるか否かを判定する判定部と
    を有することを特徴とする画像処理装置。
  2. 前記積算部は、速度センサから前記移動体の移動速度を取得し、取得した移動速度が規定の速度以上の間に、前記カメラから取得した画像を積算することで前記積算画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記積算部は、舵角センサから前記移動体の舵角を取得し、取得した舵角が規定の舵角未満の間に、前記カメラから取得した画像を積算することで前記積算画像を生成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記消失点の座標と前記基準座標との差に基づいて、前記カメラのパラメータを補正する補正部を更に有することを特徴とする請求項3に記載の画像処理装置。
  5. 画像処理装置が、
    移動体に設置されたカメラから当該移動体の移動中に撮影された各画像の輝度値を画素毎に加算し、加算した輝度値を画素毎に平均化することで、積算画像を生成する積算ステップと、
    前記積算画像から輝度エッジを抽出し、当該輝度エッジに基づいて決定した各直線の交点を消失点として特定する消失点特定ステップと、
    前記消失点の座標と基準座標とを基にして、前記カメラのパラメータが適切な値であるか否かを判定する判定ステップと
    を含んだことを特徴とする画像処理方法。
JP2011519373A 2009-06-18 2009-06-18 画像処理装置および画像処理方法 Expired - Fee Related JP5375958B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/061127 WO2010146695A1 (ja) 2009-06-18 2009-06-18 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2010146695A1 JPWO2010146695A1 (ja) 2012-11-29
JP5375958B2 true JP5375958B2 (ja) 2013-12-25

Family

ID=43356033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011519373A Expired - Fee Related JP5375958B2 (ja) 2009-06-18 2009-06-18 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US9412168B2 (ja)
JP (1) JP5375958B2 (ja)
WO (1) WO2010146695A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9357208B2 (en) * 2011-04-25 2016-05-31 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
EP2720213A4 (en) * 2011-06-13 2015-03-11 Nissan Motor DEVICE FOR DETERMINING A ROAD PROFILE, VEHICLE INTERNAL IMAGE RECOGNITION DEVICE, APPARATUS FOR ADJUSTING A PICTURE BASE AXIS AND TRACE RECOGNITION METHOD
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
JP5923422B2 (ja) * 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
US9135705B2 (en) * 2012-10-16 2015-09-15 Qualcomm Incorporated Sensor calibration and position estimation based on vanishing point determination
JP5936527B2 (ja) * 2012-12-10 2016-06-22 三菱電機株式会社 画像処理装置および画像処理方法
WO2014142367A1 (ko) * 2013-03-13 2014-09-18 엘지전자 주식회사 전자 기기 및 그것의 제어 방법
KR102299081B1 (ko) * 2013-12-03 2021-09-08 팅크웨어(주) 전자 장치 및 그의 제어 방법
JP6201148B2 (ja) 2013-12-20 2017-09-27 パナソニックIpマネジメント株式会社 キャリブレーション装置、キャリブレーション方法、キャリブレーション機能を備えた移動体搭載用カメラ及びプログラム
JP6326624B2 (ja) * 2014-04-02 2018-05-23 パナソニックIpマネジメント株式会社 キャリブレーション装置、キャリブレーション方法、キャリブレーション機能を備えたカメラ及びプログラム
KR102225620B1 (ko) * 2014-04-03 2021-03-12 한화테크윈 주식회사 카메라 모델링 시스템
US9674433B1 (en) * 2014-07-24 2017-06-06 Hoyos Vsn Corp. Image center calibration for a quadric panoramic optical device
KR101748269B1 (ko) * 2015-11-11 2017-06-27 현대자동차주식회사 자율 주행 차량의 조향 제어 방법 및 장치
KR101677232B1 (ko) 2015-11-27 2016-11-30 중앙대학교 산학협력단 자동차 카메라 보정 장치 및 방법
US10846541B2 (en) * 2017-01-04 2020-11-24 Qualcomm Incorporated Systems and methods for classifying road features
JP6635056B2 (ja) * 2017-01-17 2020-01-22 トヨタ自動車株式会社 車両用運転支援装置
US11089288B2 (en) * 2017-09-11 2021-08-10 Tusimple, Inc. Corner point extraction system and method for image guided stereo camera optical axes alignment
US11158088B2 (en) 2017-09-11 2021-10-26 Tusimple, Inc. Vanishing point computation and online alignment system and method for image guided stereo camera optical axes alignment
JP7003669B2 (ja) * 2018-01-10 2022-01-20 株式会社アイシン 表面検査装置、及び表面検査方法
GB2579843A (en) * 2018-12-18 2020-07-08 Continental Automotive Gmbh Method and apparatus for calibrating the extrinsic parameter of an image sensor
JP7191671B2 (ja) * 2018-12-19 2022-12-19 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
KR101989370B1 (ko) * 2019-02-19 2019-06-14 주식회사 리트빅 차선인식 기반의 svm 다이나믹 오토 캘리브레이션 방법
JP7217577B2 (ja) * 2019-03-20 2023-02-03 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
JP7132271B2 (ja) * 2020-03-31 2022-09-06 本田技研工業株式会社 挙動制御システム
CN112183512B (zh) * 2020-12-02 2021-11-19 深圳佑驾创新科技有限公司 摄像头标定方法、装置、车载终端和存储介质
WO2023026626A1 (ja) * 2021-08-24 2023-03-02 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理システム、信号処理方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777431A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd カメラ姿勢パラメータ算出方法
JPH09189517A (ja) * 1996-01-09 1997-07-22 Toyota Motor Corp 撮像装置
JP2000011133A (ja) * 1998-06-19 2000-01-14 Toshiba Corp 移動物体検出装置及びその方法
JP2000242899A (ja) * 1999-02-24 2000-09-08 Mitsubishi Electric Corp 白線認識装置
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP2003329411A (ja) * 2002-05-14 2003-11-19 Matsushita Electric Ind Co Ltd カメラ校正装置
JP2005157670A (ja) * 2003-11-25 2005-06-16 Denso Corp 白線検出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638116A (en) 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3841142B2 (ja) 2000-02-16 2006-11-01 三菱自動車工業株式会社 車両用撮像装置
JP3822468B2 (ja) * 2001-07-18 2006-09-20 株式会社東芝 画像処理装置及びその方法
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
JP4019933B2 (ja) 2002-12-26 2007-12-12 日産自動車株式会社 車両用レーダ装置およびレーダの光軸調整方法
JP4820221B2 (ja) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
EP2048878B1 (en) * 2007-08-03 2011-10-26 Panasonic Corporation Imaging device, imaging method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777431A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd カメラ姿勢パラメータ算出方法
JPH09189517A (ja) * 1996-01-09 1997-07-22 Toyota Motor Corp 撮像装置
JP2000011133A (ja) * 1998-06-19 2000-01-14 Toshiba Corp 移動物体検出装置及びその方法
JP2000242899A (ja) * 1999-02-24 2000-09-08 Mitsubishi Electric Corp 白線認識装置
JP2002259995A (ja) * 2001-03-06 2002-09-13 Nissan Motor Co Ltd 位置検出装置
JP2003329411A (ja) * 2002-05-14 2003-11-19 Matsushita Electric Ind Co Ltd カメラ校正装置
JP2005157670A (ja) * 2003-11-25 2005-06-16 Denso Corp 白線検出装置

Also Published As

Publication number Publication date
US9412168B2 (en) 2016-08-09
US20120081512A1 (en) 2012-04-05
JPWO2010146695A1 (ja) 2012-11-29
WO2010146695A1 (ja) 2010-12-23

Similar Documents

Publication Publication Date Title
JP5375958B2 (ja) 画像処理装置および画像処理方法
JP6995188B2 (ja) 車載カメラの姿勢推定方法、装置およびシステムならびに電子機器
CN108805934B (zh) 一种车载摄像机的外部参数标定方法及装置
JP4832321B2 (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
EP3859593A1 (en) Vehicle feature acquisition method and device
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP6086424B2 (ja) 車載画像処理装置
JP2018092596A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP6152261B2 (ja) 車載用駐車枠認識装置
JP2017211200A (ja) カメラ校正装置及びカメラ校正方法
JP2008309519A (ja) 画像処理を用いた物体検出装置
JP2011175572A (ja) 車線認識装置
JP2014106739A (ja) 車載画像処理装置
JP7259309B2 (ja) 画像処理装置および画像処理方法
JP6768554B2 (ja) キャリブレーション装置
JP2007018451A (ja) 道路区画線検出装置
JP5832850B2 (ja) 車線監視システム及び車線監視方法
US11403770B2 (en) Road surface area detection device
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
JP4026641B2 (ja) 物体検出装置、および物体検出方法
CN113903103A (zh) 局部图像生成装置、局部图像生成方法以及存储介质
JP4040620B2 (ja) 車両周辺監視装置
JP2016111585A (ja) 画像処理装置、システム、画像処理方法、およびプログラム
JP6477246B2 (ja) 路面標示検出装置及び路面標示検出方法
JP6432033B2 (ja) 車載装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees