JP3782322B2 - In-vehicle image processing camera device - Google Patents

In-vehicle image processing camera device Download PDF

Info

Publication number
JP3782322B2
JP3782322B2 JP2001210629A JP2001210629A JP3782322B2 JP 3782322 B2 JP3782322 B2 JP 3782322B2 JP 2001210629 A JP2001210629 A JP 2001210629A JP 2001210629 A JP2001210629 A JP 2001210629A JP 3782322 B2 JP3782322 B2 JP 3782322B2
Authority
JP
Japan
Prior art keywords
image processing
road surface
recognition
vehicle
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001210629A
Other languages
Japanese (ja)
Other versions
JP2003032669A (en
Inventor
次郎 竹崎
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2001210629A priority Critical patent/JP3782322B2/en
Publication of JP2003032669A publication Critical patent/JP2003032669A/en
Application granted granted Critical
Publication of JP3782322B2 publication Critical patent/JP3782322B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は車載用の画像処理カメラ装置に関し、特にカラーの撮像デバイスを使用した画像の認識性能を向上するための前処理に関する。
【0002】
【従来の技術】
近年、車両に画像認識処理機能を有する画像処理カメラを応用したシステムの開発が多くなされている。例えば、図2に示すように、白線を認識する車載用の画像処理カメラ装置は、画像処理カメラ1を車両2のフロントガラスの内側に設置して、車両前方の路面3を撮影する。
【0003】
図3は画像処理カメラ1で撮影した路面の画像例で、道路の境界を示す白線31、車線の中央分離を示すセンターライン32、路面30を表示している。33は地平線である。
【0004】
車線認識装置は、この白線31、32を認識してそれらの線分の傾きを計算することに車線に対する自車の向きおよび、白線31、32までの距離を測定することにより、自車の横方向位置を検知する。この白線認識結果を用いて、車線からの逸脱警報や、自動車線維持システムなどが構築できる。このような装置の例は、特開平11−242735号等に詳しい。
【0005】
このような白線認識装置は、白線が明瞭に撮像される場合には極めて安定に動作し、白線認識が行われる。図4に白線認識の構成例を示す。画像処理装置1は、カメラ11で撮影された映像信号を画像取込み回路12およびマイコン16に内蔵されているダイレクト・メモリ・アクセス回路(DMA)160により、書き込み・読み出し可能なメモリ(RAM)14に取り込み、読み出し専用メモリ(ROM)15に記憶されたプログラムにしたがい、例えば、白線の認識がなされる。認識結果は、通信ポート161を経由して、警報装置などに送り出される。
【0006】
車載環境では、撮像対象の路面の明るさが大きく変わるため、カメラ11の感度をダイナミックに変更する必要がある。このため、マイコン16から内蔵の通信回路162を介して、カメラ11に明るさを制御するコマンドを送るようにしている。
【0007】
【発明が解決しようとする課題】
従来、白線の認識などに使用される撮像デバイスは白黒カメラが多く用いられている。カラーデバイスが用いられる場合にも、輝度信号のみを使用するのが通例である。言い換えれば、カラー情報の特性を用いて効率的に白線などの車線マーカを認識する例は見当たらない。
【0008】
日本の道路環境においては、白線の他に黄色線が車線マーカとして使われている。このため、白線の認識を中心に考えると、黄色線の認識率が低下する問題がある。この問題を、解決する方法として、例えば三菱電機技報(Vol.74,No.9,2000年,頁43)に開示されている技術がある。同技報によれば、特殊な光学フィルタを使うことにより黄色線の認識率の向上を図っている。しかしながら、光学フィルタを採用するため、光学系が複雑になる他、認識対象物の特性に応じて、柔軟にフィルタ特性を変更することは困難である。
【0009】
本発明の目的は、上記した従来技術の問題点に鑑みなされたものであり、特殊な光学フィルタを使用せず、認識対象に対して柔軟に対応でき、しかも認識性能の高い車載用の画像処理カメラ装置を提供することにある。
【0010】
【課題を解決するための手段】
本発明では、カラーの撮像デバイスの色信号を個別に取り出し、それらの信号の最適な組み合せをダイナミックに変更することにより、前記目的を達成するようにしたものである。
【0011】
例えば、道路に引かれた車線マーカの認識において、黄線が混在する場合には、車線マーカのコントラストが大きくなるように赤成分と緑成分の画像情報から、黄色の画面を合成し、その合成画面に対して認識処理を行う。
【0012】
また、より一般的には、三原色の組み合わせ、すなわち、Rのみ,Gのみ、Bのみ、RとGの和、RとBの和、BとGの和,RとGとBの和の場合について、それぞれ背景(例えば路面)と認識対象(例えば車線マーカ)とのコントラストを評価し、最大のコントラストが得られる組み合わせの合成画面に対して認識処理を行う。
【0013】
本発明は車線マーカの認識に限られない。例えば、信号機等の認識も可能である。このように、さまざまな環境下に適応して、コントラストの最大となる画像を合成することにより、より良い認識結果を得ることができる。
【0014】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。図1は、一実施例による車載用画像処理カメラ装置のブロック図を示す。本ブロックは図4の従来例と基本的に同一で、同一の記号は同一の要素である。異なる点は、カメラ部をカラー出力とし、赤R、緑G、青Bの三原色を取り込む様にし、それにあわせて取り込み回路12も同じような対応を行っているところにある。
【0015】
図5にカメラ11の詳細な回路例を示す。CMOSによる画像センサ110、カメラの信号処理を行うCDS/AGC回路111、映像をデジタル信号に変換するADC112および制御回路113からなる。CDS/AGC回路111は、外部から通信によりコマンドを受けて、映像アンプのゲインを変更できる機能を有する。ADC112はR,G,Bの三原色をAD変換して出力する機能を有する。さらに制御回路113は外部から通信によりコマンドを受けて、CMOSセンサ110を制御していわゆる電子シャッタ制御を行うことができる。最近このような回路すべてを1チップで構成された物が提供されはじめており、容易に回路を実現することができる。
【0016】
本実施例では、三原色RGBで取り込む様にしている。しかし、輝度信号と色差信号の組み合わせで表現された信号形式は三原色RGBと等価変換できるので、この信号形式を用いてもよいことは言うまでもない。
【0017】
図6に、マイコン16が行なう処理動作のフローチャートを示す。マイコン16のプログラムはROM15に記憶されており、電源が投入されると、ROM15に記憶されたプログラムが起動する。
【0018】
まず、S10において初期化が行われる。このステップでは、マイコンの内部のレジスタ設定、通信回路の設定、必要に応じてRAM14の所定領域のクリア処理が行われる。
【0019】
次に、S11において、カメラ11の感度設定が行われる。通常は、撮像結果を処理したフィードバック処理を行うが、初期化処理の直後は、デフォルトの感度に設定される。
【0020】
図7にカメラ感度設定の詳細フローを示す。まず、S110において、初期化S10の直後か否かの判定を行う。初期化直後であれば、カメラ感度調整を行うために必要な映像が取れていないので、S112において、デフォルトの明るさを設定し、S113に移行する。初期化直後でなければ、前回撮影した映像を使い明るさを測定する。
【0021】
図8に明るさ測定の説明図を示す。明るさの測定は、画面の規定領域のデータを取り込み平均的な明るさを計算する。例えば、晴天の空を計算の対象の入れると、必要以上に感度を落とすことになり、結果として、認識対象である車線マーカ31、32と路面30を正しく撮影できなくなる。
【0022】
例えば、撮像デバイスがCCD(Charge Coupled Device)であれば、太陽34が視野に入った場合、路面30に感度を合わせると、太陽34の明るさにより、いわゆるスミア現象が発生し、大きな縦縞35が画面に現れ、場合によっては認識対象物がスミアにより、隠されてしまう問題が発生する。しかし、本実施例ではCMOSセンサを使用している。CMOSセンサはCCDとは異なり、映像信号の転送方式が異なるため、スミア現象が発生し難くなるため、良好な認識結果が得られる。
【0023】
再び、図7に戻り説明を継続する。S113においては、測定した明るさに基づき、シャッタ速度を計算する。S114においては、AGCのゲイン値を決定する。S115においては、上記で求めたシャッタ速度値およびAGC値をカメラ11に通信により送信する。
【0024】
なお、カメラ感度設定の方法は、いわゆる電子シャッタの速度と映像信号の増幅器のゲイン調整を組み合わせて行われるが、この内容については周知の技術で対応可能である。
【0025】
次に、図6に戻って説明を継続する。S12においては、映像データの取り込みが行われる。これは、画面1枚分の映像データを赤(R)緑(G)青(B)の各色毎にSRAM14に取り込む動作である。
【0026】
S13においては、取り込まれた赤(R)緑(G)の各色毎のデータを対応するピクセル毎に加算を行い、SRAM14の所定の領域に記憶する。しかる後に、路面30と車線マーカ31、32との間のコントラストを算出する。詳細は後述する。S14においては、同様に赤(R)緑(G)青(B)の和を求め、同様に路面30と車線マーカ31、32との間のコントラストを算出する。
【0027】
S13、S14の処理は、図9に示すように、計算すれば効率的である。すなわち、メモリに記憶されたRとGの加算を行いメモリの記憶する(R+G)。さらにR+Gに対して、Bのデータを加算して同様にSRAM14に記憶する。
【0028】
次に、S13とS14におけるコントラストの評価の方法について説明する。図10は車両から道路を見た画像を示す。ここでは、説明のため路肩側の車線マーカ31の色を白、センターライン32を黄としてある。この画像イメージはそのまま各色毎にメモリに取り込まれており、上述したように、R+GとR+G+Bのそれぞれについても同様な形で、メモリ上に計算されて記憶されている。
【0029】
ここで、コントラストを評価する検査ラインをメモリ上に設ける。これは、夜間走行時に、車のヘッドランプにより照らされた場合に対応するものであり、横方向で明るさがあまり変化しないように考慮したものである。
【0030】
図11に、上記検査ラインを横軸にして輝度変化をとった例を示す。実線は、R+G+Bの輝度値であり、破線はR+Gの輝度値である。A部は図10のA部で白線31に相当する輝度であり、B部は同様にセンターライン32に相当する輝度である。
【0031】
R+G+Bの場合は白線部分(A部)で輝度が高く、Wrgbの値を取っている。また黄線部(B部)では輝度が多少低下するため、少し低い輝度値Yrgbを取る。白線、黄線以外の路面部では、黒が主体のため、輝度値が低く、平均的な値Brgbを取る。
【0032】
一方、R+Gによる輝度値分布は破線のようになる。すなわち、白線部(A部)では、青成分を除去している分、Wrgbより少し低いWrgの輝度値を取る。一方、黄線部(B部)では、もともと黄色が主体のため、Yrgbに対して検出輝度値の落ち込みは少なく、Yrgの値を取る。同様に路面部分はBrgbよりも低い輝度値Brgの値を取る。
【0033】
車線マーカ部(A,B部)とそれ以外の路面部との輝度値の比がコントラストとなる。この特性から判断すると、白線部においてはR+G+BとR+Gのコントラストはあまり変化しない。一方、黄線部においては、R+Gのコントラストが最大となる。すなわち、図11のごとき特性を有する場合には、R+Gの方がコントラストを高く取れるため、認識しやすいということになる。
【0034】
図6に戻り説明を継続する。S15では上述したように、コントラスト特性の比較を行う。S16においては、S15でより大きいコントラストが得られる合成画像に対して、認識を行う。S17においては、上位システムに認識結果を通信にて送信する。なお、白線認識の手段は、たとえば、特開平6−333192号などに記載されているように、映像から画像微分等の手段を用いて、白線部分の候補点を複数求め、直線近似などの手段により、白線部分を推定することで実現できる。
【0035】
一般に昼間の場合には、図11に示したような特性が得られるが、夜間になると明るさが低下するため、必ずしも、R+Gが高いコントラストが得られる保証はない。そのような場合に、S15において、各組み合わせの中から評価することにより、より高いコントラストの合成画像を使うことができる。これによれば、固定の光学フィルタを使う方式に比べて柔軟性が高くなる。また、本実施例では、演算処理が少なくてすむので、演算処理が多少遅くても目的の機能を実現できるという特徴も有している。
【0036】
以上は、車線マーカが白線と黄線の場合を前提に説明したが、車線マーカがその背景である路面の色、あるいは光線の当たり具合、例えば、夕日、朝日では光線のスペクトルが変わるため、より柔軟な対応が必要になる。
【0037】
図12に車線マーカと路面の三原色による各輝度を示す。図10の赤(R)の出力値で説明すると、W1rは車線マーカ31の検出輝度値であり、W2rは車線マーカ32の検出輝度値である。Brは路面30の検出輝度値である。緑(G)および、青(B)についても同様に、W1g,W2g,Bg,W1b、W2b,Bbでそれぞれの輝度値を表している。
【0038】
以前にも説明したように、車線マーカの認識を最善にするためには、一方の車線マーカのみではなく、両方の車線マーカのコントラストが最大になるようにする必要がある。そのための方法について説明する。
【0039】
図13は、図12に示した三原色の値を組み合わせた値を示したものである。例えば、画面R+Bは、赤(R)と青(B)の情報を用いて画面を合成した場合であり、Sとして、W1r、W2r,W1b,W2bを加算する。一方、背景となる路面に対しては、NとしてBrとBbを加算する。コントラストとしては、SをNで除した値(S/N)になる。その他の組み合わせについても同様となるため詳細は省略する。最善の組み合わせは、図中のS/Nの列から最大の値を取る組み合わせを選択すればよい。以上のアルゴリズムについては、図1におけるマイコン16の演算処理により実現される。
【0040】
次に、本発明の他の実施例として、信号機の認識に応用した例を示す。図14は図1のカメラ11が撮像した映像である。信号機36が道路の傍らに設置されている。信号機36のランプ色を認識するためには、赤、黄、緑の中から輝度が高いランプを特定すればよい。なお、日本においては、信号機のランプは左から緑、黄、赤の順番に並んでいるので、必ずしも色そのものを認識しなくても、輝度だけで点灯色の推定が可能な場合がある。
【0041】
信号機の認識の場合、上述した路面上に書かれた白線とは異なり、信号機そのものの設置されている場所が一定とならない。このため、カメラで見た画面上では、信号機の位置が不特定になり、認識上の効率が悪くなるきらいがある。これを改善するためには、信号機の存在エリアを何らかの手段で限定し、認識エリア37を設ければよい。
【0042】
図15に信号機の設置場所の情報を入手する一例を示す。信号機の設置場所の情報はナビゲーション装置などから獲得できる。すなわち、車載のナビゲーション装置4から信号機の位置(例えば交差点の中心からの方位、東西南北の二次元の距離)、信号機の高さ、形状(横形、縦形)および交差点からの自車位置の情報を、画像処理カメラ1に取り込んで、信号機の位置を推定することで、認識エリア37の獲得が可能となる。認識エリア37が獲得できれば、三原色の組合せを変えて加算を行なった結果に対し、ランプ36とエリア部(背景)のコントラストの比が最大となる画像を合成し、認識処理すればよい。
【0043】
【発明の効果】
本発明によれば、特殊な光学フィルタを使用せず、しかも外界の条件に合わせて、コントラストの大きくなる画像を選択して合成し、その結果に対して認識処理を行わせることができるので、認識性能のよりよい画像処理カメラ装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施例による画像処理カメラ装置の構成図。
【図2】車載の画像処理カメラ装置の視覚を示す説明図。
【図3】画像処理カメラ装置により撮影された車両前方の映像を示す説明図。
【図4】従来の画像処理カメラの構成図。
【図5】カラーカメラの詳細構成を示すブロック図。
【図6】本発明の一実施例による画像処理カメラ装置の処理を示すフローチャート。
【図7】カメラの感度調整を説明するフローチャート。
【図8】カメラの感度調整のための明るさを検査する領域を示す説明図。
【図9】三原色による画像の合成を行なう構成図。
【図10】輝度値をサンプルする映像画面上の検査ラインを示す説明図。
【図11】検査ライン上において、RGBおよびRGの信号による合成車線マーカと路面の輝度値を示す説明図。
【図12】RGB三原色における車線マーカと路面の輝度値を示す説明図。
【図13】RGB三原色による合成画面でのコントラストの計算方法を示す説明図。
【図14】信号機の認識エリアを示す説明図。
【図15】ナビゲーション装置の伝達情報を使って信号機の認識エリアを求める概念図。
【符号の説明】
1…画像処理カメラ装置、2…車両、3…道路、4…ナビゲーション装置、11…カメラ、12…画像取り込み回路、14…RAM、15…ROM、16…マイコン、30…路面、31,32…車線マーカ、36…信号機、37…認識エリア。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an in-vehicle image processing camera apparatus, and more particularly to preprocessing for improving image recognition performance using a color imaging device.
[0002]
[Prior art]
In recent years, many systems have been developed in which an image processing camera having an image recognition processing function is applied to a vehicle. For example, as shown in FIG. 2, an in-vehicle image processing camera device that recognizes a white line installs an image processing camera 1 inside a windshield of a vehicle 2 and photographs a road surface 3 in front of the vehicle.
[0003]
FIG. 3 is an example of a road surface image taken by the image processing camera 1 and displays a white line 31 indicating a road boundary, a center line 32 indicating a center separation of lanes, and a road surface 30. 33 is the horizon.
[0004]
The lane recognition device recognizes the white lines 31 and 32 and calculates the inclination of the line segments, and measures the direction of the vehicle with respect to the lane and the distance to the white lines 31 and 32, thereby determining the side of the vehicle. Detect direction position. Using this white line recognition result, it is possible to construct a departure warning from a lane, an automobile line maintenance system, and the like. An example of such an apparatus is detailed in JP-A-11-242735.
[0005]
Such a white line recognition apparatus operates extremely stably when white lines are clearly imaged, and white line recognition is performed. FIG. 4 shows a configuration example of white line recognition. The image processing apparatus 1 stores a video signal captured by the camera 11 in a memory (RAM) 14 that can be written and read by an image capturing circuit 12 and a direct memory access circuit (DMA) 160 built in the microcomputer 16. For example, white lines are recognized in accordance with a program stored in a read-only memory (ROM) 15. The recognition result is sent to an alarm device or the like via the communication port 161.
[0006]
In the in-vehicle environment, the brightness of the road surface to be imaged changes greatly, so it is necessary to dynamically change the sensitivity of the camera 11. For this reason, a command for controlling the brightness is sent from the microcomputer 16 to the camera 11 via the built-in communication circuit 162.
[0007]
[Problems to be solved by the invention]
Conventionally, a black and white camera is often used as an imaging device used for white line recognition. Even when a color device is used, it is usual to use only a luminance signal. In other words, there is no example of efficiently recognizing a lane marker such as a white line using the characteristics of color information.
[0008]
In the Japanese road environment, yellow lines are used as lane markers in addition to white lines. For this reason, considering white line recognition as a center, there is a problem that the yellow line recognition rate decreases. As a method for solving this problem, there is a technique disclosed in, for example, Mitsubishi Electric Technical Bulletin (Vol. 74, No. 9, 2000, page 43). According to the technical report, the yellow line recognition rate is improved by using a special optical filter. However, since an optical filter is employed, the optical system becomes complicated, and it is difficult to change the filter characteristics flexibly according to the characteristics of the recognition object.
[0009]
The object of the present invention has been made in view of the above-mentioned problems of the prior art, and does not use a special optical filter, can flexibly cope with a recognition target, and has high recognition performance for in-vehicle image processing. It is to provide a camera device.
[0010]
[Means for Solving the Problems]
In the present invention, the above-mentioned object is achieved by individually extracting color signals from a color imaging device and dynamically changing the optimum combination of these signals.
[0011]
For example, when a lane marker drawn on a road is recognized, if a yellow line is mixed, a yellow screen is synthesized from the image information of the red component and the green component so that the contrast of the lane marker is increased, and the synthesis is performed. Perform recognition processing on the screen.
[0012]
More generally, a combination of three primary colors, that is, only R, only G, only B, the sum of R and G, the sum of R and B, the sum of B and G, and the sum of R and G and B For each, the contrast between the background (for example, the road surface) and the recognition target (for example, lane marker) is evaluated, and the recognition process is performed on the combined screen that provides the maximum contrast.
[0013]
The present invention is not limited to recognition of lane markers. For example, it is possible to recognize a traffic light or the like. In this way, a better recognition result can be obtained by synthesizing an image having the maximum contrast in various environments.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of an in-vehicle image processing camera device according to an embodiment. This block is basically the same as the conventional example of FIG. 4, and the same symbols are the same elements. The difference is that the camera unit is set to color output, and the three primary colors of red R, green G, and blue B are captured, and the capture circuit 12 performs the same correspondence accordingly.
[0015]
FIG. 5 shows a detailed circuit example of the camera 11. The image sensor 110 includes a CMOS, a CDS / AGC circuit 111 that performs camera signal processing, an ADC 112 that converts video into a digital signal, and a control circuit 113. The CDS / AGC circuit 111 has a function of receiving a command by communication from the outside and changing the gain of the video amplifier. The ADC 112 has a function of AD converting and outputting the three primary colors of R, G, and B. Further, the control circuit 113 can receive so-called electronic shutter control by receiving commands from the outside and controlling the CMOS sensor 110. Recently, a product in which all such circuits are configured by one chip has begun to be provided, and the circuit can be easily realized.
[0016]
In this embodiment, the three primary colors RGB are captured. However, since the signal format expressed by the combination of the luminance signal and the color difference signal can be equivalently converted to the three primary colors RGB, it goes without saying that this signal format may be used.
[0017]
FIG. 6 shows a flowchart of processing operations performed by the microcomputer 16. The program of the microcomputer 16 is stored in the ROM 15, and when the power is turned on, the program stored in the ROM 15 is activated.
[0018]
First, initialization is performed in S10. In this step, register setting in the microcomputer, communication circuit setting, and clear processing of a predetermined area of the RAM 14 are performed as necessary.
[0019]
Next, in S11, the sensitivity of the camera 11 is set. Normally, feedback processing is performed by processing the imaging result, but immediately after the initialization processing, the default sensitivity is set.
[0020]
FIG. 7 shows a detailed flow of camera sensitivity setting. First, in S110, it is determined whether or not it is immediately after initialization S10. If it is immediately after initialization, the video necessary for camera sensitivity adjustment has not been taken, so the default brightness is set in S112, and the process proceeds to S113. If it is not immediately after initialization, measure the brightness using the previously captured video.
[0021]
FIG. 8 is an explanatory diagram of brightness measurement. In the brightness measurement, the average brightness is calculated by taking in data of a predetermined area of the screen. For example, if a clear sky is included in the calculation target, the sensitivity will be reduced more than necessary, and as a result, the lane markers 31 and 32 and the road surface 30 that are recognition targets cannot be captured correctly.
[0022]
For example, if the imaging device is a CCD (Charge Coupled Device), when the sun 34 enters the field of view, when the sensitivity is adjusted to the road surface 30, a so-called smear phenomenon occurs due to the brightness of the sun 34, and a large vertical stripe 35 is formed. There appears a problem that appears on the screen and in some cases, the recognition object is hidden by smear. However, in this embodiment, a CMOS sensor is used. Unlike a CCD, a CMOS sensor has a different video signal transfer method, so that it is difficult for a smear phenomenon to occur, and a good recognition result can be obtained.
[0023]
Returning to FIG. 7 again, the description will be continued. In S113, the shutter speed is calculated based on the measured brightness. In S114, the gain value of AGC is determined. In S115, the shutter speed value and the AGC value obtained above are transmitted to the camera 11 by communication.
[0024]
The camera sensitivity setting method is performed by combining the so-called electronic shutter speed and the gain adjustment of the video signal amplifier. This can be handled by a known technique.
[0025]
Next, returning to FIG. 6, the description will be continued. In S12, video data is captured. This is an operation of taking video data for one screen into the SRAM 14 for each color of red (R), green (G), and blue (B).
[0026]
In S <b> 13, the captured red (R) green (G) data for each color is added for each corresponding pixel and stored in a predetermined area of the SRAM 14. Thereafter, the contrast between the road surface 30 and the lane markers 31 and 32 is calculated. Details will be described later. In S14, the sum of red (R), green (G), and blue (B) is similarly obtained, and the contrast between the road surface 30 and the lane markers 31 and 32 is similarly calculated.
[0027]
The processes of S13 and S14 are efficient if they are calculated as shown in FIG. That is, R and G stored in the memory are added and stored in the memory (R + G). Further, B data is added to R + G and stored in the SRAM 14 in the same manner.
[0028]
Next, a contrast evaluation method in S13 and S14 will be described. FIG. 10 shows an image of a road viewed from a vehicle. Here, for the sake of explanation, the color of the roadside lane marker 31 is white and the center line 32 is yellow. This image is directly taken into the memory for each color, and as described above, R + G and R + G + B are calculated and stored in the memory in the same manner.
[0029]
Here, an inspection line for evaluating contrast is provided on the memory. This corresponds to a case where the vehicle is illuminated by a headlamp of a car during night driving, and takes into consideration that the brightness does not change much in the lateral direction.
[0030]
FIG. 11 shows an example in which a luminance change is taken with the inspection line as the horizontal axis. A solid line is a luminance value of R + G + B, and a broken line is a luminance value of R + G. The A portion has the luminance corresponding to the white line 31 in the A portion of FIG. 10, and the B portion has the luminance corresponding to the center line 32 in the same manner.
[0031]
In the case of R + G + B, the brightness is high in the white line portion (A portion), and the value of Wrgb is taken. Further, since the luminance is slightly reduced in the yellow line portion (B portion), a slightly lower luminance value Yrgb is taken. On the road surface portions other than the white line and the yellow line, since black is mainly, the luminance value is low and the average value Brgb is taken.
[0032]
On the other hand, the luminance value distribution by R + G is as shown by a broken line. That is, in the white line portion (A portion), the luminance value of Wrg that is slightly lower than Wrgb is taken as much as the blue component is removed. On the other hand, in the yellow line part (B part), since yellow is originally mainly, the drop in the detected luminance value with respect to Yrgb is small and takes the value of Yrg. Similarly, the road surface portion takes a luminance value Brg lower than Brgb.
[0033]
The ratio of the luminance value between the lane marker portion (A, B portion) and the other road surface portion is the contrast. Judging from this characteristic, the contrast of R + G + B and R + G does not change much in the white line portion. On the other hand, in the yellow line portion, the contrast of R + G is maximized. That is, in the case of having the characteristics as shown in FIG. 11, R + G can be recognized more easily because the contrast is higher.
[0034]
Returning to FIG. 6, the description will be continued. In S15, as described above, the contrast characteristics are compared. In S16, recognition is performed on the composite image that provides a higher contrast in S15. In S17, the recognition result is transmitted to the host system by communication. For example, as described in Japanese Patent Laid-Open No. 6-333192, white line recognition means uses a means such as image differentiation from a video to obtain a plurality of candidate points for a white line portion, and a means such as linear approximation. Thus, it can be realized by estimating the white line portion.
[0035]
In general, in the case of daytime, the characteristics shown in FIG. 11 can be obtained. However, since the brightness decreases at night, there is no guarantee that a high R + G contrast can be obtained. In such a case, a composite image with a higher contrast can be used by evaluating each combination in S15. According to this, flexibility becomes high compared with the system using a fixed optical filter. In addition, since the present embodiment requires less computation processing, it also has a feature that the target function can be realized even if the computation processing is somewhat slow.
[0036]
The above explanation is based on the assumption that the lane marker is a white line and a yellow line, but the color of the road surface that the lane marker is the background of, or how the light hits, for example, the spectrum of the light changes at sunset, sunrise, etc. A flexible response is required.
[0037]
FIG. 12 shows each luminance by the lane marker and the three primary colors of the road surface. To describe the output value of red (R) in FIG. 10, W1r is a detected luminance value of the lane marker 31, and W2r is a detected luminance value of the lane marker 32. Br is a detected luminance value of the road surface 30. Similarly, the luminance values of green (G) and blue (B) are represented by W1g, W2g, Bg, W1b, W2b, and Bb.
[0038]
As described before, in order to achieve the best recognition of the lane marker, it is necessary to maximize the contrast of not only one lane marker but also both lane markers. A method for this will be described.
[0039]
FIG. 13 shows values obtained by combining the values of the three primary colors shown in FIG. For example, the screen R + B is a case where the screen is synthesized using information on red (R) and blue (B), and W1r, W2r, W1b, and W2b are added as S. On the other hand, Br and Bb are added as N for the road surface as the background. The contrast is a value obtained by dividing S by N (S / N). Since other combinations are the same, details are omitted. As the best combination, the combination that takes the maximum value from the S / N column in the figure may be selected. About the above algorithm, it is implement | achieved by the arithmetic processing of the microcomputer 16 in FIG.
[0040]
Next, as another embodiment of the present invention, an example applied to traffic signal recognition will be described. FIG. 14 is an image captured by the camera 11 of FIG. A traffic light 36 is installed beside the road. In order to recognize the lamp color of the traffic light 36, it is only necessary to specify a lamp having high brightness from red, yellow, and green. In Japan, since the lamps of traffic lights are arranged in the order of green, yellow, and red from the left, there are cases where it is possible to estimate the lighting color based on the luminance alone without necessarily recognizing the color itself.
[0041]
In the case of traffic signal recognition, unlike the white line written on the road surface described above, the location where the traffic signal itself is installed is not constant. For this reason, there is a possibility that the position of the traffic light becomes unspecified on the screen viewed by the camera, and the recognition efficiency is deteriorated. In order to improve this, the presence area of the traffic light may be limited by some means and the recognition area 37 may be provided.
[0042]
FIG. 15 shows an example of obtaining information on the installation location of the traffic light. Information on the location of the traffic light can be obtained from a navigation device or the like. That is, information on the position of the traffic light from the in-vehicle navigation device 4 (for example, the direction from the center of the intersection, the two-dimensional distance of east, west, south, and north), the height, shape (horizontal and vertical) of the traffic signal, and the vehicle position information from the intersection. The recognition area 37 can be acquired by taking the image processing camera 1 and estimating the position of the traffic light. If the recognition area 37 can be acquired, an image that maximizes the contrast ratio between the lamp 36 and the area (background) may be combined with the result obtained by changing the combination of the three primary colors to perform recognition processing.
[0043]
【The invention's effect】
According to the present invention, a special optical filter is not used, and an image with high contrast can be selected and synthesized according to the conditions of the outside world, and the recognition process can be performed on the result. An image processing camera device with better recognition performance can be provided.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an image processing camera device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a visual sense of an in-vehicle image processing camera device.
FIG. 3 is an explanatory diagram showing an image in front of the vehicle photographed by the image processing camera device.
FIG. 4 is a configuration diagram of a conventional image processing camera.
FIG. 5 is a block diagram showing a detailed configuration of a color camera.
FIG. 6 is a flowchart showing processing of the image processing camera device according to the embodiment of the present invention.
FIG. 7 is a flowchart for explaining camera sensitivity adjustment;
FIG. 8 is an explanatory diagram showing a region for inspecting brightness for camera sensitivity adjustment;
FIG. 9 is a configuration diagram for synthesizing an image with three primary colors.
FIG. 10 is an explanatory diagram showing an inspection line on a video screen for sampling a luminance value.
FIG. 11 is an explanatory diagram showing a composite lane marker and road surface luminance values based on RGB and RG signals on the inspection line;
FIG. 12 is an explanatory diagram showing lane markers and road surface brightness values in RGB three primary colors.
FIG. 13 is an explanatory diagram illustrating a method for calculating contrast on a composite screen using RGB three primary colors.
FIG. 14 is an explanatory diagram showing a traffic signal recognition area.
FIG. 15 is a conceptual diagram for obtaining a traffic signal recognition area using transmission information of a navigation device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image processing camera apparatus, 2 ... Vehicle, 3 ... Road, 4 ... Navigation apparatus, 11 ... Camera, 12 ... Image capture circuit, 14 ... RAM, 15 ... ROM, 16 ... Microcomputer, 30 ... Road surface, 31, 32 ... Lane marker, 36 ... traffic light, 37 ... recognition area.

Claims (6)

三色のカラー信号を個別に取り出すことが可能な撮像デバイスを備え、車両に搭載されて当該車両が走行する路面を撮影し、得られた映像に対して路面上の車線の認識処理を行う車載用の画像処理カメラ装置において、
前記撮像デバイスにより得られる三色のカラー信号をそれぞれ独立して取り込み、前記カラー信号の組み合わせを変えて加算を行い、その結果に対して認識対象物と背景のコントラストを計算し、前記路面と路面上の車線マーカとが最大のコントラストとなる組み合わせを得て、前記車線の認識処理計算を行うことを特徴とする車載用画像処理カメラ装置。
An imaging device capable of taking out a three-color signals of the individual is mounted on a vehicle by photographing a road surface on which the vehicle is traveling, performs recognition processing of the lane on the road surface for the resulting Film image In an in-vehicle image processing camera device,
The three color signals obtained by the imaging device are independently captured, the color signal combinations are changed and added, and the contrast between the recognition object and the background is calculated for the result, and the road surface and the road surface An in-vehicle image processing camera device that obtains a combination having a maximum contrast with the upper lane marker and performs the recognition processing calculation of the lane .
請求項において、
前記三色のカラー信号の組み合わせは、三原色R,G,Bの全ての組み合わせ、または前記三原色と等価変換可能な輝度信号と色差信号との全ての組み合わせについて、それぞれ車線マーカと路面とのコントランスを評価して得ることを特徴とする車載用画像処理カメラ装置。
In claim 1 ,
The three color signal combinations include all the combinations of the three primary colors R, G, and B, or all combinations of luminance signals and color difference signals that can be equivalently converted to the three primary colors. An in-vehicle image processing camera device obtained by evaluating
請求項において、
前記認識対象に黄線の車線マーカが含まれる場合、前記撮像デバイスの赤と緑の出力信号を加算した組み合わせを得ることを特徴とする車載用画像処理カメラ装置。
In claim 1 ,
When said recognition target includes lane marker yellow line in-vehicle image processing camera apparatus characterized by pre-Symbol obtain combinations obtained by adding the red and green output signal of the imaging device.
請求項1、2または3において、
撮像デバイスのカラー信号を一旦メモリに取り込んだ後、各色の画像情報を加算することにより、合成画像を得ることを特徴とする車載用画像処理カメラ装置。
In claim 1, 2 or 3 ,
An in-vehicle image processing camera apparatus characterized in that after a color signal of an imaging device is once taken into a memory, a composite image is obtained by adding image information of each color.
請求項1、2または3において、
前記認識対象物のコントラストを評価する場合に、撮像画面に対して車のヘッドランプの照射範囲内で水平方向に検査ラインを設け、この検査ライン上で、コントラストの評価を行うことを特徴とする車載用画像処理カメラ装置。
In claim 1, 2 or 3 ,
When evaluating the contrast of the recognition object, an inspection line is provided in the horizontal direction within the irradiation range of the headlamp of the car with respect to the imaging screen, and the contrast is evaluated on the inspection line. In-vehicle image processing camera device.
請求項1乃至5のいずれかにおいて
前記撮像デバイスはCMOSセンサであり
前記映像のうち空部分を除いた撮像画像領域を用いて、前記路面と路面上の車線マーカとが最大のコントラストとなる前記カラー信号の組み合わせを選択することを特徴とする車載用画像処理カメラ装置。
In any one of Claims 1 thru | or 5 ,
It said imaging device is a CMOS sensor,
By using the captured image area excluding the empty part of the image, the image processing camera for use in vehicles and lane markers on the road surface and the road surface and selects the combination of the color signal having the maximum contrast apparatus.
JP2001210629A 2001-07-11 2001-07-11 In-vehicle image processing camera device Expired - Lifetime JP3782322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001210629A JP3782322B2 (en) 2001-07-11 2001-07-11 In-vehicle image processing camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001210629A JP3782322B2 (en) 2001-07-11 2001-07-11 In-vehicle image processing camera device

Publications (2)

Publication Number Publication Date
JP2003032669A JP2003032669A (en) 2003-01-31
JP3782322B2 true JP3782322B2 (en) 2006-06-07

Family

ID=19046067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001210629A Expired - Lifetime JP3782322B2 (en) 2001-07-11 2001-07-11 In-vehicle image processing camera device

Country Status (1)

Country Link
JP (1) JP3782322B2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4526963B2 (en) * 2005-01-25 2010-08-18 株式会社ホンダエレシス Lane mark extraction device
JP4408095B2 (en) 2005-06-03 2010-02-03 本田技研工業株式会社 Vehicle and road marking recognition device
JP5123812B2 (en) * 2008-10-10 2013-01-23 日立オートモティブシステムズ株式会社 Road marking recognition system
JP2012155612A (en) 2011-01-27 2012-08-16 Denso Corp Lane detection apparatus
KR101761921B1 (en) 2011-02-28 2017-07-27 삼성전기주식회사 System and method for assisting a driver
JP5260696B2 (en) * 2011-03-10 2013-08-14 株式会社デンソー Edge point extraction device, lane detection device, and program
JP5272041B2 (en) * 2011-05-12 2013-08-28 富士重工業株式会社 Environment recognition apparatus and environment recognition method
JP6154213B2 (en) 2013-06-28 2017-06-28 株式会社Soken Road surface information acquisition device
JP2015121954A (en) * 2013-12-24 2015-07-02 株式会社デンソー Luminance value calculation device and traffic lane detection system
JP6230482B2 (en) * 2014-05-19 2017-11-15 本田技研工業株式会社 Lane mark recognition device, vehicle, and lane mark recognition method
JP6679857B2 (en) * 2015-04-02 2020-04-15 株式会社リコー Recognition device, recognition method and program
DE112018005975T5 (en) * 2018-01-17 2020-08-06 Hitachi Automotive Systems, Ltd. Image processing system and light distribution system
JP2020095620A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7141940B2 (en) 2018-12-14 2022-09-26 株式会社デンソーテン Image processing device and image processing method
JP2020095623A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7359541B2 (en) 2018-12-14 2023-10-11 株式会社デンソーテン Image processing device and image processing method
JP7252750B2 (en) 2018-12-14 2023-04-05 株式会社デンソーテン Image processing device and image processing method
JP7236857B2 (en) 2018-12-14 2023-03-10 株式会社デンソーテン Image processing device and image processing method
JP7203587B2 (en) 2018-12-14 2023-01-13 株式会社デンソーテン Image processing device and image processing method
JP7203586B2 (en) 2018-12-14 2023-01-13 株式会社デンソーテン Image processing device and image processing method
JP7226986B2 (en) 2018-12-14 2023-02-21 株式会社デンソーテン Image processing device and image processing method
JP2020095631A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP2020095624A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7195131B2 (en) 2018-12-14 2022-12-23 株式会社デンソーテン Image processing device and image processing method
JP7244301B2 (en) 2019-03-01 2023-03-22 フォルシアクラリオン・エレクトロニクス株式会社 Image processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2715442B2 (en) * 1988-05-09 1998-02-18 株式会社デンソー Traveling vehicle recognition device
JPH04113122A (en) * 1990-08-31 1992-04-14 Sharp Corp Ignition part regulating device for kerosene heater
JP3153845B2 (en) * 1995-05-12 2001-04-09 三菱電機株式会社 Road surface monitoring device and road surface monitoring method
JP3619628B2 (en) * 1996-12-19 2005-02-09 株式会社日立製作所 Driving environment recognition device
JPH10339646A (en) * 1997-06-10 1998-12-22 Toyota Motor Corp Guide display system for car

Also Published As

Publication number Publication date
JP2003032669A (en) 2003-01-31

Similar Documents

Publication Publication Date Title
JP3782322B2 (en) In-vehicle image processing camera device
US10387735B2 (en) Monitoring unit for a motor vehicle, having partial color encoding
JP4491453B2 (en) Method and apparatus for visualizing the periphery of a vehicle by fusing infrared and visual images depending on the periphery
US9171215B2 (en) Image processing device
JP6176028B2 (en) Vehicle control system, image sensor
CN102835115B (en) For the color mask of the imageing sensor of vehicle camera
KR100682067B1 (en) Image processig syste to control vehicle haedlamps or other vehicle equipment
US20160325682A1 (en) Vehicle vision system with road line sensing algorithm and lane departure warning
JP5115792B2 (en) Image processing apparatus and method, and program
JP2009171122A (en) Optical source color temperature estimation method, white balance adjustment apparatus, and image recognition apparatus
EP2793469B1 (en) Image processing device
US20120229644A1 (en) Edge point extracting apparatus and lane detection apparatus
JP2007164737A (en) Color-identifying method
JP2011076214A (en) Obstacle detection device
JP5152019B2 (en) Vehicle control device
JP2002321579A (en) Warning information generating method and vehicle side image generating device
JP4706693B2 (en) Vehicle color determination device, vehicle color determination system, and vehicle color determination method
JP5056931B2 (en) Vehicle color determination device, vehicle color determination system, and vehicle color determination method
JP6593581B2 (en) Image quality adjusting device and camera unit
JP2018072884A (en) Information processing device, information processing method and program
JP5703279B2 (en) Vehicle periphery monitoring device
CN218888598U (en) Image processing apparatus and in-vehicle system
JPH08297023A (en) Apparatus for monitoring running road face by image processing
KR101303758B1 (en) Camera system and control method there of
WO2017039278A1 (en) Device and method for controlling images of vehicular black box

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060309

R150 Certificate of patent or registration of utility model

Ref document number: 3782322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090317

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100317

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120317

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130317

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130317

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140317

Year of fee payment: 8

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term