JP2010067053A - Vehicle environment recognition apparatus - Google Patents

Vehicle environment recognition apparatus Download PDF

Info

Publication number
JP2010067053A
JP2010067053A JP2008233493A JP2008233493A JP2010067053A JP 2010067053 A JP2010067053 A JP 2010067053A JP 2008233493 A JP2008233493 A JP 2008233493A JP 2008233493 A JP2008233493 A JP 2008233493A JP 2010067053 A JP2010067053 A JP 2010067053A
Authority
JP
Japan
Prior art keywords
color
pixel
vehicle
space
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008233493A
Other languages
Japanese (ja)
Other versions
JP5256421B2 (en
Inventor
Shinnosuke Ishida
真之助 石田
Yuichi Nakanishi
裕一 中西
Miyoshi Ayama
みよし 阿山
Kenji Shoji
健二 東海林
Tomoaki Ashiguchi
友章 芦口
Takaya Yaguchi
貴也 矢口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Utsunomiya University
Original Assignee
Honda Motor Co Ltd
Utsunomiya University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Utsunomiya University filed Critical Honda Motor Co Ltd
Priority to JP2008233493A priority Critical patent/JP5256421B2/en
Publication of JP2010067053A publication Critical patent/JP2010067053A/en
Application granted granted Critical
Publication of JP5256421B2 publication Critical patent/JP5256421B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for matching the recognition result of the color of each pixel in a color image with the color perception of human being in response to difference in environment around a vehicle. <P>SOLUTION: The vehicle environment recognition apparatus 100 calculates a color position by coordinate-conversion of the original position in the RGB space showing the color of each pixel of the color image into L<SP>*</SP>a<SP>*</SP>b<SP>*</SP>space. Further, illuminance (or brightness) is measured, the color position of the pixel is corrected so as to be displaced in parallel to the L<SP>*</SP>axis based on the measured value, and each pixel is determined to be a pixel having a color corresponding to the region including the corrected color position. The correction of the color position reduces or eliminates the influence of the difference in illuminance or brightness around the vehicle 1 to the color recognition manner. One color is determined as a color of each pixel correspondingly to one region defined according to the difference of conspicuity in the color space, difference of warm color and cold color, difference of expansive color and contracting color, or the like. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両の周辺環境を認識する装置に関する。   The present invention relates to an apparatus for recognizing a surrounding environment of a vehicle.

車載カメラを通じて得られたカラー画像に基づき、車両が走行している道路に設けられている白線または黄色線等の道路標識を認識するための技術が提案されている(特許文献1参照)。具体的には、まずカラー画像の各画素のRGB値がRGB座標系とは異なる3次元座標系に投影される。この3次元座標系の各軸はたとえば色相、明度および彩度により定義される。そして、カラー画像における各画素が投影位置を包含する3次元座標系における分割領域の代表値を有する画素として認識される。
特開平06−348991号公報
A technique for recognizing a road sign such as a white line or a yellow line provided on a road on which a vehicle is traveling has been proposed based on a color image obtained through an in-vehicle camera (see Patent Document 1). Specifically, first, the RGB value of each pixel of the color image is projected onto a three-dimensional coordinate system different from the RGB coordinate system. Each axis of this three-dimensional coordinate system is defined by, for example, hue, brightness, and saturation. Each pixel in the color image is recognized as a pixel having a representative value of the divided area in the three-dimensional coordinate system including the projection position.
Japanese Patent Application Laid-Open No. 06-338991

しかし、車両周囲における光の強弱等に応じて、車両が走行している道路に設けられている白線が赤みを帯びた進出色として認識されるまたは青みを帯びた後退色として認識される等、人間の色知覚と合致しない形態で色が認識される可能性がある。   However, depending on the light intensity around the vehicle, etc., the white line provided on the road on which the vehicle is traveling is recognized as a reddish advance color or as a blued reverse color, etc. Colors may be recognized in a form that does not match human color perception.

そこで、本発明は、車両の周囲における環境の相違に応じて、カラー画像における各画素の色の認識結果と人間の色知覚との整合を図ることができる装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an apparatus capable of matching the color recognition result of each pixel in a color image with human color perception according to the difference in environment around the vehicle.

第1発明の車両環境認識装置は、車両の周辺を撮像する撮像装置と、色の要素を表わす指定変数の前記車両の周辺における値を測定する測定器と、前記撮像装置による撮像されたカラー画像を構成する画素の色を表わすRGB空間における元位置を、前記指定変数により定義される指定軸を有する色空間に座標変換することにより色位置を算定し、かつ、前記測定器により測定された前記指定変数の値に応じて前記色位置の前記指定軸の座標を補正することにより前記画素の前記色位置を算定する第1処理部と、前記色空間における複数の色領域のそれぞれと色とを対応付けて記憶する色領域記憶部と、前記色空間において前記第1処理部により算定された前記画素の前記色位置が含まれる前記色領域に、前記色領域記憶部により対応付けられている記憶されている色を、前記画素の色として決定する第2処理部とを備えていることを特徴とする。   According to a first aspect of the present invention, there is provided a vehicle environment recognition device that captures an image of the periphery of a vehicle, a measuring device that measures a value of a designated variable representing a color element in the periphery of the vehicle, and a color image captured by the image capture device. The color position is calculated by transforming the original position in the RGB space representing the color of the pixels constituting the color space into a color space having a designated axis defined by the designated variable, and the measurement is performed by the measuring device. A first processing unit that calculates the color position of the pixel by correcting the coordinates of the specified axis of the color position according to a value of a specified variable, and each of a plurality of color regions in the color space and a color A color area storage unit that associates and stores, and the color area that includes the color position of the pixel calculated by the first processing unit in the color space is associated with the color area storage unit. The colors are to have stored, characterized in that a second processing unit for determining a color of the pixel.

第1発明の車両環境認識装置によれば、カラー画像の各画素の色を表わすRGB空間における元位置が色空間に座標変換されることにより色位置が算定される。さらに、当該色空間の指定軸を定義するとともに色の要素を表わす指定変数の値が測定される。そして、指定変数の測定値に基づき、画素の色位置が指定軸に平行に変位するように補正され、各画素が補正後の色位置が含まれる領域に対応する色を有する画素であると決定される。色位置の補正により、車両周辺における指定変数の値の相違の色認識態様に対する影響が軽減または解消されうる。また、色空間において誘目性の相違、暖色および寒色の相違、膨張色および収縮色の相違等に応じて画定された一の領域に対応して一の色が各画素の色として決定されるので、人間の色知覚に鑑みた違和感が解消されるような形態で各画素の色が認識されうる。したがって、指定変数の測定値の相違に車両の周囲における環境の相違に応じて、カラー画像における各画素の色の認識結果と人間の色知覚との整合を図ることができる。   According to the vehicle environment recognition device of the first aspect of the invention, the color position is calculated by coordinate-transforming the original position in the RGB space representing the color of each pixel of the color image into the color space. Furthermore, the designated axis of the color space is defined and the value of the designated variable representing the color element is measured. Then, based on the measured value of the designated variable, the color position of the pixel is corrected so as to be displaced parallel to the designated axis, and each pixel is determined to be a pixel having a color corresponding to the area including the corrected color position. Is done. By correcting the color position, the influence of the difference in the value of the designated variable around the vehicle on the color recognition mode can be reduced or eliminated. In addition, since one color is determined as the color of each pixel corresponding to one area defined according to the difference in attractiveness, the difference between warm and cold colors, the difference between expanded and contracted colors, etc. in the color space. The color of each pixel can be recognized in such a manner that the sense of incongruity in consideration of human color perception is eliminated. Accordingly, the color recognition result of each pixel in the color image can be matched with the human color perception according to the difference in the measured value of the designated variable and the difference in the environment around the vehicle.

本願発明では前記複数の色領域として、人間の色知覚におけるカテゴリカルカラーが用いられる。カテゴリカル基本色とは色刺激のカテゴリー的色判断に基づくもので、赤、茶、橙、黄、緑、青、紫、ピンク、黒、灰、白の11色である。また、青色または灰色である空領域と灰色の道路領域とが画像全体に占める面積割合が高い場合が多い走行画像の特性から、青色を明度により2つに分割し、灰色を明度により3つに分割し、画像を14個のカテゴリカルカラー領域に塗り分ける手法が用いられてもよい。   In the present invention, categorical colors in human color perception are used as the plurality of color regions. The categorical basic colors are based on categorical color judgment of color stimulation, and are 11 colors of red, brown, orange, yellow, green, blue, purple, pink, black, gray, and white. In addition, due to the characteristics of a running image in which the area ratio of the blue or gray sky area and the gray road area is often high in the entire image, blue is divided into two by lightness, and gray is divided into three by lightness. A method of dividing and painting an image into 14 categorical color regions may be used.

第2発明の車両環境認識装置は、第1発明の車両環境認識装置において、前記測定器が前記指定変数として前記車両周辺の照度を測定し、前記第1処理部が前記測定器により測定された照度に基づき、前記色空間としてのL***空間における前記色位置のL*座標を補正することにより算定することを特徴とする。 The vehicle environment recognition device according to a second aspect of the present invention is the vehicle environment recognition device according to the first aspect, wherein the measuring device measures illuminance around the vehicle as the designated variable, and the first processing unit is measured by the measuring device. The calculation is performed by correcting the L * coordinate of the color position in the L * a * b * space as the color space based on illuminance.

第2発明の車両環境認識装置によれば、車両の周囲における環境の相違、具体的には、照度の相違に応じて、カラー画像における各画素の色の認識結果と人間の色知覚との整合を図ることができる。   According to the vehicle environment recognition device of the second aspect of the present invention, the color recognition result of each pixel in the color image and the human color perception match according to the environmental difference around the vehicle, specifically, the illuminance difference. Can be achieved.

本発明の車両環境認識装置の実施形態について説明する。まず、車両環境認識装置の構成について説明する。図1および図2に示されている車両環境認識装置10は車両(四輪自動車)1に搭載されている電子制御ユニット(CPU,ROM,RAM,A/D変換回路およびこれらを接続するバスラインにより構成されている。)により構成されている。車両1の先端中央部を原点Oとし、車両1の右方向、下方向および前方向のそれぞれを+X方向、+Y方向および+Z方向のそれぞれとする実空間座標系が定義されている。車両環境認識装置10はCCDカメラまたはCMOSカラーイメージセンサ等のカメラ(撮像装置)Cと、照度計(測定器)Sとを備えている。カメラCは車両1の進行方向前方を撮像範囲とし、車両1の前方道路を含む画像を撮像する。カメラCは車両1の横幅方向の中心線上に位置するように配置されている。照度計Sは車両1の周辺における照度(指定変数)の値を測定する。   An embodiment of a vehicle environment recognition device of the present invention will be described. First, the configuration of the vehicle environment recognition device will be described. A vehicle environment recognition apparatus 10 shown in FIGS. 1 and 2 is an electronic control unit (CPU, ROM, RAM, A / D conversion circuit and a bus line connecting them) mounted on a vehicle (four-wheeled vehicle) 1. It is comprised by.) It is comprised. A real space coordinate system is defined in which the center of the front end of the vehicle 1 is the origin O, and the right direction, the downward direction, and the forward direction of the vehicle 1 are the + X direction, the + Y direction, and the + Z direction, respectively. The vehicle environment recognition device 10 includes a camera (imaging device) C such as a CCD camera or a CMOS color image sensor, and an illuminometer (measuring instrument) S. The camera C captures an image including the road ahead of the vehicle 1 with the forward direction of the vehicle 1 as the imaging range. The camera C is disposed so as to be positioned on the center line of the vehicle 1 in the width direction. The illuminometer S measures the value of illuminance (designated variable) around the vehicle 1.

車両環境認識装置10は第1処理部11と、第2処理部12と、色領域記憶部13とを備えている。第1処理部11および第2処理部12はメモリと、このメモリからプログラムを読み出して担当演算処理を実行する演算処理装置(CPU)とにより構成されている。第1処理部11はカメラCによる撮像されたカラー画像を構成する画素の色を表わすRGB空間における元位置を、照度(指定変数)により定義されるL*軸(指定軸)を有するL***空間(色空間)に座標変換することにより色位置を算定する。第1処理部11は照度計により測定された照度に応じて色位置のL*軸の座標を補正することにより各画素の色位置を算定する。第2処理部12は色空間において第1処理部11により算定された画素の色位置が含まれるL***空間における色領域に、色領域記憶部13により対応付けられている記憶されている色をこの画素の色として決定する。 The vehicle environment recognition device 10 includes a first processing unit 11, a second processing unit 12, and a color area storage unit 13. The first processing unit 11 and the second processing unit 12 include a memory and an arithmetic processing unit (CPU) that reads a program from the memory and executes assigned arithmetic processing. The first processing unit 11 to the original position in the RGB space representing the color of pixels constituting the color image captured by the camera C, illuminance L having L * axis defined by (specified variable) (specified axis) * a * b * Calculate the color position by transforming the coordinates into space (color space). The first processing unit 11 calculates the color position of each pixel by correcting the coordinates of the L * axis of the color position according to the illuminance measured by the illuminometer. The second processing unit 12 is stored in correspondence with the color region in the L * a * b * space including the color position of the pixel calculated by the first processing unit 11 in the color space by the color region storage unit 13. Is determined as the color of this pixel.

車両1には図2に示されているように車速センサ101、加速度センサ102およびヨーレートセンサ103等のセンサと、操舵装置110と、制動装置120とがさらに搭載されている。車速センサ101、加速度センサ102およびヨーレートセンサ103のそれぞれは車両1の速度、加速度およびヨーレートのそれぞれに応じた信号を出力する。操舵装置110はステアリングホイールの操作により駆動される前輪操舵機構をアクチュエータにより駆動するように構成されている。なお、操舵装置110により前輪駆動機構に代えてまたは加えて後輪操舵機構が駆動されてもよい。車両環境認識装置10はカラー画像を構成する各画素の色の認識結果等に基づき、操舵装置110および制動装置120のうち一方または両方の動作を制御することにより車両1の挙動を制御する。   As shown in FIG. 2, the vehicle 1 further includes sensors such as a vehicle speed sensor 101, an acceleration sensor 102, and a yaw rate sensor 103, a steering device 110, and a braking device 120. Each of the vehicle speed sensor 101, the acceleration sensor 102, and the yaw rate sensor 103 outputs signals corresponding to the speed, acceleration, and yaw rate of the vehicle 1, respectively. The steering device 110 is configured to drive a front wheel steering mechanism driven by operation of a steering wheel by an actuator. The steering device 110 may drive the rear wheel steering mechanism instead of or in addition to the front wheel driving mechanism. The vehicle environment recognition device 10 controls the behavior of the vehicle 1 by controlling the operation of one or both of the steering device 110 and the braking device 120 based on the recognition result of the color of each pixel constituting the color image.

前記構成の車両環境認識装置10の機能について説明する。まず、前方カメラC1から画像信号が車両環境認識装置10に入力されることにより第1処理部11によりカラー画像が取得される(図3/S002)。これにより、たとえば図4(a)に示されているように車両1の前方道路の様子を示すカラー画像が取得される。次に第1処理部11がカラー画像の各画素の色を表わすRGB値、すなわち、RGB空間における位置を算定する(図3/S004)。続いて、第1処理部11が各画素の色を表わすRGB空間における位置を関数fにしたがってL***空間に座標変換することにより、各画素のL***空間における色位置を算定する(図3/S006)。これにより、たとえば図5上側に示されているRGB空間における点(R0,G0,B0)が、図5下側に示されているL***空間における点(L0 *,a0 *,b0 *)=f((R0,G0,B0))に座標変換される。また、照度計Sにより車両1の周辺における照度が測定される(図3/S008)。第2処理部12が照度計Sにより測定された照度に基づき、色位置がL*軸に平行に変位するようにこの色位置を補正する(図3/S010)。たとえば、測定照度が高いほどL*軸負方向(−L*方向)に大きく変位するように色位置が補正される一方、測定照度が低いほどL*軸正方向(+L*方向)に大きく変位するように色位置が補正される。これにより、たとえば図5下側に矢印で示されているようにL***空間における点(L0 *,a0 *,b0 *)がL*軸に平行に変位するように補正される。そして、第2処理部12が、色領域記憶部13により記憶されているL***空間において定義されている複数の色領域のうち、画素の補正後の色位置が含まれている一の色領域を決定した上で、この一の色領域に対応付けられて色領域記憶部13により記憶されている色をこの画素の色として決定する(図3/S012)。各色領域は実験等により定められうる。カテゴリカル基本色i(i=赤、茶、橙、黄、緑、青、紫、ピンク、黒、灰、白)についてL***空間において定義されている色領域(閉領域)Viに補正後の色位置が含まれる場合には当該画素の色が「i」に決定される。たとえば、L***空間において定義されている色領域(閉領域)Vwhite(i=白)に補正後の色位置が含まれる場合には当該画素の色が「白」に決定される。これにより、たとえば図4(b)に示されているように元のカラー画像においては照度または光照射条件等のために道路もレーンマークも青みがかっていたとしても、道路に該当する画素部分が人間が道路の色であると知覚する灰色、レーンマーク(白線)LMに該当する画素部分が人間がレーンマークの色であると知覚する白色に補正されたカラー画像が得られる。 The function of the vehicle environment recognition device 10 having the above configuration will be described. First, when an image signal is input from the front camera C1 to the vehicle environment recognition device 10, a color image is acquired by the first processing unit 11 (FIG. 3 / S002). Thereby, for example, as shown in FIG. 4A, a color image showing the state of the road ahead of the vehicle 1 is acquired. Next, the first processing unit 11 calculates an RGB value representing the color of each pixel of the color image, that is, a position in the RGB space (FIG. 3 / S004). Subsequently, the first processing unit 11 performs coordinate conversion of the position in the RGB space representing the color of each pixel into the L * a * b * space according to the function f, whereby the color of each pixel in the L * a * b * space. The position is calculated (FIG. 3 / S006). Thus, for example, a point (R 0 , G 0 , B 0 ) in the RGB space shown on the upper side of FIG. 5 becomes a point (L 0 ** ) in the L * a * b * space shown on the lower side of FIG. , A 0 * , b 0 * ) = f ((R 0 , G 0 , B 0 )). Moreover, the illuminance around the vehicle 1 is measured by the illuminometer S (FIG. 3 / S008). Based on the illuminance measured by the illuminometer S, the second processing unit 12 corrects the color position so that the color position is displaced parallel to the L * axis (FIG. 3 / S010). For example, the color position is corrected such that the higher the measured illuminance, the greater the displacement in the L * -axis negative direction (−L * direction), while the lower the measured illuminance, the greater the displacement in the L * -axis positive direction (+ L * direction). Thus, the color position is corrected. As a result, for example, as indicated by an arrow on the lower side of FIG. 5, the point (L 0 * , a 0 * , b 0 * ) in the L * a * b * space is displaced in parallel to the L * axis. It is corrected. Then, the second processing unit 12 includes the corrected color position of the pixel among the plurality of color regions defined in the L * a * b * space stored by the color region storage unit 13. After determining one color region, the color associated with the one color region and stored in the color region storage unit 13 is determined as the color of this pixel (FIG. 3 / S012). Each color region can be determined by experiments or the like. Categorical basic colors i (i = red, brown, orange, yellow, green, blue, purple, pink, black, gray, white) for L * a * b * color space (closed area), which is defined in the space Vi Is included in the corrected color position, the color of the pixel is determined as “i”. For example, when the corrected color position is included in the color region (closed region) Vwhite (i = white) defined in the L * a * b * space, the color of the pixel is determined to be “white”. . Thus, for example, as shown in FIG. 4B, even if the road and the lane mark are bluish due to illuminance or light irradiation conditions in the original color image, the pixel portion corresponding to the road is human. A color image in which the pixel portion corresponding to lane mark (white line) LM is corrected to white perceived as the color of the lane mark is obtained.

そして、補正後のカラー画像から左右一対のレーンマークLMが抽出され、レーンマークLMにより左右が画定される走行帯が決定され、かつ、車両1がこの走行帯からはみ出さないように必要に応じて操舵装置110および制動装置120のうち一方または両方の動作が制御される。   Then, a pair of left and right lane marks LM are extracted from the corrected color image, a traveling zone in which the left and right are demarcated by the lane mark LM is determined, and as necessary so that the vehicle 1 does not protrude from this traveling zone. Thus, the operation of one or both of the steering device 110 and the braking device 120 is controlled.

前記機能を発揮する車両環境認識装置100によれば、カラー画像の各画素の色を表わすRGB空間における元位置がL***空間に座標変換されることにより色位置が算定される(図3/S006,図5参照)。さらに、照度(または明度)が測定され、この測定値に基づき、画素の色位置がL*軸に平行に変位するように補正され、各画素が補正後の色位置が含まれる領域に対応する色を有する画素であると決定される(図3/S010,S012,図5矢印参照)。色位置の補正により、車両1の周辺における照度または明度の相違の色認識態様に対する影響が軽減または解消されうる。また、色空間において誘目性の相違、暖色および寒色の相違、膨張色および収縮色の相違等に応じて画定された一の領域に対応して一の色が各画素の色として決定されるので、人間の色知覚に鑑みた違和感が解消されるような形態で各画素の色が認識されうる(図4(b)参照)。したがって、照度の相違に車両1の周囲における環境の相違に応じて、カラー画像における各画素の色の認識結果と人間の色知覚との整合を図ることができる。 According to the vehicle environment recognition apparatus 100 that exhibits the above function, the color position is calculated by coordinate-transforming the original position in the RGB space representing the color of each pixel of the color image into the L * a * b * space ( (See FIG. 3 / S006, FIG. 5). Further, the illuminance (or brightness) is measured, and based on this measurement value, the color position of the pixel is corrected so as to be displaced parallel to the L * axis, and each pixel corresponds to a region including the corrected color position. It is determined that the pixel has a color (see arrows in FIGS. 3 / S010, S012, and FIG. 5). By correcting the color position, the influence of the difference in illuminance or lightness around the vehicle 1 on the color recognition mode can be reduced or eliminated. In addition, since one color is determined as the color of each pixel corresponding to one area defined according to differences in attractiveness, differences between warm and cold colors, differences between expanded and contracted colors, etc. in the color space. Then, the color of each pixel can be recognized in such a manner that the sense of incongruity in view of human color perception is eliminated (see FIG. 4B). Therefore, the color recognition result of each pixel in the color image and the human color perception can be matched according to the difference in illuminance and the difference in environment around the vehicle 1.

なお、L***空間における色位置が照度に基づいてL*軸方向に平行に変位するように補正されることに代えてまたは加えて、色度a*およびb*のうち一方または両方の軸に平行に変位するように色位置が補正されてもよい。この場合、測定器としてのカメラCまたはこれとは別個に車両1に搭載されているカメラにより得られたカラー画像から色相または彩度の基準が決定された上で、色位置が補正されうる。 Incidentally, L * a * b * in place of the corrected is that of or in addition to displaced parallel to the L * axis direction on the basis of the color position illuminance in space, one of the chromaticity a * and b * or The color position may be corrected so as to be displaced parallel to both axes. In this case, the color position can be corrected after a hue or saturation reference is determined from a color image obtained by the camera C as a measuring instrument or a camera mounted on the vehicle 1 separately from the camera C.

また、カラー画像を構成する各画素の色を表わすRGB空間の位置が、L***空間に代えて、CMY空間、CMYK空間、CMK空間、HSV空間、HLS空間等の色空間における色位置に座標変換されてもよい。HSV空間またはHLS空間に座標変換された色位置は、照度計Sによる照度の測定結果に基づき、V軸(明度軸)、L軸(輝度軸)に平行な方向に変位するように補正されうる。CMY空間、CMYK空間またはCMK空間に座標変換された色位置は、測定器としてのカメラCまたはこれとは別個に車両1に搭載されているカメラにより得られたカラー画像に基づいて測定されたシアン(C)の基準値に基づいて補正されうる。 Further, the position of the RGB space representing the color of each pixel constituting the color image is changed to a color in a color space such as CMY space, CMYK space, CMK space, HSV space, HLS space, etc., instead of the L * a * b * space. The coordinates may be converted into a position. The color position coordinate-converted into the HSV space or HLS space can be corrected based on the illuminance measurement result by the illuminometer S so as to be displaced in a direction parallel to the V axis (brightness axis) and the L axis (luminance axis). . The color position coordinate-converted into CMY space, CMYK space, or CMK space is measured based on a color image obtained by a camera C as a measuring device or a camera mounted on the vehicle 1 separately from this. Correction can be made based on the reference value of (C).

本発明の車両環境認識装置の構成説明図Structure explanatory drawing of the vehicle environment recognition apparatus of this invention 本発明の車両環境認識装置の構成説明図Structure explanatory drawing of the vehicle environment recognition apparatus of this invention レーンマーク認識処理の手順を表わすフローチャートFlow chart showing the procedure of lane mark recognition processing カラー画像における各画素の補正に関する説明図Explanatory drawing about correction of each pixel in a color image RGB空間から色空間への座標変換に関する説明図Explanatory drawing about coordinate conversion from RGB space to color space

符号の説明Explanation of symbols

1‥車両、10‥車両環境認識装置、11‥第1処理部、12‥第2処理部、13‥色領域記憶部、C‥カメラ(撮像装置)、S‥照度計(測定器) DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Vehicle environment recognition apparatus, 11 ... 1st process part, 12 ... 2nd process part, 13 ... Color area memory | storage part, C ... Camera (imaging device), S ... Illuminance meter (measuring instrument)

Claims (2)

車両の周辺を撮像する撮像装置と、
色の要素を表わす指定変数の前記車両の周辺における値を測定する測定器と、前記撮像装置による撮像されたカラー画像を構成する画素の色を表わすRGB空間における元位置を、前記指定変数により定義される指定軸を有する色空間に座標変換することにより色位置を算定し、かつ、前記測定器により測定された前記指定変数の値に応じて前記色位置の前記指定軸の座標を補正することにより前記画素の前記色位置を算定する第1処理部と、
前記色空間における複数の色領域のそれぞれと色とを対応付けて記憶する色領域記憶部と、
前記色空間において前記第1処理部により算定された前記画素の前記色位置が含まれる前記色領域に、前記色領域記憶部により対応付けられている記憶されている色を、前記画素の色として決定する第2処理部とを備えていることを特徴とする車両環境認識装置。
An imaging device for imaging the periphery of the vehicle;
A measuring device for measuring a value of a designated variable representing a color element in the vicinity of the vehicle, and an original position in RGB space representing a color of a pixel constituting a color image taken by the imaging device is defined by the designated variable. A color position is calculated by converting the coordinates into a color space having a designated axis, and the coordinates of the designated axis of the color position are corrected according to the value of the designated variable measured by the measuring device. A first processing unit that calculates the color position of the pixel by:
A color area storage unit that stores each of the plurality of color areas in the color space in association with each other; and
In the color space, the stored color associated with the color area including the color position of the pixel calculated by the first processing unit by the color area storage unit is used as the color of the pixel. A vehicle environment recognition device comprising: a second processing unit for determining.
請求項1記載の車両環境認識装置において、
前記測定器が前記指定変数として前記車両周辺の照度を測定し、
前記第1処理部が前記測定器により測定された照度に基づき、前記色空間としてのL***空間における前記色位置のL*座標を補正することにより算定することを特徴とする車両環境認識装置。
The vehicle environment recognition device according to claim 1,
The measuring device measures the illuminance around the vehicle as the designated variable,
Vehicle, characterized in that calculating by the first processing unit on the basis of the illuminance measured by the measuring device, to correct the L * coordinate of the color position in the L * a * b * space as the color space Environment recognition device.
JP2008233493A 2008-09-11 2008-09-11 Vehicle environment recognition device Expired - Fee Related JP5256421B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008233493A JP5256421B2 (en) 2008-09-11 2008-09-11 Vehicle environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008233493A JP5256421B2 (en) 2008-09-11 2008-09-11 Vehicle environment recognition device

Publications (2)

Publication Number Publication Date
JP2010067053A true JP2010067053A (en) 2010-03-25
JP5256421B2 JP5256421B2 (en) 2013-08-07

Family

ID=42192581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008233493A Expired - Fee Related JP5256421B2 (en) 2008-09-11 2008-09-11 Vehicle environment recognition device

Country Status (1)

Country Link
JP (1) JP5256421B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348991A (en) * 1993-06-02 1994-12-22 Sumitomo Electric Ind Ltd Traveling environment recognizer for traveling vehicle
JP2005234892A (en) * 2004-02-19 2005-09-02 Seiko Epson Corp Color matching profile creating device, color matching system, color matching method, color matching program, and electronic apparatus
JP2006209209A (en) * 2005-01-25 2006-08-10 Honda Elesys Co Ltd Lane mark extraction device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348991A (en) * 1993-06-02 1994-12-22 Sumitomo Electric Ind Ltd Traveling environment recognizer for traveling vehicle
JP2005234892A (en) * 2004-02-19 2005-09-02 Seiko Epson Corp Color matching profile creating device, color matching system, color matching method, color matching program, and electronic apparatus
JP2006209209A (en) * 2005-01-25 2006-08-10 Honda Elesys Co Ltd Lane mark extraction device

Also Published As

Publication number Publication date
JP5256421B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP4414369B2 (en) Vehicle and road marking recognition device
US9604581B2 (en) Vehicle vision system with color correction
JP5454572B2 (en) Image input device
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
US9171215B2 (en) Image processing device
US20090245582A1 (en) Lane recognition apparatus for vehicle, vehicle thereof, and lane recognition program for vehicle
JP5260696B2 (en) Edge point extraction device, lane detection device, and program
JP5921983B2 (en) In-vehicle imaging device
CN105453532A (en) Imaging device, imaging method, and on-board imaging system
JP2010044445A (en) Vehicle environment recognition device
WO2016129552A1 (en) Camera parameter adjustment device
US20130215269A1 (en) Bird view system and compensating method thereof
US20140125794A1 (en) Vehicle environment monitoring device
CN110053625B (en) Distance calculation device and vehicle control device
US10630952B2 (en) Image sensor
KR102333707B1 (en) A low-light imaging system
JP5256421B2 (en) Vehicle environment recognition device
JP5716944B2 (en) In-vehicle camera device
CN107079108B (en) Motor vehicle camera device, method for operating same and motor vehicle comprising same
JP2016025394A (en) Display device for vehicle
US7224833B2 (en) Method for fast color saturation control
JP2012010141A (en) Image processing apparatus
KR20170056753A (en) Apparatus for assisting running of vehicle using head-up display and method thereof
JP7244221B2 (en) Object recognition device
WO2014174765A1 (en) Image capture device and image capture method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5256421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees