JP7390899B2 - lane mark recognition device - Google Patents

lane mark recognition device Download PDF

Info

Publication number
JP7390899B2
JP7390899B2 JP2020002664A JP2020002664A JP7390899B2 JP 7390899 B2 JP7390899 B2 JP 7390899B2 JP 2020002664 A JP2020002664 A JP 2020002664A JP 2020002664 A JP2020002664 A JP 2020002664A JP 7390899 B2 JP7390899 B2 JP 7390899B2
Authority
JP
Japan
Prior art keywords
lane mark
road surface
image
lane
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020002664A
Other languages
Japanese (ja)
Other versions
JP2021111122A (en
Inventor
守哉 堀内
直也 多田
裕史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020002664A priority Critical patent/JP7390899B2/en
Publication of JP2021111122A publication Critical patent/JP2021111122A/en
Application granted granted Critical
Publication of JP7390899B2 publication Critical patent/JP7390899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、レーンマーク認識装置に係り、例えば、ステレオカメラシステムなどのセンシングシステムのためのレーンマーク認識に関する。 TECHNICAL FIELD The present invention relates to a lane mark recognition device, for example lane mark recognition for a sensing system such as a stereo camera system.

近年、車載カメラ装置の普及により、安全運転や自動運転に向けた各種認識機能への要求が高まってきている。なかでも、ステレオカメラ装置は、画像に依る視覚的な情報と、画像内の対象物への距離情報を同時に計測するため、車両周辺の様々な対象物(人、車、立体物、路面、路面標識、看板標識など)を詳細に把握でき、運転支援時の安全性の向上にも寄与するとされている。例えば、運転支援機能として、路面上のレーンマークを認識し、車線中央に沿った走行を支援するLKA(Lane Keeping Assist)などが挙げられ、そのような機能の性能向上のためのレーンマーク認識技術の需要が高まっている。 In recent years, with the spread of in-vehicle camera devices, there has been an increasing demand for various recognition functions for safe driving and autonomous driving. Among these, stereo camera devices simultaneously measure visual information from images and distance information to objects in the image, so they can detect various objects around the vehicle (people, cars, three-dimensional objects, road surfaces, etc.). The system is said to be able to grasp detailed information on road signs, signboards, etc., and contribute to improving safety during driving support. For example, driving support functions include LKA (Lane Keeping Assist), which recognizes lane marks on the road and supports driving in the center of the lane, and lane mark recognition technology is needed to improve the performance of such functions. demand is increasing.

従来から、車両に搭載され、車両の前方の状況を認識する車載カメラ装置に関する様々な技術・装置が提案されてきた。例えば、レーンマーク認識の性能向上に関しては、路面への光の照射状態が部分的に異なっている場合でも、レーンマークを精度よく認識する技術として、特許文献1が挙げられる。 2. Description of the Related Art Various techniques and devices have been proposed in the past regarding in-vehicle camera devices that are mounted on a vehicle and that recognize the situation in front of the vehicle. For example, with regard to improving the performance of lane mark recognition, Patent Document 1 is cited as a technique for accurately recognizing lane marks even when the state of light irradiation on the road surface is partially different.

特開2007-26106号公報Japanese Patent Application Publication No. 2007-26106

特許文献1に所載の従来技術では、複数画素を包含するエリアの移動方向先端部分の第1画素の色成分を、第1画素とともにエリアに包含される第2画素の輝度値を基準に補正し、補正された第1画素の色成分に基づき注目色に応じた第1画素の特徴量を算出することで、路面画像において該注目色のレーンマークを認識する。 In the conventional technology described in Patent Document 1, the color component of a first pixel at the leading end in the moving direction of an area including multiple pixels is corrected based on the luminance value of a second pixel included in the area together with the first pixel. Then, by calculating the feature amount of the first pixel according to the color of interest based on the corrected color component of the first pixel, the lane mark of the color of interest is recognized in the road surface image.

しかしながら、上述した従来技術では、路面部分にさす影や光の影響により、路面の色が第1画素の色成分に十分に反映されず、第1画素における注目色に応じた特徴量が抑制され、当該注目色のレーンマークの認識精度が低下するおそれがある。 However, in the above-mentioned conventional technology, the color of the road surface is not sufficiently reflected in the color component of the first pixel due to the influence of shadows and light on the road surface, and the feature amount corresponding to the color of interest in the first pixel is suppressed. , there is a risk that the recognition accuracy of the lane mark of the color of interest may be reduced.

本発明は、上記事情に鑑みてなされたもので、その目的とするところは、特定の色のレーンマークの認識精度を向上させることのできるレーンマーク認識装置を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a lane mark recognition device that can improve the recognition accuracy of lane marks of a specific color.

上記課題を解決するため、本発明に係るレーンマーク認識装置は、カメラ装置により取得された画像から得られる視差画像を用いて路面上のレーンマークを認識するレーンマーク認識装置であって、前記視差画像から前記レーンマークの情報を取得し、前記レーンマークの情報に基づいて推定された路面領域の第1の色成分が占める割合を取得し、前記第1の色成分の割合に基づいて、前記レーンマークの第2の色成分を認識するための閾値を変更することを特徴とする。 In order to solve the above-mentioned problems, a lane mark recognition device according to the present invention is a lane mark recognition device that recognizes lane marks on a road surface using a parallax image obtained from an image acquired by a camera device. Information on the lane mark is acquired from the image, a proportion of the road surface area estimated based on the information on the lane mark is occupied by the first color component, and based on the proportion of the first color component, the The present invention is characterized by changing the threshold value for recognizing the second color component of the lane mark.

本発明によれば、例えば夜間でも特定の色のレーンマークを精度よくまたはより確実に認識することが可能となる。例えば、白色のレーンマークである白線を黄色のレーンマークである黄線と認識してしまう可能性を低くすることができ、夜間でも白線と黄線を精度よく識別することができる。これにより、例えば夜間でも、複数の色のレーンマークがある路面の中から特定の色のレーンマークに基づいた車両制御が可能となる。例えば、欧州の工事区間において、一時的に車線として区画された車線を正確に追従した車線維持制御が可能となる。 According to the present invention, lane marks of a specific color can be recognized accurately or more reliably even at night, for example. For example, it is possible to reduce the possibility that a white line, which is a white lane mark, will be recognized as a yellow line, which is a yellow lane mark, and it is possible to accurately distinguish between a white line and a yellow line even at night. This makes it possible to control the vehicle based on a lane mark of a specific color from a road surface with lane marks of a plurality of colors, even at night, for example. For example, in a construction zone in Europe, it becomes possible to perform lane maintenance control that accurately follows lanes that have been temporarily divided into lanes.

上記した以外の課題、構成および効果は以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be made clear by the description of the embodiments below.

本発明の実施例に係る車載ステレオカメラシステムの搭載概要を示す図である。1 is a diagram illustrating an installation outline of an in-vehicle stereo camera system according to an embodiment of the present invention. 本発明の実施例に係る車載ステレオカメラシステムの内部構成(機能ブロック構成)を示すブロック図である。FIG. 1 is a block diagram showing an internal configuration (functional block configuration) of an in-vehicle stereo camera system according to an embodiment of the present invention. 本実施例の画像信号処理ユニットの内部構成(機能ブロック構成)を示すブロック図である。FIG. 2 is a block diagram showing the internal configuration (functional block configuration) of the image signal processing unit of the present embodiment. RCCCとRGGBのレイヤ配列の一例を示す図である。FIG. 3 is a diagram showing an example of a layer arrangement of RCCC and RGGB. RCCCにおけるRとCによる色分布を示す図である。FIG. 3 is a diagram showing color distribution by R and C in RCCC. 視差処理の概要を示す図である。FIG. 3 is a diagram showing an overview of parallax processing. 路面画像を説明する図である。It is a figure explaining a road surface image. 光による影響で特定部分の黄成分の変化を示す図である。FIG. 3 is a diagram illustrating changes in the yellow component of a specific portion due to the influence of light. 黄線判定用の閾値の変動を説明する図である。FIG. 3 is a diagram illustrating fluctuations in a threshold value for yellow line determination.

以下、本発明の実施形態について図面を用いて説明する。なお、各図において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。 Embodiments of the present invention will be described below with reference to the drawings. Note that in each figure, parts having the same functions may be designated by the same reference numerals and repeated explanations may be omitted.

図1は、本発明の実施例に係る車載ステレオカメラ装置101を備える車載ステレオカメラシステム100の搭載概要を示す図である。 FIG. 1 is a diagram showing an installation outline of a vehicle-mounted stereo camera system 100 including a vehicle-mounted stereo camera device 101 according to an embodiment of the present invention.

図示実施例の車載ステレオカメラシステム100において、車載ステレオカメラ装置101は、車両前方上部のフロントガラスの手前に設置される。車載ステレオカメラシステム100は、前記車載ステレオカメラ装置101が画像信号処理ユニット102や制御ユニット103を通して車内ネットワークとつながり、アクセル105、ブレーキ106、ステアリング104などを制御する。車載ステレオカメラシステム100は、これら(101~106)が車両107に搭載されるという形態を持つ。また、画像信号処理ユニット102と制御ユニット103については、車載スレテオカメラ装置101自身が処理を兼ねることもあり、装置として省略することもできる。 In the vehicle-mounted stereo camera system 100 of the illustrated embodiment, the vehicle-mounted stereo camera device 101 is installed in front of the windshield at the upper front of the vehicle. In the in-vehicle stereo camera system 100, the in-vehicle stereo camera device 101 is connected to an in-vehicle network through an image signal processing unit 102 and a control unit 103, and controls an accelerator 105, a brake 106, a steering wheel 104, and the like. The in-vehicle stereo camera system 100 has a configuration in which these (101 to 106) are mounted on a vehicle 107. In addition, the image signal processing unit 102 and the control unit 103 may be omitted as the in-vehicle stereo camera device 101 itself may also perform the processing.

図2は、本発明の実施例に係る車載ステレオカメラシステム100の内部構成(機能ブロック構成)、特にそのうちの車載ステレオカメラ装置101および画像信号処理ユニット102の内部構成(機能ブロック構成)を示すブロック図である。 FIG. 2 is a block diagram showing the internal configuration (functional block configuration) of the in-vehicle stereo camera system 100 according to the embodiment of the present invention, particularly the internal configuration (functional block configuration) of the in-vehicle stereo camera device 101 and the image signal processing unit 102. It is a diagram.

車載ステレオカメラ装置101は、画像情報を取得する左右に(横並びに)配置された2つのカメラ201、202(左カメラ201、右カメラ202)を持つ。2つのカメラ201、202は、視野(撮像領域)の一部が重なるように車両107の前方上部のフロントガラスの手前に設置される。 The in-vehicle stereo camera device 101 has two cameras 201 and 202 (left camera 201 and right camera 202) arranged on the left and right (side by side) to acquire image information. The two cameras 201 and 202 are installed in front of the front upper windshield of the vehicle 107 so that their fields of view (imaging areas) partially overlap.

なお、本実施例では、車載ステレオカメラ装置101を構成する2つのカメラ201、202は、車両107の前方上部に設置されて車両107の前方を撮像する(換言すれば、車両107の前方の画像(情報)を取得する)ようになっているが、車両107の後方や側方を撮像するようにしてもよいことは当然である。 In this embodiment, the two cameras 201 and 202 constituting the in-vehicle stereo camera device 101 are installed at the front upper part of the vehicle 107 to take an image of the front of the vehicle 107 (in other words, the two cameras 201 and 202 constituting the in-vehicle stereo camera device 101 are (information)), but it goes without saying that images of the rear and sides of the vehicle 107 may also be captured.

画像信号処理ユニット102は、カメラ201、202の撮像を制御して、撮像した画像を取り込むための画像入力インタフェース203を持つ。この画像入力インタフェース203を通して取り込まれた画像は、バス209を通してデータが送られ、画像処理部204や演算処理部205で処理され、処理途中の結果や最終結果となる画像データなどが記憶部206に記憶される。 The image signal processing unit 102 has an image input interface 203 for controlling imaging by the cameras 201 and 202 and importing the captured images. The image captured through the image input interface 203 is sent through the bus 209 and processed by the image processing unit 204 and the arithmetic processing unit 205, and the intermediate processing results and final result image data are stored in the storage unit 206. be remembered.

画像処理部204は、カメラ201の撮像素子から得られる第1の画像(左画像)と、カメラ202の撮像素子から得られる第2の画像(右画像)とを比較して、それぞれの画像に対して、撮像素子に起因するデバイス固有の偏差の補正や、ノイズ補間などの画像補正を行い、これを記憶部206に記憶する。本実施例では、画像処理の補正による空間解像度の低下を最小限にすることができ、感度の高さから夜間などの光源が乏しい状況において従来のRGGBレイヤより優位となるRCCCレイヤを採用する(図4参照)。更に、画像処理部204は、第1および第2の画像の間で、相互に対応する箇所を計算して、視差情報(視差画像)を計算し、先程と同様に、これを記憶部206に記憶する。 The image processing unit 204 compares the first image (left image) obtained from the image sensor of the camera 201 and the second image (right image) obtained from the image sensor of the camera 202, and adds an image to each image. On the other hand, image correction such as correction of device-specific deviation caused by the image sensor and noise interpolation is performed, and the correction is stored in the storage unit 206. In this example, the RCCC layer is used, which can minimize the decrease in spatial resolution due to image processing correction, and is superior to the conventional RGGB layer in situations where light sources are scarce, such as at night, due to its high sensitivity ( (See Figure 4). Furthermore, the image processing unit 204 calculates mutually corresponding locations between the first and second images, calculates parallax information (parallax image), and stores this in the storage unit 206 as before. Remember.

演算処理部205は、記憶部206に蓄えられた画像および視差情報(画像上の各点に対する距離情報)を使い、車両107周辺の環境を知覚するために必要な認識(例えば、レーンマーク、歩行者、車両、その他立体物、信号、標識など)を行う。これら認識結果や中間的な計算結果の一部が、先程と同様に記憶部206に記録される。 The arithmetic processing unit 205 uses the image and parallax information (distance information for each point on the image) stored in the storage unit 206, and uses the recognition necessary to perceive the environment around the vehicle 107 (for example, lane marks, walking distance information). persons, vehicles, other three-dimensional objects, signals, signs, etc.). A portion of these recognition results and intermediate calculation results are recorded in the storage unit 206 as before.

撮像した画像に対して前述の認識を行った後に、制御処理部208は、これら認識結果を用いて車両107の制御方針を計算する。 After performing the above-described recognition on the captured image, the control processing unit 208 calculates a control policy for the vehicle 107 using these recognition results.

計算の結果として得られた車両107の制御方針や、レーンマークなどの認識結果の一部はCANインタフェース207を通して、外部の車載ネットワークCAN210に伝えられ、これにより制御ユニット103を介して車両107の制動(アクセル105、ブレーキ106、ステアリング104などの制御)が行われる。 Part of the control policy for the vehicle 107 obtained as a result of calculation and the recognition results such as lane marks are transmitted to the external in-vehicle network CAN 210 through the CAN interface 207, thereby controlling the braking of the vehicle 107 via the control unit 103. (Control of accelerator 105, brake 106, steering 104, etc.) is performed.

前述したように、画像信号処理ユニット102では、カメラ201、202から取り込んだ画像から得られる視差情報(視差画像)を用いて車両107周辺の様々な対象物を認識し、その認識結果に基づいて車両107の制御方針を計算するが、以下では、そのうち路面上に設けられたレーンマークを認識する処理について詳細に説明する。 As described above, the image signal processing unit 102 recognizes various objects around the vehicle 107 using parallax information (parallax images) obtained from images captured from the cameras 201 and 202, and based on the recognition results. The control policy for the vehicle 107 is calculated, and the process of recognizing lane marks provided on the road surface will be described in detail below.

図3は、本実施例の画像信号処理ユニット(レーンマーク認識装置)102の内部構成(機能ブロック構成)を示すブロック図である。 FIG. 3 is a block diagram showing the internal configuration (functional block configuration) of the image signal processing unit (lane mark recognition device) 102 of this embodiment.

本実施例のレーンマーク認識装置である画像信号処理ユニット102は、レーンマーク認識処理を実行するための機能ブロックとして、左画像取得部301、右画像取得部302、視差画像生成部303、レーンマーク検出部304、路面推定部305、路面色判定部306、レーンマーク色判定部307、車両制御部308を有する。例えば、左画像取得部301および右画像取得部302は、図2の画像入力インタフェース203、視差画像生成部303は、図2の画像処理部204、レーンマーク検出部304、路面推定部305、路面色判定部306、およびレーンマーク色判定部307は、図2の演算処理部205、車両制御部308は、図2の制御処理部208に内蔵される。 The image signal processing unit 102, which is the lane mark recognition device of this embodiment, includes a left image acquisition unit 301, a right image acquisition unit 302, a parallax image generation unit 303, a lane mark It has a detection section 304, a road surface estimation section 305, a road surface color determination section 306, a lane mark color determination section 307, and a vehicle control section 308. For example, the left image acquisition unit 301 and the right image acquisition unit 302 are the image input interface 203 in FIG. The color determination unit 306 and the lane mark color determination unit 307 are incorporated in the arithmetic processing unit 205 in FIG. 2, and the vehicle control unit 308 is incorporated in the control processing unit 208 in FIG.

前述したように、本実施例では、車載ステレオカメラ装置101を構成するカメラ201、202は、光源が乏しい状況において従来のRGGBレイヤより優位となるRCCCレイヤを持つ撮像素子を有する。 As described above, in this embodiment, the cameras 201 and 202 constituting the in-vehicle stereo camera device 101 have an image sensor having an RCCC layer that is superior to a conventional RGGB layer in a situation where a light source is scarce.

図4に、RCCCレイヤとRGGBレイヤの配列の一例を示す。また、図5に、RCCCにおけるR(赤)素子とC(クリア)素子を用いた色分布を示す。図5において、縦軸はRCCCにおけるR(赤)とC(クリア)の比率を表し、横軸はRCCCにおけるC(クリア)の輝度値を表す。図5に示すように、R(赤)とC(クリア)の比率およびC(クリア)の輝度値から、カメラ201、202で取得した画像内の特定の色成分を抽出・判定することが可能である。 FIG. 4 shows an example of the arrangement of the RCCC layer and the RGGB layer. Further, FIG. 5 shows the color distribution using an R (red) element and a C (clear) element in RCCC. In FIG. 5, the vertical axis represents the ratio of R (red) and C (clear) in RCCC, and the horizontal axis represents the brightness value of C (clear) in RCCC. As shown in FIG. 5, it is possible to extract and determine specific color components in images acquired by cameras 201 and 202 from the ratio of R (red) and C (clear) and the brightness value of C (clear). It is.

しかし、この場合、図5に示すように、例えば車両107のヘッドライトなどの光に照らされた白線は、黄成分として抽出されて黄線と判断される場合がある。 However, in this case, as shown in FIG. 5, for example, a white line illuminated by light such as the headlights of the vehicle 107 may be extracted as a yellow component and determined to be a yellow line.

そこで、本実施例の画像信号処理ユニット(レーンマーク認識装置)102では、上述した各部において、以下で述べる各処理が実行される。なお、本処理は、主に白成分で構成されるレーンマークである白線と路面とが、同様に無彩色であることを前提としている。 Therefore, in the image signal processing unit (lane mark recognition device) 102 of this embodiment, each of the processes described below is executed in each of the above-mentioned parts. Note that this processing assumes that the white line, which is a lane mark mainly composed of white components, and the road surface are similarly achromatic.

まず、左画像取得部301および右画像取得部302は、左右のカメラ201、202から車両前方の路面画像(路面を映した画像)(図7参照)をそれぞれ取得する。 First, the left image acquisition unit 301 and the right image acquisition unit 302 acquire road surface images (images showing the road surface) in front of the vehicle from the left and right cameras 201 and 202, respectively (see FIG. 7).

次に、視差画像生成部303は、左画像取得部301および右画像取得部302で取得した左右2つの路面画像をお互いに照合することで、視差を計算する。 Next, the parallax image generation unit 303 calculates the parallax by comparing the two left and right road surface images acquired by the left image acquisition unit 301 and the right image acquisition unit 302 with each other.

図6を用いて視差計算のプロセスを述べる。 The process of parallax calculation will be described using FIG.

まず、左右の画像で視差計算の対象エリアとなるのが401と404である。ここで、画像401をある一定の小領域に分割し、着目する小領域に対応する部分を画像404の中から探すプロセスが、視差計算のプロセスである。具体的には、画像401上の着目する小領域と同じサイズの画像402を画像404から切り出し、この切出し範囲を矢印403のように横にシフトして、最も良く照合する場所を探すのが、視差の照合処理となる。 First, areas 401 and 404 are the target areas for parallax calculation in the left and right images. Here, the process of dividing the image 401 into certain small regions and searching the image 404 for a portion corresponding to the small region of interest is the process of parallax calculation. Specifically, an image 402 of the same size as the small area of interest on the image 401 is cut out from the image 404, and this cutout range is shifted horizontally as indicated by the arrow 403 to find the best matching location. This is a parallax matching process.

次に、レーンマーク検出部304は、視差画像生成部303の計算の結果、得られた視差情報(視差を含む視差画像)と、左右の路面画像または一方の路面画像を使い、レーンマーク認識を行う。レーンマーク検出部304は、例えば、左右画像もしくは一方の画像のC画像から輝度変化部分を抽出し、レーンマークのエッジを検出する。そして、レーンマーク検出部304は、検出したレーンマーク部分の距離情報を視差画像生成部303より算出した視差(視差画像)を基に二次元座標から世界座標に変換して登録する。また、レーンマーク検出部304は、検出したレーンマーク部分のR画像とC画像を参照し、画素のRとCの比率およびCの輝度値を基に(図5参照)、特定色成分(例えば黄成分)がレーンマーク部分を占める割合を登録する。 Next, the lane mark detection unit 304 performs lane mark recognition using the parallax information (parallax images including parallax) obtained as a result of the calculation by the parallax image generation unit 303 and the left and right road surface images or one of the road surface images. conduct. For example, the lane mark detection unit 304 extracts the brightness change portion from the left and right images or the C image of one image, and detects the edge of the lane mark. The lane mark detection unit 304 then converts the distance information of the detected lane mark portion from two-dimensional coordinates to world coordinates based on the parallax (parallax image) calculated by the parallax image generation unit 303 and registers the distance information. In addition, the lane mark detection unit 304 refers to the R image and C image of the detected lane mark portion, and based on the ratio of R and C of the pixel and the brightness value of C (see FIG. 5), the lane mark detection unit 304 uses a specific color component (for example, Register the proportion of yellow component) that occupies the lane mark part.

路面推定部305は、レーンマーク検出部304で検出(取得)したレーンマークの情報(距離情報)から、路面上のレーンマークの形状および路面勾配を算出し、路面画像における路面領域を推定する。 The road surface estimating section 305 calculates the shape of the lane mark on the road surface and the road surface slope from the lane mark information (distance information) detected (obtained) by the lane mark detecting section 304, and estimates the road surface area in the road surface image.

路面色判定部306は、路面推定部305で推定した路面領域の画素のRとCの比率およびCの輝度値から画素の色を求め、その路面領域の特定色成分(例えば黄成分)の占める割合を算出して登録する。 The road surface color determination section 306 determines the color of the pixel from the ratio of R and C of the pixel in the road surface area estimated by the road surface estimation section 305 and the brightness value of C, and determines the color of the pixel occupied by a specific color component (for example, yellow component) of the road surface area. Calculate and register the ratio.

ここで、路面領域とは、検出されたレーンマークから一定距離車線中央方向に離れた領域をさす。 Here, the road surface area refers to an area that is a certain distance away from the detected lane mark toward the center of the lane.

図7は、本実施例の路面画像を説明する図である。 FIG. 7 is a diagram illustrating a road surface image according to this embodiment.

図7は、左右のカメラ201、202の一方から得られた路面画像506を表し、白色のレーンマーク(つまり、白線)504と白色以外の特定色、例えば黄色のレーンマーク(つまり、黄線)505が存在する。図7中、光照射範囲503は、光、例えば車両107のヘッドライトによる光が照射される領域である。レーンマーク色成分抽出範囲501は、レーンマーク検出部304にて画素の色を抽出するレーンマークの範囲を表し、路面色成分抽出範囲502は、路面色判定部306にて画素の色を抽出する路面領域(路面推定部305にて推定)の範囲を表す。図7に示すように、路面色成分抽出範囲502は、レーンマーク色成分抽出範囲501から所定距離車線中央方向に離れた領域(一例として、レーンマーク色成分抽出範囲501の数cm程度内側から数十cm~1m程度内側までの領域)に設定される。 FIG. 7 shows a road surface image 506 obtained from one of the left and right cameras 201 and 202, with white lane marks (that is, white lines) 504 and lane marks of a specific color other than white, such as yellow lane marks (that is, yellow lines). 505 exists. In FIG. 7, a light irradiation range 503 is an area that is irradiated with light, for example, light from the headlights of the vehicle 107. The lane mark color component extraction range 501 represents the range of lane marks from which the lane mark detection unit 304 extracts the pixel color, and the road color component extraction range 502 represents the range from which the pixel color is extracted by the road color determination unit 306. It represents the range of the road surface area (estimated by the road surface estimation unit 305). As shown in FIG. 7, the road surface color component extraction range 502 is an area that is a predetermined distance away from the lane mark color component extraction range 501 toward the center of the lane (for example, a few centimeters from the inside of the lane mark color component extraction range 501). (area ranging from 10cm to 1m inside).

レーンマーク色判定部307は、路面色判定部306にて登録された特定色の色成分(例えば黄成分)が占める割合から、レーンマーク部分が特定色かを判定する閾値を設定する。ここで、判定精度を向上させるために、路面領域における特定色が占める割合は複数フレーム間の平均値を利用する。レーンマーク色判定部307は、設定された閾値とレーンマーク検出部304にて登録された特定色の色成分が占める割合を比較することで、レーンマークが特定色かどうかの判定を行う。例えば、検出した路面部分の黄成分の割合が30%の時、その50%分(30/2=15%)加算した45%(30+15=45%)をレーンマーク部分の黄線判定の閾値として使用することで、レーンマークの色を判定する。 The lane mark color determination unit 307 sets a threshold value for determining whether the lane mark portion is a specific color based on the proportion of the color component (for example, yellow component) of the specific color registered by the road surface color determination unit 306. Here, in order to improve the determination accuracy, the average value of a plurality of frames is used as the proportion of the specific color in the road surface area. The lane mark color determination unit 307 determines whether the lane mark is of a specific color by comparing the set threshold value with the ratio occupied by the color component of the specific color registered by the lane mark detection unit 304. For example, when the proportion of yellow components in the detected road surface area is 30%, add 50% (30/2=15%) and add 45% (30+15=45%) to the yellow line judgment of the lane mark area. By using this as a threshold, the color of the lane mark is determined.

図8に、ヘッドライトなどの光の影響による路面、白線、および黄線における黄成分の変化(増加)を示す。図5でも説明したように、ヘッドライトなどの光の影響により、白線部分に光による影響(黄成分増加の影響)が加わるため、黄線判定のために予め設定された固定の閾値601では、白線を黄線として誤認識してしまう可能性がある。 FIG. 8 shows changes (increases) in yellow components on the road surface, white lines, and yellow lines due to the influence of light such as headlights. As explained in FIG. 5, due to the influence of light such as headlights, the influence of light (influence of increase in yellow component) is added to the white line part, so the fixed threshold value 601 set in advance for yellow line determination, There is a possibility that a white line may be mistakenly recognized as a yellow line.

図9に、レーンマーク色判定部307による黄線判定用の閾値の変動(可変設定)を示す。前述したレーンマーク色判定部307の処理によって、従来の黄線判定用の閾値601が、路面黄成分の割合を基準として黄線判定用の閾値602となる(増加される)。そのため、ヘッドライトなどの光の影響により、白線を黄線として誤認識してしまう可能性を低減することが可能となる。 FIG. 9 shows fluctuations (variable settings) of the threshold value for yellow line determination by the lane mark color determination unit 307. Through the processing of the lane mark color determination unit 307 described above, the conventional threshold value 601 for yellow line determination becomes (increases) the threshold value 602 for yellow line determination based on the proportion of the road surface yellow component. Therefore, it is possible to reduce the possibility that a white line will be mistakenly recognized as a yellow line due to the influence of light such as headlights.

なお、閾値設定において考慮されるヘッドライト、街灯、夕日などの環境光などの光による影響(黄成分増加の影響)の大きさは、昼夜やトンネル内外、周囲照明などの周囲環境の明るさに応じて変化するため、レーンマーク色判定部307の上記処理によって、昼夜やトンネル内外、周囲照明などの周囲環境の明るさに応じた適正な閾値(例えば黄線判定用の閾値)が可変設定されることになる。 The magnitude of the influence of light such as headlights, streetlights, sunset light, and other environmental light (influence of increased yellow component), which is considered in threshold setting, depends on the brightness of the surrounding environment such as day and night, inside and outside of tunnels, and ambient lighting. Therefore, through the above processing of the lane mark color determination unit 307, an appropriate threshold value (for example, a threshold value for yellow line determination) is variably set according to the brightness of the surrounding environment such as day and night, inside and outside of a tunnel, and surrounding lighting. That will happen.

車両制御部308は、レーンマーク検出部304およびレーンマーク色判定部307で検出したレーンマークの情報(距離情報、色成分情報など)を基に、車線における自車位置を算出し、車線中央を維持するように、ステアリング104(図1)などを制御するための制御信号を生成する。また、車両制御部308は、黄線と白線が同時に存在する場合は、黄線を優先して進行路のレーンマークとして利用する。これにより、複数の色のレーンマークがある路面の中から特定の色のレーンマークに基づいた車両制御が可能となる。 The vehicle control unit 308 calculates the vehicle position in the lane based on the lane mark information (distance information, color component information, etc.) detected by the lane mark detection unit 304 and the lane mark color determination unit 307, and determines the center of the lane. A control signal is generated to control the steering wheel 104 (FIG. 1) and the like so as to maintain the steering wheel 104 (FIG. 1). Further, when a yellow line and a white line exist at the same time, the vehicle control unit 308 gives priority to the yellow line and uses it as a lane mark for the traveling route. This makes it possible to control the vehicle based on a lane mark of a specific color from a road surface with lane marks of a plurality of colors.

なお、上述した実施例では、無彩色である白線と黄線を識別する場合を例示したが、本実施例は、白線と白線以外の適宜のレーンマーク(青線など)を識別する場合にも適用可能であることは勿論である。また、上述した実施例では、レーンマークの距離情報に基づいて推定された路面領域の黄成分が占める割合を取得し、取得した黄成分の割合に基づいて、レーンマークの黄成分を認識するための閾値(黄線判定用の閾値)を変更する場合、換言すれば、路面領域における抽出・認識対象の色成分とレーンマークにおける抽出・認識対象の色成分とが同じである場合を例示したが、それらが異なる場合にも適用可能である。 In addition, in the above-mentioned embodiment, a case where a white line and a yellow line, which are achromatic colors, are identified is exemplified, but this embodiment can also be used when identifying a white line and an appropriate lane mark other than a white line (such as a blue line). Of course, it is applicable. Furthermore, in the above-described embodiment, the proportion of the yellow component of the road surface area estimated based on the distance information of the lane mark is acquired, and the yellow component of the lane mark is recognized based on the obtained proportion of the yellow component. In other words, when changing the threshold value (threshold value for yellow line determination), in other words, the case where the color component to be extracted and recognized in the road surface area and the color component to be extracted and recognized in the lane mark is the same. , it is also applicable when they are different.

以上で説明したように、本実施例の画像信号処理ユニット(レーンマーク認識装置)102は、車載ステレオカメラ装置(RCCCレイヤを持つ撮像素子を有するカメラ装置)101により取得された画像から得られる視差画像から路面上のレーンマークの情報を取得し、前記レーンマークの情報に基づいて推定された路面領域の第1の色成分(例えば黄成分)が占める割合を取得し、前記第1の色成分(例えば黄成分)の割合に基づいて、前記レーンマークの第2の色成分(例えば黄成分)を認識するための閾値を変更する。 As explained above, the image signal processing unit (lane mark recognition device) 102 of the present embodiment uses parallax information obtained from images acquired by the in-vehicle stereo camera device (camera device having an image sensor having an RCCC layer) 101. Information on lane marks on the road surface is acquired from the image, a proportion of the road surface area estimated based on the information on the lane marks occupied by a first color component (for example, a yellow component) is acquired, and the proportion of the first color component (for example, a yellow component) is A threshold value for recognizing the second color component (for example, yellow component) of the lane mark is changed based on the ratio of the second color component (for example, yellow component).

すなわち、本実施例の画像信号処理ユニット(レーンマーク認識装置)102は、認識した路面画像から、路面部分の特定の色成分を抽出し、路面部分における特定の色成分を反映させた閾値を設定することでレーンマークの色を特定する。例えば、本実施例では、認識した路面領域から黄色成分の割合を抽出し、その黄色成分の割合に対応した閾値を設定することで、黄色のレーンマークを認識する。 That is, the image signal processing unit (lane mark recognition device) 102 of this embodiment extracts a specific color component of the road surface portion from the recognized road surface image, and sets a threshold value that reflects the specific color component of the road surface portion. This will identify the color of the lane mark. For example, in this embodiment, a yellow lane mark is recognized by extracting the proportion of the yellow component from the recognized road surface area and setting a threshold corresponding to the proportion of the yellow component.

本実施例によれば、例えば車両のヘッドライトや街灯の影響が生じる夜間でも特定の色のレーンマークを精度よくまたはより確実に認識することが可能となる。例えば、白色のレーンマークである白線を黄色のレーンマークである黄線と認識してしまう可能性を低くすることができ、夜間でも白線と黄線を精度よく識別することができる。これにより、例えば車両のヘッドライトや街灯の影響が生じる夜間でも、複数の色のレーンマークがある路面の中から特定の色のレーンマークに基づいた車両制御が可能となる。例えば、欧州の工事区間において、一時的に車線として区画された車線を正確に追従した車線維持制御が可能となる。 According to this embodiment, it is possible to accurately or more reliably recognize a lane mark of a specific color even at night when the vehicle is affected by headlights of a vehicle or street lights. For example, it is possible to reduce the possibility that a white line, which is a white lane mark, will be recognized as a yellow line, which is a yellow lane mark, and it is possible to accurately distinguish between a white line and a yellow line even at night. This makes it possible to control the vehicle based on a lane mark of a specific color from a road surface with lane marks of a plurality of colors, even at night when the vehicle is affected by headlights or street lights. For example, in a construction zone in Europe, it becomes possible to perform lane maintenance control that accurately follows lanes that have been temporarily divided into lanes.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 Note that the present invention is not limited to the embodiments described above, and includes various modifications. For example, the above-described embodiments have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Furthermore, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that implement each function can be stored in a memory, a storage device such as a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines are shown to be necessary for explanation purposes, and not all control lines and information lines are necessarily shown in the product. In reality, almost all components may be considered to be interconnected.

100 車載ステレオカメラシステム
101 車載ステレオカメラ装置(カメラ装置)
102 画像信号処理ユニット(レーンマーク認識装置)
103 制御ユニット
104 ステアリング
105 アクセル
106 ブレーキ
107 車両
201 左カメラ
202 右カメラ
203 画像入力インタフェース
204 画像処理部
205 演算処理部
206 記憶部
207 CANインタフェース
208 制御処理部
209 バス
210 車載ネットワークCAN
301 左画像取得部
302 右画像取得部
303 視差画像生成部
304 レーンマーク検出部
305 路面推定部
306 路面色判定部
307 レーンマーク色判定部
308 車両制御部
100 In-vehicle stereo camera system 101 In-vehicle stereo camera device (camera device)
102 Image signal processing unit (lane mark recognition device)
103 Control unit 104 Steering 105 Accelerator 106 Brake 107 Vehicle 201 Left camera 202 Right camera 203 Image input interface 204 Image processing section 205 Arithmetic processing section 206 Storage section 207 CAN interface 208 Control processing section 209 Bus 210 In-vehicle network CAN
301 Left image acquisition section 302 Right image acquisition section 303 Parallax image generation section 304 Lane mark detection section 305 Road surface estimation section 306 Road surface color determination section 307 Lane mark color determination section 308 Vehicle control section

Claims (4)

カメラ装置により取得された画像から得られる視差画像を用いて路面上のレーンマークを認識するレーンマーク認識装置であって、
前記視差画像から前記レーンマークの情報を取得し、
前記レーンマークの情報に基づいて推定された路面領域の第1の色成分が占める割合を取得し、
前記第1の色成分の割合に基づいて、前記レーンマークの第2の色成分を認識するための閾値を変更することを特徴とするレーンマーク認識装置。
A lane mark recognition device that recognizes lane marks on a road surface using a parallax image obtained from an image acquired by a camera device,
obtaining information on the lane mark from the parallax image;
obtaining a proportion of the first color component of the road surface area estimated based on the lane mark information;
A lane mark recognition device characterized in that a threshold value for recognizing a second color component of the lane mark is changed based on a ratio of the first color component.
請求項1に記載のレーンマーク認識装置において、
前記レーンマークの情報に基づいて推定された路面領域の黄成分が占める割合を取得し、
前記黄成分の割合に基づいて、前記レーンマークの黄成分を認識するための閾値を変更することを特徴とするレーンマーク認識装置。
The lane mark recognition device according to claim 1,
obtaining the proportion of the yellow component of the road surface area estimated based on the lane mark information;
A lane mark recognition device characterized in that a threshold value for recognizing a yellow component of the lane mark is changed based on a ratio of the yellow component.
請求項1に記載のレーンマーク認識装置において、
前記路面領域は、前記レーンマークから所定距離離れた領域であることを特徴とするレーンマーク認識装置。
The lane mark recognition device according to claim 1,
A lane mark recognition device, wherein the road surface area is an area a predetermined distance away from the lane mark.
請求項1に記載のレーンマーク認識装置において、
前記カメラ装置は、RCCCレイヤを持つ撮像素子を有することを特徴とするレーンマーク認識装置。
The lane mark recognition device according to claim 1,
A lane mark recognition device characterized in that the camera device has an image sensor having an RCCC layer.
JP2020002664A 2020-01-10 2020-01-10 lane mark recognition device Active JP7390899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002664A JP7390899B2 (en) 2020-01-10 2020-01-10 lane mark recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002664A JP7390899B2 (en) 2020-01-10 2020-01-10 lane mark recognition device

Publications (2)

Publication Number Publication Date
JP2021111122A JP2021111122A (en) 2021-08-02
JP7390899B2 true JP7390899B2 (en) 2023-12-04

Family

ID=77059903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002664A Active JP7390899B2 (en) 2020-01-10 2020-01-10 lane mark recognition device

Country Status (1)

Country Link
JP (1) JP7390899B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026106A (en) 2005-07-15 2007-02-01 Honda Motor Co Ltd Vehicle, image processing program, image processing method, and image processing program
JP2016133838A (en) 2015-01-15 2016-07-25 トヨタ自動車株式会社 Composite line determination device and composite line determination method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026106A (en) 2005-07-15 2007-02-01 Honda Motor Co Ltd Vehicle, image processing program, image processing method, and image processing program
JP2016133838A (en) 2015-01-15 2016-07-25 トヨタ自動車株式会社 Composite line determination device and composite line determination method

Also Published As

Publication number Publication date
JP2021111122A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
US9721460B2 (en) In-vehicle surrounding environment recognition device
US8861787B2 (en) Environment recognition device and environment recognition method
JP5083658B2 (en) Vehicle lane recognition device, vehicle, and vehicle lane recognition program
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
US9349070B2 (en) Vehicle external environment recognition device
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US9886773B2 (en) Object detection apparatus and object detection method
WO2015125590A1 (en) External-environment recognition system, vehicle, and camera-dirtiness detection method
EP2928178B1 (en) On-board control device
US20150262365A1 (en) Image processing device and image processing method
WO2016031523A1 (en) Object recognition device and vehicle control system
US20200125861A1 (en) Road line detection device and road line detection method
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US9524645B2 (en) Filtering device and environment recognition system
US11295544B2 (en) Vehicle exterior environment recognition apparatus
WO2014002413A1 (en) Preceding vehicle detection device, preceding vehicle detection method, and preceding vehicle detection program recording medium
JP7229032B2 (en) External object detection device
JP7390899B2 (en) lane mark recognition device
JP7404173B2 (en) Image processing device
JP6254866B2 (en) Vehicle control device
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device
KR102019594B1 (en) Vehicle to vehicle distance estimation method using compensation technique for low resolution camera and apparatus thereof
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
WO2017169704A1 (en) Environment recognition device
KR20150111611A (en) Apparatus and method for detecting vehicle candidate

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7390899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150