JP7338398B2 - Vehicle image processing device - Google Patents

Vehicle image processing device Download PDF

Info

Publication number
JP7338398B2
JP7338398B2 JP2019192285A JP2019192285A JP7338398B2 JP 7338398 B2 JP7338398 B2 JP 7338398B2 JP 2019192285 A JP2019192285 A JP 2019192285A JP 2019192285 A JP2019192285 A JP 2019192285A JP 7338398 B2 JP7338398 B2 JP 7338398B2
Authority
JP
Japan
Prior art keywords
unit
color system
color
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019192285A
Other languages
Japanese (ja)
Other versions
JP2021068125A (en
Inventor
陽司 乾
将太 祖父江
賢樹 古川
直樹 山村
祐也 下平
政孝 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019192285A priority Critical patent/JP7338398B2/en
Priority to DE102020127547.1A priority patent/DE102020127547A1/en
Priority to CN202011132911.1A priority patent/CN112766031A/en
Publication of JP2021068125A publication Critical patent/JP2021068125A/en
Application granted granted Critical
Publication of JP7338398B2 publication Critical patent/JP7338398B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本実施形態は、車両用画像処理装置に関する。 The present embodiment relates to a vehicle image processing apparatus.

従来、路面が撮像されて取得された画像に対して画像処理を行う車両用画像処理装置では、車両の制御に用いるために、画像における路面マークを認識することがある。 2. Description of the Related Art Conventionally, in a vehicle image processing device that performs image processing on an image obtained by capturing an image of a road surface, road marks in the image may be recognized for use in vehicle control.

国際公開第2016/203939号WO2016/203939

車両用画像処理装置では、路面マークの認識精度が低いと、路面マークの認識結果を用いた車両の制御の精度を向上することが困難になる。このため、路面マークの認識精度を向上できる車両用画像処理装置が望まれる。 In the vehicle image processing device, if the recognition accuracy of the road surface mark is low, it becomes difficult to improve the accuracy of vehicle control using the recognition result of the road surface mark. Therefore, a vehicle image processing apparatus capable of improving recognition accuracy of road marks is desired.

実施形態にかかる車両用画像処理装置は、例えば、路面を撮像する撮像部から取得された画像について、第1の表色系のパラメータに応じて所定の色が強調された画像を生成する生成部と、前記所定の色が強調された画像における路面マークを認識する認識部と、前記路面マークに対応する各画素の第2の表色系のパラメータを算出する算出部と、前記路面マークとして認識された領域について、前記算出された第2の表色系のパラメータが前記所定の色を表す閾値範囲に収まるか否かを判定する判定部と、前記判定部の判定結果に応じて、前記認識部の認識結果を修正する修正部とを含む。よって、実施形態にかかる車両用画像処理装置によれば、例えば、第1の表色系のパラメータと第2の表色系のパラメータとを用いて段階的に路面マークの認識結果を絞り込むことができるので、路面マークの認識精度を向上できる。 The vehicle image processing apparatus according to the embodiment includes, for example, a generation unit that generates an image in which a predetermined color is emphasized according to the parameters of the first color system, from the image acquired by the imaging unit that captures the road surface. a recognition unit for recognizing the road surface mark in the image in which the predetermined color is emphasized; a calculation unit for calculating parameters of the second color system for each pixel corresponding to the road surface mark; a determination unit that determines whether the calculated parameter of the second color system falls within the threshold range representing the predetermined color for the region that has been determined; and a correction unit for correcting the recognition result of the part. Therefore, according to the vehicle image processing apparatus according to the embodiment, for example, the road mark recognition results can be narrowed down step by step using the parameters of the first color system and the parameters of the second color system. Therefore, the recognition accuracy of the road mark can be improved.

上記車両用画像処理装置では、例えば、前記認識部は、前記路面マークとして複数の領域を認識し、前記修正部は、前記複数の領域のうち、前記算出された第2の表色系のパラメータが前記閾値範囲から外れる領域について前記認識部の認識結果を取り消し、前記算出された第2の表色系のパラメータが前記閾値範囲に収まる領域について前記認識部の認識結果を維持する。よって、実施形態にかかる車両用画像処理装置によれば、例えば、認識部の認識結果のうち所定の色以外の色が強調された領域の認識結果を取り除くことができ、路面マークの認識結果を精度よく絞り込むことができる。 In the vehicle image processing device, for example, the recognition unit recognizes a plurality of areas as the road surface mark, and the correction unit uses the calculated parameters of the second color system among the plurality of areas. cancels the recognition results of the recognizing unit for regions outside the threshold range, and maintains the recognition results of the recognizing unit for regions where the calculated parameters of the second color system fall within the threshold range. Therefore, according to the vehicle image processing apparatus according to the embodiment, for example, the recognition result of the region in which the color other than the predetermined color is emphasized can be removed from the recognition result of the recognition unit, and the recognition result of the road mark can be removed. It is possible to narrow down with high precision.

上記車両用画像処理装置では、例えば、前記画像における前記路面マークの領域から代表領域を抽出する抽出部をさらに含み、前記算出部は、前記代表領域の各画素の前記第2の表色系のパラメータを算出する。よって、実施形態にかかる車両用画像処理装置によれば、例えば、路面マークの領域から色の安定した代表領域を抽出でき、路面マークについて、第2の表色系のパラメータを精度よく算出することができる。 The image processing device for a vehicle further includes, for example, an extraction unit that extracts a representative area from the area of the road surface mark in the image, and the calculation unit calculates the second color system for each pixel of the representative area. Calculate parameters. Therefore, according to the vehicular image processing apparatus according to the embodiment, for example, a representative area with stable color can be extracted from the area of the road surface mark, and the parameters of the second color system can be accurately calculated for the road surface mark. can be done.

上記車両用画像処理装置では、例えば、前記第1の表色系は、YUV表色系であり、前記第2の表色系は、HSV表色系又はHSL表色系であり、前記算出された第2の表色系のパラメータは、色相パラメータである。よって、実施形態にかかる車両用画像処理装置によれば、例えば、第1の表色系のパラメータを用いて路面から路面マークを精度よく認識でき、第2の表色系のパラメータを用いて認識された路面マークの領域から所定の色以外の色が強調された領域を精度よく取り除くことができる。 In the vehicle image processing device, for example, the first color system is the YUV color system, the second color system is the HSV color system or the HSL color system, and the calculated The parameter of the second color system is the hue parameter. Therefore, according to the vehicle image processing apparatus according to the embodiment, for example, the road surface mark can be accurately recognized from the road surface using the parameters of the first colorimetric system, and the recognition can be performed using the parameters of the second colorimetric system. It is possible to accurately remove an area in which a color other than the predetermined color is emphasized from the area of the marked road surface mark.

上記車両用画像処理装置では、例えば、前記生成部は、YUV表色系の色空間における前記所定の色の識別平面からの各画素の前記変換されたパラメータの座標点までの距離に応じて前記所定の色が強調された画像を生成する。よって、実施形態にかかる車両用画像処理装置によれば、例えば、路面が撮像されて取得された画像における所定の色の画素を識別でき、所定の色が強調された画像を生成できる。 In the vehicle image processing device, for example, the generating unit may generate the above-described To generate an image in which a predetermined color is emphasized. Therefore, according to the vehicle image processing device according to the embodiment, for example, pixels of a predetermined color in an image obtained by imaging a road surface can be identified, and an image in which the predetermined color is emphasized can be generated.

上記車両用画像処理装置では、例えば、前記路面マークは、区画線であり、前記所定の色は、黄色である。よって、実施形態にかかる車両用画像処理装置によれば、例えば、第1の表色系のパラメータと第2の表色系のパラメータとを用いて段階的に区画線の認識の精度を高めることができる。 In the vehicle image processing device, for example, the road mark is a lane marking, and the predetermined color is yellow. Therefore, according to the vehicle image processing apparatus according to the embodiment, for example, the accuracy of lane marking recognition can be increased step by step using the parameters of the first color system and the parameters of the second color system. can be done.

図1は、実施形態にかかるECU(車両用画像処理装置)が適用される車両の車室の一部が透視された状態が示された例示的な斜視図である。FIG. 1 is an exemplary perspective view showing a see-through state of a part of a cabin of a vehicle to which an ECU (vehicle image processing device) according to an embodiment is applied. 図2は、実施形態にかかるECUが適用される車両の例示的な平面図(俯瞰図)である。FIG. 2 is an exemplary plan view (overhead view) of the vehicle to which the ECU according to the embodiment is applied. 図3は、実施形態にかかるECUが適用される車両のダッシュボードの一例の車両後方からの視野での図である。FIG. 3 is a diagram of an example of a dashboard of a vehicle to which the ECU according to the embodiment is applied, viewed from the rear of the vehicle. 図4は、実施形態にかかるECU(車両用画像処理装置)を含む車両制御システムのハードウェア構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a hardware configuration of a vehicle control system including an ECU (vehicle image processing device) according to the embodiment. 図5は、実施形態にかかるECU(車両用画像処理装置)の機能的構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of a functional configuration of an ECU (vehicle image processing device) according to the embodiment. 図6は、実施形態における第1の表色系(YUV表色系)の色空間における所定の色の識別平面からの画素の座標点までの距離を示す図である。FIG. 6 is a diagram showing the distance from the identification plane of a predetermined color to the coordinate point of the pixel in the color space of the first color system (YUV color system) in the embodiment. 図7は、実施形態における第1の表色系(YUV表色系)の色空間における強調したい色(所定の色)と強調したくない色とを示す図である。FIG. 7 is a diagram showing colors to be emphasized (predetermined colors) and colors not to be emphasized in the color space of the first color system (YUV color system) in the embodiment. 図8は、実施形態における路面が撮像されて取得された画像を示す図である。FIG. 8 is a diagram showing an image acquired by imaging the road surface in the embodiment. 図9は、実施形態における所定の色が強調された画像を示す図である。FIG. 9 is a diagram showing an image in which a predetermined color is emphasized according to the embodiment; 図10は、実施形態における路面マーク(区画線)の認識結果を示す図である。FIG. 10 is a diagram showing a recognition result of a road mark (division line) in the embodiment. 図11は、実施形態における路面マーク(区画線)領域から抽出される代表領域を示す図である。FIG. 11 is a diagram showing a representative area extracted from the road mark (division line) area in the embodiment. 図12は、実施形態における路面マーク(区画線)の認識結果(修正後)を示す図である。FIG. 12 is a diagram showing a recognition result (after correction) of a road mark (division line) in the embodiment. 図13は、実施形態における車両の目標位置を設定する処理を示すフローチャートである。FIG. 13 is a flowchart showing processing for setting the target position of the vehicle in the embodiment. 図14は、実施形態における路面マーク(区画線)の検出処理を示すフローチャートである。FIG. 14 is a flowchart showing detection processing of a road surface mark (division line) in the embodiment. 図15は、実施形態における第1の色のフィルター処理を示すフローチャートである。FIG. 15 is a flow chart showing first color filter processing in the embodiment. 図16は、実施形態における第2の色のフィルター処理を示すフローチャートである。FIG. 16 is a flow chart showing second color filter processing in the embodiment. 図17は、実施形態の変形例における路面マーク(区画線)の検出処理を示すフローチャートである。FIG. 17 is a flowchart showing detection processing of a road surface mark (division line) in a modified example of the embodiment.

以下、本実施形態の車両用画像処理装置は、ECU(Electronic Control Unit)として実装され、車両に搭載され得る。車両用画像処理装置が搭載される車両は、例えば、図1に示すような車両1であってもよい。図1は、ECU(車両用画像処理装置)が適用される車両1の車室2aの一部が透視された状態が示された例示的な斜視図である。本実施形態において、車両制御装置を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。あるいは、車両1は、内燃機関と電動機の双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。 Hereinafter, the vehicle image processing apparatus of the present embodiment can be implemented as an ECU (Electronic Control Unit) and mounted on a vehicle. A vehicle in which the vehicle image processing device is mounted may be, for example, a vehicle 1 as shown in FIG. FIG. 1 is an exemplary perspective view showing a see-through state of a part of a cabin 2a of a vehicle 1 to which an ECU (vehicle image processing device) is applied. In this embodiment, the vehicle 1 equipped with the vehicle control device may be, for example, an automobile using an internal combustion engine (not shown) as a drive source, that is, an internal combustion engine automobile, or an automobile using an electric motor (not shown) as a drive source. That is, it may be an electric vehicle, a fuel cell vehicle, or the like. Alternatively, the vehicle 1 may be a hybrid vehicle using both an internal combustion engine and an electric motor as drive sources, or may be a vehicle equipped with other drive sources. In addition, the vehicle 1 can be equipped with various transmissions, and can be equipped with various devices, such as systems and parts, necessary for driving the internal combustion engine and the electric motor.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。 As illustrated in FIG. 1, the vehicle body 2 constitutes a vehicle compartment 2a in which a passenger (not shown) rides. A steering unit 4, an acceleration operation unit 5, a braking operation unit 6, a shift operation unit 7, and the like are provided in the passenger compartment 2a facing the driver's seat 2b. The steering unit 4 is, for example, a steering wheel projecting from the dashboard 24, the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's feet, and the braking operation unit 6 is, for example, the driver's It is a brake pedal positioned under the foot, and the shift operation unit 7 is, for example, a shift lever protruding from the center console. Note that the steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the shift operation unit 7, and the like are not limited to these.

また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。 Further, a display device 8 as a display output unit and an audio output device 9 as an audio output unit are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display), an OELD (organic electroluminescent display), or the like. The audio output device 9 is, for example, a speaker. Further, the display device 8 is covered with a transparent operation input section 10 such as a touch panel. A passenger can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10 . In addition, the occupant can perform an operation input by touching, pressing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. . The display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, in a monitor device 11 positioned at the center of the dashboard 24 in the vehicle width direction, that is, in the left-right direction. The monitor device 11 can have operation input units (not shown) such as switches, dials, joysticks, and push buttons. Further, an audio output device (not shown) can be provided at another position in the vehicle interior 2a different from the monitor device 11, and audio is output from the audio output device 9 of the monitor device 11 and another audio output device. be able to. Note that the monitor device 11 can also be used, for example, as a navigation system or an audio system.

また、車室2a内には、表示装置8とは別の表示装置12が設けられている。図3に例示されるように、表示装置12は、例えば、ダッシュボード24の計器盤部25に設けられ、計器盤部25の略中央で、速度表示部25aと回転数表示部25bとの間に位置されている。表示装置12の画面12aの大きさは、表示装置8の画面8aの大きさよりも小さい。この表示装置12には、主として車両1の駐車支援に関する情報を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。 Further, a display device 12 different from the display device 8 is provided in the passenger compartment 2a. As exemplified in FIG. 3, the display device 12 is provided, for example, on the instrument panel section 25 of the dashboard 24, and is located substantially in the center of the instrument panel section 25 between the speed display section 25a and the rotation speed display section 25b. is located in The size of the screen 12 a of the display device 12 is smaller than the size of the screen 8 a of the display device 8 . The display device 12 can mainly display an image showing information related to parking assistance of the vehicle 1 . The amount of information displayed on the display device 12 may be less than the amount of information displayed on the display device 8 . The display device 12 is, for example, an LCD, an OELD, or the like. Information displayed on the display device 12 may be displayed on the display device 8 .

また、図1,2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図4に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータ13aによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータ13aによって車輪3を転舵したりする。この場合、アクチュエータ13aは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。 Further, as illustrated in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheel vehicle, and has two left and right front wheels 3F and two left and right rear wheels 3R. All of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 4 , the vehicle 1 has a steering system 13 for steering at least two wheels 3 . The steering system 13 has an actuator 13a and a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate an actuator 13a. The steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like. The steering system 13 supplements the steering force by adding torque, ie, assist torque, to the steering unit 4 by the actuator 13a, and steers the wheels 3 by the actuator 13a. In this case, the actuator 13 a may steer one wheel 3 or steer a plurality of wheels 3 . Further, the torque sensor 13b detects torque applied to the steering section 4 by the driver, for example.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a~15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データを出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~190°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮影し、撮像画像データとして出力する。 Further, as illustrated in FIG. 2, the vehicle body 2 is provided with, for example, four imaging units 15a to 15d as a plurality of imaging units 15. As shown in FIG. The imaging unit 15 is, for example, a digital camera incorporating an imaging device such as a CCD (charge coupled device) or CIS (CMOS image sensor). The imaging unit 15 can output moving image data at a predetermined frame rate. The imaging units 15 each have a wide-angle lens or a fish-eye lens, and can take an image in a horizontal range of, for example, 140° to 190°. In addition, the optical axis of the imaging unit 15 is set obliquely downward. Therefore, the imaging unit 15 sequentially photographs the external environment around the vehicle body 2 including the road surface on which the vehicle 1 can move and the area where the vehicle 1 can be parked, and outputs the photographed image data.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパー等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。なお、俯瞰画像は、平面画像とも称されうる。 The imaging unit 15a is positioned, for example, at the rear end 2e of the vehicle body 2 and provided on the wall below the door 2h of the rear trunk. The imaging unit 15b is positioned, for example, at the right end 2f of the vehicle body 2 and is provided on the right side door mirror 2g. The imaging unit 15c is positioned, for example, on the front side of the vehicle body 2, that is, at the front end portion 2c in the vehicle longitudinal direction, and is provided on the front bumper or the like. The imaging unit 15d is positioned, for example, on the left side of the vehicle body 2, that is, on the left end portion 2d in the vehicle width direction, and is provided on the door mirror 2g as a left protrusion. The ECU 14 executes arithmetic processing and image processing based on the image data obtained by the plurality of imaging units 15 to generate an image with a wider viewing angle, or to generate a virtual bird's-eye view image of the vehicle 1 viewed from above. can be generated. A bird's-eye view image can also be referred to as a plane image.

また、ECU14は、撮像部15の画像に対して画像処理を行い、車両1の周辺の路面に示された路面マーク(例えば、区画線等)を検出する。ECU14は、検出された路面マーク(例えば、区画線等)に基づき、車両1の目標位置(例えば、駐車可能領域等)を検出する。 The ECU 14 also performs image processing on the image captured by the imaging unit 15 to detect road marks (for example, lane markings) indicated on the road surface around the vehicle 1 . The ECU 14 detects a target position (for example, a parking area, etc.) of the vehicle 1 based on the detected road surface mark (for example, a lane marking).

また、図1,2に例示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a~16dと、八つの測距部17a~17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器とも称されうる。ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、物体を検出する検出部の一例である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。 Further, as illustrated in FIGS. 1 and 2, the vehicle body 2 is provided with a plurality of distance measuring units 16 and 17, for example, four distance measuring units 16a to 16d and eight distance measuring units 17a to 17h. It is The ranging units 16 and 17 are, for example, sonars that emit ultrasonic waves and capture their reflected waves. Sonar may also be referred to as a sonar sensor or an ultrasonic detector. The ECU 14 can measure the presence or absence of an object such as an obstacle positioned around the vehicle 1 and the distance to the object based on the detection results of the distance measuring units 16 and 17 . That is, the distance measurement units 16 and 17 are examples of detection units that detect objects. Note that the distance measuring unit 17 can be used, for example, to detect relatively short-distance objects, and the distance measuring unit 16 can be used, for example, to detect relatively long-distance objects that are farther than the distance measuring unit 17 . Further, the distance measuring unit 17 can be used, for example, to detect objects in front of and behind the vehicle 1 , and the distance measuring unit 16 can be used to detect objects to the sides of the vehicle 1 .

また、図4に例示されるように、車両制御システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。 4, the vehicle control system 100 includes an ECU 14, a monitor device 11, a steering system 13, distance measuring units 16 and 17, a brake system 18, a steering angle sensor 19, an accelerator sensor 20, and the like. , a shift sensor 21, a wheel speed sensor 22, and the like are electrically connected via an in-vehicle network 23 as an electrical communication line. The in-vehicle network 23 is configured as, for example, a CAN (controller area network). The ECU 14 can control the steering system 13, the brake system 18, etc. by sending control signals through the in-vehicle network 23. FIG. In addition, the ECU 14 detects torque sensor 13b, brake sensor 18b, steering angle sensor 19, distance measuring unit 16, distance measuring unit 17, accelerator sensor 20, shift sensor 21, wheel speed sensor 22, etc. via in-vehicle network 23. It is possible to receive results, operation signals of the operation input unit 10 and the like.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理や、車両1の目標位置の決定、車両1の移動経路の演算、物体との干渉の有無の判断、車両1の自動制御、自動制御の解除等の、各種の演算処理および制御を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。ECU14は、車両用画像処理装置の一例である。 The ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, and an SSD 14f (solid state drive, flash memory). ing. The CPU 14a performs, for example, image processing related to the images displayed on the display devices 8 and 12, determination of the target position of the vehicle 1, calculation of the movement route of the vehicle 1, determination of the presence or absence of interference with an object, and processing of the vehicle 1. Various arithmetic processing and control such as automatic control and cancellation of automatic control can be executed. The CPU 14a can read a program installed and stored in a non-volatile storage device such as the ROM 14b, and execute arithmetic processing according to the program. The RAM 14c temporarily stores various data used in calculations by the CPU 14a. In addition, the display control unit 14d mainly performs image processing using image data obtained by the imaging unit 15, synthesis of image data displayed on the display device 8, and the like among the arithmetic processing performed by the ECU 14. FIG. Further, the voice control unit 14e mainly executes processing of voice data output by the voice output device 9 among the arithmetic processing in the ECU 14. FIG. The SSD 14f is a rewritable non-volatile storage unit, and can store data even when the power of the ECU 14 is turned off. The CPU 14a, ROM 14b, RAM 14c, etc. can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logic operation processor such as a DSP (digital signal processor), a logic circuit, or the like is used instead of the CPU 14a. A HDD (hard disk drive) may be provided instead of the SSD 14f, or the SSD 14f and the HDD may be provided separately from the ECU 14. The ECU 14 is an example of a vehicle image processing device.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。 The brake system 18 includes, for example, an ABS (anti-lock brake system) that suppresses locking of the brakes, a skid prevention device (ESC: electronic stability control) that suppresses the sideslip of the vehicle 1 during cornering, and an increase in braking force ( BBW (brake by wire) and the like. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via an actuator 18a. The brake system 18 can also detect signs of brake locking, idling of the wheels 3, skidding, etc. from the rotational difference between the left and right wheels 3, and execute various controls. The brake sensor 18b is, for example, a sensor that detects the position of the movable portion of the braking operation portion 6. As shown in FIG. The brake sensor 18b can detect the position of the brake pedal as a movable part. Brake sensor 18b includes a displacement sensor.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。 The steering angle sensor 19 is, for example, a sensor that detects the amount of steering of the steering portion 4 such as a steering wheel. The steering angle sensor 19 is configured using, for example, a Hall element or the like. The ECU 14 acquires the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19, and executes various controls. A steering angle sensor 19 detects the rotation angle of a rotating portion included in the steering section 4 . The steering angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。 The accelerator sensor 20 is, for example, a sensor that detects the position of the movable portion of the acceleration operation portion 5 . The accelerator sensor 20 can detect the position of an accelerator pedal as a movable part. Accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。 The shift sensor 21 is, for example, a sensor that detects the position of the movable portion of the shift operating portion 7 . The shift sensor 21 can detect the positions of movable parts such as levers, arms, and buttons. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。 The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 outputs the number of wheel speed pulses indicating the detected number of revolutions as a sensor value. The wheel speed sensor 22 can be configured using, for example, a Hall element. The ECU 14 calculates the amount of movement of the vehicle 1 based on sensor values obtained from the wheel speed sensors 22, and executes various controls. Note that the wheel speed sensor 22 may be provided in the brake system 18 in some cases. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18 .

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。 It should be noted that the configurations and arrangements of the various sensors and actuators described above, the electrical connections, and the like are merely examples, and can be set (changed) in various ways.

図5は、本実施形態にかかるECU14の機能的構成の一例を示すブロック図である。図5に示すように、ECU14は、検出部141と、目標位置決定部142と、経路算出部143と、移動制御部144と、記憶部150と、を備える。 FIG. 5 is a block diagram showing an example of the functional configuration of the ECU 14 according to this embodiment. As shown in FIG. 5 , the ECU 14 includes a detection section 141 , a target position determination section 142 , a route calculation section 143 , a movement control section 144 and a storage section 150 .

図5に示される検出部141、目標位置決定部142、経路算出部143、移動制御部144の各構成は、CPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェア回路で実現するように構成しても良い。 Each configuration of the detection unit 141, the target position determination unit 142, the path calculation unit 143, and the movement control unit 144 shown in FIG. 5 is realized by the CPU 14a executing a program stored in the ROM 14b. Note that these configurations may be configured to be realized by hardware circuits.

検出部141は、撮像部15が撮像した車体2の周辺画像(路面画像)に応じて、路面マーク(例えば、区画線等)を検出する。検出部141は、検出された路面マーク(例えば、区画線等)のデータを記憶部150に格納する。すなわち、検出部141は、路面マーク(例えば、区画線等)を管理する。また、検出部141は、記憶部150にアクセスして路面マークのデータを参照し、路面マークに基づき(例えば、路面マークを基準として)、車両1の周辺に駐車可能領域を検出する。検出部141は、検出結果を目標位置決定部142へ供給する。 The detection unit 141 detects a road surface mark (for example, a lane marking) according to a peripheral image (road surface image) of the vehicle body 2 captured by the imaging unit 15 . The detection unit 141 stores data of the detected road surface mark (eg, lane marking) in the storage unit 150 . That is, the detection unit 141 manages the road surface marks (eg, lane markings, etc.). Further, the detection unit 141 accesses the storage unit 150 to refer to the data of the road surface mark, and detects a parking area around the vehicle 1 based on the road surface mark (for example, based on the road surface mark). The detection unit 141 supplies the detection result to the target position determination unit 142 .

目標位置決定部142は、検出部141の検出結果等に基づいて、車両1の目標駐車領域および目標位置を決定する。目標位置決定部142は、検出部141が複数の駐車可能領域を検出した場合に、いずれの駐車可能領域を目標駐車領域とするかについて運転者の選択操作を受け付けても良い。例えば、目標位置決定部142は、操作部14gから取得した操作信号により、運転者の選択操作を受け付ける。 The target position determination unit 142 determines the target parking area and the target position of the vehicle 1 based on the detection result of the detection unit 141 and the like. When the detection unit 141 detects a plurality of parking areas, the target position determining unit 142 may receive a driver's selection operation as to which parking area to use as the target parking area. For example, the target position determination unit 142 receives a driver's selection operation based on an operation signal acquired from the operation unit 14g.

経路算出部143は、駐車支援が開始された場合に、車両1を現在の位置から目標位置まで移動させるための移動経路を算出する。例えば、経路算出部143は、操作部14gから取得した操作信号によって駐車支援を開始する指示を受け付けた場合に、誘導経路を算出する。経路算出部143は、算出された移動経路のデータを記憶部150へ出力する。 The route calculation unit 143 calculates a movement route for moving the vehicle 1 from the current position to the target position when parking assistance is started. For example, the route calculation unit 143 calculates a guidance route when receiving an instruction to start parking assistance by an operation signal acquired from the operation unit 14g. The route calculation unit 143 outputs data of the calculated movement route to the storage unit 150 .

また、目標位置決定部142および経路算出部143は、操作部14gから取得した操作信号により運転者の操作を受け付けるとしたが、運転者の操作入力はこれに限定されるものではない。例えば、操作入力部10から入力された運転者の操作を受け付けて上述の処理を実行してもよい。 Further, although the target position determination unit 142 and the route calculation unit 143 receive the driver's operation based on the operation signal acquired from the operation unit 14g, the driver's operation input is not limited to this. For example, the above-described processing may be executed by accepting the driver's operation input from the operation input unit 10 .

移動制御部144は、移動経路のデータに基づいて、操舵制御を実行して車両1を移動させる。具体的には、移動制御部144は、記憶部150にアクセスして移動経路のデータを参照し、移動経路に沿って車両1が移動するように、車両1の位置に応じて操舵システム13のアクチュエータ13aを制御する。この際、例えば、車両1は、運転者の加速操作部5あるいは制動操作部6の操作に応じて、加速あるいは減速(制動)される。また、移動制御部144は、モニタ装置11等に案内を表示して、運転者に対して加速操作部5あるいは制動操作部6の操作を指示してもよい。 The movement control unit 144 executes steering control to move the vehicle 1 based on the movement route data. Specifically, the movement control unit 144 accesses the storage unit 150 to refer to the movement route data, and controls the steering system 13 according to the position of the vehicle 1 so that the vehicle 1 moves along the movement route. It controls the actuator 13a. At this time, for example, the vehicle 1 is accelerated or decelerated (braked) according to the operation of the acceleration operation unit 5 or the braking operation unit 6 by the driver. Further, the movement control unit 144 may display guidance on the monitor device 11 or the like to instruct the driver to operate the acceleration operation unit 5 or the braking operation unit 6 .

記憶部150は、例えばSSD14f等の記憶装置によって構成される。また、記憶部150は、駐車支援における路面マークのデータ及び移動経路のデータを記憶する。 The storage unit 150 is configured by a storage device such as the SSD 14f, for example. The storage unit 150 also stores road surface mark data and movement route data for parking assistance.

駐車支援は、一例として、移動制御部144により自動操舵が実行され、他の操作は運転者自身が実行する例を示すが、これに限定されるものではない。例えば、操舵に加え、加速操作部5の操作を移動制御部144が自動制御する構成を採用しても良い。また、変速操作部7の操作も移動制御部144が自動制御する構成を採用しても良い。 As an example of parking assistance, the movement control unit 144 performs automatic steering, and other operations are performed by the driver himself/herself. However, the present invention is not limited to this. For example, a configuration in which the movement control unit 144 automatically controls the operation of the acceleration operation unit 5 in addition to the steering may be adopted. Further, a configuration in which the operation of the shift operation unit 7 is also automatically controlled by the movement control unit 144 may be employed.

ECU14を含む車両制御システム100では、例えば、路面マークを用いた駐車支援等の車両1の制御の精度を向上するために、路面マークの認識精度を向上することが望まれる。路面マークが所定の色を有する場合、検出部141は、路面が撮像されて取得された画像の各画素の基礎の表色系のパラメータを第1の表色系のパラメータに変換する。検出部141は、変換された第1の表色系のパラメータに応じて、画像の中から特定の色の画素を抽出し、所定の色が強調された画像を生成する。基礎の表色系とは、撮像部15で撮像された画像に利用されている表色系を指すものとする。 In the vehicle control system 100 including the ECU 14, for example, in order to improve the accuracy of the control of the vehicle 1 such as parking assistance using the road surface mark, it is desired to improve the accuracy of recognizing the road surface mark. When the road surface mark has a predetermined color, the detection unit 141 converts the basic color system parameters of each pixel of the image obtained by imaging the road surface into the first color system parameters. The detection unit 141 extracts pixels of a specific color from the image according to the converted parameters of the first color system, and generates an image in which a predetermined color is emphasized. The basic color system refers to the color system used for the image captured by the imaging unit 15 .

例えば、基礎の表色系がRGB表色系であり、第1の表色系がYUV表色系である場合、検出部141は、画像を構成する画素ごとに、輝度、第1の色差、第2の色差のそれぞれの値を抽出する。すなわち、検出部141は、RGB表色系におけるR値、G値、B値をY値(輝度)、U値(第1の色差)、V値(第2の色差)に変換する。検出部141は、画像を構成する画素ごとに、Y値、U値、V値を計算式に代入し、図6に示すような、YUV表色系の色空間における基準面Sからの画素の座標点Pまでの距離Dを算出する。検出部141は、算出された距離Dに応じた値を新たにY値とする。検出部141は、この処理を、画像を構成する画素ごとに行うことで、所定の色(例えば、黄色)の画素が強調された画像を生成する。 For example, when the basic color system is the RGB color system and the first color system is the YUV color system, the detection unit 141 detects the luminance, the first color difference, Each value of the second color difference is extracted. That is, the detection unit 141 converts the R value, G value, and B value in the RGB color system into a Y value (luminance), a U value (first color difference), and a V value (second color difference). The detection unit 141 substitutes the Y value, the U value, and the V value into the calculation formula for each pixel constituting the image, and calculates the number of pixels from the reference plane S in the color space of the YUV color system as shown in FIG. A distance D to the coordinate point P is calculated. The detection unit 141 newly sets the value corresponding to the calculated distance D as the Y value. The detection unit 141 generates an image in which pixels of a predetermined color (for example, yellow) are emphasized by performing this process for each pixel forming the image.

なお、図6は、第1の表色系(YUV表色系)の色空間における所定の色の識別平面からの画素の座標点までの距離を示す図である。基準面Sは、YUV表色系の色空間内に色が既知である様々な色の画素の座標点を配置した場合に、所定の色(例えば、黄色)の画素の座標点と所定の色以外の画素の座標点とを近似的に識別する平面として決められ得る。そのように決められる面は、所定の色(例えば、黄色)の線形識別関数aY+bU+cV+d=0で表される。すなわち、基準面Sは、YUV表色系の色空間における所定の色(例えば、黄色)の識別平面である。 FIG. 6 is a diagram showing the distance from the discrimination plane of the predetermined color to the coordinate point of the pixel in the color space of the first color system (YUV color system). When coordinate points of pixels of various colors whose colors are known are arranged in the color space of the YUV color system, the reference plane S is a coordinate point of a pixel of a predetermined color (for example, yellow) and a predetermined color. can be determined as a plane that approximately distinguishes the coordinate points of pixels other than . A surface so determined is represented by a linear discriminant function aY+bU+cV+d=0 for a given color (eg yellow). That is, the reference plane S is an identification plane of a predetermined color (eg, yellow) in the color space of the YUV color system.

計算式は、計算対象の画素の輝度をY、第1の色差をU、第2の色差をVとしたときに、図6に示す基準面Sと計算対象の画素の座標点P(Y,U,V)との距離Dを、次の数式1に示すように算出する式である。
D=aY+bU+cV+d・・・数式1
The calculation formula is a coordinate point P (Y, U, V) is a formula for calculating the distance D as shown in the following formula 1.
D=aY+bU+cV+d Expression 1

数式1は、基準面Sを計算対象の画素の座標点P(Y,U,V)へ座標点Pから基準面Sへの法線に沿った方向にどれだけ移動すれば、移動後の平面に座標点Pが含まれるようになるのかの値Dを示していると見ることもできる。数式1における係数a,b,c,dは、基準面Sが所定の色(例えば、黄色)の識別平面となるように決められる。検出部141は、次の数式2に示すように、数式1で算出された距離Dに所定の係数eを乗算した値を計算対象の画素の輝度Y1としてもよい。係数eは、例えば1より大きい値であり、要求される輝度の強調度合いに応じて決められる。
Y1=D×e・・・数式2
Equation 1 expresses that if the reference plane S is moved to the coordinate point P (Y, U, V) of the pixel to be calculated in the direction along the normal line from the coordinate point P to the reference plane S, the plane after movement is can also be viewed as indicating the value D of whether the coordinate point P is included in . The coefficients a, b, c, and d in Expression 1 are determined so that the reference plane S becomes a discrimination plane of a predetermined color (eg, yellow). As shown in Equation 2 below, the detection unit 141 may use a value obtained by multiplying the distance D calculated by Equation 1 by a predetermined coefficient e as the brightness Y1 of the pixel to be calculated. The coefficient e is, for example, a value greater than 1, and is determined according to the required degree of luminance enhancement.
Y1=D×e Expression 2

数式1,2によれば、YUV表色系の色空間における基準面Sに対して所定の色の側(図6では、+Y側、+V側)について、基準面Sから距離Dが遠い画素ほど強調される。これにより、数式1,2に示される簡略な計算を用いて所定の色の強調された画像を生成できるため、画像処理の負荷を少なく抑制できる。また、路面画像における路面部分と路面マークとの輝度の差が大きい傾向にあるため、路面部分と路面マークとを精度よく分離でき、路面マークの領域を精度よく強調した画像を生成できるようにも考えられる。 According to formulas 1 and 2, the farther the distance D from the reference plane S on the predetermined color side (+Y side and +V side in FIG. 6) with respect to the reference plane S in the color space of the YUV color system, emphasized. As a result, an image in which a predetermined color is emphasized can be generated using the simple calculations shown in Equations 1 and 2, so the image processing load can be reduced. In addition, since there tends to be a large difference in luminance between the road surface portion and the road surface marks in the road surface image, the road surface portion and the road surface marks can be separated with high accuracy, and an image that emphasizes the road surface mark area with high accuracy can be generated. Conceivable.

しかし、数式1,2による処理では、所定の色以外の色も強調される傾向にある。例えば、図7に示すように、ある輝度Y’における基準面SはUV平面上では直線(例えば、aY’+bU+cV+d=0で示される直線)で定義される。所定の色が「黄色」である場合、基準面Sに対して所定の色の側は、図7中の左側になり、例えば、座標点が図7に示す領域RG1~RG3に含まれる画素が強調される。領域RG1~RG3のうち、領域RG1が強調したい所定の色(黄色)の画素に対応した領域である。一方、領域RG2は、強調したくない色(赤色等)の画素に対応した領域であり、領域RG3は、強調したくない色(緑等)の画素に対応した領域である。 However, the processing according to formulas 1 and 2 tends to emphasize colors other than the predetermined color. For example, as shown in FIG. 7, the reference plane S at a certain luminance Y' is defined by a straight line (eg, aY'+bU+cV+d=0) on the UV plane. When the predetermined color is “yellow”, the side of the predetermined color with respect to the reference plane S is the left side in FIG. emphasized. Among the regions RG1 to RG3, the region RG1 is a region corresponding to pixels of a predetermined color (yellow) to be emphasized. On the other hand, the region RG2 is a region corresponding to pixels of a color (such as red) that is not desired to be emphasized, and the region RG3 is a region corresponding to pixels of a color (such as green) that is not desired to be emphasized.

このため、数式1,2により「黄色」の画素を強調する場合、同時に図7中で基準面Sの左側にある赤や緑などの「黄色以外の色」の画素まで強調される現象が発生し得る。図7に示す座標点P’が「薄い黄色」の画素に対応し、座標点P”が「濃い赤色」の画素に対応する場合、基準面Sから座標点P’までの距離Dより基準面Sから座標点P”までの距離Dが大きいため、「薄い黄色」の画素より「濃い赤色」の画素が強調される可能性がある。 Therefore, when emphasizing the "yellow" pixel by the formulas 1 and 2, the phenomenon occurs that the pixels of "colors other than yellow" such as red and green on the left side of the reference plane S in FIG. 7 are also emphasized. can. When the coordinate point P′ shown in FIG. 7 corresponds to a “pale yellow” pixel and the coordinate point P″ corresponds to a “dark red” pixel, the distance D from the reference plane S to the coordinate point P′ corresponds to the reference plane Since the distance D from S to the coordinate point P″ is large, the “dark red” pixels may be emphasized more than the “light yellow” pixels.

例えば、撮像部15で図8に示すような駐車場の路面画像が取得される。図8は、路面が撮像されて取得された画像を示す図である。図8は、グレースケール画像で示されているが、実際には、カラー画像であり、「黄色」の区画線と「赤色」の支柱及び他の車両が混在する画像として例示される。このとき、検出部141は、数式1,2による処理を行い、図9に示すような「黄色」の画素が強調されたグレースケール画像を生成する。図9に示されるように、意図している「黄色」の区画線が強調されているが、「赤色」の支柱及び他の車両まで強調されている。このため、「黄色」の区画線を選択的に検出したいにもかかわらず、「赤色」の支柱及び他の車両まで誤って検出されてしまう可能性がある。 For example, the imaging unit 15 acquires a road surface image of a parking lot as shown in FIG. FIG. 8 is a diagram showing an image obtained by imaging the road surface. Although FIG. 8 is shown as a grayscale image, it is actually a color image, and is exemplified as an image in which "yellow" lane markings, "red" struts and other vehicles are mixed. At this time, the detection unit 141 performs processing according to formulas 1 and 2 to generate a grayscale image in which “yellow” pixels are emphasized as shown in FIG. As shown in FIG. 9, the intended "yellow" lane marking is highlighted, but the "red" struts and other vehicles are also highlighted. Therefore, even though it is desired to selectively detect the "yellow" lane markings, there is a possibility that the "red" struts and other vehicles may also be erroneously detected.

そこで、本実施形態では、ECU14において、検出部141が、第1の表色系のパラメータに応じて認識された路面マークの領域について、さらに第2の表色系のパラメータを用いた色判別を行うことで、路面マークの認識精度の向上を図る。 Therefore, in the present embodiment, in the ECU 14, the detection unit 141 further performs color discrimination using the parameters of the second color system for the area of the road mark recognized according to the parameters of the first color system. By doing so, we aim to improve the recognition accuracy of the road surface mark.

具体的には、ECU14において、検出部141は、路面が撮像されて取得された画像の各画素について、基礎の表色系(例えば、RGB表色系)のパラメータを第1の表色系(例えば、YUV表色系)のパラメータに変換する。検出対象の路面マークが所定の色を有する場合、検出部141は、第1の表色系のパラメータに応じて、所定の色が強調された画像を生成する。検出部141は、所定の色が強調された画像における路面マークを認識する。検出部141は、路面マークとして認識された各領域に対応する各画素について、基礎の表色系のパラメータから第2の表色系のパラメータを算出する。例えば、第2の表色系がHSV表色系又はHSL表色系である場合、検出部141は、基礎の表色系のパラメータから色相パラメータ(H値)を第2の表色系のパラメータとして算出してもよい。検出部141は、路面マークとして認識された各領域に対応する各画素について、色相パラメータ(H値)が閾値範囲に収まるか否かを判定する。閾値範囲は、所定の色(例えば、黄色)に対応する色相パラメータ(H値)の範囲である。検出部141は、その判定結果に応じて、路面マークの認識結果を修正する。検出部141は、路面マークとして認識された各領域に対応する各画素のうち、色相パラメータが閾値範囲から外れる画素について認識結果を取り消し、色相パラメータが閾値範囲に収まる画素について認識結果を維持する。これにより、第1の表色系のパラメータと第2の表色系のパラメータとを用いて段階的に路面マークの認識結果を絞り込むことができるので、路面マークの認識精度を向上できる。 Specifically, in the ECU 14, the detection unit 141 converts the parameters of the basic color system (for example, the RGB color system) to the first color system ( For example, the YUV color system) parameters are converted. When the road mark to be detected has a predetermined color, the detection unit 141 generates an image in which the predetermined color is emphasized according to the parameters of the first color system. The detection unit 141 recognizes road marks in an image in which a predetermined color is emphasized. The detection unit 141 calculates the parameters of the second color system from the parameters of the basic color system for each pixel corresponding to each area recognized as a road surface mark. For example, when the second color system is the HSV color system or the HSL color system, the detection unit 141 converts the hue parameter (H value) from the parameters of the basic color system to the parameters of the second color system. may be calculated as The detection unit 141 determines whether or not the hue parameter (H value) falls within the threshold range for each pixel corresponding to each area recognized as a road surface mark. A threshold range is a range of hue parameters (H values) corresponding to a given color (eg, yellow). The detection unit 141 corrects the recognition result of the road mark according to the determination result. The detection unit 141 cancels the recognition results of pixels whose hue parameters fall outside the threshold range, and maintains the recognition results of pixels whose hue parameters fall within the threshold range. As a result, the road mark recognition results can be narrowed down step by step using the parameters of the first color system and the parameters of the second color system, so that the recognition accuracy of the road mark can be improved.

より具体的には、検出部141は、図5に示すように、変換部1411、生成部1412、認識部1413、抽出部1414、算出部1415、判定部1416、及び修正部1417を有する。 More specifically, the detection unit 141 has a conversion unit 1411, a generation unit 1412, a recognition unit 1413, an extraction unit 1414, a calculation unit 1415, a determination unit 1416, and a correction unit 1417, as shown in FIG.

変換部1411は、路面が撮像されて取得された画像(以下、路面画像)を撮像部15から取得する。変換部1411は、例えば、図8に示すような「黄色」の区画線と「赤色」の支柱及び他の車両が混在する画像を路面画像として取得する。図5に示す変換部1411は、路面画像の各画素について、基礎の表色系のパラメータを第1の表色系のパラメータに変換する。基礎の表色系は、例えば、RGB表色系であり、第1の表色系は、例えば、YUV表色系である。変換部1411は、第1の表色系のパラメータを生成部1412及び算出部1415へ供給する。 The conversion unit 1411 acquires an image obtained by imaging the road surface (hereinafter referred to as a road surface image) from the imaging unit 15 . The conversion unit 1411 acquires, as a road surface image, for example, an image in which “yellow” lane markings, “red” pillars, and other vehicles are mixed, as shown in FIG. 8 . The conversion unit 1411 shown in FIG. 5 converts the parameters of the basic color system into the parameters of the first color system for each pixel of the road surface image. The basic color system is, for example, the RGB color system, and the first color system is, for example, the YUV color system. The conversion unit 1411 supplies the parameters of the first color system to the generation unit 1412 and the calculation unit 1415 .

生成部1412は、第1の表色系のパラメータを変換部1411から受ける。生成部1412は、第1の表色系のパラメータに応じて、所定の色が強調された画像を生成する。例えば、検出部141の検出対象が黄色の路面マークであり第1の表色系がYUV表色系である場合、生成部1412は、路面画像の各画素について、YUV表色系の色空間における基準面(例えば、黄色の識別平面)Sからの各画素のパラメータの示す座標点Pまでの距離Dを求める。生成部1412は、路面画像の各画素について、画素のパラメータ(Y値、U値、V値)を数式1に代入することで、基準面Sからの各画素のパラメータの示す座標点Pまでの距離Dを求める。生成部1412は、数式2に示すように、路面画像の各画素について、数式1で求められた距離Dに所定の係数eを乗算した値を計算対象の画素の輝度Y1としてもよい。生成部1412は、第1の表色系のパラメータに応じて求められた各画素の輝度Y1を用いて、所定の色が強調された画像を生成する。例えば、所定の色が黄色である場合、生成部1412は、図9に示すような「黄色」の路面マークの領域の輝度(階調値)が強調されたグレースケール画像を生成する。生成部1412は、生成された画像を認識部1413へ供給する。 The generation unit 1412 receives the parameters of the first color system from the conversion unit 1411 . The generation unit 1412 generates an image in which a predetermined color is emphasized according to the parameters of the first color system. For example, when the detection target of the detection unit 141 is a yellow road mark and the first color system is the YUV color system, the generation unit 1412 generates each pixel of the road surface image in the YUV color space. A distance D from a reference plane (for example, a yellow identification plane) S to a coordinate point P indicated by a parameter of each pixel is obtained. For each pixel of the road surface image, the generation unit 1412 substitutes the pixel parameters (Y value, U value, V value) into Equation 1 to obtain the distance from the reference plane S to the coordinate point P indicated by the parameter of each pixel. Find the distance D. As shown in Equation 2, the generation unit 1412 may use a value obtained by multiplying the distance D obtained by Equation 1 by a predetermined coefficient e for each pixel of the road surface image as the brightness Y1 of the pixel to be calculated. The generation unit 1412 generates an image in which a predetermined color is emphasized using the luminance Y1 of each pixel obtained according to the parameters of the first color system. For example, if the predetermined color is yellow, the generation unit 1412 generates a grayscale image in which the brightness (gradation value) of the "yellow" road mark area is emphasized, as shown in FIG. The generation unit 1412 supplies the generated image to the recognition unit 1413 .

認識部1413は、所定の色が強調された画像を生成部1412から受ける。認識部1413は、所定の色が強調された画像に対してキャニー法等によりエッジ抽出を行い、路面マークの領域を認識する。認識部1413は、例えば、図9に示す画像について、図10に示すような複数の領域AR1~AR5を路面マークの領域として認識する。認識部1413は、画像における各領域AR1~AR5の境界の画素位置(例えば、境界における各角の画素位置)を認識結果として生成する。認識部1413は、認識結果を抽出部1414及び修正部1417へ供給する。 The recognition unit 1413 receives an image in which a predetermined color is emphasized from the generation unit 1412 . The recognition unit 1413 performs edge extraction on the image in which the predetermined color is emphasized by the Canny method or the like, and recognizes the area of the road mark. For example, the recognition unit 1413 recognizes a plurality of areas AR1 to AR5 as shown in FIG. 10 as road mark areas in the image shown in FIG. The recognition unit 1413 generates the pixel positions of the boundaries of the areas AR1 to AR5 in the image (for example, the pixel positions of the corners of the boundaries) as a recognition result. The recognition unit 1413 supplies recognition results to the extraction unit 1414 and correction unit 1417 .

抽出部1414は、認識部1413の認識結果を認識部1413から受ける。抽出部1414は、認識部1413で認識された各領域から代表領域を抽出する。抽出部1414は、認識部1413で認識された各領域を複数の部分領域に分割し、複数の部分領域のうち一部の部分領域(例えば、色が比較的安定している領域)を代表領域として選択してもよい。このとき、YUV以外の表色系(第2の表色系)を用いた判定をする領域について、色の境界(エッジ)付近は色にじみが生じることを考慮し、認識部1413で認識された領域の中央付近を代表領域として選択してもよい。抽出部1414は、例えば、図10に示す領域AR1内を縦方向・横方向に等分割して複数の部分領域を生成してもよい。抽出部1414は、図10に示す領域AR1内を縦方向・横方向に3つずつに等分割し、図11に示すような複数の部分領域AR11~AR19を生成し、複数の部分領域AR11~AR19のうち中央の部分領域AR15を代表領域として選択してもよい。抽出部1414は、選択した部分領域AR15の境界の画素位置(例えば、境界における各角AR15a~AR15dの画素位置)を抽出結果として生成する。抽出部1414は、認識部1413で認識された他の領域AR2~AR5について、同様に代表領域を抽出してもよい。抽出部1414は、各代表領域の抽出結果を算出部1415へ供給する。 The extraction unit 1414 receives the recognition result of the recognition unit 1413 from the recognition unit 1413 . The extraction unit 1414 extracts representative regions from each region recognized by the recognition unit 1413 . The extraction unit 1414 divides each region recognized by the recognition unit 1413 into a plurality of partial regions, and selects a portion of the plurality of partial regions (for example, a region with a relatively stable color) as a representative region. may be selected as At this time, considering that color fringing occurs in the vicinity of color boundaries (edges) for areas to be determined using a color system (second color system) other than YUV, the recognition unit 1413 recognizes A region near the center of the region may be selected as the representative region. The extraction unit 1414 may, for example, equally divide the area AR1 shown in FIG. 10 vertically and horizontally to generate a plurality of partial areas. The extraction unit 1414 equally divides the area AR1 shown in FIG. 10 into three each in the vertical direction and the horizontal direction, generates a plurality of partial areas AR11 to AR19 as shown in FIG. A central partial area AR15 of AR19 may be selected as a representative area. The extraction unit 1414 generates the pixel positions on the boundary of the selected partial area AR15 (for example, the pixel positions of the corners AR15a to AR15d on the boundary) as the extraction result. The extraction unit 1414 may similarly extract representative regions for the other regions AR2 to AR5 recognized by the recognition unit 1413. FIG. The extraction unit 1414 supplies the extraction result of each representative region to the calculation unit 1415 .

算出部1415は、第1の表色系のパラメータを変換部1411から受け、各代表領域の抽出結果を抽出部1414から受ける。算出部1415は、各代表領域の各画素について、第1の表色系のパラメータを基礎の表色系のパラメータに変換し、基礎の表色系のパラメータから第2の表色系のパラメータを算出する。例えば、基礎の表色系がRGB表色系であり第1の表色系がYUV表色系であり第2の表色系がHSV表色系又はHSL表色系である場合、検出部141は、YUV表色系のパラメータからRGB表色系のパラメータを算出し、RGB表色系のパラメータから色相パラメータ(H値)をHSV表色系又はHSL表色系のパラメータとして算出してもよい。 Calculation unit 1415 receives the parameters of the first color system from conversion unit 1411 and the extraction result of each representative region from extraction unit 1414 . The calculation unit 1415 converts the parameters of the first color system into the parameters of the basic color system for each pixel in each representative area, and converts the parameters of the second color system from the parameters of the basic color system. calculate. For example, when the basic color system is the RGB color system, the first color system is the YUV color system, and the second color system is the HSV color system or the HSL color system, the detection unit 141 may calculate the parameters of the RGB color system from the parameters of the YUV color system, and calculate the hue parameter (H value) from the parameters of the RGB color system as a parameter of the HSV color system or the HSL color system. .

例えば、算出部1415は、図11に示す部分領域AR15(領域AR1の代表領域)の各画素に対して、色相パラメータHを算出する。算出部1415は、色相パラメータHを次の手順(1),(2)にて算出する。 For example, the calculator 1415 calculates the hue parameter H for each pixel of the partial area AR15 (representative area of the area AR1) shown in FIG. The calculator 1415 calculates the hue parameter H in the following procedures (1) and (2).

(1)算出部1415は、YUV表色系のパラメータY(輝度)、U(第1の色差)、V(第2の色差)から、以下の数式3~5を用いてRGB表色系のパラメータR(赤),G(緑),B(青)に変換する。
R=Y +1.402×V・・・数式3
G=Y-0.344×U-0.714×V・・・数式4
B=Y+1.772×U ・・・数式5
(1) The calculation unit 1415 uses the parameters Y (luminance), U (first color difference), and V (second color difference) of the YUV color system to calculate the RGB color system using Equations 3 to 5 below. Convert to parameters R (red), G (green), B (blue).
R=Y+1.402×V Expression 3
G=Y-0.344×U-0.714×V Expression 4
B=Y+1.772×U Expression 5

(2)算出部1415は、RGB表色系のパラメータR,G,Bを用いて、色相パラメータHの値を以下の数式6~8を用いて算出する。このとき、(1)で算出したRGB表色系のパラメータR,G,Bの中で最大値をMAX、最小値MINとする。
Rが最大値の場合:H=60×{(G-B)/(MAX-MIN)}・・・数式6
Gが最大値の場合:H=60×{(B-R)/(MAX-MIN)}+120・・・数式7
Bが最大値の場合:H=60×{(R-G)/(MAX-MIN)}+240・・・数式8
(2) The calculator 1415 uses the parameters R, G, and B of the RGB color system to calculate the value of the hue parameter H using Equations 6 to 8 below. At this time, among the parameters R, G, and B of the RGB color system calculated in (1), let the maximum value be MAX and the minimum value MIN.
When R is the maximum value: H = 60 × {(GB) / (MAX-MIN)} ... Equation 6
When G is the maximum value: H = 60 × {(B-R) / (MAX-MIN)} + 120 Equation 7
When B is the maximum value: H = 60 × {(RG)/(MAX-MIN)} + 240 Equation 8

算出部1415は、他の領域AR2~AR5の代表領域についても同様に色相パラメータHを算出する。算出部1415は、算出された各代表領域の各画素の色相パラメータを判定部1416へ供給する。 The calculation unit 1415 similarly calculates the hue parameter H for the representative areas of the other areas AR2 to AR5. The calculation unit 1415 supplies the calculated hue parameter of each pixel in each representative region to the determination unit 1416 .

判定部1416は、各代表領域の各画素の色相パラメータを算出部1415から受ける。判定部1416は、代表領域ごとに、各画素の色相パラメータが閾値範囲に収まるか否かを判定する。具体的には、判定部1416は、代表領域ごとに、代表領域の全画素のうち閾値範囲Hmin~Hmaxに収まる画素の割合HRが閾値割合Rthを超えるかどうかを判定する。 The determination unit 1416 receives the hue parameter of each pixel in each representative region from the calculation unit 1415 . The determination unit 1416 determines whether the hue parameter of each pixel falls within the threshold range for each representative region. Specifically, the determination unit 1416 determines whether the ratio HR of pixels falling within the threshold range Hmin to Hmax among all pixels in the representative region exceeds the threshold ratio Rth for each representative region.

判定部1416は、代表領域の全画素のうち閾値範囲Hmin~Hmaxに収まる画素の割合HRを次の数式9により算出できる。
HR=(代表領域で(Hmin≦H≦Hmax)を満たす画素数)/(代表領域の全画素数)・・・数式9
The determination unit 1416 can calculate the ratio HR of pixels falling within the threshold range Hmin to Hmax among all the pixels in the representative region using the following Equation 9.
HR=(the number of pixels satisfying (Hmin≦H≦Hmax) in the representative area)/(the total number of pixels in the representative area) Equation 9

閾値範囲Hmin~Hmaxは、所定の色に対応した色相パラメータの値の範囲である。検出部141の検出対象が黄色の路面マークである場合、Hmin=30、Hmax=50としてもよい。判定部1416は、代表領域ごとに、割合HRを閾値割合Rthと比較する。閾値割合Rthは、検出部141に要求される路面マークの検出感度に応じて決められる。検出部141の検出感度が標準レベルである場合、Rth=50%としてもよい。 The threshold range Hmin to Hmax is a range of hue parameter values corresponding to a predetermined color. When the detection target of the detection unit 141 is a yellow road mark, Hmin=30 and Hmax=50 may be set. The determining unit 1416 compares the ratio HR with the threshold ratio Rth for each representative region. The threshold ratio Rth is determined according to the road mark detection sensitivity required of the detection unit 141 . If the detection sensitivity of the detection unit 141 is at a standard level, Rth may be set to 50%.

判定部1416は、割合HRが閾値割合Rthを超えていれば、代表領域の色相パラメータが閾値範囲Hmin~Hmaxに収まると判定する。代表領域の色相パラメータが閾値範囲Hmin~Hmaxに収まることは、その代表領域が代表する領域の色が、概ね、所定の色(例えば、黄色)であることを示している。判定部1416は、割合HRが閾値割合Rth以下であれば、代表領域の色相パラメータが閾値範囲Hmin~Hmaxに収まらないと判定する。代表領域の色相パラメータが閾値範囲Hmin~Hmaxに収まらないことは、その代表領域が代表する領域の色が、概ね、所定の色以外の色(例えば、赤色、緑色等)であることを示している。 If the ratio HR exceeds the threshold ratio Rth, the determination unit 1416 determines that the hue parameter of the representative region falls within the threshold range Hmin to Hmax. The fact that the hue parameter of a representative area falls within the threshold range Hmin to Hmax indicates that the color of the area represented by that representative area is generally a predetermined color (eg, yellow). If the ratio HR is equal to or less than the threshold ratio Rth, the determination unit 1416 determines that the hue parameter of the representative region does not fall within the threshold range Hmin to Hmax. The fact that the hue parameter of the representative area does not fall within the threshold range Hmin to Hmax indicates that the color of the area represented by the representative area is generally a color other than a predetermined color (eg, red, green, etc.). there is

例えば、図10の場合、領域AR1~AR3の代表領域は、色相パラメータの平均値がH=40であり、閾値範囲30~50に収まる画素の割合HRが閾値割合50%を超え、その色相パラメータが閾値範囲30~50に収まると判定される。代表領域の色相パラメータが閾値範囲に収まることは、代表領域が代表する領域AR1~AR3の色相パラメータが閾値範囲に収まることを示している。すなわち、代表領域が代表する領域AR1~AR3の色が、概ね、所定の色(例えば、黄色)であることを示している。領域AR4~AR5の代表領域は、色相パラメータの平均値がH=16であり、閾値範囲30~50に収まる画素の割合HRが閾値割合50%以下になり、その色相パラメータが閾値範囲に収まらないと判定される。代表領域の色相パラメータが閾値範囲に収まらないことは、その代表領域が代表する領域AR4~AR5の色相パラメータが閾値範囲に収まらないことを示している。すなわち、その代表領域が代表する領域AR4~AR5の色が、概ね、所定の色以外の色(例えば、赤色、緑色等)であることを示している。 For example, in the case of FIG. 10, in the representative area of the areas AR1 to AR3, the average value of the hue parameter is H=40, the ratio HR of pixels falling within the threshold range 30 to 50 exceeds the threshold ratio 50%, and the hue parameter falls within the threshold range of 30-50. That the hue parameter of the representative area falls within the threshold range indicates that the hue parameters of the areas AR1 to AR3 represented by the representative area fall within the threshold range. That is, it indicates that the colors of the areas AR1 to AR3 represented by the representative area are generally a predetermined color (eg, yellow). In the representative area of the areas AR4 to AR5, the average value of the hue parameter is H=16, the ratio HR of pixels falling within the threshold range of 30 to 50 is 50% or less, and the hue parameter does not fall within the threshold range. is determined. The fact that the hue parameter of the representative area does not fall within the threshold range indicates that the hue parameters of the areas AR4 to AR5 represented by the representative area do not fall within the threshold range. That is, it indicates that the colors of the areas AR4 to AR5 represented by the representative area are generally colors other than the predetermined color (eg, red, green, etc.).

判定部1416は、判定結果を修正部1417へ供給する。 The determination unit 1416 supplies the determination result to the correction unit 1417 .

修正部1417は、認識結果を認識部1413から受け、判定結果を判定部1416から受ける。修正部1417は、判定部1416の判定結果に応じて、認識部1413の認識結果を修正する。修正部1417は、路面マークとして認識された複数の領域のうち、第2の表色系のパラメータが閾値範囲から外れる領域について、領域の色が所定の色以外の色であるとして、認識部1413の認識結果を取り消す。修正部1417は、路面マークとして認識された複数の領域のうち、第2の表色系のパラメータが閾値範囲に収まる領域について、領域の色が所定の色であるとして、認識部1413の認識結果を維持する。修正部1417は、修正後の認識結果を目標位置決定部142へ供給する。 The correction unit 1417 receives the recognition result from the recognition unit 1413 and the determination result from the determination unit 1416 . A correction unit 1417 corrects the recognition result of the recognition unit 1413 according to the determination result of the determination unit 1416 . Among the plurality of areas recognized as road marks, the correction unit 1417 determines that the area whose parameter of the second color system is out of the threshold range is a color other than the predetermined color, and the recognition unit 1413 Cancel the recognition result of Among the plurality of areas recognized as road marks, the correction unit 1417 determines that the color of the area whose parameter of the second color system falls within the threshold range is the predetermined color, and the recognition result of the recognition unit 1413 is determined. to maintain The correction unit 1417 supplies the corrected recognition result to the target position determination unit 142 .

例えば、図10の場合、領域AR1~AR3は、色相パラメータが閾値範囲に収まる領域であり、その色が概ね所定の色(例えば、黄色)であるとして、認識結果が維持される。領域AR4~AR5は、色相パラメータが閾値範囲に収まらない領域であり、その色が概ね所定の色以外の色(例えば、赤色、緑色等)であるとして、認識結果が取り消される。これにより、図12に示されるように、「赤色」の支柱及び他の車両の領域AR4~AR5(図10参照)が取り除かれ、「黄色」の区画線の領域AR1~AR3が残された修正後の認識結果が得られる。 For example, in the case of FIG. 10, the areas AR1 to AR3 are areas where the hue parameter falls within the threshold range, and the recognition result is maintained assuming that the color is approximately a predetermined color (eg, yellow). Areas AR4 and AR5 are areas where the hue parameter does not fall within the threshold range, and the recognition result is canceled because the color is generally a color other than the predetermined color (eg, red, green, etc.). As a result, as shown in FIG. 12, the "red" strut and other vehicle areas AR4-AR5 (see FIG. 10) are removed, leaving the "yellow" lane marking areas AR1-AR3. A later recognition result is obtained.

次に、車両の目標位置を設定する処理について図13を用いて説明する。図13は、車両の目標位置を設定する処理を示すフローチャートである。 Next, the processing for setting the target position of the vehicle will be described with reference to FIG. 13 . FIG. 13 is a flow chart showing the process of setting the target position of the vehicle.

ECU14において、検出部141は、撮像部15で撮像された路面画像のデータを取得し(S1)、路面画像における路面マーク(例えば、区画線等)を検出する(S2)。検出部141は、検出結果を目標位置決定部142へ供給する。目標位置決定部142は、S2で検出された路面マーク(例えば、区画線等)のデータを記憶部150に格納し、路面マーク(例えば、区画線等)を管理する(S3)。検出部141は、記憶部150にアクセスして路面マークのデータを参照し、路面マークに基づき(例えば、路面マークを基準として)、車両1の周辺に駐車可能領域を検出する。検出部141は、検出結果を目標位置決定部142へ供給する。目標位置決定部142は、検出部141の検出結果等に基づいて、車両1の目標駐車領域および目標位置を決定する(S4)。経路算出部143は、駐車支援が開始された場合に、車両1を現在の位置から目標位置まで移動させるための移動経路を算出する。経路算出部143は、算出された移動経路のデータを記憶部150へ出力する(S5)。移動制御部144は、記憶部150にアクセスして移動経路のデータを参照し、移動経路に沿って車両1が移動するように、操舵制御を実行して車両1を移動させる。 In the ECU 14, the detection unit 141 acquires the data of the road surface image captured by the imaging unit 15 (S1), and detects road surface marks (eg, lane markings, etc.) in the road surface image (S2). The detection unit 141 supplies the detection result to the target position determination unit 142 . The target position determination unit 142 stores the data of the road surface mark (eg, lane marking) detected in S2 in the storage unit 150, and manages the road surface mark (eg, lane marking) (S3). The detection unit 141 accesses the storage unit 150 to refer to data of the road surface mark, and detects a parking area around the vehicle 1 based on the road surface mark (for example, using the road surface mark as a reference). The detection unit 141 supplies the detection result to the target position determination unit 142 . The target position determination unit 142 determines the target parking area and the target position of the vehicle 1 based on the detection result of the detection unit 141 (S4). The route calculation unit 143 calculates a movement route for moving the vehicle 1 from the current position to the target position when parking assistance is started. The route calculation unit 143 outputs data of the calculated movement route to the storage unit 150 (S5). The movement control unit 144 accesses the storage unit 150 to refer to the movement route data, and executes steering control to move the vehicle 1 so that the vehicle 1 moves along the movement route.

次に、路面マーク(例えば、区画線等)の検出処理(S2)の詳細について図14を用いて説明する。図14は、路面マーク(区画線)の検出処理を示すフローチャートである。 Next, the details of the detection process (S2) of the road surface mark (for example, lane marking) will be described with reference to FIG. FIG. 14 is a flowchart showing detection processing of a road surface mark (division line).

路面画像を取得すると、検出部141は、第1の色のフィルター処理を行い(S11)、路面マークを検出する。第1の色は、例えば、白色である。検出部141は、路面マークの検出に成功した場合(S12でYes)、処理を終了する。検出部141は、路面マークの検出に失敗した場合(S12でNo)、第2の色のフィルター処理を行い(S13)、路面マークを検出する。第2の色は、例えば、黄色である。 After acquiring the road surface image, the detection unit 141 performs a first color filtering process (S11) to detect the road surface mark. The first color is, for example, white. If the detection of the road surface mark is successful (Yes in S12), the detection unit 141 ends the process. If the detection of the road mark fails (No in S12), the detection unit 141 performs a second color filtering process (S13) to detect the road mark. The second color is, for example, yellow.

次に、第1の色のフィルター処理(S11)の詳細について図15を用いて説明する。図15は、第1の色のフィルター処理を示すフローチャートである。 Next, details of the first color filtering process (S11) will be described with reference to FIG. FIG. 15 is a flow chart showing the filtering process for the first color.

検出部141は、路面画像の各画素の基礎の表色系のパラメータを第1の表色系のパラメータに変換する(S21)。基礎の表色系は、例えば、RGB表色系であり、基礎の表色系のパラメータは、R値、G値、B値を含む。第1の表色系は、例えば、YUV表色系であり、第1の表色系のパラメータは、Y値、U値、V値を含む。検出部141は、S21の変換結果に応じて、第1の色用の画像を生成する(S22)。検出部141は、S21で得られた各画素のY値を用いて、路面画像に対応したグレースケール画像を第1の色用の画像として生成する。検出部141は、S22で生成された画像に対して、キャニー法等によりエッジ抽出を行い(S23)、路面マークの領域を認識する(S24)。検出部141は、S24の認識結果を検出部141の検出結果として目標位置決定部142へ供給する。 The detection unit 141 converts the parameters of the basic color system of each pixel of the road surface image into the parameters of the first color system (S21). The basic color system is, for example, the RGB color system, and the parameters of the basic color system include R values, G values, and B values. The first color system is, for example, the YUV color system, and the parameters of the first color system include Y values, U values, and V values. The detection unit 141 generates an image for the first color according to the conversion result of S21 (S22). The detection unit 141 uses the Y value of each pixel obtained in S21 to generate a grayscale image corresponding to the road surface image as a first color image. The detection unit 141 performs edge extraction on the image generated in S22 by the Canny method or the like (S23), and recognizes the area of the road mark (S24). The detection unit 141 supplies the recognition result of S24 to the target position determination unit 142 as the detection result of the detection unit 141 .

次に、第2の色のフィルター処理(S13)の詳細について図16を用いて説明する。図16は、第2の色のフィルター処理を示すフローチャートである。 Next, details of the second color filtering process (S13) will be described with reference to FIG. FIG. 16 is a flow chart showing the filtering process for the second color.

検出部141は、路面画像の各画素の基礎の表色系のパラメータを第1の表色系のパラメータに変換する(S31)。基礎の表色系は、例えば、RGB表色系であり、基礎の表色系のパラメータは、R値、G値、B値を含む。第1の表色系は、例えば、YUV表色系であり、第1の表色系のパラメータは、Y値、U値、V値を含む。検出部141は、S31の変換結果に応じて、第2の色の基準面(例えば、黄色の識別平面)Sからの各画素のパラメータの示す座標点Pまでの距離Dを求める(S32)。検出部141は、S32で求められた距離Dに応じて、第2の色が強調された画像を生成する(S33)。検出部141は、求められた距離Dに所定の係数eを乗算した値を計算対象の画素の輝度Y1として各画素について求め、各画素の輝度Y1を用いて、第2の色が強調されたグレースケール画像を第2の色が強調された画像として生成する。検出部141は、S33で生成された画像に対して、キャニー法等によりエッジ抽出を行い(S34)、路面マークの領域を認識する(S35)。 The detection unit 141 converts the parameters of the basic color system of each pixel of the road surface image into the parameters of the first color system (S31). The basic color system is, for example, the RGB color system, and the parameters of the basic color system include R values, G values, and B values. The first color system is, for example, the YUV color system, and the parameters of the first color system include Y values, U values, and V values. The detection unit 141 obtains the distance D from the reference plane S of the second color (for example, the identification plane of yellow) to the coordinate point P indicated by the parameter of each pixel according to the conversion result of S31 (S32). The detection unit 141 generates an image in which the second color is emphasized according to the distance D obtained in S32 (S33). The detection unit 141 obtains a value obtained by multiplying the obtained distance D by a predetermined coefficient e as the luminance Y1 of the pixel to be calculated for each pixel, and uses the luminance Y1 of each pixel to emphasize the second color. A grayscale image is generated as a second color enhanced image. The detection unit 141 performs edge extraction on the image generated in S33 by the Canny method or the like (S34), and recognizes the area of the road mark (S35).

検出部141は、路面マークの領域として複数の領域を認識してもよい。検出部141は、S35で認識された各領域から代表領域を抽出する(S36)。検出部141は、S35で認識された各領域における中央付近の領域を代表領域として抽出してもよい。 The detection unit 141 may recognize a plurality of areas as road mark areas. The detection unit 141 extracts a representative area from each area recognized in S35 (S36). The detection unit 141 may extract an area near the center of each area recognized in S35 as a representative area.

検出部141は、S31で変換された第1の表色系のパラメータを基礎の表色系のパラメータに変換し(S37)、基礎の表色系のパラメータから第2の表色系のパラメータを色判別のパラメータとして算出する(S38)。例えば、基礎の表色系がRGB表色系であり第1の表色系がYUV表色系であり第2の表色系がHSV表色系又はHSL表色系である場合、検出部141は、YUV表色系のパラメータからRGB表色系のパラメータを算出し、RGB表色系のパラメータから色相パラメータ(H値)をHSV表色系又はHSL表色系のパラメータとして算出してもよい。 The detection unit 141 converts the parameters of the first color system converted in S31 into the parameters of the basic color system (S37), and converts the parameters of the second color system from the parameters of the basic color system. It is calculated as a parameter for color discrimination (S38). For example, when the basic color system is the RGB color system, the first color system is the YUV color system, and the second color system is the HSV color system or the HSL color system, the detection unit 141 may calculate the parameters of the RGB color system from the parameters of the YUV color system, and calculate the hue parameter (H value) from the parameters of the RGB color system as a parameter of the HSV color system or the HSL color system. .

検出部141は、S36で認識された各領域について、S38で算出された色判別のパラメータ(例えば、色相パラメータ)が閾値範囲に含まれるか否かを判定する(S39)。具体的には、検出部141は、S36で認識された各領域について、代表領域の全画素のうち閾値範囲Hmin~Hmaxに収まる画素の割合HRが閾値割合Rthを超えるかどうかを判定する。検出部141は、判定対象の領域について、割合HRが閾値割合Rthを超えていれば、代表領域の色相パラメータが閾値範囲Hmin~Hmaxに収まると判定し(S39でYes)、S36の認識結果を維持する(S40)。検出部141は、判定対象の領域について、割合HRが閾値割合Rthを超えていなければ、代表領域の色相パラメータが閾値範囲Hmin~Hmaxに収まっていないと判定し(S39でNo)、S36の認識結果を取り消す(S41)。これにより、第2の色以外の領域が取り除かれ、第2の色の領域が残された修正後の認識結果が得られる。検出部141は、修正後の認識結果を検出部141の検出結果として目標位置決定部142へ供給する。 For each area recognized in S36, the detection unit 141 determines whether the color discrimination parameter (eg, hue parameter) calculated in S38 is included in the threshold range (S39). Specifically, for each region recognized in S36, the detection unit 141 determines whether the ratio HR of pixels falling within the threshold range Hmin to Hmax among all pixels in the representative region exceeds the threshold ratio Rth. If the ratio HR exceeds the threshold ratio Rth for the determination target area, the detection unit 141 determines that the hue parameter of the representative area falls within the threshold range Hmin to Hmax (Yes in S39), and outputs the recognition result of S36. Maintain (S40). If the ratio HR does not exceed the threshold ratio Rth for the determination target area, the detection unit 141 determines that the hue parameter of the representative area does not fall within the threshold range Hmin to Hmax (No in S39), and recognizes in S36. Cancel the result (S41). As a result, a corrected recognition result is obtained in which the regions other than the second color are removed and the regions of the second color are left. The detection unit 141 supplies the corrected recognition result to the target position determination unit 142 as the detection result of the detection unit 141 .

以上のように、本実施形態では、ECU14において、検出部141が、第1の表色系のパラメータに応じて認識された路面マークの領域について、さらに第2の表色系のパラメータを用いた色判別を行う。これにより、第1の表色系のパラメータと第2の表色系のパラメータとを用いて段階的に路面マークの認識結果を絞り込むことができるので、路面マークの認識精度を向上できる。 As described above, in the present embodiment, in the ECU 14, the detection unit 141 further uses the parameters of the second color system for the area of the road surface mark recognized according to the parameters of the first color system. Perform color discrimination. As a result, the road mark recognition results can be narrowed down step by step using the parameters of the first color system and the parameters of the second color system, so that the recognition accuracy of the road mark can be improved.

なお、検出部141の検出対象となる路面マークは、駐車場の路面の区画線に限定されず、道路等の走行用の路面の区画線であってもよい。 The road surface mark to be detected by the detection unit 141 is not limited to the marking line of the road surface of the parking lot, and may be the marking line of the road surface for running such as a road.

また、色判別のパラメータは、色相パラメータ以外のパラメータを含んでもよい。例えば、色判別のパラメータは、色相パラメータに加えて、又は、色相パラメータに代えて、HSV表色系又はHSL表色系の彩度パラメータ(S値)が用いられてもよいし、HSV表色系の明度パラメータ(V値)が用いられてもよいし、HSL表色系の輝度(L値)が用いられてもよい。 Also, the parameters for color discrimination may include parameters other than hue parameters. For example, as a parameter for color discrimination, in addition to the hue parameter, or instead of the hue parameter, a saturation parameter (S value) of the HSV color system or the HSL color system may be used. The brightness parameter (V value) of the system may be used, or the luminance (L value) of the HSL color system may be used.

また、撮像部15は、路面が撮像されて取得された画像の各画素について、基礎の表色系(例えば、RGB表色系)のパラメータに代えて第1の表色系(例えば、YUV表色系)のパラメータを出力してもよい。この場合、図5に示す検出部141は、変換部1411が省略された構成であってもよい。図15に示す第1の色のフィルター処理(S11)において、基礎の表色系のパラメータから第1の表色系のパラメータへの変換(S21)が省略されてもよい。この場合、検出部141は、路面画像の各画素の第1の表色系のパラメータに応じて、第1の色用の画像を生成する(S22’)。同様に、図16に示す第2の色のフィルター処理(S21)において、基礎の表色系のパラメータから第1の表色系のパラメータへの変換(S31)が省略されてもよい。この場合、検出部141は、路面画像の各画素の第1の表色系のパラメータに応じて、第2の色の基準面(例えば、黄色の識別平面)Sからの各画素のパラメータの示す座標点Pまでの距離Dを求める(S32’)。 In addition, the imaging unit 15 replaces the parameters of the basic color system (eg, RGB color system) with each pixel of the image obtained by capturing the road surface using the first color system (eg, YUV color system). color system) parameters may be output. In this case, the detector 141 shown in FIG. 5 may have a configuration in which the converter 1411 is omitted. In the first color filtering process (S11) shown in FIG. 15, the conversion (S21) from the parameters of the basic color system to the parameters of the first color system may be omitted. In this case, the detection unit 141 generates an image for the first color according to the parameters of the first color system for each pixel of the road surface image (S22'). Similarly, in the second color filtering process (S21) shown in FIG. 16, the conversion (S31) from the parameters of the basic color system to the parameters of the first color system may be omitted. In this case, the detection unit 141 detects the parameter of each pixel from the second color reference plane (eg, yellow identification plane) S according to the parameter of the first color system of each pixel of the road surface image. A distance D to the coordinate point P is obtained (S32').

また、図16に示す第2の色のフィルター処理(S21)において、検出部141は、S37及びS38に代えて、S31で変換された第1の表色系のパラメータから第2の表色系のパラメータへの算出(S38’)を行ってもよい。このとき、検出部141は、数式3~数式5を数式6~数式8に代入して得られる数式を用いて、S38’を行ってもよい。 In the second color filtering process (S21) shown in FIG. 16, the detection unit 141 converts the parameters of the first color system converted in S31 into the second color system instead of S37 and S38. parameter may be calculated (S38'). At this time, the detection unit 141 may perform S38' using formulas obtained by substituting formulas 3 to 5 into formulas 6 to 8.

また、所定の色が強調された画像を生成するために用いる第1の表色系と色判別に用いる第2の表色系との組み合わせは、YUV表色系とHSV表色系(又はHSL表色系)との組み合わせ以外であってもよい。例えば、第1の表色系と第2の表色系との組み合わせは、CMYK表色系、XYZ表色系、HSV表色系(又はHSL表色系)、L表色系のうちから選択された互いに異なる2つの表色系であってもよい。 Further, the combination of the first color system used for generating an image in which a predetermined color is emphasized and the second color system used for color discrimination is the YUV color system and the HSV color system (or HSL color system). color system) may be used. For example, combinations of the first color system and the second color system include the CMYK color system, the XYZ color system, the HSV color system (or the HSL color system), and the L * a * b * color system. It may be two different colorimetric systems selected from among the systems.

また、路面マークの検出処理では、異なる複数の色について色判別が行われてもよい。例えば、検出部141は、図17に示すように、S13の後に、S54,S55の処理を行ってもよい。図17は、実施形態の変形例における路面マーク(区画線)の検出処理を示すフローチャートである。 Further, in the road mark detection process, color discrimination may be performed for a plurality of different colors. For example, as shown in FIG. 17, the detection unit 141 may perform the processes of S54 and S55 after S13. FIG. 17 is a flowchart showing detection processing of a road surface mark (division line) in a modified example of the embodiment.

検出部141は、第2の色のフィルター処理(S13)で路面マークを検出し、路面マークの検出に成功した場合(S54でYes)、処理を終了する。検出部141は、路面マークの検出に失敗した場合(S54でNo)、第3の色のフィルター処理を行い(S55)、路面マークを検出する。第3の色は、例えば、赤色又は緑色である。第3の色のフィルター処理(S55)の詳細については、図16の説明における第2の色を第3の色に置き換えることで、図16の説明を同様に適用できる。 The detection unit 141 detects the road surface mark by the second color filtering process (S13), and if the detection of the road surface mark is successful (Yes in S54), the process ends. If the detection of the road mark fails (No in S54), the detection unit 141 performs a third color filtering process (S55) to detect the road mark. The third color is for example red or green. As for the details of the third color filtering process (S55), the description of FIG. 16 can be similarly applied by replacing the second color in the description of FIG. 16 with the third color.

以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。 Although the embodiments of the present invention have been exemplified above, the above embodiments and modifications are merely examples, and are not intended to limit the scope of the invention. The above embodiments and modifications can be implemented in various other forms, and various omissions, replacements, combinations, and modifications can be made without departing from the scope of the invention. Also, the configuration and shape of each embodiment and each modification can be partially exchanged.

1…車両、14…ECU(駐車支援装置)、141…検出部、142…目標位置決定部、143…経路算出部、144…移動制御部、150…記憶部、1411…変換部、1412…生成部、1413…認識部、1414…抽出部、1415…算出部、1416…判定部、1417…修正部。 Reference Signs List 1 vehicle 14 ECU (parking support device) 141 detection unit 142 target position determination unit 143 route calculation unit 144 movement control unit 150 storage unit 1411 conversion unit 1412 generation Part 1413... Recognition part 1414... Extraction part 1415... Calculation part 1416... Judgment part 1417... Correction part.

Claims (6)

路面を撮像する撮像部から取得された画像について、第1の表色系のパラメータに応じて所定の色が強調された画像を生成する生成部と、
前記所定の色が強調された画像における路面マークを認識する認識部と、
前記路面マークに対応する各画素の第2の表色系のパラメータを算出する算出部と、
前記路面マークとして認識された領域について、前記算出された第2の表色系のパラメータが前記所定の色を表す閾値範囲に収まるか否かを判定する判定部と、
前記判定部の判定結果に応じて、前記認識部の認識結果を修正する修正部と、
を備えた車両用画像処理装置。
a generation unit for generating an image in which a predetermined color is emphasized according to the parameters of the first colorimetric system for the image acquired from the imaging unit that captures the road surface;
a recognition unit that recognizes road marks in the image in which the predetermined color is emphasized;
a calculation unit that calculates parameters of the second color system for each pixel corresponding to the road surface mark;
a determination unit that determines whether or not the calculated parameter of the second color system falls within the threshold range representing the predetermined color for the area recognized as the road surface mark;
a correction unit that corrects the recognition result of the recognition unit according to the determination result of the determination unit;
An image processing device for a vehicle.
前記認識部は、前記路面マークとして複数の領域を認識し、
前記修正部は、前記複数の領域のうち、前記算出された第2の表色系のパラメータが前記閾値範囲から外れる領域について前記認識部の認識結果を取り消し、前記算出された第2の表色系のパラメータが前記閾値範囲に収まる領域について前記認識部の認識結果を維持する
請求項1に記載の車両用画像処理装置。
The recognition unit recognizes a plurality of areas as the road surface mark,
The correcting unit cancels the recognition result of the recognizing unit for a region, among the plurality of regions, in which the calculated parameters of the second color system deviate from the threshold range, and corrects the calculated second color system. 2. The vehicle image processing device according to claim 1, wherein the recognition result of said recognition unit is maintained for a region where system parameters fall within said threshold range.
前記画像における前記路面マークの領域から代表領域を抽出する抽出部をさらに備え、
前記算出部は、前記代表領域の各画素の前記第2の表色系のパラメータを算出する
請求項1又は2に記載の車両用画像処理装置。
further comprising an extraction unit that extracts a representative area from the area of the road surface mark in the image,
The vehicle image processing device according to claim 1 or 2, wherein the calculator calculates the parameter of the second color system for each pixel of the representative area.
前記第1の表色系は、YUV表色系であり、
前記第2の表色系は、HSV表色系又はHSL表色系であり、
前記算出された第2の表色系のパラメータは、色相パラメータである
請求項1から3のいずれか1項に記載の車両用画像処理装置。
The first color system is a YUV color system,
The second color system is the HSV color system or the HSL color system,
4. The vehicle image processing device according to any one of claims 1 to 3, wherein the calculated parameter of the second color system is a hue parameter.
前記生成部は、YUV表色系の色空間における基準面からの各画素の変換されたパラメータの座標点までの距離に応じて前記所定の色が強調された画像を生成する
請求項4に記載の車両用画像処理装置。
5. The image according to claim 4, wherein the generating unit generates an image in which the predetermined color is emphasized according to a distance from a reference plane in a color space of the YUV color system to a coordinate point of the transformed parameter of each pixel. image processing device for vehicles.
前記路面マークは、区画線であり、
前記所定の色は、黄色である
請求項1から5のいずれか1項に記載の車両用画像処理装置。
The road mark is a division line,
6. The vehicle image processing device according to claim 1, wherein said predetermined color is yellow.
JP2019192285A 2019-10-21 2019-10-21 Vehicle image processing device Active JP7338398B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019192285A JP7338398B2 (en) 2019-10-21 2019-10-21 Vehicle image processing device
DE102020127547.1A DE102020127547A1 (en) 2019-10-21 2020-10-20 Image processing device for vehicle
CN202011132911.1A CN112766031A (en) 2019-10-21 2020-10-21 Image processing device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192285A JP7338398B2 (en) 2019-10-21 2019-10-21 Vehicle image processing device

Publications (2)

Publication Number Publication Date
JP2021068125A JP2021068125A (en) 2021-04-30
JP7338398B2 true JP7338398B2 (en) 2023-09-05

Family

ID=75268725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192285A Active JP7338398B2 (en) 2019-10-21 2019-10-21 Vehicle image processing device

Country Status (3)

Country Link
JP (1) JP7338398B2 (en)
CN (1) CN112766031A (en)
DE (1) DE102020127547A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7501500B2 (en) 2021-11-15 2024-06-18 株式会社アイシン Parking Assistance Device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123819A (en) 2000-10-13 2002-04-26 Toyota Central Res & Dev Lab Inc Lane mark emphasizing device
JP2006209209A (en) 2005-01-25 2006-08-10 Honda Elesys Co Ltd Lane mark extraction device
JP2012176641A (en) 2011-02-25 2012-09-13 Suzuki Motor Corp Detection apparatus for parking frame

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123819A (en) 2000-10-13 2002-04-26 Toyota Central Res & Dev Lab Inc Lane mark emphasizing device
JP2006209209A (en) 2005-01-25 2006-08-10 Honda Elesys Co Ltd Lane mark extraction device
JP2012176641A (en) 2011-02-25 2012-09-13 Suzuki Motor Corp Detection apparatus for parking frame

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Nima Zarbakht,LANE DETECTION UNDER ADVERSE CONDITIONS BASED ON DUAL COLOR SPACE,2018 Digital Image Computing: Techniques and Application (DICTA),2018年,全5ページ,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8615785
武縄 嘉真,運転動画品質評価のための道の湾曲予測,第33回 画像符号化シンポジウム 第23回 映像メディア処理シンポジウム,日本,2018年11月19日,P-5-05 PCSJ/IMPS2018,P.180-181

Also Published As

Publication number Publication date
JP2021068125A (en) 2021-04-30
CN112766031A (en) 2021-05-07
DE102020127547A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
JP6028848B2 (en) Vehicle control apparatus and program
US10878253B2 (en) Periphery monitoring device
JP6743593B2 (en) Parking assistance device
US20170282813A1 (en) Image display control device and image display system
CN110877572A (en) Periphery monitoring device
JP5516988B2 (en) Parking assistance device
JP2016084094A (en) Parking assist apparatus
CN112572415A (en) Parking assist apparatus
CN110945558A (en) Display control device
JP6413477B2 (en) Image display control device and image display system
JP2019087875A (en) Periphery monitoring device
WO2019058585A1 (en) Display control device
JP7283514B2 (en) display controller
JP7338398B2 (en) Vehicle image processing device
CN105730338B (en) Parking assist apparatus
CN110877575A (en) Periphery monitoring device
WO2018220915A1 (en) Periphery monitoring device
CN109314770B (en) Peripheral monitoring device
JP2021062746A (en) Parking support device
JP2019140518A (en) Image generating apparatus
JP7130923B2 (en) display controller
WO2023085228A1 (en) Parking assistance device
JP6711151B2 (en) Driving support device
JP7383973B2 (en) parking assist device
JP7423970B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R150 Certificate of patent or registration of utility model

Ref document number: 7338398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150