JP2021064149A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2021064149A
JP2021064149A JP2019188220A JP2019188220A JP2021064149A JP 2021064149 A JP2021064149 A JP 2021064149A JP 2019188220 A JP2019188220 A JP 2019188220A JP 2019188220 A JP2019188220 A JP 2019188220A JP 2021064149 A JP2021064149 A JP 2021064149A
Authority
JP
Japan
Prior art keywords
image
unit
edge detection
edge
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019188220A
Other languages
Japanese (ja)
Other versions
JP7423970B2 (en
Inventor
賢樹 古川
Masaki Furukawa
賢樹 古川
将太 祖父江
Shota Sofue
将太 祖父江
直樹 山村
Naoki Yamamura
直樹 山村
陽司 乾
Yoji Inui
陽司 乾
祐也 下平
Yuya Shimodaira
祐也 下平
政孝 山本
Masataka Yamamoto
政孝 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2019188220A priority Critical patent/JP7423970B2/en
Priority to DE102020126525.5A priority patent/DE102020126525A1/en
Publication of JP2021064149A publication Critical patent/JP2021064149A/en
Application granted granted Critical
Publication of JP7423970B2 publication Critical patent/JP7423970B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an image processing device capable of precisely detecting, from image data, an edge of a recognition target such as a division line on a road surface on which a vehicle is traveling.SOLUTION: One example of an image processing device according to an embodiment includes an acquisition unit that acquires image data obtained by capturing an image of the surrounding area of a vehicle through an image-capturing unit mounted on the vehicle, and an edge detection unit that detects an edge in a pixel, among the pixels of the image data, corresponding to a first image-capturing region of the image-capturing unit by using an edge detecting filter of a first filter size, and detects an edge in a pixel, among the pixels, corresponding to a second image-capturing region at a farther distance from the image-capturing unit than the first image-capturing region by using an edge detecting filter of a second filter size which is smaller than the first filter size.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、画像処理装置に関する。 Embodiments of the present invention relate to an image processing apparatus.

車両が駐車する際のステアリングの操舵角に基づいて、撮像部によって車両の周囲を撮像して画像データに対して、駐車目標位置の区画線等の認証対象物が検出可能な領域を設定し、当該領域内から認証対象物を検出する技術が開発されている。 Based on the steering angle of the steering wheel when the vehicle is parked, the surroundings of the vehicle are imaged by the imaging unit, and an area where the authentication target such as the lane marking of the parking target position can be detected is set for the image data. A technique for detecting an object to be certified from within the area has been developed.

特開平10−216219号公報Japanese Unexamined Patent Publication No. 10-216219

ところで、画像データ内に存在する路面のノイズや区画線のサイズは、撮像部からの距離に応じて変化する。そのため、画像データ内の位置に関わらず、同一のサイズのフィルタを用いて、画像データ内の認識対象物のエッジを検出すると、路面のノイズを多く検出してしまったり、認証対象物を検出することができなかったりする場合がある。 By the way, the noise of the road surface and the size of the lane markings existing in the image data change according to the distance from the imaging unit. Therefore, if the edge of the recognition target object in the image data is detected by using a filter of the same size regardless of the position in the image data, a lot of road noise is detected or the authentication target object is detected. You may not be able to do it.

そこで、実施形態の課題の一つは、画像データから、車両が走行する路面上の区画線等の認識対象物のエッジを高精度に検出することができる画像処理装置を提供する。 Therefore, one of the problems of the embodiment is to provide an image processing device capable of detecting the edge of a recognition object such as a lane marking on a road surface on which a vehicle travels with high accuracy from image data.

実施形態の画像処理装置は、一例として、車両に搭載される撮像部によって当該車両の周囲を撮像した画像データを取得する取得部と、前記画像データの画素のうち、前記撮像部の第1撮像領域に対応する画素に対して、第1フィルタサイズのエッジ検出フィルタを用いてエッジを検出し、前記画素のうち、前記撮像部からの距離が前記第1撮像領域より遠い第2撮像領域に対応する画素に対して、前記第1フィルタサイズより小さい第2フィルタサイズのエッジ検出フィルタを用いてエッジを検出するエッジ検出部と、を備える。よって、一例として、画像データからの認識対象物の画像のエッジの検出精度を向上させることができる。 As an example, the image processing apparatus of the embodiment includes an acquisition unit that acquires image data obtained by imaging the surroundings of the vehicle by an image pickup unit mounted on the vehicle, and a first image pickup of the image pickup unit among the pixels of the image data. Edges are detected for the pixels corresponding to the region using the edge detection filter of the first filter size, and the pixels correspond to the second imaging region in which the distance from the imaging unit is farther than the first imaging region. The pixel is provided with an edge detection unit that detects an edge using an edge detection filter having a second filter size smaller than the first filter size. Therefore, as an example, it is possible to improve the detection accuracy of the edge of the image of the recognition target object from the image data.

また、実施形態の画像処理装置は、一例として、前記エッジ検出部は、前記画像データにおいて認証対象物に対応する画像の幅より小さい幅の前記エッジ検出フィルタを用いて、前記画素のエッジを検出する。よって、一例として、画像データからの認識対象物の画像のエッジの検出精度をより向上させることができる。 Further, in the image processing apparatus of the embodiment, as an example, the edge detection unit detects the edge of the pixel by using the edge detection filter having a width smaller than the width of the image corresponding to the authentication target in the image data. To do. Therefore, as an example, it is possible to further improve the detection accuracy of the edge of the image of the recognition target object from the image data.

また、実施形態の画像処理装置は、一例として、前記エッジ検出部は、前記画像データにおいて認証対象物に対応する画像の幅の1/2の幅の前記エッジ検出フィルタを用いて、前記画素のエッジを検出する。よって、一例として、画像データからの認識対象物の画像のエッジの検出精度をより向上させることができる。 Further, in the image processing apparatus of the embodiment, as an example, the edge detection unit uses the edge detection filter having a width of 1/2 of the width of the image corresponding to the object to be authenticated in the image data of the pixel. Detect edges. Therefore, as an example, it is possible to further improve the detection accuracy of the edge of the image of the recognition target object from the image data.

また、実施形態の画像処理装置は、一例として、前記エッジ検出部は、前記車両を駐車する領域の勾配に乗じて、前記エッジ検出フィルタのフィルタサイズを変更する。よって、一例として、画像データからの認識対象物の画像のエッジの検出精度をより向上させることができる。 Further, in the image processing apparatus of the embodiment, as an example, the edge detection unit changes the filter size of the edge detection filter by multiplying the gradient of the area where the vehicle is parked. Therefore, as an example, it is possible to further improve the detection accuracy of the edge of the image of the recognition target object from the image data.

図1は、本実施形態にかかる車両の車室の一部が透視された状態が示された例示的な斜視図である。FIG. 1 is an exemplary perspective view showing a state in which a part of the passenger compartment of the vehicle according to the present embodiment is seen through. 図2は、本実施形態にかかる車両の例示的な平面図である。FIG. 2 is an exemplary plan view of the vehicle according to the present embodiment. 図3は、本実施形態にかかる車両のダッシュボードの一例の車両後方からの視野での図である。FIG. 3 is a view of an example of the dashboard of the vehicle according to the present embodiment as viewed from the rear of the vehicle. 図4は、本実施形態にかかる車両が有する駐車支援システムの構成の例示的なブロック図である。FIG. 4 is an exemplary block diagram of the configuration of the parking support system included in the vehicle according to the present embodiment. 図5は、本実施形態にかかる車両が有するECUの機能構成の一例を示す図である。FIG. 5 is a diagram showing an example of the functional configuration of the ECU included in the vehicle according to the present embodiment. 図6は、本実施形態にかかる車両が有するECUによる画像データからのエッジの検出処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of edge detection processing from image data by the ECU included in the vehicle according to the present embodiment. 図7は、本実施形態にかかる車両が有するECUによるエッジ検出フィルタのフィルタサイズの変更処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of the filter size change processing of the edge detection filter by the ECU included in the vehicle according to the present embodiment. 図8は、本実施形態にかかる車両が有するECUによるエッジの検出処理の流れの一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of a flow of edge detection processing by the ECU included in the vehicle according to the present embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Hereinafter, exemplary embodiments of the present invention will be disclosed. The configurations of the embodiments shown below, as well as the actions, results, and effects produced by such configurations, are examples. The present invention can be realized by a configuration other than the configurations disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. ..

本実施形態の車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよいし、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。 The vehicle 1 of the present embodiment may be, for example, an automobile having an internal combustion engine as a drive source (not shown), that is, an internal combustion engine automobile, or an automobile having an electric motor (not shown) as a drive source, that is, an electric vehicle or a fuel cell. It may be an automobile or the like, a hybrid automobile using both of them as a drive source, or an automobile having another drive source. Further, the vehicle 1 can be equipped with various transmission devices, and can be equipped with various devices necessary for driving an internal combustion engine or an electric motor, such as a system or a component. In addition, the method, number, layout, and the like of the devices involved in driving the wheels 3 in the vehicle 1 can be set in various ways.

図1は、本実施形態にかかる車両の車室の一部が透視された状態が示された例示的な斜視図である。図2は、本実施形態にかかる車両の例示的な平面図である。図3は、本実施形態にかかる車両のダッシュボードの一例の車両後方からの視野での図である。図4は、本実施形態にかかる車両が有する駐車支援システムの構成の例示的なブロック図である。 FIG. 1 is an exemplary perspective view showing a state in which a part of the passenger compartment of the vehicle according to the present embodiment is seen through. FIG. 2 is an exemplary plan view of the vehicle according to the present embodiment. FIG. 3 is a view of an example of the dashboard of the vehicle according to the present embodiment as viewed from the rear of the vehicle. FIG. 4 is an exemplary block diagram of the configuration of the parking support system included in the vehicle according to the present embodiment.

まず、図1〜図4を用いて、本実施形態にかかる車両1の構成の一例について説明する。 First, an example of the configuration of the vehicle 1 according to the present embodiment will be described with reference to FIGS. 1 to 4.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。 As illustrated in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2a on which an occupant (not shown) rides. In the passenger compartment 2a, a steering unit 4, an acceleration operation unit 5, a braking operation unit 6, a speed change operation unit 7, and the like are provided so as to face the driver's seat 2b as a occupant.

操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。 The steering unit 4 is, for example, a steering wheel protruding from the dashboard 24. The acceleration operation unit 5 is, for example, an accelerator pedal located under the driver's feet. The braking operation unit 6 is, for example, a brake pedal located under the driver's feet. The speed change operation unit 7 is, for example, a shift lever protruding from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the speed change operation unit 7, and the like are not limited thereto.

また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electroluminescent Display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。 Further, in the vehicle interior 2a, a display device 8 as a display output unit and an audio output device 9 as an audio output unit are provided. The display device 8 is, for example, an LCD (Liquid Crystal Display), an OELD (Organic Electroluminescent Display), or the like. The audio output device 9 is, for example, a speaker. Further, the display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize the image displayed on the display screen of the display device 8 via the operation input unit 10. Further, the occupant can execute the operation input by touching, pushing or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. ..

これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。 The display device 8, the voice output device 9, the operation input unit 10, and the like are provided, for example, in the monitor device 11 located at the center of the dashboard 24 in the vehicle width direction, that is, in the left-right direction. The monitoring device 11 can have operation input units (not shown) such as switches, dials, joysticks, and push buttons. Further, an audio output device (not shown) can be provided at another position in the vehicle interior 2a different from the monitor device 11, and audio is output from the audio output device 9 of the monitor device 11 and another audio output device. be able to. The monitoring device 11 can also be used as, for example, a navigation system or an audio system.

また、車室2a内には、表示装置8とは別の表示装置12が設けられている。図3に例示されるように、表示装置12は、例えば、ダッシュボード24の計器盤部25に設けられ、計器盤部25の略中央で、速度表示部25aと回転数表示部25bとの間に位置されている。表示装置12の画面12aの大きさは、表示装置8の画面8aの大きさよりも小さい。この表示装置12には、主として車両1の駐車支援に関する情報を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。 Further, a display device 12 different from the display device 8 is provided in the vehicle interior 2a. As illustrated in FIG. 3, the display device 12 is provided, for example, on the instrument panel 25 of the dashboard 24, and is located between the speed display 25a and the rotation speed display 25b at substantially the center of the instrument panel 25. Is located in. The size of the screen 12a of the display device 12 is smaller than the size of the screen 8a of the display device 8. The display device 12 may display an image mainly showing information regarding parking assistance of the vehicle 1. The amount of information displayed on the display device 12 may be less than the amount of information displayed on the display device 8. The display device 12 is, for example, an LCD, an OELD, or the like. The information displayed on the display device 12 may be displayed on the display device 8.

また、図1,2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図4に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。 Further, as illustrated in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheeled vehicle, and has two left and right front wheels 3F and two left and right rear wheels 3R. All of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 4, vehicle 1 has a steering system 13 that steers at least two wheels 3.

操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(Electronic Control Unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータ13aによって車輪3を転舵したりする。この場合、アクチュエータ13aは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。 The steering system 13 has an actuator 13a and a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (Electronic Control Unit) or the like to operate the actuator 13a. The steering system 13 is, for example, an electric power steering system, an SBW (Steer By Wire) system, or the like. The steering system 13 adds torque, that is, assist torque, to the steering portion 4 by the actuator 13a to supplement the steering force, or steers the wheels 3 by the actuator 13a. In this case, the actuator 13a may steer one wheel 3 or a plurality of wheels 3. Further, the torque sensor 13b detects, for example, the torque given to the steering unit 4 by the driver.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データを出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜190°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮影し、撮像画像データとして出力する。 Further, as illustrated in FIG. 2, the vehicle body 2 is provided with, for example, four imaging units 15a to 15d as a plurality of imaging units 15. The image pickup unit 15 is, for example, a digital camera having a built-in image pickup element such as a CCD (Charge Coupled Device) or a CIS (CMOS Image Sensor). The imaging unit 15 can output moving image data at a predetermined frame rate. The imaging unit 15 has a wide-angle lens or a fisheye lens, respectively, and can photograph a range of, for example, 140 ° to 190 ° in the horizontal direction. Further, the optical axis of the imaging unit 15 is set obliquely downward. Therefore, the imaging unit 15 sequentially photographs the external environment around the vehicle body 2 including the road surface on which the vehicle 1 can move and the area where the vehicle 1 can park, and outputs the captured image data.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパー等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。なお、俯瞰画像は、平面画像とも称されうる。 The image pickup unit 15a is located, for example, at the rear end portion 2e of the vehicle body 2 and is provided on the wall portion below the door 2h of the rear trunk. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and is provided on the right door mirror 2g. The image pickup unit 15c is located, for example, on the front side of the vehicle body 2, that is, on the front end portion 2c in the front-rear direction of the vehicle, and is provided on the front bumper or the like. The image pickup unit 15d is located, for example, on the left side of the vehicle body 2, that is, on the left end portion 2d in the vehicle width direction, and is provided on the door mirror 2g as a protrusion on the left side. The ECU 14 executes arithmetic processing and image processing based on the image data obtained by the plurality of imaging units 15, generates an image with a wider viewing angle, and obtains a virtual bird's-eye view image of the vehicle 1 viewed from above. Can be generated. The bird's-eye view image may also be referred to as a flat image.

また、ECU14は、撮像部15の画像データから、車両1の周辺の路面に示された区画線等を識別し、区画線等に示された駐車区画を検出(抽出)する。 Further, the ECU 14 identifies the lane markings and the like shown on the road surface around the vehicle 1 from the image data of the imaging unit 15, and detects (extracts) the parking lot and the like shown by the lane markings and the like.

また、図1,2に例示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a〜16dと、八つの測距部17a〜17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器とも称されうる。ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、物体を検出する検出部の一例である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。 Further, as illustrated in FIGS. 1 and 2, the vehicle body 2 is provided with, for example, four distance measuring units 16a to 16d and eight distance measuring units 17a to 17h as a plurality of distance measuring units 16 and 17. Has been done. The ranging units 16 and 17 are, for example, sonars that emit ultrasonic waves and capture the reflected waves. Sonar can also be referred to as a sonar sensor, or ultrasonic detector. The ECU 14 can measure the presence or absence of an object such as an obstacle located around the vehicle 1 and the distance to the object based on the detection results of the distance measuring units 16 and 17. That is, the distance measuring units 16 and 17 are examples of detection units that detect an object. The ranging unit 17 can be used, for example, to detect an object at a relatively short distance, and the ranging unit 16 can be used, for example, to detect an object at a relatively long distance farther than the ranging unit 17. Further, the distance measuring unit 17 can be used for detecting an object in front of and behind the vehicle 1, for example, and the distance measuring unit 16 can be used for detecting an object on the side of the vehicle 1.

また、図4に例示されるように、駐車支援システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。 Further, as illustrated in FIG. 4, in the parking support system 100, in addition to the ECU 14, the monitor device 11, the steering system 13, the distance measuring units 16, 17, and the like, the brake system 18, the steering angle sensor 19, and the accelerator sensor 20 , The shift sensor 21, the wheel speed sensor 22, and the like are electrically connected via the in-vehicle network 23 as a telecommunications line. The in-vehicle network 23 is configured as, for example, a CAN (controller area network).

ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。 The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects the torque sensor 13b, the brake sensor 18b, the steering angle sensor 19, the distance measuring unit 16, the distance measuring unit 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23. The result, the operation signal of the operation input unit 10 and the like can be received.

ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、SSD(Solid State Drive、フラッシュメモリ)14f等を有している。 The ECU 14 includes, for example, a CPU 14a (Central Processing Unit), a ROM (Read Only Memory) 14b, a RAM (Random Access Memory) 14c, a display control unit 14d, a voice control unit 14e, an SSD (Solid State Drive, flash memory) 14f, and the like. have.

CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理や、車両1の目標位置の決定、車両1の移動経路の演算、物体との干渉の有無の判断、車両1の自動制御、自動制御の解除等の、各種の演算処理および制御を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。 The CPU 14a, for example, performs image processing related to images displayed on the display devices 8 and 12, determines a target position of the vehicle 1, calculates a movement path of the vehicle 1, determines whether or not there is interference with an object, and determines whether or not the vehicle 1 interferes with the vehicle 1. Various arithmetic processes and controls such as automatic control and cancellation of automatic control can be executed. The CPU 14a can read a program installed and stored in a non-volatile storage device such as a ROM 14b, and execute arithmetic processing according to the program.

RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。ECU14は、画像処理装置の一例である。 The RAM 14c temporarily stores various data used in the calculation by the CPU 14a. Further, the display control unit 14d mainly executes image processing using the image data obtained by the imaging unit 15 and synthesizing the image data displayed by the display device 8 among the arithmetic processes in the ECU 14. Further, the voice control unit 14e mainly executes the processing of the voice data output by the voice output device 9 among the arithmetic processing in the ECU 14. Further, the SSD 14f is a rewritable non-volatile storage unit, and can store data even when the power supply of the ECU 14 is turned off. The CPU 14a, ROM 14b, RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (Digital Signal Processor), a logic circuit, or the like is used instead of the CPU 14a. Further, an HDD (Hard Disk Drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14. The ECU 14 is an example of an image processing device.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(Anti-lock Brake System)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(Brake By Wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。 The brake system 18 includes, for example, an ABS (Anti-lock Brake System) that suppresses the lock of the brake, a sideslip prevention device (ESC: Electronic Stability Control) that suppresses the sideslip of the vehicle 1 during cornering, and enhances the braking force (ESC: Electronic Stability Control). An electric brake system (which executes brake assist), BBW (Brake By Wire), etc. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator 18a. Further, the brake system 18 can execute various controls by detecting signs of brake lock, idling of the wheels 3, skidding, etc. from the difference in rotation between the left and right wheels 3. The brake sensor 18b is, for example, a sensor that detects the position of the movable portion of the braking operation portion 6. The brake sensor 18b can detect the position of the brake pedal as a movable part. The brake sensor 18b includes a displacement sensor.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。 The steering angle sensor 19 is, for example, a sensor that detects the steering amount of the steering unit 4 such as the steering wheel. The rudder angle sensor 19 is configured by using, for example, a Hall element or the like. The ECU 14 acquires the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 at the time of automatic steering, and the like from the steering angle sensor 19 and executes various controls. The steering angle sensor 19 detects the rotation angle of the rotating portion included in the steering unit 4. The steering angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。 The accelerator sensor 20 is, for example, a sensor that detects the position of a movable portion of the acceleration operation unit 5. The accelerator sensor 20 can detect the position of the accelerator pedal as a movable part. The accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。 The shift sensor 21 is, for example, a sensor that detects the position of the movable portion of the shift operation unit 7. The shift sensor 21 can detect the positions of levers, arms, buttons, etc. as movable parts. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。 The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 outputs the number of wheel speed pulses indicating the detected rotation speed as a sensor value. The wheel speed sensor 22 may be configured by using, for example, a Hall element or the like. The ECU 14 calculates the movement amount of the vehicle 1 based on the sensor value acquired from the wheel speed sensor 22, and executes various controls. The wheel speed sensor 22 may be provided in the brake system 18. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。 The configurations, arrangements, electrical connection forms, etc. of the various sensors and actuators described above are examples and can be set (changed) in various ways.

図5は、本実施形態にかかる車両が有するECUの機能構成の一例を示す図である。 FIG. 5 is a diagram showing an example of the functional configuration of the ECU included in the vehicle according to the present embodiment.

次に、図5を用いて、本実施形態にかかる車両1が有するECU14の機能構成の一例について説明する。 Next, an example of the functional configuration of the ECU 14 included in the vehicle 1 according to the present embodiment will be described with reference to FIG.

本実施形態にかかるECU14は、図5に示すように、情報取得部141、ROI設定部142、エッジ検出部143、特徴点抽出部144、直線検出部145、区画線検出部146、および情報更新部147を有する画像処理装置の一例として機能する。本実施形態では、CPU14aが、ROM14bやSSD14f等の記憶装置に記憶されるプログラムを読み出して実行することにより、情報取得部141、ROI設定部142、エッジ検出部143、特徴点抽出部144、直線検出部145、区画線検出部146、および情報更新部147等の各種の機能モジュールを実現する。 As shown in FIG. 5, the ECU 14 according to the present embodiment includes an information acquisition unit 141, an ROI setting unit 142, an edge detection unit 143, a feature point extraction unit 144, a straight line detection unit 145, a lane marking unit 146, and information update. It functions as an example of an image processing device having a unit 147. In the present embodiment, the CPU 14a reads and executes a program stored in a storage device such as a ROM 14b or SSD 14f to execute the information acquisition unit 141, the ROI setting unit 142, the edge detection unit 143, the feature point extraction unit 144, and the straight line. Various functional modules such as a detection unit 145, a lane marking unit 146, and an information update unit 147 are realized.

本実施形態では、情報取得部141、ROI設定部142、エッジ検出部143、特徴点抽出部144、直線検出部145、区画線検出部146、および情報更新部147等の各種の機能モジュールは、CPU14a等のプロセッサが、ROM14bやSSD14f等の記憶装置に記憶されるプログラムを読み出して実行することにより実現されるが、これに限定するものではない。例えば、情報取得部141、ROI設定部142、エッジ検出部143、特徴点抽出部144、直線検出部145、区画線検出部146、および情報更新部147等の各種の機能モジュールは、独立したハードウェアにより実現することも可能である。また、情報取得部141、ROI設定部142、エッジ検出部143、特徴点抽出部144、直線検出部145、区画線検出部146、および情報更新部147等の各種の機能モジュールは、一例であり、同様の機能を実現できれば、各機能モジュールが統合されたり、細分化されたりしていても良い。 In the present embodiment, various functional modules such as the information acquisition unit 141, the ROI setting unit 142, the edge detection unit 143, the feature point extraction unit 144, the straight line detection unit 145, the lane marking unit 146, and the information update unit 147 are This is realized by a processor such as the CPU 14a reading and executing a program stored in a storage device such as the ROM 14b or the SSD 14f, but the present invention is not limited to this. For example, various functional modules such as the information acquisition unit 141, the ROI setting unit 142, the edge detection unit 143, the feature point extraction unit 144, the straight line detection unit 145, the lane marking unit 146, and the information update unit 147 are independent hardware. It can also be realized by wear. Further, various functional modules such as an information acquisition unit 141, an ROI setting unit 142, an edge detection unit 143, a feature point extraction unit 144, a straight line detection unit 145, a lane marking detection unit 146, and an information update unit 147 are examples. , Each functional module may be integrated or subdivided as long as the same function can be realized.

情報取得部141は、撮像部15によって車両1の周囲を撮像した画像データ等の各種情報を取得する取得部の一例である。本実施形態では、情報取得部141は、複数の撮像部15a〜15dのそれぞれから、画像データを取得する。 The information acquisition unit 141 is an example of an acquisition unit that acquires various information such as image data obtained by imaging the surroundings of the vehicle 1 by the image pickup unit 15. In the present embodiment, the information acquisition unit 141 acquires image data from each of the plurality of imaging units 15a to 15d.

ROI設定部142は、画像データに対して探索範囲(ROI:Region Of Interest)を設定する設定部の一例である。ここで、探索範囲は、画像データに含まれる区画線等の認証対象物の画像を検出する範囲である。例えば、ROI設定部142は、画像データのうち、車両1の車体2の画像を除く領域を、探索範囲に設定する。 The ROI setting unit 142 is an example of a setting unit that sets a search range (ROI: Region Of Interest) for image data. Here, the search range is a range for detecting an image of an authentication target such as a lane marking included in the image data. For example, the ROI setting unit 142 sets the area of the image data excluding the image of the vehicle body 2 of the vehicle 1 as the search range.

エッジ検出部143は、情報取得部141により取得した画像データ(本実施形態では、ROI設定部142により設定される探索範囲)のエッジを検出する画像処理部の一例である。 The edge detection unit 143 is an example of an image processing unit that detects the edge of the image data (search range set by the ROI setting unit 142 in the present embodiment) acquired by the information acquisition unit 141.

その際、エッジ検出部143は、情報取得部141により取得した画像データに含まれる画素のうち、撮像部15からの距離が近い手前側の撮像領域に対応する画素に対しては、フィルタサイズが大きいエッジ検出フィルタを用いて、エッジを検出する。一方、エッジ検出部143は、画像データに含まれる画素のうち、撮像部15からの距離が遠い奥側の撮像領域に対応する画素に対しては、フィルタサイズが小さいエッジ検出フィルタを用いて、エッジを検出する。 At that time, the edge detection unit 143 has a filter size for the pixels included in the image data acquired by the information acquisition unit 141 and corresponding to the image pickup region on the front side, which is close to the image pickup unit 15. Detect edges using a large edge detection filter. On the other hand, the edge detection unit 143 uses an edge detection filter having a small filter size for the pixels included in the image data and corresponding to the image pickup region on the far side, which is far from the image pickup unit 15. Detect edges.

すなわち、エッジ検出部143は、画像データの画素のうち、撮像部15からの距離が近い撮像領域(第1撮像領域の一例)に対応する画素に対しては、第1フィルタサイズのエッジ検出フィルタを用いてエッジを検出する。一方、エッジ検出部143は、画像データの画素のうち、撮像部15からの距離が第1撮像領域より遠い撮像領域(第2撮像領域の一例)に対応する画素に対しては、第1フィルタサイズより大きい第2フィルタサイズのエッジ検出フィルタを用いてエッジを検出する。 That is, the edge detection unit 143 has an edge detection filter having a first filter size for pixels corresponding to an imaging region (an example of a first imaging region) that is close to the imaging unit 15 among the pixels of the image data. Detect edges using. On the other hand, the edge detection unit 143 first filters the pixels of the image data corresponding to the imaging region (an example of the second imaging region) in which the distance from the imaging unit 15 is farther than the first imaging region. Edges are detected using an edge detection filter with a second filter size larger than the size.

これにより、撮像部15からの距離が遠い撮像領域に存在する認識対象物の画像のエッジが検出できなかったり、撮像部15からの距離が近い撮像領域に存在する認識対象物以外のノイズ(例えば、ごま塩状に存在する路面のノイズ)のエッジを多く検出してしまったりすることを抑制できる。その結果、画像データからの認識対象物の画像のエッジの検出精度を向上させることができる。 As a result, the edge of the image of the recognition object existing in the imaging region far from the imaging unit 15 cannot be detected, or noise other than the recognition object existing in the imaging region close to the imaging unit 15 (for example). , It is possible to suppress the detection of many edges of road surface noise that exists like sesame salt. As a result, it is possible to improve the detection accuracy of the edge of the image of the recognition target object from the image data.

本実施形態では、ROM14bやSSD14f等の記憶装置が、複数のフィルタサイズ(pixel)のエッジ検出用フィルタを記憶している。そして、エッジ検出部143は、画素分解能R(mm/pixel)と、実空間における認識対象物の幅W(mm)に基づいて、エッジ検出フィルタのフィルタサイズ(pixel)を求める。ここで、画素分解能Rは、画像データにおいて、実空間における認証対象物の幅W(mm)に対応する幅(pixel)を有しかつ注目画素を含む画像の画素分解能である。 In the present embodiment, a storage device such as ROM 14b or SSD 14f stores edge detection filters having a plurality of filter sizes (pixels). Then, the edge detection unit 143 obtains the filter size (pixel) of the edge detection filter based on the pixel resolution R (mm / pixel) and the width W (mm) of the recognition target object in the real space. Here, the pixel resolution R is the pixel resolution of an image having a width (pixel) corresponding to the width W (mm) of the authentication target object in the real space and including the pixel of interest in the image data.

例えば、エッジ検出部143は、画像データにおいて、実空間における認証対象物の幅Wの1/2に対応する画素数(=(W/2)/R)を求める。次いで、エッジ検出部143は、当該記憶装置から、幅方向および高さ方向のそれぞれに当該求めた画素数を有するフィルタサイズのエッジ検出フィルタを読み出す。そして、エッジ検出部143は、当該読み出したエッジ検出フィルタを用いて、注目画素のエッジを検出する。 For example, the edge detection unit 143 obtains the number of pixels (= (W / 2) / R) corresponding to 1/2 of the width W of the authentication target object in the real space in the image data. Next, the edge detection unit 143 reads out an edge detection filter having a filter size having the obtained number of pixels in each of the width direction and the height direction from the storage device. Then, the edge detection unit 143 detects the edge of the pixel of interest by using the read edge detection filter.

すなわち、エッジ検出部143は、画像データにおいて、実空間の認証対象物に対応する画像の1/2の幅および高さを有するエッジ検出フィルタを用いて、注目画素のエッジを検出する。これにより、実空間の認識対象物の幅Wに対応する画素数よりも大きい幅のエッジ検出フィルタを用いて、注目画素のエッジの検出が行われることを防止できるので、画像データからの認識対象物の画像のエッジの検出精度をより向上させることができる。 That is, the edge detection unit 143 detects the edge of the pixel of interest in the image data by using an edge detection filter having a width and height of 1/2 of the image corresponding to the authentication target in the real space. As a result, it is possible to prevent the edge of the pixel of interest from being detected by using an edge detection filter having a width larger than the number of pixels corresponding to the width W of the recognition target in the real space, so that the recognition target from the image data can be prevented. The edge detection accuracy of an object image can be further improved.

本実施形態では、エッジ検出部143は、画像データにおいて、実空間の認識対象物に対応する画像の1/2の幅および高さのエッジ検出フィルタを用いて、注目画素のエッジを検出しているが、画像データにおいて、実空間の認識対象物に対応する画像より小さい幅および高さのエッジ検出フィルタを用いて、注目画素のエッジを検出するものであれば、これに限定するものではない。 In the present embodiment, the edge detection unit 143 detects the edge of the pixel of interest in the image data by using an edge detection filter having a width and height of 1/2 of the image corresponding to the recognition target in the real space. However, the image data is not limited to this as long as it detects the edge of the pixel of interest by using an edge detection filter having a width and height smaller than the image corresponding to the recognition target in the real space. ..

また、本実施形態では、エッジ検出部143は、画像データにおいて、実空間の認証対象物に対応する画像より小さい幅および高さのエッジ検出フィルタを用いて、注目画素のエッジを検出しているが、画像データにおいて、実空間の認証対象物に対応する画像より小さい幅のエッジ検出フィルタを用いて、注目画素のエッジを検出するものであれば良い。 Further, in the present embodiment, the edge detection unit 143 detects the edge of the pixel of interest in the image data by using an edge detection filter having a width and height smaller than the image corresponding to the authentication target in the real space. However, in the image data, the edge of the pixel of interest may be detected by using an edge detection filter having a width smaller than the image corresponding to the object to be authenticated in the real space.

また、エッジ検出部143は、車両1を駐車する領域の勾配に乗じて、画像データのエッジの検出に用いるエッジ検出フィルタのフィルタサイズを変更することも可能である。例えば、エッジ検出部143は、車両1を駐車する領域の勾配が、車両1の現在位置よりも下方への傾斜している場合、エッジ検出フィルタのフィルタサイズを小さくする。一方、エッジ検出部143は、車両1を駐車する領域の勾配が、車両1の現在位置よりも上方へ傾斜している場合、エッジ検出フィルタのフィルタサイズを大きくする。 Further, the edge detection unit 143 can change the filter size of the edge detection filter used for detecting the edge of the image data by multiplying the gradient of the area where the vehicle 1 is parked. For example, the edge detection unit 143 reduces the filter size of the edge detection filter when the slope of the area where the vehicle 1 is parked is inclined downward from the current position of the vehicle 1. On the other hand, the edge detection unit 143 increases the filter size of the edge detection filter when the slope of the area where the vehicle 1 is parked is inclined upward from the current position of the vehicle 1.

これにより、車両1を駐車する領域の勾配の変化によって画像データに含まれる認識対象物の画像のサイズが変化する場合であっても、その勾配に応じたエッジ検出フィルタを用いて画像データからエッジを検出できる。その結果、画像データからの認識対象物の画像のエッジの検出精度をより向上させることができる。 As a result, even if the size of the image of the recognition object included in the image data changes due to the change in the gradient of the area where the vehicle 1 is parked, the edge detection filter according to the gradient is used to obtain an edge from the image data. Can be detected. As a result, the accuracy of detecting the edge of the image of the recognition object from the image data can be further improved.

特徴点抽出部144は、エッジ検出部143によるエッジの検出結果に基づいて、画像データに含まれる特徴点を抽出する抽出部の一例である。 The feature point extraction unit 144 is an example of an extraction unit that extracts feature points included in the image data based on the edge detection result by the edge detection unit 143.

直線検出部145は、画像データからの特徴点の抽出結果に基づいて、画像データに含まれる直線を検出する。 The straight line detection unit 145 detects a straight line included in the image data based on the extraction result of the feature points from the image data.

区画線検出部146は、画像データからの直線の検出結果に基づいて、画像データに含まれる認証対象物を検出する。 The lane marking detection unit 146 detects the authentication target included in the image data based on the detection result of the straight line from the image data.

情報更新部147は、区画線検出部146による画像データからの認識対象物の検出結果に基づいて、車両1の目標位置の決定、車両1の移動経路の演算、物体との干渉の有無の判断、車両1の自動運転、自動運転の解除等の、各種の演算処理および制御を実行するものとする。 The information update unit 147 determines the target position of the vehicle 1, calculates the movement path of the vehicle 1, and determines whether or not there is interference with the object, based on the detection result of the recognition target object from the image data by the lane marking detection unit 146. , Various arithmetic processing and control such as automatic driving of vehicle 1 and cancellation of automatic driving shall be executed.

図6は、本実施形態にかかる車両が有するECUによる画像データからのエッジの検出処理の一例を説明するための図である。 FIG. 6 is a diagram for explaining an example of edge detection processing from image data by the ECU included in the vehicle according to the present embodiment.

次に、図6を用いて、ECU14による画像データからのエッジの検出処理の一例について説明する。 Next, an example of edge detection processing from image data by the ECU 14 will be described with reference to FIG.

例えば、図6に示すように、車両1を駐車枠601(認識対象物の一例)で囲まれる駐車領域に駐車する場合、情報取得部141は、車体2の左側に設けられる撮像部15dから、画像データを取得する。 For example, as shown in FIG. 6, when the vehicle 1 is parked in the parking area surrounded by the parking frame 601 (an example of the recognition target object), the information acquisition unit 141 is transmitted from the image pickup unit 15d provided on the left side of the vehicle body 2. Get image data.

エッジ検出部143は、図6に示すように、実空間における駐車枠601の幅(線幅)W(mm)を取得する。 As shown in FIG. 6, the edge detection unit 143 acquires the width (line width) W (mm) of the parking frame 601 in the real space.

次に、エッジ検出部143は、画像データにおいて、駐車枠601の幅Wの1/2に対応する幅および高さを有しかつ注目画素を含む画像の画素数(画素分解能R)を、注目画素のエッジ検出フィルタのフィルタサイズとして求める。 Next, the edge detection unit 143 pays attention to the number of pixels (pixel resolution R) of the image having a width and height corresponding to 1/2 of the width W of the parking frame 601 and including the pixel of interest in the image data. Obtained as the filter size of the pixel edge detection filter.

その後、エッジ検出部143は、ROM14bやSSD14f等の記憶装置から、求めたフィルタサイズのエッジ検出フィルタを読み出し、当該読み出したエッジ検出フィルタを用いて、注目画素のエッジを検出する。 After that, the edge detection unit 143 reads an edge detection filter having a obtained filter size from a storage device such as ROM 14b or SSD 14f, and detects the edge of the pixel of interest using the read edge detection filter.

図7は、本実施形態にかかる車両が有するECUによるエッジ検出フィルタのフィルタサイズの変更処理の一例を説明するための図である。 FIG. 7 is a diagram for explaining an example of the filter size change processing of the edge detection filter by the ECU included in the vehicle according to the present embodiment.

次に、図7を用いて、ECU14によるエッジ検出用フィルタのサイズの変更処理の一例について説明する。 Next, an example of the process of changing the size of the edge detection filter by the ECU 14 will be described with reference to FIG. 7.

情報取得部141により画像データGが取得されると、エッジ検出部143は、図7に示すように、画像データGの左上の画素から順に、画像データGのx軸方向に注目画素をずらして、注目画素のエッジを検出する。そして、エッジ検出部143は、図7に示すように、x軸方向の1つの列の画素のエッジの検出が終了すると、y軸方向に注目画素をずらして、再び、画像データGのx軸方向に注目画素をずらしながら、当該注目画素のエッジを検出する。 When the image data G is acquired by the information acquisition unit 141, the edge detection unit 143 shifts the pixel of interest in the x-axis direction of the image data G in order from the upper left pixel of the image data G, as shown in FIG. , Detects the edge of the pixel of interest. Then, as shown in FIG. 7, the edge detection unit 143 shifts the pixel of interest in the y-axis direction when the edge detection of the pixels in one row in the x-axis direction is completed, and again, the x-axis of the image data G The edge of the pixel of interest is detected while shifting the pixel of interest in the direction.

エッジ検出部143は、図7に示すように、画像データGの右下の画素のエッジの検出が終了するまで、上述の処理を繰り返す。すなわち、エッジ検出部143は、画像データG上をラスタスキャンにより注目画素を移動させながら、画像データGに含まれる画素のエッジを検出する。 As shown in FIG. 7, the edge detection unit 143 repeats the above process until the edge detection of the lower right pixel of the image data G is completed. That is, the edge detection unit 143 detects the edges of the pixels included in the image data G while moving the pixels of interest on the image data G by raster scanning.

ところで、画像データGに含まれる駐車枠等の認証対象物の画像TGの幅は、撮像部15から認証対象物までの距離に応じて変化する。具体的には、図7に示すように、撮像部15から認証対象物までの距離が長くなるに従い、認証対象物の画像TGの幅は、小さくなる。 By the way, the width of the image TG of the authentication target such as the parking frame included in the image data G changes according to the distance from the imaging unit 15 to the authentication target. Specifically, as shown in FIG. 7, the width of the image TG of the authentication target becomes smaller as the distance from the imaging unit 15 to the authentication target becomes longer.

そのため、画像データGにおいて、撮像部15からの距離が近い手前側の画像と、撮像部15からの距離が遠い奥側の画像と、に対して、同一のフィルタサイズのエッジ検出フィルタを用いて、エッジの検出を行うと、画像データGのエッジの検出精度が低下する場合がある。 Therefore, in the image data G, an edge detection filter having the same filter size is used for the image on the front side, which is close to the image pickup unit 15, and the image on the back side, which is far from the image pickup unit 15. , Edge detection may reduce the edge detection accuracy of the image data G.

例えば、手前側の画像と、奥側の画像と、に対して、共に、小さいフィルタサイズのエッジ検出フィルタを用いて、エッジの検出を行う場合、奥側の認証対象物の画像TGのエッジの検出精度は高くすることができるのが、手前側の画像に含まれる細かいノイズがエッジとして検出される場合がある。 For example, when edge detection is performed using an edge detection filter having a small filter size for both the front side image and the back side image, the edge of the image TG of the image TG of the back side authentication target is used. Although the detection accuracy can be increased, fine noise contained in the image on the front side may be detected as an edge.

また、例えば、手前側の画像と、奥側の画像と、に対して、共に、大きいフィルタサイズのエッジ検出フィルタを用いて、エッジの検出を行う場合、手前側の画像に含まれる細かいノイズがエッジとして検出されることを抑制できるが、奥側の認証対象物の画像TGのエッジの検出精度が低下する場合がある。 Further, for example, when edge detection is performed using an edge detection filter having a large filter size for both the front side image and the back side image, fine noise contained in the front side image is generated. Although it is possible to suppress the detection as an edge, the detection accuracy of the edge of the image TG of the authentication target on the back side may be lowered.

そこで、エッジ検出部143は、図7に示すように、画像データGにおいて、認証対象物の画像TGのサイズが大きい手前側の画像G1の注目画素に対しては、大きいフィルタサイズ(例えば、12×12)のエッジ検出フィルタF1を用いて、エッジを検出する。これにより、手前側の画像G1に含まれる細かいノイズがエッジとして検出されることを抑制することができる。 Therefore, as shown in FIG. 7, the edge detection unit 143 has a large filter size (for example, 12) for the attention pixel of the image G1 on the front side where the size of the image TG of the authentication target is large in the image data G. The edge is detected by using the edge detection filter F1 of × 12). As a result, it is possible to suppress the detection of fine noise contained in the front image G1 as an edge.

また、エッジ検出部143は、図7に示すように、画像データGにおいて、認証対象物の画像TGのサイズが小さい奥側の画像G2の注目画素に対しては、小さいフィルタサイズ(例えば、3×3)のエッジ検出フィルタF2を用いて、エッジを検出する。これにより、これにより、奥側の認証対象物の画像TGのサイズが小さい場合でも、当該画像TGのエッジを検出することができる。 Further, as shown in FIG. 7, the edge detection unit 143 has a small filter size (for example, 3) for the attention pixel of the image G2 on the back side where the size of the image TG of the authentication target is small in the image data G. The edge is detected by using the edge detection filter F2 of × 3). As a result, even when the size of the image TG of the authentication target on the back side is small, the edge of the image TG can be detected.

さらに、エッジ検出部143は、図7に示すように、画像データGにおいて、手前側の画像G2と奥側の画像G1の中間である中央の画像G3の注目画素に対しては、中間のフィルタサイズ(例えば、9×9)のエッジ検出フィルタF3を用いて、エッジを検出する。これにより、中央の画像G3に含まれる細かいノイズがエッジとして検出されることを抑制しつつ、当該中央の画像G3に含まれる認証対象物の画像TGの検出精度を高めることができる。 Further, as shown in FIG. 7, the edge detection unit 143 filters the attention pixel of the central image G3, which is intermediate between the front image G2 and the back image G1, in the image data G. Edges are detected using an edge detection filter F3 of size (eg, 9x9). As a result, it is possible to improve the detection accuracy of the image TG of the authentication target object included in the central image G3 while suppressing the detection of fine noise contained in the central image G3 as an edge.

図8は、本実施形態にかかる車両が有するECUによるエッジの検出処理の流れの一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of a flow of edge detection processing by the ECU included in the vehicle according to the present embodiment.

次に、図8を用いて、本実施形態にかかるECU14によるエッジの検出処理の流れの一例について説明する。 Next, an example of the flow of the edge detection process by the ECU 14 according to the present embodiment will be described with reference to FIG.

情報取得部141によって画像データが取得されると、ROI設定部142は、画像データに対して探索範囲を設定する(ステップS801)。 When the image data is acquired by the information acquisition unit 141, the ROI setting unit 142 sets the search range for the image data (step S801).

次いで、エッジ検出部143は、探索範囲内の画素のうち注目画素を含む画像の画素分解能Rを取得する(ステップS802)。さらに、エッジ検出部143は、検出したい認識対象物の幅Wを取得する。 Next, the edge detection unit 143 acquires the pixel resolution R of the image including the pixel of interest among the pixels in the search range (step S802). Further, the edge detection unit 143 acquires the width W of the recognition object to be detected.

次に、エッジ検出部143は、画素分解能Rと、検出したい認識対象物の幅Wと、に基づいて、当該注目画素のエッジの検出に用いるエッジ検出フィルタのフィルタサイズを求める(ステップS803)。 Next, the edge detection unit 143 obtains the filter size of the edge detection filter used for detecting the edge of the pixel of interest based on the pixel resolution R and the width W of the recognition object to be detected (step S803).

次に、エッジ検出部143は、求めたフィルタサイズのエッジ検出フィルタを用いて、注目画素のエッジを検出する(ステップS804)。エッジ検出部143は、画像データ上をラスタスキャンにより注目画素を移動させながら、ステップS802〜ステップS804に示す処理を繰り返す。 Next, the edge detection unit 143 detects the edge of the pixel of interest using the edge detection filter of the obtained filter size (step S804). The edge detection unit 143 repeats the processes shown in steps S802 to S804 while moving the pixel of interest on the image data by raster scanning.

探索範囲の全ての画素のエッジが検出されると、特徴点抽出部144は、探索範囲内の画素のエッジの検出結果に基づいて、探索範囲内の特徴点を抽出する(ステップS805)。 When the edges of all the pixels in the search range are detected, the feature point extraction unit 144 extracts the feature points in the search range based on the detection result of the edges of the pixels in the search range (step S805).

直線検出部145は、探索範囲からの特徴点の抽出結果に基づいて、探索範囲に含まれる直線を検出する(ステップS806)。 The straight line detection unit 145 detects a straight line included in the search range based on the extraction result of the feature points from the search range (step S806).

区画線検出部146は、直線検出部145による直線の検出結果に基づいて、探索範囲内の区画線等の認識対象物を検出する(ステップS807)。 The lane marking detection unit 146 detects a recognition target such as a lane marking within the search range based on the straight line detection result by the straight line detection unit 145 (step S807).

このように、本実施形態にかかる車両1によれば、実空間の認識対象物の幅Wに対応する画素数よりも大きい幅のエッジ検出フィルタを用いて、注目画素のエッジの検出が行われることを防止できるので、画像データからの認識対象物の画像のエッジの検出精度を向上させることができる。 As described above, according to the vehicle 1 according to the present embodiment, the edge of the pixel of interest is detected by using the edge detection filter having a width larger than the number of pixels corresponding to the width W of the recognition object in the real space. Therefore, it is possible to improve the detection accuracy of the edge of the image of the recognition target object from the image data.

1 車両
14 ECU
14a CPU
14b ROM
14c RAM
14f SSD
15 撮像部
141 情報取得部
142 ROI設定部
143 エッジ検出部
144 特徴点抽出部
145 直線検出部
146 区画線検出部
147 情報更新部
1 vehicle 14 ECU
14a CPU
14b ROM
14c RAM
14f SSD
15 Imaging unit 141 Information acquisition unit 142 ROI setting unit 143 Edge detection unit 144 Feature point extraction unit 145 Straight line detection unit 146 Section line detection unit 147 Information update unit

Claims (4)

車両に搭載される撮像部によって当該車両の周囲を撮像した画像データを取得する取得部と、
前記画像データの画素のうち、前記撮像部の第1撮像領域に対応する画素に対して、第1フィルタサイズのエッジ検出フィルタを用いてエッジを検出し、前記画素のうち、前記撮像部からの距離が前記第1撮像領域より遠い第2撮像領域に対応する画素に対して、前記第1フィルタサイズより小さい第2フィルタサイズのエッジ検出フィルタを用いてエッジを検出するエッジ検出部と、
を備える画像処理装置。
An acquisition unit that acquires image data obtained by imaging the surroundings of the vehicle by an imaging unit mounted on the vehicle,
Among the pixels of the image data, the edge of the pixel corresponding to the first imaging region of the imaging unit is detected by using the edge detection filter of the first filter size, and among the pixels, the pixel from the imaging unit is detected. An edge detection unit that detects an edge of a pixel corresponding to a second imaging region whose distance is farther than the first imaging region by using an edge detection filter having a second filter size smaller than the first filter size.
An image processing device comprising.
前記エッジ検出部は、前記画像データにおいて認証対象物に対応する画像の幅より小さい幅の前記エッジ検出フィルタを用いて、前記画素のエッジを検出する請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the edge detection unit detects the edge of the pixel by using the edge detection filter having a width smaller than the width of the image corresponding to the authentication target in the image data. 前記エッジ検出部は、前記画像データにおいて認証対象物に対応する画像の幅の1/2の幅の前記エッジ検出フィルタを用いて、前記画素のエッジを検出する請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the edge detection unit detects the edge of the pixel by using the edge detection filter having a width of 1/2 of the width of the image corresponding to the object to be authenticated in the image data. .. 前記エッジ検出部は、前記車両を駐車する領域の勾配に乗じて、前記エッジ検出フィルタのフィルタサイズを変更する請求項1から3のいずれか一に記載の画像処理装置。 The image processing device according to any one of claims 1 to 3, wherein the edge detection unit multiplies the gradient of the area where the vehicle is parked to change the filter size of the edge detection filter.
JP2019188220A 2019-10-11 2019-10-11 Image processing device Active JP7423970B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019188220A JP7423970B2 (en) 2019-10-11 2019-10-11 Image processing device
DE102020126525.5A DE102020126525A1 (en) 2019-10-11 2020-10-09 IMAGE PROCESSING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188220A JP7423970B2 (en) 2019-10-11 2019-10-11 Image processing device

Publications (2)

Publication Number Publication Date
JP2021064149A true JP2021064149A (en) 2021-04-22
JP7423970B2 JP7423970B2 (en) 2024-01-30

Family

ID=75155673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188220A Active JP7423970B2 (en) 2019-10-11 2019-10-11 Image processing device

Country Status (2)

Country Link
JP (1) JP7423970B2 (en)
DE (1) DE102020126525A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018371A (en) * 2014-07-08 2016-02-01 株式会社デンソー On-vehicle system, information processing apparatus, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018371A (en) * 2014-07-08 2016-02-01 株式会社デンソー On-vehicle system, information processing apparatus, and program

Also Published As

Publication number Publication date
JP7423970B2 (en) 2024-01-30
DE102020126525A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
CN105416278B (en) Parking assist apparatus
JP6094266B2 (en) Parking assistance device, parking assistance method and program
US10150486B2 (en) Driving assistance device and driving assistance system
JP7151293B2 (en) Vehicle peripheral display device
JP2014069722A (en) Parking support system, parking support method, and program
JP2020120327A (en) Peripheral display control device
JP6852534B2 (en) Obstacle detection and notification device, method and program
CN112572415A (en) Parking assist apparatus
CN113165657A (en) Road surface detection device and road surface detection program
JP7283514B2 (en) display controller
JP6969124B2 (en) Operation control device
CN110959289B (en) Peripheral monitoring device
CN110546047A (en) Parking assist apparatus
JP7427907B2 (en) parking assist device
CN112644466A (en) Parking assistance device, parking assistance method, and recording medium
JP7423970B2 (en) Image processing device
US10922977B2 (en) Display control device
JP2022055774A (en) Parking support system, parking support device, parking support method, and program
JP6965563B2 (en) Peripheral monitoring device
JP7380058B2 (en) parking assist device
JP7501500B2 (en) Parking Assistance Device
JP7380073B2 (en) parking assist device
JP7383973B2 (en) parking assist device
WO2023090186A1 (en) Parking assistance device
JP6730885B2 (en) Departure support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7423970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150