WO2023085228A1 - 駐車支援装置 - Google Patents

駐車支援装置 Download PDF

Info

Publication number
WO2023085228A1
WO2023085228A1 PCT/JP2022/041352 JP2022041352W WO2023085228A1 WO 2023085228 A1 WO2023085228 A1 WO 2023085228A1 JP 2022041352 W JP2022041352 W JP 2022041352W WO 2023085228 A1 WO2023085228 A1 WO 2023085228A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
candidate
unit
vehicle
candidate line
Prior art date
Application number
PCT/JP2022/041352
Other languages
English (en)
French (fr)
Inventor
陽司 乾
賢樹 古川
隆太郎 加藤
祐也 下平
Original Assignee
株式会社アイシン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アイシン filed Critical 株式会社アイシン
Publication of WO2023085228A1 publication Critical patent/WO2023085228A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R99/00Subject matter not provided for in other groups of this subclass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking

Definitions

  • This embodiment relates to a parking assistance device.
  • lane markings on the road surface are detected in the image data in order to set the target parking position.
  • one of the problems of the embodiments of the present invention is to obtain a parking assistance device that can improve the detection accuracy of lane markings, for example.
  • the marking line recognizing unit does not recognize the candidate line, ie, the edge of the shadow, as a marking line. Therefore, according to the above configuration, the edge of the shadow is prevented from being erroneously recognized as a marking line, so it is possible to improve the detection accuracy of the marking line.
  • the marking line recognition unit executes the determination process when the width of the candidate line does not exceed the width threshold.
  • the lane marking recognition unit recognizes the candidate line as the lane marking without executing the determination process.
  • the marking line recognition unit recognizes the candidate line as a marking line. Therefore, according to the above configuration, misrecognition of the edge of the shadow as a marking line is suppressed, and the correct marking line is easily recognized correctly.
  • the marking line recognition unit executes the determination process when the pixel resolution of the candidate line in the image data does not exceed the resolution threshold.
  • the marking line recognition unit recognizes the candidate line as the marking line without executing the determination process. Recognize as a line.
  • the marking line recognition unit can mark the candidate line. Recognize as a line. Therefore, according to the above configuration, misrecognition of the edge of the shadow as a marking line is suppressed, and the correct marking line is easily recognized correctly.
  • the difference in brightness between the regions on both sides is the average value of the brightness of the plurality of pixels in one region and the average value of the brightness of the plurality of pixels in the other region. difference.
  • the distance measuring unit 17 can be used, for example, to detect relatively short-distance objects, and the distance measuring unit 16 can be used, for example, to detect relatively long-distance objects that are farther than the distance measuring unit 17 . Further, the distance measuring unit 17 can be used, for example, to detect objects in front of and behind the vehicle 1 , and the distance measuring unit 16 can be used to detect objects to the sides of the vehicle 1 .
  • FIG. 4 is a diagram showing an example of the hardware configuration of a vehicle control system including an ECU (parking assist device) according to the embodiment.
  • the vehicle control system 100 includes an ECU 14, a monitor device 11, a steering system 13, distance measuring units 16 and 17, a braking system 18, a steering angle sensor 19, an accelerator sensor 20, a shift sensor, and the like. 21, a wheel speed sensor 22, etc. are electrically connected via an in-vehicle network 23 as an electrical communication line.
  • the in-vehicle network 23 is configured as, for example, a CAN (controller area network).
  • the ECU 14 can control the steering system 13, the brake system 18, etc. by sending control signals through the in-vehicle network 23.
  • the ECU 14 detects torque sensor 13b, brake sensor 18b, steering angle sensor 19, distance measuring unit 16, distance measuring unit 17, accelerator sensor 20, shift sensor 21, wheel speed sensor 22, etc. via in-vehicle network 23. It is possible to receive results, operation signals of the operation input unit 10 and the like.
  • the ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, and an SSD 14f (solid state drive, flash memory). ing.
  • the CPU 14a performs, for example, image processing related to the images displayed on the display devices 8 and 12, determination of the parking target position of the vehicle 1, calculation of the movement route of the vehicle 1, determination of the presence or absence of interference with an object, Various arithmetic processing and control such as automatic control of and cancellation of automatic control can be executed.
  • the CPU 14a can read a program installed and stored in a non-volatile storage device such as the ROM 14b, and execute arithmetic processing according to the program.
  • the RAM 14c temporarily stores various data used in calculations by the CPU 14a.
  • the display control unit 14d mainly performs image processing using image data obtained by the imaging unit 15, synthesis of image data displayed on the display device 8, and the like among the arithmetic processing performed by the ECU 14.
  • the voice control unit 14e mainly executes processing of voice data output by the voice output device 9 among the arithmetic processing in the ECU 14.
  • the SSD 14f is a rewritable non-volatile storage unit, and can store data even when the power of the ECU 14 is turned off.
  • the CPU 14a, ROM 14b, RAM 14c, etc. can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logic operation processor such as a DSP (digital signal processor) or a logic circuit is used instead of the CPU 14a. Also, an HDD (hard disk drive) may be provided instead of the SSD 14f, or the SSD 14f and the HDD may be provided separately from the ECU 14.
  • the ECU 14 is an example of a parking assistance device.
  • the brake system 18 includes, for example, an anti-lock brake system (ABS) that suppresses locking of the brakes, an electronic stability control (ESC) that suppresses side slipping of the vehicle 1 during cornering, and a braking force that increases ( (executing brake assist), an electric brake system, BBW (brake by wire), and the like.
  • the brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via an actuator 18a.
  • the brake system 18 can also detect signs of brake locking, idling of the wheels 3, skidding, etc. from the rotational difference between the left and right wheels 3, and execute various controls.
  • the brake sensor 18b is, for example, a sensor that detects the position of the movable portion of the braking operation portion 6. As shown in FIG. The brake sensor 18b can detect the position of the brake pedal as a movable part. Brake sensor 18b includes a displacement sensor.
  • the steering angle sensor 19 is, for example, a sensor that detects the amount of steering of the steering portion 4 such as a steering wheel.
  • the steering angle sensor 19 is configured using, for example, a Hall element or the like.
  • the ECU 14 acquires the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19, and executes various controls.
  • a steering angle sensor 19 detects the rotation angle of a rotating portion included in the steering section 4 .
  • the steering angle sensor 19 is an example of an angle sensor.
  • the shift sensor 21 is, for example, a sensor that detects the position of the movable portion of the shift operating portion 7 .
  • the shift sensor 21 can detect the positions of movable parts such as levers, arms, and buttons.
  • the shift sensor 21 may include a displacement sensor or may be configured as a switch.
  • FIG. 5 is a block diagram showing an example of the functional configuration of the ECU 14 according to this embodiment.
  • the ECU 14 includes a detection section 141 , a parking target position setting section 142 , a route calculation section 143 , a movement control section 144 and a storage section 150 .
  • the route calculation unit 143 calculates a movement route for moving the vehicle 1 from the current position to the parking target position when parking assistance is started. For example, the route calculation unit 143 calculates a guidance route when receiving an instruction to start parking assistance by an operation signal acquired from the operation unit 14g. The route calculation unit 143 outputs data of the calculated movement route to the storage unit 150 .
  • automatic steering is performed by the movement control unit 144, and other operations are performed by the driver himself/herself, but this is not a limitation.
  • a configuration in which the movement control unit 144 automatically controls the operation of the acceleration operation unit 5 in addition to the steering may be employed.
  • a configuration in which the operation of the shift operation unit 7 is also automatically controlled by the movement control unit 144 may be employed.
  • FIG. 7 is a diagram showing image data obtained by imaging the road surface 200 in the embodiment. Specifically, FIG. 7 shows image data when the shadow 501 of the other vehicle 401 exists on the road surface 200 .
  • FIG. 8 is an enlarged view of the edge 501a of the shadow 501 in the image data of FIG.
  • FIG. 9 is a diagram for explaining determination processing executed by the ECU (parking assist device) according to the embodiment.
  • FIG. 10 is a diagram for explaining a pair of regions in determination processing executed by an ECU (parking assistance device) according to the embodiment.
  • FIG. 11 is a diagram for explaining the painted road surface adjacent to the lane marking in the embodiment.
  • the candidate line detection unit 141b detects the candidate line Q, which is a candidate for the marking line 201, in the image data acquired by imaging the surroundings of the vehicle 1.
  • candidate line Q is defined by a pair of straight lines L1 and L2.
  • the pair of straight lines L1 and L2 are lines arranged with parallelism within a specified range.
  • the candidate line Q is the partition line 201 in FIG. 6, and the edge 501a of the shadow 501 in FIGS. That is, the edge portion 501a is defined by the pair of straight lines L1 and L2 and is a line (belt-shaped line) having a width whose width direction is the direction in which the pair of straight lines L1 and L2 face each other.
  • the marking line recognition unit 141c sets a pair of regions R1 and R2 on both sides in the width direction of the candidate line Q in the image data (Fig. 9).
  • a pair of regions R1 and R2 are determined based on the candidate line Q, for example. As shown in FIG. 10, the pair of regions R1 and R2 are symmetrical with respect to the candidate line Q. As shown in FIG. A pair of regions R1 and R2 are set apart from the candidate line Q by a prescribed distance. The prescribed distance is a distance smaller than the width of the candidate line Q (the width between the straight lines L1 and L2). Also, the width of each of the regions R1 and R2 is narrower than the width of the candidate line Q.
  • the marking line recognizing unit 141c executes determination processing to determine whether or not the difference in brightness between the pair of regions R1 and R2 is equal to or greater than the brightness threshold.
  • the marking line recognizing unit 141c does not recognize the candidate line Q as the marking line 201 if it determines that the luminance difference is equal to or greater than the luminance threshold, and if it determines that the luminance difference is less than the luminance threshold: , the candidate line Q is recognized as the partition line 201 .
  • the difference in brightness between the pair of regions R1 and R2 is, for example, the difference between the average brightness of pixels in one region R1 and the average brightness of pixels in the other region R2.
  • the marking line recognition unit 141c recognizes the candidate line Q as the marking line 201 without executing the determination process. For example, the width of the color fringing at the edge 501a of the shadow 501 in the image data is narrower than that of the common white marking line 201 .
  • the marking line recognition unit 141c recognizes the candidate line Q as the marking line 201 without executing the determination process.
  • the pixel resolution of the candidate line Q is, for example, the pixel resolution of the end portion of the candidate line Q on the vehicle 1 side. Specifically, the resolution is [distance (mm) between front ends L11 and L21 (two points) of straight lines L1 and L2] ⁇ [between front ends L11 and L21 (two points) of straight lines L1 and L2. number of pixels distance (pixel)].
  • the front ends L11 and L21 of the straight lines L1 and L2 are the ends on the vehicle 1 side of the respective ends of the straight lines L1 and L2 represented by the coordinate system with the current (latest) position of the vehicle 1 as the origin.
  • the resolution threshold is, for example, 50-80 (mm/pixel). Note that the resolution threshold may be other than the above.
  • color fringing due to chromatic aberration tends to occur as the distance from the center of the image increases, that is, as the pixel resolution increases.
  • FIG. 12 is a flow chart showing the process of setting the parking target position of the vehicle.
  • the detection unit 141 acquires road surface image data captured by the imaging unit 15 (S1), and recognizes (detects) the lane markings in the image data (S2).
  • the detection unit 141 supplies the recognition result to the parking target position setting unit 142, stores the data of the lane markings in the storage unit 150, and manages the lane markings (S3).
  • the detection unit 141 accesses the storage unit 150, refers to the data of the lane markings, and detects a parking area around the vehicle 1 based on the lane markings (for example, with the lane markings as a reference).
  • the detection unit 141 supplies the detection result to the parking target position setting unit 142 .
  • the parking target position setting unit 142 determines the target parking area and the parking target position of the vehicle 1 based on the detection result of the detection unit 141 (S4).
  • the route calculation unit 143 calculates a moving route for moving the vehicle 1 from the current position to the parking target position when the parking assistance is started.
  • the route calculation unit 143 outputs data of the calculated movement route to the storage unit 150 (S5).
  • the movement control unit 144 accesses the storage unit 150 to refer to the movement route data, and executes steering control to move the vehicle 1 so that the vehicle 1 moves along the movement route.
  • the detection unit 141 extracts edges in the acquired image data (S11), and extracts straight lines in the image data based on the extracted edges (S12).
  • the detection unit 141 determines whether the extracted straight line is a marking line (S13).
  • the likeliness of a lane marking is based on, for example, the length of a straight line. When the length of the straight line is within a predetermined range, the detection unit 141 determines that the straight line seems to be a marking line (likely to be part of a marking line).
  • the detection unit 141 causes the straight line group storage unit 150a to store the straight line determined to be a marking line (like a part of the marking line).
  • the detection unit 141 detects the frame line (S14).
  • a frame line is a pair of straight lines forming a partition line. Specifically, in S14, the detection unit 141 detects partition lines including frame lines.
  • the marking line recognition unit 141c calculates a luminance difference that is a difference in luminance between the pair of regions R1 and R2 (S24), and determines whether or not the luminance difference is equal to or greater than a luminance threshold ( S25). When the marking line recognition unit 141c determines that the luminance difference is equal to or greater than the luminance threshold (S25: Yes), the marking line recognition unit 141c does not recognize the candidate line Q as the marking line 201 and performs exclusion processing (S26).
  • the exclusion process is a process of deleting a pair of straight lines (candidate line Q) from the frame line group storage unit 150b.
  • the marking line recognition unit 141c determines whether the width of the candidate line Q exceeds the width threshold (S22: No) or the pixel resolution is equal to or greater than the resolution threshold (S23: No). Then, without executing the determination processes of S24 and S25, the storage of the pair of straight lines (candidate line Q) in the frame line group storage unit 150b is retained (S27). That is, the marking line recognition unit 141 c recognizes the candidate line Q as the marking line 201 .
  • the ECU 14 (parking assistance device) includes the candidate line detection unit 141b, the lane marking recognition unit 141c, the parking target position setting unit 142, and the movement control unit 144.
  • the candidate line detection unit 141b detects a candidate line Q, which is a candidate for the lane marking 201, in the image data obtained by imaging the surroundings of the vehicle 1.
  • the marking line recognizing unit 141c performs determination processing for determining whether or not the difference in brightness between the pair of regions R1 and R2 on both sides of the candidate line Q in the image data is equal to or greater than a brightness threshold.
  • the marking line recognizing unit 141c does not recognize the candidate line Q as the marking line 201 if it determines that the luminance difference is equal to or greater than the luminance threshold, and if it determines that the luminance difference is less than the luminance threshold: , the candidate line Q is recognized as the partition line 201 .
  • the parking target position setting unit 142 sets the parking target position N based on the partition line 201 .
  • the movement control unit 144 moves the vehicle 1 to the parking target position N.
  • the marking line recognition unit 141c does not recognize the candidate line Q, that is, the edge of the shadow, as the marking line 201.
  • the edge 501a of the shadow 501 is prevented from being erroneously recognized as the marking line 201, so that the detection accuracy of the marking line 201 can be improved.
  • the marking line recognition unit 141c recognizes the candidate line Q as the marking line 201 without executing the determination process.
  • the marking line recognition unit 141c recognizes the candidate line Q as the marking line 201 without executing the determination process.
  • the marking line recognition unit 141c detects the candidate line.
  • a line Q is recognized as a partition line 201 . Therefore, according to the above-described configuration, misrecognition of the edge of the shadow as the marking line 201 is suppressed, and the regular marking line 201 is easily recognized correctly.
  • the difference in luminance between the pair of regions R1 and R2 is the difference between the average luminance value of the plurality of pixels in one region R1 and the average luminance value of the plurality of pixels in the other region R2.
  • the average value of the brightness of a plurality of pixels in the regions R1 and R2 is used for determination. brightness can be compared.
  • the color system of the image data may be the YUV color system, the HSV color system, the HSL color system, or the like.

Abstract

駐車支援装置は、車両の周辺を撮像した画像データにおいて区画線の候補である候補線を検出する候補線検出部と、画像データにおける候補線の幅方向外側の領域であって且つ候補線を挟んで両側の領域、の輝度の差が、輝度閾値以上でるか否かを判定する判定処理を実行し、輝度の差が輝度閾値以上であると判定した場合には、候補線を区画線として認識せず、輝度の差が輝度閾値未満であると判定した場合には、候補線を区画線として認識する区画線認識部と、を備える。

Description

駐車支援装置
 本実施形態は、駐車支援装置に関する。
 従来、車両の周囲が撮像されて取得された画像データに対して画像処理を行う駐車支援装置では、駐車目標位置を設定するために、画像データにおいて路面上の区画線を検出する。
特開2021-68125号
 しかしながら、上記従来技術では、他車両等の影が路面上に有る場合に、その影の縁部を撮像した撮像データにおいて影の縁部に色のにじみが発生すると、そのにじみ部分を区画線として誤って認識してしまう虞がある。
 そこで、本発明の実施形態の課題の一つは、例えば、区画線の検出精度を向上させることができる駐車支援装置を得ることである。
 実施形態にかかる駐車支援装置は、車両の周辺を撮像した画像データにおいて区画線の候補である候補線を検出する候補線検出部と、前記画像データにおける前記候補線の幅方向外側の領域であって且つ前記候補線を挟んで両側の領域、のそれぞれの輝度の差が、輝度閾値以上でるか否かを判定する判定処理を実行し、前記輝度の差が前記輝度閾値以上であると判定した場合には、前記候補線を前記区画線として認識せず、前記輝度の差が前記輝度閾値未満であると判定した場合には、前記候補線を前記区画線として認識する区画線認識部と、前記区画線に基づいて駐車目標位置を設定する駐車目標位置設定部と、前記駐車目標位置に前記車両を移動させる移動制御部と、を備える。
 このような構成によれば、例えば、候補線検出部が、影の縁部が撮像された画像データにおいて影の縁部を候補線として検出した場合であっても、当該候補線の両側の一対の領域輝度の差が輝度閾値以上である場合には、区画線認識部は、当該候補線すなわち影の縁部を区画線として認識しない。よって、上記構成によれば、影の縁部が区画線として誤認識されることが抑制されるので、区画線の検出精度を向上させることができる。
 前記駐車支援装置では、例えば、前記区画線認識部は、前記候補線の幅が幅閾値を超えない場合には、前記判定処理を実行する。
 前記駐車支援装置では、例えば、前記区画線認識部は、前記候補線の幅が幅閾値を超える場合には、前記判定処理を実行することなく、前記候補線を前記区画線として認識する。
 このような構成によれば、正規の区画線が撮像された画像データにおいて正規の区画線が候補線として検出され、当該候補線の両側の輝度に差がある場合であっても、当該候補線の幅が幅閾値を超えていれば、区画線認識部が当該候補線を区画線として認識する。よって、上記構成によれば、影の縁部が区画線として誤認識されるのが抑制されるとともに、正規の区画線が正しく認識されやすい。
 前記区画線認識部は、前記画像データにおける前記候補線の画素の分解能が分解能閾値を超えない場合には、前記判定処理を実行する。
 前記駐車支援装置では、例えば、前記区画線認識部は、前記画像データにおける前記候補線の画素の分解能が分解能閾値を超える場合には、前記判定処理を実行することなく、前記候補線を前記区画線として認識する。
 このような構成によれば、候補線の両側の輝度に差がある場合であっても、当該候補線における画素の分解能が分解能閾値を超えていれば、区画線認識部が当該候補線を区画線として認識する。よって、上記構成によれば、影の縁部が区画線として誤認識されるのが抑制されるとともに、正規の区画線が正しく認識されやすい。
 前記駐車支援装置では、例えば、前記両側の領域の前記輝度の差は、一方の前記領域の複数の画素の前記輝度の平均値と他方の前記領域の複数の画素の前記輝度の平均値との差である。
 このような構成によれば、例えば、領域の複数の画素の輝度の平均値が判定に用いられるので、領域中の輝度のばらつきがあっても、一対の領域の輝度を比較することができる。
 前記駐車支援装置では、例えば、前記両側の領域は、それぞれが前記候補線から所定距離離れた位置にある。
 このような構成によれば、例えば、候補線の真横で輝度差を取るのではなく、候補線から所定距離を離れた位置で輝度差を取るので、影の縁部における色のにじみの影響を受けるのを抑制することができる。
図1は、実施形態にかかるECU(駐車支援装置)が適用される車両の車室の一部が透視された状態が示された例示的な斜視図である。 図2は、実施形態にかかるECUが適用される車両の例示的な平面図(俯瞰図)である。 図3は、実施形態にかかるECUが適用される車両のダッシュボードの一例の車両後方からの視野での図である。 図4は、実施形態にかかるECU(駐車支援装置)を含む車両制御システムのハードウェア構成の一例を示す図である。 図5は、実施形態にかかるECU(駐車支援装置)の機能的構成の一例を示すブロック図である。 図6は、実施形態にかかるECU(駐車支援装置)により生成された移動経路の一例を示す図である。 図7は、実施形態における路面を撮像した画像データを示す図である。 図8は、図7の画像データにおける影の縁部を拡大して示す図である。 図9は、実施形態にかかるECU(駐車支援装置)が実行する判定処理を説明するための図である。 図10は、実施形態にかかるECU(駐車支援装置)が実行する判定処理における一対の領域を説明するための図である。 図11は、実施形態における区画線に隣接して塗装が施された路面を説明するための図である。 図12は、実施形態における車両の駐車目標位置を設定する処理を示すフローチャートである。 図13は、実施形態における車両の区画線認識処理を示すフローチャートである。 図14は、実施形態における車両の枠線検出処理を示すフローチャートである。
 以下、本実施形態の駐車支援装置は、ECU(Electronic Control Unit)として実装され、車両に搭載され得る。駐車支援装置が搭載される車両は、例えば、図1,2に示すような車両1であってもよい。図1は、ECU(駐車支援装置)が適用される車両1の車室2aの一部が透視された状態が示された例示的な斜視図である。図2は、実施形態にかかるECUが適用される車両1の例示的な平面図(俯瞰図)である。本実施形態において、車両制御装置を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。あるいは、車両1は、内燃機関と電動機の双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。
 図1に示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。
 また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
 図3は、実施形態にかかるECUが適用される車両1のダッシュボードの一例の車両後方からの視野での図である。図3に示されるように、車室2a内には、表示装置8とは別の表示装置12が設けられている。表示装置12は、例えば、ダッシュボード24の計器盤部25に設けられ、計器盤部25の略中央で、速度表示部25aと回転数表示部25bとの間に位置されている。表示装置12の画面12aの大きさは、表示装置8の画面8aの大きさよりも小さい。この表示装置12には、主として車両1の駐車支援に関する情報を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。
 図1,2に示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。車両1は、少なくとも二つの車輪3を操舵する操舵システム13(図4)を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータ13aによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータ13aによって車輪3を転舵したりする。この場合、アクチュエータ13aは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。
 また、図2に示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a~15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データを出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~190°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮影し、撮像画像データとして出力する。
 撮像部15aは、例えば、車体2の後側の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパー等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。なお、俯瞰画像は、平面画像とも称されうる。
 また、ECU14は、撮像部15の画像に対して画像処理を行い、車両1の周辺の路面に示された区画線を検出する。ECU14は、検出された区画線に基づき、車両1の駐車目標位置(例えば、駐車可能領域等)を検出する。
 また、図1,2に示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a~16dと、八つの測距部17a~17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器とも称されうる。ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、物体を検出する検出部の一例である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。
 図4は、実施形態にかかるECU(駐車支援装置)を含む車両制御システムのハードウェア構成の一例を示す図である。図4に示されるように、車両制御システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。
 ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理や、車両1の駐車目標位置の決定、車両1の移動経路の演算、物体との干渉の有無の判断、車両1の自動制御、自動制御の解除等の、各種の演算処理および制御を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。ECU14は、駐車支援装置の一例である。
 ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。
 舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。
 アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。
 シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。
 車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。
 なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
 図5は、本実施形態にかかるECU14の機能的構成の一例を示すブロック図である。図5に示されるように、ECU14は、検出部141と、駐車目標位置設定部142と、経路算出部143と、移動制御部144と、記憶部150と、を備える。
 図5に示される検出部141、駐車目標位置設定部142、経路算出部143、移動制御部144の各構成は、CPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェア回路で実現するように構成しても良い。
 検出部141は、撮像部15が撮像した車両1の周辺の画像データに応じて、区画線を検出する。区画線は、例えば、幅を有した白線等である。検出部141は、検出された区画線のデータ(一例として位置情報)を記憶部150に格納する。すなわち、検出部141は、区画線を管理する。また、検出部141は、記憶部150にアクセスして区画線のデータを参照し、区画線に基づき(例えば、区画線を基準として)、車両1の周辺に駐車可能領域を検出する。検出部141は、検出結果を駐車目標位置設定部142へ供給する。
 駐車目標位置設定部142は、検出部141の検出結果等に基づいて、車両1の目標駐車領域および駐車目標位置を決定する。駐車目標位置設定部142は、検出部141が複数の駐車可能領域を検出した場合に、いずれの駐車可能領域を目標駐車領域とするかについて運転者の選択操作を受け付けても良い。例えば、駐車目標位置設定部142は、操作部14gから取得した操作信号により、運転者の選択操作を受け付ける。
 経路算出部143は、駐車支援が開始された場合に、車両1を現在の位置から駐車目標位置まで移動させるための移動経路を算出する。例えば、経路算出部143は、操作部14gから取得した操作信号によって駐車支援を開始する指示を受け付けた場合に、誘導経路を算出する。経路算出部143は、算出された移動経路のデータを記憶部150へ出力する。
 また、駐車目標位置設定部142および経路算出部143は、操作部14gから取得した操作信号により運転者の操作を受け付けるとしたが、運転者の操作入力はこれに限定されるものではない。例えば、操作入力部10から入力された運転者の操作を受け付けて上述の処理を実行してもよい。
 移動制御部144は、移動経路のデータに基づいて、操舵制御を実行して車両1を移動させる。具体的には、移動制御部144は、記憶部150にアクセスして移動経路のデータを参照し、移動経路に沿って車両1が移動するように、車両1の位置に応じて操舵システム13のアクチュエータ13aを制御する。この際、例えば、車両1は、運転者の加速操作部5あるいは制動操作部6の操作に応じて、加速あるいは減速(制動)される。また、移動制御部144は、モニタ装置11等に案内を表示して、運転者に対して加速操作部5あるいは制動操作部6の操作を指示してもよい。
 記憶部150は、例えばSSD14f等の記憶装置によって構成される。また、記憶部150は、駐車支援における区画線のデータ及び移動経路のデータを記憶する。具体的ンには、記憶部150は、直線群記憶部150aと、枠線群記憶部150bと、を有する。直線群記憶部150aは、直線のデータを記憶する。枠線群記憶部150bは、枠線のデータを記憶する。
 駐車支援は、一例として、移動制御部144により自動操舵が実行され、他の操作は運転者自身が実行する例を示すが、これに限定されるものではない。例えば、操舵に加え、加速操作部5の操作を移動制御部144が自動制御する構成を採用しても良い。また、変速操作部7の操作も移動制御部144が自動制御する構成を採用しても良い。
 図6は、本実施形態にかかるECU(駐車支援装置)により生成された移動経路の一例を示す図である。図6の例では、車両1は、矢印Fが示す方向に進みながら周囲を撮像する。そして、検出部141が、撮像部15により撮像された画像データにおいて路面200上の区画線201を検出する。そして、駐車目標位置設定部142が、当該区画線201の検出結果から、駐車領域Mを特定した後、当該駐車領域Mに駐車させるための駐車目標位置Nを特定する。本実施形態は、例えば、車両1の左右の後輪3Rを結ぶ線の中央位置を基準位置Gとし、当該基準位置Gが到達する位置を駐車目標位置Nとする。移動経路301は、駐車支援が開始される時点の車両1の位置P1から駐車目標位置Nまでの経路である。図6の例では、区画線201に隣接して、他車両401が駐車されている。
 図7は、実施形態における路面200を撮像した画像データを示す図である。詳細には、図7は、他車両401の影501が路面200上に他車両401の影501が有る場合の画像データである。図8は、図7の画像データにおける影501の縁部501aを拡大して示す図である。
 図7に示されるように、例えば、他車両401の影501が路面200上に有る場合には、その影501の縁部501aを撮像した撮像データにおいては、図8に示されるように、影501の縁部に色のにじみが発生する場合が有る。このような場合に、にじみ部分を区画線201として誤って認識しないように、本実施形態では以下の処理が行われる。
 図9は、実施形態にかかるECU(駐車支援装置)が実行する判定処理を説明するための図である。図10は、実施形態にかかるECU(駐車支援装置)が実行する判定処理における一対の領域を説明するための図である。図11は、実施形態における区画線に隣接して塗装が施された路面を説明するための図である。
 候補線検出部141bは、車両1の周辺の撮像によって取得された画像データにおいて区画線201の候補である候補線Qを検出する。図6,8,9に示されるように、候補線Qは、一対の直線L1,L2によって規定される。一対の直線L1,L2は、規定の範囲内の平行度で並ぶ線である。候補線Qは、図6においては、区画線201であり、図8,9では、影501の縁部501aである。すなわち、縁部501aは、一対の直線L1,L2によって規定され、一対の直線L1,L2の対向方向を幅方向とする幅を有した線(帯状線)である。
 区画線認識部141cは、画像データにおける候補線Qの幅方向で両側の一対の領域R1,R2を設定する(図9)。一対の領域R1,R2は、例えば、候補線Qに基づいて決定される。図10に示されるように、一対の領域R1,R2は、候補線Qに関して線対称である。一対の領域R1,R2は、それぞれ、候補線Qから規定の距離だけ間隔を空けて設定される。規定の距離は、候補線Qの幅(直線L1と直線L2との間の幅)よりも小さい距離である。また、各領域R1,R2の幅は、候補線Qの幅よりも狭い。また、各領域R1,R2の長さは、候補線Qの長さよりも短い。各領域R1,R2は、それぞれ、複数の画素を含む大きさに設定される。なお、各領域R1,R2の形状は、上記に限定されない。
 区画線認識部141cは、一対の領域R1,R2の輝度の差が、輝度閾値以上でるか否かを判定する判定処理を実行する。区画線認識部141cは、輝度の差が輝度閾値以上であると判定した場合には、候補線Qを区画線201として認識せず、輝度の差が輝度閾値未満であると判定した場合には、候補線Qを区画線201として認識する。一対の領域R1,R2の輝度の差は、例えば、一方の領域R1の複数の画素の輝度の平均値と他方の領域R2の複数の画素の輝度の平均値との差である。このように一対の領域R1,R2を用いることにより、輝度の探索範囲を最小限に設定することができる。また、一対の領域R1,R2を候補線Qの直線L1,L2から離間させるのは、直線L1,L2付近の輝度が安定しないためである。
 ここで、図11に示されるように、路面200において、区画線201に隣接した駐車区画に塗装601(塗りつぶし)が施されている場合には、塗装601の部分の輝度が小さくなりやすいので、候補線Qが正規の区画線201であっても、その両側の一対の領域R1,R2の輝度差が輝度閾値以上となる可能性がある。そこで、区画線認識部141cは、候補線Qの幅が幅閾値を超える場合には、判定処理を実行することなく、候補線Qを区画線201として認識する。例えば、画像データにおける影501の縁部501aの色のにじみの幅は、一般的な白線の区画線201よりも幅が狭い。よって、幅閾値を、にじみの幅よりも大きく所定の区画線201の幅より小さくすることにより、候補線Qの両側の輝度に差がある場合であっても、当該候補線Qの幅が幅閾値を超えていれば、区画線認識部141cが当該候補線Qを区画線201として認識することができる。
 また、区画線認識部141cは、画像データにおける候補線Qの画素の分解能が分解能閾値を超える場合には、判定処理を実行することなく、候補線Qを区画線201として認識する。候補線Qの画素の分解能は、例えば、候補線Qにおける車両1側の端部の部分の画素の分解能である。詳細には、分解能は、[直線L1,L2のそれぞれの前端L11,L21(2点)の間の距離(mm)]÷[直線L1,L2のそれぞれの前端L11,L21(2点)の間のピクセル数距離(pixel)]により求められる。直線L1,L2の前端L11,L21とは、車両1の現在(最新)の位置を原点とする座標系で表される直線L1,L2のそれぞれの両端のうち車両1側の端である。分解能閾値は、例えば、50~80(mm/pixel)である。なお、分解能閾値は、上記以外であってもよい。画像データにおいては、画像中心から離れる程、すなわち画素の分解能が大きい程、色収差による色のにじみが生じやすい。換言すると、画像データにおいては、画像中心に近い程、すなわち画素の分解能が小さい程、色収差による色のにじみが生じにくい。よって、候補線Qの両側の輝度に差がある場合であっても、当該候補線Qにおける画素の分解能が分解能閾値を超えていれば、区画線認識部141cが当該候補線Qを区画線201として認識することができる。
 次に、車両の駐車目標位置を設定する処理について図12を用いて説明する。図12は、車両の駐車目標位置を設定する処理を示すフローチャートである。
 ECU14において、検出部141は、撮像部15で撮像された路面画像のデータを取得し(S1)、画像データにおける区画線を認識(検出)する(S2)。検出部141は、認識結果を駐車目標位置設定部142へ供給するとともに、区画線のデータを記憶部150に格納し、区画線を管理する(S3)。検出部141は、記憶部150にアクセスして区画線のデータを参照し、区画線に基づき(例えば、区画線を基準として)、車両1の周辺に駐車可能領域を検出する。検出部141は、検出結果を駐車目標位置設定部142へ供給する。駐車目標位置設定部142は、検出部141の検出結果等に基づいて、車両1の目標駐車領域および駐車目標位置を決定する(S4)。経路算出部143は、駐車支援が開始された場合に、車両1を現在の位置から駐車目標位置まで移動させるための移動経路を算出する。経路算出部143は、算出された移動経路のデータを記憶部150へ出力する(S5)。移動制御部144は、記憶部150にアクセスして移動経路のデータを参照し、移動経路に沿って車両1が移動するように、操舵制御を実行して車両1を移動させる。
 次に、区画線認識の処理(S2)の詳細について図13を用いて説明する。図13は、実施形態における車両1の区画線認識処理を示すフローチャートである。
 検出部141は、取得した画像データにおいてエッジを抽出し(S11)、抽出したエッジに基づいて、画像データにおいて直線を抽出する(S12)。検出部141は、抽出した直線に対して区画線らしさを判定する(S13)。区画線らしさは、例えば、直線の長さに基づく。検出部141は、直線の長さが所定の範囲内である場合に、直線が区画線らしい(区画線の一部らしい)と判定する。検出部141は、区画線らしい(区画線の一部らしい)と判定した直線を直線群記憶部150aに記憶させる。次に、検出部141は、枠線を検出する(S14)。枠線は、区画線を構成する一対の直線である。S14では、詳細には、検出部141は、枠線を含む区画線を検出する。
 次に、枠線検出の処理(S14)の詳細について図14を用いて説明する。図14は、実施形態における車両の枠線検出処理を示すフローチャートである。
 候補線検出部141bは、候補線Qを検出する(S21)。具体的には、候補線検出部141bは、直線群記憶部150aに記憶された直線からペア(直線ペア)を判定する。候補線検出部141bは、互いの間隔が所定の間隔以下でかつ二つの直線の平行度が所定の範囲の二つの直線をペアであると判定する。この二つの直線は、候補線の枠線である。すなわち、候補線検出部141bは、候補線を検出する。候補線検出部141bは、ペアであると判定した二つの直線を関連付けして枠線群記憶部150bに記憶させる。換言すると、候補線検出部141bは、候補線を枠線群記憶部150bに記憶させる。
 次に、区画線認識部141cは、候補線Qの幅が幅閾値以下を判定する(S22)。区画線認識部141cは、候補線Qの幅が幅閾値以下の場合には(S22:Yes)、候補線Qの画素分解能が分解能閾値以上か否かを判定する(S23)。区画線認識部141cは、画素分解能が分解能閾値以上である場合には(S23:Yes)、判定処理を実施する(S24~S25)。具体的には、区画線認識部141cは、一対の領域R1,R2のそれぞれの輝度の差である輝度差を算出し(S24)、当該輝度差が輝度閾値以上でるか否かを判定する(S25)。区画線認識部141cは、輝度の差が輝度閾値以上であると判定した場合には(S25:Yes)、候補線Qを区画線201として認識せず、除外処理を行う(S26)。除外処理は、枠線群記憶部150bから、ペアの直線(候補線Q)を削除する処理である。
 一方、区画線認識部141cは、S25において、輝度の差が輝度閾値未満であると判定した場合には(S25:No)、枠線群記憶部150bにおけるペアの直線(候補線Q)の記憶を保持する(S27)。すなわち、区画線認識部141cは、候補線Qを区画線201として認識する。
 また、区画線認識部141cは、候補線Qの幅が幅閾値を超えている場合(S22:No)と、画素分解能が分解能閾値以上である場合(S23:No)と、のいずれかの場合には、S24~S25の判定処理を実行することなく、枠線群記憶部150bにおけるペアの直線(候補線Q)の記憶を保持する(S27)。すなわち、区画線認識部141cは、候補線Qを区画線201として認識する。
 以上のように、本実施形態では、ECU14(駐車支援装置)は、候補線検出部141bと、区画線認識部141cと、駐車目標位置設定部142と、移動制御部144と、を備える。候補線検出部141bは、車両1の周辺を撮像した画像データにおいて区画線201の候補である候補線Qを検出する。区画線認識部141cは、画像データにおける候補線Qの幅方向で両側の一対の領域R1,R2、の輝度の差が、輝度閾値以上でるか否かを判定する判定処理を実行する。区画線認識部141cは、輝度の差が輝度閾値以上であると判定した場合には、候補線Qを区画線201として認識せず、輝度の差が輝度閾値未満であると判定した場合には、候補線Qを区画線201として認識する。駐車目標位置設定部142は、区画線201に基づいて駐車目標位置Nを設定する。移動制御部144は、駐車目標位置Nに車両1を移動させる。
 このような構成によれば、例えば、候補線検出部141bが、影501の縁部501aが撮像された画像データにおいて影501の縁部501aを候補線Qとして検出した場合であっても、当該候補線Qの両側の一対の領域R1,R2輝度の差が輝度閾値以上である場合には、区画線認識部141cは、当該候補線Qすなわち影の縁部を区画線201として認識しない。よって、上記構成によれば、影501の縁部501aが区画線201として誤認識されることが抑制されるので、区画線201の検出精度を向上させることができる。
 また、区画線認識部141cは、候補線Qの幅が幅閾値を超える場合には、判定処理を実行することなく、候補線Qを区画線201として認識する。
 このような構成によれば、正規の区画線201が撮像された画像データにおいて正規の区画線201が候補線Qとして検出され、当該候補線Qの両側の輝度に差がある場合であっても、当該候補線Qの幅が幅閾値を超えていれば、区画線認識部141cが当該候補線Qを区画線201として認識する。よって、上記構成によれば、影501の縁部501aが区画線201として誤認識されるのが抑制されるとともに、正規の区画線201が正しく認識されやすい。
 また、区画線認識部141cは、画像データにおける候補線Qの画素の分解能が分解能閾値を超える場合には、判定処理を実行することなく、候補線Qを区画線201として認識する。
 このような構成によれば、候補線Qの両側の輝度に差がある場合であっても、当該候補線Qにおける画素の分解能が分解能閾値を超えていれば、区画線認識部141cが当該候補線Qを区画線201として認識する。よって、上記構成によれば、影の縁部が区画線201として誤認識されるのが抑制されるとともに、正規の区画線201が正しく認識されやすい。
 また、一対の領域R1,R2の輝度の差は、一方の領域R1の複数の画素の輝度の平均値と他方の領域R2の複数の画素の輝度の平均値との差である。
 このような構成によれば、例えば、領域R1,R2の複数の画素の輝度の平均値が判定に用いられるので、領域R1,R2中の輝度のばらつきがあっても、一対の領域R1,R2の輝度を比較することができる。
 なお、本実施形態では、画像データの表色系としてRGB表色系の例が示されたがこれに限定されない。例えば、画像データの表色系は、YUV表色系やHSV表色、HSL表色系等であってもよい。
 以上、本発明の実施形態を例示したが、上記実施形態は一例であって、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各例の構成や形状は、部分的に入れ替えて実施することも可能である。また、各構成や形状等のスペック(構造や、種類、方向、形状、大きさ、長さ、幅、高さ、数、配置、位置等)は、適宜に変更して実施することができる。
 1…車両、14…ECU(駐車支援装置)、141b…候補線検出部、141c…区画線認識部、142…駐車目標位置設定部、144…移動制御部、201…区画線、N…駐車目標位置、Q…候補線。

Claims (5)

  1.  車両の周辺を撮像した画像データにおいて区画線の候補である候補線を検出する候補線検出部と、
     前記画像データにおける前記候補線の幅方向外側の領域であって且つ前記候補線を挟んで両側の領域、のそれぞれの輝度の差が、輝度閾値以上でるか否かを判定する判定処理を実行し、前記輝度の差が前記輝度閾値以上であると判定した場合には、前記候補線を前記区画線として認識せず、前記輝度の差が前記輝度閾値未満であると判定した場合には、前記候補線を前記区画線として認識する区画線認識部と、
     前記区画線に基づいて駐車目標位置を設定する駐車目標位置設定部と、
     前記駐車目標位置に前記車両を移動させる移動制御部と、
     を備えた駐車支援装置。
  2.  前記区画線認識部は、前記候補線の幅が幅閾値を超えない場合には、前記判定処理を実行する、
     請求項1に記載の駐車支援装置。
  3.  前記区画線認識部は、前記画像データにおける前記候補線の画素の分解能が分解能閾値を超えない場合には、前記判定処理を実行する、
     請求項1または2に記載の駐車支援装置。
  4.  前記両側の領域の前記輝度の差は、一方の前記領域の複数の画素の前記輝度の平均値と他方の前記領域の複数の画素の前記輝度の平均値との差である、
     請求項1~3のうちいずれか一つに記載の駐車支援装置。
  5.  前記両側の領域は、それぞれが前記候補線から所定距離離れた位置にある、
     請求項1~4のうちいずれか一つに記載の駐車支援装置。
PCT/JP2022/041352 2021-11-15 2022-11-07 駐車支援装置 WO2023085228A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-185915 2021-11-15
JP2021185915A JP2023073089A (ja) 2021-11-15 2021-11-15 駐車支援装置

Publications (1)

Publication Number Publication Date
WO2023085228A1 true WO2023085228A1 (ja) 2023-05-19

Family

ID=86336048

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/041352 WO2023085228A1 (ja) 2021-11-15 2022-11-07 駐車支援装置

Country Status (2)

Country Link
JP (1) JP2023073089A (ja)
WO (1) WO2023085228A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128862A (ja) * 2008-11-28 2010-06-10 Toyota Motor Corp 車載装置、及び当該装置で用いられる方法
JP2013026755A (ja) * 2011-07-20 2013-02-04 Canon Inc 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2016133838A (ja) * 2015-01-15 2016-07-25 トヨタ自動車株式会社 複合線判定装置及び複合線判定方法
JP2020135084A (ja) * 2019-02-14 2020-08-31 クラリオン株式会社 画像処理装置及び画像処理方法
JP2021062746A (ja) * 2019-10-15 2021-04-22 アイシン精機株式会社 駐車支援装置
JP2021068125A (ja) 2019-10-21 2021-04-30 アイシン精機株式会社 車両用画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128862A (ja) * 2008-11-28 2010-06-10 Toyota Motor Corp 車載装置、及び当該装置で用いられる方法
JP2013026755A (ja) * 2011-07-20 2013-02-04 Canon Inc 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2016133838A (ja) * 2015-01-15 2016-07-25 トヨタ自動車株式会社 複合線判定装置及び複合線判定方法
JP2020135084A (ja) * 2019-02-14 2020-08-31 クラリオン株式会社 画像処理装置及び画像処理方法
JP2021062746A (ja) * 2019-10-15 2021-04-22 アイシン精機株式会社 駐車支援装置
JP2021068125A (ja) 2019-10-21 2021-04-30 アイシン精機株式会社 車両用画像処理装置

Also Published As

Publication number Publication date
JP2023073089A (ja) 2023-05-25

Similar Documents

Publication Publication Date Title
US10173670B2 (en) Parking assistance device
US10031227B2 (en) Parking assist system
US10018473B2 (en) Vehicle position detecting device
EP2902271B1 (en) Parking assistance device, and parking assistance method and program
US9886859B2 (en) Parking assistance device
CN107792061B (zh) 停车辅助装置
US10150486B2 (en) Driving assistance device and driving assistance system
US20160114795A1 (en) Parking assist system and parking assist method
US10055994B2 (en) Parking assistance device
US10377416B2 (en) Driving assistance device
JP7351172B2 (ja) 駐車支援装置
CN107791951B (zh) 显示控制装置
JP7283514B2 (ja) 表示制御装置
CN110877575A (zh) 周边监视装置
CN110546047A (zh) 停车辅助装置
WO2023085228A1 (ja) 駐車支援装置
JP6227514B2 (ja) 駐車支援装置
JP7427907B2 (ja) 駐車支援装置
JP7383973B2 (ja) 駐車支援装置
US20230093819A1 (en) Parking assistance device
JP7423970B2 (ja) 画像処理装置
JP7380073B2 (ja) 駐車支援装置
JP7380058B2 (ja) 駐車支援装置
US10922977B2 (en) Display control device
JP2019138655A (ja) 走行支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22892727

Country of ref document: EP

Kind code of ref document: A1