WO2023188675A1 - 駐車支援システムおよび駐車支援方法 - Google Patents

駐車支援システムおよび駐車支援方法 Download PDF

Info

Publication number
WO2023188675A1
WO2023188675A1 PCT/JP2023/000319 JP2023000319W WO2023188675A1 WO 2023188675 A1 WO2023188675 A1 WO 2023188675A1 JP 2023000319 W JP2023000319 W JP 2023000319W WO 2023188675 A1 WO2023188675 A1 WO 2023188675A1
Authority
WO
WIPO (PCT)
Prior art keywords
parking
frame
vehicle
parking frame
accuracy
Prior art date
Application number
PCT/JP2023/000319
Other languages
English (en)
French (fr)
Inventor
龍 大月
真幸 福山
裕大 石橋
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023188675A1 publication Critical patent/WO2023188675A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R99/00Subject matter not provided for in other groups of this subclass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the parking support system it is possible to appropriately calculate the parking position even when the road surface condition is not good.
  • FIG. 1 is a schematic diagram showing an example of a vehicle equipped with a parking assistance system according to the first embodiment.
  • FIG. 2A is a diagram for explaining the parking situation according to the first embodiment.
  • FIG. 2B is a diagram for explaining the bird's-eye view image according to the first embodiment.
  • FIG. 2C is a diagram for explaining the parking situation according to the first embodiment.
  • FIG. 2D is a diagram for explaining an overhead image according to the first embodiment.
  • FIG. 3 is a flowchart showing the processing procedure according to the first embodiment.
  • FIG. 4A is a diagram for explaining the parking situation according to the second embodiment.
  • FIG. 4B is a diagram for explaining the parking situation according to the second embodiment.
  • FIG. 4C is a diagram for explaining an overhead image according to the second embodiment.
  • FIG. 4D is a diagram for explaining the parking situation according to the second embodiment.
  • FIG. 5 is a flowchart showing the processing procedure according to the second embodiment.
  • the camera 110 is, for example, a visible light camera.
  • the vehicle includes a first imaging device that images the front of the vehicle, a second imaging device that images the rear of the vehicle, a third imaging device that images the left side of the vehicle, and a fourth imaging device that images the right side of the vehicle. equipped with an imaging device.
  • the camera 110 is applied, for example, to detecting feature points of objects around the vehicle and estimating the current position of the vehicle from the positional relationship between the vehicle and the feature points.
  • the camera 110 outputs a captured image signal to the parking assistance device 130.
  • the camera 110 is not limited to a visible light camera, and may be, for example, a CCD camera or a CMOS camera. Further, the image to be captured may be a still image or a moving image.
  • the sonar 120 is, for example, an ultrasonic sonar.
  • the sonar 120 when the vehicle 100 is traveling in a parking lot, the sonar 120 emits ultrasonic waves and detects the distance to obstacles around the vehicle based on the reflected waves that are detected. do. Then, the sonar 120 calculates the contour points of the obstacle based on the distance to the obstacle, and detects the characteristic points of the obstacle based on the contour points.
  • a plurality of sonar devices 120 are provided at least at the front of the vehicle 100.
  • the parking support device 130 is a device that outputs a route from the position of the vehicle 100 to the parking target position. Details of the parking assist device 130 will be described later.
  • the vehicle control device 140 is a device that controls the vehicle 100.
  • Vehicle control device 140 includes an engine actuator, a brake actuator, an actuator, and the like.
  • Vehicle control device 140 controls the operation of vehicle 100 based on the route acquired from parking assist device 130 .
  • the parking support device 130 includes a video conversion section 131, a parking space detection section 132, a parking space detection accuracy determination section 133, a target position calculation method determination section 134, a parking space detection section 135, a target position calculation section 136, and a route generation section 137. Equipped with
  • the video conversion unit 131 generates an overhead image by converting an image taken by the camera 110 of the surroundings of the vehicle 100 into an image from a viewpoint above the vehicle 100.
  • the parking frame detection unit 132 detects a parking frame around the vehicle 100 based on an overhead image of a captured image of the area around the vehicle 100.
  • the parking frame detection accuracy determination unit 133 determines the accuracy of the parking frame detected by the parking frame detection unit 132.
  • the parking frame detection accuracy determination unit 133 is an example of an accuracy determination unit.
  • the parking space detection unit 135 detects a parking space based on the ultrasonic waves transmitted by the sonar 120 and the reflected waves of the transmitted waves.
  • the image around the vehicle 100 is converted into a bird's-eye view image
  • a parking slot is identified from the bird's-eye view image
  • a target parking position is calculated based on the parking slot
  • the target parking position is The system searches for a route to the parking location and automatically parks the vehicle based on the route.
  • the target position calculation unit 136 calculates the target position using the detection result by the parking space detection unit 135. Specifically, the target position calculation unit 136 calculates the target position based on information indicating the position of the vehicle 200 detected by the sonar 120 as a detection result by the parking space detection unit 135. The vehicle 100 is then controlled using a route based on the target position. Although this causes the vehicle 100 to move a little closer to the vehicle 200, the error can be reduced compared to calculating the parking target position based on an overhead image.
  • the vehicle 100 moves to the position shown in FIG. 2C based on the detection result by the parking space detection unit 135.
  • An overhead image at the position of vehicle 100 in FIG. 2C is shown in FIG. 2D.
  • the parking frame detection accuracy determination unit 133 determines that the accuracy of the parking frame detected by the parking frame detection unit 132 is high (the parking frame can be used).
  • the target position calculation method determination unit 134 determines to calculate the parking target position based on the detection result by the parking frame detection unit 132.
  • the target position calculation unit 136 calculates the parking target position based on the detection result by the parking frame detection unit 132.
  • the parking support device 130 determines the accuracy of the parking frame, and if the accuracy of the parking frame is not high based on the image detection, the parking support device 130 calculates the parking target position using the parking space determined by the sonar 120. Parking support can be more appropriately executed compared to the case where the parking target position is calculated using a parking frame whose accuracy is not high.
  • the parking frame lines L2 and L3 in the overhead image are not in a parallel state.
  • the vehicle 100 executes the parking process using sonar as in the first embodiment.
  • the parking frame lines L2 and L3 become parallel after running over the step portion AR2, so even if the parking target position is corrected at this point as in the first embodiment, it will not be possible to reach the parking target position.
  • the remaining distance traveled by the vehicle 100 is short, and a route along which the vehicle 100 can travel cannot be generated.
  • the parking process using sonar depends on nearby vehicles (for example, vehicle 200), so the vehicle ends up being parked at a position shifted from the parking frame.
  • the vehicle is parked at an appropriate position by executing parking processing using a camera and sonar at a position where there is a sufficient remaining travel distance to the parking target position.
  • FIG. 4C An overhead image at the position of the vehicle 100 in FIG. 4B is shown in FIG. 4C.
  • the angle between the parking frame line portion L12 and the parking frame line portion L13 is greater than or equal to the threshold value.
  • the parking frame line portion L12 and the parking frame line portion L13 are symmetrical, and the center line L20 coincides with the center line of the parking frame consisting of the parking frame line L2 and the parking frame line L3.
  • the vehicle 100 executes parking processing using the camera 110 and the sonar 120 when the center line L20 coincides with the center line of the parking frame consisting of the parking frame line L2 and the parking frame line L3.
  • FIG. 4D shows an example in which the vehicle 100 runs over the stepped portion AR2. Vehicle 100 executes parking processing using the camera at this timing.
  • the parking frame detection accuracy determination unit 133 of the vehicle 100 determines the accuracy of the parking frame based on the position and shape of the parking frame at the parking location, and if the angle formed by the frame line of the parking frame is equal to or greater than the threshold value, (Step S13: Yes), proceed to step S14.
  • step S14 it is determined whether the centers of the parking frame line portions L12 and L13 in the bird's-eye view image match the center of the parking frame, and if they do not match (step S14: Yes), the process proceeds to step S13.
  • step S14 it is determined whether the centers of the parking frame line portions L12 and L13 in the bird's-eye view image match the center of the parking frame, and if they match (step S14: No), the vehicle 100 uses the camera 110 and the sonar 120 is executed (step S15).
  • step S1 or step S3 if the angle formed by the frame line of the parking frame is less than the threshold (step S1: No, step S3: No), the vehicle 100 executes parking processing using the camera (step S16).
  • parking processing using the camera the vehicle 100 calculates a target position using the detection result by the parking frame detection unit 132, and controls the vehicle using a route based on the target position.
  • ...unit means “...circuitry”, “...assembly”, “...device”, “...unit”, or , “...module” may be substituted with other notations.
  • the method of circuit integration is not limited to LSI, and may be realized using a dedicated circuit or a general-purpose processor and memory.
  • an FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connections or settings of circuit cells inside the LSI may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本開示の駐車支援システムでは、車両周辺を撮影した画像に基づいて車両の周辺の駐車枠を検出する。また、駐車支援装置は、ソナーによる駐車空間を検出し、駐車枠の精度が高い場合、駐車枠に基づいて駐車目標位置を算出する。また、駐車支援装置は、駐車枠の精度が低い場合、駐車空間に基づいて駐車目標位置を算出する。駐車支援装置は、駐車目標位置に基づいて経路を生成する。

Description

駐車支援システムおよび駐車支援方法
 本開示は、駐車支援システムおよび駐車支援方法に関する。
 近年、駐車支援装置において、カメラ映像を俯瞰映像に変換して、直線を抽出することで駐車枠線を検知する技術がある(例えば、特許文献1)。
特開2013-001366号公報
 しかし、自車両に対して駐車枠が段差上に存在している等、自車両と駐車枠が同一平面上に存在しない場合、画像から抽出した駐車枠線の形状が崩れてしまい、画像から駐車枠線に基づいて駐車目標位置を適切に算出することができない可能性がある。
 本開示は、画像から抽出した駐車枠線の形状が崩れている場合でも適切に駐車位置を計算することを目的とする。
 本開示に係る駐車支援システムは、車両の周辺を撮影した撮影画像に基づいて、車両の周辺の駐車枠を検出する駐車枠検出部と、超音波の送信波と、当該送信波の反射波とに基づいて駐車空間を検出する駐車空間検出部と駐車枠検出部により検出された駐車枠の精度を判定する精度判定部と、精度判定部により判定された精度に基づいて、駐車枠検出部により検出された駐車枠および駐車空間検出部により検出された駐車空間を用いた目標駐車位置の計算方法を判断する計算方法判断部と、計算方法判断部による判断に基づいて目標駐車位置を計算する目標位置計算部と、目標位置計算部により計算された目標駐車位置に基づいた経路を生成する経路生成部と、を備える。
 本開示に係る駐車支援システムによれば、路面状況が良くない場合でも適切に駐車位置を計算することができる。
図1は、第1実施形態にかかる駐車支援システムを備える車両の一例を示す模式図である。 図2Aは、第1実施形態にかかる駐車状況を説明するための図である。 図2Bは、第1実施形態にかかる俯瞰画像を説明するための図である。 図2Cは、第1実施形態にかかる駐車状況を説明するための図である。 図2Dは、第1実施形態にかかる俯瞰画像を説明するための図である。 図3は、第1実施形態にかかる処理手順を示すフローチャートである。 図4Aは、第2実施形態にかかる駐車状況を説明するための図である。 図4Bは、第2実施形態にかかる駐車状況を説明するための図である。 図4Cは、第2実施形態にかかる俯瞰画像を説明するための図である。 図4Dは、第2実施形態にかかる駐車状況を説明するための図である。 図5は、第2実施形態にかかる処理手順を示すフローチャートである。
(第1の実施形態)
 第1の実施形態について図面を用いて説明する。
(システムの構成例)
 図1は、第1の実施形態にかかる車両の一例を示す概要構成図である。車両100は、カメラ110、ソナー120、駐車支援装置130、および車両制御装置140を備える。
 カメラ110は、一例として、可視光カメラである。車両は、車両の前方を撮像する第1の撮像装置、車両の後方を撮像する第2の撮像装置、車両の左側方を撮像する第3の撮像装置、および車両の右側方を撮像する第4の撮像装置を備える。また、カメラ110は、例えば、車両の周囲に存在する物体の特徴点を検出し、車両と特徴点との位置関係から、車両の現在位置を推定する用途に適用される。カメラ110は、撮像した画像信号を駐車支援装置130に出力する。なお、カメラ110は、可視光カメラに限らず、例えば、CCDカメラまたはCMOSカメラであってもよい。また、撮像する画像は、静止画であっても動画であってもよい。
 ソナー120は、一例として、超音波ソナーである。例えば、ソナー120は、車両100が駐車場内を走行している場合に、超音波を照射し、反射されて検出された反射波に基づいて、車両の周囲に存在する障害物までの距離を検出する。そして、ソナー120は、障害物までの距離に基づいて障害物の輪郭点を算出し、輪郭点に基づき、障害物の特徴点を検出する。ソナー120は、少なくとも車両100の前面に複数備えている。
 駐車支援装置130は、車両100の位置から駐車目標位置までの経路を出力する装置である。駐車支援装置130の詳細については、後述する。
 車両制御装置140は、車両100を制御する装置である。車両制御装置140は、エンジンアクチュエータ、ブレーキアクチュエータ、およびアクチュエータ等である。車両制御装置140は、駐車支援装置130から取得した経路に基づいて車両100を運転制御する。
 駐車支援装置130は、映像変換部131、駐車枠検出部132、駐車枠検出精度判定部133、目標位置計算方法判断部134、駐車空間検出部135、目標位置計算部136、および経路生成部137を備える。
 映像変換部131は、カメラ110が車両100の周辺を撮影した撮影画像を、車両100の上方の視点からの画像に変換した俯瞰画像を生成する。
 駐車枠検出部132は、車両100の周辺を撮影した撮影画像の俯瞰画像に基づいて、車両100の周辺の駐車枠を検出する。
 駐車枠検出精度判定部133は、駐車枠検出部132により検出された駐車枠の精度を判定する。駐車枠検出精度判定部133は、精度判定部の一例である。
 目標位置計算方法判断部134は、駐車枠検出精度判定部133により判定された精度に基づいて、駐車枠検出精度判定部133により検出された駐車枠および駐車空間検出部135により検出された駐車空間を用いた目標駐車位置の計算方法を判断する。目標位置計算方法判断部134は、計算方法判断部の一例である。
 駐車空間検出部135は、ソナー120による超音波の送信波と、当該送信波の反射波とに基づいて駐車空間を検出する。
 目標位置計算部136は、目標位置計算方法判断部134による判断に基づいて目標駐車位置を計算する。
 経路生成部137は、目標位置計算部136により計算された目標駐車位置に基づいた経路を生成する。
 続いて、図2A~図2Dを用いて第1の実施形態にかかる目標位置計算方法を説明する。図2Aは、車両100が、道路R1を走行中の図である。車両100は、道路R1のうち、位置P1までが登り坂R11となっている。また、道路R1には、悪路部分AR1がある。駐車枠線L1~L4がある。駐車枠線L1および駐車枠線L2からなる駐車エリアには、車両200が駐車している。また、駐車枠線L3および駐車枠線L4からなる駐車枠には、車両300が駐車している。
 通常、車両100は、自動駐車する際、車両100周囲の画像を俯瞰画像に変換して、当該俯瞰画像から駐車枠を特定して、当該駐車枠に基づいて目標駐車位置を算出して、目標駐車位置までの経路を探索して、当該経路に基づいて自動駐車する。
 図2Aに示すように、車両100が登り坂R11を走行している時の画像を俯瞰画像に変換した例を図2Bに示す。通常、駐車枠線L2および駐車枠線L3がほぼ平行となるところ、登り坂R11および悪路部分AR1があるため、カメラ110が傾いてしまい、駐車枠線L2および駐車枠線L3とが平行となっていない。よって、仮に、車両100が、図2Aの車両100の位置における図2Bに示す画像を用いて駐車目標位置を計算すると、駐車目標位置にズレが生じてしまい、適切でない個所に駐車させてしまう可能性がある。
 そこで、車両100は、駐車箇所における駐車枠(駐車枠線L2および駐車枠線L3による駐車枠)の位置関係に基づいて駐車枠の精度を判定して、当該精度に基づいて当該俯瞰画像のみから駐車目標位置を計算するか否かを判断する。例えば、図2Bに示すように、駐車枠線L2および駐車枠線L3が平行ではない場合、車両100の駐車枠検出精度判定部133は、駐車枠検出精度が高くない(駐車枠使用不可)と判定する。この場合、目標位置計算方法判断部134は、駐車空間検出部135による検出結果を用いて目標位置を計算すると判断する。
 この場合、目標位置計算部136は、駐車空間検出部135による検出結果を用いて目標位置を計算する。具体的に、目標位置計算部136は、駐車空間検出部135による検出結果として、ソナー120により検出した車両200の位置を示す情報に基づいて目標位置を計算する。そして、車両100は、目標位置に基づいた経路を使用して車両制御する。これにより、車両100は、車両200に多少寄ってしまうが、俯瞰画像に基づいて駐車目標位置を計算するより誤差を少なくすることができる。
 なお、車両100は、カメラ110による画像を継続して取得し、当該画像の俯瞰画像から駐車枠を検出し続けるものとする。そして、駐車枠検出精度判定部133は、駐車枠検出部132により検出された駐車枠の精度を判定し続ける。また、当該駐車枠の精度の判定結果に応じて、目標位置計算部136が駐車目標位置を計算し直す。すなわち、駐車支援装置130は、自動駐車処理中、継続して駐車目標位置を計算する。これにより、駐車支援装置130は、適宜駐車目標位置を適切な値に更新し続けることができる。
 続いて、図2Cの位置まで車両100が、駐車空間検出部135による検出結果により移動したものとする。図2Cの車両100の位置における俯瞰画像を図2Dに示す。この場合、駐車枠線部分L12および駐車枠線部分L13は、平行となっている。よって、駐車枠検出精度判定部133は、駐車枠検出部132により検出された駐車枠の精度が高い(駐車枠使用可)と判定する。これに応じて、目標位置計算方法判断部134は、駐車枠検出部132による検出結果に基づいて駐車目標位置を計算すると判断する。そして、目標位置計算部136は、駐車枠検出部132による検出結果に基づいて駐車目標位置を計算する。
 続いて、第1実施形態にかかる車両100による駐車処理手順について、図3に示すフローチャートを用いて説明する。
 まず、車両100の駐車枠検出精度判定部133は、駐車箇所における駐車枠の位置・形状に基づいて駐車枠の精度を判定する(ステップS1)。駐車枠の枠線のなす角度が閾値以上である場合(ステップS1:Yes)、駐車枠検出精度判定部133は、駐車枠検出精度が高くないと判定する。これに応じて、車両100は、ソナーによる駐車処理を実行する(ステップS2)。ソナーによる駐車処理として、車両100は、駐車空間検出部135による検出結果を用いて目標位置を計算して、目標位置に基づいた経路を使用して車両制御する。
 続いて、車両100の駐車枠検出精度判定部133は、駐車箇所における駐車枠の位置・形状に基づいて駐車枠の精度を判定して、駐車枠の枠線のなす角度が閾値以上である場合(ステップS3:Yes)、ステップS2へ進む。
 ステップS1またはステップS3において、駐車枠の枠線のなす角度が閾値未満である場合(ステップS1:No、ステップS3:No)、車両100は、カメラによる駐車処理を実行する(ステップS4)。カメラによる駐車処理として、車両100は、駐車枠検出部132による検出結果を用いて目標位置を計算して、目標位置に基づいた経路を使用して車両制御する。
 上述の駐車支援装置130は、車両周辺を撮影した画像に基づいて車両100の周辺の駐車枠を検出する。また、駐車支援装置130は、ソナー120による駐車空間を検出し、駐車枠の精度が高い場合、駐車枠に基づいて駐車目標位置を算出する。また、駐車支援装置130は、駐車枠の精度が低い場合、駐車空間に基づいて駐車目標位置を算出する。駐車支援装置130は、駐車目標位置に基づいて経路を生成する。
 このように、駐車支援装置130は、駐車枠の精度を判断して、画像により検出して駐車枠の精度が高くない場合、ソナー120による駐車空間を用いて駐車目標位置を算出することで、精度が高くない駐車枠を用いて駐車目標位置を算出する場合と比較して、より適切に駐車支援を実行することができる。
(第2の実施形態)
 続いて、第2の実施形態にかかる目標位置計算方法について説明する。第1の実施形態では、駐車枠の精度に基づいてカメラによる駐車処理またはソナーによる駐車処理を実行する場合について述べたが、駐車枠の精度に基づいて、カメラとソナーによる駐車処理を実行するものである。
 続いて、図4A~図4Dを用いて第2の実施形態にかかる目標位置計算方法を説明する。図4Aは、車両100が、道路R1を走行中の図である。車両100は、道路R1のそばに段差部分AR2がある。また、駐車枠線L1~L3がある。駐車枠線L1および駐車枠線L2からなる駐車エリアには、車両200が駐車している。また、駐車枠線L3からなる駐車枠には、車両300が駐車している。
 図4Aに示すように、段差部分AR2があるため、俯瞰画像における駐車枠線L2およびL3の部分は、平行状態ではない。この場合、車両100は、第1の実施形態と同様に、ソナーによる駐車処理を実行する。なお、駐車枠線L2およびL3が平行状態になるのは、段差部分AR2を乗り上げた後となるため、第1の実施形態のようにこの地点で駐車目標位置を補正しても駐車目標位置までの走行残距離が短く、車両100が移動可能な経路を生成することができない。また、ソナーによる駐車処理は、上述のように、近くの車両(例えば、車両200)に依存するため、駐車枠に対してズレた位置に駐車してしまうことになる。
 そこで、第2の実施形態では、駐車目標位置までの走行残距離が十分残っている位置において、カメラとソナーによる駐車処理を実行することで、適切な位置に駐車するようにする。
 ここで、図4Bに車両100が段差部分AR2を乗り上げているものとする。ここまでは、ソナーによる駐車処理を実行している。
 図4Bの車両100の位置における俯瞰画像を図4Cに示す。この場合、駐車枠線部分L12と駐車枠線部分L13との角度は、閾値以上である。しかし、駐車枠線部分L12と駐車枠線部分L13とは、対称となっており、中心線L20が、駐車枠線L2および駐車枠線L3からなる駐車枠の中心線と一致する。
 これは、段差部分AR2に乗り上げている場合、車両100が傾いているので、俯瞰画像から真の枠線位置を推定できないが、カメラ110が駐車枠をほぼ後ろに捉えていることから俯瞰画像上の駐車枠線部分L12および駐車枠線部分L13は左右対称となるためである。このように、駐車枠検出精度判定部133は、駐車枠の位置または形状による判定として、駐車枠線の角度差と位置に応じて決まる閾値だけでなく、駐車枠の対象性に基づいて判定してもよい。
 車両100は、このように、中心線L20が、駐車枠線L2および駐車枠線L3からなる駐車枠の中心線と一致する場合、カメラ110とソナー120による駐車処理を実行する。
 すなわち、駐車枠検出精度判定部133が、駐車枠検出精度について、使用可ではないが使用不可より高い(駐車枠部分使用可)と判定する。これに応じて、目標位置計算方法判断部134は、車両100の左右方向については、駐車枠検出部132により検出された駐車枠を用いて、車両100の前後位置については駐車空間検出部135による検出結果を用いて目標位置を計算すると判断する。そして、目標位置計算部136は、駐車枠検出部132により検出された駐車枠を用いて、車両100の前後位置については駐車空間検出部135による検出結果を用いて目標位置を計算して、経路生成部137が、当該目標位置を用いて経路を生成する。
 続いて、図4Dに、車両100が段差部分AR2を乗り上げた例を示す。車両100は、このタイミングでカメラによる駐車処理を実行する。
 続いて、第2実施形態にかかる車両100による駐車処理手順について、図5に示すフローチャートを用いて説明する。
 まず、車両100の駐車枠検出精度判定部133は、駐車箇所における駐車枠の位置・形状に基づいて駐車枠の精度を判定する(ステップS11)。駐車枠の枠線のなす角度が閾値以上である場合(ステップS11:Yes)、駐車枠検出精度判定部133は、駐車枠検出精度が高くないと判定する。これに応じて、車両100は、ソナーによる駐車処理を実行する(ステップS12)。ソナーによる駐車処理として、車両100は、駐車空間検出部135による検出結果を用いて目標位置を計算して、目標位置に基づいた経路を使用して車両制御する。
 続いて、車両100の駐車枠検出精度判定部133は、駐車箇所における駐車枠の位置・形状に基づいて駐車枠の精度を判定して、駐車枠の枠線のなす角度が閾値以上である場合(ステップS13:Yes)、ステップS14へ進む。
 ステップS14において、俯瞰画像における駐車枠線部分L12およびL13の中心が駐車枠の中心と一致するか否かを判断して、不一致の場合(ステップS14:Yes)、ステップS13へ進む。ステップS14において、俯瞰画像における駐車枠線部分L12およびL13の中心が駐車枠の中心と一致するか否かを判断して、一致の場合(ステップS14:No)、車両100は、カメラ110とソナー120による駐車処理を実行する(ステップS15)。
 ステップS1またはステップS3において、駐車枠の枠線のなす角度が閾値未満である場合(ステップS1:No、ステップS3:No)、車両100は、カメラによる駐車処理を実行する(ステップS16)。カメラによる駐車処理として、車両100は、駐車枠検出部132による検出結果を用いて目標位置を計算して、目標位置に基づいた経路を使用して車両制御する。
 上述の駐車支援装置130は、駐車枠の精度が駐車枠部分使用可である場合、カメラ110とソナー120による駐車処理を実行する。このように、駐車支援装置130は、俯瞰画像における駐車枠部分の精度がある程度信頼できるタイミングで、カメラ110とソナー120による駐車処理を実行することで、ソナー120単体で駐車処理を実行するより、精度良く駐車処理を実行することができる。
 以上、本開示の実施形態を説明したが、上述の実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。さらに、異なる実施形態および変形例にわたる構成要素を適宜組み合わせてもよい。
 また、上述した実施の形態における「・・・部」という表記は、「・・・回路(circuitry)」、「・・・アッセンブリ」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。
 上記各実施形態では、本開示はハードウェアを用いて構成する例にとって説明したが、本開示はハードウェアとの連携においてソフトウェアでも実現することも可能である。
 また、上記各実施形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。集積回路は、上記実施の形態の説明に用いた各機能ブロックを制御し、入力端子と出力端子を備えてもよい。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサおよびメモリを用いて実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続又は設定を再構成可能なリコンフィギュラブル プロセッサ(Reconfigurable Processor)を利用してもよい。
 さらには、半導体技術の進歩又は派生する別技術により、LSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適用等が可能性としてありえる。
 また、本明細書に記載された実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
100 車両
110 カメラ
120 ソナー
130 駐車支援装置
140 車両制御装置

Claims (9)

  1.  車両の周辺を撮影した撮影画像に基づいて、前記車両の周辺の駐車枠を検出する駐車枠検出部と、
     超音波の送信波と、当該送信波の反射波とに基づいて駐車空間を検出する駐車空間検出部と
     前記駐車枠検出部により検出された駐車枠の精度を判定する精度判定部と、
     前記精度判定部により判定された精度に基づいて、前記駐車枠検出部により検出された駐車枠および前記駐車空間検出部により検出された駐車空間を用いた目標駐車位置の計算方法を判断する計算方法判断部と、
     前記計算方法判断部による判断に基づいて目標駐車位置を計算する目標位置計算部と、
     前記目標位置計算部により計算された目標駐車位置に基づいた経路を生成する経路生成部と、を備える駐車支援システム。
  2.  前記駐車枠検出部は、前記撮影画像を俯瞰画像に変換して、前記俯瞰画像上の駐車枠を検出し、
     前記精度判定部は、前記駐車枠検出部により検出された駐車枠の位置又は形状に基づいて前記駐車枠の精度を判定する、請求項1に記載の駐車支援システム。
  3.  前記精度判定部は、前記駐車枠の位置又は形状による判定は、枠線の角度差と位置に応じて決まる閾値の比較、又は前記駐車枠の対称性に基づいて判定する、請求項2に記載の駐車支援システム。
  4.  前記精度判定部は、前記駐車枠の枠線の角度が閾値以上である場合、駐車枠使用不可と判定し、前記駐車枠の枠線が閾値未満である場合、駐車枠使用可と判定し、前記駐車枠の枠線が左右対称である場合、部分的使用可と判定する、請求項3に記載の駐車支援システム。
  5.  前記計算方法判断部は、
     前記精度判定部による判定結果が、駐車枠使用不可である場合、前記駐車空間を用いて目標位置を計算すると判断し、
     前記精度判定部による判定結果が、駐車枠使用可能である場合、前記駐車枠検出部により検出された駐車枠を用いて目標位置を計算すると判断し、
     前記精度判定部による判定結果が、部分的使用可である場合、車両の左右位置については、前記駐車枠検出部により検出された駐車枠を用いて、車両の前後位置については、前記駐車空間を用いて目標位置を計算すると判断する、請求項4に記載の駐車支援システム。
  6.  前記目標位置計算部は、自動駐車走行中に常時実施する、請求項1に記載の駐車支援システム。
  7.  前記目標位置計算部は、前記精度判定部による判定結果が、特定の条件に合致する場合に実施する、請求項5に記載の駐車支援システム。
  8.  前記条件は、前記駐車枠使用不可から前記駐車枠使用可へと変化したこと、前記駐車枠使用不可から前記部分的使用可へと変化したこと、前記部分的使用可から前記駐車枠使用可へと変化したことの何れかである、請求項7に記載の駐車支援システム。
  9.  駐車支援装置で実行する駐車支援方法であって、
     車両の周辺を撮影した撮影画像に基づいて、前記車両の周辺の駐車枠を検出し、
     超音波の送信波と、当該送信波の反射波とに基づいて駐車空間を検出し、
     前記駐車枠の精度を判定し、
     前記駐車枠の精度に基づいて、前記駐車枠および前記駐車空間を用いた目標駐車位置の計算方法を判断し、
     計算方法の判断に基づいて目標駐車位置を計算し、
     前記目標駐車位置に基づいた経路を生成する、駐車支援方法。
PCT/JP2023/000319 2022-03-30 2023-01-10 駐車支援システムおよび駐車支援方法 WO2023188675A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022057058A JP2023148817A (ja) 2022-03-30 2022-03-30 駐車支援システムおよび駐車支援方法
JP2022-057058 2022-03-30

Publications (1)

Publication Number Publication Date
WO2023188675A1 true WO2023188675A1 (ja) 2023-10-05

Family

ID=88200168

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/000319 WO2023188675A1 (ja) 2022-03-30 2023-01-10 駐車支援システムおよび駐車支援方法

Country Status (2)

Country Link
JP (1) JP2023148817A (ja)
WO (1) WO2023188675A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298227A (ja) * 2005-04-22 2006-11-02 Toyota Motor Corp 目標位置設定装置およびそれを備えた駐車支援装置
JP2008269139A (ja) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd 運転支援システム並びに車両
WO2014084118A1 (ja) * 2012-11-27 2014-06-05 クラリオン株式会社 車載画像処理装置
WO2017068699A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペースの枠線の検出方法および装置
US20180095474A1 (en) * 2016-09-30 2018-04-05 Faraday&Future Inc. Methods and systems for camera-based autonomous parking
JP2018079929A (ja) * 2018-01-10 2018-05-24 日産自動車株式会社 運転支援装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298227A (ja) * 2005-04-22 2006-11-02 Toyota Motor Corp 目標位置設定装置およびそれを備えた駐車支援装置
JP2008269139A (ja) * 2007-04-18 2008-11-06 Sanyo Electric Co Ltd 運転支援システム並びに車両
WO2014084118A1 (ja) * 2012-11-27 2014-06-05 クラリオン株式会社 車載画像処理装置
WO2017068699A1 (ja) * 2015-10-22 2017-04-27 日産自動車株式会社 駐車スペースの枠線の検出方法および装置
US20180095474A1 (en) * 2016-09-30 2018-04-05 Faraday&Future Inc. Methods and systems for camera-based autonomous parking
JP2018079929A (ja) * 2018-01-10 2018-05-24 日産自動車株式会社 運転支援装置

Also Published As

Publication number Publication date
JP2023148817A (ja) 2023-10-13

Similar Documents

Publication Publication Date Title
JP5991332B2 (ja) 衝突回避制御装置
JP3630100B2 (ja) 車線検出装置
CN109219546B (zh) 停车辅助装置以及停车辅助方法
US20190012798A1 (en) Information processing apparatus, object recognition apparatus, device control system, movable body, image processing method, and computer-readable recording medium
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
US20190100212A1 (en) Apparatus and method for controlling lane-keeping
US10984258B2 (en) Vehicle traveling environment detecting apparatus and vehicle traveling controlling system
JP2004048295A (ja) 画像処理装置、駐車支援装置、及び画像処理方法
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
CN110293973B (zh) 驾驶支援系统
WO2016035252A1 (ja) 運転支援装置および運転支援方法
JP2007096684A (ja) 車外環境認識装置
US10706586B2 (en) Vision system for a motor vehicle and method of controlling a vision system
JP6899673B2 (ja) 物体距離検出装置
WO2023188675A1 (ja) 駐車支援システムおよび駐車支援方法
WO2018012513A1 (ja) 物体検知装置
Darms et al. Data fusion strategies in advanced driver assistance systems
JP6387710B2 (ja) カメラシステム、測距方法、およびプログラム
JP6891082B2 (ja) 物体距離検出装置
CN111989541A (zh) 立体摄像机装置
JP5717416B2 (ja) 運転支援制御装置
JP7227112B2 (ja) 物体検出装置、走行制御システム、および走行制御方法
JP7064400B2 (ja) 物体検知装置
CN117121075A (zh) 物体检测方法以及物体检测装置
JP4316710B2 (ja) 車外監視装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23778715

Country of ref document: EP

Kind code of ref document: A1