JP2012136206A - System and method for parking control - Google Patents

System and method for parking control Download PDF

Info

Publication number
JP2012136206A
JP2012136206A JP2010291686A JP2010291686A JP2012136206A JP 2012136206 A JP2012136206 A JP 2012136206A JP 2010291686 A JP2010291686 A JP 2010291686A JP 2010291686 A JP2010291686 A JP 2010291686A JP 2012136206 A JP2012136206 A JP 2012136206A
Authority
JP
Japan
Prior art keywords
vehicle
parking
image
parking frame
parking control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010291686A
Other languages
Japanese (ja)
Inventor
Katsutoshi Shimizu
勝敏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010291686A priority Critical patent/JP2012136206A/en
Publication of JP2012136206A publication Critical patent/JP2012136206A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for parking control capable of appropriately parking a vehicle within a parking frame on the basis of the parking frame of a big recognition probability when the parking frame is recognized on the basis of a car outside image obtained from a plurality of cameras.SOLUTION: The system for parking control recognizes a parking frame on the basis of a car outside image obtained by a plurality of cameras. Then, the parking control system executes vehicle parking control on the basis of, among a plurality of recognized parking frames, a parking frame of a biggest recognition probability. Then, vehicles can be appropriately parked in the parking frame.

Description

本発明は、車両の挙動を制御する駐車制御を行って駐車枠内へ車両を駐車させる駐車制御システムの技術に関する。   The present invention relates to a technology of a parking control system that performs parking control for controlling the behavior of a vehicle and parks the vehicle in a parking frame.

近年、駐車枠内へ車両を駐車させる駐車制御システムが開発されている。   In recent years, a parking control system for parking a vehicle in a parking frame has been developed.

より詳しく説明すると、車両に備わるカメラが撮影した車外画像に基づいて駐車枠の位置を認識し、現在位置から認識した駐車枠の位置へ誘導するルートを駐車制御システムが導出する。そして、駐車制御システムは導出したルートを辿るように車両を制御して駐車枠内へ駐車させる。   More specifically, the parking control system derives a route for recognizing the position of the parking frame based on the outside image captured by the camera provided in the vehicle and guiding the current frame to the recognized parking frame position. Then, the parking control system controls the vehicle to follow the derived route and parks it within the parking frame.

これにより、ユーザは車両を駐車枠内へ簡単に駐車させることができる。このような技術は、例えば、特許文献1に記載されている。   Thereby, the user can easily park the vehicle in the parking frame. Such a technique is described in Patent Document 1, for example.

特開2010−195224号公報JP 2010-195224 A

しかし、車外画像に基づいて駐車枠を認識する確度が小さい場合は、車両を駐車枠へ適切に駐車させることができないという問題がある。   However, when the accuracy of recognizing the parking frame based on the outside image is small, there is a problem that the vehicle cannot be parked appropriately in the parking frame.

本発明は、上記課題に鑑みてなされたものであり、認識する確度が大きい駐車枠に基づいて車両を駐車枠内へ適切に駐車させる駐車制御の技術を提供することを目的とする。   This invention is made | formed in view of the said subject, and it aims at providing the technique of the parking control which parks a vehicle appropriately in a parking frame based on the parking frame with the large recognition accuracy.

上記課題を解決するため、請求項1の発明は、車両に搭載され、前記車両の挙動を制御する駐車制御を行って駐車枠内へ前記車両を駐車させる駐車制御システムであって、前記車両に搭載される複数のカメラにより得られた複数の車外画像を取得する取得手段と、前記複数の車外画像に含まれる前記駐車枠の像を認識する認識手段と、前記複数の車外画像それぞれで認識された前記駐車枠の像のうち認識の確度が最も大きい前記駐車枠の像を選択する選択手段と、選択された前記駐車枠の像に基づいて前記駐車制御を実行する制御手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is a parking control system that is mounted on a vehicle, performs parking control for controlling the behavior of the vehicle, and parks the vehicle in a parking frame. Recognizing means for acquiring a plurality of outside images obtained by a plurality of mounted cameras, a recognition means for recognizing the image of the parking frame included in the plurality of outside images, and the plurality of outside images. A selection unit that selects the image of the parking frame having the highest recognition accuracy among the images of the parking frame, and a control unit that executes the parking control based on the selected image of the parking frame. It is characterized by.

また、請求項2の発明は、請求項1に記載の駐車制御システムにおいて、前記認識手段は、前記車外画像の前記駐車枠の像のエッジを検出し、前記選択手段は、前記エッジに基づいて前記認識の確度を求めることを特徴とする。   According to a second aspect of the present invention, in the parking control system according to the first aspect, the recognizing unit detects an edge of the parking frame image of the outside image, and the selecting unit is based on the edge. The accuracy of the recognition is obtained.

また、請求項3の発明は、請求項1または2に記載の駐車制御システムにおいて、前記複数のカメラは、前記車両の側方を撮影するサイドカメラを含み、前記選択手段は、前記駐車制御により前記車両が曲線的に後進している場合は、前記サイドカメラが取得した前記車外画像に含まれる前記駐車枠の像を選択することを特徴とする。   Further, the invention according to claim 3 is the parking control system according to claim 1 or 2, wherein the plurality of cameras include a side camera that captures a side of the vehicle, and the selection unit is configured to perform the parking control. When the vehicle is moving backward in a curve, the parking frame image included in the outside image acquired by the side camera is selected.

また、請求項4の発明は、請求項1乃至3の何れかに記載の駐車制御システムにおいて、前記複数のカメラは、前記車両の後方を撮影するリヤカメラを含み、前記選択手段は、前記駐車制御により前記車両の後進を開始させるときは、前記リヤカメラが取得した前記車外画像に含まれる前記駐車枠の像を選択することを特徴とする。   Further, the invention of claim 4 is the parking control system according to any one of claims 1 to 3, wherein the plurality of cameras include a rear camera that captures the rear of the vehicle, and the selection means includes the parking control. When the vehicle starts to reverse, the image of the parking frame included in the outside image acquired by the rear camera is selected.

また、請求項5の発明は、請求項1乃至4の何れかに記載の駐車制御システムにおいて、前記駐車制御により前記車両の後進を開始させる前に、認識された前記駐車枠の像に基づいて仮想マップ上の前記車両の後進開始位置と前記駐車枠の位置とを導出する第1導出手段と、導出された前記後進開始位置と前記駐車枠の位置とに基づいて前記車両を前記駐車枠内へと誘導する前記仮想マップ上のルートを導出する第2導出手段と、前記駐車制御により前記車両の後進を開始させた後に、認識された前記駐車枠の像に基づいて前記仮想マップ上の前記車両の現在位置を判定する判定手段と、を備え、前記制御手段は、前記現在位置が前記ルートと一致するように前記車両の挙動を制御することを特徴とする。   According to a fifth aspect of the present invention, in the parking control system according to any one of the first to fourth aspects, based on the recognized image of the parking frame before starting the reverse of the vehicle by the parking control. First deriving means for deriving the reverse start position of the vehicle and the position of the parking frame on the virtual map, and the vehicle within the parking frame based on the derived reverse start position and the position of the parking frame Second derivation means for deriving a route on the virtual map to be guided to the vehicle, and starting the backward movement of the vehicle by the parking control, and then on the virtual map based on the recognized image of the parking frame Determining means for determining the current position of the vehicle, wherein the control means controls the behavior of the vehicle so that the current position matches the route.

また、請求項6の発明は、請求項1乃至5の何れかに記載の駐車制御システムにおいて、前記複数のカメラのレンズは魚眼レンズであることを特徴とする。   According to a sixth aspect of the present invention, in the parking control system according to any one of the first to fifth aspects, the lenses of the plurality of cameras are fish-eye lenses.

また、請求項7の発明は、請求項1乃至6の何れかに記載の駐車制御システムにおいて、前記複数の車外画像に基づいて前記車両の周辺を仮想視点からみた合成画像を生成する生成手段と、前記駐車制御の実行中に、前記合成画像を表示する表示手段と、を更に備えたことを特徴とする。   According to a seventh aspect of the present invention, in the parking control system according to any one of the first to sixth aspects, the generation means for generating a composite image in which the periphery of the vehicle is viewed from a virtual viewpoint based on the plurality of outside images. And a display means for displaying the composite image during execution of the parking control.

また、請求項8の発明は、車両の挙動を制御する駐車制御を行って駐車枠内へ前記車両を駐車させる駐車制御方法であって、(a)前記車両に搭載される複数のカメラにより得られた複数の車外画像を取得する工程と、(b)前記複数の車外画像に含まれる前記駐車枠の像を認識する工程と、(c)前記複数の車外画像それぞれで認識された前記駐車枠の像のうち認識の確度が最も大きい前記駐車枠の像を選択する工程と、(d)選択された前記駐車枠の像に基づいて前記駐車制御を実行する工程と、を備えることを特徴とする。   The invention according to claim 8 is a parking control method for performing parking control for controlling the behavior of the vehicle to park the vehicle in a parking frame, and (a) obtained by a plurality of cameras mounted on the vehicle. A step of acquiring a plurality of images outside the vehicle, (b) a step of recognizing an image of the parking frame included in the plurality of images outside the vehicle, and (c) the parking frame recognized by each of the plurality of images outside the vehicle. A step of selecting the image of the parking frame having the highest recognition accuracy among the images of (d), and (d) a step of executing the parking control based on the selected image of the parking frame. To do.

また、請求項9の発明は、画像を処理する画像処理装置であって、車両に搭載される複数のカメラにより得られた複数の車外画像を取得する取得手段と、前記複数の車外画像に含まれる前記駐車枠の像を認識する認識手段と、前記複数の車外画像それぞれで認識された前記駐車枠の像のうち認識の確度が最も大きい前記を選択する選択手段と、前記選択された前記駐車枠の像に基づく情報を、前記車両の挙動を制御して駐車枠内へ前記車両を駐車させる駐車制御装置に出力する出力手段と、を備えることを特徴とする画像処理装置。   The invention according to claim 9 is an image processing device for processing an image, the acquisition means acquiring a plurality of outside images obtained by a plurality of cameras mounted on the vehicle, and the plurality of outside images. A recognizing unit for recognizing the image of the parking frame, a selecting unit for selecting the image having the highest recognition accuracy among the images of the parking frame recognized by the plurality of images outside the vehicle, and the selected parking An image processing apparatus comprising: an output unit that outputs information based on a frame image to a parking control device that controls the behavior of the vehicle and parks the vehicle in a parking frame.

請求項1ないし9の発明によれば、複数の駐車枠のうち最も認識の確度が大きい駐車枠に基づいて車両の駐車制御を実行するため、車両を駐車枠内へ適切に駐車させることができる。   According to the first to ninth aspects of the present invention, since the parking control of the vehicle is executed based on the parking frame having the highest recognition accuracy among the plurality of parking frames, the vehicle can be appropriately parked in the parking frame. .

また、請求項2の発明によれば、車外画像の前記駐車枠の像のエッジによって駐車枠の像の認識する確度を求めるため、複数の駐車枠のうちから駐車制御に適切な駐車枠を選択することができる。   According to a second aspect of the present invention, a parking frame suitable for parking control is selected from a plurality of parking frames in order to obtain the accuracy of recognizing the parking frame image by the edge of the parking frame image in the outside image. can do.

また、請求項3の発明によれば、駐車制御により車両が曲線的に後進している場合は、サイドカメラが取得した車外画像に含まれる駐車枠の像を選択するため、複数の駐車枠の像のうち認識の確度が最も良い駐車枠の像に基づいて駐車制御を実行できる。   According to the invention of claim 3, when the vehicle is moving backward in a curve by the parking control, the image of the parking frame included in the outside image acquired by the side camera is selected. Parking control can be executed based on the image of the parking frame with the best recognition accuracy among the images.

また、請求項4の発明によれば、駐車制御により車両の後進を開始させるときは、リヤカメラが撮影する車外画像に含まれる駐車枠の像を選択するため、複数の駐車枠の像のうち認識の確度が最も良い駐車枠の像に基づいて駐車制御を実行できる。   According to the fourth aspect of the present invention, when starting the reverse movement of the vehicle by the parking control, the image of the parking frame included in the image outside the vehicle captured by the rear camera is selected. The parking control can be executed based on the image of the parking frame with the best accuracy.

また、請求項5の発明によれば、駐車枠の像に基づいて判定した現在位置が、駐車枠の像に基づいて導出したルートと一致するように車両を駐車制御するため、車両の現在位置が駐車制御の途中でルートから外れても復帰させることができる。   Further, according to the invention of claim 5, the vehicle current position is determined so that the current position determined based on the image of the parking frame matches the route derived based on the image of the parking frame. Can be restored even if the vehicle goes off the route during parking control.

また、請求項6の発明によれば、複数のカメラのレンズを魚眼レンズとすることで、比較的広い範囲の車外を撮影できる。結果、車外画像において駐車枠の像をしっかり捉えることができる。   According to the sixth aspect of the present invention, the outside of the vehicle in a relatively wide range can be photographed by using a fisheye lens as the lens of the plurality of cameras. As a result, the image of the parking frame can be firmly captured in the outside image.

また、請求項7の発明によれば、複数のカメラが撮影する車外画像は、車両を仮想視点からみた合成画像を生成するために用いられ、かつ、駐車制御する機能にも用いられるため、同じカメラが撮影した車外画像を有効に活用できる。   In addition, according to the invention of claim 7, the images outside the vehicle photographed by a plurality of cameras are used for generating a composite image in which the vehicle is viewed from a virtual viewpoint, and are also used for the function of parking control. Effectively use images outside the car taken by the camera.

図1は、駐車制御システムブロックを示す図である。FIG. 1 is a diagram illustrating a parking control system block. 図2は、車両を示す図である。FIG. 2 is a diagram illustrating the vehicle. 図3は、車両を示す図である。FIG. 3 is a diagram illustrating the vehicle. 図4は、車両及び車外画像を示す図である。FIG. 4 is a diagram illustrating a vehicle and an outside image. 図5は、車外画像を合成する処理を説明する図である。FIG. 5 is a diagram for explaining the process of synthesizing the outside image. 図6は、車庫入れ駐車制御を説明する図である。FIG. 6 is a diagram illustrating garage parking control. 図7は、車外画像を示す図である。FIG. 7 is a diagram illustrating an image outside the vehicle. 図8は、車庫入れ駐車制御を説明する図である。FIG. 8 is a diagram illustrating garage parking control. 図9は、車外画像を示す図である。FIG. 9 is a diagram illustrating an image outside the vehicle. 図10は、車外画像を示す図である。FIG. 10 is a diagram illustrating an image outside the vehicle. 図11は、車外画像を示す図である。FIG. 11 is a diagram illustrating an image outside the vehicle. 図12は、車外画像を示す図である。FIG. 12 is a diagram illustrating an image outside the vehicle. 図13は、制御フローを示す図である。FIG. 13 is a diagram showing a control flow. 図14は、制御フローを示す図である。FIG. 14 is a diagram showing a control flow. 図15は、制御フローを示す図である。FIG. 15 is a diagram showing a control flow. 図16は、車外画像を示す図である。FIG. 16 is a diagram illustrating an outside-vehicle image.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>
図1は、第1の実施の形態の駐車制御システムSYの構成を示す図である。この駐車制御システムSYは車両1に搭載され、車両1の挙動を制御する駐車制御行って駐車枠内へ車両1を駐車させる。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration of the parking control system SY according to the first embodiment. The parking control system SY is mounted on the vehicle 1 and performs parking control for controlling the behavior of the vehicle 1 to park the vehicle 1 in the parking frame.

より具体的に説明すると、駐車制御システムSYは、車両1に搭載される複数のカメラにより得られた複数の車外画像を取得する。そして、駐車制御システムSYは、複数の車外画像に含まれる駐車枠の像を認識する。そして、駐車制御システムSYは、複数の車外画像それぞれで認識された駐車枠の像のうち認識の確度が最も大きい駐車枠の像を選択する。そして、駐車制御システムSYは、選択された駐車枠の像に基づいて駐車制御を実行する。   More specifically, the parking control system SY acquires a plurality of outside images obtained by a plurality of cameras mounted on the vehicle 1. And parking control system SY recognizes the image of the parking frame contained in a plurality of outside pictures. And the parking control system SY selects the image of the parking frame with the highest recognition accuracy among the images of the parking frame recognized in each of the plurality of images outside the vehicle. And the parking control system SY performs parking control based on the image of the selected parking frame.

(駐車制御システムの構成)
この駐車制御システムSYが発揮するその機能を説明するために、まず、駐車制御システムSYの構成を図1に基づいて説明する。
(Configuration of parking control system)
In order to explain the function exhibited by the parking control system SY, first, the configuration of the parking control system SY will be described with reference to FIG.

駐車制御システムSYは、画像処理装置2、ディスプレイ12、及び、駐車制御装置13などを備える。   The parking control system SY includes an image processing device 2, a display 12, a parking control device 13, and the like.

画像処理装置2は、フロントカメラ3、左サイドカメラ4、右サイドカメラ5、リヤカメラ6(以降において、カメラ3〜6という)、車速センサ7、操舵角センサ8、駐車制御装置13、及び、ディスプレイ12などとケーブルによって電気的に接続される。   The image processing device 2 includes a front camera 3, a left side camera 4, a right side camera 5, a rear camera 6 (hereinafter referred to as cameras 3 to 6), a vehicle speed sensor 7, a steering angle sensor 8, a parking control device 13, and a display. 12 etc. are electrically connected by a cable.

駐車制御装置13は、画像処理装置2、エンジン制御装置9、操舵装置10、及び、ブレーキ装置11などとケーブルによって電気的に接続される。   The parking control device 13 is electrically connected to the image processing device 2, the engine control device 9, the steering device 10, the brake device 11, and the like through cables.

フロントカメラ3は、図2に示すように車両1の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の直進方向へ向けられている。   As shown in FIG. 2, the front camera 3 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 1, and its optical axis is directed in the straight traveling direction of the vehicle 1.

右サイドカメラ5は、図2に示すように右サイドミラーに設けられており、その光軸は車両1の直進方向を基準にした右方向に沿って外部へ向けられている。   The right side camera 5 is provided on the right side mirror as shown in FIG. 2, and its optical axis is directed to the outside along the right direction based on the straight traveling direction of the vehicle 1.

左サイドカメラ4は、図2に示すように左サイドミラーに設けられており、その光軸は車両1の直進方向を基準にした左方向に沿って外部へ向けられている。   The left side camera 4 is provided on the left side mirror as shown in FIG. 2, and its optical axis is directed to the outside along the left direction based on the straight traveling direction of the vehicle 1.

リヤカメラ6は、図2に示すように車両1の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸は車両1の直進方向の逆方向へ向けられている。   As shown in FIG. 2, the rear camera 6 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 1, and its optical axis is directed in the direction opposite to the straight traveling direction of the vehicle 1.

なお、フロントカメラ3やリヤカメラ6の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   Note that the attachment position of the front camera 3 and the rear camera 6 is preferably approximately the center in the left-right direction, but may be a position slightly shifted in the left-right direction from the center in the left-right direction.

カメラ3〜6のレンズとしては魚眼レンズが採用されており、カメラ3〜6は180度以上の画角を有している。このため、これら4つの撮像部を利用することで、図3に示すように、車両1の全周囲をカバーする領域H1〜H4の撮影が可能となっている。   Fisheye lenses are employed as the lenses of the cameras 3 to 6, and the cameras 3 to 6 have an angle of view of 180 degrees or more. For this reason, by using these four image capturing units, it is possible to capture the areas H1 to H4 covering the entire periphery of the vehicle 1 as shown in FIG.

車速センサ7は、車両1が移動した際に車輪が回転する速度を車速信号として画像処理装置2へ出力する。車速センサ7は、車両1のエンジンルーム内に設置される。   The vehicle speed sensor 7 outputs the speed at which the wheel rotates when the vehicle 1 moves to the image processing device 2 as a vehicle speed signal. The vehicle speed sensor 7 is installed in the engine room of the vehicle 1.

操舵角センサ8は、車両1に備わるステアリングがユーザにより操舵された際の角度を操舵角度信号として画像処理装置2へ出力する。操舵角センサ8は、ステアリングの回転軸近傍に設置される。   The steering angle sensor 8 outputs to the image processing device 2 the angle when the steering wheel provided in the vehicle 1 is steered by the user as a steering angle signal. The steering angle sensor 8 is installed in the vicinity of the rotating shaft of the steering.

画像処理装置2は、取得部20、画像処理部21、制御部22、及び、出力部23などを備える。   The image processing apparatus 2 includes an acquisition unit 20, an image processing unit 21, a control unit 22, and an output unit 23.

取得部20は、例えば、インターフェースであり、カメラ3〜6が撮影した車外画像、車速センサ7が出力する車速信号、及び、操舵角センサ8が出力する操舵角信号などを取得する。   The acquisition unit 20 is, for example, an interface, and acquires an image outside the vehicle photographed by the cameras 3 to 6, a vehicle speed signal output by the vehicle speed sensor 7, a steering angle signal output by the steering angle sensor 8, and the like.

画像処理部21は、認識部30、選択部31、生成部32、及び、表示部33などを備える。画像処理部21は、例えば、ASIC(Application Specific Integrated Circuit)などのハードウェア回路である。   The image processing unit 21 includes a recognition unit 30, a selection unit 31, a generation unit 32, a display unit 33, and the like. The image processing unit 21 is, for example, a hardware circuit such as an ASIC (Application Specific Integrated Circuit).

認識部30は、カメラ3〜6により撮影された複数の車外画像に含まれる駐車枠の像を認識する処理を実行する。認識部30が実行するこの認識処理の詳細については後述する。   The recognizing unit 30 executes processing for recognizing parking frame images included in a plurality of outside images taken by the cameras 3 to 6. Details of this recognition processing executed by the recognition unit 30 will be described later.

選択部31は、複数の車外画像それぞれで認識された駐車枠の像のうち認識する確度が最も大きい駐車枠の像を選択する処理を実行する。選択部31が実行するこの選択処理の詳細については後述する。   The selection unit 31 executes a process of selecting the image of the parking frame having the highest recognition accuracy among the images of the parking frame recognized by the plurality of images outside the vehicle. Details of the selection process executed by the selection unit 31 will be described later.

生成部32は、カメラ3〜6が撮影して得た複数の車外画像に基づいて、仮想視点から見た車両1及び車両の周辺の様子を示す合成画像を生成する。生成部32が実行するこの生成処理の詳細については後述する。   The generation unit 32 generates a composite image showing the vehicle 1 and the surroundings of the vehicle viewed from the virtual viewpoint, based on a plurality of outside images obtained by the cameras 3 to 6. Details of the generation processing executed by the generation unit 32 will be described later.

表示部33は、駐車制御の実行中に生成された合成画像をディスプレイ12へ表示させる処理を実行する。表示部33が実行するこの表示処理の詳細については後述する。   The display unit 33 executes a process of causing the display 12 to display a composite image generated during the execution of parking control. Details of the display processing executed by the display unit 33 will be described later.

制御部22は、例えば、CPU、ROM、及び、RAMなどを備えるマイクロコンピュータである。CPUは、ROMに記憶された種々のプログラムに従って演算処理を行うことで種々の機能を実現させる。この制御部22は、種々の機能のうち一部の機能を実現する導出部34及び判定部35などを備える。   The control unit 22 is a microcomputer including a CPU, a ROM, a RAM, and the like, for example. The CPU realizes various functions by performing arithmetic processing according to various programs stored in the ROM. The control unit 22 includes a derivation unit 34 and a determination unit 35 that realize some of the various functions.

導出部34は、駐車制御により車両1の後進を開始させる前に、認識された駐車枠の像に基づいて仮想マップ上の車両1の後進開始位置と駐車枠の位置とを導出する。また、導出部34は、導出した後進開始位置と駐車枠の位置とに基づいて車両1を駐車枠内へと誘導する仮想マップ上のルートを導出する。導出部34が実行するこの導出処理の詳細については後述する。   The deriving unit 34 derives the reverse start position of the vehicle 1 and the position of the parking frame on the virtual map based on the recognized image of the parking frame before starting the reverse of the vehicle 1 by the parking control. Further, the deriving unit 34 derives a route on the virtual map for guiding the vehicle 1 into the parking frame based on the derived backward start position and the position of the parking frame. Details of the derivation process executed by the derivation unit 34 will be described later.

判定部35は、駐車制御により車両1の後進を開始させた後に、認識された駐車枠の像に基づいて仮想マップ上の車両1の現在位置を判定する。判定部35が実行するこの判定処理の詳細については後述する。   The determination unit 35 determines the current position of the vehicle 1 on the virtual map based on the recognized image of the parking frame after starting the backward movement of the vehicle 1 by the parking control. Details of this determination processing executed by the determination unit 35 will be described later.

出力部23は、例えば、インターフェースであり、画像処理部21が備える生成部32によって生成された合成画像をディスプレイ12へ出力する。更に、出力部23は、画像処理部31が備える選択部31によって選択された駐車枠の像に基づく情報を駐車制御装置13へ出力する。   The output unit 23 is, for example, an interface, and outputs the composite image generated by the generation unit 32 included in the image processing unit 21 to the display 12. Further, the output unit 23 outputs information based on the image of the parking frame selected by the selection unit 31 included in the image processing unit 31 to the parking control device 13.

駐車制御装置13は、例えば、マイクロコンピュータなどの電子部品が実装された電子基板などを収めた箱体である。この駐車制御装置13は、駐車制御部36などを備える。   The parking control device 13 is, for example, a box containing an electronic board on which electronic components such as a microcomputer are mounted. The parking control device 13 includes a parking control unit 36 and the like.

駐車制御部36は、エンジン制御装置9、操舵装置10、及び、ブレーキ装置11などと協働して車両1の加減速、方向の変更、及び、停止などの車両1の挙動を制御して駐車位置へ車両1を駐車させる。   The parking control unit 36 controls the behavior of the vehicle 1 such as acceleration / deceleration, direction change, and stop of the vehicle 1 in cooperation with the engine control device 9, the steering device 10, the brake device 11, and the like. The vehicle 1 is parked at the position.

つまり、駐車制御部36は、選択された駐車枠の像に基づく情報を画像処理装置2から取得する。そして、駐車制御部36は、取得した駐車枠の像に基づく情報によって駐車制御する際に利用する仮想マップを生成する。そして、駐車制御部36は、生成した仮想マップ上の車両1の現在位置が仮想マップ上のルートと一致するように車両1を走行させて駐車枠内へ駐車させる駐車制御を実行する。   That is, the parking control unit 36 acquires information based on the image of the selected parking frame from the image processing device 2. And the parking control part 36 produces | generates the virtual map utilized when parking control by the information based on the image of the acquired parking frame. And the parking control part 36 performs the parking control which makes the vehicle 1 drive | work and park in a parking frame so that the present position of the vehicle 1 on the produced | generated virtual map may correspond with the route | root on a virtual map.

<生成処理>
次に、生成部32が実行する生成処理について詳細に説明する。
<Generation process>
Next, the generation process executed by the generation unit 32 will be described in detail.

画像処理装置2が備える取得部20は、カメラ3〜6が撮影した、図4に示すような、車外画像Z1〜Z4をカメラ3〜6より取得する。取得部20は、取得した車外画像Z1〜Z4を画像処理部21へ出力する。   The acquisition unit 20 included in the image processing apparatus 2 acquires from the cameras 3 to 6 the vehicle outside images Z1 to Z4 as shown in FIG. The acquisition unit 20 outputs the acquired outside-vehicle images Z1 to Z4 to the image processing unit 21.

画像処理部21は、入力した車外画像Z1〜Z4を図示しない揮発性記憶部へ記憶する。   The image processing unit 21 stores the input outside-vehicle images Z1 to Z4 in a volatile storage unit (not shown).

画像処理部21が備える生成部32は、図示しない揮発性記憶部に記憶された、車外画像Z1〜Z4を、図5に示すような、仮想的な三次元空間における立体曲面Pに投影する。立体曲面Pは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両1が存在する位置として定められている。車外画像Z1〜Z4に含まれる各画素の位置と、この立体曲面Pの各画素の位置とは予め対応関係が定められている。このため、立体曲面Pの各画素の値は、この対応関係と車外画像Z1〜Z4に含まれる各画素の値とに基づいて決定される。   The generation unit 32 included in the image processing unit 21 projects the outside-vehicle images Z1 to Z4 stored in a volatile storage unit (not shown) onto a three-dimensional curved surface P in a virtual three-dimensional space as shown in FIG. The three-dimensional curved surface P has, for example, a substantially hemispherical shape (a bowl shape), and a central portion (a bottom portion of the bowl) is determined as a position where the vehicle 1 exists. A correspondence relationship is determined in advance between the position of each pixel included in the outside-vehicle images Z1 to Z4 and the position of each pixel of the solid curved surface P. For this reason, the value of each pixel of the solid curved surface P is determined based on this correspondence and the value of each pixel included in the outside-vehicle images Z1 to Z4.

車外画像Z1〜Z4の各画素の位置と立体曲面Pの各画素の位置との対応関係は、車両1における4つのカメラ、即ち、カメラ3〜6の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、図示しない不揮発性記憶部に記憶された車種別データに含まれている。   The correspondence between the positions of the pixels of the outside images Z1 to Z4 and the positions of the pixels of the three-dimensional curved surface P is the arrangement of the four cameras in the vehicle 1, that is, the arrangement of the cameras 3 to 6 (the distance between each other, the ground height, the light Depending on the shaft angle. For this reason, the table data indicating this correspondence relationship is included in the vehicle type data stored in the nonvolatile storage unit (not shown).

また、車種別データに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両1の三次元形状を示すポリゴンモデルである車両像が仮想的に構成される。構成された車両像は、立体曲面Pが設定される三次元空間において、車両1の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data is used, and a vehicle image which is a polygon model indicating the three-dimensional shape of the vehicle 1 is virtually configured. The configured vehicle image is arranged in a substantially hemispherical central portion defined as the position of the vehicle 1 in the three-dimensional space in which the three-dimensional curved surface P is set.

さらに、立体曲面Pが存在する三次元空間に対して、生成部32により仮想視点AGLが設定される。仮想視点AGLは、視点位置と視野方向とで規定され、この三次元空間における車両1の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint AGL is set by the generation unit 32 for the three-dimensional space in which the three-dimensional curved surface P exists. The virtual viewpoint AGL is defined by the viewpoint position and the viewing direction, and is set at an arbitrary viewpoint position corresponding to the periphery of the vehicle 1 in this three-dimensional space toward an arbitrary viewing direction.

そして、設定された仮想視点AGLに応じて、立体曲面Pにおける必要な領域が画像として切り出される。仮想視点AGLと、立体曲面Pにおける必要な領域との関係は予め定められており、テーブルデータとして図示しない不揮発性記憶部等に予め記憶されている。一方で、設定された仮想視点AGLに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両1の像が、切り出された画像に対して重畳される。これにより、車両1及びその車両1の周辺を任意の仮想視点AGLからみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint AGL, a necessary area on the three-dimensional curved surface P is cut out as an image. The relationship between the virtual viewpoint AGL and a necessary area on the three-dimensional curved surface P is determined in advance, and stored in advance in a non-volatile storage unit (not shown) as table data. On the other hand, rendering is performed with respect to a polygon model in accordance with the set virtual viewpoint AGL, and the resulting image of the two-dimensional vehicle 1 is superimposed on the clipped image. As a result, a composite image showing a state in which the vehicle 1 and the periphery of the vehicle 1 are viewed from an arbitrary virtual viewpoint AGL is generated.

例えば、視点位置が車両1の位置の略中央の直上で、視野方向が直下方向とした仮想視点AGL1を設定した場合は、車両1の略直上から車両1を見下ろすように、車両1及び車両1の周辺の領域を示す合成画像G1が生成される。また、図中に示すように、視点位置が車両1の位置の左後方で、視野方向が車両1における略前方方向とした仮想視点AGL2を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す合成画像G2が生成される。   For example, when the virtual viewpoint AGL1 in which the viewpoint position is just above the center of the position of the vehicle 1 and the visual field direction is directly below is set, the vehicle 1 and the vehicle 1 so that the vehicle 1 is looked down from almost directly above the vehicle 1. A composite image G1 is generated that indicates the area around the. Further, as shown in the figure, when the virtual viewpoint AGL2 in which the viewpoint position is the left rear of the position of the vehicle 1 and the visual field direction is a substantially forward direction in the vehicle 1 is set, the entire periphery from the left rear of the vehicle 1 is set. A composite image G2 indicating the vehicle 1 and the area around the vehicle 1 is generated so as to overlook the vehicle.

なお、実際に合成画像を生成する場合においては、立体曲面Pの全ての画素の値を決定する必要はなく、設定された仮想視点AGLに対応して必要となる領域の画素の値のみを車外画像Z1〜Z4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface P, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint AGL are outside the vehicle. By determining based on the images Z1 to Z4, the processing speed can be improved.

画像処理装置2では、このような生成部32の機能を利用することで、車両1の周辺の任意の視点からみた合成画像を生成して、ディスプレイ12へ生成した合成画像を表示させることができる。   In the image processing device 2, by using such a function of the generation unit 32, a composite image viewed from an arbitrary viewpoint around the vehicle 1 can be generated and the generated composite image can be displayed on the display 12. .

<表示処理>
次に、表示部33が実行する表示処理について詳細に説明する。
<Display processing>
Next, display processing executed by the display unit 33 will be described in detail.

表示部33は、駐車制御の実行中に生成された合成画像をディスプレイ12へ表示させる処理を実行する。このため、車両1が駐車内へ駐車される様子をユーザはディスプレイ12において見ることができる。   The display unit 33 executes a process of causing the display 12 to display a composite image generated during the execution of parking control. For this reason, the user can see how the vehicle 1 is parked in the parking area on the display 12.

<認識処理>
次に、認識部30が実行する認識処理について詳細に説明する。認識部30は、カメラ3〜6により所定の周期(例えば、100ms)ごとに得られた複数の車外画像に含まれる駐車枠の像を認識する。
<Recognition process>
Next, the recognition process executed by the recognition unit 30 will be described in detail. The recognition part 30 recognizes the image of the parking frame contained in the several image outside a vehicle obtained for every predetermined period (for example, 100 ms) with the cameras 3-6.

なお、駐車枠の像は、少なくとも、車両1が駐車された際に車両1の両側の近傍に位置するサイドラインを備える。サイドラインL1、2は、例えば、図6などに示すような長細いU字型の白線である。   Note that the image of the parking frame includes at least side lines located near both sides of the vehicle 1 when the vehicle 1 is parked. The side lines L1 and L2 are, for example, long thin U-shaped white lines as shown in FIG.

認識部30による複数の車外画像に含まれる駐車枠の像の認識は、車外画像の駐車枠の像のエッジを検出することによって実行される。つまり、認識部30は、取得した車外画像に基づいたモノクロ画像に対してエッジ検出処理を実行する。認識部30は、検出したエッジにより把握される対象物の像の長さや太さなどに基づいて駐車枠の像を認識する。   Recognition of the image of the parking frame included in the plurality of images outside the vehicle by the recognition unit 30 is executed by detecting the edge of the image of the parking frame in the image outside the vehicle. That is, the recognition unit 30 performs edge detection processing on the monochrome image based on the acquired outside-vehicle image. The recognizing unit 30 recognizes the image of the parking frame based on the length and thickness of the image of the object grasped by the detected edge.

<駐車方法>
ここで、駐車制御システムSYが実行する駐車制御の駐車方法について説明する。駐車制御システムSYが実行する駐車方法は、所謂、「車庫入れ駐車」である。駐車制御システムSYが実行する「車庫入れ駐車」は次のような手順により実行される。
<Parking method>
Here, a parking control parking method executed by the parking control system SY will be described. The parking method executed by the parking control system SY is so-called “garage parking”. The “garage parking” executed by the parking control system SY is executed according to the following procedure.

初めに、図6に示すような駐車場において、車両1が初期位置P1で、その駐車を開始させる指示をユーザから受け付けたときに、駐車制御システムSYは車両1を、初期位置P1から途中位置P2を通過させて後進開始位置P3へと前進させる。そして、駐車制御システムSYは車両1を後進開始位置P3で一旦停車させる。そして、駐車制御システムSYは車両1を後進開始位置P3から後進させて駐車枠内の駐車位置PPで停車させる。   First, in the parking lot as shown in FIG. 6, when the vehicle 1 is in the initial position P1 and receives an instruction to start parking, the parking control system SY moves the vehicle 1 from the initial position P1 to the middle position. Pass P2 and advance to the reverse start position P3. Then, the parking control system SY stops the vehicle 1 at the reverse start position P3. The parking control system SY moves the vehicle 1 backward from the reverse start position P3 and stops at the parking position PP in the parking frame.

以降、この「車庫入れ駐車」の制御を「車庫入れ駐車制御」という。   Hereinafter, this “garage parking” control is referred to as “garage parking control”.

<導出処理>
まず、導出部34が実行する導出処理の詳細について説明する。導出処理は基本導出処理、第1導出処理、及び、第2導出処理とを含む。
<Derivation process>
First, details of the derivation process executed by the derivation unit 34 will be described. The derivation process includes a basic derivation process, a first derivation process, and a second derivation process.

<基本導出処理>
初めに、導出部34が実行する基本導出処理の詳細について説明する。「車庫入れ駐車制御」が実行されることによって車両1が図6に示す初期位置P1から後進開始位置P3まで移動する際に、認識部30が複数の駐車枠の像を認識する。認識された複数の駐車枠に基づいて、複数の駐車枠が備えるサイドラインL1〜L5の、駐車枠の像の車両進入側の角位置ED1〜ED6を導出部34が導出する。
<Basic derivation process>
First, details of the basic derivation process executed by the derivation unit 34 will be described. When the “garage parking control” is executed and the vehicle 1 moves from the initial position P1 to the reverse start position P3 shown in FIG. 6, the recognition unit 30 recognizes images of a plurality of parking frames. Based on the recognized plurality of parking frames, the deriving unit 34 derives the angular positions ED1 to ED6 on the vehicle entry side of the parking frame image of the side lines L1 to L5 included in the plurality of parking frames.

この角位置ED1〜ED6は、サイドラインL1〜L5の縦の最端のエッジと横の最端のエッジとを夫々延長させた場合に交差する位置である。   The angular positions ED1 to ED6 are positions that intersect when the vertical endmost edge and the horizontal endmost edge of the side lines L1 to L5 are respectively extended.

<第1導出処理>
次に、導出部34が実行する第1導出処理の詳細について説明する。駐車位置PPは、車両1が後進開始位置P3で一旦停車されたときにリヤカメラ6が撮影した図7に示すような車外画像に含まれる駐車枠の像に基づいて導出される。
<First derivation process>
Next, details of the first derivation process executed by the derivation unit 34 will be described. The parking position PP is derived based on the image of the parking frame included in the outside image as shown in FIG. 7 taken by the rear camera 6 when the vehicle 1 is temporarily stopped at the reverse start position P3.

つまり、車両1が後進開始位置P3で一旦停車されたときのリヤカメラ6が撮影した車外画像の所定の領域D1に映る角位置ED1と角位置ED2との間を駐車位置PPとして導出部34が導出する。   That is, the deriving unit 34 derives the parking position PP between the angular position ED1 and the angular position ED2 that appear in the predetermined area D1 of the outside image taken by the rear camera 6 when the vehicle 1 is stopped at the reverse start position P3. To do.

次に、「車庫入れ駐車制御」によって車両1を後進させる制御を開始する前に認識された駐車枠の像に基づいて図8に示すような仮想マップ上の車両1の後進開始位置P3と、角位置ED1、ED2とを導出部34が導出する。角位置ED1、ED2とは、後進開始位置P3との仮想マップ上の相対的な位置である。なお、この場合において、仮想マップ上の後進開始位置P3に車両1の基準点BPが位置する。基準点BPは、車両1に相対的に固定される点であって、仮想マップ上の車両1の位置を示す点である。   Next, the reverse start position P3 of the vehicle 1 on the virtual map as shown in FIG. 8 based on the image of the parking frame recognized before starting the control for moving the vehicle 1 backward by the “garage parking control”, The deriving unit 34 derives the angular positions ED1 and ED2. The angular positions ED1 and ED2 are relative positions on the virtual map with respect to the reverse start position P3. In this case, the reference point BP of the vehicle 1 is located at the reverse start position P3 on the virtual map. The reference point BP is a point that is relatively fixed to the vehicle 1 and indicates the position of the vehicle 1 on the virtual map.

この仮想マップは、車両1を仮想の視点から俯瞰した際のXY座標によって定義される。この仮想マップにおいて、車両1の後進開始位置P3はXY座標の原点(X=0、Y=0)に設定される。従って、仮想マップ上の車両1の基準点BPはXY座標の原点に位置する。更に、導出された角位置ED1、ED2がXY座標における適切な位置に設定される。   This virtual map is defined by XY coordinates when the vehicle 1 is looked down from a virtual viewpoint. In this virtual map, the reverse start position P3 of the vehicle 1 is set to the origin of the XY coordinates (X = 0, Y = 0). Therefore, the reference point BP of the vehicle 1 on the virtual map is located at the origin of the XY coordinates. Further, the derived angular positions ED1 and ED2 are set to appropriate positions in the XY coordinates.

<第2導出処理>
次に、導出部34が実行する第2導出処理の詳細について説明する。導出した後進開始位置P3と駐車位置PPとに基づいて車両1を駐車枠内へと誘導する仮想マップ上のルートRを導出部34が導出する。
<Second derivation process>
Next, details of the second derivation process performed by the derivation unit 34 will be described. Based on the derived reverse start position P3 and the parking position PP, the deriving unit 34 derives a route R on the virtual map that guides the vehicle 1 into the parking frame.

仮想マップ上のルートRは、後進開始位置P3から駐車位置PPへ車両1を最短で誘導できるように考慮されて導出される。更に、仮想マップ上のルートRは、車両1を誘導する際に駐車枠のサイドラインL1、2の外側に存在するかもしれない物体(例えば、他の駐車車両)と車両1とが接触しないように考慮されて導出される。   The route R on the virtual map is derived in consideration so that the vehicle 1 can be guided from the reverse start position P3 to the parking position PP in the shortest time. Further, the route R on the virtual map prevents the vehicle 1 from contacting an object (for example, another parked vehicle) that may exist outside the side lines L1 and L2 of the parking frame when the vehicle 1 is guided. Is taken into account.

<選択処理>
次に、選択部31が実行する選択処理について詳細に説明する。車両に搭載される複数のカメラにより得られた複数の車外画像それぞれに基づいて認識部30が認識した駐車枠の像のうち認識される確度が最も大きい駐車枠の像を選択部31が選択する。
<Selection process>
Next, the selection process executed by the selection unit 31 will be described in detail. The selection unit 31 selects the image of the parking frame with the highest recognition accuracy among the images of the parking frame recognized by the recognition unit 30 based on each of the plurality of outside images obtained by the plurality of cameras mounted on the vehicle. .

認識される確度は、例えば、認識部30が検出したエッジにより把握される対象物の像の長さや太さなどが駐車枠の像の長さや太さであるとする場合の確からしさの程度である。その確からしさが比較的大きいとは、例えば、車外画像の中央よりも下方の領域において、エッジの長さが途切れることなく比較的長い場合や、エッジの太さが比較的太い場合である。なお、その確度とは駐車枠の像を検出する精度とも考えられる。   The accuracy to be recognized is, for example, the degree of certainty when the length or thickness of the image of the object grasped by the edge detected by the recognition unit 30 is the length or thickness of the image of the parking frame. is there. The certainty is relatively large, for example, when the edge length is relatively long without interruption in the region below the center of the vehicle outside image or when the edge thickness is relatively thick. Note that the accuracy is considered to be the accuracy of detecting the image of the parking frame.

例えば、車両1の基準点BPが図8に示す途中位置P4に位置する場合においては、図9に示す右サイドカメラ5が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度が、左サイドカメラ4及びリヤカメラ6が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度よりも大きいときは、右サイドカメラ5に基づく駐車枠の像が選択部31によって選択される。   For example, when the reference point BP of the vehicle 1 is located at the midway position P4 shown in FIG. 8, the recognition accuracy of the image of the parking frame recognized based on the outside image captured by the right side camera 5 shown in FIG. However, when the accuracy of recognizing the image of the parking frame recognized based on the outside image captured by the left side camera 4 and the rear camera 6 is larger than the accuracy of recognizing the parking frame image based on the right side camera 5, the selection unit 31 selects the parking frame image. Is done.

また、例えば、車両1の基準点BPが図8に示す途中位置P5に位置する場合においては、図10に示す右サイドカメラ5が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度が、左サイドカメラ4及びリヤカメラ6が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度よりも大きいときは、右サイドカメラ5に基づく駐車枠の像が選択部31によって選択される。   Further, for example, when the reference point BP of the vehicle 1 is located at the midway position P5 shown in FIG. 8, the recognition of the parking frame image recognized based on the vehicle outside image taken by the right side camera 5 shown in FIG. When the accuracy of the parking frame is greater than the accuracy of recognizing the image of the parking frame recognized based on the outside image captured by the left side camera 4 and the rear camera 6, the image of the parking frame based on the right side camera 5 is selected by the selection unit 31. Selected by.

また、例えば、車両1の基準点BPが図8に示す途中位置P6に位置する場合において、図11に示すリヤカメラ6が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度が、左サイドカメラ4及び右サイドカメラ5が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度よりも大きいときは、リヤカメラ6に基づく駐車枠の像が選択部31によって選択される。   Further, for example, when the reference point BP of the vehicle 1 is located at the midway position P6 shown in FIG. 8, the accuracy of recognizing the image of the parking frame recognized based on the outside image taken by the rear camera 6 shown in FIG. When the accuracy of recognizing the image of the parking frame recognized based on the outside image taken by the left side camera 4 and the right side camera 5 is larger than the accuracy of recognizing the parking frame based on the rear camera 6, the selection unit 31 selects the parking frame image. The

また、例えば、車両1の基準点BPが図8に示す途中位置P7に位置する場合において、図12に示すリヤカメラ6が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度が、左サイドカメラ4及び右サイドカメラ5が撮影した車外画像に基づいて認識された駐車枠の像の認識する確度よりも大きいときは、リヤカメラ6に基づく駐車枠の像が選択部31によって選択される。   Further, for example, when the reference point BP of the vehicle 1 is located at the midway position P7 shown in FIG. 8, the accuracy of recognizing the image of the parking frame recognized based on the outside image taken by the rear camera 6 shown in FIG. When the accuracy of recognizing the image of the parking frame recognized based on the outside image taken by the left side camera 4 and the right side camera 5 is larger than the accuracy of recognizing the parking frame based on the rear camera 6, the selection unit 31 selects the image of the parking frame. The

<判定処理>
次に、判定部35が実行する判定処理について詳細に説明する。
<Judgment process>
Next, the determination process executed by the determination unit 35 will be described in detail.

判定部35は、「車庫入れ駐車制御」によって車両1を後進させる制御を開始した後に、認識された駐車枠の像に基づいて仮想マップ上の車両1の現在の基準点BP、即ち、車両1の現在位置を判定する。   The determination unit 35 starts the control for moving the vehicle 1 backward by the “garage parking control”, and then based on the recognized image of the parking frame, the current reference point BP of the vehicle 1 on the virtual map, that is, the vehicle 1. The current position of is determined.

具体的には、まず、後進開始位置P3から駐車位置PPへと車両1が移動する途中に、所定の周期(例えば、120ms)で選択部31によって選択された駐車枠の像の角位置ED1、ED2と車両1の基準点BPとの仮想マップ上の相対的な位置を判定部35が判定する。   Specifically, first, during the movement of the vehicle 1 from the reverse start position P3 to the parking position PP, the angular position ED1 of the image of the parking frame selected by the selection unit 31 at a predetermined period (for example, 120 ms), The determination unit 35 determines a relative position on the virtual map between the ED 2 and the reference point BP of the vehicle 1.

そして、既に、把握されている車両1の後進開始位置P3と角位置ED1、ED2との仮想マップ上の相対的な位置(以降、初期の相対位置という)とその相対的な位置(以降、現在の相対位置という)とに基づいて仮想マップ上の車両1の基準点BPの位置を判定する。つまり、車両1が「車庫入れ駐車制御」により車両1を後進させる制御を開始した時から所定の周期で仮想マップ上の車両1の現在位置を判定部35が判定する。   Then, the relative position (hereinafter referred to as the initial relative position) on the virtual map of the reverse start position P3 of the vehicle 1 and the angular positions ED1 and ED2 already known and the relative position (hereinafter referred to as the current position). And the position of the reference point BP of the vehicle 1 on the virtual map is determined. That is, the determination unit 35 determines the current position of the vehicle 1 on the virtual map at a predetermined cycle from when the vehicle 1 starts the control for moving the vehicle 1 backward by “garage parking control”.

例えば、車両1の基準点BPが図8に示す途中位置P4に位置する場合は、右サイドカメラ5が撮影した図9に示す車外画像に基づいて認識された駐車枠の像が選択部31によって選択されたときに、その駐車枠の像の角位置ED1と車外画像に映る車両1の像から想定される基準点BPとの仮想マップ上の現在の相対位置を判定部35が判定する。そして、初期の相対位置と現在の相対位置とに基づいて車両1の現在位置を判定部35が判定する。   For example, when the reference point BP of the vehicle 1 is located at an intermediate position P4 shown in FIG. 8, the image of the parking frame recognized based on the outside image shown in FIG. When selected, the determination unit 35 determines the current relative position on the virtual map between the angular position ED1 of the image of the parking frame and the reference point BP assumed from the image of the vehicle 1 shown in the image outside the vehicle. Then, the determination unit 35 determines the current position of the vehicle 1 based on the initial relative position and the current relative position.

また、例えば、車両1の基準点BPが図8に示す途中位置P5に位置する場合は、右サイドカメラ5が撮影した図10に示す車外画像に基づいて認識された駐車枠の像が選択部31によって選択されたときに、その駐車枠の像の角位置ED1と車外画像に映る車両1の像から想定される基準点BPとの仮想マップ上の相対的な位置を判定部35が判定する。そして、初期の相対位置と現在の相対位置とに基づいて車両1の現在位置を判定部35が判定する。   Further, for example, when the reference point BP of the vehicle 1 is located at the midway position P5 shown in FIG. 8, the image of the parking frame recognized based on the outside image shown in FIG. 10 taken by the right side camera 5 is selected. When selected by 31, the determination unit 35 determines the relative position on the virtual map between the angular position ED1 of the image of the parking frame and the reference point BP assumed from the image of the vehicle 1 shown in the outside image. . Then, the determination unit 35 determines the current position of the vehicle 1 based on the initial relative position and the current relative position.

また、例えば、車両1の基準点BPが図8に示す途中位置P6に位置する場合は、リヤカメラ6が撮影した図11に示す車外画像に基づいて認識された駐車枠の像が選択部31によって選択されたときに、その駐車枠の像の角位置ED2と車外画像に映る車両1の像から想定される基準点BPとの仮想マップ上の相対的な位置を判定部35が判定する。そして、初期の相対位置と現在の相対位置とに基づいて車両1の現在位置を判定部35が判定する。   Further, for example, when the reference point BP of the vehicle 1 is located at an intermediate position P6 shown in FIG. 8, the image of the parking frame recognized based on the outside image shown in FIG. When selected, the determination unit 35 determines a relative position on the virtual map between the angular position ED2 of the image of the parking frame and the reference point BP assumed from the image of the vehicle 1 shown in the image outside the vehicle. Then, the determination unit 35 determines the current position of the vehicle 1 based on the initial relative position and the current relative position.

また、例えば、車両1の基準点BPが図8に示す途中位置P7に位置する場合は、リヤカメラ6が撮影した図12に示す車外画像に基づいて認識された駐車枠の像が選択部31によって選択された場合に、その駐車枠の像の角位置ED1と対向する角位置ED1Xと車外画像に映る車両1の像から想定される基準点BPとの仮想マップ上の相対的な位置を判定部35が判定する。そして、初期の相対位置と現在の相対位置とに基づいて車両1の現在位置を判定部35が判定する。   Further, for example, when the reference point BP of the vehicle 1 is located at an intermediate position P7 shown in FIG. 8, the image of the parking frame recognized based on the outside image shown in FIG. When selected, the relative position on the virtual map between the angular position ED1X facing the angular position ED1 of the image of the parking frame and the reference point BP assumed from the image of the vehicle 1 reflected in the image outside the vehicle 35 determines. Then, the determination unit 35 determines the current position of the vehicle 1 based on the initial relative position and the current relative position.

この場合は、導出部34によって導出された、駐車枠が備えるサイドラインL1、2の、駐車枠の像の車両進入側とは反対側の角位置ED1X、ED2Xに基づいてその判定がされる。その理由は、リヤカメラが撮影した車外画像に基づいて角位置を認識したほうが他のカメラが撮影した車外画像に基づいて認識された角位置よりも、その認識する確度が高いからである。   In this case, the determination is made based on the angular positions ED1X and ED2X of the side lines L1 and L2 included in the parking frame, which are derived by the deriving unit 34, on the opposite side to the vehicle entry side of the parking frame image. The reason is that the accuracy of recognizing the angular position based on the image outside the vehicle photographed by the rear camera is higher than that recognized based on the image outside the vehicle photographed by another camera.

なお、魚眼レンズを備えるカメラ3〜6が撮影する車外画像は歪んでいるため、その歪みを考慮して車両1の現在の相対位置が判定される。   In addition, since the image outside a vehicle image | photographed with the cameras 3-6 provided with a fisheye lens is distorted, the present relative position of the vehicle 1 is determined in consideration of the distortion.

<駐車制御処理>
次に、駐車制御部36が実行する駐車制御処理について詳細に説明する。駐車制御処理は、第1駐車制御処理、及び、第2駐車制御処理とを含む。なお、この駐車制御処理は前述した「車庫入れ駐車制御」である。
<Parking control process>
Next, the parking control process executed by the parking control unit 36 will be described in detail. The parking control process includes a first parking control process and a second parking control process. This parking control process is the aforementioned “garage parking control”.

<第1駐車制御処理>
初めに、第1駐車制御処理の詳細について説明する。
<First parking control process>
First, details of the first parking control process will be described.

「車庫入れ駐車制御」を開始させる指示をユーザから受け付けたときに、駐車制御部36は、図6に示す初期位置P1から並列に位置する複数の駐車枠と並行して走行するように車両1を制御する。   When receiving an instruction to start “garage parking control” from the user, the parking control unit 36 travels in parallel with a plurality of parking frames located in parallel from the initial position P1 shown in FIG. To control.

車両1がその走行をしている際に、ユーザから駐車させたい駐車枠を選択する操作を受け付けたときに、駐車制御部36は、選択された駐車枠の車両の進入側へ車両1の後部を向けて車両1を停車させる。かつ、そのときは、駐車制御部36は、車両1の前後方向と駐車枠の長辺方向とが所定の角度(例えば、25度)になるようにして車両1を停車させる。つまり、駐車制御部36が図8に示すような位置関係で車両1を後進開始位置P3に停車させる。   When the vehicle 1 is traveling, when receiving an operation for selecting a parking frame to be parked from the user, the parking control unit 36 moves the rear part of the vehicle 1 to the vehicle entrance side of the selected parking frame. The vehicle 1 is stopped. At that time, the parking control unit 36 stops the vehicle 1 such that the longitudinal direction of the vehicle 1 and the long side direction of the parking frame are at a predetermined angle (for example, 25 degrees). That is, the parking control unit 36 stops the vehicle 1 at the reverse start position P3 in the positional relationship as shown in FIG.

<第2駐車制御処理>
次に、第2駐車制御処理について説明する。
<Second parking control process>
Next, the second parking control process will be described.

駐車制御部36は、仮想マップ上の車両1の現在位置が仮想マップ上のルートRと一致するように車両1を走行させて駐車枠内へ駐車させる駐車制御を実行する。   The parking control unit 36 performs parking control that causes the vehicle 1 to travel and park in the parking frame so that the current position of the vehicle 1 on the virtual map matches the route R on the virtual map.

仮想マップ上の車両1の現在位置が仮想マップ上のルートRを辿るための車両1の制御量を、後進開始位置P3において決めて、その制御量で「車庫入れ駐車制御」を実行、即ち、オープンループ制御を実行したとする。この場合に、車両1の走行時に車両1に備わるタイヤがスリップすると、仮想マップ上のルートRから車両1の現在位置が外れてしまって車両1を駐車位置PPへ適切に駐車させることができない虞がある。   The control amount of the vehicle 1 for the current position of the vehicle 1 on the virtual map to follow the route R on the virtual map is determined at the reverse start position P3, and “garage parking control” is executed with the control amount, that is, Assume that open loop control is executed. In this case, if the tire provided on the vehicle 1 slips when the vehicle 1 travels, the current position of the vehicle 1 may deviate from the route R on the virtual map, and the vehicle 1 may not be properly parked at the parking position PP. There is.

従って、リアルタイムに取得した仮想マップ上の車両1の現在位置が仮想マップ上のルートRと一致するように車両1を走行させて駐車枠内へ駐車させる駐車制御を実行、即ち、フィードバック制御を実行する。このため、仮想マップ上のルートRから車両1の現在位置が外れることがあってもそのルートRへ復帰させることができる。結果、車両1を駐車位置PPへ適切に駐車させることができる。   Therefore, the parking control is executed to drive the vehicle 1 and park in the parking frame so that the current position of the vehicle 1 on the virtual map acquired in real time matches the route R on the virtual map, that is, the feedback control is executed. To do. For this reason, even if the current position of the vehicle 1 deviates from the route R on the virtual map, it can be returned to the route R. As a result, the vehicle 1 can be appropriately parked at the parking position PP.

<制御フロー>
次に、駐車制御システムSYが実行する制御フローについて説明する。
<Control flow>
Next, a control flow executed by the parking control system SY will be described.

駐車制御システムSYは、ユーザにより車両1のシステムが起動されて、「車庫入れ駐車制御」を実行するボタンが操作された場合に、図13に示す第1制御フローを所定の周期(以降、第1の周期という)で実行する。また、駐車制御システムSYは、その場合に図14に示す第2制御フローを第1の周期よりも長い周期(以降、第2の周期という)で実行する。また、駐車制御システムSYは、その場合に図15に示す第3制御フローを第2の周期よりも長い周期(以降、第3の周期という)で実行する
なお、第1の周期は、例えば、25msであり、第2の周期は、例えば、33msであり、第3の周期は38msである。
The parking control system SY starts the first control flow shown in FIG. 13 for a predetermined period (hereinafter referred to as the first control flow) when the system of the vehicle 1 is activated by the user and the button for executing “garage parking control” is operated. 1 cycle). Further, in that case, the parking control system SY executes the second control flow shown in FIG. 14 in a cycle longer than the first cycle (hereinafter referred to as the second cycle). Moreover, the parking control system SY performs the 3rd control flow shown in FIG. 15 in a period (henceforth a 3rd period) longer than a 2nd period in that case. The second period is, for example, 33 ms, and the third period is 38 ms.

(第1制御フロー)
駐車制御部36は、第1の周期ごとに図13に示す第1制御フローのステップSA1の処理を実行する。
(First control flow)
The parking control part 36 performs the process of step SA1 of the 1st control flow shown in FIG. 13 for every 1st period.

まず、生成部32は、駐車制御が開始されたか否かを判定する(ステップSA1)。具体的には、駐車制御の開始は、ユーザの操作に応答して「車庫入れ駐車制御」を駐車制御部36が実行する際の信号を検知して、生成部32がその制御が開始されたか否かを判定する。   First, the generation unit 32 determines whether parking control has been started (step SA1). Specifically, parking control is started by detecting a signal when the parking control unit 36 executes “garage parking control” in response to the user's operation, and the generation unit 32 starts the control. Determine whether or not.

次に、生成部32は前述した生成処理を実行する(ステップSA2)。これにより、生成部32は車両1を仮想的に俯瞰した合成画像を生成する。   Next, the generation unit 32 executes the generation process described above (step SA2). Thereby, the production | generation part 32 produces | generates the synthesized image which looked down at the vehicle 1 virtually.

次に、表示部33は前述した表示処理を実行する(ステップSA3)。これにより、表示部33はその合成画像をディスプレイ12へ表示する。   Next, the display unit 33 executes the display process described above (step SA3). As a result, the display unit 33 displays the composite image on the display 12.

次に、駐車制御システムSYは図13に示す第1制御フローを終了する。   Next, the parking control system SY ends the first control flow shown in FIG.

つまり、駐車制御システムSYは、ユーザの操作に応答して「車庫入れ駐車制御」を実行するため、「車庫入れ駐車制御」を実行中にディスプレイ12へ時間的に生成された合成画像をリアルタイムに表示する。   That is, since the parking control system SY performs “garage parking control” in response to the user's operation, the composite image temporally generated on the display 12 during the “garage parking control” is executed in real time. indicate.

このため、駐車制御システムSYは、ディスプレイ12において「車庫入れ駐車制御」がされる車両1の動きを動画でリアルタイムに表示させることができる。結果、ユーザは車庫入れ駐車制御がされる車両1をリアルタイムに見ることができる。   For this reason, the parking control system SY can display in real time the motion of the vehicle 1 on which “garage parking control” is performed on the display 12. As a result, the user can see in real time the vehicle 1 for which garage parking control is performed.

(第2制御フロー)
駐車制御システムSYは、第2の周期ごとに図14に示す第2制御フローのステップSB1の処理を実行する。
(Second control flow)
The parking control system SY performs the process of step SB1 of the second control flow shown in FIG. 14 every second period.

まず、取得部20は、カメラ3〜6が撮影したそれぞれの車外画像を取得する(ステップSB1)。そして、取得部20は、画像処理部21へ複数の車外画像を送信する。   First, the acquisition part 20 acquires each vehicle exterior image which the cameras 3-6 image | photographed (step SB1). Then, the acquisition unit 20 transmits a plurality of outside-vehicle images to the image processing unit 21.

次に、認識部30は、前述した認識処理を実行する(ステップSB2)。これにより、複数の車外画像に含まれる駐車枠の像を認識する。   Next, the recognizing unit 30 executes the above-described recognition process (step SB2). Thereby, the image of the parking frame included in the plurality of images outside the vehicle is recognized.

次に、選択部31は、前述した選択処理を実行する(ステップSB3)。これにより、複数の車外画像それぞれで認識された駐車枠の像のうち認識する確度が最も大きい駐車枠の像を選択する。   Next, the selection part 31 performs the selection process mentioned above (step SB3). Thereby, the image of the parking frame with the highest recognition accuracy is selected from the images of the parking frame recognized in each of the plurality of images outside the vehicle.

従って、駐車制御システムSYは、認識する確度が最も大きい駐車枠の像に基づいて、後述する第3の制御フローで実行する第2駐車制御を実行するため、車両1を駐車位置PPへ適切に駐車させることができる。   Therefore, since the parking control system SY performs the second parking control executed in the third control flow described later based on the image of the parking frame with the highest recognition accuracy, the vehicle 1 is appropriately set to the parking position PP. It can be parked.

(第3制御フロー)
駐車制御システムSYは、第3の周期ごとに図15に示す第3制御フローのステップSC1の処理を実行する。
(Third control flow)
Parking control system SY performs the process of step SC1 of the 3rd control flow shown in Drawing 15 for every 3rd period.

まず、駐車制御部36は、車両1が図6に示す後進開始位置P3から駐車位置PPへ後進して駐車させる制御を開始するか否かを判定する(ステップSC1)。   First, the parking control unit 36 determines whether or not to start control in which the vehicle 1 moves backward from the reverse start position P3 to the parking position PP shown in FIG. 6 to park (step SC1).

車両1を後進させて駐車させる制御を開始すると判定されない場合(ステップSC1においてNOの場合)は、駐車制御部36は、前述した第1駐車制御処理を実行する(ステップSC2)。つまり、駐車制御部36が図6に示す初期位置P1から、並列に位置する複数の駐車枠と並行して走行するように車両1を制御する。   If it is not determined to start the control for moving the vehicle 1 backward and parking (NO in step SC1), the parking control unit 36 executes the first parking control process described above (step SC2). That is, the parking controller 36 controls the vehicle 1 from the initial position P1 shown in FIG. 6 so as to travel in parallel with a plurality of parking frames positioned in parallel.

次に、導出部34は、前述した基本導出処理を実行する(ステップSC3)。つまり、車両1が図6に示す初期位置P1から後進開始位置P3まで移動する際に、認識部30が複数の駐車枠の像を認識する。   Next, the derivation unit 34 performs the basic derivation process described above (step SC3). That is, when the vehicle 1 moves from the initial position P1 shown in FIG. 6 to the reverse start position P3, the recognition unit 30 recognizes a plurality of parking frame images.

次に、第3制御フローを終了する。   Next, the third control flow is terminated.

そして、駐車制御システムSYは、次の周期に第3制御フローのステップSC1の処理を実行する。   And parking control system SY performs processing of Step SC1 of the 3rd control flow in the next cycle.

車両1を後進させて駐車させる制御を開始すると判定された場合(ステップSC1においてYESの場合)に、車両1を後進させて駐車させる制御を実施中ではないと駐車制御部36によって判定されたとき(ステップSC4においてNOのとき)は、前述した第1導出処理を導出部34が実行する(ステップSC5)。   When it is determined by the parking control unit 36 that it is determined that the control for causing the vehicle 1 to move backward and park is started (YES in step SC1), the vehicle 1 is moved backward and parked. (When NO in step SC4), the derivation unit 34 executes the first derivation process described above (step SC5).

なお、車両1を後進させて駐車させる制御を開始し、かつ、車両1を後進させて駐車させる制御を実施中ではない場合とは、車両1を後進させて駐車させる制御を実施する直前の状態である。   In addition, when the control which reversely moves the vehicle 1 and starts parking and the control which causes the vehicle 1 to reversely move and park is not being executed, the state immediately before the control where the vehicle 1 is moved backward and parked is performed. It is.

次に、導出部34が、前述した第2導出処理を実行する(ステップSC6)。つまり、導出した後進開始位置P3と駐車枠の位置とに基づいて車両1を駐車枠内へと誘導する仮想マップ上のルートRを導出部34が導出する。   Next, the derivation unit 34 executes the second derivation process described above (step SC6). That is, the deriving unit 34 derives a route R on the virtual map that guides the vehicle 1 into the parking frame based on the derived reverse start position P3 and the position of the parking frame.

次に、第3制御フローを終了する。   Next, the third control flow is terminated.

そして、駐車制御システムSYは、次の周期に第3制御フローのステップSC1の処理を実行する。   And parking control system SY performs processing of Step SC1 of the 3rd control flow in the next cycle.

車両1を後進させて駐車させる制御を開始すると判定された場合(ステップSC1においてYESの場合)に、車両1を後進させて駐車させる制御を実施中であると駐車制御部36によって判定されたとき(ステップSC4においてYESのとき)は、前述した判定処理を判定部35が実行する(ステップSC7)。つまり、「車庫入れ駐車制御」によって車両1を後進させる制御が開始された後に、認識された駐車枠の像に基づいて仮想マップ上の車両1の現在位置を判定部35が判定する。   When it is determined by the parking control unit 36 that the control for moving the vehicle 1 backward and parking is performed when it is determined that the control for moving the vehicle 1 backward and parking is started (YES in step SC1). (When YES in step SC4), determination unit 35 executes the determination process described above (step SC7). That is, after the control for moving the vehicle 1 backward by the “garage parking control” is started, the determination unit 35 determines the current position of the vehicle 1 on the virtual map based on the recognized image of the parking frame.

次に、駐車制御部36が、前述した第2駐車制御処理を実行する(ステップSC8)。つまり、仮想マップ上の車両1の現在位置が仮想マップ上のルートRと一致するように前記車両の挙動を制御する。   Next, the parking control part 36 performs the 2nd parking control process mentioned above (step SC8). That is, the behavior of the vehicle is controlled so that the current position of the vehicle 1 on the virtual map matches the route R on the virtual map.

次に、第3制御フローを終了する。   Next, the third control flow is terminated.

つまり、仮想マップ上の車両1の現在位置が仮想マップ上のルートRと一致するように車両1を走行させて駐車枠内へ駐車させる駐車制御を実行する、即ち、フィードバック制御を実行することによって、仮想マップ上のルートRから車両1の現在位置が外れることがあっても、そのルートRへ復帰させることができる。結果、車両1を駐車位置PPへ適切に駐車させることができる。   That is, by executing the parking control in which the vehicle 1 travels and parks in the parking frame so that the current position of the vehicle 1 on the virtual map matches the route R on the virtual map, that is, by performing feedback control. Even if the current position of the vehicle 1 deviates from the route R on the virtual map, it can be returned to the route R. As a result, the vehicle 1 can be appropriately parked at the parking position PP.

更に、駐車制御システムSYは、前述した第2の制御フローで実行した認識処理、及び、選択処理によって選択された認識する確度が最も大きい駐車枠の像に基づいて第2駐車制御を実行するため、車両1を駐車位置PPへ精度良く駐車させることができる。   Furthermore, the parking control system SY performs the second parking control based on the recognition process executed in the second control flow described above and the image of the parking frame with the highest recognition accuracy selected by the selection process. The vehicle 1 can be parked at the parking position PP with high accuracy.

<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第2の実施の形態とにおいて相違する点を主に説明する。
<Second Embodiment>
Next, a second embodiment will be described. In the following description, differences between the first embodiment and the second embodiment will be mainly described.

第1の実施の形態の選択処理は、「車両に搭載される複数のカメラにより得られた複数の車外画像それぞれに基づいて認識部30が認識した駐車枠の像のうち認識される確度が最も大きい駐車枠の像を選択部31が選択する」と説明したが、第2の実施の形態の選択処理は、車庫入れ駐車制御により車両1が曲線的に後進している場合は、サイドカメラが取得した車外画像に含まれる駐車枠の像を選択部31が選択する。   The selection process of the first embodiment is that “the accuracy of recognition among the images of the parking frame recognized by the recognition unit 30 based on the plurality of outside images obtained by the plurality of cameras mounted on the vehicle is the highest. Although the selection unit 31 selects a large parking frame image, the selection process of the second embodiment is performed when the vehicle 1 is moving backward in a curved line by the garage parking control. The selection unit 31 selects a parking frame image included in the acquired outside-vehicle image.

その選択処理の詳細を説明する。   Details of the selection process will be described.

駐車制御部36が実行する第1駐車制御処理によって、図8に示すように、車両1は後進開始位置P3において一旦停車される。車両1が停車する方向は、駐車枠の車両の進入側へ車両1の後部が向く。かつ、その方向は、車両1の前後方向と駐車枠の長辺方向とが所定の角度(例えば、25度)になるように向く。   By the first parking control process executed by the parking control unit 36, the vehicle 1 is temporarily stopped at the reverse start position P3 as shown in FIG. The direction in which the vehicle 1 stops is such that the rear portion of the vehicle 1 faces the vehicle entrance side of the parking frame. And the direction turns so that the front-back direction of the vehicle 1 and the long side direction of a parking frame may become a predetermined angle (for example, 25 degree | times).

このため、導出部34が実行する第2導出処理によって、導出される仮想マップ上のルートRは曲線になる。   For this reason, the route R on the virtual map derived by the second derivation process executed by the derivation unit 34 becomes a curve.

つまり、駐車制御部36が実行する第2駐車制御処理による車両1の後進は曲線的になる。   That is, the backward movement of the vehicle 1 by the second parking control process executed by the parking control unit 36 is curved.

すると、図8に示すように、仮想マップ上の車両1の現在位置が仮想マップ上のルートRと一致するように駐車制御部36が後進させる場合は、即ち、車両1を左方向へ曲線的に後進させる場合は、車両1の右サイドカメラ5が最も駐車枠と近くなる。   Then, as shown in FIG. 8, when the parking control unit 36 moves backward so that the current position of the vehicle 1 on the virtual map matches the route R on the virtual map, that is, the vehicle 1 is curved in the left direction. When moving backward, the right side camera 5 of the vehicle 1 is closest to the parking frame.

結果、車両1が左方向へ曲線的に後進しているときは右サイドカメラ5が撮影した車外画像に含まれる駐車枠の認識する確度が、他のカメラが撮影した車外画像に含まれる駐車枠の認識する確度と比べて最も大きくなる傾向がある。   As a result, when the vehicle 1 is moving backward in a curve in the left direction, the accuracy of recognizing the parking frame included in the vehicle outside image captured by the right side camera 5 is the parking frame included in the vehicle outside image captured by another camera. It tends to be the largest compared to the accuracy of recognition.

従って、車庫入れ駐車制御により車両1が曲線的に後進している場合は、サイドカメラが取得した車外画像に含まれる駐車枠の像を選択部31が選択することによって、認識する確度が最も大きい駐車枠が選択される。結果、認識する確度が最も大きい駐車枠の像に基づいて、第2駐車制御が実行されるため、車両1を駐車位置PPへ適切に駐車させることができる。   Therefore, when the vehicle 1 is moving backward in a curved line by the garage parking control, the selection unit 31 selects the image of the parking frame included in the outside image acquired by the side camera, so that the probability of recognition is the highest. A parking frame is selected. As a result, since the second parking control is executed based on the image of the parking frame with the highest recognition accuracy, the vehicle 1 can be appropriately parked at the parking position PP.

<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、以降の説明においては、第1の実施の形態と第3の実施の形態とにおいて相違する点を主に説明する。
<Third Embodiment>
Next, a third embodiment will be described. In the following description, differences between the first embodiment and the third embodiment will be mainly described.

第1の実施の形態の選択処理は、「車両に搭載される複数のカメラにより得られた複数の車外画像それぞれに基づいて認識部30が認識した駐車枠の像のうち認識される確度が最も大きい駐車枠の像を選択部31が選択する」と説明した。   The selection process of the first embodiment is that “the accuracy of recognition among the images of the parking frame recognized by the recognition unit 30 based on the plurality of outside images obtained by the plurality of cameras mounted on the vehicle is the highest. The selection unit 31 selects an image of a large parking frame.

第3の実施の形態ではその選択処理は省略され、車両に搭載される複数のカメラにより得られた複数の車外画像それぞれに基づいて認識部30が認識した複数の駐車枠の像の認識される確度を値化するとともに、その値を相対的な値(重み)にする算出処理を算出部が実行する。   In the third embodiment, the selection process is omitted, and a plurality of parking frame images recognized by the recognition unit 30 are recognized based on each of a plurality of outside images obtained by a plurality of cameras mounted on the vehicle. The calculation unit executes a calculation process for converting the accuracy into a value and making the value a relative value (weight).

その確度は前述したように、「認識部30が検出したエッジにより把握される対象物の像の長さや太さなどが駐車枠の像の長さや太さであるとする場合の確からしさである。その確からしさが比較的大きいとは、例えば、車外画像の中央よりも下方の領域において、エッジの長さが途切れることなく比較的長い場合や、エッジの太さが比較的太い場合である」と説明した。   As described above, the accuracy is “a certainty in the case where the image length or thickness of the object grasped by the edge detected by the recognition unit 30 is the length or thickness of the image of the parking frame. The reason why the probability is relatively large is, for example, the case where the edge length is relatively long without interruption in the region below the center of the vehicle outside image, or the case where the edge thickness is relatively thick. Explained.

このような基準に基づいてそれぞれの駐車枠の像の認識する確度を算出部が値化するとともに、夫々の値(重み)の合計が100となるように相対的な値とする。   Based on such a criterion, the calculation unit quantifies the accuracy of recognizing each parking frame image, and sets the relative values so that the sum of the respective values (weights) becomes 100.

そして、導出部34は、夫々の角位置を夫々の値で重み付けして適切な角位置を導出する。   Then, the deriving unit 34 derives an appropriate angular position by weighting each angular position with each value.

例えば、サイドカメラ5が撮影した車外画像に含まれる駐車枠の像の仮想マップ上、即ち、XY座標上の角位置が、X=5、Y=5であり、リヤカメラ6が撮影した車外画像に含まれる駐車枠の像のXY座標上の角位置が、X=5、Y=8である。そして、前者の角位置の値(重み)が60であり、後者の角位置の値(重み)が40である。   For example, on the virtual map of the image of the parking frame included in the image outside the vehicle photographed by the side camera 5, that is, the corner position on the XY coordinates is X = 5, Y = 5, and the image outside the vehicle photographed by the rear camera 6 The angular positions on the XY coordinates of the included parking frame image are X = 5 and Y = 8. The former angular position value (weight) is 60, and the latter angular position value (weight) is 40.

このような場合において、導出部34は夫々の角位置を夫々の値で重み付けした結果、X=5、Y=6.2からなる角位置を導出する。   In such a case, the deriving unit 34 derives an angular position consisting of X = 5 and Y = 6.2 as a result of weighting each angular position with each value.

これにより、駐車制御システムSYは、適切に導出された駐車枠の像に基づいて駐車制御を実行できる。結果、駐車制御システムSYは、駐車位置へ車両1を適切に駐車させることができる。   Thereby, parking control system SY can perform parking control based on the image of the parking frame derived appropriately. As a result, the parking control system SY can appropriately park the vehicle 1 at the parking position.

以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では他の実施形態である変形例について説明する。もちろん、以下で説明する形態を適宜組み合わせても良い。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, the modification which is other embodiment is demonstrated. Of course, you may combine the form demonstrated below suitably.

<変形例1>
上記代表の実施の形態における、サイドラインは、「長細いU字型の白線である」と説明したが、図16に示すようなT字型の白線であっても良い。
<Modification 1>
In the above representative embodiment, the side line has been described as “a long and thin U-shaped white line”, but it may be a T-shaped white line as shown in FIG.

或いは、コの字型の白線であっても良い。或いは、I字型の白線であっても良い。   Alternatively, a U-shaped white line may be used. Alternatively, it may be an I-shaped white line.

その理由は、サイドラインの角位置を認識できる形状であるからである。従って、サイドラインの形状は、その角位置を認識できる形状であれば良くこれに限られない。   This is because the shape can recognize the angular position of the side line. Accordingly, the shape of the side line is not limited to this as long as the corner position can be recognized.

1 車両
2 画像処理装置
3 フロントカメラ
4 左サイドカメラ
5 右サイドカメラ
6 リヤカメラ
13 駐車制御装置
20 取得部
21 画像処理部
22 制御部
23 出力部
30 認識部
31 選択部
32 生成部
33 表示部
34 導出部
35 判定部
36 駐車制御部
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Image processing apparatus 3 Front camera 4 Left side camera 5 Right side camera 6 Rear camera 13 Parking control apparatus 20 Acquisition part 21 Image processing part 22 Control part 23 Output part 30 Recognition part 31 Selection part 32 Generation part 33 Display part 34 Derivation Part 35 determination part 36 parking control part

Claims (9)

車両に搭載され、前記車両の挙動を制御する駐車制御を行って駐車枠内へ前記車両を駐車させる駐車制御システムであって、
前記車両に搭載される複数のカメラにより得られた複数の車外画像を取得する取得手段と、
前記複数の車外画像に含まれる前記駐車枠の像を認識する認識手段と、
前記複数の車外画像それぞれで認識された前記駐車枠の像のうち認識の確度が最も大きい前記駐車枠の像を選択する選択手段と、
選択された前記駐車枠の像に基づいて前記駐車制御を実行する制御手段と、
を備えることを特徴とする駐車制御システム。
A parking control system that is mounted on a vehicle and performs parking control to control the behavior of the vehicle to park the vehicle in a parking frame,
Obtaining means for obtaining a plurality of outside images obtained by a plurality of cameras mounted on the vehicle;
Recognizing means for recognizing the image of the parking frame included in the plurality of outside-vehicle images;
Selecting means for selecting the image of the parking frame having the highest recognition accuracy among the images of the parking frame recognized in the plurality of images outside the vehicle;
Control means for executing the parking control based on the image of the selected parking frame;
A parking control system comprising:
請求項1に記載の駐車制御システムにおいて、
前記認識手段は、前記車外画像の前記駐車枠の像のエッジを検出し、
前記選択手段は、前記エッジに基づいて前記認識の確度を求めることを特徴とする駐車制御システム。
In the parking control system according to claim 1,
The recognizing means detects an edge of the image of the parking frame in the outside image;
The parking control system characterized in that the selection means obtains the recognition accuracy based on the edge.
請求項1または2に記載の駐車制御システムにおいて、
前記複数のカメラは、前記車両の側方を撮影するサイドカメラを含み、
前記選択手段は、前記駐車制御により前記車両が曲線的に後進している場合は、前記サイドカメラが取得した前記車外画像に含まれる前記駐車枠の像を選択することを特徴とする駐車制御システム。
In the parking control system according to claim 1 or 2,
The plurality of cameras includes a side camera that captures a side of the vehicle,
The said selection means selects the image of the said parking frame contained in the said image outside the vehicle which the said side camera acquired, when the said vehicle is going backwards by the said parking control, The parking control system characterized by the above-mentioned .
請求項1乃至3の何れかに記載の駐車制御システムにおいて、
前記複数のカメラは、前記車両の後方を撮影するリヤカメラを含み、
前記選択手段は、前記駐車制御により前記車両の後進を開始させるときは、前記リヤカメラが取得した前記車外画像に含まれる前記駐車枠の像を選択することを特徴とする駐車制御システム。
In the parking control system according to any one of claims 1 to 3,
The plurality of cameras includes a rear camera that captures the rear of the vehicle,
The parking control system, wherein the selection means selects an image of the parking frame included in the outside image acquired by the rear camera when starting reverse driving of the vehicle by the parking control.
請求項1乃至4の何れかに記載の駐車制御システムにおいて、
前記駐車制御により前記車両の後進を開始させる前に、認識された前記駐車枠の像に基づいて仮想マップ上の前記車両の後進開始位置と前記駐車枠の位置とを導出する第1導出手段と、
導出された前記後進開始位置と前記駐車枠の位置とに基づいて前記車両を前記駐車枠内へと誘導する前記仮想マップ上のルートを導出する第2導出手段と、
前記駐車制御により前記車両の後進を開始させた後に、認識された前記駐車枠の像に基づいて前記仮想マップ上の前記車両の現在位置を判定する判定手段と、
を備え、
前記制御手段は、前記現在位置が前記ルートと一致するように前記車両の挙動を制御することを特徴とする駐車制御システム。
In the parking control system according to any one of claims 1 to 4,
First derivation means for deriving a reverse start position of the vehicle and a position of the parking frame on a virtual map based on the recognized image of the parking frame before starting the reverse of the vehicle by the parking control; ,
Second derivation means for deriving a route on the virtual map for guiding the vehicle into the parking frame based on the derived reverse start position and the position of the parking frame;
Determination means for determining the current position of the vehicle on the virtual map based on the recognized image of the parking frame after starting the reverse of the vehicle by the parking control;
With
The said control means controls the behavior of the said vehicle so that the said current position may correspond with the said route, The parking control system characterized by the above-mentioned.
請求項1乃至5の何れかに記載の駐車制御システムにおいて、
前記複数のカメラのレンズは魚眼レンズであることを特徴とする駐車制御システム。
In the parking control system according to any one of claims 1 to 5,
A parking control system, wherein the lenses of the plurality of cameras are fish-eye lenses.
請求項1乃至6の何れかに記載の駐車制御システムにおいて、
前記複数の車外画像に基づいて前記車両の周辺を仮想視点からみた合成画像を生成する生成手段と、
前記駐車制御の実行中に、前記合成画像を表示する表示手段と、
を更に備えたことを特徴とする駐車制御システム。
In the parking control system according to any one of claims 1 to 6,
Generating means for generating a composite image in which the periphery of the vehicle is viewed from a virtual viewpoint based on the plurality of outside-vehicle images;
Display means for displaying the composite image during execution of the parking control;
A parking control system further comprising:
車両の挙動を制御する駐車制御を行って駐車枠内へ前記車両を駐車させる駐車制御方法であって、
(a)前記車両に搭載される複数のカメラにより得られた複数の車外画像を取得する工程と、
(b)前記複数の車外画像に含まれる前記駐車枠の像を認識する工程と、
(c)前記複数の車外画像それぞれで認識された前記駐車枠の像のうち認識の確度が最も大きい前記駐車枠の像を選択する工程と、
(d)選択された前記駐車枠の像に基づいて前記駐車制御を実行する工程と、
を備えることを特徴とする駐車制御方法。
A parking control method for performing parking control for controlling the behavior of the vehicle to park the vehicle in a parking frame,
(A) obtaining a plurality of outside-vehicle images obtained by a plurality of cameras mounted on the vehicle;
(B) recognizing an image of the parking frame included in the plurality of images outside the vehicle;
(C) selecting the image of the parking frame having the highest recognition accuracy among the images of the parking frame recognized in the plurality of images outside the vehicle;
(D) executing the parking control based on the selected image of the parking frame;
A parking control method comprising:
画像を処理する画像処理装置であって、
車両に搭載される複数のカメラにより得られた複数の車外画像を取得する取得手段と、
前記複数の車外画像に含まれる前記駐車枠の像を認識する認識手段と、
前記複数の車外画像それぞれで認識された前記駐車枠の像のうち認識の確度が最も大きい前記を選択する選択手段と、
前記選択された前記駐車枠の像に基づく情報を、前記車両の挙動を制御して駐車枠内へ前記車両を駐車させる駐車制御装置に出力する出力手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus for processing an image,
Acquisition means for acquiring a plurality of outside images obtained by a plurality of cameras mounted on the vehicle;
Recognizing means for recognizing the image of the parking frame included in the plurality of outside-vehicle images;
Selecting means for selecting the one with the highest recognition accuracy among the images of the parking frame recognized in each of the plurality of outside images;
Output means for outputting information based on the image of the selected parking frame to a parking control device that controls the behavior of the vehicle and parks the vehicle in the parking frame;
An image processing apparatus comprising:
JP2010291686A 2010-12-28 2010-12-28 System and method for parking control Withdrawn JP2012136206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010291686A JP2012136206A (en) 2010-12-28 2010-12-28 System and method for parking control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010291686A JP2012136206A (en) 2010-12-28 2010-12-28 System and method for parking control

Publications (1)

Publication Number Publication Date
JP2012136206A true JP2012136206A (en) 2012-07-19

Family

ID=46674005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010291686A Withdrawn JP2012136206A (en) 2010-12-28 2010-12-28 System and method for parking control

Country Status (1)

Country Link
JP (1) JP2012136206A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014083826A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Acceleration suppression device for vehicle, and acceleration suppression method for vehicle
WO2014083820A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Vehicle acceleration-suppression device, and vehicle acceleration-suppression method
WO2014083828A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Acceleration restriction device for vehicle and acceleration restriction method for vehicle
JP2014106738A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP2014106706A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP2014107689A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd On-vehicle image processing device
JP2015030363A (en) * 2013-08-01 2015-02-16 日産自動車株式会社 Vehicular acceleration suppression apparatus and vehicular acceleration suppression method
JP2015227139A (en) * 2014-06-02 2015-12-17 株式会社日本自動車部品総合研究所 On-vehicle image processing apparatus
JP2017024596A (en) * 2015-07-23 2017-02-02 Kyb株式会社 Parking guidance system
JP2018039293A (en) * 2016-09-05 2018-03-15 日産自動車株式会社 Parking support method and parking support apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5994865B2 (en) * 2012-11-27 2016-09-21 日産自動車株式会社 Vehicle acceleration suppression device and vehicle acceleration suppression method
WO2014083826A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Acceleration suppression device for vehicle, and acceleration suppression method for vehicle
WO2014083828A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Acceleration restriction device for vehicle and acceleration restriction method for vehicle
JP2014106738A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
US9540000B2 (en) 2012-11-27 2017-01-10 Nissan Motor Co., Ltd. Acceleration suppression device for vehicle, and acceleration suppression method for vehicle
JP2014107689A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd On-vehicle image processing device
WO2014083820A1 (en) * 2012-11-27 2014-06-05 日産自動車株式会社 Vehicle acceleration-suppression device, and vehicle acceleration-suppression method
CN104781122A (en) * 2012-11-27 2015-07-15 日产自动车株式会社 Acceleration restriction device for vehicle and acceleration restriction method for vehicle
JP2014106706A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP5892260B2 (en) * 2012-11-27 2016-03-23 日産自動車株式会社 Vehicle acceleration suppression device and vehicle acceleration suppression method
JP5915771B2 (en) * 2012-11-27 2016-05-11 日産自動車株式会社 Vehicle acceleration suppression device and vehicle acceleration suppression method
US9399400B2 (en) 2012-11-27 2016-07-26 Nissan Motor Co., Ltd. Vehicular acceleration suppression device and vehicular acceleration suppression method
JP2015030363A (en) * 2013-08-01 2015-02-16 日産自動車株式会社 Vehicular acceleration suppression apparatus and vehicular acceleration suppression method
JP2015227139A (en) * 2014-06-02 2015-12-17 株式会社日本自動車部品総合研究所 On-vehicle image processing apparatus
JP2017024596A (en) * 2015-07-23 2017-02-02 Kyb株式会社 Parking guidance system
JP2018039293A (en) * 2016-09-05 2018-03-15 日産自動車株式会社 Parking support method and parking support apparatus

Similar Documents

Publication Publication Date Title
JP2012136206A (en) System and method for parking control
JP4818816B2 (en) Parking assistance program and parking assistance device
EP2974909B1 (en) Periphery surveillance apparatus and program
EP2623376B1 (en) Parking assistance device
JP6801787B2 (en) Parking support method and parking support device
JP2019509534A (en) System and method for estimating future paths
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP4992696B2 (en) Parking support apparatus and method
JP2012071635A5 (en)
JP5622986B2 (en) Image display system, image processing apparatus, and image display method
JP2007274377A (en) Periphery monitoring apparatus, and program
JP2011004201A (en) Circumference display
JP2008285083A (en) Parking support device
JP2012040883A (en) Device for generating image of surroundings of vehicle
JP5548069B2 (en) Image processing apparatus and image processing method
JP2019064431A (en) Parking support device
JP2006238131A (en) Vehicle periphery monitoring apparatus
JP5618139B2 (en) Parking assistance device
JP2014107696A (en) On-vehicle image processing device
JP2019087909A (en) Image display apparatus and image display system
JP2008213647A (en) Parking assist method and parking assist system
JP4857159B2 (en) Vehicle driving support device
JP2009290788A (en) Parking support device
JP4945315B2 (en) Driving support system and vehicle
JP2012210864A (en) Image processing apparatus, parking support system, image processing method and parking support method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304