JP2011161935A - Drive support device - Google Patents

Drive support device Download PDF

Info

Publication number
JP2011161935A
JP2011161935A JP2008143786A JP2008143786A JP2011161935A JP 2011161935 A JP2011161935 A JP 2011161935A JP 2008143786 A JP2008143786 A JP 2008143786A JP 2008143786 A JP2008143786 A JP 2008143786A JP 2011161935 A JP2011161935 A JP 2011161935A
Authority
JP
Japan
Prior art keywords
vehicle
unit
obstacle
bird
eye view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008143786A
Other languages
Japanese (ja)
Inventor
Shoji Goto
章二 後藤
Takeshi Watanabe
剛 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008143786A priority Critical patent/JP2011161935A/en
Priority to PCT/JP2009/002233 priority patent/WO2009144893A1/en
Publication of JP2011161935A publication Critical patent/JP2011161935A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately execute warning of an obstacle when parking. <P>SOLUTION: A generation unit 22 generates a bird's eye view around a vehicle according to an image captured by at least one imaging device installed on the vehicle. A predicted trace storage unit 30 stores predicted traces of the vehicle to correspond to the bird's eye view when moving the vehicle by operating a steering wheel of the vehicle. A synthesis unit 32 superposes the predicted traces on the bird's eye image for display. A setting unit 38 sets detection areas of the obstacle according to the predicted traces. A warning unit 36 gives warning when the obstacle is detected in the set detection areas. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、運転支援技術に関し、特に車両に設置された撮像装置によって撮像した画像をもとに、運転を支援する運転支援装置に関する。   The present invention relates to driving support technology, and more particularly to a driving support device that supports driving based on an image captured by an imaging device installed in a vehicle.

車両のリア部分に車載カメラを設置し、車載カメラによって撮像した画像を運転者に提示することによって、車両後方の様子を運転者に知らしめるための運転支援装置が開発されている。さらに、運転支援装置は、画像を提示するだけではなく、障害物に接近した場合に、その旨を運転手に警告する。その際、障害物の検出は、予め基準画像を撮像し、後退する際に撮像した画像と基準画像とを比較することによってなされる(例えば、特許文献1参照)。
特開2000−177513号公報
A driving support device has been developed for informing the driver of the state behind the vehicle by installing an in-vehicle camera in the rear part of the vehicle and presenting an image captured by the in-vehicle camera to the driver. Furthermore, the driving support device not only presents an image but also warns the driver when approaching an obstacle. At this time, the obstacle is detected by capturing a reference image in advance and comparing the captured image with the reference image when moving backward (see, for example, Patent Document 1).
JP 2000-177513 A

運転者が駐車を実行する際、車両後方だけではなく車両前方や側方にも、障害物は存在する場合がある。そのため、車両の後方における障害物だけではなく、車両の周囲に対する障害物が検出される方が好ましい。また、駐車する際の障害物として、静体と動体とが存在する。静体とは、壁や他の駐車車両などの駐車を実行する際に移動しない物体である。一方、動体とは、ボールや人物などの駐車を実行する際に移動する物体である。前者に対して、高速な検出速度よりも高い検出精度がより要求され、後者に対して、高速な検出精度も要求される。   When the driver performs parking, an obstacle may exist not only in the rear of the vehicle but also in the front and side of the vehicle. For this reason, it is preferable to detect not only an obstacle behind the vehicle but also an obstacle around the vehicle. There are still and moving objects as obstacles when parking. A static body is an object that does not move when parking, such as a wall or another parked vehicle. On the other hand, a moving body is an object that moves when parking a ball or a person. The former requires higher detection accuracy than the high-speed detection speed, and the latter requires high-speed detection accuracy.

本発明者はこうした状況を認識して本発明をなしたものであり、その目的は、駐車の際における障害物の警告を高精度に実行する技術を提供することである。   The inventor has realized the present invention by recognizing such a situation, and an object of the present invention is to provide a technology for executing an obstacle warning at the time of parking with high accuracy.

上記課題を解決するために、本発明のある態様の運転支援装置は、車両に設置された少なくともひとつの撮像装置によって撮像された画像をもとに、車両周辺の鳥瞰図画像を生成する画像生成部と、画像生成部において生成した鳥瞰図画像に対応すべき車両の予想軌跡であって、車両のハンドルを操作して車両を移動させる場合の予想軌跡を記憶する記憶部と、記憶部において記憶した予想軌跡を画像生成部において生成した鳥瞰図画像に重畳して表示する表示部と、表示部において表示される鳥瞰図画像に対して、予想軌跡をもとに障害物の検出領域を設定する設定部と、設定部において設定した検出領域内の障害物を検出した場合に、その旨を警告する警告部と、を備える。   In order to solve the above problems, a driving support device according to an aspect of the present invention is an image generation unit that generates a bird's-eye view image around a vehicle based on an image captured by at least one imaging device installed in the vehicle. A predicted trajectory of the vehicle that should correspond to the bird's eye view image generated by the image generating unit, the predicted trajectory when the vehicle is moved by operating the steering wheel of the vehicle, and the predicted stored in the storage unit A display unit that superimposes and displays the locus on the bird's-eye view image generated by the image generation unit; a setting unit that sets an obstacle detection area based on the expected locus for the bird's-eye view image displayed on the display unit; And a warning unit that warns that when an obstacle in the detection area set by the setting unit is detected.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、駐車の際における障害物の警告を高精度に実行できる。   ADVANTAGE OF THE INVENTION According to this invention, the warning of the obstruction in the case of parking can be performed with high precision.

本発明を具体的に説明する前に、概要を述べる。本発明の実施例は、車載カメラにて撮像した画像を表示するとともに、駐車する際の予想軌跡も表示し、さらに障害物との接近を運転者に警告する運転支援装置に関する。車両の周囲に対する障害物を検出するとともに、障害物として静体と動体とのそれぞれを高精度に検出するために、本実施例に係る運転支援装置は以下の処理を実行する。車両には、後方だけではなく前方にも、車載カメラが設置される。例えば、車両のフロント部分の左右およびリア部分の左右に、合計4つの車載カメラが設置される。運転支援装置は、複数の車載カメラのそれぞれにおいて撮像した画像を取得し、全周鳥瞰図画像を生成する。   Before describing the present invention in detail, an outline will be described. Embodiments of the present invention relate to a driving support apparatus that displays an image captured by a vehicle-mounted camera, displays an expected trajectory when parking, and warns the driver of an approach to an obstacle. In order to detect an obstacle with respect to the surroundings of the vehicle and detect each of a stationary body and a moving body with high accuracy as the obstacle, the driving support device according to the present embodiment executes the following processing. In-vehicle cameras are installed not only on the rear but also on the front of the vehicle. For example, a total of four in-vehicle cameras are installed on the left and right of the front part of the vehicle and on the left and right of the rear part. The driving support device acquires images captured by each of the plurality of in-vehicle cameras, and generates an all-around bird's-eye view image.

また、運転支援装置は、所定のハンドル舵角に対応した予想軌跡を予め記憶する。ここで、予想軌跡は、全周鳥瞰図画像に対応するので、後輪だけではなく前輪に対する軌跡も含まれている。運転支援装置は、予想軌跡上あるいは予想軌跡から一定の幅を有したエリア上(以下、これらを「第1エリア」という)において、静体を検出する。静体の検出には、例えば、平面投影ステレオ法が使用される。一方、運転支援装置は、車両100が通過するエリア(以下、「第2エリア」という)において、動体を検出する。動体の検出には、例えば、オプティカルフローが使用される。このように、全周鳥瞰図画像を使用することによって、後方だけでなく前方や側方の障害物を検出できる。また、静体と動体とを別々に検出するので、それぞれに適した検出方法を使用できる。   In addition, the driving support device stores in advance an expected trajectory corresponding to a predetermined steering angle. Here, since the expected trajectory corresponds to the all-around bird's-eye view image, the trajectory includes not only the rear wheel but also the front wheel. The driving support device detects a still body on an expected trajectory or on an area having a certain width from the expected trajectory (hereinafter referred to as “first area”). For the detection of a stationary body, for example, a planar projection stereo method is used. On the other hand, the driving assistance device detects a moving object in an area (hereinafter referred to as “second area”) through which the vehicle 100 passes. For example, an optical flow is used for detecting a moving object. As described above, by using the all-around bird's-eye view image, it is possible to detect not only the rear but also the front and side obstacles. Moreover, since a static body and a moving body are detected separately, the detection method suitable for each can be used.

図1は、本発明の実施例に係る車両100の構成を示す。車両100は、運転支援装置10、撮像装置12と総称される第1撮像装置12a、第2撮像装置12b、第3撮像装置12c、第4撮像装置12d、表示装置14を含む。なお、車両100には、エンジン、シャーシ、ハンドル、ブレーキ等のような、車両100の本来の動作を実現するための構成要素が含まれている。しかしながら、図を明瞭にするために、図1は、運転を支援するための画像を表示するためや、障害物を検出した場合に警告するために必要な構成要素以外を省略する。また、図1に示された車両100の左側が前方に相当する。   FIG. 1 shows a configuration of a vehicle 100 according to an embodiment of the present invention. The vehicle 100 includes a driving support device 10, a first imaging device 12 a, a second imaging device 12 b, a third imaging device 12 c, a fourth imaging device 12 d, and a display device 14 that are collectively referred to as an imaging device 12. The vehicle 100 includes components for realizing the original operation of the vehicle 100 such as an engine, a chassis, a handle, a brake, and the like. However, for the sake of clarity, FIG. 1 omits components other than those necessary for displaying an image for assisting driving and for warning when an obstacle is detected. Further, the left side of the vehicle 100 shown in FIG. 1 corresponds to the front side.

撮像装置12は、画像を連続的に撮像し、撮像した画像を運転支援装置10へ出力する。ここでは、画像そのものあるいは画像のデータを区別せずに「画像」という。第1撮像装置12aと第2撮像装置12bは、車両100のフロント部分に設置され、第3撮像装置12cと第4撮像装置12dは、車両100のリア部分に設置されている。ここで、第1撮像装置12aから第4撮像装置12dは、任意の組合せにてステレオカメラを形成する。ステレオカメラとは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるようにしたカメラのことである。なお、撮像装置12の数は「4」に限定されない。   The imaging device 12 continuously captures images and outputs the captured images to the driving support device 10. Here, the image itself or the image data is referred to as “image” without distinction. The first imaging device 12 a and the second imaging device 12 b are installed in the front part of the vehicle 100, and the third imaging device 12 c and the fourth imaging device 12 d are installed in the rear part of the vehicle 100. Here, the first imaging device 12a to the fourth imaging device 12d form a stereo camera in an arbitrary combination. A stereo camera is a camera that can record information in the depth direction by simultaneously photographing an object from a plurality of different directions. The number of imaging devices 12 is not limited to “4”.

運転支援装置10は、各撮像装置12からの画像を入力する。運転支援装置10は、入力した画像を鳥瞰図画像に変換し、さらに複数の撮像装置12のそれぞれに対応した鳥瞰図画像を合成することによって、全周鳥瞰図画像を生成する。運転支援装置10は、予想軌跡を記憶しており、生成した全周鳥瞰図画像に複数種類の予想軌跡を重ねる。ここでは、予想軌跡が重ねられた全周鳥瞰図画像を「合成画像」という。運転支援装置10は、表示装置14へ合成画像を出力する。   The driving support device 10 inputs an image from each imaging device 12. The driving support device 10 generates an all-round bird's-eye view image by converting the input image into a bird's-eye view image and further combining the bird's-eye view images corresponding to the plurality of imaging devices 12. The driving support device 10 stores the expected trajectory, and superimposes a plurality of types of expected trajectories on the generated all-around bird's-eye view image. Here, the all-around bird's-eye view image on which the expected trajectory is superimposed is referred to as a “composite image”. The driving support device 10 outputs the composite image to the display device 14.

表示装置14は、運転支援装置10からの合成画像を受けつける。また、表示装置14は、モニタを備えており、モニタに合成画像を表示する。さらに、運転支援装置10は、予想軌跡をもとに、前述の第1エリアと第2エリアとを設定する。運転支援装置10は、第1エリアにおいて静体を検出するとともに、第2エリアにおいて動体を検出する。運転支援装置10は、静体や動体を検出した場合に、運転者に警告を出力する。なお、運転支援装置10と表示装置14とが一体的に構成されていてもよい。   The display device 14 receives the composite image from the driving support device 10. The display device 14 includes a monitor, and displays the composite image on the monitor. Furthermore, the driving assistance device 10 sets the first area and the second area described above based on the expected trajectory. The driving assistance device 10 detects a stationary body in the first area and detects a moving body in the second area. The driving support device 10 outputs a warning to the driver when a stationary body or a moving body is detected. Note that the driving support device 10 and the display device 14 may be configured integrally.

図2は、運転支援装置10の構成を示す。運転支援装置10は、フレームバッファ20と総称される第1フレームバッファ20a、第2フレームバッファ20b、第3フレームバッファ20c、第4フレームバッファ20d、生成部22、変換テーブル記憶部24、制御部26、操作部28、予想軌跡記憶部30、合成部32、監視部34、警告部36を含む。また、監視部34は、設定部38、静体検知部40、動体検知部42を含む。   FIG. 2 shows the configuration of the driving support device 10. The driving support apparatus 10 includes a first frame buffer 20a, a second frame buffer 20b, a third frame buffer 20c, a fourth frame buffer 20d, a generation unit 22, a conversion table storage unit 24, and a control unit 26, which are collectively referred to as a frame buffer 20. , An operation unit 28, an expected trajectory storage unit 30, a synthesis unit 32, a monitoring unit 34, and a warning unit 36. The monitoring unit 34 includes a setting unit 38, a static body detection unit 40, and a moving body detection unit 42.

操作部28は、ボタン等を含むように構成されており、運転者からの指示を受けつける。操作部28によって受けつけられる指示の一例は、合成画像の表示や監視処理の開始に関する指示である。操作部28は、受けつけた指示を制御部26へ出力する。制御部26は、運転支援装置10全体の動作を制御する。また、制御部26は、操作部28から入力した指示に応じて、後述の生成部22、変換テーブル記憶部24、予想軌跡記憶部30、合成部32、監視部34、警告部36を制御する。ここでは、制御部26によって制御される運転支援装置10の状態として、(1)停車前、(2)後退前、(3)後退中が規定されている。   The operation unit 28 is configured to include buttons and the like, and receives instructions from the driver. An example of an instruction received by the operation unit 28 is an instruction related to display of a composite image and start of monitoring processing. The operation unit 28 outputs the received instruction to the control unit 26. The control unit 26 controls the operation of the entire driving support device 10. Further, the control unit 26 controls a generation unit 22, a conversion table storage unit 24, an expected trajectory storage unit 30, a synthesis unit 32, a monitoring unit 34, and a warning unit 36, which will be described later, according to an instruction input from the operation unit 28. . Here, (1) before stopping, (2) before retreating, and (3) during retreating are defined as states of the driving support device 10 controlled by the control unit 26.

フレームバッファ20は、図示しない各撮像装置12に対応づけられて配置されている。例えば、第1フレームバッファ20aから第4フレームバッファ20dは、第1撮像装置12aから第4撮像装置12dにそれぞれ対応づけられている。フレームバッファ20は、撮像装置12からの画像を記憶し、生成部22へ画像を出力する。生成部22は、複数のフレームバッファ20から画像を受けつけ、各画像を鳥瞰図画像へ変換する。このような変換には、公知の技術、例えば特開2008−48345号公報に開示された技術を使用すればよいので、ここでは説明を省略する。   The frame buffer 20 is arranged in association with each imaging device 12 (not shown). For example, the first frame buffer 20a to the fourth frame buffer 20d are associated with the first imaging device 12a to the fourth imaging device 12d, respectively. The frame buffer 20 stores the image from the imaging device 12 and outputs the image to the generation unit 22. The generation unit 22 receives images from the plurality of frame buffers 20 and converts each image into a bird's eye view image. For such conversion, a known technique, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2008-48345 may be used, and the description thereof is omitted here.

変換テーブル記憶部24は、画像から全周鳥瞰図画像への変換の際に使用される変換式を記憶しており、生成部22は、制御部26を介して、変換テーブル記憶部24に記憶された変換式を参照することによって、鳥瞰図画像を生成する。また、生成部22は、鳥瞰図画像を合成することによって、全周鳥瞰図画像を生成する。なお、全周鳥瞰図画像の生成にも、特開2008−48345号公報に開示された技術が使用されればよい。このような全周鳥瞰図画像は、車両100周辺の鳥瞰図画像ともいえる。ここで、生成部22は、各フレームバッファ20から連続的に画像を入力するので、全周鳥瞰図画像を連続的に生成する。生成部22は、全周鳥瞰図画像を合成部32へ出力する。生成部22は、全周鳥瞰図画像の生成とは別に、フレームバッファ20から受けつけた画像を監視部34へ出力する。   The conversion table storage unit 24 stores a conversion formula used when converting the image into the all-around bird's eye view image. The generation unit 22 is stored in the conversion table storage unit 24 via the control unit 26. A bird's eye view image is generated by referring to the conversion formula. Moreover, the production | generation part 22 produces | generates an all-around bird's-eye view image by synthesize | combining a bird's-eye view image. Note that the technique disclosed in Japanese Patent Application Laid-Open No. 2008-48345 may be used for generating the all-around bird's-eye view image. Such an all-around bird's-eye view image can be said to be a bird's-eye view image around the vehicle 100. Here, since the generation unit 22 continuously inputs images from each frame buffer 20, the all-around bird's-eye view image is continuously generated. The generation unit 22 outputs the all-around bird's-eye view image to the synthesis unit 32. The generation unit 22 outputs the image received from the frame buffer 20 to the monitoring unit 34 separately from the generation of the all-around bird's-eye view image.

予想軌跡記憶部30は、生成部22において生成した全周鳥瞰図画像に対応すべき車両100の予想軌跡を記憶する。ここで、予想軌跡は、車両100のタイヤが通過すると予想される経路であり、車両100のハンドルを操作して車両100を後退させる場合の経路に相当する。例えば、予想軌跡は、ハンドルを末切りまで回転させたときの経路として予め設定されている。なお、予想軌跡記憶部30は、ハンドルを末切りまで回転させたときの予想軌跡以外の別の予想軌跡も記憶してもよい。その際、運転者から指示によって、使用される予想軌跡が選択される。また、操作部28は、運転者からの指示を受けつけ、制御部26は、指示に応じた設定を予想軌跡記憶部30に登録する。   The predicted trajectory storage unit 30 stores an expected trajectory of the vehicle 100 that should correspond to the all-around bird's-eye view image generated by the generating unit 22. Here, the expected trajectory is a route that the tire of the vehicle 100 is expected to pass through, and corresponds to a route when the vehicle 100 is moved backward by operating the handle of the vehicle 100. For example, the predicted trajectory is set in advance as a path when the handle is rotated to the end. The predicted trajectory storage unit 30 may also store another expected trajectory other than the expected trajectory when the handle is rotated to the end. At that time, an expected trajectory to be used is selected according to an instruction from the driver. In addition, the operation unit 28 receives an instruction from the driver, and the control unit 26 registers a setting corresponding to the instruction in the expected locus storage unit 30.

合成部32は、生成部22から全周鳥瞰図画像を入力し、予想軌跡記憶部30から予想軌跡を入力する。合成部32は、予想軌跡を全周鳥瞰図画像に重畳することによって、合成画像を生成する。その際、合成部32は、全周鳥瞰図画像上の車両100の座標と、予想軌跡の座標とを対応づける。つまり、予想軌跡の起点が車両100となるように合成画像が生成される。なお、合成画像の詳細は後述する。ここでは、合成部32の処理を前述の(1)から(3)に沿って説明する。   The synthesizing unit 32 inputs the all-around bird's-eye view image from the generating unit 22 and inputs the predicted trajectory from the predicted trajectory storage unit 30. The composition unit 32 generates a composite image by superimposing the expected trajectory on the all-around bird's-eye view image. At that time, the combining unit 32 associates the coordinates of the vehicle 100 on the all-around bird's-eye view image with the coordinates of the expected trajectory. That is, the composite image is generated so that the starting point of the predicted locus is the vehicle 100. Details of the composite image will be described later. Here, the process of the synthesis unit 32 will be described along the above-described (1) to (3).

(1)停車前において、運転者が車両100を運転して駐車スペースの近傍に到着したとき、操作部28は、合成画像を表示すべき旨の指示を運転者から受けつける。これは、運転者がボタン押下することによって実現される。なお、ボタンが押し下げられるまで、表示装置14には、合成画像が表示されておらず、例えば、ナビゲーション画面等が表示されている。そのため、駐車前にボタン押下によって、表示装置14の表示が切りかえられるともいえる。なお、操作部28は、ボタンによって指示を受けつけずに、例えば、タッチパネル、音声認識などによって指示を受けつけてもよい。前述のごとく、操作部28は、受けつけた指示を制御部26へ出力する。   (1) Before the vehicle stops, when the driver drives the vehicle 100 and arrives in the vicinity of the parking space, the operation unit 28 receives an instruction from the driver to display a composite image. This is realized by the driver pressing the button. Note that until the button is pressed, the composite image is not displayed on the display device 14, and a navigation screen or the like is displayed, for example. Therefore, it can be said that the display on the display device 14 is switched by pressing the button before parking. Note that the operation unit 28 may receive an instruction by, for example, a touch panel or voice recognition without receiving an instruction by a button. As described above, the operation unit 28 outputs the received instruction to the control unit 26.

制御部26は、操作部28からの指示を受けつけると、合成画像が生成されるように、生成部22、合成部32の動作を制御する。合成部32は、予想軌跡記憶部30から予想軌跡を抽出する。ここで、予想軌跡は、初期のハンドル舵角αに対応する。なお、駐車支援を必要とする場面では、一般的に、ハンドルは末切りまで回転されるので、予想軌跡に対するハンドル舵角は、末切り状態に対応する。合成部32は、合成画像を図示しない表示装置14へ出力することによって、表示装置14に合成画像を表示させる。その結果、運転者は、表示装置14に表示された合成画像を確認しながら、ハンドルを操作することによって、前後方の障害物に接触することなく、駐車スペースに収まるような停車位置への誘導が可能になる。   Upon receiving an instruction from the operation unit 28, the control unit 26 controls the operations of the generation unit 22 and the synthesis unit 32 so that a synthesized image is generated. The synthesizer 32 extracts an expected trajectory from the expected trajectory storage unit 30. Here, the expected trajectory corresponds to the initial steering angle α. Note that, in a scene that requires parking assistance, generally, the steering wheel is rotated to the end cutting position, and thus the steering angle with respect to the expected trajectory corresponds to the end cutting state. The composition unit 32 causes the display device 14 to display the composite image by outputting the composite image to the display device 14 (not shown). As a result, the driver operates the steering wheel while confirming the composite image displayed on the display device 14, thereby guiding the vehicle to a stop position that fits in the parking space without touching the front and rear obstacles. Is possible.

(2)後退前において、運転者が表示装置14に表示された合成画像を見ながら、駐車の開始となる位置に車両100を停止させたとき、つまり車両100の後退を開始させる前、操作部28は、運転者によるボタンの押し下げを検出する。操作部28は、検出結果を制御部26へ出力する。制御部26は、操作部28からの検出結果を受けつけると、図示しないスピーカから、「ハンドルをxx回左に切ってください」のような音声ガイダンス等を出力する。ここで、ガイダンスの内容は、予想軌跡に対するハンドル舵角に対応するように予め設定されている。   (2) Before the reverse, when the driver stops the vehicle 100 at a position where parking starts, while looking at the composite image displayed on the display device 14, that is, before starting the reverse of the vehicle 100, the operation unit 28 detects a button depression by the driver. The operation unit 28 outputs the detection result to the control unit 26. Upon receiving the detection result from the operation unit 28, the control unit 26 outputs a voice guidance such as “Please turn the handle xx times to the left” from a speaker (not shown). Here, the content of the guidance is set in advance so as to correspond to the steering angle of the steering wheel with respect to the expected trajectory.

(3)後退中において、制御部26は、操作部28からの検出結果を受けつけた後、タイマーを開始させることによって、操作部28からの検出結果を受けつけてからの期間を計測する。予め定めた期間が経過された後、つまりスピーカから音声ガイダンスが出力されてから、一定の期間が経過した後、制御部26は、合成部32に対して、予想軌跡の重畳を中止させる。その結果、合成部32は、全周鳥瞰図画像に車幅延長線のみを重畳することによって、合成画像を生成し、表示装置14へ合成画像を出力する。車幅延長線とは、ハンドルを切らずに車両100がまっすぐ後退した場合の軌跡である。   (3) During retreat, the control unit 26 receives a detection result from the operation unit 28 and then starts a timer to measure a period after receiving the detection result from the operation unit 28. After a predetermined period has elapsed, that is, after a certain period has elapsed since the voice guidance was output from the speaker, the control unit 26 causes the synthesis unit 32 to stop superimposing the expected trajectory. As a result, the composition unit 32 generates a composite image by superimposing only the vehicle width extension line on the all-around bird's-eye view image, and outputs the composite image to the display device 14. The vehicle width extension line is a locus when the vehicle 100 moves straight back without turning the steering wheel.

なお、制御部26は、図示しないシフト位置センサと接続されており、シフトが後退に入った旨をシフト位置センサから受けつける。その後、制御部26は、シフトが別の位置に入った旨をシフト位置センサから受けつけたときに、合成部32に対して、予想軌跡の重畳を中止させてもよい。あるいは、運転手によるボタンの再押下を操作部28が検出し、制御部26は、操作部28における検出がなされたときに、合成部32に対して、予想軌跡の重畳を中止させてもよい。   The control unit 26 is connected to a shift position sensor (not shown) and accepts from the shift position sensor that the shift has started to move backward. Thereafter, the control unit 26 may cause the combining unit 32 to stop superimposing the expected trajectory when receiving from the shift position sensor that the shift has entered another position. Alternatively, the operation unit 28 may detect that the button is pressed again by the driver, and the control unit 26 may cause the combining unit 32 to stop superimposing the expected trajectory when the operation unit 28 detects the button. .

図3(a)−(e)は、合成部32において後退駐車の際に生成される合成画像を示す。これらは、表示装置14に表示される合成画像ともいえる。図3(a)は、車両100が駐車場に進入した場合の合成画像である。合成画像の中央付近に車両100が示されている。また、合成画像の下部に駐車スペース70が示されている。以下では、車両100が駐車スペース70に駐車する場合を想定する。なお、この段階において、合成画像は表示装置14に表示されていなくてもよい。運転手は、このような状態において、ボタンを押し下げることによって、運転支援装置10は、前述の(1)停車前の状態になる。   FIGS. 3A to 3E show a combined image generated when the combining unit 32 performs reverse parking. These can also be said to be composite images displayed on the display device 14. FIG. 3A is a composite image when the vehicle 100 enters the parking lot. The vehicle 100 is shown near the center of the composite image. A parking space 70 is shown at the bottom of the composite image. Below, the case where the vehicle 100 parks in the parking space 70 is assumed. At this stage, the composite image may not be displayed on the display device 14. In this state, the driver depresses the button, so that the driving support device 10 is in the state (1) before stopping.

図3(b)は、(1)停車前の状態における合成画像を示す。図示のごとく、予想軌跡50と総称される第1予想軌跡50a、第2予想軌跡50b、第3予想軌跡50cが示される。また、車幅延長線58と総称される第1車幅延長線58a、第2車幅延長線58bも示される。予想軌跡50は、ハンドルを末切りまで回転させた場合の予想軌跡に相当する。また、第1予想軌跡50aは、右側後輪の予想軌跡に相当し、第2予想軌跡50bは、左側後輪の予想軌跡に相当し、第3予想軌跡50cは、前輪の予想軌跡に相当する。図3(b)の状態において、第1予想軌跡50aおよび第2予想軌跡50bは、駐車スペース70に隣接したスペースに駐車された車両(以下、「隣接車両」という)に重なっている。   FIG. 3B shows a composite image in a state before (1) stopping. As illustrated, a first predicted trajectory 50a, a second predicted trajectory 50b, and a third predicted trajectory 50c, which are collectively referred to as the predicted trajectory 50, are shown. Also shown are a first vehicle width extension line 58a and a second vehicle width extension line 58b, collectively referred to as a vehicle width extension line 58. The expected trajectory 50 corresponds to an expected trajectory when the handle is rotated to the end. The first predicted trajectory 50a corresponds to the predicted trajectory of the right rear wheel, the second predicted trajectory 50b corresponds to the expected trajectory of the left rear wheel, and the third predicted trajectory 50c corresponds to the expected trajectory of the front wheel. . In the state of FIG. 3B, the first predicted trajectory 50 a and the second predicted trajectory 50 b overlap with a vehicle parked in a space adjacent to the parking space 70 (hereinafter referred to as “adjacent vehicle”).

つまり、図3(b)の停車位置から、ハンドル舵角が末切りの状態のまま、車両100が後退すると、車両100が隣接車両に衝突してしまうおそれがある。そのため、運転者は、表示装置14に表示された合成画像を確認しながら、予想軌跡50が隣接車両に重ならないような位置へ車両100を移動させる。これは、予想軌跡50上の障害物が存在しない停車位置が模索されることに相当する。   That is, if the vehicle 100 moves backward from the stop position in FIG. 3B with the steering angle turned to the end, the vehicle 100 may collide with an adjacent vehicle. Therefore, the driver moves the vehicle 100 to a position where the predicted trajectory 50 does not overlap the adjacent vehicle while confirming the composite image displayed on the display device 14. This corresponds to searching for a stop position on the predicted locus 50 where no obstacle exists.

図3(c)は、図3(b)に続く状態であり、予想軌跡50が隣接車両に重ならないような位置に車両100が存在する。図3(c)の停車位置から、ハンドル舵角が末切りの状態のまま、車両100が後退しても、車両100が隣接車両に衝突しない。そのため、図3(c)では、停車位置が決定されたといえ、前述の(2)後退前の状態になったといえる。運転手は、このような状態において、ボタンを押し下げると、「ハンドルを末切りまで左に切ってください」との音声ガイダンスが出力される。図3(d)は、図3(c)に続く状態であり、前述の(3)後退中の状態である。図示のごとく、予想軌跡50が消去され、車幅延長線58のみが表示されている。運転者は、車両100をまっすぐに後退させる。その結果、図3(e)のごとく、車両100は駐車スペース70内にて停止する。   FIG. 3C is a state following FIG. 3B, and the vehicle 100 exists at a position where the predicted trajectory 50 does not overlap the adjacent vehicle. Even if the vehicle 100 moves backward from the stop position in FIG. 3C with the steering angle turned to the end, the vehicle 100 does not collide with the adjacent vehicle. Therefore, in FIG. 3C, it can be said that the stop position has been determined, and it can be said that the state before the above-described (2) retreat is brought about. When the driver depresses the button in such a state, a voice guidance saying “Please turn the steering wheel to the left to the end” is output. FIG. 3D is a state following FIG. 3C and is a state in which the above described (3) is in reverse. As shown in the figure, the predicted trajectory 50 is deleted and only the vehicle width extension line 58 is displayed. The driver moves the vehicle 100 straight back. As a result, the vehicle 100 stops in the parking space 70 as shown in FIG.

図4(a)−(c)は、合成部32において前進駐車から発進する際に生成される合成画像を示す。ここでは、初期状態において、車両100は、駐車スペース70に停止されており、後退しながら駐車スペース70から出て行く場合を想定する。図4(a)は、前述の(1)停車前の状態に相当しており、予想軌跡50および車幅延長線58が表示されている。また、第3予想軌跡50cが隣接車両と重なっている。つまり、図4(a)の停止位置から、ハンドル舵角が末切りの状態のまま、車両100が後退すると、車両100が隣接車両に衝突してしまうおそれがある。そのため、運転者は、表示装置14に表示された合成画像を確認しながら、予想軌跡50が隣接車両に重ならないような位置へ車両100を移動させる。   FIGS. 4A to 4C show composite images generated when the combining unit 32 starts from forward parking. Here, in the initial state, it is assumed that vehicle 100 is stopped in parking space 70 and goes out of parking space 70 while retreating. FIG. 4A corresponds to the above-described (1) state before stopping, and an expected trajectory 50 and a vehicle width extension line 58 are displayed. Further, the third predicted locus 50c overlaps with the adjacent vehicle. That is, when the vehicle 100 moves backward from the stop position in FIG. 4A with the steering angle turned to the end, the vehicle 100 may collide with an adjacent vehicle. Therefore, the driver moves the vehicle 100 to a position where the predicted trajectory 50 does not overlap the adjacent vehicle while confirming the composite image displayed on the display device 14.

図4(b)は、図4(a)に続く状態であり、車両100がまっすぐに後退した場合である。この位置では、第3予想軌跡50cが隣接車両に重ならない。そのため、図4(b)では、停車位置が決定されたといえ、前述の(2)後退前の状態になったといえる。運転手は、このような状態において、ボタンを押し下げると、「ハンドルを末切りまで左に切ってください」との音声ガイダンスが出力される。図4(c)は、図4(b)に続く状態であり、前述の(3)後退中の状態である。ここでは、予想軌跡50が表示されているが、この後、予想軌跡50が消去され、車幅延長線58のみが表示される。その結果、車両100による駐車スペース70から抜け出しが完了される。   FIG. 4B is a state following FIG. 4A, and is a case where the vehicle 100 has receded straight. At this position, the third predicted locus 50c does not overlap the adjacent vehicle. Therefore, in FIG. 4 (b), it can be said that the stop position has been determined, and it can be said that the state before the above-described (2) reverse movement has been reached. When the driver depresses the button in such a state, a voice guidance saying “Please turn the steering wheel to the left to the end” is output. FIG. 4C is a state following FIG. 4B, and is the state of (3) retreating described above. Here, the expected trajectory 50 is displayed, but thereafter, the expected trajectory 50 is erased and only the vehicle width extension line 58 is displayed. As a result, the exit from the parking space 70 by the vehicle 100 is completed.

図2に戻る。設定部38は、図示しない表示装置14において表示される合成画像、つまり合成部32において生成された合成画像に対して、予想軌跡をもとに障害物の検出領域を設定する。ここで、設定部38は、静止した障害物である静体の検出領域と、動作する障害物である動体の検出領域とを独立に設定する。前者が第1エリアに相当し、後者が第2エリアに相当する。ここでは、図面を使用しながら、第1エリアと第2エリアとを説明する。   Returning to FIG. The setting unit 38 sets an obstacle detection region based on the expected trajectory for the composite image displayed on the display device 14 (not shown), that is, the composite image generated by the composite unit 32. Here, the setting unit 38 independently sets a stationary object detection area that is a stationary obstacle and a moving object detection area that is a moving obstacle. The former corresponds to the first area, and the latter corresponds to the second area. Here, the first area and the second area will be described with reference to the drawings.

図5は、警告部36における監視処理の概要を示す。これは、図3(b)等と同様の合成画像であり、車両100および駐車スペース70が示されている。また、第1予想軌跡50aから第3予想軌跡50cも示されている。第1エリアは、予想軌跡50上あるいは予想軌跡50から一定の幅を有したエリア上であると規定される。しかしながら、説明を容易にするために、以下では、第1エリアが予想軌跡50上であるとする。そのため、図5では、第1予想軌跡50a、第2予想軌跡50b、第3予想軌跡50cが第1エリアに相当する。一方、第2エリアは、車両100が通過するエリアと規定されている。図5では、第1予想軌跡50aと第2予想軌跡50bとの間のエリアである第1検出エリア60aと、車両100と第3予想軌跡50cとの間のエリアである第2検出エリア60bとが第2エリアに相当する。予想軌跡50は、全周鳥瞰図画像における第1エリアの位置、例えば座標を静体検知部40へ出力し、全周鳥瞰図画像における第2エリアの領域、例えば座標を動体検知部42へ出力する。   FIG. 5 shows an overview of the monitoring process in the warning unit 36. This is a composite image similar to FIG. 3B and the like, and shows the vehicle 100 and the parking space 70. Further, the first predicted trajectory 50a to the third predicted trajectory 50c are also shown. The first area is defined to be on the predicted locus 50 or on an area having a certain width from the predicted locus 50. However, for ease of explanation, it will be assumed below that the first area is on the predicted trajectory 50. Therefore, in FIG. 5, the first predicted trajectory 50a, the second predicted trajectory 50b, and the third predicted trajectory 50c correspond to the first area. On the other hand, the second area is defined as an area through which the vehicle 100 passes. In FIG. 5, a first detection area 60a that is an area between the first predicted locus 50a and the second predicted locus 50b, and a second detection area 60b that is an area between the vehicle 100 and the third predicted locus 50c. Corresponds to the second area. The predicted trajectory 50 outputs the position of the first area in the all-around bird's-eye view image, for example, coordinates to the still body detection unit 40, and outputs the region of the second area in the all-around bird's-eye view image, for example, coordinates to the moving object detection unit 42.

静体検知部40は、生成部22から、複数の画像を受けつけるとともに、設定部38から、第1エリアの座標を受けつける。静体検知部40は、複数の画像に対して、平面投影ステレオ法を使用することによって、画像に含まれた物体の高さを特定する。平面投影ステレオ法は、視点の異なる複数の撮像装置12によって撮像した複数の撮影画像をひとつの基準平面上に投影し、それらの画像の差分から高さのある物体の領域を求めるという手法である。   The still body detection unit 40 receives a plurality of images from the generation unit 22 and receives the coordinates of the first area from the setting unit 38. The still body detection unit 40 specifies the height of an object included in the image by using the planar projection stereo method for the plurality of images. The planar projection stereo method is a method of projecting a plurality of captured images captured by a plurality of imaging devices 12 having different viewpoints onto a single reference plane, and obtaining a region of an object having a height from the difference between the images. .

平面投影ステレオ法として、例えば、特開2003−232867号公報に記載された技術が使用されればよいので、ここでは説明を省略する。静体検知部40は、第1エリア上における物体の高さがしきい値より高い場合に、静体を検出したとする。静体検知部40は、静体を検出した場合にその旨を警告部36へ出力する。その際、静体検知部40は、検出した静体の位置を出力してもよい。ここで、障害物の検知は、例えば、ブレーキが踏まれている状態や停止している場合になされる。そのために、静体検知部40は、図示しないブレーキセンサや速度センサからの情報を入力してもよい。   As the planar projection stereo method, for example, the technique described in Japanese Patent Application Laid-Open No. 2003-232867 may be used, and the description thereof is omitted here. It is assumed that the still body detection unit 40 detects a still body when the height of the object on the first area is higher than the threshold value. When the static body detection unit 40 detects a static body, it outputs a message to that effect to the warning unit 36. At that time, the still body detection unit 40 may output the position of the detected still body. Here, the detection of the obstacle is performed, for example, when the brake is depressed or stopped. Therefore, the static body detection unit 40 may input information from a brake sensor and a speed sensor (not shown).

動体検知部42は、合成部32から、合成画像を連続的に受けつけるとともに、設定部38から、第2エリアの座標を受けつける。動体検知部42は、連続的に受けつけた合成画像をもとに、第2エリア内における動体の存在を検出する。動体の検出には、オプティカルフローが使用される。オプティカルフローとは、動物体解析の手法のひとつであり、全周鳥瞰図画像中の輝度情報から動きを解析し、速度ベクトルによって動体の運動を表す技術である。このようなオプティカルフローには、公知の技術が使用されればよいので、ここでは説明を省略する。動体検知部42は、動体を検出した場合にその旨を警告部36へ出力する。ここで、障害物の検知は、例えば、ある一定の速度以下で走行している場合や停止している場合になされる。走行速度は、地面特徴点の動きベクトルの大きさにより判別されてもよいし、図示しない速度センサから速度情報を入手してもよい。また、動体検知部42での障害物の検知は、例えば、静体検知部40での障害物の検知と同様に、ブレーキが踏まれている状態や停止している場合になされる。そのために、動体検知部42も、図示しないブレーキセンサや速度センサからの情報を入力してもよい。   The moving body detection unit 42 continuously receives composite images from the combining unit 32 and receives coordinates of the second area from the setting unit 38. The moving object detection unit 42 detects the presence of a moving object in the second area based on the continuously received composite images. Optical flow is used to detect moving objects. Optical flow is one of the methods for analyzing moving objects, and is a technique for analyzing the motion from the luminance information in the all-around bird's-eye view image and expressing the motion of the moving object by the velocity vector. For such an optical flow, a publicly-known technique may be used, and the description thereof is omitted here. When the moving object detection unit 42 detects a moving object, the moving object detection unit 42 outputs a message to that effect to the warning unit 36. Here, the obstacle is detected when, for example, the vehicle is traveling at a certain speed or less or is stopped. The travel speed may be determined by the magnitude of the motion vector of the ground feature point, or speed information may be obtained from a speed sensor (not shown). The obstacle detection by the moving body detection unit 42 is performed, for example, when the brake is stepped on or stopped, as in the case of the obstacle detection by the still body detection unit 40. Therefore, the moving body detection unit 42 may also input information from a brake sensor and a speed sensor (not shown).

警告部36は、静体検知部40が第1エリア内の静体を検出した場合、あるいは動体検知部42が第2エリア内の動体を検出した場合、その旨を警告する。つまり、警告部36は、車両100の前後方の予想軌跡付近に障害物を検知したら、それを運転者に警告する。警告の具体例は、後述する。図5では、車両100の前方には接触する危険がないが、後方に進入してきたボールに接触する危険があるので、運転者への警告がなされる。   The warning unit 36 warns that when the still body detection unit 40 detects a still body in the first area or when the moving body detection unit 42 detects a moving body in the second area. That is, if the warning unit 36 detects an obstacle in the vicinity of the expected trajectory in the front and rear of the vehicle 100, the warning unit 36 warns the driver. A specific example of the warning will be described later. In FIG. 5, there is no danger of contact in front of the vehicle 100, but there is a risk of contact with the ball that has entered rearward, so a warning is given to the driver.

図6(a)−(f)は、警告部36における警告処理の概要を示す。図6(a)では、障害物が存在する場合と存在しない場合とにおいて、予想軌跡50を表示する際の色を変える。例えば、障害物が存在する場合、予想軌跡50が赤色で示され、障害物が存在しない場合、予想軌跡50が青色で示される。図6(b)では、障害物が存在する場合と存在しない場合とにおいて、予想軌跡50の表示方法を変える。例えば、障害物が存在する場合、予想軌跡50が点滅で示され、障害物が存在しない場合、予想軌跡50が点灯で示される。   6A to 6F show an overview of warning processing in the warning unit 36. FIG. In FIG. 6A, the color when displaying the predicted locus 50 is changed depending on whether an obstacle exists or not. For example, when there is an obstacle, the predicted locus 50 is shown in red, and when there is no obstacle, the expected locus 50 is shown in blue. In FIG. 6B, the display method of the predicted locus 50 is changed depending on whether an obstacle exists or not. For example, when there is an obstacle, the predicted locus 50 is indicated by blinking, and when there is no obstacle, the expected locus 50 is indicated by lighting.

図6(c)は、障害物が存在する場合に着色部分80を表示し、障害物が存在しない場合に着色部分80を表示しない。着色部分80は、例えば、赤色に着色される。図6(d)は、障害物が存在する場合にフラッシュ部分82を表示し、障害物が存在しない場合にフラッシュ部分82を表示しない。フラッシュ部分82は、例えば、点滅にて示される。図6(e)は、図6(c)と同様に着色部分80を表示するが、障害物の部分ではなく、車両100上に着色部分80を表示する。図6(f)は、図6(d)と同様にフラッシュ部分82を表示するが、障害物の部分ではなく、車両100上にフラッシュ部分82を表示する。   FIG. 6C displays the colored portion 80 when there is an obstacle, and does not display the colored portion 80 when there is no obstacle. The colored portion 80 is colored red, for example. FIG. 6D displays the flash portion 82 when there is an obstacle, and does not display the flash portion 82 when there is no obstacle. The flash portion 82 is indicated by blinking, for example. FIG. 6E displays the colored portion 80 as in FIG. 6C, but displays the colored portion 80 on the vehicle 100 instead of the obstacle portion. FIG. 6F displays the flash portion 82 as in FIG. 6D, but displays the flash portion 82 on the vehicle 100 instead of the obstacle portion.

図7(a)−(c)は、警告部36における警告処理の別の概要を示す。図7(a)は、図6(c)と同様に、障害物が存在する場合に着色部分80を表示するが、障害物である隣接車両との距離に応じて、第1着色部分80aから第3着色部分80cを表示する。第3着色部分80cが隣接車両に最も近く、第1着色部分80aが隣接車両から最も離れている。ここで、第1着色部分80aから第3着色部分80cのそれぞれは、異なった色で示される。   FIGS. 7A to 7C show another outline of warning processing in the warning unit 36. FIG. FIG. 7A displays the colored portion 80 when there is an obstacle, as in FIG. 6C, but from the first colored portion 80a according to the distance from the adjacent vehicle that is the obstacle. The third colored portion 80c is displayed. The third colored portion 80c is closest to the adjacent vehicle, and the first colored portion 80a is farthest from the adjacent vehicle. Here, each of the first colored portion 80a to the third colored portion 80c is shown in a different color.

図7(b)は、図6(d)と同様に、障害物が存在する場合にフラッシュ部分82を表示するが、障害物である隣接車両との距離に応じて、第1フラッシュ部分82aから第3フラッシュ部分82cを表示する。第3フラッシュ部分82cが隣接車両に最も近く、第1フラッシュ部分82aが隣接車両から最も離れている。ここで、第1フラッシュ部分82aから第3フラッシュ部分82cのそれぞれは、異なった間隔で点滅される。図7(c)は、図6(c)の変形例であり、図6(c)の着色部分80の代わりに、第1着色部分80aを示す。また、第3予想軌跡50cに重なるように第2着色部分80bが示される。ここで、第1着色部分80aと第2着色部分80bとは、異なった色で示される。なお、図6(a)−(f)や図7(a)−(c)に示した警告の表示とは別にあるいは共に、音声にて警告が出力されてもよい。   FIG. 7B displays the flash portion 82 when there is an obstacle, as in FIG. 6D, but from the first flash portion 82a according to the distance from the adjacent vehicle that is the obstacle. The third flash portion 82c is displayed. The third flash portion 82c is closest to the adjacent vehicle, and the first flash portion 82a is farthest from the adjacent vehicle. Here, each of the first flash portion 82a to the third flash portion 82c blinks at different intervals. FIG.7 (c) is a modification of FIG.6 (c), and shows the 1st coloring part 80a instead of the coloring part 80 of FIG.6 (c). In addition, the second colored portion 80b is shown so as to overlap the third predicted locus 50c. Here, the first colored portion 80a and the second colored portion 80b are shown in different colors. In addition to or together with the warning display shown in FIGS. 6A to 6F and FIGS. 7A to 7C, a warning may be output by voice.

この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   This configuration can be realized in terms of hardware by a CPU, memory, or other LSI of any computer, and in terms of software, it can be realized by a program loaded in the memory, but here it is realized by their cooperation. Draw functional blocks. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

以上の構成による運転支援装置10の動作を説明する。図8は、運転支援装置10における表示手順を示すフローチャートである。操作部28は、ボタンの押し下げを検出する(S10)。合成部32は、全周鳥瞰図画像および複数の予想軌跡をもとに合成画像を生成し、合成画像を表示装置14に表示させる(S12)。静体検知部40および動体検知部42は、障害物検知処理を実行する(S14)。障害物を検出すれば(S16のY)、警告部36は、警告を出力する(S18)。一方、障害物を検出しなければ(S16のN)、ステップ18をスキップする。   The operation of the driving support apparatus 10 having the above configuration will be described. FIG. 8 is a flowchart showing a display procedure in the driving support device 10. The operation unit 28 detects the depression of the button (S10). The synthesizing unit 32 generates a synthesized image based on the all-around bird's-eye view image and the plurality of expected trajectories, and displays the synthesized image on the display device 14 (S12). The static body detection unit 40 and the moving body detection unit 42 execute an obstacle detection process (S14). If an obstacle is detected (Y in S16), the warning unit 36 outputs a warning (S18). On the other hand, if no obstacle is detected (N in S16), step 18 is skipped.

操作部28がボタンの押し下げを検出しなければ(S20のN)、ステップ14に戻る。一方、操作部28がボタンの押し下げを検出すれば(S20のY)、制御部26は、ハンドルの舵角のガイダンスをスピーカから出力する(S22)。一定期間経過していなければ(S24のN)、合成部32は、同様の合成画像を生成し続ける。一方、一定期間経過すれば(S24のY)、合成部32は、予想軌跡50の表示を消去し(S26)、車幅延長線58の表示を残す。   If the operation unit 28 does not detect pressing of the button (N in S20), the process returns to step 14. On the other hand, if the operation unit 28 detects the depression of the button (Y in S20), the control unit 26 outputs guidance on the steering angle of the steering wheel from the speaker (S22). If the predetermined period has not elapsed (N in S24), the composition unit 32 continues to generate a similar composite image. On the other hand, if a certain period of time has elapsed (Y in S24), the composition unit 32 deletes the display of the predicted locus 50 (S26) and leaves the display of the vehicle width extension line 58.

本発明の実施例によれば、全周鳥瞰図画像を使用するので、車両の後方だけでなく、前方外周における予想軌跡を表示できる。また、前方外周における予想軌跡も表示するので、運転者に対して、駐車開始を実行する際の位置合わせの精度を向上させるための情報を提供できる。また、全周鳥瞰図画像を使用するので、車両の後方だけでなく、前方の障害物、駐車車両に対する安全も考慮できる。また、車両の後方だけでなく、前方の障害物、駐車車両に対する安全も考慮するので、より最適な停車位置に誘導できる。また、車両の後方だけでなく、前方の障害物、駐車車両に対する安全も考慮するので、駐車の際における障害物の警告を高精度に実行できる。また、静体と動体のそれぞれを別々に検出するので、それぞれに適した検出アルゴリズムを使用できる。   According to the embodiment of the present invention, since the all-around bird's-eye view image is used, it is possible to display the expected trajectory on the front outer periphery as well as the rear of the vehicle. In addition, since an expected trajectory on the front outer periphery is also displayed, information for improving the alignment accuracy when parking is started can be provided to the driver. Further, since the all-around bird's-eye view image is used, not only the rear of the vehicle but also the safety for obstacles in front and parked vehicles can be considered. Moreover, since safety not only to the rear of the vehicle but also to obstacles in front and parked vehicles is taken into consideration, the vehicle can be guided to a more optimal stop position. Moreover, since the safety with respect to obstacles and parked vehicles as well as the rear of the vehicle is taken into consideration, the warning of obstacles during parking can be executed with high accuracy. Further, since each of the static and moving objects is detected separately, a detection algorithm suitable for each can be used.

また、静体と動体のそれぞれに適した検出アルゴリズムを使用するので、駐車の際における障害物の警告を高精度に実行できる。また、静体を検出するために、第2エリアよりも狭い第1エリアを使用するので、処理量を削減しながらも高精度な検出を実現できる。また、静体を検出するために静体の高さを考慮するので、静体の検出精度を向上できる。また、動体を検出するために、第1エリアよりも広い第2エリアを使用するので、動体の検出精度を向上できる。また、前後方の予想軌跡上にある障害物を検知して警告するので、運転者が表示装置を注視することなく、安全な最適停車位置まで移動させることができる。   In addition, since a detection algorithm suitable for each of a stationary body and a moving body is used, an obstacle warning during parking can be executed with high accuracy. In addition, since the first area that is narrower than the second area is used to detect the still body, highly accurate detection can be realized while reducing the processing amount. In addition, since the height of the stationary body is taken into account in order to detect the stationary body, the detection accuracy of the stationary body can be improved. Further, since the second area wider than the first area is used to detect the moving object, the detection accuracy of the moving object can be improved. In addition, since an obstacle on the front-rear expected trajectory is detected and warned, the driver can move to a safe optimum stop position without gazing at the display device.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

本発明の実施例において、合成部32は、予想軌跡として、タイヤが通過すべき経路を表示装置14に表示させる。しかしながらこれに限らず例えば、合成部32は、予想軌跡として、車両100が走行する走行面を表示装置14に表示させてもよい。具体的に説明すると、図3において、第1予想軌跡50aと第2予想軌跡50bとの間にも着色することによって、走行面が表示される。本変形例によれば、車両100が通過する部分を運転手に容易に認識させることができる。   In the Example of this invention, the synthetic | combination part 32 displays the path | route which a tire should pass on the display apparatus 14 as an estimated locus | trajectory. However, the present invention is not limited thereto, and for example, the combining unit 32 may cause the display device 14 to display a traveling surface on which the vehicle 100 travels as an expected trajectory. More specifically, in FIG. 3, the running surface is displayed by coloring between the first predicted locus 50a and the second expected locus 50b. According to this modification, the driver can easily recognize the portion through which the vehicle 100 passes.

本変形例に加えて、操作部28は、予想軌跡の色、予想軌跡として経路の表示あるいは走行面の表示の切りかえに関する指示を受けつけてもよい。制御部26は、操作部28において受けつけた指示に応じて、合成部32での設定を変更してもよい。本変形例によれば、運転者にとって情報を認識しやすい画面を提供できる。   In addition to this modification, the operation unit 28 may receive an instruction relating to the color of the expected trajectory and the switching of the display of the route or the display of the traveling surface as the expected trajectory. The control unit 26 may change the setting in the synthesizing unit 32 according to the instruction received in the operation unit 28. According to this modification, it is possible to provide a screen that allows the driver to easily recognize information.

本発明の実施例に係る車両の構成を示す図である。It is a figure which shows the structure of the vehicle which concerns on the Example of this invention. 図1の運転支援装置の構成を示す図である。It is a figure which shows the structure of the driving assistance apparatus of FIG. 図3(a)−(e)は、図2の合成部において後退駐車の際に生成される合成画像を示す図である。FIGS. 3A to 3E are diagrams illustrating composite images generated when the parking unit is reversely parked in the combining unit of FIG. 図4(a)−(c)は、図2の合成部において前進駐車から発進する際に生成される合成画像を示す図である。FIGS. 4A to 4C are diagrams illustrating a composite image generated when starting from forward parking in the combining unit of FIG. 図2の監視部における監視処理の概要を示す図である。It is a figure which shows the outline | summary of the monitoring process in the monitoring part of FIG. 図6(a)−(f)は、図2の警告部における警告処理の概要を示す図である。FIGS. 6A to 6F are diagrams showing an outline of warning processing in the warning section of FIG. 図7(a)−(c)は、図2の警告部における警告処理の別の概要を示す図である。FIGS. 7A to 7C are diagrams showing another outline of the warning process in the warning unit of FIG. 図2の運転支援装置における表示手順を示すフローチャートである。It is a flowchart which shows the display procedure in the driving assistance device of FIG.

符号の説明Explanation of symbols

10 運転支援装置、 12 撮像装置、 14 表示装置、 20 フレームバッファ、 22 生成部、 24 変換テーブル記憶部、 26 制御部、 28 操作部、 30 予想軌跡記憶部、 32 合成部、 34 監視部、 36 警告部、 38 設定部、 40 静体検知部、 42 動体検知部、 100 車両。   DESCRIPTION OF SYMBOLS 10 Driving assistance apparatus, 12 Imaging apparatus, 14 Display apparatus, 20 Frame buffer, 22 Generation | occurrence | production part, 24 Conversion table memory | storage part, 26 Control part, 28 Operation part, 30 Expected locus | trajectory memory | storage part, 32 Synthesis | combination part, 34 Monitoring part, 36 Warning section, 38 setting section, 40 still body detection section, 42 moving body detection section, 100 vehicle.

Claims (2)

車両に設置された少なくともひとつの撮像装置によって撮像された画像をもとに、車両周辺の鳥瞰図画像を生成する画像生成部と、
前記画像生成部において生成した鳥瞰図画像に対応すべき車両の予想軌跡であって、車両のハンドルを操作して車両を移動させる場合の予想軌跡を記憶する記憶部と、
前記記憶部において記憶した予想軌跡を前記画像生成部において生成した鳥瞰図画像に重畳して表示する表示部と、
前記表示部において表示される鳥瞰図画像に対して、予想軌跡をもとに障害物の検出領域を設定する設定部と、
前記設定部において設定した検出領域内の障害物を検出した場合に、その旨を警告する警告部と、
を備えることを特徴とする運転支援装置。
An image generation unit that generates a bird's-eye view image around the vehicle based on an image captured by at least one imaging device installed in the vehicle;
A storage unit that stores an expected trajectory of a vehicle that should correspond to the bird's-eye view image generated in the image generation unit and that moves the vehicle by operating a handle of the vehicle;
A display unit that superimposes and displays the predicted trajectory stored in the storage unit on the bird's eye view image generated in the image generation unit;
For the bird's eye view image displayed on the display unit, a setting unit that sets an obstacle detection area based on an expected trajectory;
When an obstacle in the detection area set in the setting unit is detected, a warning unit that warns that effect,
A driving support apparatus comprising:
前記設定部は、静止した障害物を検出するための第1の検出領域と、動作する障害物を検出するための第2の検出領域とを設定することを特徴とする請求項1に記載の運転支援装置。   2. The setting unit according to claim 1, wherein the setting unit sets a first detection region for detecting a stationary obstacle and a second detection region for detecting a moving obstacle. Driving assistance device.
JP2008143786A 2008-05-30 2008-05-30 Drive support device Pending JP2011161935A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008143786A JP2011161935A (en) 2008-05-30 2008-05-30 Drive support device
PCT/JP2009/002233 WO2009144893A1 (en) 2008-05-30 2009-05-21 Vehicle drive support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008143786A JP2011161935A (en) 2008-05-30 2008-05-30 Drive support device

Publications (1)

Publication Number Publication Date
JP2011161935A true JP2011161935A (en) 2011-08-25

Family

ID=44593139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008143786A Pending JP2011161935A (en) 2008-05-30 2008-05-30 Drive support device

Country Status (1)

Country Link
JP (1) JP2011161935A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150217690A1 (en) * 2012-09-21 2015-08-06 Komatsu Ltd. Working vehicle periphery monitoring system and working vehicle
JP2016175549A (en) * 2015-03-20 2016-10-06 株式会社デンソー Safety confirmation support device, safety confirmation support method
JP2017188761A (en) * 2016-04-05 2017-10-12 アルパイン株式会社 Vehicle periphery display device and vehicle periphery display method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150217690A1 (en) * 2012-09-21 2015-08-06 Komatsu Ltd. Working vehicle periphery monitoring system and working vehicle
US9796330B2 (en) * 2012-09-21 2017-10-24 Komatsu Ltd. Working vehicle periphery monitoring system and working vehicle
JP2016175549A (en) * 2015-03-20 2016-10-06 株式会社デンソー Safety confirmation support device, safety confirmation support method
JP2017188761A (en) * 2016-04-05 2017-10-12 アルパイン株式会社 Vehicle periphery display device and vehicle periphery display method

Similar Documents

Publication Publication Date Title
JP6747369B2 (en) Display control device, display control method, and program
JP5088074B2 (en) Parking support apparatus and method
JP5477515B2 (en) Parking assistance device
JP5104171B2 (en) Parking assistance device and parking assistance method
JP7069548B2 (en) Peripheral monitoring device
JP2011035729A (en) Apparatus and method for displaying vehicle-surrounding image
JP5380926B2 (en) Parking assistance device and parking assistance method
JP2005290813A (en) Parking guidance robot
WO2009144893A1 (en) Vehicle drive support device
JP2012030771A (en) Parking assistance apparatus
JP2005078414A (en) Vehicle travel support device
KR102205144B1 (en) Parking assistance method and parking assistance device
EP2003021A2 (en) Parking assistance device
JP2009298179A (en) Parking assistant device and parking assistant method
JP2019186853A (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
CN109291919B (en) Travel assist device and travel assist method
JP2010205078A (en) Parking support device
JP2018034659A (en) Parking support device
JP2010079454A (en) Driving support device
JP5009205B2 (en) Parking assistance device
JP6656359B2 (en) Parking assist display control device and parking assist display control method
JP2018118593A (en) Parking support device
JP2012023505A (en) Driving support device
JP2011161935A (en) Drive support device
JP6559083B2 (en) Parking assistance device and parking assistance method