JP2010079454A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2010079454A
JP2010079454A JP2008244959A JP2008244959A JP2010079454A JP 2010079454 A JP2010079454 A JP 2010079454A JP 2008244959 A JP2008244959 A JP 2008244959A JP 2008244959 A JP2008244959 A JP 2008244959A JP 2010079454 A JP2010079454 A JP 2010079454A
Authority
JP
Japan
Prior art keywords
vehicle
eye view
bird
view image
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008244959A
Other languages
Japanese (ja)
Inventor
Takeshi Watanabe
剛 渡邉
Noriaki Kojima
則章 児島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008244959A priority Critical patent/JP2010079454A/en
Publication of JP2010079454A publication Critical patent/JP2010079454A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide more useful information without increasing a burden on a driver when displaying a bird's-eye view image around a vehicle. <P>SOLUTION: An image generation part 30 generates the bird's-eye view image around the vehicle based on an image captured by at least one imaging device installed in the vehicle. A display device 14 displays the bird's-eye view image generated in the image generation part 30. The image generation part 30 changes composition of the bird's-eye view image displayed on the display device 14 according to a travel direction of the vehicle. The image generation part 30 can generate the bird's-eye view image wherein a picture of an area positioned in the travel direction of the vehicle is preferentially taken. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、運転支援技術に関し、特に車両に設置された撮像装置によって撮像した画像をもとに、運転を支援する運転支援装置に関する。   The present invention relates to driving support technology, and more particularly to a driving support device that supports driving based on an image captured by an imaging device installed in a vehicle.

車両周囲に設置された複数のカメラにより撮像された画像をそれぞれ鳥瞰図画像に変換し、それらの鳥瞰図画像を合成することにより、車両の全周囲を俯瞰することができる鳥瞰図画像(以下適宜、全周鳥瞰図画像という)を生成する技術が提案されている。この全周鳥瞰図画像は、運転者に有益な情報を提供することができ、運転を支援することができる。特に、駐車時、狭道走行時、車線変更時など、運転者が車両の周囲により注意を払う必要がある時に、運転者に有益な情報を提供することができる。
特開2007−288444号公報 特開2005−186648号公報
A bird's-eye view image (hereinafter referred to as an all-round view as appropriate) that converts the images captured by a plurality of cameras installed around the vehicle into bird's-eye view images and combines the bird's-eye view images. A technique for generating a bird's eye view image) has been proposed. This all-around bird's-eye view image can provide useful information to the driver and can support driving. In particular, it is possible to provide useful information to the driver when the driver needs to pay more attention to the surroundings of the vehicle, such as when parking, traveling on narrow roads, or changing lanes.
JP 2007-288444 A JP 2005-186648 A

一般に、車両が前進している場合、車両前方の情報がより重要であり、車両が後進している場合、車両後方の情報がより重要である。また一般に、運転時、運転者はハンドル操作、アクセル操作およびブレーキ操作に注力すべきであり、運転者によるそれ以外のアクションは最小限に止められることが好ましい。   In general, information on the front side of the vehicle is more important when the vehicle is moving forward, and information on the rear side of the vehicle is more important when the vehicle is moving backward. In general, during driving, the driver should focus on the steering wheel operation, the accelerator operation, and the brake operation, and other actions by the driver are preferably minimized.

本発明者はこうした状況を認識して本発明をなしたものであり、その目的は、車両周辺の鳥瞰図画像を表示する際、運転者の負担を増大させずにより有益な情報を提供することができる技術を提供することである。   The present inventor has made the present invention by recognizing such a situation, and its purpose is to provide more useful information without increasing the burden on the driver when displaying a bird's eye view image around the vehicle. It is to provide technology that can.

本発明のある態様の運転支援装置は、車両に設置された少なくともひとつの撮像装置によって撮像された画像をもとに、車両周辺の鳥瞰図画像を生成する画像生成部と、画像生成部において生成された鳥瞰図画像を表示する表示部と、を備える。画像生成部は、車両の進行方向に応じて、表示部に表示される鳥瞰図画像の構図を変更する。   A driving support device according to an aspect of the present invention is generated by an image generation unit that generates a bird's-eye view image around a vehicle based on an image captured by at least one imaging device installed in the vehicle, and an image generation unit. And a display unit for displaying a bird's eye view image. The image generation unit changes the composition of the bird's eye view image displayed on the display unit according to the traveling direction of the vehicle.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、車両周辺の鳥瞰図画像を表示する際、運転者の負担を増大させずにより有益な情報を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, when displaying the bird's-eye view image around a vehicle, more useful information can be provided without increasing the burden on the driver.

図1は、本発明の実施の形態に係る運転支援装置10を搭載した車両100の構成を示す。車両100は運転支援装置10、第1撮像装置12a、第2撮像装置12b、第3撮像装置12c、第4撮像装置12d(以下、第1撮像装置12a、第2撮像装置12b、第3撮像装置12cおよび第4撮像装置12dを総称して撮像装置12と表記する)、および表示装置14を含む。なお、車両100にはエンジン、シャーシ、ハンドル、ブレーキ等、様々な構成要素が含まれるが、ここでは省略して描いている。また、図1に示された車両100の左側が前方に相当する。   FIG. 1 shows a configuration of a vehicle 100 equipped with a driving support apparatus 10 according to an embodiment of the present invention. The vehicle 100 includes a driving support device 10, a first imaging device 12a, a second imaging device 12b, a third imaging device 12c, and a fourth imaging device 12d (hereinafter referred to as a first imaging device 12a, a second imaging device 12b, and a third imaging device). 12c and fourth imaging device 12d are collectively referred to as imaging device 12), and display device 14. The vehicle 100 includes various components such as an engine, a chassis, a steering wheel, a brake, and the like, but are omitted here. Further, the left side of the vehicle 100 shown in FIG. 1 corresponds to the front side.

撮像装置12は画像を連続的に撮像し、撮像した画像を運転支援装置10へ出力する。本明細書では、画像そのものあるいは画像のデータを区別せずに「画像」という。第1撮像装置12aと第2撮像装置12bは、車両100のフロント部分に設置され、第3撮像装置12cと第4撮像装置12dは、車両100のリア部分に設置されている。ここで、第1撮像装置12aから第4撮像装置12dは、任意の組合せにてステレオカメラを形成する。ステレオカメラとは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるようにしたカメラのことである。なお、撮像装置12の数は「4」に限定されない。   The imaging device 12 continuously captures images and outputs the captured images to the driving support device 10. In this specification, an image itself or image data is referred to as an “image” without distinction. The first imaging device 12 a and the second imaging device 12 b are installed in the front part of the vehicle 100, and the third imaging device 12 c and the fourth imaging device 12 d are installed in the rear part of the vehicle 100. Here, the first imaging device 12a to the fourth imaging device 12d form a stereo camera in an arbitrary combination. A stereo camera is a camera that can record information in the depth direction by simultaneously photographing an object from a plurality of different directions. The number of imaging devices 12 is not limited to “4”.

運転支援装置10には、第1撮像装置12a、第2撮像装置12b、第3撮像装置12cおよび第4撮像装置12dにより撮像された画像がそれぞれ入力される。運転支援装置10は、入力された画像をそれぞれ鳥瞰図画像に変換し、それらの鳥瞰図画像を合成することにより、合成鳥瞰図画像を生成する。運転支援装置10はその合成鳥瞰図画像を表示装置14に出力する。表示装置14は運転支援装置10から入力される(より具体的には、後述する画像生成部30により生成された)合成鳥瞰図画像を表示する。表示装置14は専用の端末装置であってもよいし、カーナビゲーション装置の表示部を転用したものであってもよい。また、運転支援装置10と表示装置14とが一体的に構成されてもよい。   The driving assistance device 10 receives images captured by the first imaging device 12a, the second imaging device 12b, the third imaging device 12c, and the fourth imaging device 12d. The driving support device 10 converts the input images into bird's-eye view images, and synthesizes the bird's-eye view images to generate a synthesized bird's-eye view image. The driving support device 10 outputs the synthesized bird's-eye view image to the display device 14. The display device 14 displays a composite bird's-eye view image input from the driving support device 10 (more specifically, generated by the image generation unit 30 described later). The display device 14 may be a dedicated terminal device, or a display device of a car navigation device. Further, the driving support device 10 and the display device 14 may be configured integrally.

運転支援装置10は車両周辺における障害物を検出する。運転支援装置10は障害物を検出した場合、運転者にその旨を示す警告を出力する。   The driving support device 10 detects an obstacle around the vehicle. When the driving support device 10 detects an obstacle, the driving support device 10 outputs a warning to that effect to the driver.

図2は、実施の形態1に係る運転支援装置10の構成を示す。運転支援装置10は、第1フレームバッファ20a、第2フレームバッファ20b、第3フレームバッファ20c、第4フレームバッファ20d(第1フレームバッファ20a、第2フレームバッファ20b、第3フレームバッファ20cおよび第4フレームバッファ20dを総称してフレームバッファ20と表記する)、変換テーブル記憶部24、画像生成部30および制御部40を備える。   FIG. 2 shows a configuration of the driving support apparatus 10 according to the first embodiment. The driving support device 10 includes a first frame buffer 20a, a second frame buffer 20b, a third frame buffer 20c, a fourth frame buffer 20d (a first frame buffer 20a, a second frame buffer 20b, a third frame buffer 20c, and a fourth frame buffer 20c). The frame buffer 20d is collectively referred to as a frame buffer 20), a conversion table storage unit 24, an image generation unit 30, and a control unit 40.

運転支援装置10の構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   The configuration of the driving support device 10 can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer, and in software, it is realized by a program loaded in the memory. Describes functional blocks realized by collaboration. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

第1フレームバッファ20a、第2フレームバッファ20b、第3フレームバッファ20cおよび第4フレームバッファ20dには、第1撮像装置12a、第2撮像装置12b、第3撮像装置12cおよび第4撮像装置12dにより撮像された画像がそれぞれ入力される。フレームバッファ20は、撮像装置12から入力された画像を一時的に保持し、画像生成部30に出力する。   The first frame buffer 20a, the second frame buffer 20b, the third frame buffer 20c, and the fourth frame buffer 20d are provided by the first imaging device 12a, the second imaging device 12b, the third imaging device 12c, and the fourth imaging device 12d. Each captured image is input. The frame buffer 20 temporarily holds the image input from the imaging device 12 and outputs the image to the image generation unit 30.

変換テーブル記憶部24は、撮像装置12により撮像された画像を鳥瞰図画像に変換するための変換式を記憶する。この変換式は実際に設置された撮像装置12の視点を仮想撮像装置の視点(以下、仮想視点という)から見た画像に変換するためのものである。この仮想視点の位置は設計者が任意に設定可能である。変換テーブル記憶部24は、鳥瞰変換マッピングルックアップテーブルの形式で構築されてもよい。この場合、画像変換部32はこのルックアップテーブルを参照して、フレームバッファ20から入力される画像の座標を変換する。   The conversion table storage unit 24 stores a conversion formula for converting an image captured by the imaging device 12 into a bird's eye view image. This conversion formula is for converting the viewpoint of the actually installed imaging device 12 into an image viewed from the viewpoint of the virtual imaging device (hereinafter referred to as a virtual viewpoint). The position of this virtual viewpoint can be arbitrarily set by the designer. The conversion table storage unit 24 may be constructed in the form of a bird's eye conversion mapping lookup table. In this case, the image conversion unit 32 converts the coordinates of the image input from the frame buffer 20 with reference to the lookup table.

画像生成部30は、車両100に設置された少なくともひとつの撮像装置(たとえば、第1撮像装置12a、第2撮像装置12b、第3撮像装置12cおよび第4撮像装置12d)によって撮像された画像をもとに、車両100周辺の鳥瞰図画像を生成する。この鳥瞰図画像は上記全周鳥瞰図画像であってもよい。また上述した、車両100周辺の鳥瞰図画像には車両全体が含まれる構図であることが好ましいが、必ずしも車両全体が含まれる構図でなくてもよい。すなわち、車両の一部が含まれる構図または車両が含まれない構図であってもよい。以下、画像生成部30が全周鳥瞰図画像を生成する例を説明する。   The image generation unit 30 captures an image captured by at least one imaging device (for example, the first imaging device 12a, the second imaging device 12b, the third imaging device 12c, and the fourth imaging device 12d) installed in the vehicle 100. Based on this, a bird's eye view image around the vehicle 100 is generated. This bird's-eye view image may be the all-around bird's-eye view image. In addition, the above-described bird's-eye view image around the vehicle 100 is preferably a composition including the entire vehicle, but the composition may not necessarily include the entire vehicle. That is, the composition may include a part of the vehicle or a composition that does not include the vehicle. Hereinafter, an example in which the image generation unit 30 generates the all-around bird's-eye view image will be described.

画像生成部30は、車両100の進行方向に応じて、表示装置14に表示される全周鳥瞰図画像の構図を変更する。たとえば、車両100の進行方向に位置する領域が優先的に写った鳥瞰図画像を生成する。この例では、車両100の進行方向が後ろのとき、車両100の後方の領域が優先的に写った鳥瞰図画像を生成する。上記構図の変更は制御部40の指示にしたがい行われることが可能である。   The image generation unit 30 changes the composition of the all-around bird's-eye view image displayed on the display device 14 according to the traveling direction of the vehicle 100. For example, a bird's eye view image in which a region located in the traveling direction of the vehicle 100 is preferentially captured is generated. In this example, when the traveling direction of the vehicle 100 is backward, a bird's eye view image in which a region behind the vehicle 100 is preferentially captured is generated. The composition change can be performed according to an instruction from the control unit 40.

撮像装置12から連続的に画像が運転支援装置10に入力される場合、画像生成部30は全周鳥瞰図画像を連続的に生成する。すなわち、画像生成部30は全周鳥瞰図の動画像を生成する。   When images are continuously input from the imaging device 12 to the driving support device 10, the image generation unit 30 continuously generates all-around bird's-eye view images. That is, the image generation unit 30 generates a moving image of the all-around bird's-eye view.

画像生成部30は、画像変換部32および画像合成部34を含む。画像変換部32は、第1フレームバッファ20a、第2フレームバッファ20b、第3フレームバッファ20cおよび第4フレームバッファ20dから入力されるそれぞれの画像を、変換テーブル記憶部24に保持される変換式を用いて、鳥瞰図画像にそれぞれ変換する。この変換には公知の技術、たとえば特開2008−48345号公報に開示された技術を使用することができる。   The image generation unit 30 includes an image conversion unit 32 and an image synthesis unit 34. The image conversion unit 32 converts the respective images input from the first frame buffer 20a, the second frame buffer 20b, the third frame buffer 20c, and the fourth frame buffer 20d into conversion formulas held in the conversion table storage unit 24. And converted into a bird's-eye view image. For this conversion, a known technique, for example, a technique disclosed in Japanese Patent Laid-Open No. 2008-48345 can be used.

画像合成部34は、画像変換部32により変換された複数の鳥瞰図画像を合成することにより、全周鳥瞰図画像を生成する。この全周鳥瞰図画像の生成には、公知の技術、たとえば特開2008−48345号公報に開示された技術を使用することができる。   The image synthesis unit 34 generates a full-circle bird's-eye view image by synthesizing the plurality of bird's-eye view images converted by the image conversion unit 32. A known technique, for example, a technique disclosed in Japanese Patent Application Laid-Open No. 2008-48345 can be used to generate the all-around bird's-eye view image.

制御部40は、画像生成部30を制御する。制御部40は、車両100の進行方向に応じて、表示装置14に表示される全周鳥瞰図画像の構図が変更されるよう画像生成部30を制御する。たとえば、制御部40は、車両100の進行方向に位置する領域が優先的に写った全周鳥瞰図画像が生成されるよう画像生成部30を制御する。   The control unit 40 controls the image generation unit 30. The control unit 40 controls the image generation unit 30 so that the composition of the all-around bird's-eye view image displayed on the display device 14 is changed according to the traveling direction of the vehicle 100. For example, the control unit 40 controls the image generation unit 30 such that an all-around bird's-eye view image in which a region located in the traveling direction of the vehicle 100 is preferentially captured is generated.

制御部40は車両100の進行方向を以下のようにして特定することができる。制御部40は車両100内に設置される図示しない、シフト位置センサ、舵角センサなどの各種センサ、各種機器、各種計器などから各種信号を取得することにより、特定することができる。   The control unit 40 can specify the traveling direction of the vehicle 100 as follows. The control unit 40 can be specified by acquiring various signals from various sensors (not shown) such as a shift position sensor and a steering angle sensor, various devices, various instruments, and the like that are installed in the vehicle 100.

たとえば、シフト位置センサによりシフトが後退に入ったことが検知されると、そのシフト情報が制御部40に通知され、制御部40は車両100の進行方向が後ろであることを特定することができる。また、舵角センサによりハンドルが所定の基準角以上、右に切られていることが検知されると、その舵角情報が制御部40に通知され、制御部40は車両100の進行方向が右であることを特定することができる。同様に、舵角センサによりハンドルが所定の基準角以上、左に切られていることが検知されると、その舵角情報が制御部40に通知され、制御部40は車両100の進行方向が左であることを特定することができる。これらのいずれの情報も通知されない場合、制御部40は車両100の進行方向が前であることを特定することができる。上記基準角は実験やシミュレーションによりもとづき設計者により設定されることができる。   For example, when the shift position sensor detects that the shift has moved backward, the shift information is notified to the control unit 40, and the control unit 40 can specify that the traveling direction of the vehicle 100 is backward. . When the steering angle sensor detects that the steering wheel is turned to the right by a predetermined reference angle or more, the steering angle information is notified to the control unit 40, and the control unit 40 indicates that the traveling direction of the vehicle 100 is the right Can be specified. Similarly, when the steering angle sensor detects that the steering wheel is turned to the left by a predetermined reference angle or more, the steering angle information is notified to the control unit 40, and the control unit 40 indicates the traveling direction of the vehicle 100. It can be specified that it is left. When neither of these pieces of information is notified, the control unit 40 can specify that the traveling direction of the vehicle 100 is the front. The reference angle can be set by a designer based on experiments and simulations.

なお、制御部40は舵角センサからの舵角情報を用いずに方向指示器からの方向指示情報にもとづき、車両100の進行方向が右または左であることを特定することもできる。   In addition, the control part 40 can also specify that the advancing direction of the vehicle 100 is right or left based on the direction instruction information from a direction indicator, without using the rudder angle information from a rudder angle sensor.

つぎに、車両100の進行方向に応じて、制御部40が表示装置14に表示される全周鳥瞰図画像の構図を変更するための二つの手法について説明する。第1手法は、車両の進行方向に応じて、制御部40が画像生成部30において生成される全周鳥瞰図画像のうち表示装置14に表示させる範囲を変更する手法である。   Next, two methods for changing the composition of the all-around bird's-eye view image displayed on the display device 14 according to the traveling direction of the vehicle 100 will be described. The first method is a method of changing a range to be displayed on the display device 14 in the all-around bird's-eye view image generated by the image generation unit 30 according to the traveling direction of the vehicle.

この手法では、画像生成部30は表示装置14の表示領域より大きい全周鳥瞰図画像を生成する。制御部40は車両100の進行方向に応じて、画像生成部30において生成される全周鳥瞰図画像のうち、実際に表示装置14に表示させる領域を適応的に決定する。たとえば、車両100の進行方向が後ろのとき、画像生成部30において生成される全周鳥瞰図画像のうち、下側の部分をすべて表示装置14に表示させる領域に採用し、上側の部分を表示装置14に表示させる領域に採用しない。これにより、表示装置14に車両100の後方の領域が広く表示されることになる。   In this method, the image generation unit 30 generates an all-around bird's-eye view image larger than the display area of the display device 14. The control unit 40 adaptively determines an area to be actually displayed on the display device 14 in the all-around bird's-eye view image generated by the image generation unit 30 according to the traveling direction of the vehicle 100. For example, when the traveling direction of the vehicle 100 is behind, the lower part of the all-around bird's-eye view image generated by the image generation unit 30 is used as an area to be displayed on the display device 14, and the upper part is displayed on the display device. 14 is not adopted for the area to be displayed. As a result, the area behind the vehicle 100 is displayed widely on the display device 14.

第2手法は、撮像装置12により撮像された画像を鳥瞰図画像に変換するときの、仮想視点を移動させる手法である。説明を簡略化するため、表示装置14に表示される全周鳥瞰図画像の構図には、基本、前方向重視、後方向重視、右方向重視および左方向重視の五パターンがある例を説明する。変換テーブル記憶部24はこの五パターンに対応する変換式をあらかじめ保持する。たとえば、五パターンの座標変換用のルックアップテーブルを保持する。制御部40は車両100の進行方向に応じて、いずれの変換式を使用するか画像変換部32に指定する。たとえば、車両100の進行方向が後ろのとき、制御部40は撮像装置12により撮像されたそれぞれの画像を、仮想視点が基準位置より後ろに設定された変換式をそれぞれ用いて、複数の鳥瞰図画像を生成するよう制御する。なお、画像変換部32は、仮想視点の移動に応じて、基準となる変換式を補正して使用してもよい。   The second method is a method of moving a virtual viewpoint when an image captured by the imaging device 12 is converted into a bird's eye view image. In order to simplify the description, an example will be described in which the composition of the all-around bird's-eye view image displayed on the display device 14 includes five patterns: basic, forward-oriented, backward-oriented, right-oriented, and left-oriented. The conversion table storage unit 24 holds in advance conversion expressions corresponding to these five patterns. For example, a lookup table for coordinate conversion of five patterns is held. The control unit 40 instructs the image conversion unit 32 to use which conversion formula depending on the traveling direction of the vehicle 100. For example, when the traveling direction of the vehicle 100 is rearward, the control unit 40 uses a plurality of bird's-eye view images using respective conversion images in which the virtual viewpoint is set behind the reference position. Control to generate Note that the image conversion unit 32 may correct and use the reference conversion formula according to the movement of the virtual viewpoint.

図3は、実施の形態1に係る、表示装置14に表示される全周鳥瞰図画像の例を示す。図3の説明は、実施の形態1に係る上記第1手法および上記第2手法のいずれにも該当する。   FIG. 3 shows an example of the all-around bird's-eye view image displayed on the display device 14 according to the first embodiment. The description of FIG. 3 corresponds to both the first method and the second method according to the first embodiment.

図3(a)は、車両100が停止状態で表示装置14に表示される全周鳥瞰図画像の例を示す。制御部40は表示装置14の表示領域70の中央に車両100を表示させる。これが基本となる構図である。   FIG. 3A shows an example of an all-around bird's-eye view image displayed on the display device 14 when the vehicle 100 is stopped. The control unit 40 displays the vehicle 100 in the center of the display area 70 of the display device 14. This is the basic composition.

図3(b)は、車両100が前進状態で表示装置14に表示される全周鳥瞰図画像の例を示す。制御部40は表示装置14の表示領域70の下側に車両100を表示させ、車両100の前方の領域を広く表示させる。運転者は前方の領域をより広範囲に俯瞰することができる。   FIG. 3B shows an example of an all-around bird's-eye view image displayed on the display device 14 in a state where the vehicle 100 is moving forward. The control unit 40 displays the vehicle 100 below the display area 70 of the display device 14 and displays a wide area in front of the vehicle 100. The driver can look down on the front area over a wider area.

図3(c)は、車両100が後退状態で表示装置14に表示される全周鳥瞰図画像の例を示す。制御部40は表示装置14の表示領域70の上側に車両100を表示させ、車両100の後方の領域を広く表示させる。運転者は後方の領域をより広範囲に俯瞰することができる。   FIG. 3C shows an example of an all-around bird's-eye view image displayed on the display device 14 when the vehicle 100 is in the reverse state. The control unit 40 displays the vehicle 100 above the display area 70 of the display device 14 and displays a wide area behind the vehicle 100. The driver can look down on the rear area over a wider area.

図3(d)は、車両100が左折状態で表示装置14に表示される全周鳥瞰図画像の例を示す。制御部40は表示装置14の表示領域70の右側に車両100を表示させ、車両100の左方の領域を広く表示させる。運転者は左方の領域をより広範囲に俯瞰することができる。   FIG. 3D shows an example of an all-around bird's-eye view image displayed on the display device 14 when the vehicle 100 is in a left turn state. The control unit 40 displays the vehicle 100 on the right side of the display area 70 of the display device 14 and widely displays the left area of the vehicle 100. The driver can have a broader view of the left area.

図3(e)は、車両100が右折状態で表示装置14に表示される全周鳥瞰図画像の例を示す。制御部40は表示装置14の表示領域70の左側に車両100を表示させ、車両100の右方の領域を広く表示させる。運転者は右方の領域をより広範囲に俯瞰することができる。   FIG. 3E shows an example of an all-around bird's-eye view image displayed on the display device 14 when the vehicle 100 is turned to the right. The control unit 40 displays the vehicle 100 on the left side of the display area 70 of the display device 14 and widely displays the area on the right side of the vehicle 100. The driver can have a broader view of the area on the right.

図4は、実施の形態1に係る、画像生成部30により生成される全周鳥瞰図画像72と、表示装置14の表示領域70に表示される全周鳥瞰図画像との関係を示す。図4の説明は、実施の形態1に係る上記第1手法に該当し、上記第2手法には該当しない。   FIG. 4 shows the relationship between the all-around bird's-eye view image 72 generated by the image generation unit 30 and the all-around bird's-eye view image displayed in the display area 70 of the display device 14 according to the first embodiment. The description of FIG. 4 corresponds to the first method according to Embodiment 1, and does not correspond to the second method.

図4(a)は、車両100が停止状態のときの、画像生成部30により生成される全周鳥瞰図画像72と、表示装置14の表示領域70に表示される全周鳥瞰図画像との関係を示す。制御部40は画像生成部30により生成される全周鳥瞰図画像72の中心と当該表示領域70の中心とが一致するよう、当該表示領域70を設定する。この構図は図3(a)に対応する。   FIG. 4A shows the relationship between the all-around bird's-eye view image 72 generated by the image generation unit 30 and the all-around bird's-eye view image displayed in the display area 70 of the display device 14 when the vehicle 100 is stopped. Show. The control unit 40 sets the display area 70 so that the center of the all-around bird's-eye view image 72 generated by the image generation unit 30 matches the center of the display area 70. This composition corresponds to FIG.

図4(b)は、車両100が後退状態のときの、画像生成部30により生成される全周鳥瞰図画像72と、表示装置14の表示領域70に表示される全周鳥瞰図画像との関係を示す。制御部40は当該表示領域70の中心が画像生成部30により生成される全周鳥瞰図画像72の中心より下方に位置するよう、当該表示領域70を設定する。この構図は図3(b)に対応する。   FIG. 4B shows the relationship between the all-around bird's-eye view image 72 generated by the image generation unit 30 and the all-around bird's-eye view image displayed in the display area 70 of the display device 14 when the vehicle 100 is in the reverse state. Show. The control unit 40 sets the display area 70 so that the center of the display area 70 is positioned below the center of the all-around bird's-eye view image 72 generated by the image generation unit 30. This composition corresponds to FIG.

以上説明したように実施の形態1によれば、車両100の進行方向に応じて、表示装置14に表示される鳥瞰図画像の構図が自動的に変更(たとえば、車両100の進行方向に位置する領域が広く表示されるように切り替えられる)されることにより、運転者の負担を増大させずに、より有益な情報を運転者に提供することができる。すなわち、運転者は車両100の進行方向に対してより広範囲の安全確認を行うことができる。しかも、上記構図の変更は自動的に行われるため、運転者はボタン押下などの操作を行う必要がなく、利便性および安全性が高い。   As described above, according to the first embodiment, the composition of the bird's-eye view image displayed on display device 14 is automatically changed according to the traveling direction of vehicle 100 (for example, the region located in the traveling direction of vehicle 100). Can be provided so that more useful information can be provided to the driver without increasing the driver's burden. That is, the driver can perform a wider range of safety confirmation in the traveling direction of the vehicle 100. In addition, since the composition is automatically changed, the driver does not need to perform an operation such as pressing a button, and the convenience and safety are high.

図5は、実施の形態2に係る運転支援装置10の構成を示す。実施の形態2に係る運転支援装置10は、実施の形態1に係る運転支援装置10に検知部50および警告部60が追加された構成である。以下、実施の形態1と重複する説明は適宜、省略する。   FIG. 5 shows a configuration of the driving support apparatus 10 according to the second embodiment. The driving support device 10 according to the second embodiment has a configuration in which a detection unit 50 and a warning unit 60 are added to the driving support device 10 according to the first embodiment. Hereinafter, the description overlapping with the first embodiment will be omitted as appropriate.

検知部50は撮像装置12によって撮像された画像をもとに、車両100周辺の障害物を検知する。検知部50は、表示装置14に表示される全周鳥瞰図画像の構図に応じて、上記障害物の検出領域の範囲を変更する。この検出領域の範囲の変更は制御部40の指示にしたがい行われることが可能である。   The detection unit 50 detects an obstacle around the vehicle 100 based on the image captured by the imaging device 12. The detection unit 50 changes the range of the obstacle detection area according to the composition of the all-around bird's-eye view image displayed on the display device 14. The change of the detection area range can be performed in accordance with an instruction from the control unit 40.

以下、より具体的に説明する。検知部50は静体検知部52および動体検知部54を含む。静体検知部52には、画像変換部32から変換前の、撮像装置12により撮像された画像が入力される。静体検知部52は、入力された複数の画像に対して、平面投影ステレオ法を使用することによって、それらの画像に含まれる物体の高さを特定する。平面投影ステレオ法は、視点の異なる複数の撮像装置によって撮像された複数の画像をひとつの基準平面上に投影し、それらの画像の差分から高さのある物体の領域を求めるという手法である。   More specific description will be given below. The detection unit 50 includes a static body detection unit 52 and a moving body detection unit 54. An image captured by the imaging device 12 before conversion is input from the image conversion unit 32 to the still body detection unit 52. The still body detection unit 52 specifies the heights of the objects included in these images by using the planar projection stereo method for the plurality of input images. The planar projection stereo method is a method of projecting a plurality of images captured by a plurality of imaging devices having different viewpoints onto a single reference plane, and obtaining a region of an object having a height from the difference between the images.

平面投影ステレオ法は公知の技術であるため、ここではその詳細な説明を省略する。静体検知部52は、第1検出範囲において、物体の高さがしきい値より高い場合に、静体を検出したと判定する。制御部40は、表示装置14に表示される鳥瞰図画像の構図に応じて、第1検出領域の範囲を変更する。たとえば、制御部40は画像生成部30において生成される全周鳥瞰図画像のうち、実際に表示装置14に表示させる領域と第1検出範囲とを一致または略一致させる。   Since the planar projection stereo method is a known technique, a detailed description thereof is omitted here. The still body detection unit 52 determines that a still body has been detected when the height of the object is higher than the threshold value in the first detection range. The control unit 40 changes the range of the first detection area according to the composition of the bird's eye view image displayed on the display device 14. For example, the control unit 40 causes the first detection range to match or substantially match the region actually displayed on the display device 14 in the all-around bird's-eye view image generated by the image generation unit 30.

なお、必ずしもその領域の大きさと第1検出範囲の大きさは一致する必要はなく、その領域と第1検出範囲とが一定の関係を保つように、制御部40は、その領域の移動に連動させて第1検出範囲を移動させる。たとえば、その領域の重心と第1検出範囲の重心とが常に一致するように第1検出範囲を移動させる。   Note that the size of the area does not necessarily match the size of the first detection range, and the control unit 40 interlocks with the movement of the area so that the area and the first detection range maintain a certain relationship. To move the first detection range. For example, the first detection range is moved so that the center of gravity of the region always matches the center of gravity of the first detection range.

静体検知部52は、静体を検出した場合にその旨を警告部60へ出力する。また、表示装置14に表示される全周鳥瞰図画像に写るべき当該静体を強調して表示させるべく、その静体の位置情報を表示装置14に出力してもよい。なお、静体検知部52による静体検知処理は、衝突回避可能性を考慮し、第1検出範囲内にて検出される静体との衝突回避が不可能な速度を超えると自動的に終了されるように設定されていてもよい。   When the static body detection unit 52 detects a static body, it outputs a message to that effect to the warning unit 60. In addition, the position information of the still body may be output to the display device 14 so that the still body to be captured in the all-around bird's-eye view image displayed on the display device 14 is highlighted. Note that the still body detection process by the still body detection unit 52 is automatically terminated when the collision avoidance with the still body detected within the first detection range is exceeded, considering the possibility of collision avoidance. It may be set to be.

動体検知部54には、画像変換部32から変換後のそれぞれの鳥瞰図画像が連続的に入力される。動体検知部54は、連続的に入力されるそれぞれの鳥瞰図画像をもとに、第2検出範囲において動体の存在を検出する。動体の検出には、オプティカルフローが使用される。オプティカルフローとは、動物体解析の手法のひとつであり、全周鳥瞰図画像中の輝度情報から動きを解析し、速度ベクトルによって動体の運動を表す技術である。このようなオプティカルフローの検出は、公知の技術であるため、ここではその詳細な説明を省略する。制御部40は、表示装置14に表示される鳥瞰図画像の構図に応じて、第2検出領域の範囲を変更する。たとえば、制御部40は、画像生成部30において生成される全周鳥瞰図画像のうち、実際に表示装置14に表示させる領域と第2検出範囲とを一致または略一致させる。   Respective bird's eye view images after conversion are continuously input from the image conversion unit 32 to the moving body detection unit 54. The moving object detection unit 54 detects the presence of a moving object in the second detection range based on each bird's eye view image input continuously. Optical flow is used to detect moving objects. Optical flow is one of the methods for analyzing moving objects, and is a technique for analyzing the motion from the luminance information in the all-around bird's-eye view image and expressing the motion of the moving object by the velocity vector. Since detection of such an optical flow is a known technique, a detailed description thereof is omitted here. The control unit 40 changes the range of the second detection area according to the composition of the bird's eye view image displayed on the display device 14. For example, the control unit 40 matches or substantially matches the region actually displayed on the display device 14 and the second detection range in the all-around bird's-eye view image generated by the image generation unit 30.

なお、必ずしもその領域の大きさと第2検出範囲の大きさは一致する必要はなく、その領域と第2検出範囲とが一定の関係を保つように、制御部40は、その領域の移動に連動させて第2検出範囲を移動させる。なお、第1検出範囲の大きさと第2検出範囲の大きさも異なっていてもよい。たとえば、子供の飛び出しなどがより広範囲に検出されるべく、後者のほうが広く設定されてもよい。   Note that the size of the area does not necessarily need to match the size of the second detection range, and the control unit 40 interlocks with the movement of the area so that the area and the second detection range maintain a certain relationship. To move the second detection range. The size of the first detection range and the size of the second detection range may be different. For example, the latter may be set more widely so that the jumping out of a child can be detected in a wider range.

動体検知部54は、動体を検出した場合にその旨を警告部60に出力する。また、表示装置14に表示される全周鳥瞰図画像に写るべき当該動体を強調して表示させるべく、その動体の位置情報を表示装置14に出力してもよい。なお、動体検知部54による動体検知処理も、衝突回避可能性を考慮し、第2検出範囲内にて検出される動体との衝突回避が不可能な速度を超えると自動的に終了されるように設定されていてもよい。   When the moving object detection unit 54 detects a moving object, the moving object detection unit 54 outputs the fact to the warning unit 60. Further, the position information of the moving object may be output to the display device 14 so that the moving object to be displayed in the all-around bird's-eye view image displayed on the display device 14 is highlighted. Note that the moving object detection process by the moving object detection unit 54 is also automatically terminated when the collision avoidance with the moving object detected within the second detection range is exceeded in consideration of the possibility of collision avoidance. May be set.

警告部60は、静体検知部52により静体が検出された場合、または動体検知部54により動体が検出された場合、その旨の音声メッセージまたは警告音を外部に出力する。   When the still body is detected by the still body detection unit 52 or when the moving body detection unit 54 detects a moving body, the warning unit 60 outputs a voice message or a warning sound to that effect to the outside.

図6は、実施の形態2に係る、画像生成部30により生成される全周鳥瞰図画像72と、第2検出範囲80との関係を示す。図6(a)は、車両100が停止状態のときの、画像生成部30により生成される全周鳥瞰図画像72と、第2検出範囲80との関係を示す。ここでは、制御部40は画像生成部30により生成される全周鳥瞰図画像72のうち、実際に表示装置14に表示させる表示領域70と、第2検出範囲80とを一致させている。車両100が停止状態では、制御部40は全周鳥瞰図画像72の中心と第2検出範囲80の中心とが一致するよう、第2検出範囲80を設定する。図6(a)では、第2動体(サッカーボール)84は第2検出範囲80内にあるため、動体検知部54により検出されるが、第1動体(サッカーボール)82は第2検出範囲80外にあるため、動体検知部54により検出されない。   FIG. 6 shows a relationship between the all-around bird's-eye view image 72 generated by the image generation unit 30 and the second detection range 80 according to the second embodiment. FIG. 6A shows a relationship between the all-around bird's-eye view image 72 generated by the image generation unit 30 and the second detection range 80 when the vehicle 100 is in a stopped state. Here, the control unit 40 matches the display area 70 actually displayed on the display device 14 and the second detection range 80 in the all-around bird's-eye view image 72 generated by the image generation unit 30. When the vehicle 100 is in a stopped state, the control unit 40 sets the second detection range 80 so that the center of the all-around bird's-eye view image 72 and the center of the second detection range 80 coincide. In FIG. 6A, since the second moving body (soccer ball) 84 is in the second detection range 80, it is detected by the moving body detection unit 54, but the first moving body (soccer ball) 82 is detected in the second detection range 80. Since it is outside, it is not detected by the moving body detection unit 54.

図6(b)は、車両100が後退状態のときの、画像生成部30により生成される全周鳥瞰図画像72と、第2検出範囲80との関係を示す。車両100が後退状態では、制御部40は第2検出範囲80の中心が全周鳥瞰図画像72の中心より下方に位置するよう、第2検出範囲80を設定する。図6(b)では、第1動体82も第2検出範囲80内にあるようになるため、動体検知部54により検出される。   FIG. 6B shows a relationship between the all-around bird's-eye view image 72 generated by the image generation unit 30 and the second detection range 80 when the vehicle 100 is in the reverse state. When the vehicle 100 is in the reverse state, the control unit 40 sets the second detection range 80 so that the center of the second detection range 80 is located below the center of the all-around bird's-eye view image 72. In FIG. 6B, the first moving body 82 is also within the second detection range 80, and thus is detected by the moving body detection unit 54.

以上説明したように実施の形態2によれば、車両100の進行方向に応じて、障害物の検出範囲を変更することにより、障害物の検出処理に必要な演算量を抑制しながら、より有益な障害物検知情報を運転者に提供することができる。すなわち、車両100の進行方向に存在する障害物のほうが、他の方向に存在する障害物より衝突の可能性が高いため、車両100の進行方向に存在する障害物の発見を優先させることにより、障害物の検出処理をより効率化することができる。   As described above, according to the second embodiment, the obstacle detection range is changed in accordance with the traveling direction of the vehicle 100, thereby reducing the amount of calculation required for the obstacle detection process and more beneficial. Obstacle detection information can be provided to the driver. That is, the obstacle present in the traveling direction of the vehicle 100 has a higher possibility of collision than the obstacle present in the other direction. Therefore, priority is given to finding the obstacle present in the traveling direction of the vehicle 100. The obstacle detection process can be made more efficient.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

図7は、実施の形態1に係る運転支援装置10の変形例を示す。変形例に係る運転支援装置10は、実施の形態1に係る運転支援装置10に動き検出部42が追加された構成である。動き検出部42は、画像変換部32から鳥瞰図画像を取得し、その鳥瞰図画像内の車両100の動きを検出する。たとえば、動き検出部42はその鳥瞰図画像内の車両100に複数の特徴点を設定し、その特徴点のオプティカルフローを検出することにより、車両100の進行方向を検出する。動き検出部42は検出した車両100の動きを動き情報として制御部40に出力する。   FIG. 7 shows a modification of the driving support apparatus 10 according to the first embodiment. The driving support device 10 according to the modification has a configuration in which a motion detection unit 42 is added to the driving support device 10 according to the first embodiment. The motion detection unit 42 acquires the bird's eye view image from the image conversion unit 32 and detects the movement of the vehicle 100 in the bird's eye view image. For example, the motion detection unit 42 detects a traveling direction of the vehicle 100 by setting a plurality of feature points on the vehicle 100 in the bird's eye view image and detecting an optical flow of the feature points. The motion detector 42 outputs the detected motion of the vehicle 100 to the controller 40 as motion information.

実施の形態1では、制御部40は車両100の進行方向を、シフト位置センサからシフト情報を、蛇角センサから蛇角情報を取得することにより特定した。変形例では、制御部40は車両100の進行方向を動き検出部42から動き情報として取得する。この変形例によれば、運転支援装置10と車両100内の各種センサ、各種機器、各種計器類などとを接続する必要がなく、車両100内への運転支援装置10の設置が容易である。また、車両100内の配線の増大を抑制することができる。   In the first embodiment, the control unit 40 specifies the traveling direction of the vehicle 100 by acquiring shift information from the shift position sensor and snake angle information from the snake angle sensor. In the modified example, the control unit 40 acquires the traveling direction of the vehicle 100 from the motion detection unit 42 as motion information. According to this modification, it is not necessary to connect the driving support device 10 to various sensors, various devices, various instruments, and the like in the vehicle 100, and the driving support device 10 can be easily installed in the vehicle 100. Moreover, the increase in the wiring in the vehicle 100 can be suppressed.

実施の形態1では車両100の進行方向に応じて、基本、前方向重視、後方向重視、右方向重視および左方向重視の五パターンの構図の間で切り替える例を説明した。この点、それらに加えて、前右方向重視、前左方向重視、後右方向重視および後左方向重視を加えた九パターンの構図の間で切り替えてもよい。さらに、それより多いパターンの構図の間で切り替えてもよい。   In the first embodiment, according to the traveling direction of the vehicle 100, the example of switching between the five patterns of the basic, forward-oriented, backward-oriented, right-oriented, and left-oriented importance has been described. In this regard, in addition to these, it is also possible to switch between nine patterns of composition in which front right direction emphasis, front left direction emphasis, rear right direction emphasis and rear left direction emphasis are added. Furthermore, you may switch between the composition of more patterns.

実施の形態1、2に係る運転支援方法は、それぞれが個別に実施されてもよいし、組み合わせられて実施されてもよい。   The driving support methods according to the first and second embodiments may be implemented individually or in combination.

本発明の実施の形態に係る運転支援装置を搭載した車両の構成を示す図である。It is a figure which shows the structure of the vehicle carrying the driving assistance device which concerns on embodiment of this invention. 実施の形態1に係る運転支援装置の構成を示す図である。It is a figure which shows the structure of the driving assistance device which concerns on Embodiment 1. FIG. 実施の形態1に係る、表示装置に表示される全周鳥瞰図画像の例を示す図である。図3(a)は、車両が停止状態で表示装置に表示される全周鳥瞰図画像の例を示す。図3(b)は、車両が前進状態で表示装置に表示される全周鳥瞰図画像の例を示す。図3(c)は、車両が後退状態で表示装置に表示される全周鳥瞰図画像の例を示す。図3(d)は、車両が左折状態で表示装置に表示される全周鳥瞰図画像の例を示す。図3(e)は、車両が右折状態で表示装置に表示される全周鳥瞰図画像の例を示す。6 is a diagram illustrating an example of an all-around bird's-eye view image displayed on the display device according to Embodiment 1. FIG. FIG. 3A shows an example of the all-around bird's-eye view image displayed on the display device when the vehicle is stopped. FIG. 3B shows an example of the all-around bird's-eye view image displayed on the display device while the vehicle is moving forward. FIG. 3C shows an example of the all-around bird's-eye view image displayed on the display device when the vehicle is in the reverse state. FIG. 3D shows an example of the all-around bird's-eye view image displayed on the display device when the vehicle is turning left. FIG. 3E shows an example of an all-around bird's-eye view image displayed on the display device when the vehicle is turning right. 実施の形態1に係る、画像生成部により生成される全周鳥瞰図画像と、表示装置の表示領域に表示される全周鳥瞰図画像との関係を示す図である。図4(a)は、車両が停止状態のときの、画像生成部により生成される全周鳥瞰図画像と、表示装置の表示領域に表示される全周鳥瞰図画像との関係を示す。図4(b)は、車両が後退状態のときの、画像生成部により生成される全周鳥瞰図画像と、表示装置の表示領域に表示される全周鳥瞰図画像との関係を示す。It is a figure which shows the relationship between the all-around bird's-eye view image produced | generated by the image generation part based on Embodiment 1, and the all-around bird's-eye view image displayed on the display area of a display apparatus. FIG. 4A shows the relationship between the all-around bird's-eye view image generated by the image generation unit and the all-around bird's-eye view image displayed in the display area of the display device when the vehicle is stopped. FIG. 4B shows the relationship between the all-around bird's-eye view image generated by the image generation unit and the all-around bird's-eye view image displayed in the display area of the display device when the vehicle is in the reverse state. 実施の形態2に係る運転支援装置の構成を示す図である。It is a figure which shows the structure of the driving assistance device which concerns on Embodiment 2. FIG. 実施の形態2に係る、画像生成部により生成される全周鳥瞰図画像と、第2検出範囲との関係を示す図である。図6(a)は、車両が停止状態のときの、画像生成部により生成される全周鳥瞰図画像と、第2検出範囲との関係を示す。図6(b)は、車両が後退状態のときの、画像生成部により生成される全周鳥瞰図画像と、第2検出範囲との関係を示す。It is a figure which shows the relationship between the all-around bird's-eye view image produced | generated by the image generation part based on Embodiment 2, and the 2nd detection range. FIG. 6A shows the relationship between the all-around bird's-eye view image generated by the image generation unit and the second detection range when the vehicle is stopped. FIG. 6B shows a relationship between the all-around bird's-eye view image generated by the image generation unit and the second detection range when the vehicle is in the reverse state. 実施の形態1に係る運転支援装置の変形例を示す図である。It is a figure which shows the modification of the driving assistance device which concerns on Embodiment 1. FIG.

符号の説明Explanation of symbols

10 運転支援装置、 12 撮像装置、 14 表示装置、 20 フレームバッファ、 24 変換テーブル記憶部、 30 画像生成部、 32 画像変換部、 34 画像合成部、 40 制御部、 42 動き検出部、 50 検知部、 52 静体検知部、 54 動体検知部、 60 警告部、 100 車両。   DESCRIPTION OF SYMBOLS 10 Driving assistance apparatus, 12 Imaging device, 14 Display apparatus, 20 Frame buffer, 24 Conversion table memory | storage part, 30 Image generation part, 32 Image conversion part, 34 Image composition part, 40 Control part, 42 Motion detection part, 50 Detection part , 52 still body detection unit, 54 moving body detection unit, 60 warning unit, 100 vehicle.

Claims (5)

車両に設置された少なくともひとつの撮像装置によって撮像された画像をもとに、車両周辺の鳥瞰図画像を生成する画像生成部と、
前記画像生成部において生成された鳥瞰図画像を表示する表示部と、を備え、
前記画像生成部は、車両の進行方向に応じて、前記表示部に表示される鳥瞰図画像の構図を変更することを特徴とする運転支援装置。
An image generation unit that generates a bird's-eye view image around the vehicle based on an image captured by at least one imaging device installed in the vehicle;
A display unit for displaying the bird's eye view image generated in the image generation unit,
The driving support apparatus, wherein the image generation unit changes a composition of a bird's eye view image displayed on the display unit according to a traveling direction of a vehicle.
前記画像生成部は、車両の進行方向に位置する領域が優先的に写った鳥瞰図画像を生成することを特徴とする請求項1に記載の運転支援装置。   The driving support apparatus according to claim 1, wherein the image generation unit generates a bird's eye view image in which a region located in the traveling direction of the vehicle is preferentially reflected. 前記画像生成部は、車両の進行方向が後ろのとき、車両の後方の領域が優先的に写った鳥瞰図画像を生成することを特徴とする請求項2に記載の運転支援装置。   The driving support device according to claim 2, wherein the image generation unit generates a bird's eye view image in which a region behind the vehicle is preferentially reflected when the traveling direction of the vehicle is backward. 前記画像生成部を制御する制御部をさらに備え、
前記画像生成部は、前記表示部の表示領域より大きい鳥瞰図画像を生成し、
前記制御部は、車両の進行方向に応じて、前記鳥瞰図画像のうち前記表示部に表示させる範囲を変更することを特徴とする請求項1から3のいずれかに記載の運転支援装置。
A control unit for controlling the image generation unit;
The image generation unit generates a bird's eye view image larger than the display area of the display unit,
The driving support device according to any one of claims 1 to 3, wherein the control unit changes a range to be displayed on the display unit in the bird's eye view image according to a traveling direction of the vehicle.
前記撮像装置によって撮像された画像をもとに、車両周辺の障害物を検知する検知部をさらに備え、
前記検知部は、前記表示部に表示される鳥瞰図画像の構図に応じて、前記障害物の検出領域の範囲を変更することを特徴とする請求項1から4のいずれかに記載の運転支援装置。
Based on the image captured by the imaging device, further comprising a detection unit for detecting obstacles around the vehicle,
5. The driving support device according to claim 1, wherein the detection unit changes a range of a detection area of the obstacle according to a composition of a bird's eye view image displayed on the display unit. .
JP2008244959A 2008-09-24 2008-09-24 Driving support device Pending JP2010079454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008244959A JP2010079454A (en) 2008-09-24 2008-09-24 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008244959A JP2010079454A (en) 2008-09-24 2008-09-24 Driving support device

Publications (1)

Publication Number Publication Date
JP2010079454A true JP2010079454A (en) 2010-04-08

Family

ID=42209847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008244959A Pending JP2010079454A (en) 2008-09-24 2008-09-24 Driving support device

Country Status (1)

Country Link
JP (1) JP2010079454A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012091758A (en) * 2010-10-29 2012-05-17 Denso Corp Display device for vehicle
EP2481636A1 (en) * 2011-01-28 2012-08-01 Nxp B.V. Parking assistance system and method
JP2014106740A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle parking frame recognizing device
JP2017114237A (en) * 2015-12-22 2017-06-29 株式会社Jvcケンウッド Bird's-eye video generation device, bird's-eye video generation system, bird's-eye video generation method and program
JP2017143482A (en) * 2016-02-12 2017-08-17 トヨタ自動車株式会社 Image display device for vehicle
US10549693B2 (en) 2015-12-22 2020-02-04 JVC Kenwood Corporation Bird's-eye view video generation device, bird's-eye view video generation system, bird's-eye view video generation method and program
WO2022202780A1 (en) * 2021-03-24 2022-09-29 いすゞ自動車株式会社 Display control device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012091758A (en) * 2010-10-29 2012-05-17 Denso Corp Display device for vehicle
EP2481636A1 (en) * 2011-01-28 2012-08-01 Nxp B.V. Parking assistance system and method
JP2014106740A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle parking frame recognizing device
JP2017114237A (en) * 2015-12-22 2017-06-29 株式会社Jvcケンウッド Bird's-eye video generation device, bird's-eye video generation system, bird's-eye video generation method and program
US10549693B2 (en) 2015-12-22 2020-02-04 JVC Kenwood Corporation Bird's-eye view video generation device, bird's-eye view video generation system, bird's-eye view video generation method and program
JP2017143482A (en) * 2016-02-12 2017-08-17 トヨタ自動車株式会社 Image display device for vehicle
WO2022202780A1 (en) * 2021-03-24 2022-09-29 いすゞ自動車株式会社 Display control device
JP7452479B2 (en) 2021-03-24 2024-03-19 いすゞ自動車株式会社 display control device

Similar Documents

Publication Publication Date Title
JP6388267B2 (en) Driving assistance device
JP2010079454A (en) Driving support device
JP7222254B2 (en) Peripheral display controller
JP2018122757A (en) Parking assisting-device
JP2011035729A (en) Apparatus and method for displaying vehicle-surrounding image
JP2007325166A (en) Parking support program, parking supporting apparatus, and parking supporting screen
JP2008308076A (en) Display system, and program
JP2007158426A (en) Vehicle periphery image display device
KR101844476B1 (en) Automobile camera module and method of Guiding Parking
JP7251120B2 (en) Information providing system, server, in-vehicle device, program and information providing method
JP2007237785A (en) On-vehicle information presentation system
JP6876236B2 (en) Display control device
JP2019064431A (en) Parking support device
JP2010079455A (en) Driving support device
JP2008148114A (en) Drive assisting device
JP2010183234A (en) Drawing apparatus
JP2018074286A (en) Driving support device
WO2006046715A1 (en) Entertainment system
JPWO2017179206A1 (en) Parking assistance display control apparatus and parking assistance display control method
JP2014004931A (en) Parking support device, parking support method, and parking support program
WO2016072019A1 (en) Display control device
JP2011211432A (en) In-vehicle imaging apparatus
JP2009124377A (en) Vehicle periphery image processing apparatus and vehicle perimeter status presentation method
JP2007088577A (en) Vehicle surrounding image processing system
JP2012166689A (en) Driving assistance apparatus