JP5294562B2 - Vehicle periphery monitoring device and display method thereof - Google Patents

Vehicle periphery monitoring device and display method thereof Download PDF

Info

Publication number
JP5294562B2
JP5294562B2 JP2007008941A JP2007008941A JP5294562B2 JP 5294562 B2 JP5294562 B2 JP 5294562B2 JP 2007008941 A JP2007008941 A JP 2007008941A JP 2007008941 A JP2007008941 A JP 2007008941A JP 5294562 B2 JP5294562 B2 JP 5294562B2
Authority
JP
Japan
Prior art keywords
vehicle
display area
display
periphery monitoring
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007008941A
Other languages
Japanese (ja)
Other versions
JP2008174076A (en
Inventor
幸夫 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2007008941A priority Critical patent/JP5294562B2/en
Publication of JP2008174076A publication Critical patent/JP2008174076A/en
Application granted granted Critical
Publication of JP5294562B2 publication Critical patent/JP5294562B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

本発明は、車両周辺を監視するための技術に関する。   The present invention relates to a technique for monitoring the periphery of a vehicle.

車両に搭載したカメラにより車両周辺の画像を取得し、取得した画像を表示装置に表示することで、車両周辺の監視を可能とする装置がある(特許文献1等参照)。   There is an apparatus that enables monitoring of the periphery of a vehicle by acquiring an image around the vehicle with a camera mounted on the vehicle and displaying the acquired image on a display device (see Patent Document 1, for example).

特開2006−298217号公報JP 2006-298217 A

しかし、単に撮像画像を表示するのみでは、車両に近づく障害物があっても、それが鮮明に表示されるとは限らず、ユーザはその存在に気がつかない場合がある。   However, simply displaying a captured image does not always display an obstacle close to the vehicle, and the user may not be aware of its presence.

本発明は、上記課題を解決すべくなされたものであり、ユーザに車両周辺の物体の存在をより確実に認識させるため技術を提供することを目的とする。   The present invention has been made to solve the above problems, and an object of the present invention is to provide a technique for allowing a user to more reliably recognize the presence of an object around a vehicle.

上記課題を解決すべく、本発明は、撮像画像に基づいて進入物を検知して、その旨を知らせる表示を行う。   In order to solve the above-described problems, the present invention detects an entering object based on a captured image and performs a display notifying the detection.

例えば、本発明は、車両周辺監視装置であって、車両に搭載された複数のカメラから前記車両の周辺の複数の撮像範囲における撮像画像を取得する撮像画像取得手段と、前記撮像画像ごとの経時変化に基づいて、当該撮像画像の撮像範囲への進入物の存在を判定する進入物判定手段と、表示装置の画面上に、第1の表示エリアと、当該第1の表示エリアの周囲に配された第2の表示エリアとを設け、前記第1の表示エリアには、車両位置に相当する位置を中心にして、対応する位置に、前記複数の撮像範囲における撮像画像を表示し、前記第2の表示エリアには、前記進入物判定手段で進入物が存在すると判定された場合に、当該進入物の存在が判定された撮像画像を表示する前記第1の表示エリア中の前記進入物の位置に応じた前記第2の表示エリア中の位置に、進入物の存在を表示する表示手段とを備える
For example, the present invention is a vehicle periphery monitoring device, and includes a captured image acquisition unit that acquires captured images in a plurality of imaging ranges around the vehicle from a plurality of cameras mounted on the vehicle, and a time-lapse for each captured image. On the basis of the change, an intruding object determining means for determining the presence of an intruding object in the imaging range of the captured image, a first display area on the screen of the display device, and an area around the first display area. The second display area is provided, and in the first display area, captured images in the plurality of imaging ranges are displayed at corresponding positions around a position corresponding to a vehicle position, In the display area 2, when it is determined that the entry object is present by the entry object determination means, the captured image in which the existence of the entry object is determined is displayed, and the entry object in the first display area is displayed. The second according to the position The position in the shown area, and a display means for displaying the presence of the intruding object.

以下に、本発明の一実施形態について、図面を参照して説明する。   An embodiment of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態が適用された車両周辺監視装置1の概略構成図である。図示するように、車両に搭載される車両周辺監視装置1は、制御装置10と、カメラ20と、入力装置30と、表示装置40と、音声出力装置50、現在位置算出装置60とを備えて構成される。   FIG. 1 is a schematic configuration diagram of a vehicle periphery monitoring device 1 to which an embodiment of the present invention is applied. As shown in the figure, the vehicle periphery monitoring device 1 mounted on a vehicle includes a control device 10, a camera 20, an input device 30, a display device 40, an audio output device 50, and a current position calculation device 60. Composed.

カメラ20は、車両周辺(近傍)の画像を取得するための撮像装置である。図2(a)、(b)、(c)、(d)、及び(e)は、車両を、前面、右側面、上面、左側面、背面からみた様子を示す。図示すように、カメラ20は、車両500の前後左右に搭載された4台の小型カメラ20F、20B、20L、20Rからなる。それぞれのカメラ20F、20B、20L、20Rは、やや下を向いており、車両の前方、後方、左側方向、右側方向の地上面を撮像する。カメラ20は、台座の回転により撮像範囲の変更が可能である。台座の回転は、モータにより行われ、後述するカメラ制御部12で制御される。   The camera 20 is an imaging device for obtaining an image around (near) the vehicle. 2 (a), (b), (c), (d), and (e) show the vehicle as viewed from the front, right side, top, left side, and back. As illustrated, the camera 20 includes four small cameras 20F, 20B, 20L, and 20R mounted on the front, rear, left, and right of the vehicle 500. Each of the cameras 20F, 20B, 20L, and 20R faces slightly downward, and images the ground surface in the front, rear, left side, and right side of the vehicle. The camera 20 can change the imaging range by rotating the pedestal. The rotation of the pedestal is performed by a motor and controlled by a camera control unit 12 described later.

図1に戻って説明する。入力装置30は、ユーザからの指示を受け付けるための装置であり、タッチパネルやハードスイッチなどで構成される。   Returning to FIG. The input device 30 is a device for receiving an instruction from a user, and includes a touch panel, a hard switch, and the like.

表示装置40は、液晶表示装置などからなり、制御装置10で生成されたグラフィックス情報を表示するユニットである。   The display device 40 includes a liquid crystal display device and the like, and is a unit that displays graphics information generated by the control device 10.

音声出力装置50は、スピーカなどからなり、制御装置10で生成された音声情報を出力するユニットである。   The audio output device 50 is a unit that includes a speaker or the like and outputs audio information generated by the control device 10.

現在位置算出装置60は、現在位置を算出するための装置であり、車速センサ、ジャイロセンサ、GPS(Global Positioning System)受信装置などからなる。   The current position calculating device 60 is a device for calculating the current position, and includes a vehicle speed sensor, a gyro sensor, a GPS (Global Positioning System) receiving device, and the like.

制御装置10は、他の装置(カメラ20、入力装置30、表示装置40、音声出力装置50、現在位置算出装置60など)を制御するための装置である。制御装置10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、他の装置(カメラ20、入力装置30、表示装置40、音声出力装置50、現在位置算出装置60など)とのインターフェース、これらを接続するバス、などからなる汎用的なコンピュータシステムにより構成される。   The control device 10 is a device for controlling other devices (camera 20, input device 30, display device 40, audio output device 50, current position calculation device 60, and the like). The control device 10 includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), other devices (camera 20, input device 30, display device 40, audio output device 50, current position calculation device). 60), and a general-purpose computer system including a bus for connecting them.

制御装置10は、その機能部として、主制御部11と、カメラ制御部12と、カメラ画像処理部13と、入力内容解析部14と、表示処理部15と、音声処理部16と、車両状態取得部17と、を備える。これらの機能部は、CPUがメモリにロードした所定のプログラムを実行することにより達成される。そのため、ROMには、各処理を行うためのプログラムが記憶されている。   The control device 10 includes, as its functional units, a main control unit 11, a camera control unit 12, a camera image processing unit 13, an input content analysis unit 14, a display processing unit 15, a voice processing unit 16, and a vehicle state. An acquisition unit 17. These functional units are achieved by executing a predetermined program loaded into the memory by the CPU. Therefore, a program for performing each process is stored in the ROM.

主制御部11は、様々な処理を行う中心的ユニットである。例えば、カメラ制御部12に、カメラ20の制御を指示する。また、カメラ画像処理部13に、カメラ20で撮像した画像を取得するように指示したり、取得した画像を、地上面に投影した画像(「地上投影画像」という)に変換するように指示したりする。また、入力内容解析部14を介してユーザからの要求を受け付け、受け付けた要求に対応する処理が実行されるように、各機能部を制御する。また、表示処理部15を介して、表示装置40に、画像の表示を行う。また、音声処理部16を介して、音声出力装置50から、音声の出力を行う。   The main control unit 11 is a central unit that performs various processes. For example, the camera control unit 12 is instructed to control the camera 20. In addition, the camera image processing unit 13 is instructed to acquire an image captured by the camera 20, or the acquired image is converted to an image projected on the ground surface (referred to as a “ground projection image”). Or In addition, a request from the user is received via the input content analysis unit 14, and each functional unit is controlled so that processing corresponding to the received request is executed. In addition, an image is displayed on the display device 40 via the display processing unit 15. In addition, audio is output from the audio output device 50 via the audio processing unit 16.

カメラ制御部12は、各カメラ20の動作を制御する。例えは、各カメラ20の撮像の開始・終了タイミングや、撮像範囲を設定する。また、撮像した画像のカメラ画像処理部13への送信を制御する。また、各カメラ20の撮像範囲を特定するための情報として、各カメラ20の視点位置及び撮像方向を、カメラ画像処理部13に送る。なお、カメラ制御部12は、車両を基準とした各カメラ20の設置位置を予め記憶している。カメラ20の向きを変更した場合は、変更した角度に基づいて、視点位置及び撮像方向を算出し直す。   The camera control unit 12 controls the operation of each camera 20. For example, the start / end timing of imaging of each camera 20 and the imaging range are set. In addition, transmission of the captured image to the camera image processing unit 13 is controlled. Further, the viewpoint position and the imaging direction of each camera 20 are sent to the camera image processing unit 13 as information for specifying the imaging range of each camera 20. The camera control unit 12 stores in advance the installation positions of the cameras 20 with respect to the vehicle. When the orientation of the camera 20 is changed, the viewpoint position and the imaging direction are recalculated based on the changed angle.

カメラ画像処理部13は、各カメラ20で撮像した画像を、画像データとして取得する。また、各カメラ20の撮像範囲を特定する情報(視点位置、撮像方向)に基づいて、取得した画像を、公知の方法により、地上投影画像に変換する。   The camera image processing unit 13 acquires an image captured by each camera 20 as image data. Further, the acquired image is converted into a ground projection image by a known method based on information (viewpoint position, imaging direction) specifying the imaging range of each camera 20.

図3は、地上投影画像の生成の方法を説明するための図である。カメラ画像処理部13は、カメラ制御部12から、各カメラ20の視点Pの位置(車両内の所定位置を原点とする三次元空間における座標位置)と視線方向Kを取得している。撮像方向Kは、撮像画像510の中心と垂直に交わる。また、カメラの視点Pから撮像画像510までの距離は、予め定められている。カメラ画像処理部13は、撮像画像510を、カメラ20の視点Pの位置から撮像方向Kに向けて、地上面520に投影し、地上投影画像530を生成する。こうして生成される地上投影画像530は、車両の上空から車両周辺を鳥瞰したような画像となる。   FIG. 3 is a diagram for explaining a method of generating a ground projection image. The camera image processing unit 13 acquires the position of the viewpoint P of each camera 20 (coordinate position in a three-dimensional space with a predetermined position in the vehicle as the origin) and the line-of-sight direction K from the camera control unit 12. The imaging direction K intersects the center of the captured image 510 perpendicularly. The distance from the camera viewpoint P to the captured image 510 is determined in advance. The camera image processing unit 13 projects the captured image 510 on the ground surface 520 from the position of the viewpoint P of the camera 20 in the imaging direction K, and generates a ground projection image 530. The ground projection image 530 generated in this way is an image that looks like a bird's-eye view of the vehicle periphery from above the vehicle.

図1に戻って説明する。入力内容解析部14は、入力装置30を介して入力されたユーザからの要求を解析し、その結果を主制御部11に送る。   Returning to FIG. The input content analysis unit 14 analyzes a request from the user input via the input device 30 and sends the result to the main control unit 11.

表示処理部15は、表示装置40に、ユーザからの指示を受け付けるためのメニューや、カメラ画像処理部13で生成された車両周辺の地上投影画像を表示する。また、後述するように、表示処理部15は、撮像画像に基づいて、車両に接近した物体があるか否か判定する。そして接近した物体がある場合、車両周辺の地上投影画像の外枠に、進入物があることを示す表示を行う。   The display processing unit 15 displays on the display device 40 a menu for receiving instructions from the user and a ground projection image around the vehicle generated by the camera image processing unit 13. As will be described later, the display processing unit 15 determines whether there is an object approaching the vehicle based on the captured image. When there is an approaching object, a display indicating that there is an approaching object is performed on the outer frame of the ground projection image around the vehicle.

音声処理部16は、主制御部11からの指示に従って、音声出力装置50を介して、警告音や、ユーザに対するメッセージを音声出力する。   The voice processing unit 16 outputs a warning sound or a message to the user through the voice output device 50 in accordance with an instruction from the main control unit 11.

車両状態取得部17は、車速センサを介して、車両の車速を取得し、車両が走行中か停車中かなどの、車両の走行状態を判断する。なお、ジャイロセンサ、GPS受信装置などの出力から、車両の停車を判断しても良い。また、サイドブレーキの状態、シフトレバーのパーキング状態をセンサで検知して、車両の停車を判断しても良い。   The vehicle state acquisition unit 17 acquires the vehicle speed of the vehicle via the vehicle speed sensor, and determines the traveling state of the vehicle, such as whether the vehicle is traveling or stopped. The stop of the vehicle may be determined from the output of the gyro sensor, the GPS receiver, or the like. Further, the stop of the vehicle may be determined by detecting the state of the side brake and the parking state of the shift lever with a sensor.

[動作の説明]次に、本実施形態の車両周辺監視装置1の特徴的な動作について説明する。   [Description of Operation] Next, the characteristic operation of the vehicle periphery monitoring apparatus 1 of this embodiment will be described.

図4は、カメラ20で撮像した画像を用いて表示装置40に車両周辺の画像を表示する処理のフロー図である。   FIG. 4 is a flowchart of processing for displaying an image around the vehicle on the display device 40 using an image captured by the camera 20.

このフローは、ユーザから入力装置30を介して、車両周辺の画像を表示するように要求された場合に行われる。   This flow is performed when the user requests to display an image around the vehicle via the input device 30.

まず、カメラ画像処理部13は、各カメラ20F、20B、20L、20Rから、撮像して得られた画像(「カメラ画像」という)を取得する(S11)。   First, the camera image processing unit 13 acquires an image (referred to as “camera image”) obtained by imaging from each of the cameras 20F, 20B, 20L, and 20R (S11).

次に、カメラ画像処理部13は、取得した各カメラ画像に基づいて、上述したように、地上投影画像を生成する(S12)。   Next, the camera image processing unit 13 generates a ground projection image based on each acquired camera image as described above (S12).

次に、主制御部11は、表示処理部15に、車両周辺の画像を表示するように指示する。   Next, the main control unit 11 instructs the display processing unit 15 to display an image around the vehicle.

これを受けて、表示処理部15は、表示装置40の表示画面に車両周辺を示す画像を表示する(図4のS13)。   Receiving this, the display processing unit 15 displays an image showing the periphery of the vehicle on the display screen of the display device 40 (S13 in FIG. 4).

図5は、表示画面の一例を示す図である。   FIG. 5 is a diagram illustrating an example of a display screen.

図示するように、表示処理部15は、表示画面400のほぼ中央に、車両を示すアイコン(「車両アイコン」という)401を表示する。また、車両アイコン401を中心にして外側に向かって順番に、地上投影画像を表示するためのエリア(「画像表示エリア」という)410と、警告を示す警告アイコン421、422を表示するためのエリア(「警告表示エリア」という)420とを設ける。   As shown in the figure, the display processing unit 15 displays an icon 401 (referred to as a “vehicle icon”) 401 indicating the vehicle in the approximate center of the display screen 400. In addition, an area for displaying ground projection images (referred to as “image display area”) 410 and warning icons 421 and 422 indicating warnings are displayed in order from the vehicle icon 401 toward the outside. (Referred to as “warning display area”) 420.

地上投影画像210は、4台のカメラ20F、20B、20L、20Rの画像から生成される。したがって、車両周辺の地上投影画像210は、車両501の周辺を4つに分割したエリアに対応した4つの画像(前方エリア画像210F、後方エリア画像210B、左側エリア画像210L、右側エリア画像210R)からなる。   The ground projection image 210 is generated from images of the four cameras 20F, 20B, 20L, and 20R. Therefore, the ground projection image 210 around the vehicle is based on four images (a front area image 210F, a rear area image 210B, a left area image 210L, and a right area image 210R) corresponding to an area obtained by dividing the periphery of the vehicle 501 into four. Become.

そこで、表示処理部15は、画像表示エリア410に、地上投影画像211F、211B、211L、211Rを、車両401に対する位置に対応させて、それぞれ表示する。   Therefore, the display processing unit 15 displays the ground projection images 211F, 211B, 211L, and 211R in the image display area 410 in association with the positions with respect to the vehicle 401, respectively.

次に、表示処理部15は、車両状態取得部17を介して、車両が停止したか否か判定する(図4のS14)。車両状態取得部17は、車速センサから移動速度を取得し、移動速度が所定速度(例えば、1m/時間)以下の場合、車両は停車していると判定する。なお、車両状態取得部17は、サイドブレーキの状態や、シフトレバーのパーキング状態をセンサにより検知して、車両の停止を判定してもよい。   Next, the display processing unit 15 determines whether or not the vehicle has stopped via the vehicle state acquisition unit 17 (S14 in FIG. 4). The vehicle state acquisition unit 17 acquires the movement speed from the vehicle speed sensor, and determines that the vehicle is stopped when the movement speed is equal to or less than a predetermined speed (for example, 1 m / hour). In addition, the vehicle state acquisition part 17 may determine the stop of a vehicle by detecting the state of a side brake and the parking state of a shift lever with a sensor.

走行中と判定された場合(S14でN)、表示処理部15は、S11に戻って処理が続行されるようにする。   If it is determined that the vehicle is traveling (N in S14), the display processing unit 15 returns to S11 to continue the process.

一方、停車中と判定された場合(S14でY)、表示処理部15は、停車初期の画像として、そのときに表示していた地上投影画像210(投影変換前の撮像画像であってもよい)を、メモリ上の予め定めた記憶領域に記憶しておく(S15)。   On the other hand, when it is determined that the vehicle is stopped (Y in S14), the display processing unit 15 may be the ground projection image 210 (captured image before projection conversion) displayed at that time as the initial image of the vehicle stop. ) Is stored in a predetermined storage area on the memory (S15).

そして、S11〜S12の処理と同様に、カメラ画像処理部13は、カメラ画像を取得し(S16)、地上投影画像の生成を行う(S17)。またS13と同様に、表示処理部15は、地上投影画像に基づいて車両周辺の画像の表示(S18)を行う。   Then, similarly to the processes of S11 to S12, the camera image processing unit 13 acquires a camera image (S16), and generates a ground projection image (S17). Similarly to S13, the display processing unit 15 displays an image around the vehicle based on the ground projection image (S18).

次に、表示処理部15は、地上投影画像210(投影変換前の撮像画像であってもよい)に基づいて、車両周辺に進入した物(進入物)があったか否か判定する(S19)。具体的には、表示処理部15は、S15において記憶しておいた車両の停車初期の地上投影画像210と、今回S17にて生成された地上投影画像210とを比較して、対応するドットごとに、色諧調値の差分を求める。そして、地上投影画像212F、212B、212L、212Rごとに、差分が所定以上のドットの位置を抽出する。さらに、抽出したドットが所定以上の範囲の塊となって存在するか否か調べる。存在する場合は、進入物があったと判定する。なお、表示処理部15は、2以上の進入物を検出する場合もある。   Next, the display processing unit 15 determines whether or not there is an object that has entered the vicinity of the vehicle (an entering object) based on the ground projection image 210 (which may be a captured image before projection conversion) (S19). Specifically, the display processing unit 15 compares the ground projection image 210 at the initial stop of the vehicle stored in S15 with the ground projection image 210 generated in S17 this time, and each corresponding dot. Then, the difference between the color tone values is obtained. Then, for each of the ground projection images 212F, 212B, 212L, and 212R, a position of a dot having a difference greater than or equal to a predetermined value is extracted. Further, it is checked whether or not the extracted dots exist as a lump in a predetermined range or more. If it exists, it is determined that there is an entering object. The display processing unit 15 may detect two or more entering objects.

表示処理部15は、進入物を検知しなかった場合(S19でN)、S16に戻って処理を続けるように、カメラ画像処理部13に指示する。   If no entry object is detected (N in S19), the display processing unit 15 instructs the camera image processing unit 13 to return to S16 and continue the processing.

一方、地上投影画像212F、212B、212L、212Rのいずれか(ただし、2以上の場合もある)に進入物があった場合(S19でY)、表示処理部15は、進入物があった地上投影画像212F、212B、212L、212Rに対応する警告エリア430(430F、430B、430L、430R)に、所定の警告表示を行う(S20)。   On the other hand, if there is an entering object in any of the ground projection images 212F, 212B, 212L, and 212R (however, it may be two or more) (Y in S19), the display processing unit 15 A predetermined warning is displayed in the warning area 430 (430F, 430B, 430L, 430R) corresponding to the projection images 212F, 212B, 212L, 212R (S20).

具体的には、表示処理部15は、進入物があったとされる地上投影画像210F、210B、210R,210Lの方向の警告エリア430F、230B、230R、230Lに、警告を表示する。   Specifically, the display processing unit 15 displays a warning in the warning areas 430F, 230B, 230R, and 230L in the directions of the ground projection images 210F, 210B, 210R, and 210L where there is an approaching object.

このとき、撮像画像中の進入物の位置に応じた警告エリア410中の位置に、進入物の存在を示す警告アイコンを表示するようにする。具体的には、地上投影画像210F、210B,210R,210L上の進入物の位置(進入物がある程度の領域を占める場合は、その領域の画像中心位置)を、車両に対するその地上投影画像210、210B,210R,210Lの方向にそのまま移動した位置に、警告アイコンを表示する。   At this time, a warning icon indicating the presence of the entering object is displayed at a position in the warning area 410 corresponding to the position of the entering object in the captured image. Specifically, the position of the approaching object on the ground projection images 210F, 210B, 210R, and 210L (if the approaching object occupies a certain area, the image center position of the area) is the ground projection image 210, A warning icon is displayed at the position moved in the direction of 210B, 210R, 210L as it is.

例えば、図5に示すように、左側エリア画像210Lに進入物Q1があった場合、表示処理部15は、車両に対して左側の警告エリア430Lに、警告アイコン421を点滅表示する。このとき、左側エリア画像210L上の進入物Q1の位置(中心位置)を、車両に対して左側(図5では下方)にそのまま移動した位置に、警告アイコン421を表示する。また、後方エリア画像210Bに進入物Q2があった場合、表示処理部15は、車両に対して後側の警告エリア430Bに、警告アイコン422を点滅表示する。このとき、後方エリア画像210B上の進入物Q2の位置(中心位置)を、車両に対して後側(図5では右方向)にそのまま移動した位置に、警告アイコンを表示する。   For example, as shown in FIG. 5, when there is an approaching object Q1 in the left area image 210L, the display processing unit 15 displays a warning icon 421 in a blinking manner in the left warning area 430L with respect to the vehicle. At this time, a warning icon 421 is displayed at a position where the position (center position) of the approaching object Q1 on the left area image 210L is moved to the left side (downward in FIG. 5) as it is with respect to the vehicle. When the approaching object Q2 is present in the rear area image 210B, the display processing unit 15 blinks and displays the warning icon 422 in the warning area 430B on the rear side with respect to the vehicle. At this time, a warning icon is displayed at the position where the position (center position) of the approaching object Q2 on the rear area image 210B is moved rearward (rightward in FIG. 5) with respect to the vehicle.

なお、警告アイコンを表示するとき、主制御部11は、音声処理部16を介して、音声出力装置50に、警告を示す効果音やメッセージを出力してもよい。   When displaying a warning icon, the main control unit 11 may output a sound effect or message indicating a warning to the audio output device 50 via the audio processing unit 16.

次に、表示処理部15は、車両状態取得部17を介して、車両が停止中か否か判定する(図4のS21)。そして、停止中の場合(S21でY)、S16に戻って処理が続行されるようにする。   Next, the display processing unit 15 determines whether or not the vehicle is stopped via the vehicle state acquisition unit 17 (S21 in FIG. 4). If it is stopped (Y in S21), the process returns to S16 to continue the process.

一方、停止中でなくなった場合(S21でN)、表示処理部15は、S11に戻って、処理が続行されるように、カメラ画像処理部に指示をする。   On the other hand, when it is not stopped (N in S21), the display processing unit 15 returns to S11 and instructs the camera image processing unit to continue the processing.

以上、図4のフローについて説明した。   The flow of FIG. 4 has been described above.

なお、図4に示した処理の順番は、本発明の目的が達成できる範囲において適宜変更が可能である。   Note that the order of the processes shown in FIG. 4 can be changed as appropriate within a range in which the object of the present invention can be achieved.

本実施形態によれば、車両周辺の領域に進入した物体がある場合に、単に撮像画像を表示するのではなく、撮像画像の枠外に、進入物の存在を強調して表示することができる。したがって、車両周辺に存在する障害物について、ユーザにより確実に気が付かせることができる。   According to the present embodiment, when there is an object that has entered a region around the vehicle, it is possible not to simply display the captured image but to display the presence of the entry object outside the frame of the captured image. Therefore, the user can be surely aware of obstacles around the vehicle.

また、進入物の存在を、存在する方向に対応して表示するので、ユーザに注意を喚起すべき方向を容易に知らせることができる。   In addition, since the presence of the entering object is displayed in correspondence with the existing direction, it is possible to easily notify the user of the direction in which attention should be paid.

本発明は、上記実施形態に制限されない。上記実施形態は、様々な変形が可能である。   The present invention is not limited to the above embodiment. The above embodiment can be variously modified.

例えば、図6に示すように、警告エリア420に、進入物の移動方向を示してもよい。かかる場合、表示処理部15は、所定期間内に連続して撮像された撮像画像(地上投影画像)に基づいて、進入物の移動方向を求める。例えば、表示処理部15は、カメラ画像の中でその進入物を示すドットの塊が占める領域のサイズを求め、そのサイズが時間経過とともに大きくなった場合、その進入物は接近していると判定する。逆に、小さくなっている場合、その進入物は遠ざかっていると判定する。そして、図6に示すように、警告エリア420に、進入物Q1,Q2の移動方向423、324を表示する。   For example, as shown in FIG. 6, the warning area 420 may indicate the moving direction of the entering object. In such a case, the display processing unit 15 obtains the moving direction of the approaching object based on the captured images (ground projection images) continuously captured within a predetermined period. For example, the display processing unit 15 obtains the size of the area occupied by the lump of dots indicating the entering object in the camera image, and determines that the entering object is approaching when the size increases with time. To do. On the contrary, when it is small, it is determined that the approaching object is moving away. Then, as shown in FIG. 6, the moving directions 423 and 324 of the entering objects Q <b> 1 and Q <b> 2 are displayed in the warning area 420.

こうすれば、ユーザは、進入物が車両に近づくものなのか、遠ざかるものなのか容易に理解することができる。   In this way, the user can easily understand whether the approaching object approaches or moves away from the vehicle.

また、表示処理部15は、一旦進入物を検知して警告アイコンを表示した場合、その進入物が地上投影画像上に存在しなくなっても、所定期間(例えば、10秒)、警告の表示を継続するようにすることができる。こうすれば、また進入する可能性がある障害物(例えば、猫)がある場合に、ユーザに対してその方向に対する注意を喚起することができる。かかる場合、表示処理部15は、現在撮像されている進入物の警告アイコンの表示態様と、一旦消えた進入物の警告アイコンの表示態様とを、色を変えるなど、異ならせることができる。   Further, when the display processing unit 15 once detects an entering object and displays a warning icon, even if the entering object does not exist on the ground projection image, the display processing unit 15 displays a warning for a predetermined period (for example, 10 seconds). Can be continued. In this way, when there is an obstacle (for example, a cat) that may enter, the user can be alerted to the direction. In such a case, the display processing unit 15 can change the display mode of the warning icon of the approaching object currently captured and the display mode of the warning icon of the approaching object that has once disappeared, such as by changing the color.

なお、本発明は、経路探索や経路誘導を行う車載用ナビゲーション装置に適用することができる。   The present invention can be applied to a vehicle-mounted navigation device that performs route search and route guidance.

また、通信ネットワークにより撮像画像を外部の機器に送信して、外部の機器において、上記した方法で撮像画像を表示するようにしてもよい。   Alternatively, the captured image may be transmitted to an external device via a communication network, and the captured image may be displayed on the external device by the method described above.

図1は、本発明の一実施形態が適用された車両周辺監視装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a vehicle periphery monitoring device to which an embodiment of the present invention is applied. 図2は、カメラの搭載位置を示す図である。FIG. 2 is a diagram illustrating a mounting position of the camera. 図3は、撮像画像を地上面に投影する様子を示す図である。FIG. 3 is a diagram illustrating a state in which a captured image is projected onto the ground surface. 図4は、表示処理のフロー図である。FIG. 4 is a flowchart of the display process. 図5は、画面表示例を示す図である。FIG. 5 is a diagram illustrating a screen display example. 図6は、画面表示例を示す図である。FIG. 6 is a diagram illustrating a screen display example.

符号の説明Explanation of symbols

1…車両周辺監視装置、
10…制御装置、11…主制御部、12…カメラ制御部、13…カメラ画像処理部、14…入力内容解析部、15…表示処理部、16…音声処理部、17…車両状態取得部
20…カメラ、
30…入力装置、
40…表示装置、
50…音声出力装置
60…現在位置算出装置
1 ... Vehicle periphery monitoring device,
DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 11 ... Main control part, 12 ... Camera control part, 13 ... Camera image processing part, 14 ... Input content analysis part, 15 ... Display processing part, 16 ... Sound processing part, 17 ... Vehicle state acquisition part 20 …camera,
30 ... Input device,
40. Display device,
50 ... Audio output device 60 ... Current position calculation device

Claims (6)

車両周辺監視装置であって、
車両に搭載された複数のカメラから前記車両の周辺の複数の撮像範囲における撮像画像を取得する撮像画像取得手段と、
前記撮像画像ごとの経時変化に基づいて、当該撮像画像の撮像範囲への進入物の存在を判定する進入物判定手段と、
表示装置の画面上に、第1の表示エリアと、当該第1の表示エリアの周囲に配された第2の表示エリアとを設け、
前記第1の表示エリアには、車両位置に相当する位置を中心にして、対応する位置に、前記複数の撮像範囲における撮像画像を表示し、
前記第2の表示エリアには、前記進入物判定手段で進入物が存在すると判定された場合に、当該進入物の存在が判定された撮像画像を表示する前記第1の表示エリア中の前記進入物の位置に応じた前記第2の表示エリア中の位置に、進入物の存在を表示する表示手段と
を備えることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device,
Captured image acquisition means for acquiring captured images in a plurality of imaging ranges around the vehicle from a plurality of cameras mounted on the vehicle;
Based on the change over time for each captured image, an entry object determination means for determining the presence of an entry object in the imaging range of the captured image;
On the screen of the display device, a first display area and a second display area arranged around the first display area are provided.
In the first display area, a captured image in the plurality of imaging ranges is displayed at a corresponding position around a position corresponding to the vehicle position,
In the second display area, the entry in the first display area that displays a captured image in which the presence of the entry is determined when the entry determination unit determines that the entry is present. A vehicle periphery monitoring device, comprising: a display means for displaying the presence of an approaching object at a position in the second display area corresponding to the position of the object.
請求項1に記載の車両周辺監視装置であって、
前記第1の表示エリアは、
前記車両位置を中心とした長方形のエリアであり、
前記第2の表示エリアは、当該第1の表示エリアの外枠のエリアである
ことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1,
The first display area is
A rectangular area centered on the vehicle position;
The vehicle periphery monitoring device, wherein the second display area is an outer frame area of the first display area.
請求項1に記載の車両周辺監視装置であって、
前記表示手段が前記進入物の存在を表示する場合、進入物の存在を知らせる音声を出力する音声出力手段を備える
ことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1 ,
A vehicle periphery monitoring device, comprising: audio output means for outputting a sound notifying the presence of an entering object when the display means displays the presence of the entering object.
請求項1に記載の車両周辺監視装置であって、
前記進入物の移動方向を判定する移動方向判定手段を備え、
前記表示手段は、
前記進入物の存在を表示する場合、
前記移動方向判定手段で判定された移動方向とともに表示する
ことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1 ,
A moving direction determining means for determining a moving direction of the entering object,
The display means includes
When displaying the presence of the entry object,
A vehicle periphery monitoring device that displays the moving direction determined by the moving direction determining means.
請求項1に記載の車両周辺監視装置であって、
前記カメラの視点位置と撮像方向に基づいて、前記カメラの撮像画像を地上面に投影した地上投影画像に変換する画像変換手段を備え、
前記表示手段は、
前記画像変換手段で変換した画像を前記第1の表示エリアに表示する
ことを特徴とする車両周辺監視装置。
The vehicle periphery monitoring device according to claim 1 ,
Based on the viewpoint position and imaging direction of the camera, comprising image conversion means for converting the captured image of the camera into a ground projection image projected on the ground surface,
The display means includes
The vehicle periphery monitoring apparatus, wherein the image converted by the image conversion means is displayed in the first display area.
車両周辺監視装置の表示方法であって、
車両に搭載された複数のカメラから前記車両の周辺の複数の撮像範囲における撮像画像を取得する撮像画像取得ステップと、
前記撮像画像ごとの経時変化に基づいて、当該撮像画像の撮像範囲への進入物の存在を判定する進入物判定ステップと、
表示装置の画面上に、第1の表示エリアと、当該第1の表示エリアの周囲に配された第2の表示エリアとを設け、
前記第1の表示エリアには、車両位置に相当する位置を中心にして、対応する位置に、前記複数の撮像範囲における撮像画像を表示し、
前記第2の表示エリアには、前記進入物判定手段で進入物が存在すると判定された場合に、当該進入物の存在が判定された撮像画像を表示する前記第1の表示エリア中の前記進入物の位置に応じた前記第2の表示エリア中の位置に、進入物の存在を表示する表示ステップと
を行うことを特徴とする車両周辺監視装置の表示方法。
A display method for a vehicle periphery monitoring device,
A captured image acquisition step of acquiring captured images in a plurality of imaging ranges around the vehicle from a plurality of cameras mounted on the vehicle;
Based on the change over time for each captured image, an entering object determination step for determining the presence of an entering object in the imaging range of the captured image;
On the screen of the display device, a first display area and a second display area arranged around the first display area are provided.
In the first display area, a captured image in the plurality of imaging ranges is displayed at a corresponding position around a position corresponding to the vehicle position,
In the second display area, the entry in the first display area that displays a captured image in which the presence of the entry is determined when the entry determination unit determines that the entry is present. A display method for a vehicle periphery monitoring device, comprising: a display step of displaying the presence of an approaching object at a position in the second display area corresponding to the position of the object.
JP2007008941A 2007-01-18 2007-01-18 Vehicle periphery monitoring device and display method thereof Active JP5294562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007008941A JP5294562B2 (en) 2007-01-18 2007-01-18 Vehicle periphery monitoring device and display method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007008941A JP5294562B2 (en) 2007-01-18 2007-01-18 Vehicle periphery monitoring device and display method thereof

Publications (2)

Publication Number Publication Date
JP2008174076A JP2008174076A (en) 2008-07-31
JP5294562B2 true JP5294562B2 (en) 2013-09-18

Family

ID=39701425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007008941A Active JP5294562B2 (en) 2007-01-18 2007-01-18 Vehicle periphery monitoring device and display method thereof

Country Status (1)

Country Link
JP (1) JP5294562B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5054555B2 (en) * 2008-02-07 2012-10-24 クラリオン株式会社 Vehicle peripheral image display device
US8305444B2 (en) 2008-11-14 2012-11-06 Toyota Motor Engineering & Manufacturing North America, Inc. Integrated visual display system
JP5143235B2 (en) 2009-10-07 2013-02-13 パナソニック株式会社 Control device and vehicle surrounding monitoring device
JP5769163B2 (en) * 2010-05-13 2015-08-26 株式会社ユピテル Alarm device
US20150009330A1 (en) 2012-02-06 2015-01-08 Toyota Jidosha Kabushiki Kaisha Object detection device
WO2018055873A1 (en) * 2016-09-20 2018-03-29 株式会社Jvcケンウッド Overhead view video image generation device, overhead view video image generation system, overhead view video image generation method, and program
JP6644264B2 (en) * 2016-09-21 2020-02-12 株式会社Jvcケンウッド Overhead video generation device, overhead video generation system, overhead video generation method and program
JP6730617B2 (en) * 2016-09-20 2020-07-29 株式会社Jvcケンウッド Overhead video generation device, overhead video generation system, overhead video generation method and program
JP6781010B2 (en) * 2016-10-26 2020-11-04 株式会社デンソーテン Image display device and image processing method
JP7206867B2 (en) * 2018-12-04 2023-01-18 株式会社デンソー Display controller and display control program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006341641A (en) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd Image display apparatus and image display method
JP2007158578A (en) * 2005-12-02 2007-06-21 National Univ Corp Shizuoka Univ Entire circumference information annularly displaying system

Also Published As

Publication number Publication date
JP2008174076A (en) 2008-07-31

Similar Documents

Publication Publication Date Title
JP5294562B2 (en) Vehicle periphery monitoring device and display method thereof
EP3496069B1 (en) Travel assistance device and computer program
JP4914726B2 (en) Current position calculation device, current position calculation method
JP4981566B2 (en) Driving support device and driving support method
WO2011058822A1 (en) Vehicle surrounding display device, vehicle surrounding display method
JP4719590B2 (en) In-vehicle peripheral status presentation device
JP6307895B2 (en) Vehicle periphery monitoring device
JP2012076483A (en) Parking support device
JP2010173530A (en) Driving support device
JP2007233864A (en) Dead angle support information notification device and program
JP4601505B2 (en) Top-view image generation apparatus and top-view image display method
JP2009231938A (en) Surrounding monitoring device for vehicle
JP2008151507A (en) Apparatus and method for merge guidance
US20230252689A1 (en) Map driven augmented reality
JP2016224717A (en) Driving support apparatus and driving support method
JP2010003086A (en) Drive recorder
JP2008250453A (en) Drive support device and method
JP2009230225A (en) Periphery monitoring device for vehicle
US11656089B2 (en) Map driven augmented reality
JP4857159B2 (en) Vehicle driving support device
JP2013161440A (en) Vehicle surroundings monitoring device
JP2007286898A (en) Operation support device and program
JP5477394B2 (en) Vehicle periphery monitoring device
JP2008225815A (en) Traffic congestion prevention device and traffic congestion prevention method
JP2009119895A (en) Vehicle driving support device and vehicle driving support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100106

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120904

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

R150 Certificate of patent or registration of utility model

Ref document number: 5294562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250