JP7154817B2 - IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE - Google Patents

IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE Download PDF

Info

Publication number
JP7154817B2
JP7154817B2 JP2018089422A JP2018089422A JP7154817B2 JP 7154817 B2 JP7154817 B2 JP 7154817B2 JP 2018089422 A JP2018089422 A JP 2018089422A JP 2018089422 A JP2018089422 A JP 2018089422A JP 7154817 B2 JP7154817 B2 JP 7154817B2
Authority
JP
Japan
Prior art keywords
image
vehicle
captured
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018089422A
Other languages
Japanese (ja)
Other versions
JP2019197953A (en
Inventor
雅巳 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2018089422A priority Critical patent/JP7154817B2/en
Publication of JP2019197953A publication Critical patent/JP2019197953A/en
Application granted granted Critical
Publication of JP7154817B2 publication Critical patent/JP7154817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像出力装置、画像出力システム及び画像出力装置の制御方法に関する。 The present invention relates to an image output device, an image output system, and an image output device control method.

車両の後退駐車を支援する装置として、後退時に後方カメラの撮像画像を表示する装置が知られている。また、この種の装置には、車両に搭載されたカメラによって車両周辺を撮像し、撮像した画像を上空から見下ろした俯瞰画像に変換し、車内モニタに表示する装置が知られている(特許文献1参照)。 As a device for assisting reverse parking of a vehicle, there is known a device that displays an image captured by a rear camera when the vehicle is reversed. In addition, among this type of device, there is known a device that captures an image of the surroundings of the vehicle with a camera mounted on the vehicle, converts the captured image into a bird's-eye view image looking down from the sky, and displays the image on an in-vehicle monitor (Patent Document 1).

特開2003-118522号公報Japanese Patent Application Laid-Open No. 2003-118522

ところで、後方カメラの画像だけを表示した場合、車両後方以外は表示されないので、運転者は車両後方以外にも気を配って運転する必要がある。
一方、俯瞰映像を表示した場合、車両前後及び左右の画像のそれぞれが小さく表示され、かつ、複雑に変形・合成された画像であるため、運転者が見づらい場合が生じる。
By the way, when only the image of the rear camera is displayed, only the rear of the vehicle is displayed, so the driver needs to pay attention to areas other than the rear of the vehicle.
On the other hand, when a bird's-eye view image is displayed, the front, rear, left, and right images of the vehicle are each displayed small, and the images are complicatedly deformed and synthesized, which may make it difficult for the driver to see.

そこで、本発明は、後退時に車両周囲の画像を運転支援に効果的に、かつ見易く表示可能にすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to enable an image of the surroundings of a vehicle to be displayed effectively for driving assistance and in an easy-to-see manner when backing up.

上記目的を達成するために、本発明の画像出力装置は、車両の後方を撮像した後方撮像画像と、前記車両の左右側方を撮像した側方撮像画像とを入力する画像入力部と、前記車両が後退し、かつ左右いずれかに操舵されている場合に、前記画像入力部を用いて前記側方撮像画像を取得し、前記側方撮像画像と前記後方撮像画像とを合成した合成画像を生成し、前記合成画像を表示用画像として出力する画像処理部と、前記車両の予想進路を特定する解析部とを備え、前記合成画像は、入力した前記側方撮像画像のうちの前記車両が移動する側方側の画像と、前記後方撮像画像とを合成した画像であり、前記画像処理部は、前記車両の操舵角が大きいほど、前記合成画像内の前記側方側の画像の範囲を拡げると共に、前記予想進路の位置及び傾斜の少なくともいずれかに基づいて、前記側方側の画像と前記後方撮像画像との境界を変更することを特徴とする。 In order to achieve the above object, the image output device of the present invention includes an image input unit for inputting a rear captured image obtained by capturing the rear of a vehicle and side captured images obtained by capturing left and right sides of the vehicle; When the vehicle is in reverse and the vehicle is being steered to the left or right, the side captured image is acquired using the image input unit, and a composite image obtained by synthesizing the side captured image and the rear captured image is generated. an image processing unit that generates and outputs the composite image as an image for display; and an analysis unit that identifies the predicted course of the vehicle , wherein the composite image is the image of the vehicle in the input side- view image. An image obtained by synthesizing an image on the moving side and the rear image, and the image processing unit adjusts the range of the side image in the synthesized image as the steering angle of the vehicle increases. In addition to widening, the boundary between the side image and the rear captured image is changed based on at least one of the position and inclination of the predicted course .

上記構成において、前記画像処理部は、前記車両の操舵角が前記所定量以上の場合に、前記合成画像を表示用画像として出力し、前記車両の操舵角が前記所定量未満の場合、前記後方撮像画像を表示用画像として出力することを特徴とする。 In the above configuration, the image processing unit outputs the synthesized image as a display image when the steering angle of the vehicle is equal to or greater than the predetermined amount, and outputs the combined image as a display image when the steering angle of the vehicle is less than the predetermined amount. It is characterized by outputting a captured image as a display image.

上記構成において、前記画像処理部は、前記表示用画像として、前記側方側の画像を右上又は左上に対応する表示領域に割り当て、前記後方撮像画像を残りの表示領域に割り当てた合成画像を生成することを特徴とする。 In the above configuration, the image processing unit allocates the side image as the display image to a display area corresponding to the upper right or upper left, and generates a composite image in which the rear captured image is allocated to the remaining display area. characterized by

上記構成において、前記側方側の画像は、前記側方撮像画像から前記車両の右前方の角部分、又は左前方の角部分を含む領域を抽出した画像であることを特徴とする。 In the above configuration, the side image is an image obtained by extracting a region including a right front corner portion or a left front corner portion of the vehicle from the side captured image .

上記構成において、前記画像処理部は、前記境界を、前記表示用画像内の前記後方撮像画像に当てはめた前記予想進路の接線に平行で、かつ、前記接線との間に所定のマージンを付加した位置に設定することを特徴とする。 In the above configuration, the image processing unit makes the boundary parallel to a tangent line of the predicted course applied to the rear captured image in the display image, and adds a predetermined margin to the tangent line. It is characterized by being set to a position.

本発明の画像出力システムは、車両の後方を撮像する後方撮像部と、前記車両の左右側方を撮像する側方撮像部と、前記車両が後退し、かつ左右いずれかに操舵されている場合に、前記側方撮像部で撮像された側方撮像画像を取得し、前記側方撮像画像と、前記後方撮像部で撮像された後方撮像画像とを合成した合成画像を生成し、前記合成画像を表示用画像として出力する画像処理部と、前記車両の予想進路を特定する解析部とを備え、前記合成画像は、入力した前記側方撮像画像のうちの前記車両が移動する側方側の画像と、前記後方撮像画像とを合成した画像であり、前記画像処理部は、前記車両の操舵角が大きいほど、前記合成画像内の前記側方側の画像の範囲を拡げると共に、前記予想進路の位置及び傾斜の少なくともいずれかに基づいて、前記側方側の画像と前記後方撮像画像との境界を変更することを特徴とする。 The image output system of the present invention includes a rear imaging section for imaging the rear of the vehicle, a side imaging section for imaging the left and right sides of the vehicle, and when the vehicle is reversing and being steered to either the left or right. a side captured image captured by the side imaging unit is acquired, a combined image is generated by synthesizing the side captured image and the rear captured image captured by the rear imaging unit, and the combined image is generated; as an image for display, and an analysis unit for specifying the expected course of the vehicle, and the synthesized image is an image of the lateral side of the vehicle moving out of the input side-captured images. An image obtained by synthesizing an image and the rear captured image, and the image processing unit expands the range of the side image in the synthesized image as the steering angle of the vehicle increases, and adjusts the predicted course. The boundary between the side image and the rear captured image is changed based on at least one of the position and inclination of .

また、車両の後方を撮像した後方撮像画像と、前記車両の左右側方を撮像した側方撮像画像とを入力する画像入力部と、前記車両が後退し、かつ左右いずれかに操舵されている場合に、前記画像入力部を用いて前記側方撮像画像を取得し、前記側方撮像画像と前記後方撮像画像とを合成した合成画像を生成し、前記合成画像を表示用画像として出力する画像処理部と、前記車両の予想進路を特定する解析部とを備え前記表示用画像を出力する画像出力装置の制御方法であって、前記合成画像は、入力した前記側方撮像画像のうちの前記車両が移動する側方側の画像と、前記後方撮像画像とを合成した画像であり、前記画像処理部は、前記車両の操舵角が大きいほど、前記合成画像内の前記側方側の画像の範囲を拡げると共に、前記予想進路の位置及び傾斜の少なくともいずれかに基づいて、前記側方側の画像と前記後方撮像画像との境界を変更することを特徴とする。 Further, an image input unit for inputting a rear captured image that captures the rear of the vehicle and a lateral captured image that captures left and right sides of the vehicle ; case, the side captured image is obtained using the image input unit, a composite image is generated by combining the side captured image and the rear captured image, and the composite image is output as a display image. A control method for an image output device that includes a processing unit and an analysis unit that specifies a predicted course of the vehicle and outputs the display image , wherein the synthesized image is selected from the input side captured images. The image is an image obtained by synthesizing an image on the side where the vehicle moves and the captured image on the rear side. is expanded, and the boundary between the side image and the rear captured image is changed based on at least one of the position and inclination of the predicted course .

本発明によれば、後退時に車両周囲の画像を運転支援に効果的に、かつ見易く表示することができる。 According to the present invention, it is possible to effectively display an image of the surroundings of the vehicle when backing up in order to assist driving, and to display the image in an easy-to-see manner.

本発明の実施形態に係る画像出力システムを示す図である。1 is a diagram showing an image output system according to an embodiment of the invention; FIG. 前輪が左に操舵されている状態で後進している車両を上方から見た図である。FIG. 2 is a top view of a vehicle traveling backward with front wheels being steered to the left; 表示装置に表示された表示用画像を示す図である。FIG. 4 is a diagram showing a display image displayed on a display device; FIG. (A)及び(B)は、操舵角が異なる場合の後方撮像画像と前部側方画像の境界を示す図である。(A) and (B) are diagrams showing a boundary between a rear captured image and a front lateral image when steering angles are different. 右側方カメラの撮影画像を示す図である。It is a figure which shows the picked-up image of the right side camera. (A)及び(B)は、前輪が右に操舵され、操舵角が異なる場合の後方撮像画像と前部側方画像の境界を示す図である。(A) and (B) are diagrams showing the boundary between the rear captured image and the front lateral image when the front wheels are steered to the right and the steering angles are different. 画像出力装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the image output device; 表示の変形例の説明に供する図である。It is a figure where it uses for description of the modification of a display.

以下、図面を参照して本発明の実施の形態について説明する。
図1は本発明の実施形態に係る画像出力システムを示す図である。
この画像出力システム1は、車両に搭載され、この車両の後退時に車両周囲の画像を表示させることによって、運転者の運転を支援するシステムである。
この画像出力システム1は、車両の後方を撮像する後方カメラ10A(後方撮像部)と、左側方を撮像する左側方カメラ10B(左側方撮像部)と、右側方を撮像する右側方カメラ10C(右側方撮像部)と、前方を撮像する前方カメラ10D(前方撮像部)と、車両に搭載された画像出力装置21と、画像出力装置21から出力された表示用画像を表示する表示装置22とを備えている。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an image output system according to an embodiment of the invention.
This image output system 1 is a system that is mounted on a vehicle and assists the driver's driving by displaying an image of the surroundings of the vehicle when the vehicle is backing up.
This image output system 1 includes a rear camera 10A (rear imaging unit) that images the rear of the vehicle, a left side camera 10B (left side imaging unit) that images the left side, and a right side camera 10C that images the right side ( right side imaging section), a front camera 10D (front imaging section) for imaging the front, an image output device 21 mounted on the vehicle, and a display device 22 for displaying a display image output from the image output device 21. It has

画像出力装置21は、各カメラ10A~10Dの撮像画像を入力する画像入力部31と、撮像画像に基づき表示用画像を生成する画像処理部32と、画像処理部が生成した表示用画像を表示装置に出力する画像出力部33とを備えている。
画像入力部31は、各カメラ10A~10Dから延びる信号線が接続される入力I/Fを有し、入力I/Fを介して各撮影画像に対応する映像信号が入力される。各映像信号、つまり各撮影画像は画像処理部32に出力される。
The image output device 21 includes an image input unit 31 for inputting images captured by the cameras 10A to 10D, an image processing unit 32 for generating display images based on the captured images, and display images generated by the image processing units. and an image output unit 33 for outputting to the device.
The image input unit 31 has an input I/F to which signal lines extending from the cameras 10A to 10D are connected, and video signals corresponding to each captured image are input via the input I/F. Each video signal, that is, each captured image is output to the image processing section 32 .

画像処理部32は、画像変換部32Aと、側方画像変換部32Bと、画像合成部32Cと、画像出力装置21の各部を中枢的に制御する制御部34とを備えている。さらに、画像出力装置21は、車両信号を受信する受信部35と、車両に接近する接近物を検出し、警報する処理を行う接近物警報部36とを備えている。 The image processing section 32 includes an image conversion section 32A, a side image conversion section 32B, an image synthesizing section 32C, and a control section 34 that centrally controls each section of the image output device 21. FIG. Further, the image output device 21 includes a receiving section 35 for receiving a vehicle signal, and an approaching object alarm section 36 for detecting an approaching object approaching the vehicle and issuing an alarm.

画像変換部32Aには、全て(4台)のカメラ10A~10Dの撮像画像が入力され、側方画像変換部32Bには、左右の側方カメラ10B、10Cの撮像画像だけが入力される。
ここで、左側方カメラ10Bの撮像範囲は、車両の左前方の角部(車両前部の左部分と言うことができる)を含む範囲とされる。また、右側方カメラ10Cの撮像範囲は、車両の右前方の角部(車両前部の右部分とも言う)を含む範囲とされる。各側方カメラ10B、10Cは、例えば、車両に設けられた左右一対のサイドミラーにそれぞれ下向きで取り付けられることによって、上記範囲を撮像可能な位置に取り付けられる。なお、各側方カメラ10B、10Cの取付位置は、サイドミラーに限定しなくてもよい。
Images captured by all (four) cameras 10A to 10D are input to the image conversion unit 32A, and only images captured by the left and right side cameras 10B and 10C are input to the side image conversion unit 32B.
Here, the imaging range of the left side camera 10B is a range including the left front corner of the vehicle (which can be said to be the left portion of the front of the vehicle). Further, the imaging range of the right side camera 10C is a range including the right front corner of the vehicle (also referred to as the right portion of the front of the vehicle). Each of the side cameras 10B and 10C is attached, for example, to a pair of left and right side mirrors provided on a vehicle facing downward, so that the above range can be captured. Note that the mounting positions of the side cameras 10B and 10C do not have to be limited to the side mirrors.

画像変換部32Aは、制御部34の制御の下、全てのカメラ10A~10Dの撮像画像を合成し、所定サイズの俯瞰画像G1を作成する公知の変換処理を行う機能を有している。さらに、画像変換部32Aは、制御部34の制御の下、後方カメラ10Aからの後方撮像画像から所定サイズの後方撮像画像G2を作成する公知の変換処理を行う機能も有している。
なお、俯瞰画像は、例えば、車両の前後左右の撮像画像を視点変換して合成することによって作成され、あたかも車両の上方にカメラを設置して真下を見下ろした画像を再現した画像である。
画像変換部32Aの出力画像(俯瞰画像G1、後方撮像画像G2)のサイズは、表示装置22の表示に適したサイズとされ、より具体的には、表示装置22の解像度及びアスペクト比等に合わせたサイズとされる。
The image conversion section 32A has a function of synthesizing images captured by all the cameras 10A to 10D under the control of the control section 34 and performing known conversion processing to create a bird's-eye view image G1 of a predetermined size. Furthermore, the image conversion section 32A also has a function of performing known conversion processing for creating a rear-captured image G2 of a predetermined size from the rear-captured image from the rear camera 10A under the control of the control section 34 .
The bird's-eye view image is created, for example, by converting and synthesizing captured images of the front, rear, left, and right of the vehicle, and is an image that reproduces an image looking down directly below with a camera installed above the vehicle.
The size of the output image (overhead image G1, rear captured image G2) of the image conversion unit 32A is set to a size suitable for display on the display device 22. size.

側方画像変換部32Bは、制御部34の制御の下、左側方カメラ10Bからの左側方撮像画像、又は、右側方カメラ10Cからの右側方撮像画像から、車両の左前部又は右前部の角部分を含む領域を周辺領域と共に抽出した画像(以下、「前部側方画像G3」と表記する)を取得する処理を行う。
例えば、側方画像変換部32Bは、左又は右の側方撮像画像に対し、拡大又は縮小の処理を施し、車両の左前方又は右前方の角部の領域を切り出すことによって、所定サイズの前部側方画像G3を生成する。
Under the control of the control unit 34, the side image conversion unit 32B converts the left front or right front corner of the vehicle from the left side captured image from the left side camera 10B or the right side captured image from the right side camera 10C. Processing is performed to acquire an image (hereinafter referred to as "front side image G3") in which the region including the portion is extracted together with the peripheral region.
For example, the side image conversion unit 32B performs enlargement or reduction processing on the left or right side captured image, and cuts out the left front or right front corner area of the vehicle to obtain a front image of a predetermined size. A partial side image G3 is generated.

ここで、拡大又は縮小の処理は、予め定めた表示エリアの大きさに、前部側方画像G3のサイズを合わせる処理である。本構成では、表示エリアを可変させるので、これに合わせて拡大率又は縮小率を設定する。
なお、前部側方画像G3のサイズは、表示装置22の表示エリア全体のサイズにする必要はない。本構成では、前部側方画像G3を表示装置22の一部に表示するため、その表示に合わせたサイズであればよい。
Here, the enlargement or reduction process is a process of adjusting the size of the front side image G3 to the size of a predetermined display area. In this configuration, the display area is variable, so the enlargement ratio or reduction ratio is set accordingly.
Note that the size of the front side image G3 does not have to be the size of the entire display area of the display device 22 . In this configuration, since the front side image G3 is displayed on a part of the display device 22, it may be of a size suitable for the display.

画像合成部32Cは、制御部34の制御の下、画像変換部32Aで作成された後方撮像画像G2と、側方画像変換部32Bで作成された前部側方画像G3とを合成し、合成した画像を表示用画像として画像出力部33に出力する。また、画像合成部32Cは、制御部34の制御の下、画像変換部32Aで作成された俯瞰画像G1を表示用画像として画像出力部33に出力する。 The image synthesis unit 32C, under the control of the control unit 34, synthesizes the rear captured image G2 created by the image conversion unit 32A and the front side image G3 created by the side image conversion unit 32B. The resulting image is output to the image output unit 33 as a display image. Further, under the control of the control unit 34, the image synthesizing unit 32C outputs the overhead image G1 created by the image conversion unit 32A to the image output unit 33 as a display image.

画像出力部33は、表示装置22から延びる信号線が接続される出力I/Fを有し、表示用画像に対応する映像信号を表示装置22に出力することにより、表示装置22に表示用画像に対応する画像を表示させる。
なお、表示装置22は、液晶表示装置等の公知の表示装置であり、車両のセンターコンソール等の運転者が容易に視認可能な位置に設けられている。
The image output unit 33 has an output I/F to which a signal line extending from the display device 22 is connected, and outputs a video signal corresponding to the display image to the display device 22, thereby outputting the display image to the display device 22. display the corresponding image.
The display device 22 is a known display device such as a liquid crystal display device, and is provided at a position such as the center console of the vehicle where the driver can easily visually recognize the display device 22 .

制御部34は、CPU、ROM及びRAM等を備えたコンピュータの構成を具備し、記憶部34Aに記憶された制御プログラムを実行することによって、画像出力装置21の各部を制御する。また、制御部34は、受信部35により受信された情報を解析する解析部34Bとしても機能する。
受信部35は、車両の各部から送信される車両信号を受信する車両信号受信部である。車両信号は、車両の変速機が後進段(図1中、シフトR)であることを通知する情報、及び、車両の操舵角を通知する情報を少なくとも含んでいる。受信部35は、受信した車両信号を解析部34Bに出力する。
The control unit 34 has a computer configuration including a CPU, ROM, RAM, etc., and controls each unit of the image output device 21 by executing a control program stored in the storage unit 34A. The control unit 34 also functions as an analysis unit 34</b>B that analyzes information received by the reception unit 35 .
The receiving unit 35 is a vehicle signal receiving unit that receives vehicle signals transmitted from each part of the vehicle. The vehicle signal includes at least information notifying that the transmission of the vehicle is in reverse gear (shift R in FIG. 1) and information notifying the steering angle of the vehicle. The receiving unit 35 outputs the received vehicle signal to the analyzing unit 34B.

解析部34Bは、車両信号に基づき、後進段であること、及び車両の操舵角を取得するとともに、操舵角の情報に基づいて後進時の予想進路を特定する公知の処理を行う。操舵角は、前輪の切れ角とも称し、一般的にハンドル角とも一致するため、操舵角に代えてハンドル角を取得し、後述のステップS3の処理等にハンドル角を用いてもよい。
但し、ハンドル操作に応じた前輪の切れ角を車速等に応じて変動させる構成の場合、操舵角は前輪の切れ角と一致するものの、ハンドル角とは一致しないので、後段のステップS3の処理等に操舵角を用いることが好ましい。
Based on the vehicle signal, the analysis unit 34B acquires the fact that the vehicle is in the reverse gear position and the steering angle of the vehicle, and performs a known process of specifying an expected course in reverse based on the information on the steering angle. The steering angle is also called the turning angle of the front wheels and generally coincides with the steering wheel angle. Therefore, the steering wheel angle may be acquired instead of the steering angle and used in the processing of step S3 described later.
However, in the case of a configuration in which the steering angle of the front wheels according to the steering wheel operation is varied according to the vehicle speed, etc., the steering angle matches the steering angle of the front wheels, but does not match the steering wheel angle. It is preferable to use the steering angle for

接近物警報部36は、制御部34の制御の下、画像変換部32A又は側方画像変換部32Bから車両周辺の画像を入力し、入力した画像から車両に接近する接近物を検出し、警報する処理を行う。
接近物は、壁、他の車両、又は人等であり、公知の画像認識処理を適用することによって検出可能である。また、警報の方法は、表示装置に所定の警報情報を表示させる方法、又は警報音を放音する方法等の公知の方法を広く適用可能である。
Under the control of the control unit 34, the approaching object warning unit 36 receives an image of the surroundings of the vehicle from the image conversion unit 32A or the side image conversion unit 32B, detects an approaching object from the input image, and issues an alarm. process.
Approaching objects are walls, other vehicles, people, etc., and can be detected by applying known image recognition processing. Moreover, as a warning method, a wide range of known methods, such as a method of displaying predetermined warning information on a display device or a method of emitting a warning sound, can be applied.

図2は前輪が左に操舵されている状態で後進している車両(図2中、符号2を付して示す)を上方から見た図である。この図に示すように、後方カメラ10Aは、車両2の後方領域を、車幅より広い左右領域に渡って撮影する。また、右側方カメラ10Cは、つまり、前輪の操舵方向と反対側のカメラ10Cは、車両2の前部が移動する側方側の領域を、車両右前部の角部分(図2中、符号2Rを付して示す)を含めて撮影する。 FIG. 2 is a top view of a vehicle that is moving backward with its front wheels being steered to the left (indicated by reference numeral 2 in FIG. 2). As shown in this figure, the rear camera 10A photographs the rear region of the vehicle 2 over a left and right region wider than the vehicle width. The right side camera 10C, that is, the camera 10C on the side opposite to the steering direction of the front wheels, detects the area on the side where the front part of the vehicle 2 moves as the corner portion of the right front part of the vehicle (reference numeral 2R in FIG. 2). (shown with ).

図3は、図2の場合に表示装置22に表示された表示用画像を示す図である。
図3に示す表示用画像は、画像変換部32Aで作成された後方撮像画像G2と、側方画像変換部32Bで作成された前部側方画像G3とを合成した画像である。より具体的には、表示装置22の矩形の表示枠Wに対し、右上に対応する表示領域を前部側方画像G3に割り当てられ、残りの表示領域を後方撮像画像G2に割り当てている。
ここで、前部側方画像G3は、右側方カメラ10Cの右側方撮像画像から抽出した画像であり、同図3に示すように、車両右前部の角部分2Rが前輪を含めて表示される。また、後方撮像画像G2に対応する領域には、解析部34Bによって求められた予想進路(図3中、符号RT)も合成して表示される。
FIG. 3 is a diagram showing a display image displayed on the display device 22 in the case of FIG.
The display image shown in FIG. 3 is an image obtained by synthesizing the rear captured image G2 created by the image conversion section 32A and the front side image G3 created by the side image conversion section 32B. More specifically, the display area corresponding to the upper right of the rectangular display frame W of the display device 22 is assigned to the front side image G3, and the remaining display area is assigned to the rear captured image G2.
Here, the front side image G3 is an image extracted from the right side captured image of the right side camera 10C, and as shown in FIG. 3, the right front corner 2R of the vehicle is displayed including the front wheels. . In addition, in the region corresponding to the rear captured image G2, the predicted course (reference RT in FIG. 3) obtained by the analysis unit 34B is also synthesized and displayed.

図2に示すように、車両2の後退時には、車両が後方に進行するだけでなく、車両2の前部が右方向にも進行するので、車両2の後方又は右側に障害物が存在すると、車両2がその障害物に接触する可能性が生じる。本構成では、車両2の後方及び右方に対応する後方撮像画像G2及び前部側方画像G3を合成して表示するので、運転者が表示装置22を見ることで、車両の後方及び右方に存在する障害物を視認できる。 As shown in FIG. 2, when the vehicle 2 moves backward, not only does the vehicle move backward, but also the front part of the vehicle 2 moves rightward. A possibility arises that the vehicle 2 will come into contact with the obstacle. In this configuration, the rear captured image G2 and the front side image G3 corresponding to the rear and right sides of the vehicle 2 are synthesized and displayed. Obstacles existing in

この場合、俯瞰画像G1を表示する場合と比べて、後方及び右方の画像を大きく表示できる。従って、俯瞰画像G1に比べて、車両2の後方又は右方に存在する障害物を運転者がより視認し易くなる。さらに、俯瞰画像G1では、前後左右の撮像画像を合成する際に、各撮影画像の境界部分に存在する障害物が表示されないおそれが生じる。これに対し、図3に示す表示用画像は、車両の後方及び右方に存在して車両2に接近する接近物が表示されない事態を回避できる。 In this case, compared to the case of displaying the bird's-eye view image G1, the rearward and rightward images can be displayed larger. Therefore, it becomes easier for the driver to visually recognize an obstacle present behind or to the right of the vehicle 2 than in the bird's-eye view image G1. Furthermore, in the bird's-eye view image G1, when combining the front, rear, left, and right captured images, there is a possibility that obstacles present at the boundaries of the captured images may not be displayed. On the other hand, the display image shown in FIG. 3 can avoid a situation in which an approaching object existing behind and to the right of the vehicle and approaching the vehicle 2 is not displayed.

図3に示すように、後方撮像画像G2と前部側方画像G3の境界LKは、予想進路RTに略沿った斜めの線に設定されている。
図4(A)に示すように、境界LKは、表示用画像内の後方撮像画像G2に当てはめた予想進路RTの接線L1に平行で、かつ、接線L1との間に所定のマージンM1を付加した位置に設定される。このため、操舵角が変更された場合、図4(B)に示すように、予想進路RTが変更し、変更後の予想進路RTに合わせて境界LKの位置及び傾きが変化する。
As shown in FIG. 3, the boundary LK between the rear captured image G2 and the front lateral image G3 is set as an oblique line substantially along the predicted course RT.
As shown in FIG. 4A, the boundary LK is parallel to the tangent line L1 of the predicted course RT applied to the rear captured image G2 in the display image, and a predetermined margin M1 is added between the tangent line L1 and the tangent line L1. position is set. Therefore, when the steering angle is changed, the predicted course RT changes as shown in FIG. 4B, and the position and inclination of the boundary LK change in accordance with the changed predicted course RT.

本構成では、操舵角が大きいほど(図4(A)参照)、境界LKの傾斜角度θが小さくなり、前部側方画像G3の表示領域が左右に拡がり、車両右前部の角部分2R(図3参照)の表示領域を広くする。
また、操舵角が小さいほど(図4(B)参照)、境界LKの傾斜角度θが小さくなり、前部側方画像G3の表示領域が左右に狭まる。操舵角が小さい場合、車両前部の側方への移動速度は相対的に遅くなるので、左右に狭めても車両側方の障害物に接触前に気づき易い表示を維持できる。
通常、操舵角が大きいほど車両前部の側方への移動速度が相対的に上昇し、本構成では前部側方画像G3の範囲が拡がるので、側方への移動速度が上昇しても車両側方の接近物に相対的に気づき易い表示にできる。一方、操舵角が小さい程、後方撮像画像G2の表示領域が拡がるので、後方の障害物に相対的に気づき易い表示にできる。
In this configuration, the larger the steering angle (see FIG. 4A), the smaller the inclination angle θ of the boundary LK, the wider the display area of the front side image G3, and the more the right front corner portion 2R of the vehicle ( (See FIG. 3) to widen the display area.
Also, the smaller the steering angle (see FIG. 4B), the smaller the inclination angle θ of the boundary LK, and the narrower the display area of the front lateral image G3 in the left and right direction. When the steering angle is small, the speed of movement of the front portion of the vehicle to the side becomes relatively slow, so even if the vehicle is narrowed to the left or right, it is possible to maintain a display that makes it easy to notice an obstacle on the side of the vehicle before contact.
Normally, as the steering angle increases, the speed of movement of the front portion of the vehicle to the side relatively increases. The display can be made relatively easy to notice approaching objects on the side of the vehicle. On the other hand, the smaller the steering angle, the wider the display area of the rear captured image G2.

このように、境界LKを予想進路RTの位置及び傾斜に基づいて設定することで、車両が近づく後方及び側方の障害物に気づき易い表示が可能になる。また、本構成では、前部側方画像G3の表示領域が大きくなるほど前部側方画像G3の範囲を拡げている。図5は右側方カメラ10Cの撮影画像を示す図である。
上述したように、前部側方画像G3は、側方画像変換部32Bによって右側方カメラ10Cの撮影画像から切り出した範囲の画像である。図5中、符号AR1は、図4(A)の場合の前部側方画像G3の範囲を示し、符号AR2は、図4(B)の場合の前部側方画像G3の範囲を示している。
このように、前部側方画像G3の表示領域が大きくなるほど前部側方画像G3の範囲を拡げるので、拡がった表示範囲を有効利用して前部側方画像G3を表示できる。
By setting the boundary LK based on the position and inclination of the predicted course RT in this way, it is possible to display obstacles behind and on the side of the vehicle that are approaching so that the user can easily notice them. Further, in this configuration, the larger the display area of the front side image G3, the wider the range of the front side image G3. FIG. 5 is a diagram showing an image captured by the right side camera 10C.
As described above, the front side image G3 is an image of a range cut out from the image captured by the right side camera 10C by the side image conversion section 32B. In FIG. 5, reference AR1 indicates the range of the front side image G3 in the case of FIG. 4A, and reference AR2 indicates the range of the front side image G3 in the case of FIG. 4B. there is
In this manner, the larger the display area of the front side image G3, the wider the range of the front side image G3. Therefore, the expanded display range can be effectively used to display the front side image G3.

なお、前輪が右に操舵された場合、図6(A)及び図6(B)に示すように、表示装置22の矩形の表示枠Wに対し、右上に対応する表示領域に前部側方画像G3が表示され、残りの表示領域に後方撮像画像G2が表示される。この場合、前部側方画像G3は、左側方カメラ10Bの左側方撮像画像から抽出した画像とされる。境界LK等の設定方法は、上記と同様であり、重複説明は省略する。 When the front wheels are steered to the right, as shown in FIGS. 6(A) and 6(B), the display area corresponding to the upper right of the rectangular display frame W of the display device 22 is displayed in the front side direction. The image G3 is displayed, and the rear captured image G2 is displayed in the remaining display area. In this case, the front side image G3 is an image extracted from the left side captured image of the left side camera 10B. The method of setting the boundary LK and the like is the same as described above, and redundant description will be omitted.

図7は画像出力装置21の動作を示すフローチャートである。このフローチャートは、解析部34Bによって車両の変速機が後進段であることが検出された場合に実行される。
ステップS1において、制御部34は、記憶部34Aに予め記憶されたユーザ設定に基づいて後方画像の表示ONが設定されているか否かを判定する。後方画像の表示ONが設定されている場合(ステップS1;YES)、つまり、画像出力装置21のユーザ(例えば運転者)が後退時に後方画像の表示を希望している場合、制御部34は、ステップS2の処理に移行する。
FIG. 7 is a flow chart showing the operation of the image output device 21. As shown in FIG. This flowchart is executed when the analysis unit 34B detects that the transmission of the vehicle is in reverse gear.
In step S1, the control unit 34 determines whether or not display ON of the rear image is set based on the user setting stored in advance in the storage unit 34A. When the display of the rear image is set to ON (step S1; YES), that is, when the user (for example, the driver) of the image output device 21 desires the display of the rear image when reversing, the control unit 34 The process proceeds to step S2.

一方、後方画像の表示ONが設定されていない場合(ステップS1;NO)、つまり、画像出力装置21のユーザ(例えば運転者)が後退時に後方画像の表示を希望している場合、制御部34は、ステップS20の処理に移行する。
ステップS20において、制御部34は、ユーザ設定に基づいて俯瞰画像の表示ONが設定されていれば(ステップS20;YES)、ステップS21の処理に移行し、俯瞰画像の表示ONが設定されていなければ(ステップS20;NO)、当該フローを終了する。
On the other hand, if the display ON of the rear image is not set (step S1; NO), that is, if the user (for example, the driver) of the image output device 21 desires the display of the rear image when reversing, the control unit 34 moves to the process of step S20.
In step S20, if the bird's-eye view image display ON is set based on the user setting (step S20; YES), the control unit 34 proceeds to the process of step S21. If so (step S20; NO), the flow ends.

ステップS21において、制御部34は、俯瞰画像G1を表示させる制御を開始する。この場合、制御部34は、画像変換部32Aに俯瞰画像G1の作成を指示し、作成した俯瞰画像G1を画像合成部32C及び画像出力部33を介して出力させることによって、表示装置22に俯瞰画像G1に対応する画像を表示させる。
さらに、制御部34はステップS22の処理に移行し、接近物警報部36により周囲の撮像画像(例えば各カメラ10A~10Dの撮像画像)に基づく接近物検出処理を実行させる。これにより、俯瞰画像G1が表示されて運転者が視認可能となり、かつ、車両の周囲に接近物が存在すると、接近物の存在が運転者に報知される。
In step S21, the control unit 34 starts control to display the overhead image G1. In this case, the control unit 34 instructs the image conversion unit 32A to create a bird's-eye view image G1, and causes the display device 22 to output the created bird's-eye view image G1 via the image synthesizing unit 32C and the image output unit 33. An image corresponding to the image G1 is displayed.
Further, the control unit 34 proceeds to the process of step S22, and causes the approaching object warning unit 36 to execute approaching object detection processing based on the captured images of the surroundings (for example, the captured images of the cameras 10A to 10D). As a result, the bird's-eye view image G1 is displayed so that the driver can visually recognize it, and if there is an approaching object around the vehicle, the presence of the approaching object is notified to the driver.

ステップS2において、制御部34は、後方撮像画像の表示制御を開始する。この場合、制御部34は、画像変換部32Aに表示用の後方撮像画像G2の作成を指示し、作成した後方撮像画像G2を画像合成部32C及び画像出力部33を介して出力させることによって、表示装置22に後方撮像画像G2に対応する表示用画像を表示させる。
ステップS3において、制御部34は、操舵角が5°以上か否かを判断し、5°以上の場合、ステップS4の処理に移行し、5°未満の場合、ステップS8の処理に移行する。なお、操舵角の閾値は5°に限定されず、任意の所定値を適用可能である。
In step S2, the control unit 34 starts display control of the rear captured image. In this case, the control unit 34 instructs the image conversion unit 32A to create a rear captured image G2 for display, and causes the created rear captured image G2 to be output via the image synthesizing unit 32C and the image output unit 33. The display device 22 is caused to display a display image corresponding to the rear captured image G2.
In step S3, the control unit 34 determines whether or not the steering angle is 5° or more. If the steering angle is 5° or more, the process proceeds to step S4, and if the steering angle is less than 5°, the process proceeds to step S8. Note that the steering angle threshold is not limited to 5°, and any predetermined value can be applied.

ステップS4において、制御部34は、解析部34Bによって得た予想進路に基づいて、図4(A)等に示すように、後方撮像画像G2と前部側方画像G3の境界LKを設定することにより、前部側方画像G3の表示領域を決定する。
ステップS5において、制御部34は、側方画像変換部32Bに、車両2の前部が移動する側方側に対応する前部側方画像G3の作成を指示する。
ステップS6において、制御部34は、画像合成部32Cに、後方撮像画像G2に側方画像変換部32Bを合成した表示用画像の作成を指示し、作成した表示用画像を画像出力部33を介して出力させることによって、表示装置22に、後方撮像画像G2と側方画像変換部32Bとを合成した画像を表示させる。
In step S4, the control unit 34 sets a boundary LK between the rear captured image G2 and the front lateral image G3 as shown in FIG. determines the display area of the front side image G3.
In step S5, the control unit 34 instructs the side image conversion unit 32B to create a front side image G3 corresponding to the side along which the front of the vehicle 2 moves.
In step S6, the control unit 34 instructs the image synthesis unit 32C to create a display image by synthesizing the side image conversion unit 32B with the rear captured image G2. , the display device 22 displays an image obtained by synthesizing the rear captured image G2 and the side image conversion unit 32B.

さらに、制御部34はステップS7の処理に移行し、接近物警報部36により後方撮像画像G2に側方画像変換部32Bとに基づく接近物検出処理を実行させる。これにより、後方撮像画像G2及び側方画像変換部32Bが表示されて運転者が視認可能となり、かつ、車両の周囲に接近物が存在すると、接近物の存在が運転者に報知される。 Further, the control unit 34 proceeds to the process of step S7, and causes the approaching object warning unit 36 to perform approaching object detection processing based on the side image conversion unit 32B on the rear captured image G2. As a result, the rear captured image G2 and the side image converter 32B are displayed so that the driver can visually recognize them, and if there is an approaching object around the vehicle, the presence of the approaching object is notified to the driver.

一方、操舵角が5°未満の場合、制御部34は、ステップS8において、側方画像変換部32Bに前部側方画像G3の作成をしないよう作成無効の指示を行い、続くステップS9において、画像合成部32Cに、前部側方画像G3の合成不要を指示する。これによって、ステップS2の処理で作成された後方撮像画像G2が画像出力部33を介して出力され、表示装置22に、後方撮像画像G2に対応する画像が表示される。 On the other hand, if the steering angle is less than 5°, the control unit 34 instructs the side image conversion unit 32B to disable the generation of the front side image G3 in step S8, and then in step S9, The image synthesizer 32C is instructed not to synthesize the front side image G3. As a result, the rear captured image G2 created in the process of step S2 is output via the image output unit 33, and an image corresponding to the rear captured image G2 is displayed on the display device 22. FIG.

次いで、制御部34はステップS10の処理に移行し、接近物警報部36によって後方撮像画像G2に基づく接近物検出処理を実行させる。これにより、後方撮像画像G2が表示されて運転者が視認可能となり、かつ、車両2の後方に接近物が存在すると、接近物の存在が運転者に報知される。以上が画像出力装置21の動作である。 Next, the control unit 34 proceeds to the process of step S10, and causes the approaching object warning unit 36 to execute approaching object detection processing based on the rear captured image G2. As a result, the rear captured image G2 is displayed so that the driver can visually recognize it, and if an approaching object exists behind the vehicle 2, the presence of the approaching object is notified to the driver. The above is the operation of the image output device 21 .

以上説明したように、本実施の形態に係る画像出力装置21は、車両2が後退し、かつ左右いずれかに操舵されている場合に、画像入力部31等を用いて車両2の側方を撮像した前部側方画像G3を取得し、前部側方画像G3と後方撮像画像G2とを合成した合成画像を生成し、合成画像を表示用画像として出力するので、車両2が近づく後方及び側方側の画像を見易く表示させることができる。これによって、後退時に車両2周囲の画像を運転支援に効果的、かつ見易く表示することができる。 As described above, the image output device 21 according to the present embodiment uses the image input unit 31 or the like to detect the side of the vehicle 2 when the vehicle 2 is in reverse and the vehicle is being steered to the left or right. The imaged front side image G3 is acquired, the front side image G3 and the rear captured image G2 are synthesized to generate a synthesized image, and the synthesized image is output as a display image. The image on the side can be displayed in an easy-to-see manner. As a result, an image of the surroundings of the vehicle 2 can be displayed effectively for driving assistance and easy to see when the vehicle is backing up.

ここで、前部側方画像G3は、左右の側方カメラ10B、10Cの側方撮像画像のうちの車両2が移動する側方側の画像であり、画像処理部32は、車両2の操舵角が大きいほど、合成画像内の前部側方画像G3の範囲を拡げるので、側方への移動速度が上昇しても車両2側方の接近物に相対的に気づき易い表示が可能になる。なお、合成画像中の前部側方画像G3を、左右の側方カメラ10B、10Cの側方撮像画像にしてもよい。この場合も、車両前後及び左右の画像を含む俯瞰画像を表示する場合に比して、車両2の後方及び側方を相対的に大きく表示させることができる。 Here, the front side image G3 is an image on the side where the vehicle 2 moves among the side captured images of the left and right side cameras 10B and 10C. The larger the angle, the wider the range of the front side image G3 in the composite image, so even if the moving speed to the side increases, it is possible to display an approaching object on the side of the vehicle 2 relatively easily noticeable. . Note that the front side image G3 in the composite image may be the side captured image of the left and right side cameras 10B and 10C. In this case as well, the rear and sides of the vehicle 2 can be displayed relatively large compared to the case of displaying a bird's-eye view image including images of the front, rear, left, and right of the vehicle.

また、画像処理部32は、車両2の操舵角が所定量以上(本実施形態では5°以上)の場合に、合成画像を表示用画像として出力し、車両2の操舵角が所定量未満(本実施形態では5°未満)の場合、後方撮像画像G2を表示用画像として出力するので、車両2が接近する接近物を効率良く表示させることができる。
さらに、画像処理部32は、予想進路RTの位置及び傾斜に基づいて前部側方画像G3と後方撮像画像G2との境界LKを変更するので、車両2が近づく後方及び側方の障害物に気づき易い表示が可能になる。
しかも、境界LKを、表示用画像内の後方撮像画像G2に当てはめた予想進路RTの接線L1に平行で、かつ、接線L1との間に所定のマージンM1を付加した位置に設定するので、後方撮像画像G2については予想進路RTの周囲をマージンM1分、広く表示させつつ、車両2が近づく側方側の画像を表示させることが可能になる。
Further, when the steering angle of the vehicle 2 is greater than or equal to a predetermined amount (5° or more in this embodiment), the image processing unit 32 outputs the composite image as a display image, and the steering angle of the vehicle 2 is less than the predetermined amount ( In this embodiment, when the angle is less than 5°, the rear captured image G2 is output as a display image, so the approaching object approaching by the vehicle 2 can be efficiently displayed.
Further, the image processing unit 32 changes the boundary LK between the front side image G3 and the rear captured image G2 based on the position and inclination of the predicted course RT. Easy-to-notice display is possible.
Moreover, the boundary LK is set at a position that is parallel to the tangent line L1 of the predicted course RT applied to the rear image G2 in the display image and that a predetermined margin M1 is added between the tangent line L1 and the rearward image. As for the captured image G2, it is possible to display an image on the side where the vehicle 2 is approaching while widening the periphery of the predicted course RT by a margin M1.

なお、本実施形態では、予想進路RTの位置及び傾斜に基づいて境界LKを設定する場合を例示したが、予想進路RTの位置及び傾斜の少なくともいずれかに基づいて境界LKを設定してもよく、車両2が近づく後方及び側方の障害物に気づき易い表示が可能な境界LKを設定できる範囲で適宜に変更が可能である。 In this embodiment, the boundary LK is set based on the position and inclination of the predicted course RT. However, the boundary LK may be set based on at least one of the position and inclination of the predicted course RT. , the boundary LK can be appropriately changed within the range in which the boundary LK can be set so that the obstacles behind and on the side of the vehicle 2 can be easily noticed.

また、表示装置22に表示させる表示用画像として、前部側方画像G3を右上又は左上に対応する表示領域に割り当て、後方撮像画像G2を残りの表示領域に割り当てた合成画像を生成するので、車両2の前方向を上方向、車両2の左右方向を左右方向に揃えた表示ができ、運転支援に好適な表示ができる。 Further, as a display image to be displayed on the display device 22, a composite image is generated by assigning the front lateral image G3 to the display area corresponding to the upper right or upper left, and assigning the rear captured image G2 to the remaining display area. The front direction of the vehicle 2 can be displayed in the upward direction, and the left and right directions of the vehicle 2 can be aligned in the left and right directions, and display suitable for driving support can be performed.

また、前部側方画像G3は、左右の側方カメラ10B、10Cの側方撮像画像から車両2の右前方の角部分、又は左前方の角部分を含む領域を抽出した画像であるので、側方に存在する接近物が写る領域を効果的に表示できる。
なお、前部側方画像G3は、上記角部分を含む範囲で任意な形状及びサイズで抽出した画像にしてもよいし、また、運転支援に好適な領域を含む範囲で、上記角部分を含まなくてもよく、適宜に変更してもよい。
The front side image G3 is an image obtained by extracting a region including a right front corner portion or a left front corner portion of the vehicle 2 from the side captured images of the left and right side cameras 10B and 10C. It is possible to effectively display an area in which an approaching object existing on the side is captured.
Note that the front side image G3 may be an image extracted in an arbitrary shape and size within the range including the corner portion, or may be an image that includes the corner portion within a range that includes a region suitable for driving assistance. It may be omitted or may be changed as appropriate.

上述した実施形態は、あくまでも本発明の一実施の態様を例示するものであって、本発明の趣旨を逸脱しない範囲で任意に変形、及び応用が可能である。
例えば、後方撮像画像G2及び前部側方画像G3の表示位置、及び表示範囲等は適宜に変更してもよいし、また、ユーザの指示等に応じて表示位置及び表示範囲を変更してもよい。さらに、図8に例示するように、ユーザの指示等に応じて、俯瞰画像G1等の別の画像を追加表示してもよい。
The above-described embodiment is merely an example of one embodiment of the present invention, and can be arbitrarily modified and applied without departing from the scope of the present invention.
For example, the display positions and display ranges of the rear captured image G2 and the front lateral image G3 may be changed as appropriate, or the display positions and display ranges may be changed according to user instructions. good. Furthermore, as illustrated in FIG. 8, another image such as the bird's-eye view image G1 may be additionally displayed according to the user's instruction or the like.

また、上述した画像出力システム1の各構成要素は、分割してもよいし、併合してもよい。また、各構成要素は、ハードウェアとソフトウェアの協働等により任意に実現可能である。また、フローチャートについても、各ステップに対応する処理を分割してもよいし、併合してもよい。
さらに、上述の実施形態では、画像出力装置21の記憶部34Aに制御プログラムを予め記憶しておく場合について説明したが、この制御プログラムを、磁気記録媒体、光記録媒体、半導体記録媒体等のコンピュータが読み取り可能な記録媒体に格納し、コンピュータが記録媒体からこの制御プログラムを読み取って実行するようにしてもよい。また、この制御プログラムを電気通信回線を介して通信ネットワーク上の配信サーバー等からダウンロードできるようにしてもよい。
Further, each component of the image output system 1 described above may be divided or merged. Also, each component can be arbitrarily realized by cooperation of hardware and software. Also, with regard to the flowchart, the processing corresponding to each step may be divided or merged.
Furthermore, in the above-described embodiment, the case where the control program is stored in advance in the storage unit 34A of the image output device 21 has been described. may be stored in a readable recording medium, and the computer may read and execute the control program from the recording medium. Also, the control program may be downloaded from a distribution server or the like on a communication network via an electric communication line.

1 画像出力システム
2 車両
2R 車両右前部の角部分
10A 後方カメラ
10B 左側方カメラ
10C 右側方カメラ
10D 後方カメラ
21 画像出力装置
22 表示装置
32 画像処理部
32A 画像変換部
32B 側方画像変換部
32C 画像合成部
33 画像出力部
34 制御部
35 受信部
36 接近物警報部
G1 俯瞰画像
G2 後方撮像画像
G3 前部側方画像
LK 境界
RT 予想進路
L1 接線
M1 マージン
1 image output system 2 vehicle 2R right front corner portion of vehicle 10A rear camera 10B left side camera 10C right side camera 10D rear camera 21 image output device 22 display device 32 image processing section 32A image conversion section 32B side image conversion section 32C image Combining unit 33 Image output unit 34 Control unit 35 Receiving unit 36 Approaching object warning unit G1 Bird's-eye view image G2 Rear captured image G3 Front side image LK Boundary RT Expected course L1 Tangent line M1 Margin

Claims (7)

車両の後方を撮像した後方撮像画像と、前記車両の左右側方を撮像した側方撮像画像とを入力する画像入力部と、
前記車両が後退し、かつ左右いずれかに操舵されている場合に、前記画像入力部を用いて前記側方撮像画像を取得し、前記側方撮像画像と前記後方撮像画像とを合成した合成画像を生成し、前記合成画像を表示用画像として出力する画像処理部と
前記車両の予想進路を特定する解析部とを備え、
前記合成画像は、入力した前記側方撮像画像のうちの前記車両が移動する側方側の画像と、前記後方撮像画像とを合成した画像であり、
前記画像処理部は、前記車両の操舵角が大きいほど、前記合成画像内の前記側方側の画像の範囲を拡げると共に、前記予想進路の位置及び傾斜の少なくともいずれかに基づいて、前記側方側の画像と前記後方撮像画像との境界を変更することを特徴とする画像出力装置。
an image input unit for inputting a rear captured image that captures the rear of the vehicle and side captured images that capture the left and right sides of the vehicle;
When the vehicle is in reverse and the vehicle is being steered to the left or right, the side captured image is acquired using the image input unit, and the side captured image and the rear captured image are combined into a combined image. and an image processing unit that outputs the composite image as a display image ;
an analysis unit that identifies the expected course of the vehicle ;
The synthesized image is an image obtained by synthesizing an image on the side where the vehicle moves among the input side captured images and the rear captured image,
The image processing unit widens the range of the image on the side side in the synthesized image as the steering angle of the vehicle increases, and further expands the range of the image on the side side in the synthesized image, and determines the side side image based on at least one of the position and inclination of the predicted course. An image output device characterized by changing a boundary between an image on the side and the captured image on the rear side .
前記画像処理部は、前記車両の操舵角が所定量以上の場合に、前記合成画像を表示用画像として出力し、前記車両の操舵角が前記所定量未満の場合、前記後方撮像画像を表示用画像として出力することを特徴とする請求項1に記載の画像出力装置。 The image processing unit outputs the synthesized image as an image for display when the steering angle of the vehicle is equal to or greater than a predetermined amount, and outputs the rear captured image for display when the steering angle of the vehicle is less than the predetermined amount. 2. The image output device according to claim 1, wherein the image is output. 前記画像処理部は、前記表示用画像として、前記側方側の画像を右上又は左上に対応する表示領域に割り当て、前記後方撮像画像を残りの表示領域に割り当てた合成画像を生成することを特徴とする請求項1又は2に記載の画像出力装置。The image processing unit is characterized in that, as the display image, the image on the lateral side is assigned to a display area corresponding to the upper right or upper left, and the rear captured image is assigned to the remaining display area to generate a composite image. 3. The image output device according to claim 1 or 2. 前記側方側の画像は、前記側方撮像画像から前記車両の右前方の角部分、又は左前方の角部分を含む領域を抽出した画像であることを特徴とする請求項1から3のいずれかに記載の画像出力装置。4. The image on the side side is an image obtained by extracting a region including a right front corner portion or a left front corner portion of the vehicle from the side captured image. The image output device according to 1. 前記画像処理部は、前記境界を、前記表示用画像内の前記後方撮像画像に当てはめた前記予想進路の接線に平行で、かつ、前記接線との間に所定のマージンを付加した位置に設定することを特徴とする請求項1から4のいずれか一項に記載の画像出力装置。 The image processing unit sets the boundary at a position parallel to a tangent line of the predicted course applied to the rear captured image in the display image and with a predetermined margin added between the tangent line and the tangent line. 5. The image output device according to any one of claims 1 to 4 , characterized in that: 車両の後方を撮像する後方撮像部と、a rear imaging unit for imaging the rear of the vehicle;
前記車両の左右側方を撮像する側方撮像部と、 a side imaging unit for imaging left and right sides of the vehicle;
前記車両が後退し、かつ左右いずれかに操舵されている場合に、前記側方撮像部で撮像された側方撮像画像を取得し、前記側方撮像画像と、前記後方撮像部で撮像された後方撮像画像とを合成した合成画像を生成し、前記合成画像を表示用画像として出力する画像処理部と、 When the vehicle is in reverse and the vehicle is being steered to the left or right, a side captured image captured by the side imaging unit is acquired, and the side captured image and the rear image captured by the rear imaging unit are obtained. an image processing unit that generates a synthesized image by synthesizing a rear captured image and outputs the synthesized image as a display image;
前記車両の予想進路を特定する解析部とを備え、 an analysis unit that identifies the expected course of the vehicle;
前記合成画像は、入力した前記側方撮像画像のうちの前記車両が移動する側方側の画像と、前記後方撮像画像とを合成した画像であり、 The synthesized image is an image obtained by synthesizing an image on the side where the vehicle moves among the input side captured images and the rear captured image,
前記画像処理部は、前記車両の操舵角が大きいほど、前記合成画像内の前記側方側の画像の範囲を拡げると共に、前記予想進路の位置及び傾斜の少なくともいずれかに基づいて、前記側方側の画像と前記後方撮像画像との境界を変更することを特徴とする画像出力システム。 The image processing unit widens the range of the image on the side side in the synthesized image as the steering angle of the vehicle increases, and further expands the range of the image on the side side in the synthesized image, and determines the side side image based on at least one of the position and inclination of the predicted course. An image output system characterized by changing a boundary between an image on the side and the captured image on the rear side.
車両の後方を撮像した後方撮像画像と、前記車両の左右側方を撮像した側方撮像画像とを入力する画像入力部と、an image input unit for inputting a rear captured image that captures the rear of the vehicle and side captured images that capture the left and right sides of the vehicle;
前記車両が後退し、かつ左右いずれかに操舵されている場合に、前記画像入力部を用いて前記側方撮像画像を取得し、前記側方撮像画像と前記後方撮像画像とを合成した合成画像を生成し、前記合成画像を表示用画像として出力する画像処理部と、 When the vehicle is in reverse and the vehicle is being steered to the left or right, the side captured image is acquired using the image input unit, and the side captured image and the rear captured image are combined into a combined image. and an image processing unit that outputs the composite image as a display image;
前記車両の予想進路を特定する解析部とを備え、前記表示用画像を出力する画像出力装置の制御方法であって、 A control method for an image output device that outputs the display image, comprising an analysis unit that specifies the predicted course of the vehicle,
前記合成画像は、入力した前記側方撮像画像のうちの前記車両が移動する側方側の画像と、前記後方撮像画像とを合成した画像であり、 The synthesized image is an image obtained by synthesizing an image on the side where the vehicle moves among the input side captured images and the rear captured image,
前記画像処理部は、前記車両の操舵角が大きいほど、前記合成画像内の前記側方側の画像の範囲を拡げると共に、前記予想進路の位置及び傾斜の少なくともいずれかに基づいて、前記側方側の画像と前記後方撮像画像との境界を変更することを特徴とする画像出力装置の制御方法。 The image processing unit widens the range of the image on the side side in the synthesized image as the steering angle of the vehicle increases, and further expands the range of the image on the side side in the synthesized image, and determines the side side image based on at least one of the position and inclination of the predicted course. A control method for an image output device, characterized by changing a boundary between an image on the side and the captured image on the rear side.
JP2018089422A 2018-05-07 2018-05-07 IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE Active JP7154817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018089422A JP7154817B2 (en) 2018-05-07 2018-05-07 IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018089422A JP7154817B2 (en) 2018-05-07 2018-05-07 IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE

Publications (2)

Publication Number Publication Date
JP2019197953A JP2019197953A (en) 2019-11-14
JP7154817B2 true JP7154817B2 (en) 2022-10-18

Family

ID=68537759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018089422A Active JP7154817B2 (en) 2018-05-07 2018-05-07 IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE

Country Status (1)

Country Link
JP (1) JP7154817B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7319593B2 (en) 2020-02-13 2023-08-02 トヨタ自動車株式会社 Vehicle perimeter monitoring device
CN114516338A (en) * 2020-11-17 2022-05-20 佳骏科技股份有限公司 Driving monitoring system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006097A (en) 1999-06-25 2001-01-12 Fujitsu Ten Ltd Device for supporting driving for vehicle
JP2005223524A (en) 2004-02-04 2005-08-18 Nissan Motor Co Ltd Supervisory apparatus for surrounding of vehicle
JP2007019804A (en) 2005-07-07 2007-01-25 Nissan Motor Co Ltd Vehicle periphery display device and method
WO2018037789A1 (en) 2016-08-22 2018-03-01 ソニー株式会社 Image processing device, image processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006097A (en) 1999-06-25 2001-01-12 Fujitsu Ten Ltd Device for supporting driving for vehicle
JP2005223524A (en) 2004-02-04 2005-08-18 Nissan Motor Co Ltd Supervisory apparatus for surrounding of vehicle
JP2007019804A (en) 2005-07-07 2007-01-25 Nissan Motor Co Ltd Vehicle periphery display device and method
WO2018037789A1 (en) 2016-08-22 2018-03-01 ソニー株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2019197953A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP5321267B2 (en) Vehicular image display device and overhead image display method
EP2739050B1 (en) Vehicle surroundings monitoring system
JP4765649B2 (en) VEHICLE VIDEO PROCESSING DEVICE, VEHICLE PERIPHERAL MONITORING SYSTEM, AND VIDEO PROCESSING METHOD
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP4985250B2 (en) Parking assistance device
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP5622986B2 (en) Image display system, image processing apparatus, and image display method
JP5495071B2 (en) Vehicle periphery monitoring device
JP2006121587A (en) Operation supporting device and bird&#39;s-eye view creation method
JP2006253872A (en) Apparatus and method for displaying vehicle perimeter image
JP2007036668A (en) System and method for displaying bird&#39;s-eye view image
JP5776995B2 (en) Vehicle periphery monitoring device
WO2018159017A1 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
JP2007089081A (en) Image display device for vehicle
WO2018159016A1 (en) Bird&#39;s eye view image generation device, bird&#39;s eye view image generation system, bird&#39;s eye view image generation method and program
JP7154817B2 (en) IMAGE OUTPUT DEVICE, IMAGE OUTPUT SYSTEM AND METHOD OF CONTROLLING IMAGE OUTPUT DEVICE
JP2010184588A (en) Vehicle vicinity monitor device
WO2018096792A1 (en) Bird&#39;s-eye-view video image generation device, bird&#39;s-eye-view video image generation system, bird&#39;s-eye-view video image generation method, and program
JP2006054662A (en) Drive support device
JP2012001126A (en) Vehicle surroundings monitoring device
JP2007110177A (en) Image processing apparatus and program
KR101861523B1 (en) Apparatus and method for supporting driving of vehicle
JP2020052671A (en) Display control device, vehicle, and display control method
JP2011211432A (en) In-vehicle imaging apparatus
JP2007088577A (en) Vehicle surrounding image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7154817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150