JP2015154406A - Peripheral monitoring device for towing vehicle - Google Patents

Peripheral monitoring device for towing vehicle Download PDF

Info

Publication number
JP2015154406A
JP2015154406A JP2014028625A JP2014028625A JP2015154406A JP 2015154406 A JP2015154406 A JP 2015154406A JP 2014028625 A JP2014028625 A JP 2014028625A JP 2014028625 A JP2014028625 A JP 2014028625A JP 2015154406 A JP2015154406 A JP 2015154406A
Authority
JP
Japan
Prior art keywords
image
vehicle
unit
towed vehicle
towed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014028625A
Other languages
Japanese (ja)
Other versions
JP6313992B2 (en
Inventor
晋也 田川
Shinya Tagawa
晋也 田川
加藤 賢治
Kenji Kato
賢治 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014028625A priority Critical patent/JP6313992B2/en
Publication of JP2015154406A publication Critical patent/JP2015154406A/en
Application granted granted Critical
Publication of JP6313992B2 publication Critical patent/JP6313992B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To monitor periphery of a towing vehicle and a towed vehicle and display peripheral state in an easy to understand manner.SOLUTION: When a connection detection part 22a detects that a towing vehicle 10 is connected to a towed vehicle 30, an image conversion part 16b converts images that are imaged with imaging parts 12a, 12b, 12c, 12d around the towing vehicle 10 to a plurality of first overlooking images which overlook the towing vehicle 10, and converts images imaged with imaging parts 32a, 32b, 32c around the towed vehicle 30 to a plurality of second overlooking images which overlook the towed vehicle 30. An image compositing part 16c, based on a posture of the towed vehicle 30 relative to the towing vehicle 10, composites the plurality of first overlooking images with the plurality of second overlooking images to generate a third composite image, which is displayed on an image display part 26a.

Description

本発明は、牽引車、および牽引車に牽引される被牽引車に搭載されて、車両の周囲状況を画像化して運転者に提示する牽引車用周囲監視装置に関するものである。   The present invention relates to a tow vehicle and a tow vehicle surrounding monitoring device that is mounted on a tow vehicle to be towed by a tow vehicle and images a surrounding situation of the vehicle and presents it to a driver.

近年、車両の周囲に複数のカメラを設置して、これらの複数のカメラで撮影した画像を、それぞれ座標変換して合成し、車両周囲の状況を1枚の俯瞰画像で表現して運転者に提示する周囲監視システムが実用化されている。(例えば、特許文献1)   In recent years, a plurality of cameras are installed around a vehicle, and images taken with these cameras are coordinate-converted and combined to express the situation around the vehicle as a single overhead view image for the driver. The ambient monitoring system to be presented has been put into practical use. (For example, Patent Document 1)

特開2010−221863号公報JP 2010-221863 A

しかしながら、特許文献1に記載された周囲監視装置は、1両の車両に搭載されることを前提とした周囲監視装置であった。このような周囲監視装置では、複数のカメラで撮像されたそれぞれの画像を、予め決められた規則に基づいて座標変換して、座標変換された各画像を1枚の画像に合成して表示している。したがって、牽引車とそれに連結された被牽引車のように、複数の車両が連結されて、なおかつ、前方の車両と後方の車両とで姿勢(向き)が変化する車両にあっては、座標変換された複数の画像を1枚の画像に合成する際の規則が、車両の姿勢に応じて変化するため、従来の周囲監視装置をそのまま適用することができなかった。   However, the surrounding monitoring device described in Patent Document 1 is a surrounding monitoring device that is assumed to be mounted on one vehicle. In such a surrounding monitoring device, each image captured by a plurality of cameras is coordinate-converted based on a predetermined rule, and each coordinate-converted image is combined into one image and displayed. ing. Therefore, coordinate conversion is required for a vehicle in which a plurality of vehicles are connected and the posture (orientation) changes between the front vehicle and the rear vehicle, such as a tow vehicle and a towed vehicle connected thereto. Since the rule for combining the plurality of images into one image changes according to the attitude of the vehicle, the conventional surrounding monitoring device cannot be applied as it is.

本発明は、上記課題に鑑みてなされたもので、牽引車、および牽引車に牽引される被牽引車に搭載されて、連結された複数の車両の姿勢に関わらず、車両の周囲状況を画像化して運転者に提示し、車両の周囲に存在する障害物の方向や位置を容易に認識させることができる牽引車用周囲監視装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and images surrounding conditions of a vehicle regardless of the postures of a plurality of vehicles mounted on a tow vehicle and a towed vehicle towed by the tow vehicle. It is an object of the present invention to provide a tow vehicle surrounding monitoring device that can be easily presented to a driver and easily recognize the direction and position of an obstacle around the vehicle.

本発明に係る牽引車用周囲監視装置は、牽引車の周囲に存在する障害物と牽引車との位置関係を容易に確認することができるものである。   The tow vehicle periphery monitoring device according to the present invention can easily confirm the positional relationship between an obstacle and a tow vehicle existing around the tow vehicle.

すなわち、本発明に係る牽引車用周囲監視装置は、車体の周囲に、複数の撮像部からなる第1周囲監視部を有する牽引車と、車体の周囲に、複数の撮像部からなる第2周囲監視部を有する、前記牽引車に連結されて牽引される被牽引車と、前記牽引車および前記被牽引車が有する複数の前記撮像部の各設置位置,各設置方向,各校正データ、および前記牽引車と前記被牽引車の連結位置を記憶した情報記憶部と、前記牽引車と前記被牽引車が連結されたことを検出する連結検出部と、前記牽引車に対する前記被牽引車の姿勢を検出する姿勢検出部と、前記牽引車の前輪の向きを算出するタイヤ方向算出部と、前記牽引車と前記被牽引車の予測進路を算出する予測進路算出部と、前記第1周囲監視部で撮像された各画像を、前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて、第1仮想視点から俯瞰した複数の第1俯瞰画像に変換するとともに、前記第2周囲監視部で撮像された各画像を、前記第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて、第2仮想視点から俯瞰した複数の第2俯瞰画像に変換する画像変換部と、前記複数の第1俯瞰画像と前記複数の第2俯瞰画像とを前記牽引車と前記被牽引車の連結位置において1枚の合成画像に合成する画像合成部と、前記牽引車の運転者が視認可能な位置に、前記合成画像を表示する画像表示部と、を有して、前記連結検出部が前記牽引車と前記被牽引車の連結を検出したときに、前記画像変換部は複数の前記第1俯瞰画像と複数の前記第2俯瞰画像を生成して、前記画像合成部は前記姿勢検出部で検出された姿勢に基づいて前記合成画像を生成して、前記合成画像に前記牽引車の前輪の向きと前記牽引車、および前記被牽引車の予測進路を重畳して前記画像表示部に表示することを特徴とする。   That is, the tow vehicle surroundings monitoring device according to the present invention includes a tow vehicle having a first surrounding monitoring unit including a plurality of imaging units around the vehicle body, and a second surrounding including a plurality of imaging units around the vehicle body. A towed vehicle that is connected to the towed vehicle and towed, and a plurality of the image pickup units that the towed vehicle and the towed vehicle have; An information storage unit that stores a connection position between the tow vehicle and the towed vehicle, a connection detection unit that detects that the tow vehicle and the towed vehicle are connected, and a posture of the towed vehicle with respect to the tow vehicle. A posture detecting unit for detecting, a tire direction calculating unit for calculating a direction of a front wheel of the tow vehicle, a predicted route calculating unit for calculating a predicted route of the tow vehicle and the towed vehicle, and the first surrounding monitoring unit. Each captured image is displayed on the first surrounding monitoring unit. Based on each installation position, each installation direction, and each calibration data of the plurality of imaging units, the image data is converted into a plurality of first overhead images viewed from the first virtual viewpoint, and each of the images captured by the second surrounding monitoring unit An image conversion unit that converts an image into a plurality of second overhead images viewed from the second virtual viewpoint based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the second surrounding monitoring unit. An image composition unit that combines the plurality of first bird's-eye images and the plurality of second bird's-eye images into a single composite image at a connection position of the tow vehicle and the towed vehicle, and a driver of the tow vehicle An image display unit that displays the composite image at a position where can be visually recognized, and when the connection detection unit detects the connection between the towed vehicle and the towed vehicle, the image conversion unit includes a plurality of image conversion units. The first overhead image and a plurality of the second overhead images The image composition unit generates the composite image based on the posture detected by the posture detection unit, and the direction of the front wheel of the tow vehicle, the tow vehicle, and the towed vehicle are added to the composite image. The predicted course is superimposed and displayed on the image display unit.

このように構成された本発明に係る牽引車用周囲監視装置によれば、連結検出部が、牽引車と被牽引車が連結したことを検出したときに、画像変換部が、牽引車の周囲に設置された第1周囲監視部を構成する複数の撮像部で撮像された各画像を、情報記憶部に記憶された、第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて第1仮想視点から俯瞰した複数の第1俯瞰画像に変換して、被牽引車の周囲に設置された第2周囲監視部を構成する複数の撮像部で撮像された各画像を、情報記憶部に記憶された、第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて第2仮想視点から俯瞰した複数の第2俯瞰画像に変換する。そして、画像合成部が、牽引車と被牽引車の連結位置と姿勢検出部が検出した姿勢に基づいて、複数の第1俯瞰画像と複数の第2俯瞰画像を合成して合成画像を生成する。さらに、生成された合成画像に、タイヤ方向算出部が算出した牽引車の前輪の向きと、予測進路算出部が算出した牽引車および被牽引車の予測進路を重畳して画像表示部に表示する。したがって、牽引車と被牽引車の周囲にある障害物の位置と方向を、牽引車と被牽引車の姿勢によらずに、容易に認識することができる。   According to the tow vehicle surroundings monitoring apparatus according to the present invention configured as described above, when the connection detection unit detects that the tow vehicle and the towed vehicle are connected, the image conversion unit Each image captured by a plurality of imaging units constituting the first surrounding monitoring unit installed in the storage unit is stored in the information storage unit, and each installation position and each installation of the plurality of imaging units included in the first surrounding monitoring unit Based on the direction and each calibration data, it is converted into a plurality of first overhead images viewed from the first virtual viewpoint, and is captured by a plurality of imaging units constituting a second surrounding monitoring unit installed around the towed vehicle. A plurality of second images obtained by looking down each image from the second virtual viewpoint based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the second surrounding monitoring unit stored in the information storage unit. Convert to a bird's-eye view image. Then, the image composition unit synthesizes the plurality of first bird's-eye images and the plurality of second bird's-eye images based on the connection position between the tow vehicle and the towed vehicle and the posture detected by the posture detection unit to generate a composite image. . Further, the direction of the front wheels of the tow vehicle calculated by the tire direction calculation unit and the predicted routes of the tow vehicle and the towed vehicle calculated by the prediction route calculation unit are superimposed on the generated composite image and displayed on the image display unit. . Therefore, the position and direction of the obstacle around the tow vehicle and the towed vehicle can be easily recognized regardless of the posture of the towing vehicle and the towed vehicle.

本発明に係る牽引車用周囲監視装置によれば、牽引車が被牽引車を牽引しているときであっても、牽引車の周囲における障害物の位置と方向を容易に認識することができる。   According to the tow vehicle surroundings monitoring device according to the present invention, the position and direction of an obstacle around the tow vehicle can be easily recognized even when the tow vehicle is towing the towed vehicle. .

(a)は代表的な牽引車の概略構造を示す上面図である。(b)は図1(a)に示した牽引車の側面図である。(A) is a top view showing a schematic structure of a typical towing vehicle. FIG. 2B is a side view of the towing vehicle shown in FIG. (a)は代表的な被牽引車の概略構造を示す上面図である。(b)はコンテナ一体型の被牽引車の側面図である。(c)はコンテナ別体型の被牽引車の側面図である。(A) is a top view showing a schematic structure of a typical towed vehicle. (B) is a side view of a container-integrated towed vehicle. (C) is a side view of a towed vehicle with separate containers. 本発明の一実施形態である実施例1のハードウェア構成要素を示すブロック図である。It is a block diagram which shows the hardware component of Example 1 which is one Embodiment of this invention. 本発明の一実施形態である実施例1の機能構成要素を示す機能ブロック図である。It is a functional block diagram which shows the functional component of Example 1 which is one Embodiment of this invention. (a)は、牽引車が被牽引車を牽引した状態で、上空に仮想視点を設置した様子を示す図である。(b)は仮想視点を図5(a)の状態に設置したときに生成される合成画像の一例を示す図である。(A) is a figure which shows a mode that the virtual viewpoint was installed in the sky in the state which the tow vehicle pulled the towed vehicle. (B) is a figure which shows an example of the synthesized image produced | generated when a virtual viewpoint is installed in the state of Fig.5 (a). 複数の俯瞰画像同士を合成する際に行う画像の重ね合わせ処理について説明する図である。It is a figure explaining the superimposition process of the image performed when synthesize | combining several overhead images. 実施例1において、牽引車が前進している際に生成される合成画像の一例を示す図である。In Example 1, it is a figure which shows an example of the synthesized image produced | generated when the tow vehicle is moving forward. 実施例1において、牽引車が後退している際に生成される合成画像の一例を示す図である。In Example 1, it is a figure which shows an example of the synthesized image produced | generated when the tow vehicle is moving backward. 実施例1において、画像表示部に表示される画像の一例を示す図である。In Example 1, it is a figure which shows an example of the image displayed on an image display part. 実施例1で行う処理全体の流れを示すフローチャートである。3 is a flowchart illustrating the overall flow of processing performed in the first embodiment. 図10のフローチャートの中で行われる俯瞰画像の重ね合わせ処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the superimposition process of the overhead image performed in the flowchart of FIG. 本発明の一実施形態である実施例2の機能構成要素を示す機能ブロック図である。It is a functional block diagram which shows the functional component of Example 2 which is one Embodiment of this invention. 実施例2で行う処理全体の流れを示すフローチャートである。10 is a flowchart illustrating the overall flow of processing performed in the second embodiment.

以下、本発明の一実施形態である実施例1について、図面を参照して説明する。   Hereinafter, Example 1 which is one embodiment of the present invention will be described with reference to the drawings.

本実施例は、本発明を、牽引車と、その牽引車に牽引された被牽引車の周囲の画像を撮像して、運転者に、車両の周囲の画像を表示する、牽引車用周囲監視装置に適用したものである。   In this embodiment, the present invention relates to a tow vehicle surrounding monitor that captures an image of the surroundings of a tow vehicle and a towed vehicle towed by the tow vehicle and displays an image of the surroundings of the vehicle to the driver. It is applied to the device.

(牽引車と被牽引車の概略構造の説明)
まず、牽引車と被牽引車の概略構造について、図1(a),(b)と図2(a),(b),(c)を用いて説明する。
(Description of schematic structure of tow vehicle and towed vehicle)
First, schematic structures of the tow vehicle and the towed vehicle will be described with reference to FIGS. 1 (a) and 1 (b) and FIGS. 2 (a), 2 (b), and 2 (c).

牽引車10は、図1(a),(b)に示す概略構造を有している。すなわち、牽引車10は図示しない動力源を有して、運転者の操作に応じて走行する。牽引車10の前方には前方カメラ12a(撮像部)が設置されて、牽引車10の左側方には左側方カメラ12b(撮像部)が設置され、牽引車10の後方には後方カメラ12c(撮像部)が設置されて、牽引車10の右側方には右側方カメラ12d(撮像部)が設置されている。各カメラ(12a,12b,12c,12d)は、それぞれ、牽引車10の周囲に向けて設置されて、第1周囲監視部12を構成し、牽引車10の周囲の地面を含む画像を撮像する。   The tow vehicle 10 has a schematic structure shown in FIGS. 1 (a) and 1 (b). That is, the tow vehicle 10 has a power source (not shown) and travels according to a driver's operation. A front camera 12a (imaging unit) is installed in front of the tow vehicle 10, a left camera 12b (imaging unit) is installed on the left side of the tow vehicle 10, and a rear camera 12c ( An imaging unit) is installed, and a right-side camera 12d (imaging unit) is installed on the right side of the towing vehicle 10. Each camera (12a, 12b, 12c, 12d) is installed toward the periphery of the tow vehicle 10, constitutes the first periphery monitoring unit 12, and captures an image including the ground around the tow vehicle 10. .

牽引車10には、孔部を有する牽引車側連結部14が設けられており、後述するように、この牽引車側連結部14において被牽引車30(40)(図2(b),(c))と連結される。   The tow vehicle 10 is provided with a tow vehicle side connecting portion 14 having a hole. As will be described later, the towed vehicle 30 (40) (FIG. 2B, ( c)).

各カメラ(12a,12b,12c,12d)の設置位置,設置方向,校正データであるカメラ内部パラメータ(焦点距離,画像中心位置,歪収差係数等)と、牽引車側連結部14の位置は予め計測されて、後述するメモリ17(図3)に記憶されている。   The installation position and installation direction of each camera (12a, 12b, 12c, 12d), camera internal parameters (focal length, image center position, distortion aberration coefficient, etc.) that are calibration data, and the position of the tow vehicle side connecting portion 14 are set in advance It is measured and stored in a memory 17 (FIG. 3) described later.

被牽引車30(40)は、図2(a),(b),(c)に示す概略構造を有している。被牽引車30(40)は、前述した牽引車10(図1(b))に連結されて荷物の運搬等に使用され、その形態の違いによって様々なバリエーションを有している。図2(b)は、被牽引車の一例であるコンテナ一体型被牽引車30の側面図を示し、図2(c)は、被牽引車の別の例であるコンテナ別体型被牽引車40の側面図を示す。   The towed vehicle 30 (40) has a schematic structure shown in FIGS. 2 (a), 2 (b), and 2 (c). The towed vehicle 30 (40) is connected to the above-described towed vehicle 10 (FIG. 1B) and used for transporting luggage, and has various variations depending on the form. FIG. 2B shows a side view of a container-integrated towed vehicle 30 that is an example of a towed vehicle, and FIG. 2C shows a container-specific towed vehicle 40 that is another example of a towed vehicle. The side view of is shown.

被牽引車30(40)の左側方には左側方カメラ32a(42a)(撮像部)が設置されて、被牽引車30(40)の後方には後方カメラ32b(42b)(撮像部)が設置されて、被牽引車30(40)の右側方には右側方カメラ32c(42c)(撮像部)が設置されている。各カメラ(32a,32b,32c)は、それぞれ、被牽引車30(40)の周囲に向けて設置されて、第2周囲監視部32(42)を構成し、被牽引車30(40)の周囲の地面を含む画像を撮像する。   A left side camera 32a (42a) (imaging unit) is installed on the left side of the towed vehicle 30 (40), and a rear camera 32b (42b) (imaging unit) is behind the towed vehicle 30 (40). The right camera 32c (42c) (imaging part) is installed on the right side of the towed vehicle 30 (40). Each camera (32a, 32b, 32c) is installed around the towed vehicle 30 (40) to constitute the second surrounding monitoring unit 32 (42), and the towed vehicle 30 (40). An image including the surrounding ground is taken.

被牽引車30(40)には、棒状の被牽引車側連結部34(44)が設けられており、この被牽引車側連結部34(44)が前述した牽引車側連結部14と嵌合することによって、牽引車10と被牽引車30(40)とが連結される。   The towed vehicle 30 (40) is provided with a rod-like towed vehicle side connecting portion 34 (44), and the towed vehicle side connecting portion 34 (44) is fitted with the aforementioned towed vehicle side connecting portion 14. By joining, the tow vehicle 10 and the towed vehicle 30 (40) are connected.

各カメラ(32a,32b,32c(42a,42b,42c))の設置位置,設置方向,校正データであるカメラ内部パラメータ(焦点距離,画像中心位置,歪収差係数等)、および、被牽引車側連結部34(44)の位置は予め計測されて、後述するメモリ37(図3)に記憶されている。   Installation position and installation direction of each camera (32a, 32b, 32c (42a, 42b, 42c)), camera internal parameters (focal length, image center position, distortion aberration coefficient, etc.) as calibration data, and towed vehicle side The position of the connecting portion 34 (44) is measured in advance and stored in a memory 37 (FIG. 3) described later.

牽引車10が被牽引車30(40)を連結して走行するときには、牽引車10の向きと被牽引車30(40)の向きが牽引車側連結部14または被牽引車側連結部34(44)を支点として変化するため、牽引車10が単独で走行しているときと比べて、内輪差が大きくなる。したがって、交差点等においては、旋回時に歩行者や他の車両の巻き込みにより一層注意する必要がある。   When the tow vehicle 10 travels with the towed vehicle 30 (40) connected, the direction of the towed vehicle 10 and the direction of the towed vehicle 30 (40) depend on the towed vehicle side connecting portion 14 or the towed vehicle side connecting portion 34 ( 44), the difference between the inner wheels becomes larger than when the tow vehicle 10 is traveling alone. Therefore, at an intersection or the like, it is necessary to pay more attention to pedestrians or other vehicles involved when turning.

なお、以後の説明は、コンテナ一体型被牽引車30が牽引車10に牽引される例を用いて行う。
(実施例1のシステム構成の説明)
In the following description, an example in which the container-integrated towed vehicle 30 is pulled by the towed vehicle 10 will be described.
(Description of System Configuration of Example 1)

次に、図3を用いて、実施例1に係る牽引車用周囲監視装置100のハードウェア構成について説明する。牽引車用周囲監視装置100は、牽引車側連結部14と被牽引車側連結部34において連結された、牽引車10と、被牽引車30と、からなり、牽引車10には、第1周囲監視部12を構成する前方カメラ12a,左側方カメラ12b,後方カメラ12c,右側方カメラ12dが設置されている。また、被牽引車30には、第2周囲監視部32を構成する左側方カメラ32a,後方カメラ32b,右側方カメラ32cが設置されている。なお、各カメラ(12a,12b,12c,12d,32a,32b,32c)には、それぞれ約180度の画角を有する超広角レンズが装着されており、上記した各カメラによって、牽引車10と被牽引車30の全周囲を網羅する画像が撮像される。   Next, a hardware configuration of the tow vehicle surroundings monitoring apparatus 100 according to the first embodiment will be described with reference to FIG. The tow vehicle surroundings monitoring device 100 includes a tow vehicle 10 and a towed vehicle 30 that are connected by a tow vehicle side connecting unit 14 and a towed vehicle side connecting unit 34. A front camera 12a, a left side camera 12b, a rear camera 12c, and a right side camera 12d constituting the surrounding monitoring unit 12 are installed. Further, the towed vehicle 30 is provided with a left side camera 32a, a rear camera 32b, and a right side camera 32c constituting the second surrounding monitoring unit 32. Each camera (12a, 12b, 12c, 12d, 32a, 32b, 32c) is equipped with an ultra-wide-angle lens having an angle of view of about 180 degrees. An image covering the entire periphery of the towed vehicle 30 is taken.

被牽引車30は、さらに、第2カメラECU36と、メモリ37と、第2CANコントローラ38を有する。   The towed vehicle 30 further includes a second camera ECU 36, a memory 37, and a second CAN controller 38.

第2カメラECU36は、各カメラから出力されたコンポジット信号(アナログ信号)をデジタル化された画像信号に変換するAD変換器と、デジタル化された画像信号をRGB信号、または、輝度色差信号であるYCbCr,H−Sync,V−Sync信号に変換するデコーダを有している。   The second camera ECU 36 is an AD converter that converts a composite signal (analog signal) output from each camera into a digitized image signal, and the digitized image signal is an RGB signal or a luminance color difference signal. It has a decoder for converting into YCbCr, H-Sync, and V-Sync signals.

メモリ37には、第2周囲監視部32を構成する各カメラ(32a,32b,32c)の設置位置,設置方向,校正データであるカメラ内部パラメータ(焦点距離,画像中心位置,歪収差係数等)と、被牽引車側連結部34の位置が記憶されている。   The memory 37 stores the camera internal parameters (focal length, image center position, distortion aberration coefficient, etc.) as the installation position, installation direction, and calibration data of each camera (32a, 32b, 32c) constituting the second surrounding monitoring unit 32. And the position of the towed vehicle side connection part 34 is memorize | stored.

第2周囲監視部32を構成する各カメラ(32a,32b,32c)で撮像された画像は、第2カメラECU36でデジタル画像に変換されて、第2CANコントローラ38を経て、CAN通信線50を介して牽引車10に送信される。また、メモリ37に記憶された情報も、第2CANコントローラ38を経て、CAN通信線50を介して牽引車10に送信される。   Images captured by the respective cameras (32a, 32b, 32c) constituting the second surrounding monitoring unit 32 are converted into digital images by the second camera ECU 36, via the second CAN controller 38, and via the CAN communication line 50. And transmitted to the towing vehicle 10. Further, the information stored in the memory 37 is also transmitted to the towing vehicle 10 through the second CAN controller 38 and the CAN communication line 50.

牽引車10は、前述した各カメラ(12a,12b,12c,12d)の他に、第1カメラECU16と、メモリ17と、第1CANコントローラ18と、姿勢センサ20と、連結検出センサ22と、タイヤ切れ角センサ24と、タッチパネル付モニタ26と、ECU28を有する。   In addition to the cameras (12a, 12b, 12c, 12d) described above, the tow vehicle 10 includes a first camera ECU 16, a memory 17, a first CAN controller 18, an attitude sensor 20, a connection detection sensor 22, and tires. A cutting angle sensor 24, a monitor 26 with a touch panel, and an ECU 28 are provided.

第1カメラECU16は、第1周囲監視部12を構成する各カメラ(12a,12b,12c,12d)から出力されたコンポジット信号(アナログ信号)をデジタル化された画像信号に変換するAD変換器と、デジタル化された画像信号をRGB信号、または、輝度色差信号であるYCbCr,H−Sync,V−Sync信号に変換するデコーダを有している。   The first camera ECU 16 includes an AD converter that converts a composite signal (analog signal) output from each camera (12a, 12b, 12c, 12d) constituting the first surrounding monitoring unit 12 into a digitized image signal. And a decoder for converting the digitized image signal into an RGB signal or a YCbCr, H-Sync, V-Sync signal which is a luminance color difference signal.

メモリ17には、第1周囲監視部12を構成する各カメラ(12a,12b,12c,12d)の設置位置,設置方向,校正データであるカメラ内部パラメータ(焦点距離,画像中心位置,歪収差係数等)、および牽引車側連結部14の位置が記憶されている。   In the memory 17, the camera internal parameters (focal length, image center position, distortion aberration coefficient) that are the installation position, installation direction, and calibration data of each camera (12 a, 12 b, 12 c, 12 d) constituting the first surrounding monitoring unit 12 are stored. Etc.) and the position of the towing vehicle side connecting portion 14 are stored.

CAN通信線50を介して被牽引車30から送信された情報は、第1CANコントローラ18を経て、第1カメラECU16とECU28で受信される。   Information transmitted from the towed vehicle 30 via the CAN communication line 50 is received by the first camera ECU 16 and the ECU 28 via the first CAN controller 18.

姿勢センサ20は、例えば角度センサで構成されて、牽引車10と被牽引車30の連結角度(姿勢)を検出する。   The posture sensor 20 is constituted by, for example, an angle sensor, and detects a connection angle (posture) between the tow vehicle 10 and the towed vehicle 30.

連結検出センサ22は、例えば接触による通電を検出することによって、牽引車10と被牽引車30が連結されたことを検出する。   The connection detection sensor 22 detects that the tow vehicle 10 and the towed vehicle 30 are connected, for example, by detecting energization due to contact.

タイヤ切れ角センサ24は、牽引車10の前輪の向きを検出する。   The tire break angle sensor 24 detects the direction of the front wheels of the tow vehicle 10.

タッチパネル付モニタ26は、生成された画像を表示するとともに、タッチパネル機能を有しており、画面切り替え等の操作指示を検出する。   The monitor 26 with a touch panel displays a generated image and has a touch panel function, and detects an operation instruction such as screen switching.

ECU28は、牽引車用周囲監視装置100の全体の動きを制御するとともに、第1周囲監視部12と第2周囲監視部32がそれぞれ撮影した画像を合成する際に、重複する領域の合成方法を決定する。また、牽引車10と被牽引車30の予測進路の算出を行う
(実施例1の機能構成の説明)
The ECU 28 controls the overall movement of the tow vehicle surroundings monitoring apparatus 100 and uses a method for combining overlapping areas when the first surrounding monitoring unit 12 and the second surrounding monitoring unit 32 combine the images respectively captured. decide. Further, the predicted courses of the tow vehicle 10 and the towed vehicle 30 are calculated (description of the functional configuration of the first embodiment).

次に、図4を用いて、牽引車用周囲監視装置100の機能構成について説明する。図4は牽引車用周囲監視装置100の機能構成を示す機能ブロック図である。   Next, the functional configuration of the tow vehicle surrounding monitoring apparatus 100 will be described with reference to FIG. FIG. 4 is a functional block diagram showing a functional configuration of the tow vehicle surrounding monitoring device 100.

被牽引車30は、それぞれ前述した、第2周囲監視部32を構成する複数のカメラ(32a,32b,32c)(撮像部)と、第2カメラECU36(図3)で構成された画像入力部36aと、メモリ37(図3)で構成された被牽引車情報記憶部37a(第2情報記憶部,情報記憶部)と、第2CANコントローラ38(図3)で構成された情報送信部38aからなる。   The towed vehicle 30 is an image input unit composed of a plurality of cameras (32a, 32b, 32c) (imaging unit) constituting the second surrounding monitoring unit 32 and a second camera ECU 36 (FIG. 3), respectively. 36a, a towed vehicle information storage unit 37a (second information storage unit, information storage unit) configured by a memory 37 (FIG. 3), and an information transmission unit 38a configured by a second CAN controller 38 (FIG. 3). Become.

牽引車10は、それぞれ前述した、第1周囲監視部12を構成する複数のカメラ(12a,12b,12c,12d)(撮像部)と、第1カメラECU16(図3)で構成された画像入力部16aと画像変換部16bと画像合成部16cと、メモリ17(図3)で構成された牽引車情報記憶部17a(第1情報記憶部,情報記憶部)と、第1CANコントローラ18(図3)で構成された情報受信部18aと、姿勢センサ20(図3)で構成された姿勢検出部20aと、連結検出センサ22(図3)で構成された連結検出部22aと、タイヤ切れ角センサ24(図3)で構成されたタイヤ切れ角検出部24aと、ECU28(図3)で構成された画像境界位置算出部28aと予測進路算出部28bとタイヤ方向算出部28cと、タッチパネル付モニタ26(図3)で構成された画像表示部26aからなる。   The tow vehicle 10 is an image input composed of a plurality of cameras (12a, 12b, 12c, 12d) (imaging unit) constituting the first surrounding monitoring unit 12 and the first camera ECU 16 (FIG. 3), respectively. Unit 16a, image conversion unit 16b, image composition unit 16c, tow vehicle information storage unit 17a (first information storage unit, information storage unit) composed of memory 17 (FIG. 3), and first CAN controller 18 (FIG. 3). ) Constituted by an information receiving unit 18a, a posture detection unit 20a constituted by a posture sensor 20 (FIG. 3), a connection detection unit 22a constituted by a connection detection sensor 22 (FIG. 3), and a tire turning angle sensor. 24 (FIG. 3), a tire turning angle detection unit 24 a, an image boundary position calculation unit 28 a, a predicted course calculation unit 28 b, a tire direction calculation unit 28 c, and a touch panel configured by the ECU 28 (FIG. 3). Monitor 26 consisting of the image display unit 26a composed of a (FIG. 3).

画像入力部16aは、第1周囲監視部12を構成する各カメラ(12a,12b,12c,12d)(撮像部)で撮像された画像をデジタル化する。   The image input unit 16a digitizes an image captured by each camera (12a, 12b, 12c, 12d) (imaging unit) constituting the first surrounding monitoring unit 12.

画像変換部16bは、第1周囲監視部12を構成する各カメラ(12a,12b,12c,12d)で撮像された画像を、それぞれ第1仮想視点から俯瞰した複数の第1俯瞰画像IVA,IVB,IVD(詳しくは後述する)に変換するとともに、第2周囲監視部32を構成する各カメラ(32a,32b,32c)(撮像部)で撮像された画像を、それぞれ第2仮想視点から俯瞰した複数の第2俯瞰画像IVE,IVF,IVG(詳しくは後述する)に変換する。 The image conversion unit 16b includes a plurality of first bird's-eye images I VA that are obtained by bird's-eye view of images captured by the cameras (12a, 12b, 12c, and 12d) constituting the first surrounding monitoring unit 12, respectively. While converting to I VB and I VD (details will be described later), the images taken by the cameras (32a, 32b, 32c) (imaging unit) constituting the second surrounding monitoring unit 32 are respectively set to the second virtual viewpoint. Are converted into a plurality of second overhead images I VE , I VF , I VG (details will be described later).

画像合成部16cは、複数の第1俯瞰画像IVA,IVB,IVDを合成して第1合成画像IV1(詳しくは後述する)を生成し、複数の第2俯瞰画像IVE,IVF,IVGを合成して第2合成画像IV2(詳しくは後述する)を生成する。さらに、第1合成画像IV1と第2合成画像IV2を第3合成画像I(合成画像)(詳しくは後述する)に合成する。 The image synthesizing unit 16c generates a first synthesized image I V1 (details will be described later) by synthesizing the plurality of first overhead images I VA , I VB , and I VD , and a plurality of second overhead images I VE , I VF and IVG are combined to generate a second combined image I V2 (details will be described later). Further, the first synthesized image I V1 and the second synthesized image I V2 are synthesized with a third synthesized image I V (synthesized image) (details will be described later).

画像境界位置算出部28aは、第1周囲監視部12で撮像された各画像から生成された複数の第1俯瞰画像IVA,IVB,IVDと、第2周囲監視部32で撮像された各画像から生成された複数の第2俯瞰画像IVE,IVF,IVGと、を重ね合わせる際の境界線の位置を算出する。 The image boundary position calculation unit 28 a is captured by the plurality of first overhead images I VA , I VB , and I VD generated from the images captured by the first surrounding monitoring unit 12 and the second surrounding monitoring unit 32. The position of the boundary line when the plurality of second overhead images I VE , I VF , and I VG generated from the respective images are superimposed is calculated.

予測進路算出部28bは、牽引車10のタイヤの向き(前輪の向き)と、牽引車10、および被牽引車30のサイズを利用して牽引車10、被牽引車30の予測進路を算出する。   The predicted course calculation unit 28 b calculates the predicted paths of the tow vehicle 10 and the towed vehicle 30 using the tire direction (front wheel direction) of the tow vehicle 10 and the sizes of the tow vehicle 10 and the towed vehicle 30. .

タイヤ方向算出部28cは、タイヤ切れ角検出部24aで検出された牽引車10の前輪の切れ角に基づいて、牽引車10の前輪の向きを算出する。
(合成画像の構成の説明)
The tire direction calculation unit 28c calculates the direction of the front wheel of the tow vehicle 10 based on the front wheel turning angle detected by the tire turning angle detection unit 24a.
(Description of composition of composite image)

次に、図5(a),(b)を用いて、牽引車用周囲監視装置100によって生成される第3合成画像I(合成画像)の構成を説明する。 Next, the configuration of the third composite image I V (composite image) generated by the tow vehicle periphery monitoring device 100 will be described with reference to FIGS.

第1周囲監視部12を構成する各カメラ(12a,12b,12c,12d)(撮像部)で撮像された各画像は、牽引車10の上空の第1仮想視点V1に仮想的に設置された第1仮想カメラから観測されると予測される第1合成画像IV1に変換される。 Each image captured by each camera (12a, 12b, 12c, 12d) (imaging unit) constituting the first surrounding monitoring unit 12 is virtually installed at the first virtual viewpoint V1 above the towing vehicle 10. It is converted into a first composite image I V1 that is predicted to be observed from the first virtual camera.

また、第2周囲監視部32を構成する各カメラ(32a,32b,32c)(撮像部)で撮像された各画像は、被牽引車30の上空の第2仮想視点V2に仮想的に設置された第2仮想カメラから観測されると予測される第2合成画像IV2に変換される。 Further, each image captured by each camera (32a, 32b, 32c) (imaging unit) constituting the second surrounding monitoring unit 32 is virtually installed at the second virtual viewpoint V2 above the towed vehicle 30. The second synthesized image I V2 predicted to be observed from the second virtual camera is converted.

第1仮想カメラの設置位置である第1仮想視点V1と第2仮想カメラの設置位置である第2仮想視点V2は、それぞれ自由な位置に設置することができるが、第1仮想視点V1は牽引車10の真上に設置するのが望ましい。そして、第2仮想視点V2は被牽引車30の真上に、第1仮想視点V1と同じ高さに、第1仮想視点V1の観測範囲と第2仮想視点V2の観測範囲が重複するように設置するのが望ましい。   The first virtual viewpoint V1, which is the installation position of the first virtual camera, and the second virtual viewpoint V2, which is the installation position of the second virtual camera, can be installed at arbitrary positions, but the first virtual viewpoint V1 is pulled. It is desirable to install directly above the car 10. The second virtual viewpoint V2 is directly above the towed vehicle 30 and at the same height as the first virtual viewpoint V1, so that the observation range of the first virtual viewpoint V1 and the observation range of the second virtual viewpoint V2 overlap. It is desirable to install.

これは、最終的に牽引車10と被牽引車30の周囲を見渡した1枚の第3合成画像I(合成画像)を生成するため、この第3合成画像Iに途切れが生じず、なおかつ均一な画質の第3合成画像Iを得るためである。図5(a)は、このようにして第1仮想視点V1と第2仮想視点V2を設置した様子を示している。 This finally generates one third composite image I V (composite image) overlooking the surroundings of the tow vehicle 10 and the towed vehicle 30, so that the third composite image I V is not interrupted, This is because the third composite image IV having uniform image quality is obtained. FIG. 5A shows a state in which the first virtual viewpoint V1 and the second virtual viewpoint V2 are installed in this way.

第1仮想視点V1から観測されると予測される第1合成画像IV1は、第1周囲監視部12を構成する各カメラ(12a,12b,12c,12d)で撮像された各画像を、それぞれ、第1仮想視点V1から観測されると予測される複数の第1俯瞰画像IVA,IVB,IVDに変換して、さらに、それらの画像を1枚の画像に合成することによって生成される。 The first composite image I V1 predicted to be observed from the first virtual viewpoint V1 is an image captured by each camera (12a, 12b, 12c, 12d) constituting the first surrounding monitoring unit 12, respectively. , Converted into a plurality of first overhead images I VA , I VB , and I VD that are predicted to be observed from the first virtual viewpoint V 1, and further generated by combining these images into one image. The

ここで、牽引車10に設置された後方カメラ12cの観測範囲には、連結された被牽引車30の像が映り込んでしまい、本来観測したい牽引車10の後方が映らないため、以後の処理では、後方カメラ12cで撮像された画像は使用しない。なお、後方カメラ12cで撮像された画像は、牽引車10が単独で(被牽引車を連結しないで)走行するときに、牽引車10の後方を監視する目的で利用される。   Here, the image of the connected towed vehicle 30 is reflected in the observation range of the rear camera 12c installed on the tow vehicle 10, and the rear of the towed vehicle 10 that is originally desired to be observed is not reflected. Then, the image imaged with the rear camera 12c is not used. The image captured by the rear camera 12c is used for the purpose of monitoring the rear of the tow vehicle 10 when the tow vehicle 10 travels alone (without connecting the towed vehicle).

なお、第2仮想視点V2から観測されると予測される第2合成画像IV2は、第2周囲監視部32を構成する各カメラ(32a,32b,32c)で撮像された各画像を、それぞれ、第2仮想視点V2から観測されると予測される複数の第2俯瞰画像IVE,IVF,IVGに変換して、さらに、それらの画像を1枚の画像に合成することによって生成される。 Note that the second composite image I V2 predicted to be observed from the second virtual viewpoint V2 is an image captured by each camera (32a, 32b, 32c) constituting the second surrounding monitoring unit 32, respectively. , Converted into a plurality of second overhead images I VE , I VF , I VG that are predicted to be observed from the second virtual viewpoint V 2, and further synthesized into a single image. The

第1周囲監視部12を構成する各カメラ(12a,12b,12c)で撮影した各画像を、第1仮想視点V1から観測されると予測される複数の第1俯瞰画像IVA,IVB,IVDに変換する手法には様々なものがあり、そのいずれを用いてもよい。例えば、各カメラ(12a,12b,12c)で撮影された各画像に、全て平坦な地面(高さ0の平面)が映っているものと仮定して、その地面の点が、第1仮想視点V1から見て、複数の第1俯瞰画像IVA,IVB,IVD上でどの位置(座標)に観測されるかを逐次計算することによって生成することができる。複数の第2俯瞰画像IVE,IVF,IVGについても同様にして生成することができる。 A plurality of first bird's-eye images I VA , I VB , which are predicted to be observed from the first virtual viewpoint V <b> 1 with images taken by the cameras (12 a, 12 b, 12 c) constituting the first surrounding monitoring unit 12. There are various methods for converting to IVD , any of which may be used. For example, assuming that a flat ground (a plane having a height of 0) is reflected in each image taken by each camera (12a, 12b, 12c), the ground point is the first virtual viewpoint. It can be generated by sequentially calculating which position (coordinate) is observed on the plurality of first overhead images I VA , I VB , and I VD as viewed from V1. A plurality of second overhead images I VE , I VF , and I VG can be generated in the same manner.

そして、複数の第1俯瞰画像IVA,IVB,IVDは第1合成画像IV1に合成されて、複数の第2俯瞰画像IVE,IVF,IVGは第2合成画像IV2に合成されて、第1合成画像IV1と第2合成画像IV2は、境界線L1,L2の位置で1枚の第3合成画像Iに合成される。 Then, the plurality of first bird's-eye images I VA , I VB , and I VD are synthesized with the first synthesized image I V1 , and the plurality of second bird's-eye images I VE , I VF , and I VG are synthesized with the second synthesized image I V2 . The first synthesized image I V1 and the second synthesized image I V2 are synthesized into one third synthesized image IV at the positions of the boundary lines L1 and L2.

このとき、第1合成画像IV1と第2合成画像IV2は、第1合成画像IV1の中で牽引車10の牽引車側連結部14の位置に対応する画素と、第2合成画像IV2の中で被牽引車30の被牽引車側連結部34の位置に対応する画素とを合致させることによって合成する。すなわち、図5(b)に示す点C8の位置で第1合成画像IV1と第2合成画像IV2を合成する。 At this time, the first composite image I V1 and the second composite image I V2 include the pixels corresponding to the position of the tow vehicle side connecting portion 14 of the tow vehicle 10 in the first composite image I V1 , and the second composite image I. Synthesis is performed by matching the pixels corresponding to the position of the towed vehicle side connecting portion 34 of the towed vehicle 30 in V2 . That is, the first synthesized image I V1 and the second synthesized image I V2 are synthesized at the position of the point C8 shown in FIG.

なお、点C8を合致させただけでは、2枚の画像の向きが特定されない。そのため、牽引車10と被牽引車30のなす角度(姿勢)を検出して、この姿勢に応じた角度で第1合成画像IV1と第2合成画像IV2を合成する。図5(a),(b)の場合、牽引車10と被牽引車30は直進状態にあるため、第1合成画像IV1と第2合成画像IV2は、図5(b)に示すように、同じ向きで合成される。 Note that the orientation of the two images is not specified only by matching the point C8. Therefore, the angle (posture) formed by the tow vehicle 10 and the towed vehicle 30 is detected, and the first composite image I V1 and the second composite image I V2 are combined at an angle corresponding to this posture. In the case of FIGS. 5A and 5B, since the tow vehicle 10 and the towed vehicle 30 are in the straight traveling state, the first composite image I V1 and the second composite image I V2 are as shown in FIG. 5B. Are synthesized in the same direction.

次に、第1俯瞰画像IVA,IVB,IVDと第2俯瞰画像IVE,IVF,IVGを生成する方法について説明する。第1周囲監視部12を構成する各カメラ(12a,12b,12c)で撮影した画像を、第1仮想視点V1から観測されると予測される複数の第1俯瞰画像IVA,IVB,IVDに変換して、さらに第1合成画像IV1に合成するためには、各カメラ(12a,12b,12c)の設置位置,設置方向と、各カメラ(12a,12b,12c)のカメラ内部パラメータ(焦点距離,画像中心位置,歪収差係数等)が必要である。このうち、各カメラ(12a,12b,12c)の設置位置と設置方向は予め計測しておくことができる。またカメラ内部パラメータは、各カメラ(12a,12b,12c)の校正(キャリブレーション)を行って推定することができる。このようにして予め取得された値は、牽引車情報記憶部17a(第1情報記憶部,情報記憶部)(図4)に記憶しておく。なお、必要な座標変換、合成の演算は、牽引車情報記憶部17aに記憶された値を用いてその都度行ってもよいが、演算をより効率的に行うために、座標変換、合成の規則を、予めLUT(ルックアップテーブル)で構成された座標変換合成テーブルの形式で用意しておいてもよい。 Next, a method for generating the first overhead images I VA , I VB , and I VD and the second overhead images I VE , I VF , and I VG will be described. A plurality of first bird's-eye images I VA , I VB , I that are predicted to be observed from the first virtual viewpoint V <b> 1 with images taken by the cameras (12 a, 12 b, 12 c) constituting the first surrounding monitoring unit 12. In order to convert to VD and further combine with the first composite image IV1 , the installation position and installation direction of each camera (12a, 12b, 12c) and the camera internal parameters of each camera (12a, 12b, 12c) (Focal length, image center position, distortion aberration coefficient, etc.) are required. Among these, the installation position and installation direction of each camera (12a, 12b, 12c) can be measured in advance. The camera internal parameters can be estimated by calibrating each camera (12a, 12b, 12c). Thus, the value acquired beforehand is memorize | stored in the tow vehicle information storage part 17a (1st information storage part, information storage part) (FIG. 4). It should be noted that the necessary coordinate conversion and synthesis calculations may be performed each time using the values stored in the tow vehicle information storage unit 17a. However, in order to perform the calculation more efficiently, the rules for coordinate conversion and synthesis are used. May be prepared in the form of a coordinate conversion synthesis table configured in advance with a LUT (lookup table).

同様に、第2周囲監視部32を構成する各カメラ(32a,32b,32c)で撮像された各画像を、それぞれ、第2仮想視点V2から観測されると予測される複数の第2俯瞰画像IVE,IVF,IVGに変換して、さらに第2合成画像IV2に合成するためには、各カメラ(32a,32b,32c)の取付位置,設置方向と、各カメラ(32a,32b,32c)のカメラ内部パラメータが必要である。これらの値は、前述したように、予め測定して被牽引車情報記憶部37a(第2情報記憶部,情報記憶部)(図4)に記憶しておく。また、必要な座標変換、合成の演算をより効率的に行うために、前述したように、座標変換、合成の規則を、予めLUT(ルックアップテーブル)で構成された座標変換合成テーブルの形式で用意しておいてもよい。 Similarly, a plurality of second bird's-eye images predicted to be observed from the second virtual viewpoint V2 with respect to each image captured by each camera (32a, 32b, 32c) constituting the second surrounding monitoring unit 32. In order to convert into I VE , I VF , I VG and further synthesize to the second composite image I V2 , the mounting position and installation direction of each camera (32a, 32b, 32c) and each camera (32a, 32b) , 32c) are required. As described above, these values are measured in advance and stored in the towed vehicle information storage unit 37a (second information storage unit, information storage unit) (FIG. 4). In addition, as described above, in order to perform necessary coordinate conversion and synthesis operations more efficiently, the rules for coordinate conversion and synthesis are set in the format of a coordinate conversion synthesis table that is configured in advance by a LUT (lookup table). It may be prepared.

このようにして生成された第1合成画像IV1と第2合成画像IV2を合成して第3合成画像I(合成画像)を生成するためには、前述した点C8の位置、および、牽引車10と被牽引車30の姿勢が必要である。 In order to generate the third composite image I V (composite image) by combining the first composite image I V1 and the second composite image I V2 generated in this way, the position of the point C8 described above, and The attitude of the tow vehicle 10 and the towed vehicle 30 is required.

このうち、点C8の位置は、牽引車情報記憶部17aに記憶された牽引車側連結部14の位置と、被牽引車情報記憶部37aに記憶された被牽引車側連結部34の位置を参照することによって取得することができる。また、牽引車10と被牽引車30の姿勢は、姿勢検出部20aで検出することができる。   Among these, the position of the point C8 is the position of the tow vehicle side connection unit 14 stored in the tow vehicle information storage unit 17a and the position of the towed vehicle side connection unit 34 stored in the towed vehicle information storage unit 37a. It can be obtained by referring. Moreover, the attitude | position of the tow vehicle 10 and the towed vehicle 30 can be detected by the attitude | position detection part 20a.

ここで、図5(b)に示す境界線L1,L2の位置は、牽引車10に対する被牽引車30の姿勢(牽引車10と被牽引車30のなす角度)に応じて変化する。したがって、牽引車10と被牽引車30の姿勢が変化すると、境界線L1,L2の位置が変化して、それに応じて第3合成画像I(合成画像)の形態も変化する。姿勢変化に応じた第3合成画像Iの具体的な形態については後述する。 Here, the positions of the boundary lines L <b> 1 and L <b> 2 shown in FIG. 5B change according to the attitude of the towed vehicle 30 with respect to the towed vehicle 10 (an angle formed between the towed vehicle 10 and the towed vehicle 30). Therefore, when the postures of the tow vehicle 10 and the towed vehicle 30 change, the positions of the boundary lines L1 and L2 change, and the form of the third composite image I V (composite image) changes accordingly. A specific form of the third composite image IV corresponding to the posture change will be described later.

第3合成画像I(合成画像)には、さらに、図5(b)に示すように、牽引車10を真上から俯瞰した牽引車アイコンRと、被牽引車30を真上から俯瞰した被牽引車アイコンRがそれぞれ重畳される。 Further, in the third composite image I V (composite image), as shown in FIG. 5B, the tow vehicle icon R 1 overlooking the tow vehicle 10 from directly above and the tow vehicle 30 overlooked from directly above. towed vehicle icon R 2 that is superimposed respectively.

さらに、第3合成画像I(合成画像)には、牽引車10の左前輪Tと右前輪Tの向きが描画されて、牽引車10の左前輪Tの予測進路Traと、牽引車10の右前輪Tの予測進路Trbと、被牽引車30の左後輪の予測進路Trcと、被牽引車30の右後輪の予測進路Trdが、それぞれ描画される。牽引車10の左前輪Tと右前輪Tの向きは、タイヤ切れ角検出部24a(図4)で検出されたタイヤ切れ角に基づいて、タイヤ方向算出部28c(図4)で算出される。また、各予測進路Tra,Trb,Trc,Trdは、牽引車10と被牽引車のサイズとタイヤ設置位置を用いて、予測進路算出部28bにおいて算出される。なお、必要な車両情報は、予め記憶されて、必要に応じて使用されるものとする。 Further, the third composite image I V (composite image), and left front wheel T L and orientation of the right front wheel T R of the towing vehicle 10 is drawn, and the predicted course Tra of the left front wheel T L of the towing vehicle 10, traction a predicted course Trb of the right front wheel T R of the car 10, and the predicted course Trc of the left rear wheel of the towing vehicle 30, the predicted route Trd of the right rear wheel of the tractor 30, are drawn respectively. Left direction of the front wheel T L and the right front wheel T R of the towing vehicle 10, based on tire turning angle detected by the tire turning angle detection unit 24a (FIG. 4), is calculated in the tire direction calculation section 28c (Fig. 4) The Further, the predicted courses Tra, Trb, Trc, and Trd are calculated by the predicted course calculation unit 28b using the sizes of the tow vehicle 10 and the towed vehicle and the tire installation positions. It is assumed that necessary vehicle information is stored in advance and used as necessary.

このようにして生成された第3合成画像I(合成画像)は、牽引車10に設置された画像表示部26a(図4)に出力される。そして、牽引車10の運転者は、この第3合成画像Iを確認して、牽引車10,被牽引車30の周囲の障害物の存在や牽引車10,被牽引車30の予測進路を把握して運転を行う。 The third composite image I V (composite image) generated in this way is output to the image display unit 26 a (FIG. 4) installed on the towing vehicle 10. Then, the driver of the tow vehicle 10 confirms the third composite image IV to determine the presence of obstacles around the tow vehicle 10 and the towed vehicle 30 and the predicted course of the towed vehicle 10 and the towed vehicle 30. Know and drive.

なお、以後の説明を簡単にするため、第1周囲監視部12を構成する各カメラ(12a,12b,12d)(図1(a))は、それぞれ点C1,点C2,点C4の位置に設置されているものとする。また、第2周囲監視部32を構成する各カメラ(32a,32b,32c)(図2(a))は、それぞれ点C5,点C6,点C7の位置に設置されているものとする。
(第1合成画像と第2合成画像の合成方法の説明)
In order to simplify the following description, the cameras (12a, 12b, 12d) (FIG. 1 (a)) constituting the first surrounding monitoring unit 12 are positioned at points C1, C2, and C4, respectively. It shall be installed. In addition, it is assumed that the cameras (32a, 32b, 32c) (FIG. 2 (a)) constituting the second surrounding monitoring unit 32 are installed at the positions of points C5, C6, and C7, respectively.
(Description of the method of combining the first composite image and the second composite image)

次に、第1合成画像IV1と第2合成画像IV2の合成方法について、図6を用いて説明する。 Next, a method for synthesizing the first synthesized image I V1 and the second synthesized image I V2 will be described with reference to FIG.

図6は、図5(b)に示した第3合成画像I(合成画像)の右半分の領域のみを、説明のために拡大して示したものである。図6に示すように、第1仮想視点V1(図5(a))から観測されると予測される第1合成画像IV1と、第2仮想視点V2(図5(a))から観測されると予測される第2合成画像IV2は、境界線L1の位置で合成される。 FIG. 6 is an enlarged view of only the right half region of the third composite image I V (composite image) shown in FIG. As shown in FIG. 6, the first synthesized image I V1 predicted to be observed from the first virtual viewpoint V1 (FIG. 5A) and the second virtual viewpoint V2 (FIG. 5A) are observed. The second synthesized image I V2 predicted to be synthesized is synthesized at the position of the boundary line L1.

ここで、点C4の位置に設置された、牽引車10の右側方カメラ12d(図1(a))の撮像領域Z04と、点C7の位置に設置された、被牽引車30の右側方カメラ32c(図2(a))の撮像領域Z07と、は重複撮像領域Zを有するように配置されているものとする。 Here, installed at the position of the point C4, the imaging region Z 04 of the right side camera 12d of the towing vehicle 10 (FIG. 1 (a)), which is installed at a position of the point C7, the right side of the tractor 30 the imaging region Z 07 of the camera 32c (FIG. 2 (a)), is assumed to be arranged so as to have overlapping imaging region Z 0.

したがって、例えば、図6に示す点Aの位置,点Bの位置は、それぞれ、牽引車10の右側方カメラ12d(図1(a))と被牽引車30の右側方カメラ32c(図2(a))の両方で観測される。そのため、第1合成画像IV1と第2合成画像IV2を合成する際、重複撮像領域Zについては、右側方カメラ12d,32cのうちいずれか一方のカメラで観測された情報を選択する必要がある。 Therefore, for example, the position of the point A and the position of the point B shown in FIG. 6 are respectively the right side camera 12d (FIG. 1A) of the tow vehicle 10 and the right side camera 32c of the towed vehicle 30 (FIG. 2). Observed in both a)). Therefore, when synthesizing the first synthetic image I V1 the second synthetic image I V2, the overlapping imaging area Z 0 it is necessary to select the information observed by either camera of the right side camera 12d, 32c There is.

本実施例1では、重複撮像領域Zの中の着目した点A,点Bから見て、牽引車10の右側方カメラ12dと被牽引車30の右側方カメラ32cのうち、より近いカメラで撮像された情報を選択する。これは、カメラから近い位置で撮像された、より解像度の高い情報を選択して利用することによって、より高画質な第3合成画像I(合成画像)を生成するためである。 In Example 1, the focused point A in the overlapping imaging areas Z 0, as viewed from the point B, of the right side camera 32c of the right side camera 12d and towed vehicle 30 of the tractor 10, in a closer camera Select the imaged information. This is because a higher-quality third composite image I V (composite image) is generated by selecting and using information with higher resolution, which is captured at a position close to the camera.

例えば、図6に示す例では、点Aにおいて、線分AC4の長さ<線分AC7の長さとなるため、牽引車10の点C4に設置された右側方カメラ12dで撮像された情報が選択される。また、点Bにおいては、線分BC4の長さ>線分BC7の長さとなるため、被牽引車30の点C7に設置された右側方カメラ32cで撮像された情報が選択される。   For example, in the example shown in FIG. 6, since the length of the line segment AC4 <the length of the line segment AC7 at the point A, the information captured by the right-side camera 12d installed at the point C4 of the towing vehicle 10 is selected. Is done. Further, at point B, the length of the line segment BC4 is greater than the length of the line segment BC7, and therefore information captured by the right side camera 32c installed at the point C7 of the towed vehicle 30 is selected.

すなわち、点C4と点C7を結ぶ線分の垂直2等分線を境界線L1として、境界線L1よりも上方では、牽引車10の右側方カメラ12dで撮像された情報が選択される。また、境界線L1よりも下方では、被牽引車30の右側方カメラ32cで撮像された情報が選択される。そして、第1合成画像IV1と第2合成画像IV2が合成されて第3合成画像I(合成画像)が生成される。
(第3合成画像(合成画像)の実例の説明)
That is, information captured by the right-side camera 12d of the tow vehicle 10 is selected above the boundary line L1 with the perpendicular bisector connecting the point C4 and the point C7 as the boundary line L1. Further, below the boundary line L1, information captured by the right side camera 32c of the towed vehicle 30 is selected. Then, the first synthesized image I V1 and the second synthesized image I V2 are synthesized to generate a third synthesized image I V (synthesized image).
(Description of an example of the third composite image (composite image))

次に、図7,図8,図9を用いて、本実施例1で生成される第3合成画像I(合成画像)の実例について説明する。 Next, an example of the third synthesized image I V (synthesized image) generated in the first embodiment will be described with reference to FIGS. 7, 8, and 9.

図7は、牽引車10が被牽引車30を連結した状態で前進しながら右旋回している際に生成される第3合成画像I(合成画像)の例である。牽引車10と被牽引車30が図7の状態にあるとき、牽引車10は被牽引車30に対して、牽引車側連結部14(被牽引車側連結部34)を支点として右方向を向いている。その角度は姿勢検出部20a(図4)で検出される。そして、第1周囲監視部12を構成する各カメラ(12a,12b,12d)(図1(a))で撮像された複数の第1俯瞰画像IVA,IVB,IVDから生成された第1合成画像IV1と、第2周囲監視部32を構成する各カメラ(32a,32b,32c)(図2(a))で撮像された複数の第2俯瞰画像IVE,IVF,IVGから生成された第2合成画像IV2と、が検出された角度に応じて合成される。なお、このとき、第3合成画像I(合成画像)の視認性を高めるために、牽引車10を含む第1合成画像IV1は、常に同じ位置に、真上を向いた状態で表示される。 FIG. 7 is an example of a third composite image I V (composite image) generated when the tow vehicle 10 is turning right while moving forward with the towed vehicle 30 connected. When the tow vehicle 10 and the towed vehicle 30 are in the state shown in FIG. 7, the towed vehicle 10 moves in the right direction with respect to the towed vehicle 30 with the towed vehicle side connecting portion 14 (the towed vehicle side connecting portion 34) as a fulcrum. It is suitable. The angle is detected by the posture detection unit 20a (FIG. 4). And the 1st bird's-eye view image IVA , IVB , IVD produced | generated by each camera (12a, 12b, 12d) (Fig.1 (a)) which comprises the 1st surroundings monitoring part 12 was produced | generated. One composite image I V1 and a plurality of second overhead images I VE , I VF , I VG captured by the cameras (32a, 32b, 32c) (FIG. 2A) constituting the second surrounding monitoring unit 32 Are synthesized according to the detected angle. At this time, in order to improve the visibility of the third composite image I V (composite image), the first composite image I V1 including the tow vehicle 10 is always displayed at the same position in a state of facing directly upward. The

第1合成画像IV1の一部である第1俯瞰画像IVDと第2合成画像IV2の一部である第2俯瞰画像IVGを合成する際の境界線L1は、前述したように、点C4と点C7を結ぶ線分の垂直2等分線として設定される。同様にして、第1合成画像IV1の一部である第1俯瞰画像IVBと第2合成画像IV2の一部である第2俯瞰画像IVEを合成する際の境界線L2は、牽引車10の左側方カメラ32aが設置された点C2と被牽引車30の左側方カメラ32aが設置された点C5を結ぶ線分の垂直2等分線として設定される。 As described above, the boundary line L1 when the first overhead image I VD that is a part of the first composite image I V1 and the second overhead image I VG that is a part of the second composite image I V2 is synthesized, It is set as a perpendicular bisector of a line segment connecting points C4 and C7. Similarly, the boundary line L2 when combining the first overhead image I VB that is a part of the first composite image I V1 and the second overhead image I VE that is a part of the second composite image I V2 It is set as a perpendicular bisector of a line segment connecting the point C2 where the left side camera 32a of the car 10 is installed and the point C5 where the left side camera 32a of the towed vehicle 30 is installed.

牽引車10と被牽引車30のなす角度が大きくなると、各カメラ(12a,12b,12d,32a,32b,32c)から死角となる領域が発生する。この死角領域Zに対応する位置には、図7に示すように所定の値(例えば0)を格納して、情報がないことを示す。 When the angle formed by the tow vehicle 10 and the towed vehicle 30 is increased, a blind area is generated from each camera (12a, 12b, 12d, 32a, 32b, 32c). The position corresponding to the blind spot region Z P, and stores a predetermined value (e.g., 0) as shown in FIG. 7 shows that there is no information.

また、牽引車10の左前輪Tと右前輪Tの向き、および牽引車10,被牽引車30の予測進路Tra,Trb,Trc,Trdが、それぞれ第3合成画像I(合成画像)の上に重畳されて、牽引車10,被牽引車30の今後の動きが可視化される。 Also, the left front wheel T L and the right front wheel T R orientation of the towing vehicle 10, and the tractor 10, the predicted course of the towing vehicle 30 Tra, Trb, Trc, Trd, respectively third combined image I V (composite image) The future movements of the tow vehicle 10 and the towed vehicle 30 are visualized.

図8は、牽引車10が被牽引車30を連結した状態で、左に操舵しながら後退している際に生成される第3合成画像I(合成画像)の例である。 FIG. 8 is an example of a third composite image I V (composite image) that is generated when the tow vehicle 10 is reversing while steering to the left with the tow vehicle 30 connected.

この場合も、前述した通り、牽引車10と被牽引車30の姿勢に応じた角度で第1合成画像IV1と第2合成画像IV2が合成される。そして、境界線L1,L2の位置も、前述した通りに計算されて、第1合成画像IV1と第2合成画像IV2の合成が行われる。 Also in this case, as described above, the first composite image I V1 and the second composite image I V2 are combined at an angle corresponding to the postures of the tow vehicle 10 and the towed vehicle 30. The positions of the boundary lines L1 and L2 are also calculated as described above, and the first synthesized image I V1 and the second synthesized image I V2 are synthesized.

図9は、図8に示す第3合成画像I(合成画像)が得られたときに、画像表示部26a(図4)に表示される表示情報Iの例である。画像表示部26aはタッチパネル機能を併せ持っており、図9に示すように、第3合成画像Iと、被牽引車30の後方カメラ32b(図2(a))で撮像された後方画像Iと、表示情報Iを必要に応じて切り換える操作スイッチである情報操作アイコンQ,Qがそれぞれ表示される。それぞれの画像およびアイコンは、表示画面Iの上に、予め設定された位置に配置される。牽引車10の運転者は、この表示情報Iを確認して、周囲の状況を認識した上で運転を行う。
(実施例1の処理の流れの説明)
9, when the third combined image I V (composite image) is obtained as shown in FIG. 8, an example of a display information I P to be displayed on the image display unit 26a (FIG. 4). The image display unit 26a has combines a touch panel function, as shown in FIG. 9, the third synthetic image I V and the rear camera 32b of the towed vehicle 30 (FIG. 2 (a)) the rearward image captured by the I B If, the information operation icon Q 1, Q 2 is an operation switch for switching as necessary display information I P are respectively displayed. Each image and icons on the display screen I C, is placed at a predetermined position. The driver of the tractor 10, to confirm the display information I P, carry out the operation in terms of recognizing the surrounding circumstances.
(Description of the flow of processing in the first embodiment)

次に、実施例1の具体的な処理の流れについて、図10,図11のフローチャートを用いて説明する。   Next, a specific processing flow of the first embodiment will be described with reference to the flowcharts of FIGS.

図10は、実施例1で行う処理の全体の流れを示したフローチャートである。以下、順を追って説明する。なお、図10のフローチャートは、所定の周期で自動的に繰り返して実行される。   FIG. 10 is a flowchart illustrating an overall flow of processing performed in the first embodiment. In the following, description will be given in order. Note that the flowchart of FIG. 10 is automatically and repeatedly executed at a predetermined cycle.

(ステップS10)牽引車10と被牽引車30が連結したか否かを検出する。連結したことが確認されたらステップS15に進み、連結が確認できないときは図10の処理を終了する。   (Step S10) It is detected whether the tow vehicle 10 and the towed vehicle 30 are connected. If it is confirmed that the connection is established, the process proceeds to step S15. If the connection cannot be confirmed, the process of FIG. 10 is terminated.

(ステップS15)被牽引車30にカメラ(撮像部)が設置されているか否かを、画像入力部36aを構成する第2カメラECU36(図3)が設置されているか否かを判定することによって判断する。被牽引車30に第2カメラECU36が設置されていることが確認されたときはステップS20に進み、それ以外のときは図10の処理を終了する。   (Step S15) By determining whether or not a camera (imaging unit) is installed in the towed vehicle 30, it is determined whether or not the second camera ECU 36 (FIG. 3) constituting the image input unit 36a is installed. to decide. When it is confirmed that the second camera ECU 36 is installed in the towed vehicle 30, the process proceeds to step S20, and otherwise, the process of FIG. 10 is terminated.

(ステップS20)ステップS20を以前に実行したか否かを判断する。ステップS20を初めて実行したときはステップS25に進み、それ以外のときはステップS35に進む。   (Step S20) It is determined whether or not Step S20 has been executed previously. When step S20 is executed for the first time, the process proceeds to step S25, and otherwise, the process proceeds to step S35.

(ステップS25)被牽引車情報記憶部37a(第2情報記憶部,情報記憶部)に記憶された情報を牽引車10に転送する。これによって、第2周囲監視部32を構成する各カメラ(32a,32b,32c)の設置位置,設置方向,カメラ内部パラメータ、および被牽引車側連結部34の位置が、それぞれ牽引車10に転送される。   (Step S25) Information stored in the towed vehicle information storage unit 37a (second information storage unit, information storage unit) is transferred to the towed vehicle 10. As a result, the installation position, installation direction, camera internal parameters, and position of the towed vehicle side connecting unit 34 of each camera (32a, 32b, 32c) constituting the second surrounding monitoring unit 32 are transferred to the towing vehicle 10 respectively. Is done.

(ステップS30)牽引車10に設置された第1周囲監視部12を構成するカメラ(撮像部)の中で、被牽引車30が連結されたときに不要となるカメラの有無を判断する。本実施例1の場合、前述したように後方カメラ12cが不要と判断されて、後方カメラ12cへの電源供給を停止し、後方カメラ12cは以降の処理には使用しない。なお、不要になるカメラは、連結される被牽引車の形式によって異なるため、予め、例えば牽引車情報記憶部17a(第1情報記憶部,情報記憶部)に、該当する被牽引車が連結されたときには所定のカメラの電源供給を切断する旨(例えば、被牽引車30が連結されたときには、後方カメラ12cを停止する)の規則を記憶しておき、この規則に基づいて判断すればよい。   (Step S30) In the cameras (imaging units) constituting the first surrounding monitoring unit 12 installed in the tow vehicle 10, it is determined whether there is a camera that is unnecessary when the towed vehicle 30 is connected. In the case of the first embodiment, as described above, it is determined that the rear camera 12c is unnecessary, the power supply to the rear camera 12c is stopped, and the rear camera 12c is not used for the subsequent processing. In addition, since the camera which becomes unnecessary changes with forms of the towed vehicle to be connected, the towed vehicle is connected in advance to, for example, the towed vehicle information storage unit 17a (first information storage unit, information storage unit). In this case, a rule that the power supply of a predetermined camera is cut off (for example, the rear camera 12c is stopped when the towed vehicle 30 is connected) is stored, and the determination may be made based on this rule.

(ステップS35)被牽引車30に設置された第2周囲監視部32を構成する各カメラ(32a,32b,32c)(撮像部)で撮像された画像を牽引車10に転送する。   (Step S <b> 35) Images captured by the cameras (32 a, 32 b, 32 c) (imaging unit) constituting the second surrounding monitoring unit 32 installed in the towed vehicle 30 are transferred to the towing vehicle 10.

(ステップS40)画像変換部16bにおいて、第1俯瞰画像IVA,IVB,IVDと第2俯瞰画像IVE,IVF,IVGを生成する。 (Step S40) The image conversion unit 16b generates first overhead images I VA , I VB , I VD and second overhead images I VE , I VF , I VG .

(ステップS45)画像合成部16cにおいて、第1俯瞰画像IVA,IVB,IVDを合成して第1合成画像IV1を生成し、第2俯瞰画像IVE,IVF,IVGを合成して第2合成画像IV2を生成する。 (Step S45) In the image composition unit 16c, the first overhead images I VA , I VB , and I VD are synthesized to generate the first synthesized image I V1 , and the second overhead images I VE , I VF , and I VG are synthesized. Thus, a second composite image I V2 is generated.

(ステップS50)第1合成画像IV1と第2合成画像IV2を重ね合わせて、第3合成画像I(合成画像)を生成する。この処理の詳細な流れは後述する。 (Step S50) The first synthesized image I V1 and the second synthesized image I V2 are superimposed to generate a third synthesized image I V (synthesized image). The detailed flow of this process will be described later.

(ステップS55)タイヤ切れ角センサ24によって牽引車10の前輪T,Tの向きを検出して、検出された前輪T,Tの向きに基づいて、牽引車10の前輪を描画する。また、牽引車10と被牽引車30の予測進路Tra,Trb,Trc,Trdを推定して、推定された予測進路Tra,Trb,Trc,Trdを第3合成画像I(合成画像)に重畳表示する。 (Step S55) to detect the front wheels T L, T R orientation of the towing vehicle 10 by the tire turning angle sensor 24, the detected front wheel T L, based on the orientation of the T R, to draw the front wheels of the towing vehicle 10 . Further, the estimated paths Tra, Trb, Trc, and Trd of the tow vehicle 10 and the towed vehicle 30 are estimated, and the estimated predicted paths Tra, Trb, Trc, and Trd are superimposed on the third synthesized image I V (synthesized image). indicate.

(ステップS60)第3合成画像I(合成画像)を画像表示部26aに表示する。 (Step S60) The third composite image I V (composite image) is displayed on the image display unit 26a.

なお、図10のフローチャートには記載していないが、牽引車10のエンジンが停止したとき,牽引車10と被牽引車30の連結が解除されたとき、または、運転者の操作によって第3合成画像I(合成画像)の表示が消去されたときには、図10の処理が中止される。 Although not described in the flowchart of FIG. 10, the third synthesis is performed when the engine of the tow vehicle 10 is stopped, when the connection between the tow vehicle 10 and the towed vehicle 30 is released, or by the operation of the driver. When the display of the image I V (composite image) is erased, the processing in FIG. 10 is stopped.

次に、図11を用いて、ステップS50で行う第1合成画像IV1と第2合成画像IV2の重ね合わせ処理の流れについて、詳しく説明する。 Next, with reference to FIG. 11, the flow of the overlay process of the first composite image I V1 and the second composite image I V2 performed in step S50 will be described in detail.

(ステップS80)姿勢検出部20aにおいて、牽引車10と被牽引車30のなす角度に基づいて、牽引車10と被牽引車30の姿勢を算出する。   (Step S <b> 80) In the posture detection unit 20 a, the postures of the tow vehicle 10 and the towed vehicle 30 are calculated based on the angle formed by the towed vehicle 10 and the towed vehicle 30.

(ステップS82)画像境界位置算出部28aにおいて、第1合成画像IV1と第2合成画像IV2を重ね合わせる際の境界線L1,L2の位置を算出する。 (Step S82) The image boundary position calculation unit 28a calculates the positions of the boundary lines L1 and L2 when the first composite image I V1 and the second composite image I V2 are superimposed.

(ステップS84)画像合成部16cにおいて、第1合成画像IV1と第2合成画像IV2を重ね合わせて第3合成画像I(合成画像)を生成する。具体的には、前述した通り、境界線L1,L2を境にして、必要な画像情報を選択して重ね合わせる。その後、メインルーチン(図10のフローチャート)に戻る。 (Step S84) In the image composition unit 16c, the first composite image I V1 and the second composite image I V2 are superimposed to generate a third composite image I V (composite image). Specifically, as described above, necessary image information is selected and superimposed on the boundary lines L1 and L2. Thereafter, the process returns to the main routine (flow chart in FIG. 10).

次に、本発明の別の実施形態である牽引車用周囲監視装置110について説明する。
(実施例2のシステム構成の説明)
Next, a tow vehicle periphery monitoring device 110, which is another embodiment of the present invention, will be described.
(Description of System Configuration of Example 2)

実施例2は、本発明を、被牽引車30が連結された牽引車10の周囲状況を監視する牽引車用周囲監視装置110に適用したものである。図12は、牽引車用周囲監視装置110の機能構成を示す機能ブロック図である。以下、牽引車用周囲監視装置100(図4)との相違点についてのみ簡単に説明する。
(実施例2の機能,作用の説明)
In the second embodiment, the present invention is applied to a towed vehicle surrounding monitoring device 110 that monitors the surroundings of the towed vehicle 10 to which the towed vehicle 30 is connected. FIG. 12 is a functional block diagram showing a functional configuration of the tow vehicle periphery monitoring device 110. Hereinafter, only differences from the tow vehicle surrounding monitoring apparatus 100 (FIG. 4) will be briefly described.
(Explanation of functions and operations of Embodiment 2)

牽引車用周囲監視装置110は、実施例1で説明した牽引車用周囲監視装置100と同じ機能を有するが、内部の機能構成が異なっている。なお、牽引車用周囲監視装置110によって生成される第1俯瞰画像IVA,IVB,IVD,第2俯瞰画像IVE,IVF,IVG,第1合成画像IV1,第2合成画像IV2,第3合成画像I(合成画像)は、いずれも、実施例1で説明したものと同じである。 The tow vehicle surroundings monitoring device 110 has the same function as the tow vehicle surroundings monitoring device 100 described in the first embodiment, but the internal functional configuration is different. The first bird's-eye view images I VA , I VB , I VD , the second bird's-eye view images I VE , I VF , I VG , the first synthesized image I V1 , and the second synthesized image generated by the tow vehicle surrounding monitoring device 110. I V2 and the third synthesized image I V (synthesized image) are both the same as those described in the first embodiment.

牽引車用周囲監視装置110と牽引車用周囲監視装置100の構成上の違いは、牽引車用周囲監視装置100では、被牽引車30が、被牽引車情報記憶部37a(第2情報記憶部)に、第2周囲監視部32を構成する各カメラ(32a,32b,32c)の設置位置,設置方向,カメラ内部パラメータと牽引車側連結部14の位置を記憶しており、牽引車10と被牽引車30が連結したときに、これらの情報を牽引車10に転送しているのに対し、牽引車用周囲監視装置110では、被牽引車30は、被牽引車30を識別することができる識別情報のみを記憶している点である。この識別情報は、図12に示す識別情報記憶部39aに記憶されている。   The difference in configuration between the tow vehicle surroundings monitoring device 110 and the tow vehicle surroundings monitoring device 100 is that, in the tow vehicle surroundings monitoring device 100, the towed vehicle 30 is connected to the towed vehicle information storage unit 37a (second information storage unit). ) Stores the installation position and installation direction of each camera (32a, 32b, 32c) constituting the second surrounding monitoring unit 32, the camera internal parameters, and the position of the towing vehicle side connecting unit 14, and When the towed vehicle 30 is connected, the information is transferred to the towed vehicle 10, whereas in the towed vehicle surrounding monitoring device 110, the towed vehicle 30 can identify the towed vehicle 30. Only the identification information that can be stored is stored. This identification information is stored in the identification information storage unit 39a shown in FIG.

そして、牽引車10に設置された被牽引車情報記憶部19a(第3情報記憶部)には、牽引車10に連結される可能性のある複数の被牽引車(30,40,…)のそれぞれの識別情報と、それぞれの被牽引車に設置された各カメラの設置位置,設置方向,カメラ内部パラメータと、各被牽引車(30,40,…)の被牽引車側連結部(34,44,…)の位置が記憶されている。   A towed vehicle information storage unit 19a (third information storage unit) installed in the tow vehicle 10 includes a plurality of towed vehicles (30, 40,...) That may be connected to the tow vehicle 10. Each identification information, installation position of each camera installed in each towed vehicle, installation direction, camera internal parameters, and towed vehicle side connecting portion (34, 44,...) Are stored.

牽引車10と被牽引車30が連結されたときには、被牽引車30に記憶された識別情報が、牽引車10に転送される。   When the tow vehicle 10 and the towed vehicle 30 are connected, the identification information stored in the towed vehicle 30 is transferred to the towed vehicle 10.

牽引車10は、被牽引車30の識別情報を受信すると、被牽引車情報記憶部19a(第3情報記憶部)に記憶された識別情報と照合して、連結された被牽引車30を特定する。そして、牽引車10に転送された、被牽引車30に設置されたカメラの設置位置,設置方向,カメラ内部パラメータと、被牽引車側連結部34の位置を読み出す。   When the tow vehicle 10 receives the identification information of the towed vehicle 30, the tow vehicle 10 collates with the identification information stored in the towed vehicle information storage unit 19 a (third information storage unit) to identify the connected towed vehicle 30. To do. And the installation position of the camera installed in the towed vehicle 30, the installation direction, the camera internal parameters, and the position of the towed vehicle side connecting portion 34 transferred to the towed vehicle 10 are read.

読み出された情報を基づいて、被牽引車30から逐次送信される、第2周囲監視部32を構成する各カメラ(32a,32b,32c)で撮像された複数の画像が、それぞれ俯瞰画像に変換されるとともに、変換された複数の俯瞰画像が、牽引車10と被牽引車30の姿勢に応じて合成されて、実施例1で説明した第3合成画像I(合成画像)が生成される。 Based on the read information, a plurality of images captured by the cameras (32a, 32b, 32c) constituting the second surrounding monitoring unit 32, which are sequentially transmitted from the towed vehicle 30, are respectively converted into overhead images. In addition to the conversion, the plurality of converted overhead images are combined according to the attitudes of the tow vehicle 10 and the towed vehicle 30 to generate the third combined image I V (composite image) described in the first embodiment. The

牽引車10には様々な形式の被牽引車(30,40,…)が連結されるため、このような構成を採ることによって、実施例1において被牽引車30に設置していた被牽引車情報記憶部37a(図4)の記憶容量を削減することができる。また、被牽引車が連結されたときに識別情報のみを送信すればよいため、連結後、即座に牽引車用周囲監視装置110が第3合成画像I(合成画像)を出力することができ、運用の効率化を図ることができる。
(実施例2の処理の流れの説明)
Since various types of tow vehicles (30, 40,...) Are connected to the tow vehicle 10, the tow vehicle installed in the tow vehicle 30 in the first embodiment by adopting such a configuration. The storage capacity of the information storage unit 37a (FIG. 4) can be reduced. Further, since only the identification information needs to be transmitted when the towed vehicle is connected, the towed vehicle surrounding monitoring device 110 can output the third composite image I V (composite image) immediately after the connection. , Operational efficiency can be improved.
(Description of processing flow of embodiment 2)

次に、実施例2の具体的な処理の流れについて、図13のフローチャートを用いて説明する。なお、図13のフローチャートは、所定の周期で自動的に繰り返して実行される。   Next, a specific processing flow of the second embodiment will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 13 is automatically and repeatedly executed at a predetermined cycle.

(ステップS100)牽引車10と被牽引車30が連結したか否かを検出する。連結したことが確認されたらステップS105に進み、連結が確認できないときは図13の処理を終了する。   (Step S100) It is detected whether the tow vehicle 10 and the towed vehicle 30 are connected. If it is confirmed that the connection is established, the process proceeds to step S105. If the connection cannot be confirmed, the process of FIG. 13 is terminated.

(ステップS105)被牽引車30にカメラ(撮像部)が設置されているか否かを、画像入力部36aを構成する第2カメラECU36(図3)が設置されているか否かを用いて判断する。被牽引車30に第2カメラECU36が設置されていることが確認されたときはステップS110に進み、それ以外のときは図13の処理を終了する。   (Step S105) Whether or not a camera (imaging unit) is installed in the towed vehicle 30 is determined using whether or not the second camera ECU 36 (FIG. 3) constituting the image input unit 36a is installed. . When it is confirmed that the second camera ECU 36 is installed in the towed vehicle 30, the process proceeds to step S110, and otherwise, the process of FIG. 13 is terminated.

(ステップS110)ステップS110を以前に実行したか否かを判断する。ステップS110を初めて実行したときはステップS115に進み、それ以外のときはステップS125に進む。   (Step S110) It is determined whether or not Step S110 has been executed previously. When step S110 is executed for the first time, the process proceeds to step S115, and otherwise, the process proceeds to step S125.

(ステップS115)識別情報記憶部39aに記憶されている被牽引車30の識別情報を牽引車10に転送する。そして、牽引車10側で、連結された被牽引車30を特定する。   (Step S115) The identification information of the towed vehicle 30 stored in the identification information storage unit 39a is transferred to the towing vehicle 10. And the towed vehicle 30 connected is specified by the tow vehicle 10 side.

(ステップS120)牽引車10に設置された第1周囲監視部12を構成するカメラ(撮像部)の中で、被牽引車30が連結されたときに不要となるカメラの有無を判断する。本実施例2の場合、後方カメラ12cが不要と判断されて、カメラ12cへの電源供給を停止し、カメラ12cは以降の処理には使用しない。   (Step S <b> 120) In the cameras (imaging units) constituting the first surrounding monitoring unit 12 installed in the tow vehicle 10, it is determined whether there is a camera that is unnecessary when the towed vehicle 30 is connected. In the case of the second embodiment, it is determined that the rear camera 12c is unnecessary, the power supply to the camera 12c is stopped, and the camera 12c is not used for the subsequent processing.

(ステップS125)被牽引車30に設置された第2周囲監視部32を構成する各カメラ(32a,32b,32c)(撮像部)で撮像された画像を牽引車10に転送する。   (Step S <b> 125) Images captured by the cameras (32 a, 32 b, 32 c) (imaging unit) constituting the second surrounding monitoring unit 32 installed in the towed vehicle 30 are transferred to the towing vehicle 10.

(ステップS130)画像変換部16bにおいて、第1俯瞰画像IVA,IVB,IVDと第2俯瞰画像IVE,IVF,IVGを生成する。 (Step S130) The image conversion unit 16b generates the first overhead images I VA , I VB , I VD and the second overhead images I VE , I VF , I VG .

(ステップS135)画像合成部16cにおいて、第1俯瞰画像IVA,IVB,IVDを合成して第1合成画像IV1を生成し、第2俯瞰画像IVE,IVF,IVGを合成して第2合成画像IV2を生成する。 (Step S135) In the image composition unit 16c, the first overhead images I VA , I VB , and I VD are synthesized to generate the first synthesized image I V1 , and the second overhead images I VE , I VF , and I VG are synthesized. Thus, a second composite image I V2 is generated.

(ステップS140)第1合成画像IV1と第2合成画像IV2を重ね合わせて、第3合成画像I(合成画像)を生成する。この処理の流れは、図11のフローチャートで説明した通りである。 (Step S140) The first synthesized image I V1 and the second synthesized image I V2 are overlapped to generate a third synthesized image I V (synthesized image). The flow of this process is as described in the flowchart of FIG.

(ステップS145)タイヤ切れ角センサ24によって牽引車10の前輪T,Tの向きを検出して、検出された前輪T,Tの向きに基づいて、牽引車10の前輪を描画する。また、牽引車10と被牽引車30の予測進路Tra,Trb,Trc,Trdを推定して、推定された予測進路Tra,Trb,Trc,Trdを第3合成画像I(合成画像)に重畳表示する。 (Step S145) detects the front wheel T L, T R orientation of the towing vehicle 10 by the tire turning angle sensor 24, the detected front wheel T L, based on the orientation of the T R, to draw the front wheels of the towing vehicle 10 . Further, the estimated paths Tra, Trb, Trc, and Trd of the tow vehicle 10 and the towed vehicle 30 are estimated, and the estimated predicted paths Tra, Trb, Trc, and Trd are superimposed on the third synthesized image I V (synthesized image). indicate.

(ステップS150)第3合成画像I(合成画像)を画像表示部26aに表示する。 (Step S150) The third composite image I V (composite image) is displayed on the image display unit 26a.

なお、図13のフローチャートには記載していないが、牽引車10のエンジンが停止したとき,牽引車10と被牽引車30の連結が解除されたとき、または、運転者の操作によって第3合成画像I(合成画像)の表示が消去されたときには、図13の処理が中止される。 Although not described in the flowchart of FIG. 13, the third synthesis is performed when the engine of the tow vehicle 10 stops, when the connection between the tow vehicle 10 and the towed vehicle 30 is released, or by the operation of the driver. When the display of the image I V (composite image) is deleted, the processing in FIG. 13 is stopped.

以上説明したように、このように構成された本発明の実施例1に係る牽引車用周囲監視装置100によれば、連結検出部22aが、牽引車10と被牽引車30が連結したことを検出したときに、画像変換部16bが、牽引車10の周囲に設置された第1周囲監視部12を構成する複数のカメラ(12a,12b,12c,12d)(撮像部)で撮像された各画像を、牽引車情報記憶部17a(情報記憶部)に記憶された、第1周囲監視部12が有する複数のカメラ(12a,12b,12c,12d)(撮像部)の各設置位置,各設置方向,各校正データに基づいて第1仮想視点V1から俯瞰した複数の第1俯瞰画像(IVA,IVB,IVD)に変換して、被牽引車30の周囲に設置された第2周囲監視部32を構成する複数のカメラ(32a,32b,32c)(撮像部)で撮像された各画像を、被牽引車情報記憶部37a(情報記憶部)に記憶された、第2周囲監視部32が有する複数のカメラ(32a,32b,32c)(撮像部)の各設置位置,各設置方向,各校正データに基づいて第2仮想視点V2から俯瞰した複数の第2俯瞰画像(IVE,IVF,IVG)に変換する。そして、画像合成部16cが、牽引車10と被牽引車30の連結位置と姿勢検出部20aが検出した姿勢に基づいて、複数の第1俯瞰画像(IVA,IVB,IVD)と複数の第2俯瞰画像(IVE,IVF,IVG)を合成して第3合成画像I(合成画像)を生成する。さらに、生成された第3合成画像Iに、タイヤ方向算出部28cが算出した牽引車10の前輪T,Tの向きと、予測進路算出部28bが算出した牽引車10および被牽引車30の予測進路Tra,Trb,Trc,Trdを重畳して画像表示部26aに表示する。したがって、牽引車10と被牽引車30の周囲にある障害物の位置と方向を、牽引車10と被牽引車30の姿勢によらずに、容易に認識することができる。 As described above, according to the tow vehicle surrounding monitoring device 100 according to the first embodiment of the present invention configured as described above, the connection detection unit 22a indicates that the tow vehicle 10 and the towed vehicle 30 are connected. When detected, the image conversion unit 16b is imaged by a plurality of cameras (12a, 12b, 12c, 12d) (imaging units) constituting the first surrounding monitoring unit 12 installed around the tow vehicle 10. Each installation position and each installation of the plurality of cameras (12a, 12b, 12c, 12d) (imaging unit) of the first surrounding monitoring unit 12 stored in the tow vehicle information storage unit 17a (information storage unit). Based on the direction and each calibration data, the second surroundings installed around the towed vehicle 30 are converted into a plurality of first overhead images (I VA , I VB , I VD ) viewed from the first virtual viewpoint V 1. A plurality of cameras constituting the monitoring unit 32 32 a, 32 b, 32 c) (image pickup unit), a plurality of cameras (32 a, 32 b) included in the second surrounding monitoring unit 32 stored in the towed vehicle information storage unit 37 a (information storage unit). , 32c) is converted into a plurality of second overhead images (I VE , I VF , I VG ) viewed from the second virtual viewpoint V2 based on each installation position, each installation direction, and each calibration data of the (imaging unit). Then, based on the connection position of the tow vehicle 10 and the towed vehicle 30 and the attitude detected by the attitude detection unit 20a, the image composition unit 16c and the plurality of first overhead images (I VA , I VB , I VD ) and the plurality of images. The third overhead image (I VE , I VF , I VG ) is synthesized to generate a third synthesized image I V (synthesized image). Further, the third composite image I V generated, the front wheel T L of the towing vehicle 10 which is calculated tire direction calculation section 28c is, T and orientation of R, tractor 10 and towed vehicle predicted course calculation unit 28b is calculated 30 predicted courses Tra, Trb, Trc, and Trd are superimposed and displayed on the image display unit 26a. Therefore, the positions and directions of obstacles around the tow vehicle 10 and the towed vehicle 30 can be easily recognized regardless of the postures of the towing vehicle 10 and the towed vehicle 30.

特に、本発明の実施例1に係る牽引車用周囲監視装置100によれば、連結検出部22aが、牽引車10と被牽引車30が連結したことを検出したときに、被牽引車情報記憶部37a(第2情報記憶部)に記憶された、複数のカメラ(32a,32b,32c)(撮像部)の各設置位置,各設置方向,各校正データと、牽引車10との連結位置と、第2周囲監視部32で撮像した各画像を情報送信部38aによって牽引車10に送信する。そして、牽引車10の情報受信部18aは、送信された情報を受信して、受信した情報に基づいて、複数のカメラ(32a,32b,32c)で撮像された各画像を画像変換部16bで複数の第2俯瞰画像(IVE,IVF,IVG)に変換する。さらに、牽引車10に備えられた第1周囲監視部12で撮像した各画像を、牽引車情報記憶部17a(第1情報記憶部)に記憶された、複数のカメラ(12a,12b,12c,12d)(撮像部)の各設置位置,各設置方向,各校正データに基づいて複数の第1俯瞰画像(IVA,IVB,IVD)に変換する。そして、画像合成部16cで、牽引車情報記憶部17aに記憶された、カメラ(12a,12b,12c,12d)(撮像部)の各設置位置と、被牽引車30との連結位置と、被牽引車情報記憶部37aに記憶された、複数のカメラ(32a,32b,32c)(撮像部)の各設置位置と、牽引車10との連結位置と、に基づいて、複数の第1俯瞰画像(IVA,IVB,IVD)を合成した第1合成画像IV1と複数の第2俯瞰画像(IVE,IVF,IVG)を合成した第2合成画像IV2をそれぞれ生成し、さらに、第1合成画像IV1と第2合成画像IV2を合成して第3合成画像I(合成画像)を生成する。したがって、牽引車10に、形態が異なる複数種の被牽引車が連結する場合であっても、牽引車と被牽引車の周囲を俯瞰した画像を容易に生成することができる。 In particular, according to the tow vehicle surrounding monitoring apparatus 100 according to the first embodiment of the present invention, when the connection detection unit 22a detects that the tow vehicle 10 and the towed vehicle 30 are connected, the towed vehicle information storage is performed. Each installation position, each installation direction, each calibration data of the plurality of cameras (32a, 32b, 32c) (imaging unit), and a connection position with the tow vehicle 10 stored in the unit 37a (second information storage unit) Each image captured by the second surrounding monitoring unit 32 is transmitted to the towing vehicle 10 by the information transmitting unit 38a. Then, the information receiving unit 18a of the tow vehicle 10 receives the transmitted information, and based on the received information, each image captured by the plurality of cameras (32a, 32b, 32c) is displayed by the image converting unit 16b. Conversion into a plurality of second overhead images (I VE , I VF , I VG ). Further, each image captured by the first surrounding monitoring unit 12 provided in the tow vehicle 10 is stored in the tow vehicle information storage unit 17a (first information storage unit), and a plurality of cameras (12a, 12b, 12c, 12d) Based on each installation position, each installation direction, and each calibration data of (imaging part), it converts into several 1st bird's-eye view images ( IVA , IVB , IVD ). Then, in the image composition unit 16c, the installation positions of the cameras (12a, 12b, 12c, 12d) (imaging unit) stored in the tow vehicle information storage unit 17a, the connection positions with the towed vehicle 30, A plurality of first overhead images based on the installation positions of the plurality of cameras (32a, 32b, 32c) (imaging unit) and the connection position with the tow vehicle 10 stored in the tow vehicle information storage unit 37a. A first synthesized image I V1 synthesized from (I VA , I VB , I VD ) and a second synthesized image I V2 synthesized from a plurality of second overhead images (I VE , I VF , I VG ), respectively, Further, the first synthesized image I V1 and the second synthesized image I V2 are synthesized to generate a third synthesized image I V (synthesized image). Therefore, even when a plurality of types of towed vehicles having different forms are connected to the tow vehicle 10, it is possible to easily generate an image in which the surroundings of the tow vehicle and the towed vehicle are overhead.

また、このように構成された本発明の実施例1に係る牽引車用周囲監視装置100によれば、画像合成部16cは、第1合成画像IV1と第2合成画像IV2の中から、同一位置が撮像される重複撮像領域Zを検出して、検出された重複撮像領域Zの中においては、第1周囲監視部12と第2周囲監視部32のうち、より高い解像度で撮像された情報を第3合成画像Iに反映させる。したがって、視認性が高い第3合成画像Iを生成することができる。 Moreover, according to the tow vehicle surroundings monitoring apparatus 100 according to the first embodiment of the present invention configured as described above, the image composition unit 16c can select from the first composite image I V1 and the second composite image I V2 . An overlapping imaging area Z 0 in which the same position is imaged is detected, and in the detected overlapping imaging area Z 0 , imaging is performed at a higher resolution of the first surrounding monitoring unit 12 and the second surrounding monitoring unit 32. The information thus reflected is reflected in the third composite image IV . Therefore, it is possible to generate the third composite image IV with high visibility.

そして、このように構成された本発明の実施例1に係る牽引車用周囲監視装置100によれば、画像合成部16cは、重複撮像領域Zの中で、第1周囲監視部12と第2周囲監視部32のうち、より近くから撮像された情報を第3合成画像Iに反映させる。したがって、簡単な演算で、より一層視認性が高い第3合成画像Iを生成することができる。 Then, according to the towing vehicle for surrounding monitoring apparatus 100 according to a first embodiment of the present invention configured in this manner, the image combining unit 16c, in the overlapping imaging areas Z 0, the first peripheral monitoring unit 12 first 2. Information captured from a closer location in the surroundings monitoring unit 32 is reflected in the third composite image IV . Therefore, it is possible to generate the third composite image IV with higher visibility by simple calculation.

さらに、このように構成された本発明の実施例1に係る牽引車用周囲監視装置100によれば、第3合成画像Iは、同一位置に同一方向に向けて配置した第1合成画像IV1の中の被牽引車30との連結位置を示す位置に、第2合成画像IV2の中の牽引車10との連結位置を示す位置を合致させて、さらに、第2合成画像IV2を、姿勢検出部20aが検出した姿勢に応じた量だけ回転して合成する。したがって、牽引車10と被牽引車30の周囲状況を認識しやすい第3合成画像Iを得ることができる。 Furthermore, according to the tow vehicle surrounding monitoring apparatus 100 according to the first embodiment of the present invention configured as described above, the third composite image IV is arranged at the same position in the same direction in the first composite image I. The position indicating the connection position with the towed vehicle 10 in the second composite image I V2 is matched with the position indicating the connection position with the towed vehicle 30 in V1 , and the second composite image I V2 is further displayed. Then, the image is rotated and synthesized by an amount corresponding to the attitude detected by the attitude detection unit 20a. Therefore, it is possible to obtain the third composite image IV in which the surrounding conditions of the tow vehicle 10 and the towed vehicle 30 can be easily recognized.

また、このように構成された本発明の実施例1に係る牽引車用周囲監視装置100によれば、第1合成画像IV1は、牽引車10の前方が上部に位置する向きに配置される。したがって、牽引車10の前方が、常に画像表示部26aの上部に表示されるため、周囲状況をより一層認識しやすい第1合成画像IV1を得ることができる。 In addition, according to the tow vehicle surroundings monitoring device 100 according to the first embodiment of the present invention configured as described above, the first composite image I V1 is arranged in a direction in which the front of the tow vehicle 10 is located at the top. . Therefore, since the front of the tow vehicle 10 is always displayed on the upper part of the image display unit 26a, it is possible to obtain the first composite image I V1 that makes it easier to recognize the surrounding situation.

そして、このように構成された本発明の実施例1に係る牽引車用周囲監視装置100によれば、連結検出部22aが牽引車10と被牽引車30の連結を検出したときに、第1周囲監視部12が有する複数のカメラ(12a,12b,12c,12d)(撮像部)のうち、被牽引車30の陰となって牽引車10の周囲が監視できない状態となる撮像部の出力は使用しない。したがって、第3合成画像Iの中に不要な情報が表示されないため、第3合成画像Iの質を向上させることができる。また、不要な撮像部を使用しないため、牽引車用周囲監視装置100の消費電力を節約することができる。 And according to the tow vehicle periphery monitoring apparatus 100 according to the first embodiment of the present invention configured as described above, when the connection detecting unit 22a detects the connection between the tow vehicle 10 and the towed vehicle 30, the first Of the plurality of cameras (12a, 12b, 12c, 12d) (imaging unit) included in the surrounding monitoring unit 12, the output of the imaging unit that is behind the towed vehicle 30 and cannot monitor the surroundings of the towing vehicle 10 is do not use. Therefore, unnecessary information in the third combined image I V is not displayed, it is possible to improve the quality of the third combined image I V. In addition, since an unnecessary imaging unit is not used, power consumption of the tow vehicle surrounding monitoring device 100 can be saved.

また、このように構成された本発明の実施例2に係る牽引車用周囲監視装置110によれば、連結検出部22aが、牽引車10と被牽引車30が連結したことを検出したときに、被牽引車30が識別情報記憶部39aに記憶した、被牽引車30を特定する識別情報と、第2周囲監視部32で撮像した各画像を情報送信部38aによって牽引車10に送信する。牽引車10の情報受信部18aは、送信された情報を受信して、画像変換部16bが、識別情報を参照して被牽引車30を特定して、受信した各画像を、被牽引車情報記憶部19a(第3情報記憶部)に記憶された、複数のカメラ(32a,32b,32c)(撮像部)の各設置位置,各設置方向,各校正データと、牽引車10との連結位置と、に基づいて複数の第2俯瞰画像(IVE,IVF,IVG)に変換する。さらに、画像変換部16bが牽引車10に備えられた第1周囲監視部12で撮像した各画像を、牽引車情報記憶部17a(第1情報記憶部)に記憶された、複数のカメラ(12a,12b,12c,12d)(撮像部)の各設置位置,各設置方向,各校正データに基づいて複数の第1俯瞰画像(IVA,IVB,IVD)に変換する。そして、画像合成部16cで、牽引車情報記憶部17aに記憶された、複数のカメラ(12a,12b,12c,12d)の各設置位置と、被牽引車30との連結位置と、被牽引車情報記憶部19aに記憶された、複数のカメラ(32a,32b,32c)の各設置位置と、牽引車10との連結位置と、に基づいて、複数の第1俯瞰画像(IVA,IVB,IVD)を合成した第1合成画像IV1と複数の第2俯瞰画像(IVE,IVF,IVG)を合成した第2合成画像IV2をそれぞれ生成し、さらに、第1合成画像IV1と第2合成画像IV2を合成して第3合成画像Iを生成する。したがって、被牽引車30の識別情報記憶部39aには被牽引車30の識別情報のみを記憶すればよいため、被牽引車30に記憶しておくべき記憶容量を削減することができ、ハードウェア構成の簡素化を図ることができる。さらに、被牽引車30が連結されたときに識別情報のみを送信すればよいため、牽引車10と被牽引車30の連結後、即座に牽引車用周囲監視装置110が第3合成画像Iを出力することができ、運用の効率化を図ることができる。 Moreover, according to the tow vehicle surroundings monitoring device 110 according to the second embodiment of the present invention configured as described above, when the connection detection unit 22a detects that the tow vehicle 10 and the towed vehicle 30 are connected. The identification information for identifying the towed vehicle 30 stored in the identification information storage unit 39a and the images captured by the second surrounding monitoring unit 32 are transmitted to the towed vehicle 10 by the information transmission unit 38a. The information receiving unit 18a of the tow vehicle 10 receives the transmitted information, the image conversion unit 16b identifies the towed vehicle 30 with reference to the identification information, and each received image is represented by the towed vehicle information. Each installation position, each installation direction, each calibration data of the plurality of cameras (32a, 32b, 32c) (imaging unit) stored in the storage unit 19a (third information storage unit), and a connection position of the towing vehicle 10 Based on the above, it is converted into a plurality of second overhead images (I VE , I VF , I VG ). Further, each of the images captured by the first surrounding monitoring unit 12 provided in the tow vehicle 10 by the image conversion unit 16b is stored in the tow vehicle information storage unit 17a (first information storage unit). , 12b, 12c, 12d) (imaging unit) is converted into a plurality of first bird's-eye images (I VA , I VB , I VD ) based on each installation position, each installation direction, and each calibration data. Then, in the image composition unit 16c, the installation positions of the plurality of cameras (12a, 12b, 12c, 12d), the connection positions with the towed vehicle 30, and the towed vehicle stored in the towed vehicle information storage unit 17a. Based on the installation positions of the plurality of cameras (32a, 32b, 32c) and the connection positions with the tow vehicle 10 stored in the information storage unit 19a, a plurality of first overhead images (I VA , I VB). the first synthetic image I V1 and a plurality of second overhead image (I VE obtained by combining the I VD), I VF, respectively generate a second combined image I V2 obtained by combining the I VG), further, the first synthesized image I V1 and the second synthesized image I V2 are synthesized to generate a third synthesized image IV . Therefore, since only the identification information of the towed vehicle 30 needs to be stored in the identification information storage unit 39a of the towed vehicle 30, the storage capacity to be stored in the towed vehicle 30 can be reduced, and the hardware The configuration can be simplified. Furthermore, since only the identification information needs to be transmitted when the towed vehicle 30 is connected, the towed vehicle surrounding monitoring device 110 immediately receives the third composite image I V after the towed vehicle 10 and the towed vehicle 30 are connected. Can be output, and operational efficiency can be improved.

なお、実施例1,実施例2では、各カメラ(12a,12b,12c,12d,32a,32b,32c)(撮像部)から出力されたアナログ信号をデジタル変換して、必要な変換合成処理を行った後、再びアナログ信号に変換して画像表示部26aに表示する構成としたが、その構成に限定されるものではなく、デジタル出力が可能なカメラを用いたシステム構成を採り、カメラから出力されたデジタル信号をそのまま画像処理する構成を採ってもよい。   In the first and second embodiments, the analog signals output from the cameras (12a, 12b, 12c, 12d, 32a, 32b, 32c) (imaging unit) are converted into digital signals, and necessary conversion and synthesis processing is performed. However, the present invention is not limited to this configuration, and a system configuration using a camera capable of digital output is adopted and output from the camera. A configuration may be adopted in which the processed digital signal is subjected to image processing as it is.

また、実施例1,実施例2では、CAN通信線50を用いて、牽引車10と被牽引車30の間で情報のやり取りを行ったが、この通信手段はCAN通信線50に限定されるものではなく、他の通信線、例えば一般的なシリアル通信線等を用いて行ってもよい。   In the first and second embodiments, the CAN communication line 50 is used to exchange information between the tow vehicle 10 and the towed vehicle 30, but this communication means is limited to the CAN communication line 50. Instead of this, other communication lines such as a general serial communication line may be used.

また、実施例1,実施例2では、画像境界位置算出部28aにて第1合成画像IV1と第2合成画像IV2を重ね合わせる際の境界線L1,L2の位置を算出したが、この方法は、複数の第1俯瞰画像IVA,IVB,IVDを合成して第1合成画像IV1を生成する際、また、複数の第2俯瞰画像IVE,IVF,IVGを合成して第2合成画像IV2を生成する際にも、同様に適用することができる。 In the first and second embodiments, the positions of the boundary lines L1 and L2 when the first composite image I V1 and the second composite image I V2 are superimposed are calculated by the image boundary position calculation unit 28a. The method synthesizes a plurality of first overhead images I VA , I VB , I VD to generate a first synthesized image I V1 , and also synthesizes a plurality of second overhead images I VE , I VF , I VG . Thus, the same can be applied to the generation of the second composite image IV2 .

以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。   As mentioned above, although the Example of this invention was explained in full detail with drawing, since an Example is only an illustration of this invention, this invention is not limited only to the structure of an Example. Of course, changes in design and the like within a range not departing from the gist are included in the present invention.

10 牽引車
12 第1周囲監視部
12a 前方カメラ(撮像部)
12b 左側方カメラ(撮像部)
12c 後方カメラ(撮像部)
12d 右側方カメラ(撮像部)
14 牽引車側連結部
16 第1カメラECU
16a 画像入力部
16b 画像変換部
16c 画像合成部
17a 牽引車情報記憶部(第1情報記憶部)
18a 情報受信部
20a 姿勢検出部
22a 連結検出部
24a タイヤ切れ角検出部
26a 画像表示部
28a 画像境界位置算出部
28b 予測進路算出部
28c タイヤ方向算出部
30 被牽引車
32 第2周囲監視部
32a 左側方カメラ(撮像部)
32b 後方カメラ(撮像部)
32c 右側方カメラ(撮像部)
34 被牽引車側連結部
36 第2カメラECU
36a 画像入力部
37a 被牽引車情報記憶部(第2情報記憶部)
38a 情報送信部
50 CAN通信線
100 牽引車用周囲監視装置
10 towing vehicle 12 first surrounding monitoring unit 12a front camera (imaging unit)
12b Left side camera (imaging part)
12c Rear camera (imaging part)
12d Right side camera (imaging part)
14 Traction vehicle side connection part 16 1st camera ECU
16a Image input unit 16b Image conversion unit 16c Image composition unit 17a Traction vehicle information storage unit (first information storage unit)
18a Information reception unit 20a Posture detection unit 22a Connection detection unit 24a Tire turning angle detection unit 26a Image display unit 28a Image boundary position calculation unit 28b Predicted course calculation unit 28c Tire direction calculation unit 30 Towed vehicle 32 Second surrounding monitoring unit 32a Left side Camera (imaging part)
32b Rear camera (imaging part)
32c Right-side camera (imaging part)
34 Towed vehicle side connecting portion 36 Second camera ECU
36a Image input unit 37a Towed vehicle information storage unit (second information storage unit)
38a Information transmission unit 50 CAN communication line 100 Traction vehicle perimeter monitoring device

Claims (8)

車体の周囲に、複数の撮像部からなる第1周囲監視部を有する牽引車と、
車体の周囲に、複数の撮像部からなる第2周囲監視部を有する、前記牽引車に連結されて牽引される被牽引車と、
前記牽引車および前記被牽引車が有する複数の前記撮像部の各設置位置,各設置方向,各校正データ、および前記牽引車と前記被牽引車の連結位置を記憶した情報記憶部と、
前記牽引車と前記被牽引車が連結されたことを検出する連結検出部と、
前記牽引車に対する前記被牽引車の姿勢を検出する姿勢検出部と、
前記牽引車の前輪の向きを算出するタイヤ方向算出部と、
前記牽引車と前記被牽引車の予測進路を算出する予測進路算出部と、
前記第1周囲監視部で撮像された各画像を、前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて、第1仮想視点から俯瞰した複数の第1俯瞰画像に変換するとともに、前記第2周囲監視部で撮像された各画像を、前記第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて、第2仮想視点から俯瞰した複数の第2俯瞰画像に変換する画像変換部と、
前記複数の第1俯瞰画像と前記複数の第2俯瞰画像とを前記牽引車と前記被牽引車の連結位置において1枚の合成画像に合成する画像合成部と、
前記牽引車の運転者が視認可能な位置に、前記合成画像を表示する画像表示部と、を有して、前記連結検出部が前記牽引車と前記被牽引車の連結を検出したときに、前記画像変換部は複数の前記第1俯瞰画像と複数の前記第2俯瞰画像を生成して、前記画像合成部は前記姿勢検出部で検出された姿勢に基づいて前記合成画像を生成して、前記合成画像に前記牽引車の前輪の向きと前記牽引車、および前記被牽引車の予測進路を重畳して前記画像表示部に表示することを特徴とする牽引車用周囲監視装置。
A towing vehicle having a first surrounding monitoring unit comprising a plurality of imaging units around the vehicle body;
A towed vehicle towed by being connected to the towed vehicle and having a second surroundings monitoring unit comprising a plurality of imaging units around the vehicle body;
An information storage unit storing each installation position, each installation direction, each calibration data of the plurality of imaging units included in the tow vehicle and the towed vehicle, and a connection position of the towed vehicle and the towed vehicle;
A connection detector that detects that the tow vehicle and the towed vehicle are connected;
An attitude detector that detects an attitude of the towed vehicle with respect to the tow vehicle;
A tire direction calculation unit for calculating the direction of the front wheels of the tow vehicle;
A predicted route calculation unit that calculates a predicted route of the tow vehicle and the towed vehicle;
A plurality of images taken from the first virtual viewpoint, based on the installation positions, the installation directions, and the calibration data of the plurality of imaging units included in the first circumference monitoring unit. Are converted into the first bird's-eye view image, and each image captured by the second surrounding monitoring unit is based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the second surrounding monitoring unit. An image conversion unit for converting into a plurality of second overhead images viewed from the second virtual viewpoint;
An image synthesis unit that synthesizes the plurality of first bird's-eye images and the plurality of second bird's-eye images into a single synthesized image at a connection position of the tow vehicle and the towed vehicle;
An image display unit that displays the composite image at a position that is visible to the driver of the tow vehicle, and when the connection detection unit detects the connection between the tow vehicle and the towed vehicle, The image conversion unit generates a plurality of the first bird's-eye images and a plurality of the second bird's-eye images, and the image synthesis unit generates the synthesized image based on the posture detected by the posture detection unit, A tow vehicle surroundings monitoring device that superimposes the direction of the front wheel of the tow vehicle, the towed vehicle, and the predicted course of the towed vehicle on the composite image and displays them on the image display unit.
前記被牽引車は、前記第2周囲監視部が有する複数の前記撮像部の各設置位置,各設置方向,各校正データ、および前記牽引車との連結位置を記憶した第2情報記憶部と、
前記第2周囲監視部で撮像された各画像と前記第2情報記憶部に記憶された情報をそれぞれ前記牽引車に送信する情報送信部と、を備えて、
前記牽引車は、前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データ、および前記被牽引車との連結位置を記憶した第1情報記憶部と、
前記情報送信部から送信された情報を受信する情報受信部と、
前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第1俯瞰画像を生成し、前記第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第2俯瞰画像を生成する画像変換部と、
前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第1俯瞰画像を1枚の第1合成画像に合成し、前記第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第2俯瞰画像を1枚の第2合成画像に合成して、さらに、前記牽引車と前記被牽引車の連結位置、および、前記姿勢検出部で検出された姿勢に基づいて前記第1合成画像と前記第2合成画像を1枚の第3合成画像に合成する画像合成部と、を備えて、
前記連結検出部が前記牽引車と前記被牽引車の連結を検出したときに、前記情報受信部は前記情報送信部から送信された情報を受信して、前記画像変換部は複数の前記第1俯瞰画像と複数の前記第2俯瞰画像を生成して、前記画像合成部は前記第3合成画像を生成することを特徴とする請求項1に記載の牽引車用周囲監視装置。
The towed vehicle has a second information storage unit that stores each installation position, each installation direction, each calibration data, and a connection position with the tow vehicle of the plurality of imaging units included in the second surrounding monitoring unit;
An information transmission unit that transmits each image captured by the second surrounding monitoring unit and information stored in the second information storage unit to the tow vehicle,
The tow vehicle has a first information storage unit that stores each installation position, each installation direction, each calibration data, and a connection position with the towed vehicle of the plurality of imaging units included in the first surrounding monitoring unit;
An information receiving unit for receiving information transmitted from the information transmitting unit;
A plurality of first overhead images are generated based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the first surrounding monitoring unit, and the plurality of imaging units included in the second surrounding monitoring unit An image conversion unit that generates a plurality of the second overhead images based on each installation position, each installation direction, and each calibration data;
Based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the first surrounding monitoring unit, a plurality of the first overhead images are synthesized into one first synthesized image, and the second surroundings Based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the monitoring unit, the plurality of second overhead images are combined into one second composite image, and further, the tow vehicle and the An image composition unit configured to compose the first composite image and the second composite image into a single third composite image based on the connection position of the towed vehicle and the posture detected by the posture detection unit; And
When the connection detection unit detects the connection between the tow vehicle and the towed vehicle, the information reception unit receives information transmitted from the information transmission unit, and the image conversion unit includes a plurality of the first conversion units. The tow vehicle periphery monitoring device according to claim 1, wherein an overhead image and a plurality of the second overhead images are generated, and the image synthesis unit generates the third synthesized image.
前記被牽引車は、前記被牽引車を特定する識別情報を記憶した識別情報記憶部と、前記第2周囲監視部で撮像された各画像と前記識別情報記憶部に記憶された識別情報をそれぞれ前記牽引車に送信する情報送信部と、を備えて、
前記牽引車は、前記第1周囲監視部が有する複数の撮像部の各設置位置、各設置方向,各校正データ、および前記被牽引車との連結位置を記憶した第1情報記憶部と、
前記送信部から送信された情報を受信する情報受信部と、
前記牽引車と連結される複数の被牽引車をそれぞれ特定する識別情報と複数の被牽引車がそれぞれ有する複数の撮像部の各設置位置、各設置方向,各校正データ、および前記牽引車と複数の被牽引車それぞれとの連結位置を記憶した第3情報記憶部と、
前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第1俯瞰画像を生成し、前記第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第2俯瞰画像を生成する画像変換部と、
前記第1周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第1俯瞰画像を1枚の第1合成画像に合成し、前記第2周囲監視部が有する複数の撮像部の各設置位置,各設置方向,各校正データに基づいて複数の前記第2俯瞰画像を1枚の第2合成画像に合成して、さらに、前記牽引車と前記被牽引車の連結位置、および、前記姿勢検出部で検出された姿勢に基づいて前記第1合成画像と前記第2合成画像を1枚の第3合成画像に合成する画像合成部と、を備えて、
前記連結検出部が前記牽引車と前記被牽引車の連結を検出したときに、前記情報受信部は前記情報送信部から送信された情報を受信して、前記画像変換部は前記識別情報に基づいて前記牽引車に連結された前記被牽引車を特定して複数の前記第1俯瞰画像と複数の前記第2俯瞰画像を生成して、前記画像合成部は前記第3合成画像を生成することを特徴とする請求項1に記載の牽引車用周囲監視装置。
The towed vehicle includes an identification information storage unit that stores identification information that identifies the towed vehicle, each image captured by the second surrounding monitoring unit, and identification information stored in the identification information storage unit, respectively. An information transmission unit for transmitting to the tow vehicle,
The tow vehicle has a first information storage unit that stores each installation position, each installation direction, each calibration data, and a connection position with the towed vehicle of the plurality of imaging units included in the first surrounding monitoring unit;
An information receiver for receiving information transmitted from the transmitter;
Identification information for identifying a plurality of towed vehicles connected to the tow vehicle, each installation position, each installation direction, each calibration data of each of the plurality of imaging units each of the plurality of towed vehicles, and a plurality of the tow vehicles A third information storage unit storing a connection position with each of the towed vehicles;
A plurality of first overhead images are generated based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the first surrounding monitoring unit, and the plurality of imaging units included in the second surrounding monitoring unit An image conversion unit that generates a plurality of the second overhead images based on each installation position, each installation direction, and each calibration data;
Based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the first surrounding monitoring unit, a plurality of the first overhead images are synthesized into one first synthesized image, and the second surroundings Based on each installation position, each installation direction, and each calibration data of the plurality of imaging units included in the monitoring unit, the plurality of second overhead images are combined into one second composite image, and further, the tow vehicle and the An image composition unit configured to compose the first composite image and the second composite image into a single third composite image based on the connection position of the towed vehicle and the posture detected by the posture detection unit; And
When the connection detection unit detects the connection between the tow vehicle and the towed vehicle, the information reception unit receives information transmitted from the information transmission unit, and the image conversion unit is based on the identification information. Identifying the towed vehicle connected to the tow vehicle and generating a plurality of the first overhead images and a plurality of the second overhead images, and the image composition unit generates the third composite image. The tow truck surroundings monitoring device according to claim 1.
前記画像合成部は、前記第1合成画像と前記第2合成画像の中から、同一位置が撮像される重複撮像領域を検出して、検出された前記重複撮像領域の中においては、前記第1周囲監視部と前記第2周囲監視部のうち、より高い解像度で撮像された情報を前記第3合成画像に反映させることを特徴とする請求項2または請求項3に記載の牽引車用周囲監視装置。   The image synthesis unit detects an overlapping imaging area where the same position is imaged from the first synthesized image and the second synthesized image, and in the detected overlapping imaging area, the first imaging image 4. The tow vehicle surrounding monitoring according to claim 2, wherein information captured at a higher resolution among the surrounding monitoring unit and the second surrounding monitoring unit is reflected in the third composite image. 5. apparatus. 前記画像合成部は、前記重複撮像領域の中で、前記第1周囲監視部と前記第2周囲監視部のうち、より近くから撮像された画像を前記第3合成画像に反映させることを特徴とする請求項4に記載の牽引車用周囲監視装置。   The image synthesizing unit reflects an image captured from a closer location of the first surrounding monitoring unit and the second surrounding monitoring unit in the overlapped imaging region in the third synthesized image. The surrounding monitoring device for a tow vehicle according to claim 4. 前記第3合成画像は、同一位置に同一方向に向けて配置した前記第1合成画像の中の前記被牽引車との連結位置を示す位置に、前記第2合成画像の中の前記牽引車との連結位置を示す位置を合致させて、さらに、前記第2合成画像を、前記姿勢検出部が検出した姿勢に応じた量だけ回転して合成したものであることを特徴とする請求項2から請求項5のいずれか1項に記載の牽引車用周囲監視装置。   The third composite image is a position indicating a connection position with the towed vehicle in the first composite image arranged at the same position in the same direction, and the tow vehicle in the second composite image. The position indicating the connection position is matched, and the second synthesized image is further synthesized by rotating by an amount corresponding to the attitude detected by the attitude detection unit. The surroundings monitoring apparatus for tow vehicles of any one of Claim 5. 前記第1合成画像は、前記牽引車の前方が上部に位置する向きに配置されることを特徴とする請求項6に記載の牽引車用周囲監視装置。   The tow vehicle surroundings monitoring device according to claim 6, wherein the first composite image is arranged in a direction in which a front side of the tow vehicle is located at an upper part. 前記連結検出部が前記牽引車と前記被牽引車の連結を検出したときには、前記第1周囲監視部が有する複数の撮像部のうち、前記被牽引車の陰となって前記牽引車の周囲が監視できない状態となる撮像部の出力を使用しないことを特徴とする請求項1から請求項7のいずれか1項に記載の牽引車用周囲監視装置。   When the connection detection unit detects the connection between the towed vehicle and the towed vehicle, among the plurality of imaging units of the first surrounding monitoring unit, the surrounding of the towed vehicle is behind the towed vehicle. The tow vehicle periphery monitoring device according to any one of claims 1 to 7, wherein an output of an imaging unit that is in a state where monitoring is impossible is not used.
JP2014028625A 2014-02-18 2014-02-18 Ambient monitoring device for towing vehicles Active JP6313992B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014028625A JP6313992B2 (en) 2014-02-18 2014-02-18 Ambient monitoring device for towing vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014028625A JP6313992B2 (en) 2014-02-18 2014-02-18 Ambient monitoring device for towing vehicles

Publications (2)

Publication Number Publication Date
JP2015154406A true JP2015154406A (en) 2015-08-24
JP6313992B2 JP6313992B2 (en) 2018-04-18

Family

ID=53896207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014028625A Active JP6313992B2 (en) 2014-02-18 2014-02-18 Ambient monitoring device for towing vehicles

Country Status (1)

Country Link
JP (1) JP6313992B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215936A (en) * 2016-03-16 2017-12-07 メクラ・ラング・ゲーエムベーハー・ウント・コー・カーゲーMEKRA Lang GmbH & Co. KG Visual system for vehicles, in particular visual system for commercial vehicles
JP2019068326A (en) * 2017-10-03 2019-04-25 アイシン精機株式会社 Periphery monitoring device
WO2019093176A1 (en) * 2017-11-07 2019-05-16 アイシン精機株式会社 Periphery monitoring device
JP2019075625A (en) * 2017-10-12 2019-05-16 アイシン精機株式会社 Periphery monitoring device
JP2019175254A (en) * 2018-03-29 2019-10-10 ヤンマー株式会社 Operation support system
JP2019216380A (en) * 2018-06-14 2019-12-19 クラリオン株式会社 Operation support device and operation support system
EP3512194A4 (en) * 2016-09-09 2020-04-01 Tadano Ltd. Bird's-eye view image system, bird's-eye view image display method and program
JP2020513701A (en) * 2016-12-14 2020-05-14 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 3D surround view system
WO2020157530A1 (en) * 2019-02-01 2020-08-06 Carit Automotive GmbH & Co. KG Vehicle park assist systems
JP2020204900A (en) * 2019-06-17 2020-12-24 シャープ株式会社 Operation terminal, moving system, and display method
JP7294267B2 (en) 2020-08-05 2023-06-20 トヨタ自動車株式会社 Vehicle monitoring device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046533A (en) * 2000-08-03 2002-02-12 Isuzu Motors Ltd Vehicular rear view support device
JP2003235036A (en) * 2002-02-07 2003-08-22 Nissan Motor Co Ltd Image display apparatus for vehicle
JP2004201223A (en) * 2002-12-20 2004-07-15 Matsushita Electric Ind Co Ltd Vehicle peripheral monitoring apparatus and steering angle detecting method
JP2009060499A (en) * 2007-09-03 2009-03-19 Sanyo Electric Co Ltd Driving support system, and combination vehicle
JP2012105158A (en) * 2010-11-11 2012-05-31 Mitsubishi Fuso Truck & Bus Corp Combination vehicle birds-eye-view display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002046533A (en) * 2000-08-03 2002-02-12 Isuzu Motors Ltd Vehicular rear view support device
JP2003235036A (en) * 2002-02-07 2003-08-22 Nissan Motor Co Ltd Image display apparatus for vehicle
JP2004201223A (en) * 2002-12-20 2004-07-15 Matsushita Electric Ind Co Ltd Vehicle peripheral monitoring apparatus and steering angle detecting method
JP2009060499A (en) * 2007-09-03 2009-03-19 Sanyo Electric Co Ltd Driving support system, and combination vehicle
JP2012105158A (en) * 2010-11-11 2012-05-31 Mitsubishi Fuso Truck & Bus Corp Combination vehicle birds-eye-view display system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017215936A (en) * 2016-03-16 2017-12-07 メクラ・ラング・ゲーエムベーハー・ウント・コー・カーゲーMEKRA Lang GmbH & Co. KG Visual system for vehicles, in particular visual system for commercial vehicles
US10661712B2 (en) 2016-09-09 2020-05-26 Tadano Ltd. Bird's-eye view image system, bird's-eye view image display method and program
EP3512194A4 (en) * 2016-09-09 2020-04-01 Tadano Ltd. Bird's-eye view image system, bird's-eye view image display method and program
JP2020513701A (en) * 2016-12-14 2020-05-14 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 3D surround view system
JP7084400B2 (en) 2016-12-14 2022-06-14 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 3D surround view system
JP2019068326A (en) * 2017-10-03 2019-04-25 アイシン精機株式会社 Periphery monitoring device
JP7110577B2 (en) 2017-10-12 2022-08-02 株式会社アイシン Perimeter monitoring device
JP2019075625A (en) * 2017-10-12 2019-05-16 アイシン精機株式会社 Periphery monitoring device
JP2019087875A (en) * 2017-11-07 2019-06-06 アイシン精機株式会社 Periphery monitoring device
WO2019093176A1 (en) * 2017-11-07 2019-05-16 アイシン精機株式会社 Periphery monitoring device
JP7016751B2 (en) 2018-03-29 2022-02-07 ヤンマーパワーテクノロジー株式会社 Driving support system
JP2019175254A (en) * 2018-03-29 2019-10-10 ヤンマー株式会社 Operation support system
JP2019216380A (en) * 2018-06-14 2019-12-19 クラリオン株式会社 Operation support device and operation support system
JP7220027B2 (en) 2018-06-14 2023-02-09 フォルシアクラリオン・エレクトロニクス株式会社 Driving support device
WO2020157530A1 (en) * 2019-02-01 2020-08-06 Carit Automotive GmbH & Co. KG Vehicle park assist systems
JP2020204900A (en) * 2019-06-17 2020-12-24 シャープ株式会社 Operation terminal, moving system, and display method
JP7267850B2 (en) 2019-06-17 2023-05-02 シャープ株式会社 Operation terminal, mobile system, and display method
JP7294267B2 (en) 2020-08-05 2023-06-20 トヨタ自動車株式会社 Vehicle monitoring device

Also Published As

Publication number Publication date
JP6313992B2 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
JP6313992B2 (en) Ambient monitoring device for towing vehicles
US11067993B2 (en) Vehicle and trailer maneuver assist system
US10363872B2 (en) Periphery monitoring device
JP4556742B2 (en) Vehicle direct image display control apparatus and vehicle direct image display control program
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
US9682655B2 (en) Method and device for operating a vehicle
JP2011152865A (en) On-vehicle image pickup device
JP5718080B2 (en) Vehicle periphery monitoring device
JP2006027556A (en) Periphery monitor for vehicle
JP2011049735A (en) Vehicle periphery image providing device
WO2011013813A1 (en) In-vehicle device and image processing program
JP7147300B2 (en) Traction support device
JP5195776B2 (en) Vehicle periphery monitoring device
WO2017022262A1 (en) Surrounding monitoring device for operating machines
JP2007302238A (en) Vehicular image processing device
JP3988551B2 (en) Vehicle perimeter monitoring device
JP2011211432A (en) In-vehicle imaging apparatus
JP5192009B2 (en) Vehicle periphery monitoring device
JP2018085584A (en) Image processing apparatus, imaging apparatus, and display system
JP2007030564A (en) Parking assist method and parking assist device
US11030468B2 (en) Image processing apparatus
JP7110577B2 (en) Perimeter monitoring device
JP6252756B2 (en) Image processing apparatus, driving support apparatus, navigation apparatus, and camera apparatus
JP6712942B2 (en) Image processing device, imaging device, and display system
US20200282923A1 (en) Vehicle and camera module

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161111

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6313992

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150