JP2008299676A - Dead angle information requesting/providing devices and inter-vehicle communication system using the same - Google Patents

Dead angle information requesting/providing devices and inter-vehicle communication system using the same Download PDF

Info

Publication number
JP2008299676A
JP2008299676A JP2007146209A JP2007146209A JP2008299676A JP 2008299676 A JP2008299676 A JP 2008299676A JP 2007146209 A JP2007146209 A JP 2007146209A JP 2007146209 A JP2007146209 A JP 2007146209A JP 2008299676 A JP2008299676 A JP 2008299676A
Authority
JP
Japan
Prior art keywords
blind spot
vehicle
information
range
spot range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007146209A
Other languages
Japanese (ja)
Inventor
Shojiro Takeuchi
彰次郎 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007146209A priority Critical patent/JP2008299676A/en
Publication of JP2008299676A publication Critical patent/JP2008299676A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a dead angle information request device for requesting useful image information compensating a driver's dead angle to other vehicles. <P>SOLUTION: This dead angle information request device comprises a blind area calculation means to calculate a blind area, which cannot be seen from the driver of an own vehicle, and a communication means to transmit the blind area information indicating the blind area calculated by the blind area calculation means to the other vehicles, and receives the image information of the blind area transmitted from the other vehicle having received the blind area information by the communication means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、死角範囲の画像情報を車両間で交換し合うことを可能とする死角情報要求装置、死角情報提供装置及びこれらを利用した車車間通信システムに関する。   The present invention relates to a blind spot information requesting device, a blind spot information providing device, and a vehicle-to-vehicle communication system using the blind spot information requesting device that can exchange image information of a blind spot range between vehicles.

従来から、自車両の位置を検出する自車位置検出手段と、他車両で取得され送信される当該他車両で撮影された画像情報を受信する他車情報受信手段と、前記自車位置検出手段の検出結果と前記他車情報受信手段の受信結果とに基づいて、当該自車両と当該他車両との相対的位置関係を表す情報を提供する情報提供手段と、を備えることを特徴とする車載情報提供装置が知られている(例えば、特許文献1参照)。これにより、例えば、自車両の乗員がその渋滞画像を見たい場合に、渋滞中の他車両が撮影した画像情報を車両間通信を用いることで、自車両の乗員にその情報を提供することができる。
特開平11−195196号公報
Conventionally, own vehicle position detecting means for detecting the position of the own vehicle, other vehicle information receiving means for receiving image information captured and transmitted by the other vehicle, and the own vehicle position detecting means. And an information providing means for providing information representing a relative positional relationship between the own vehicle and the other vehicle based on a detection result of the vehicle and a reception result of the other vehicle information receiving means. An information providing apparatus is known (for example, see Patent Document 1). Thus, for example, when an occupant of the own vehicle wants to see the traffic jam image, the information can be provided to the occupant of the own vehicle by using inter-vehicle communication of image information taken by another vehicle in the traffic jam. it can.
JP-A-11-195196

しかしながら、上述の特許文献1に記載の発明では、他車で撮影された画像情報が自車に送信されるので、自車からでは把握できない情報を得ることができるが、この画像情報は、自車の運転者にとって死角となる死角範囲を考慮して他車側で取得されていないため、自車の運転者の死角を補うという観点からは不十分な側面がある。   However, in the invention described in Patent Document 1 described above, since image information captured by another vehicle is transmitted to the own vehicle, information that cannot be grasped from the own vehicle can be obtained. Since it is not acquired on the other vehicle side in consideration of the blind spot range that is a blind spot for the driver of the car, there is an insufficient aspect from the viewpoint of supplementing the blind spot of the driver of the own vehicle.

そこで、本発明は、運転者の死角を補う有用な画像情報を要求又は提供することが可能な死角情報要求装置、死角情報提供装置及びこれらを利用した車車間通信システムの提供を目的とする。   Accordingly, an object of the present invention is to provide a blind spot information requesting device, a blind spot information providing device, and a vehicle-to-vehicle communication system using these, which can request or provide useful image information that compensates the blind spot of the driver.

上記目的を達成するため、第1の発明は、死角情報要求装置に関し、自車の運転者にとって死角となる死角範囲を算出する死角範囲算出手段と、
死角範囲算出手段により算出された死角範囲を表す死角範囲情報を、他車に送信する通信手段とを備え、
前記死角範囲情報を受信した他車から送信される前記死角範囲の画像情報を前記通信手段により受信することを特徴とする。
In order to achieve the above object, the first invention relates to a blind spot information requesting device, a blind spot range calculating means for calculating a blind spot range that is a blind spot for a driver of the vehicle,
A communication means for transmitting the blind spot range information representing the blind spot range calculated by the blind spot range calculation means to another vehicle,
Image information of the blind spot range transmitted from another vehicle that has received the blind spot range information is received by the communication means.

第2の発明は、第1の発明に係る死角情報要求装置において、
前記通信手段により受信された前記死角範囲の画像情報を表示出力する表示手段を備えることを特徴とする。
According to a second invention, in the blind spot information requesting device according to the first invention,
It is characterized by comprising display means for displaying and outputting image information of the blind spot range received by the communication means.

第3の発明は、死角情報提供装置に関し、他車の運転者にとって死角となる死角範囲を表す死角範囲情報を、他車から受信する通信手段と、
前記通信手段により受信した前記死角範囲情報に基づいて、前記死角範囲の画像情報を取得する撮像手段とを備え、
前記撮像手段により取得された前記死角範囲の画像情報を前記通信手段により他車に送信することを特徴とする。
A third invention relates to a blind spot information providing device, and communication means for receiving blind spot range information representing a blind spot range that becomes a blind spot for a driver of another vehicle from another vehicle;
Imaging means for acquiring image information of the blind spot range based on the blind spot range information received by the communication means;
The image information of the blind spot range acquired by the imaging unit is transmitted to another vehicle by the communication unit.

第4の発明は、第3の発明に係る死角情報提供装置において、
前記撮像手段は、前記通信手段により受信した前記死角範囲情報に基づいて、撮像範囲又は撮像方向が調整されることを特徴とする。
4th invention is the blind spot information providing apparatus which concerns on 3rd invention,
The imaging unit is characterized in that an imaging range or an imaging direction is adjusted based on the blind spot range information received by the communication unit.

第5の発明は、第3又は4の発明に係る死角情報提供装置において、
前記通信手段により受信した前記死角範囲情報に基づいて、前記撮像手段により撮像された画像から、前記死角範囲に対応する範囲の画像部分を切り出す画像処理手段を備え、
前記画像処理手段により切り出された画像部分を、前記死角範囲の画像情報として前記通信手段により他車に送信することを特徴とする。
5th invention is the blind spot information provision apparatus which concerns on 3rd or 4th invention,
Based on the blind spot range information received by the communication means, image processing means for cutting out an image portion of a range corresponding to the blind spot range from the image captured by the imaging means,
The image portion cut out by the image processing means is transmitted to the other vehicle by the communication means as image information of the blind spot range.

第6の発明は、第3〜5のうちのいずれかの発明に係る死角情報提供装置において、
前記撮像手段により前記死角範囲の一部範囲の画像情報しか取得されない場合に、欠落した画像情報が存在することを表す情報を、前記死角範囲の一部範囲の画像情報と共に、前記通信手段により他車に送信することを特徴とする。
According to a sixth invention, in the blind spot information providing device according to any one of the third to fifth inventions,
When only the image information of the partial range of the blind spot range is acquired by the imaging unit, the information indicating that the missing image information exists is changed by the communication unit together with the image information of the partial range of the blind spot range. It is transmitted to a car.

第7の発明は、車車間通信システムに関し、第1又は2の発明に係る死角情報要求装置を備える第1車両と、第3〜6のうちのいずれかの発明に係る死角情報提供装置を備える第2車両とを備え、前記第1車両の前記通信手段と前記第2車両の前記通信手段との間の無線通信を介して、前記死角範囲情報及び前記死角範囲の画像情報の送受信が実現されることを特徴とする。   A seventh invention relates to a vehicle-to-vehicle communication system, and includes a first vehicle including a blind spot information requesting device according to the first or second invention, and a blind spot information providing device according to any one of the third to sixth inventions. And a transmission / reception of the blind spot range information and the image information of the blind spot range is realized via wireless communication between the communication means of the first vehicle and the communication means of the second vehicle. It is characterized by that.

第8の発明は、死角情報提供装置に関し、他車の通信手段と通信可能な自車通信手段と、
他車の運転者にとって死角となる死角範囲を算出する死角範囲算出手段と、
前記死角範囲算出手段により算出した前記死角範囲に基づいて、前記死角範囲の画像情報を取得する撮像手段とを備え、
前記撮像手段により取得された前記死角範囲の画像情報を前記自車通信手段により前記他車の通信手段に送信することを特徴とする。
An eighth invention relates to a blind spot information providing device, and a vehicle communication means capable of communicating with a communication means of another vehicle,
A blind spot range calculating means for calculating a blind spot range that becomes a blind spot for a driver of another vehicle;
Imaging means for acquiring image information of the blind spot range based on the blind spot range calculated by the blind spot range calculating means;
The blind spot range image information acquired by the imaging unit is transmitted to the communication unit of the other vehicle by the own vehicle communication unit.

本発明によれば、運転者の死角を補う有用な画像情報を要求又は提供することが可能な死角情報要求装置、死角情報提供装置及びこれらを利用した車車間通信システムが得られる。   ADVANTAGE OF THE INVENTION According to this invention, the blind spot information request | requirement apparatus which can request | require or provide the useful image information which supplements a driver's blind spot, a blind spot information provision apparatus, and the vehicle-to-vehicle communication system using these are obtained.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による車車間通信システム10の全体構成を概略的に示す図である。車車間通信システム10は、図1に示すように、2台の車両1,2により実現される。車両1には、死角情報提供装置100が搭載され、車両2には、死角情報要求装置200が搭載される。   FIG. 1 is a diagram schematically showing the overall configuration of a vehicle-to-vehicle communication system 10 according to the present invention. The inter-vehicle communication system 10 is realized by two vehicles 1 and 2 as shown in FIG. The vehicle 1 is equipped with a blind spot information providing device 100, and the vehicle 2 is equipped with a blind spot information requesting device 200.

死角情報提供装置100は、以下で詳説する如く、車両2の運転者の視野範囲中の死角範囲を表す死角範囲情報を、死角情報要求装置200から受信すると、死角情報提供装置100は、死角範囲情報に基づいて死角範囲の画像情報を取得すると共に、当該取得した死角範囲の画像情報を、死角情報要求装置200に送信する。これにより、車両2の運転者に、死角範囲の画像情報又はそれに基づく有用な情報を提供することができる。   When the blind spot information providing apparatus 100 receives the blind spot range information representing the blind spot range in the visual field range of the driver of the vehicle 2 from the blind spot information requesting apparatus 200, as described in detail below, the blind spot information providing apparatus 100 displays the blind spot range information. The image information of the blind spot range is acquired based on the information, and the acquired image information of the blind spot range is transmitted to the blind spot information requesting apparatus 200. Thereby, the driver | operator of the vehicle 2 can be provided with the image information of a blind spot range, or useful information based on it.

図2は、死角情報提供装置100の主要構成を示す構成図である。   FIG. 2 is a configuration diagram illustrating a main configuration of the blind spot information providing apparatus 100.

死角情報提供装置100は、図2に示すように、周辺監視ECU130を中心として構成されている。周辺監視ECU130は、図示しないバスを介して互いに接続されたCPU、ROM、及びRAM等からなるマイクロコンピュータとして構成されている。   As shown in FIG. 2, the blind spot information providing apparatus 100 is configured around a periphery monitoring ECU 130. The peripheral monitoring ECU 130 is configured as a microcomputer including a CPU, a ROM, a RAM, and the like connected to each other via a bus (not shown).

周辺監視ECU130には、CAN(Controller Area Network)などの適切な通信ラインを介して、周辺環境監視カメラ110と、モータ112及び114と、通信モジュール140とが接続されている。   A peripheral environment monitoring camera 110, motors 112 and 114, and a communication module 140 are connected to the peripheral monitoring ECU 130 via an appropriate communication line such as CAN (Controller Area Network).

周辺環境監視カメラ110は、レンズとCCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子により、車両1の外部環境を撮像する。周辺環境監視カメラ110は、周辺監視ECU130による制御下で、リアルタイムに車両1の外部環境の画像(以下、「外部環境画像I」という。)を取得して周辺監視ECU130に供給する。周辺環境監視カメラ110は、車両1周辺の広域の範囲を撮像できるように、撮像方向が調整可能であり、車両1の車体に対して回転可能(向き調整可能)に搭載される。尚、周辺環境監視カメラ110は、車両1周辺の広域の範囲を撮像できるように、複数設定されてもよい。また、周辺環境監視カメラ110は、撮像範囲(倍率)が調整可能なカメラであってよい。また、周辺環境監視カメラ110は、撮像範囲が調整可能となるように、上下左右方向に移動可能に搭載されていてもよい。 The surrounding environment monitoring camera 110 images the external environment of the vehicle 1 with an image sensor such as a lens and a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The surrounding environment monitoring camera 110 acquires an image of the external environment of the vehicle 1 (hereinafter referred to as “external environment image I 1 ”) in real time under the control of the surrounding monitoring ECU 130 and supplies the acquired image to the surrounding monitoring ECU 130. The surrounding environment monitoring camera 110 has an imaging direction that can be adjusted so that a wide area around the vehicle 1 can be imaged, and is mounted so as to be rotatable (or orientation adjustable) with respect to the vehicle body of the vehicle 1. A plurality of surrounding environment monitoring cameras 110 may be set so that a wide range around the vehicle 1 can be imaged. The surrounding environment monitoring camera 110 may be a camera that can adjust the imaging range (magnification). The surrounding environment monitoring camera 110 may be mounted so as to be movable in the vertical and horizontal directions so that the imaging range can be adjusted.

周辺環境監視カメラ110の回転自由度は、略鉛直方向の1軸まわりの回転のみであってもよいし、高さ方向でも向き調整が可能となるように、横方向と略鉛直方向の2軸まわりの回転であってもよく、更に3軸まわりの回転であってもよい。ここでは、周辺環境監視カメラ110の回転自由度は、横方向と略鉛直方向の2軸まわりの回転であり、それぞれモータ112及び114により実現されるものとする。即ち、周辺環境監視カメラ110の左右方向の向きがモータ112の駆動により調整可能であり、周辺環境監視カメラ110の上下方向の向きがモータ114の駆動により調整可能である。   The degree of freedom of rotation of the surrounding environment monitoring camera 110 may be only rotation about one axis in the substantially vertical direction, or two axes in the lateral direction and the substantially vertical direction so that the orientation can be adjusted in the height direction. It may be a rotation around, and further a rotation around three axes. Here, the degree of freedom of rotation of the surrounding environment monitoring camera 110 is rotation about two axes in the lateral direction and the substantially vertical direction, and is assumed to be realized by the motors 112 and 114, respectively. In other words, the horizontal direction of the surrounding environment monitoring camera 110 can be adjusted by driving the motor 112, and the vertical direction of the surrounding environment monitoring camera 110 can be adjusted by driving the motor 114.

モータ112及び114は、例えばDCモータやブラシレスモータのようなサーボモータであってもよい。モータ112及び114は、周辺監視ECU130による制御下で駆動される。制御は、セミクローズドループであってもフルセミクローズドループであってもよい。   The motors 112 and 114 may be servo motors such as DC motors and brushless motors, for example. The motors 112 and 114 are driven under the control of the periphery monitoring ECU 130. The control may be a semi-closed loop or a full semi-closed loop.

通信モジュール140は、通信アンテナ142を介して、車両2の通信モジュール240(後述)と無線通信を行い、通信モジュール240から死角範囲情報等を受信すると共に、通信モジュール240に死角範囲の画像情報を送信する。通信モジュール140は、通信モジュール240からの受信データをデコード処理等する内部回路や、通信モジュール140から送信する送信データをエンコード処理等する内部回路等を備える。   The communication module 140 performs wireless communication with a communication module 240 (described later) of the vehicle 2 via the communication antenna 142, receives blind spot range information and the like from the communication module 240, and sends image information of the blind spot range to the communication module 240. Send. The communication module 140 includes an internal circuit that decodes data received from the communication module 240, an internal circuit that encodes transmission data transmitted from the communication module 140, and the like.

周辺監視ECU130は、図2に示すように、主要な機能部として、画像処理部136と、カメラ制御部134とを備える。   As shown in FIG. 2, the periphery monitoring ECU 130 includes an image processing unit 136 and a camera control unit 134 as main functional units.

画像処理部136は、通信モジュール140により受信した死角範囲情報に基づいて、周辺環境監視カメラ110から供給される外部環境画像Iを基に死角範囲の画像情報を生成する。死角範囲の画像情報の生成方法の一例は後述する。生成された死角範囲の画像情報は、通信モジュール140に供給され、通信モジュール140から車両2の通信モジュール240(後述)に送信される。 The image processing unit 136, based on the received blind spot information by the communication module 140, generates image information of blind spot area on the basis of the external environment image I 1 supplied from the surrounding environment monitoring camera 110. An example of a method for generating the blind spot image information will be described later. The generated blind spot image information is supplied to the communication module 140 and transmitted from the communication module 140 to the communication module 240 (described later) of the vehicle 2.

カメラ制御部134は、通信モジュール140により受信した死角範囲情報に基づいて、周辺環境監視カメラ110により死角範囲が撮像されるように、モータ112及び114を介して周辺環境監視カメラ110の向き(撮像方向)を制御する。また、周辺環境監視カメラ110の撮像範囲(ズームないし倍率)が調整可能な場合には、カメラ制御部134は、周辺環境監視カメラ110により死角範囲が撮像されるように、周辺環境監視カメラ110の撮像範囲を制御する。このカメラ制御部134によるカメラ制御方法の一例は後述する。   Based on the blind spot range information received by the communication module 140, the camera control unit 134 directs the surrounding environment monitoring camera 110 via the motors 112 and 114 so that the blind spot range is imaged by the surrounding environment monitoring camera 110. Direction). In addition, when the imaging range (zoom or magnification) of the surrounding environment monitoring camera 110 can be adjusted, the camera control unit 134 causes the surrounding environment monitoring camera 110 to capture the blind spot range so that the surrounding area monitoring camera 110 captures the blind spot range. Control the imaging range. An example of a camera control method by the camera control unit 134 will be described later.

死角情報要求装置200は、以下で詳説する如く、車両2の運転者にとって死角となる範囲を表す死角範囲情報を、死角情報提供装置100に向けて送信し、これを受けて死角情報提供装置100により取得され送信される死角範囲の画像情報を、受信する。これにより、車両2の運転者に、死角範囲の画像情報又はそれに基づく有用な情報を提供することができる。   The blind spot information requesting device 200 transmits, to the blind spot information providing device 100, blind spot range information indicating a range that becomes a blind spot for the driver of the vehicle 2, and receives the blind spot information providing device 100 in response to this information. The image information of the blind spot range acquired and transmitted by is received. Thereby, the driver | operator of the vehicle 2 can be provided with the image information of a blind spot range, or useful information based on it.

図3は、死角情報要求装置200の主要構成を示す構成図である。   FIG. 3 is a configuration diagram showing a main configuration of the blind spot information requesting apparatus 200.

死角情報要求装置200は、図3に示すように、周辺監視ECU230を中心として構成されている。周辺監視ECU230は、図示しないバスを介して互いに接続されたCPU、ROM、及びRAM等からなるマイクロコンピュータとして構成されている。   As shown in FIG. 3, the blind spot information requesting device 200 is configured around a periphery monitoring ECU 230. The peripheral monitoring ECU 230 is configured as a microcomputer including a CPU, a ROM, a RAM, and the like connected to each other via a bus (not shown).

周辺監視ECU130には、CAN(Controller Area Network)などの適切な通信ラインを介して、周辺環境監視カメラ210と、通信モジュール240と、ディスプレイ250とが接続されている。   A peripheral environment monitoring camera 210, a communication module 240, and a display 250 are connected to the peripheral monitoring ECU 130 via an appropriate communication line such as a CAN (Controller Area Network).

周辺環境監視カメラ210は、レンズとCCDやCMOS等の撮像素子により、車両2前方の所定範囲内の外部環境を撮像する。所定範囲は、例えば、正面を向いた運転者の視野範囲に対応していてよい。周辺環境監視カメラ210は、周辺監視ECU230による制御下で、リアルタイムに車両2の外部環境の画像(以下、「外部環境画像I」という。)を取得して周辺監視ECU130に供給する。 The surrounding environment monitoring camera 210 images an external environment within a predetermined range in front of the vehicle 2 with a lens and an image sensor such as a CCD or a CMOS. The predetermined range may correspond to, for example, the visual field range of the driver facing the front. The surrounding environment monitoring camera 210 acquires an image of the external environment of the vehicle 2 (hereinafter referred to as “external environment image I 2 ”) in real time under the control of the surrounding monitoring ECU 230 and supplies the acquired image to the surrounding monitoring ECU 130.

通信モジュール240は、通信アンテナ242を介して、車両1の通信モジュール140と無線通信を行い、通信モジュール140に死角範囲情報等を送信すると共に、通信モジュール140から死角範囲の画像情報を受信する。通信モジュール240は、通信モジュール140からの受信データをデコード処理等する内部回路や、通信モジュール240から送信する送信データをエンコード処理等する内部回路等を備える。   The communication module 240 performs wireless communication with the communication module 140 of the vehicle 1 via the communication antenna 242, transmits blind spot range information and the like to the communication module 140, and receives image information of the blind spot range from the communication module 140. The communication module 240 includes an internal circuit that decodes data received from the communication module 140, an internal circuit that encodes transmission data transmitted from the communication module 240, and the like.

ディスプレイ250は、例えば液晶ディスプレイにより構成され、車両2の運転者が視認しやすい場所であって、車両2の室内の適切な場所に配置される。例えば、ディスプレイ250は、車両2のインストルメントパネルやメーター内に配置されてもよく、ナビゲーション装置(図示せず)のディスプレイと共用されてもよい。ディスプレイ250上には、後述の如く、周辺監視ECU130による制御下で、死角範囲の画像情報が表示される。   The display 250 is configured by a liquid crystal display, for example, and is a place where the driver of the vehicle 2 can easily see and is disposed at an appropriate place in the vehicle 2. For example, the display 250 may be disposed in an instrument panel or a meter of the vehicle 2 and may be shared with a display of a navigation device (not shown). As will be described later, the image information of the blind spot range is displayed on the display 250 under the control of the periphery monitoring ECU 130.

周辺監視ECU230は、図3に示すように、主要な機能部として、画像処理部232と、死角範囲算出部234と、表示画像生成部236とを備える。   As shown in FIG. 3, the periphery monitoring ECU 230 includes an image processing unit 232, a blind spot range calculation unit 234, and a display image generation unit 236 as main functional units.

画像処理部232は、周辺環境監視カメラ210から供給される外部環境画像Iを画像処理して、外部環境画像I内に存在する死角生成物を認識する。死角生成物は、車両2の運転者の死角を生成する物体であり、典型的には、他の車両や建築物である。画像処理部232は、死角生成物を画像認識した場合には、死角生成物の画像認識結果(例えば死角生成物の画素位置情報)を死角範囲算出部234に供給する。 The image processing unit 232 performs image processing on the external environment image I 2 supplied from the surrounding environment monitoring camera 210 and recognizes a blind spot product existing in the external environment image I 2 . The blind spot product is an object that generates the blind spot of the driver of the vehicle 2, and is typically another vehicle or a building. When the blind spot product is image-recognized, the image processing unit 232 supplies the blind spot product image recognition result (for example, pixel position information of the blind spot product) to the blind spot range calculation unit 234.

死角範囲算出部234は、画像処理部232から供給される死角生成物の画像認識結果に基づいて、死角範囲(車両2の運転者にとって死角となる範囲)を算出する。死角範囲は、死角生成物の画像範囲に対応していてよい。死角範囲の算出方法の一例は後述する。死角範囲算出部234により算出された死角範囲は、上述の死角範囲情報として通信モジュール240により車両1の通信モジュール140に送信される。   The blind spot range calculation unit 234 calculates a blind spot range (a range that becomes a blind spot for the driver of the vehicle 2) based on the image recognition result of the blind spot product supplied from the image processing unit 232. The blind spot range may correspond to the image range of the blind spot product. An example of a method for calculating the blind spot range will be described later. The blind spot range calculated by the blind spot range calculation unit 234 is transmitted to the communication module 140 of the vehicle 1 by the communication module 240 as the above-described blind spot range information.

表示画像生成部236は、通信モジュール240により受信した死角範囲の画像情報に基づいて、ディスプレイ250に表示する表示画像を生成する。表示画像生成部236は、死角範囲の画像情報が例えば圧縮された画像データとして受信された場合には、圧縮された画像データを解凍(伸張)して表示画像を生成する。このようにして生成された表示画像は、ディスプレイ250に表示される。尚、表示画像生成部236は、外部環境画像Iと、通信モジュール240により受信した死角範囲の画像とを合成して、表示画像を生成してもよい。この場合、表示画像生成部236は、外部環境画像Iの死角範囲の部分(即ち死角生成物の画像部分)を、通信モジュール240により受信した死角範囲の画像情報に基づいて生成してよい。 The display image generation unit 236 generates a display image to be displayed on the display 250 based on the blind spot image information received by the communication module 240. When the image information in the blind spot range is received as, for example, compressed image data, the display image generation unit 236 generates a display image by decompressing (expanding) the compressed image data. The display image generated in this way is displayed on the display 250. The display image generation unit 236, the external environment image I 2, by synthesizing the image of the blind spot area received by the communication module 240 may generate the display image. In this case, the display image generation unit 236 may generate a blind spot range portion of the external environment image I 2 (that is, an image portion of the blind spot product) based on the blind spot range image information received by the communication module 240.

図4は、本実施例の車車間通信システム10が有効に機能する場面の一例を示す。図4には、上述の死角情報要求装置200を搭載した車両2が、反対車線及び歩道(歩行者専用道路)を横断して、駐車場等に進入しようとしており、反対車線では、上述の死角情報提供装置100を搭載した2台の車両(対向車)1A,1Bが、車両2の横断を譲るために待機している状況が示されている。また、歩道に歩行者が存在し、歩行者が車両2の横断位置に向かって移動している状況が示されている。   FIG. 4 shows an example of a scene where the inter-vehicle communication system 10 of this embodiment functions effectively. In FIG. 4, the vehicle 2 equipped with the blind spot information requesting device 200 is about to enter a parking lot or the like across the opposite lane and sidewalk (pedestrian road). A situation is shown in which two vehicles (opposite vehicles) 1A and 1B equipped with the information providing apparatus 100 are waiting to cross over the vehicle 2. In addition, a situation in which a pedestrian exists on the sidewalk and the pedestrian is moving toward the crossing position of the vehicle 2 is shown.

このような状況下では、車両2の運転者は、車両1A,1Bを待機させているので、焦って急いで横断する場合があるが、例えば図4に示すように、歩道に歩行者が存在する場合には、車両2の運転者は、当該歩行者が通り過ぎるまで横断を待機すべきである。しかしながら、歩行者は車両1Aの存在より車両2の運転者の死角範囲内に存在するので、車両2の運転者は、当該歩行者に気が付かずに急いで横断してしまう可能性がある。   Under such circumstances, the driver of the vehicle 2 is waiting for the vehicles 1A and 1B, and may rush and rush across. However, for example, as shown in FIG. When doing so, the driver of the vehicle 2 should wait for crossing until the said pedestrian passes. However, since the pedestrian exists in the blind spot range of the driver of the vehicle 2 from the presence of the vehicle 1A, the driver of the vehicle 2 may suddenly cross without being aware of the pedestrian.

図5は、図4に示すような状況下で、本実施例の車車間通信システム10により実現される主要処理(死角範囲伝達処理)の一例の流れを示すフローチャートである。   FIG. 5 is a flowchart showing an exemplary flow of a main process (dead angle range transmission process) realized by the inter-vehicle communication system 10 of the present embodiment under the situation shown in FIG.

ステップ300では、車両2の周辺監視ECU230の死角範囲算出部234により死角範囲が算出される。水平面内の死角範囲は、図4に示すように、車両2の運転者の眼の位置Rを基準とした角度範囲αで規定されてよい。この場合、水平面内の死角範囲は、車両2の進行方向X1を基準とし、反時計回り正として、θ〜θ+αの範囲となる。尚、車両2の運転者の眼の位置Rは、平均的な身長の運転者を基準として決定された固定位置であってもよいし、車載カメラ(図示せず)により検出されてもよい。或いは、死角範囲は、図6に示すように、鉛直面内の角度範囲β1、β2をも考慮して3次元で規定されてもよい。β1、β2は、水平面(一点鎖線参照)を基準として上向きの角度及び下向きの角度をそれぞれ表す。この場合、鉛直面内の死角範囲は、水平面を基準とし、上向きを正として、−β1〜β2の範囲となる。このような死角範囲は、既知の周辺環境監視カメラ210の視線方向と搭載位置情報と、死角生成物(本例では車両1A)の画像範囲とに基づいて算出することができる。   In step 300, the blind spot range is calculated by the blind spot range calculation unit 234 of the periphery monitoring ECU 230 of the vehicle 2. As shown in FIG. 4, the blind spot range in the horizontal plane may be defined by an angle range α based on the position R of the eyes of the driver of the vehicle 2. In this case, the blind spot range in the horizontal plane is in the range of θ to θ + α with the traveling direction X1 of the vehicle 2 as a reference and counterclockwise positive. The position R of the eyes of the driver of the vehicle 2 may be a fixed position determined based on the average height driver or may be detected by an in-vehicle camera (not shown). Alternatively, as shown in FIG. 6, the blind spot range may be defined in three dimensions in consideration of the angle ranges β1 and β2 in the vertical plane. β1 and β2 respectively represent an upward angle and a downward angle with respect to the horizontal plane (see the alternate long and short dash line). In this case, the blind spot range in the vertical plane is a range of −β1 to β2 with the horizontal plane as the reference and the upward direction as the positive. Such a blind spot range can be calculated based on the known line-of-sight direction of the surrounding environment monitoring camera 210, the mounting position information, and the image range of the blind spot product (vehicle 1A in this example).

また、死角範囲は、車両2からの距離L(図4参照)をパラメータとして規定されてもよい。これは、角度だけでは実際に情報が必要な死角範囲を適切に規定できない場合があるからである。例えば、図4に示すように、死角範囲は、車両2から所定方向(=θ+α/2)で距離Lの点Gとして規定されてもよい。距離Lは、外部環境画像Iから算出可能な死角生成物までの距離に、所定の固定値(例えば2m)を付加して算出される可変値であってよい。 Further, the blind spot range may be defined with the distance L from the vehicle 2 (see FIG. 4) as a parameter. This is because the blind spot range that actually requires information may not be properly defined by the angle alone. For example, as shown in FIG. 4, the blind spot range may be defined as a point G having a distance L in a predetermined direction (= θ + α / 2) from the vehicle 2. The distance L may be a variable value calculated by adding a predetermined fixed value (for example, 2 m) to the distance from the external environment image I 2 to the dead angle product that can be calculated.

ステップ302では、車両2の通信モジュール240により、上記のステップ300で算出された死角範囲に基づいて生成された死角範囲情報が、車両2の進行方向X1を表す情報と共に、車両(対向車)1A,1Bのそれぞれの通信モジュール140に送信される。尚、車両2の進行方向X1を表す情報は、例えば車両2のナビゲーション装置のGPS受信機(図示せず)により測位された車両方位に基づいて生成されてもよいし、車両2の地磁気センサや、舵角センサやヨーレートセンサ等の出力信号に基づいて生成されてもよい。尚、ここでは、一例として、車両2の進行方向X1は、絶対方位で規定されるものとする。また、上述の如く死角範囲が距離Lと方向(=θ+α/2)をパラメータとして規定されている場合には、車両2の位置情報も車両1A,1Bのそれぞれの通信モジュール140に送信される。   In step 302, the blind spot range information generated based on the blind spot range calculated in step 300 by the communication module 240 of the vehicle 2 is combined with information indicating the traveling direction X1 of the vehicle 2 and the vehicle (oncoming vehicle) 1A. , 1B to the respective communication modules 140. The information indicating the traveling direction X1 of the vehicle 2 may be generated based on the vehicle direction measured by a GPS receiver (not shown) of the navigation device of the vehicle 2, for example, Alternatively, it may be generated based on output signals from a steering angle sensor, a yaw rate sensor, or the like. Here, as an example, the traveling direction X1 of the vehicle 2 is defined by an absolute direction. Further, as described above, when the blind spot range is defined with the distance L and the direction (= θ + α / 2) as parameters, the position information of the vehicle 2 is also transmitted to the respective communication modules 140 of the vehicles 1A and 1B.

ステップ304では、上記ステップ302で送信された死角範囲情報等を受信した車両(対向車)1A,1Bにおいて、該車両1A,1Bの死角情報提供装置100の周辺環境監視カメラ110の撮像範囲が調整可能であるか否かが判定される。上述のように、周辺環境監視カメラ110の向きがモータ112及び114により調整可能に構成されている場合には、本ステップ304の判定は肯定判定となる。一方、上述とは異なり、周辺環境監視カメラ110が固定式である場合には、本ステップ304の判定は否定判定となる。本ステップ304の判定が肯定判定の場合には、ステップ305に進み、否定判定の場合には、ステップ310に進む。ここでは、一例として、車両1Aでは肯定判定され、車両1Bでは否定判定されたことを想定して説明を続ける。   In step 304, in the vehicles (oncoming vehicles) 1A and 1B that have received the blind spot range information transmitted in step 302, the imaging range of the surrounding environment monitoring camera 110 of the blind spot information providing device 100 of the vehicles 1A and 1B is adjusted. It is determined whether it is possible. As described above, when the orientation of the surrounding environment monitoring camera 110 is configured to be adjustable by the motors 112 and 114, the determination in step 304 is affirmative. On the other hand, unlike the above, when the surrounding environment monitoring camera 110 is a fixed type, the determination in step 304 is negative. If the determination in step 304 is affirmative, the process proceeds to step 305. If the determination is negative, the process proceeds to step 310. Here, as an example, the description will be continued assuming that a positive determination is made in vehicle 1A and a negative determination is made in vehicle 1B.

ステップ305では、車両1Aの周辺監視ECU130のカメラ制御部134により、車両1Aの周辺環境監視カメラ110の撮像範囲が、死角範囲情報に係る死角範囲に対応するように、モータ112及び114が制御される。例えば、水平面内の死角範囲(=θ〜θ+α)に基づいてモータ112が制御され、鉛直面内の死角範囲(=−β1〜β2)に基づいてモータ114が制御される。これにより、図7に示すように、車両1Aの周辺環境監視カメラ110の撮像範囲(図示の例では、車両1Aの左前方向を監視する撮像範囲)は、通常時の撮像範囲P1から、死角範囲に対応する撮像範囲P2へと変更される。   In step 305, the motors 112 and 114 are controlled by the camera control unit 134 of the surrounding monitoring ECU 130 of the vehicle 1A so that the imaging range of the surrounding environment monitoring camera 110 of the vehicle 1A corresponds to the blind spot range related to the blind spot range information. The For example, the motor 112 is controlled based on the blind spot range (= θ to θ + α) in the horizontal plane, and the motor 114 is controlled based on the blind spot range (= −β1 to β2) in the vertical plane. Accordingly, as shown in FIG. 7, the imaging range of the surrounding environment monitoring camera 110 of the vehicle 1A (in the illustrated example, the imaging range for monitoring the left front direction of the vehicle 1A) is from the normal imaging range P1 to the blind spot range. Is changed to the imaging range P2.

ステップ306では、上記ステップ305で撮像範囲が変更された車両1Aの周辺環境監視カメラ110により外部環境画像Iが撮像される。このようにして得られる外部環境画像Iには、死角範囲内の風景(本例では歩行者)が含まれることになる。 In step 306, the external environmental image I 1 by the peripheral environment monitoring camera 110 of the vehicle 1A in the imaging range is changed at step 305 is imaged. The external environment image I 1 obtained in this way includes a landscape (pedestrian in this example) within the blind spot range.

ステップ308では、車両1Aの周辺監視ECU130の画像処理部136により、上記ステップ306で得られた外部環境画像Iに基づいて死角範囲の画像情報が生成され、当該生成された死角範囲の画像情報が、車両1Aの通信モジュール1により車両2の通信モジュール240に送信される。尚、車両1Aの周辺監視ECU130の画像処理部136は、外部環境画像Iをそのまま用いて死角範囲の画像情報を生成してよいし、或いは、外部環境画像Iから死角範囲の画像部分だけを切り出して死角範囲の画像情報を生成してもよい。 In step 308, the image processing unit 136 of the surroundings monitoring ECU130 vehicle 1A, the image information of the blind spot area on the basis of an external environmental image I 1 obtained in Step 306 is generated, the image information of the generated blind spots Is transmitted to the communication module 240 of the vehicle 2 by the communication module 1 of the vehicle 1A. The image processing section 136 of the peripheral monitoring ECU130 vehicle 1A may or generate the image information of the blind spot area using external environmental image I 1 as it is or, only the image portion of the blind spot area from the external environment image I 1 May be cut out to generate image information of the blind spot range.

ステップ310では、車両1Bの周辺環境監視カメラ110により外部環境画像Iが撮像される。例えば、図8の例では、車両1Bの周辺環境監視カメラ110は、車両1Bの前方を監視する撮像領域P3を有するので、車両1Bの前方領域の外部環境画像Iが撮像されることになる。図8の例では、車両1Bの周辺環境監視カメラ110は撮像範囲の調整が不能であるので、死角範囲の一部範囲しか含まない外部環境画像Iが撮像されることになる。即ち、死角範囲P5+P4のうちの、一部範囲P4だけが撮像されることになる。 In step 310, the external environmental image I 1 is captured by the peripheral environment monitoring camera 110 of the vehicle 1B. For example, in the example of FIG. 8, the peripheral environment monitoring camera 110 of the vehicle 1B is because it has an imaging region P3 to monitor the front of the vehicle 1B, so that the external environment image I 1 of the front region of the vehicle 1B is imaged . In the example of FIG. 8, since the peripheral environment monitoring camera 110 of the vehicle 1B is impossible to adjust the imaging range, so that the external environment image I 1 which contains only a part range of blind spot area is imaged. That is, only a partial range P4 in the blind spot range P5 + P4 is imaged.

ステップ312では、車両1Bの周辺監視ECU130の画像処理部136により、上記ステップ310で得られた外部環境画像Iに基づいて、死角範囲の画像情報が生成される。この際、車両1Bの周辺監視ECU130の画像処理部136は、外部環境画像Iに死角範囲の欠落した部分があるか否かを判断し、欠落部分がある場合には、当該欠落した部分に関する情報(以下、「欠落情報」という)を生成する。例えば図8の例では、死角範囲の欠落した部分として領域P5が特定され、この場合、欠落情報は、死角範囲の画像情報に欠落部分があることを単に示す情報であってよい。また、仮に死角範囲の一部範囲が車両1Aの存在により撮像できない場合には、車両1Aの画像部分のデータを例えば削除することで、欠落情報を生成してもよい。 In step 312, the image processing unit 136 of the surroundings monitoring ECU130 vehicle 1B, based on the external environmental image I 1 acquired in step 310, the image information of the blind spot area is generated. At this time, the image processing section 136 of the peripheral monitoring ECU130 vehicle 1B determines whether the external environment image I 1 is missing part of the blind spot area, if there is a missing part is related to the missing portion Information (hereinafter referred to as “missing information”) is generated. For example, in the example of FIG. 8, the region P5 is specified as a missing part of the blind spot range. In this case, the missing information may be information simply indicating that there is a missing part in the image information of the blind spot range. Further, if a part of the blind spot range cannot be imaged due to the presence of the vehicle 1A, the missing information may be generated by deleting the data of the image portion of the vehicle 1A, for example.

ステップ314では、上記ステップ312で生成された死角範囲の画像情報及び欠落情報が、車両1Bの通信モジュール1により車両2の通信モジュール240に送信される。   In step 314, the blind spot image information and missing information generated in step 312 are transmitted to the communication module 240 of the vehicle 2 by the communication module 1 of the vehicle 1B.

図9は、図4に示すような状況下で、本実施例の死角情報要求装置200により実現される主要処理(死角範囲の画像情報受信・表示処理)の一例の流れを示すフローチャートである。図9に示す処理は、上述の図5に示した死角範囲伝達処理の終了後、死角情報要求装置200において実行される。   FIG. 9 is a flowchart showing a flow of an example of main processing (image information reception / display processing of the blind spot range) realized by the blind spot information requesting apparatus 200 of the present embodiment under the situation shown in FIG. The process shown in FIG. 9 is executed in the blind spot information requesting apparatus 200 after the blind spot range transmission process shown in FIG.

ステップ400では、上述の図5のステップ308及び314で車両(対向車)1A,1Bから送信された死角範囲の画像情報を、通信モジュール240により受信する。   In step 400, the communication module 240 receives the blind spot image information transmitted from the vehicles (oncoming vehicles) 1A and 1B in steps 308 and 314 of FIG.

ステップ402では、上記ステップ400で受信した死角範囲の画像情報が、ディスプレイ250上に表示される。   In step 402, the image information of the blind spot range received in step 400 is displayed on the display 250.

例えば図4に示す環境下において、車両1A,1Bの双方から死角範囲の画像情報が車両2に送信された場合には、車両2の周辺監視ECU230の表示画像生成部236は、車両1A,1Bの双方から死角範囲の画像情報の双方に基づいて、表示画像を生成してもよい。この場合、車両1Aから死角範囲の画像情報と、車両1Bから死角範囲の画像情報が、例えばディスプレイ250上の分離された領域にそれぞれ出力されるように、表示画像が生成されてよい。或いは、車両2の周辺監視ECU230の表示画像生成部236は、車両1A,1Bの双方から死角範囲の画像情報のいずれか一方に基づいて、表示画像を生成してもよい。この場合、死角範囲の画像情報のいずれか一方に上述の欠落情報が付加されている場合には、欠落情報が付加されていない方の死角範囲の画像情報に基づいて、表示画像が生成されてよい。また、表示画像生成部236が、欠落情報が付加された死角範囲の画像情報に基づいて、表示画像を生成する場合には、表示画像生成部236は、欠落情報が存在することが車両2の運転者が分かるような態様で表示画像を生成する。例えば、死角範囲の画像情報の欠落部分を表示しないこととしてもよいし、死角範囲の画像情報の欠落部分を、他の画像領域と異なる輝度や色等で表示して、その欠落部分の画像情報の信頼性が低いことを示すこととしてもよい。これにより、車両2の運転者は、欠落情報が存在することを把握して、死角範囲の画像情報の信頼性を適切に評価・判断することができる。   For example, in the environment shown in FIG. 4, when the image information of the blind spot range is transmitted from both the vehicles 1A and 1B to the vehicle 2, the display image generation unit 236 of the periphery monitoring ECU 230 of the vehicle 2 causes the vehicles 1A and 1B to A display image may be generated based on both of the image information of the blind spot range from both. In this case, the display image may be generated such that the image information of the blind spot range from the vehicle 1A and the image information of the blind spot range from the vehicle 1B are output to, for example, separated areas on the display 250. Alternatively, the display image generation unit 236 of the periphery monitoring ECU 230 of the vehicle 2 may generate a display image based on either one of the image information in the blind spot range from both the vehicles 1A and 1B. In this case, when the above-described missing information is added to any one of the image information of the blind spot range, a display image is generated based on the image information of the blind spot range to which the missing information is not added. Good. When the display image generation unit 236 generates a display image based on the image information in the blind spot range to which the missing information is added, the display image generation unit 236 indicates that the missing information exists in the vehicle 2. A display image is generated in such a manner that the driver can understand. For example, the missing part of the image information in the blind spot range may not be displayed, or the missing part of the image information in the blind spot range is displayed in a different brightness or color from the other image areas, and the image information of the missing part is displayed. It is good also as showing that the reliability of is low. Thereby, the driver of the vehicle 2 can grasp that the missing information exists and can appropriately evaluate and judge the reliability of the image information in the blind spot range.

ステップ404では、死角範囲の画像情報が受信されたことを音声等により車両2の運転者に報知する。この報知は、車両2のスピーカー(図示せず)を介して出力されてよい。また、この報知は、上記のステップ402の死角範囲の画像情報の出力と同時に実行されるので、車両2の運転者は、死角範囲の画像情報がディスプレイ250上に表示されたことを容易に知ることができる。図4に示す環境下では、車両1A及び/又は車両1Bの周辺環境監視カメラ110で撮像された歩行者の画像(死角範囲の画像情報)が、車両2のディスプレイ250上に表示されるので、車両2の運転者は、死角範囲に隠れた歩行者の存在を把握して、歩行者を考慮して駐車場等への横断を実行することができる。また、本ステップ404において、死角範囲の画像情報内に、車両2の運転者が注意すべき対象(本例では歩行者)が存在する場合に、その旨が報知されてもよい。この場合、車両2の運転者が注意すべき対象がディスプレイ250上の表示画像中に強調表示(例えば点滅表示)されてもよい。   In step 404, the driver of the vehicle 2 is notified by voice or the like that the image information of the blind spot range has been received. This notification may be output via a speaker (not shown) of the vehicle 2. Further, since this notification is executed simultaneously with the output of the blind spot image information in step 402 described above, the driver of the vehicle 2 easily knows that the blind spot image information has been displayed on the display 250. be able to. Under the environment shown in FIG. 4, the pedestrian image (image information of the blind spot range) captured by the surrounding environment monitoring camera 110 of the vehicle 1A and / or the vehicle 1B is displayed on the display 250 of the vehicle 2, The driver of the vehicle 2 can grasp the existence of a pedestrian hidden in the blind spot range, and can execute a crossing to a parking lot or the like in consideration of the pedestrian. Further, in this step 404, when there is an object (a pedestrian in this example) to be noted by the driver of the vehicle 2 in the image information of the blind spot range, that fact may be notified. In this case, an object to be watched by the driver of the vehicle 2 may be highlighted (for example, blinking) in the display image on the display 250.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施例では、死角情報提供装置100と死角情報要求装置200とが別々の車両に搭載されているが、同一の車両に死角情報提供装置100と死角情報要求装置200の双方が搭載されてもよい。従って、死角情報提供装置100と死角情報要求装置200の双方が搭載された車両の場合、ある場面では、当該車両の死角情報提供装置100が機能し、他車の死角情報要求装置200に対して死角範囲の画像情報を提供し、ある場面では、当該車両の死角情報要求装置200が機能し、他車から死角範囲の画像情報の提供を受けることになる。   For example, in the above-described embodiment, the blind spot information providing apparatus 100 and the blind spot information requesting apparatus 200 are mounted on different vehicles, but both the blind spot information providing apparatus 100 and the blind spot information requesting apparatus 200 are mounted on the same vehicle. May be. Therefore, in the case of a vehicle in which both the blind spot information providing device 100 and the blind spot information requesting device 200 are mounted, the blind spot information providing device 100 of the vehicle functions in a certain scene, and the blind spot information requesting device 200 of another vehicle is operated. The blind spot range image information is provided, and in a certain scene, the blind spot information requesting device 200 of the vehicle functions to receive provision of the blind spot range image information from another vehicle.

また、上述の実施例では、死角範囲は、死角範囲の画像情報の提供を受ける側の車両(即ち、死角情報要求装置200が搭載された車両)で算出されているが、死角範囲は、同様の態様で、死角範囲の画像情報を提供する側の車両(即ち、死角情報提供装置100が搭載された車両)で算出されてもよい。例えば、死角情報提供装置100は、他車(死角範囲の画像情報の提供を受ける側の車両)の位置や進行方向と、自車(死角範囲の画像情報を提供する側の車両)の位置や進行方向との相対関係に基づいて、他車の運転者にとって死角となる死角範囲を算出してよい。   Further, in the above-described embodiment, the blind spot range is calculated in the vehicle that receives the provision of the image information of the blind spot range (that is, the vehicle on which the blind spot information requesting device 200 is mounted). In this aspect, it may be calculated by a vehicle that provides image information in the blind spot range (that is, a vehicle in which the blind spot information providing device 100 is mounted). For example, the blind spot information providing device 100 includes the position and traveling direction of another vehicle (vehicle on the side receiving image information in the blind spot range) and the position of the own vehicle (vehicle on the side providing image information in the blind spot range) Based on the relative relationship with the traveling direction, a blind spot range that is a blind spot for a driver of another vehicle may be calculated.

また、上述の実施例では、本発明による車車間通信システム10が有効に機能する場面として、駐車場等に対して車両2が横断する際の場面を例示しているが、本発明による車車間通信システム10が有効に機能する場面はこれに限られない。例えば、車両2が右折待ちをしている状況で、対向車線で右折待ちをしている右折待ち車両によって死角となっている死角範囲の画像情報が、当該右折待ち車両や対向車線を走行している車両から提供されてもよい。   Moreover, in the above-mentioned Example, although the scene at the time of the vehicle 2 crossing with respect to a parking lot etc. is illustrated as a scene where the inter-vehicle communication system 10 by this invention functions effectively, The scene where the communication system 10 functions effectively is not limited to this. For example, in the situation where the vehicle 2 is waiting for a right turn, the image information of the blind spot range that is a blind spot by the right turn waiting vehicle waiting for the right turn in the oncoming lane is traveling on the right turn waiting vehicle or the oncoming lane. It may be provided from a vehicle.

本発明による車車間通信システム10の全体構成を概略的に示す図である。1 is a diagram schematically showing an overall configuration of a vehicle-to-vehicle communication system 10 according to the present invention. 死角情報提供装置100の主要構成を示す構成図である。2 is a configuration diagram illustrating a main configuration of a blind spot information providing apparatus 100. FIG. 死角情報要求装置200の主要構成を示す構成図である。It is a block diagram which shows the main structures of the blind spot information request | requirement apparatus 200. FIG. 本実施例の車車間通信システム10が有効に機能する場面の一例を示すAn example of a scene in which the inter-vehicle communication system 10 of this embodiment functions effectively is shown. 本実施例の車車間通信システム10により実現される主要処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of the main processes implement | achieved by the inter-vehicle communication system 10 of a present Example. 鉛直面内の死角範囲の説明図である。It is explanatory drawing of the blind spot range in a vertical plane. 車両1Aの周辺環境監視カメラ110の撮像範囲の変化態様の一例を概略的に示す図である。It is a figure which shows roughly an example of the change aspect of the imaging range of the surrounding environment monitoring camera 110 of the vehicle 1A. 車両1Bの周辺環境監視カメラ110の撮像範囲を概略的に示す図である。It is a figure which shows roughly the imaging range of the surrounding environment monitoring camera 110 of the vehicle 1B. 本実施例の死角情報要求装置200により実現される主要処理(死角範囲の画像情報受信・表示処理)の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of the main process (image information reception / display process of a blind spot range) implement | achieved by the blind spot information request | requirement apparatus 200 of a present Example.

符号の説明Explanation of symbols

1(1A,1B),2 車両
10 車車間通信システム
100 死角情報提供装置
112 モータ
114 モータ
130 周辺監視ECU
134 カメラ制御部
136 画像処理部
140 通信モジュール
200 死角情報要求装置
230 周辺監視ECU
232 画像処理部
234 死角範囲算出部
236 表示画像生成部
240 通信モジュール
242 通信アンテナ
250 ディスプレイ
1 (1A, 1B), 2 Vehicle 10 Inter-vehicle communication system 100 Blind spot information providing device 112 Motor 114 Motor 130 Perimeter monitoring ECU
134 Camera Control Unit 136 Image Processing Unit 140 Communication Module 200 Blind Spot Information Request Device 230 Perimeter Monitoring ECU
232 Image processing unit 234 Blind spot range calculation unit 236 Display image generation unit 240 Communication module 242 Communication antenna 250 Display

Claims (8)

自車の運転者にとって死角となる死角範囲を算出する死角範囲算出手段と、
死角範囲算出手段により算出された死角範囲を表す死角範囲情報を、他車に送信する通信手段とを備え、
前記死角範囲情報を受信した他車から送信される前記死角範囲の画像情報を前記通信手段により受信することを特徴とする、死角情報要求装置。
A blind spot range calculating means for calculating a blind spot range that is a blind spot for the driver of the vehicle;
A communication means for transmitting the blind spot range information representing the blind spot range calculated by the blind spot range calculation means to another vehicle,
A blind spot information requesting apparatus, wherein the communication means receives image information of the blind spot range transmitted from another vehicle that has received the blind spot range information.
前記通信手段により受信された前記死角範囲の画像情報を表示出力する表示手段を備える、請求項1に記載の死角情報要求装置。   The blind spot information requesting device according to claim 1, further comprising display means for displaying and outputting image information of the blind spot range received by the communication means. 他車の運転者にとって死角となる死角範囲を表す死角範囲情報を、他車から受信する通信手段と、
前記通信手段により受信した前記死角範囲情報に基づいて、前記死角範囲の画像情報を取得する撮像手段とを備え、
前記撮像手段により取得された前記死角範囲の画像情報を前記通信手段により他車に送信することを特徴とする、死角情報提供装置。
Communication means for receiving blind spot range information representing a blind spot range that is a blind spot for a driver of another vehicle from another vehicle;
Imaging means for acquiring image information of the blind spot range based on the blind spot range information received by the communication means;
A blind spot information providing apparatus that transmits image information of the blind spot range acquired by the imaging means to another vehicle by the communication means.
前記撮像手段は、前記通信手段により受信した前記死角範囲情報に基づいて、撮像範囲又は撮像方向が調整される、請求項3に記載の死角情報提供装置。   The blind spot information providing apparatus according to claim 3, wherein the imaging unit adjusts an imaging range or an imaging direction based on the blind spot range information received by the communication unit. 前記通信手段により受信した前記死角範囲情報に基づいて、前記撮像手段により撮像された画像から、前記死角範囲に対応する範囲の画像部分を切り出す画像処理手段を備え、
前記画像処理手段により切り出された画像部分を、前記死角範囲の画像情報として前記通信手段により他車に送信する、請求項3又は4に記載の死角情報提供装置。
Based on the blind spot range information received by the communication means, image processing means for cutting out an image portion of a range corresponding to the blind spot range from the image captured by the imaging means,
The blind spot information providing apparatus according to claim 3 or 4, wherein an image portion cut out by the image processing means is transmitted to another vehicle by the communication means as image information of the blind spot range.
前記撮像手段により前記死角範囲の一部範囲の画像情報しか取得されない場合に、欠落した画像情報が存在することを表す情報を、前記死角範囲の一部範囲の画像情報と共に、前記通信手段により他車に送信する、請求項3〜5のうちのいずれか1項に記載の死角情報提供装置。   When only the image information of the partial range of the blind spot range is acquired by the imaging unit, the information indicating that the missing image information exists is changed by the communication unit together with the image information of the partial range of the blind spot range. The blind spot information providing device according to any one of claims 3 to 5, which is transmitted to a vehicle. 請求項1又は2に記載の死角情報要求装置を備える第1車両と、請求項3〜6のうちのいずれか1項に記載の死角情報提供装置を備える第2車両とを備え、前記第1車両の前記通信手段と前記第2車両の前記通信手段との間の無線通信を介して、前記死角範囲情報及び前記死角範囲の画像情報の送受信が実現されることを特徴とする、車車間通信システム。   A first vehicle comprising the blind spot information requesting device according to claim 1 or 2, and a second vehicle comprising the blind spot information providing device according to any one of claims 3 to 6, wherein Vehicle-to-vehicle communication, wherein transmission / reception of the blind spot range information and image information of the blind spot range is realized via wireless communication between the communication means of the vehicle and the communication means of the second vehicle. system. 他車の通信手段と通信可能な自車通信手段と、
他車の運転者にとって死角となる死角範囲を算出する死角範囲算出手段と、
前記死角範囲算出手段により算出した前記死角範囲に基づいて、前記死角範囲の画像情報を取得する撮像手段とを備え、
前記撮像手段により取得された前記死角範囲の画像情報を前記自車通信手段により前記他車の通信手段に送信することを特徴とする、死角情報提供装置。
Own vehicle communication means capable of communicating with other vehicle communication means;
A blind spot range calculating means for calculating a blind spot range that becomes a blind spot for a driver of another vehicle;
Imaging means for acquiring image information of the blind spot range based on the blind spot range calculated by the blind spot range calculating means;
An apparatus for providing blind spot information, wherein the image information of the blind spot range acquired by the imaging unit is transmitted to the communication unit of the other vehicle by the own vehicle communication unit.
JP2007146209A 2007-05-31 2007-05-31 Dead angle information requesting/providing devices and inter-vehicle communication system using the same Pending JP2008299676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007146209A JP2008299676A (en) 2007-05-31 2007-05-31 Dead angle information requesting/providing devices and inter-vehicle communication system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007146209A JP2008299676A (en) 2007-05-31 2007-05-31 Dead angle information requesting/providing devices and inter-vehicle communication system using the same

Publications (1)

Publication Number Publication Date
JP2008299676A true JP2008299676A (en) 2008-12-11

Family

ID=40173127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007146209A Pending JP2008299676A (en) 2007-05-31 2007-05-31 Dead angle information requesting/providing devices and inter-vehicle communication system using the same

Country Status (1)

Country Link
JP (1) JP2008299676A (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251953A (en) * 2008-04-07 2009-10-29 Toyota Motor Corp Moving object trajectory estimating device
US20160272118A1 (en) * 2015-03-19 2016-09-22 Hyundai Motor Company Vehicle and method for controlling the vehicle
WO2017029847A1 (en) * 2015-08-19 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program
KR20170049252A (en) * 2015-10-28 2017-05-10 현대자동차주식회사 Method for providing image of camera of vehicle
KR101741433B1 (en) * 2015-06-09 2017-05-30 엘지전자 주식회사 Driver assistance apparatus and control method for the same
JP2017111565A (en) * 2015-12-15 2017-06-22 株式会社デンソー Communication control device
JP2017156932A (en) * 2016-03-01 2017-09-07 パナソニックIpマネジメント株式会社 Determination device, determination method, and determination program
JP2018026009A (en) * 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Dynamic map configuration method, dynamic map configuration system and mobile terminal
JP2018025957A (en) * 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Communication method and server
JP2018074315A (en) * 2016-10-27 2018-05-10 学校法人立命館 Image display system, image display method, and computer program
CN108417085A (en) * 2017-02-09 2018-08-17 松下电器(美国)知识产权公司 Information processing unit, information processing method and program
JP2018133072A (en) * 2017-02-16 2018-08-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus and program
CN108447302A (en) * 2017-02-16 2018-08-24 松下电器(美国)知识产权公司 Information processing unit and program
JP2018136917A (en) * 2017-02-22 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus, information processing method, and program
JP2019078617A (en) * 2017-10-24 2019-05-23 日本電信電話株式会社 Mobility device and method of environment sensing in mobility device
CN109923598A (en) * 2016-11-18 2019-06-21 株式会社自动网络技术研究所 Vehicle article detection device and vehicle object detecting system
CN110462421A (en) * 2017-03-17 2019-11-15 索尼公司 Object detection based on radio
WO2020183892A1 (en) * 2019-03-13 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and mobile body device
JP2020201544A (en) * 2019-06-06 2020-12-17 株式会社デンソー Infrastructure sensor management device, driving support device, and infrastructure sensor management method
WO2021009531A1 (en) 2019-07-12 2021-01-21 日産自動車株式会社 Information processing device, information processing method, and program
JPWO2021009534A1 (en) * 2019-07-12 2021-01-21
KR20210152392A (en) * 2020-06-08 2021-12-15 독터. 인제니어. 하.체. 에프. 포르쉐 악티엔게젤샤프트 Method for adapting a driving behavior of a motor vehicle
WO2021256051A1 (en) * 2020-06-19 2021-12-23 住友電気工業株式会社 Road vehicle cooperation system, onboard device, and roadside device
JP2022123691A (en) * 2021-02-12 2022-08-24 パナソニックIpマネジメント株式会社 Vehicle and control unit
US20220284514A1 (en) * 2015-10-26 2022-09-08 Allstate Insurance Company Vehicle-to-vehicle incident information collection
US11474518B2 (en) 2019-05-13 2022-10-18 International Business Machines Corporation Event validation using multiple sources
CN115457805A (en) * 2021-06-08 2022-12-09 本田技研工业株式会社 Control device, mobile body, control method, and computer-readable storage medium
JP2022187896A (en) * 2021-06-08 2022-12-20 本田技研工業株式会社 Control device, moving body, control method, and program
JP2023000673A (en) * 2021-06-18 2023-01-04 本田技研工業株式会社 Control device, moving object, control method and program
JP2023000913A (en) * 2021-06-18 2023-01-04 本田技研工業株式会社 Warning control device, mobile body, warning control method, and program
JP7203908B1 (en) 2021-06-22 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND PROGRAM
JP7203907B1 (en) 2021-06-22 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND TERMINAL
JP2023504693A (en) * 2019-12-06 2023-02-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Method and apparatus for exchanging maneuvering information between vehicles
US11669071B2 (en) 2020-01-08 2023-06-06 International Business Machines Corporation Organizing a temporary device group for collaborative computing
US11842643B2 (en) 2020-09-15 2023-12-12 Honda Motor Co., Ltd. Communication control apparatus, vehicle, computer-readable storage medium, and communication control method
US11967236B2 (en) 2020-09-15 2024-04-23 Honda Motor Co., Ltd. Communication control apparatus, vehicle, computer-readable storage medium, and communication control method

Cited By (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009251953A (en) * 2008-04-07 2009-10-29 Toyota Motor Corp Moving object trajectory estimating device
JP4561863B2 (en) * 2008-04-07 2010-10-13 トヨタ自動車株式会社 Mobile body path estimation device
US20160272118A1 (en) * 2015-03-19 2016-09-22 Hyundai Motor Company Vehicle and method for controlling the vehicle
CN105991942A (en) * 2015-03-19 2016-10-05 现代自动车株式会社 Vehicle and method for controlling the vehicle
US10099616B2 (en) 2015-03-19 2018-10-16 Hyundai Motor Company Vehicle and method for controlling the vehicle
US11097660B2 (en) 2015-06-09 2021-08-24 LG Electionics Inc. Driver assistance apparatus and control method for the same
US10377309B2 (en) 2015-06-09 2019-08-13 Lg Electronics Inc. Driver assistance apparatus and control method for the same
KR101741433B1 (en) * 2015-06-09 2017-05-30 엘지전자 주식회사 Driver assistance apparatus and control method for the same
CN107924632B (en) * 2015-08-19 2022-05-31 索尼公司 Information processing apparatus, information processing method, and program
US10891495B2 (en) 2015-08-19 2021-01-12 Sony Corporation Information processing apparatus, information processing method, and program
WO2017029847A1 (en) * 2015-08-19 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program
JP7003660B2 (en) 2015-08-19 2022-01-20 ソニーグループ株式会社 Information processing equipment, information processing methods and programs
CN107924632A (en) * 2015-08-19 2018-04-17 索尼公司 Information processing equipment, information processing method and program
US11295143B2 (en) 2015-08-19 2022-04-05 Sony Corporation Information processing apparatus, information processing method, and program
JPWO2017029847A1 (en) * 2015-08-19 2018-06-07 ソニー株式会社 Information processing apparatus, information processing method, and program
US20180357493A1 (en) * 2015-08-19 2018-12-13 Sony Corporation Information processing apparatus, information processing method, and program
US20220284514A1 (en) * 2015-10-26 2022-09-08 Allstate Insurance Company Vehicle-to-vehicle incident information collection
KR102200522B1 (en) 2015-10-28 2021-01-11 현대자동차주식회사 Method for providing image of camera of vehicle
KR20170049252A (en) * 2015-10-28 2017-05-10 현대자동차주식회사 Method for providing image of camera of vehicle
JP2017111565A (en) * 2015-12-15 2017-06-22 株式会社デンソー Communication control device
JP2017156932A (en) * 2016-03-01 2017-09-07 パナソニックIpマネジメント株式会社 Determination device, determination method, and determination program
WO2017150021A1 (en) * 2016-03-01 2017-09-08 パナソニックIpマネジメント株式会社 Determination device and determination method
CN108780609A (en) * 2016-03-01 2018-11-09 松下知识产权经营株式会社 Decision maker and determination method
CN107731001A (en) * 2016-08-10 2018-02-23 松下电器(美国)知识产权公司 Communication means and server
CN107731001B (en) * 2016-08-10 2021-06-01 松下电器(美国)知识产权公司 Communication method and server
US10665105B2 (en) 2016-08-10 2020-05-26 Panasonic Intellectual Property Corporation Of America Dynamic-map constructing method, dynamic-map constructing system, and moving terminal
CN107727106A (en) * 2016-08-10 2018-02-23 松下电器(美国)知识产权公司 Dynamic map constructive method, dynamic map form system and mobile terminal
JP2018025957A (en) * 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Communication method and server
JP2018026009A (en) * 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Dynamic map configuration method, dynamic map configuration system and mobile terminal
JP2018074315A (en) * 2016-10-27 2018-05-10 学校法人立命館 Image display system, image display method, and computer program
CN109923598A (en) * 2016-11-18 2019-06-21 株式会社自动网络技术研究所 Vehicle article detection device and vehicle object detecting system
CN108417085A (en) * 2017-02-09 2018-08-17 松下电器(美国)知识产权公司 Information processing unit, information processing method and program
CN108417085B (en) * 2017-02-09 2022-07-01 松下电器(美国)知识产权公司 Information processing apparatus, information processing method, and computer program
JP2018133072A (en) * 2017-02-16 2018-08-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus and program
CN108447302A (en) * 2017-02-16 2018-08-24 松下电器(美国)知识产权公司 Information processing unit and program
JP2018136917A (en) * 2017-02-22 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing apparatus, information processing method, and program
JP7015665B2 (en) 2017-02-22 2022-02-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing equipment, information processing methods and programs
CN110462421A (en) * 2017-03-17 2019-11-15 索尼公司 Object detection based on radio
JP2019078617A (en) * 2017-10-24 2019-05-23 日本電信電話株式会社 Mobility device and method of environment sensing in mobility device
US11965754B2 (en) 2019-03-13 2024-04-23 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and mobile body apparatus
WO2020183892A1 (en) * 2019-03-13 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and mobile body device
US11474518B2 (en) 2019-05-13 2022-10-18 International Business Machines Corporation Event validation using multiple sources
JP7259565B2 (en) 2019-06-06 2023-04-18 株式会社デンソー Infrastructure sensor management device, driving support device, and infrastructure sensor management method
JP2020201544A (en) * 2019-06-06 2020-12-17 株式会社デンソー Infrastructure sensor management device, driving support device, and infrastructure sensor management method
WO2021009534A1 (en) 2019-07-12 2021-01-21 日産自動車株式会社 Information processing device, information processing method, and information processing program
JP7346569B2 (en) 2019-07-12 2023-09-19 日産自動車株式会社 Information processing device, information processing method, and information processing program
JPWO2021009534A1 (en) * 2019-07-12 2021-01-21
KR20220016275A (en) 2019-07-12 2022-02-08 닛산 지도우샤 가부시키가이샤 Information processing device, information processing method, and program
WO2021009531A1 (en) 2019-07-12 2021-01-21 日産自動車株式会社 Information processing device, information processing method, and program
JP2023504693A (en) * 2019-12-06 2023-02-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Method and apparatus for exchanging maneuvering information between vehicles
JP7438356B2 (en) 2019-12-06 2024-02-26 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Method and apparatus for exchanging maneuvering information between vehicles
US11669071B2 (en) 2020-01-08 2023-06-06 International Business Machines Corporation Organizing a temporary device group for collaborative computing
KR20210152392A (en) * 2020-06-08 2021-12-15 독터. 인제니어. 하.체. 에프. 포르쉐 악티엔게젤샤프트 Method for adapting a driving behavior of a motor vehicle
KR102571986B1 (en) 2020-06-08 2023-08-29 독터. 인제니어. 하.체. 에프. 포르쉐 악티엔게젤샤프트 Method for adapting a driving behavior of a motor vehicle
WO2021256051A1 (en) * 2020-06-19 2021-12-23 住友電気工業株式会社 Road vehicle cooperation system, onboard device, and roadside device
JP7449206B2 (en) 2020-09-15 2024-03-13 本田技研工業株式会社 Communication control device, vehicle, program, and communication control method
US11842643B2 (en) 2020-09-15 2023-12-12 Honda Motor Co., Ltd. Communication control apparatus, vehicle, computer-readable storage medium, and communication control method
US11967236B2 (en) 2020-09-15 2024-04-23 Honda Motor Co., Ltd. Communication control apparatus, vehicle, computer-readable storage medium, and communication control method
JP7281787B2 (en) 2021-02-12 2023-05-26 パナソニックIpマネジメント株式会社 Vehicle and control device
JP2022123691A (en) * 2021-02-12 2022-08-24 パナソニックIpマネジメント株式会社 Vehicle and control unit
JP2022187896A (en) * 2021-06-08 2022-12-20 本田技研工業株式会社 Control device, moving body, control method, and program
JP7203902B2 (en) 2021-06-08 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM
CN115457805B (en) * 2021-06-08 2024-03-22 本田技研工业株式会社 Control device, moving body, control method, and computer-readable storage medium
CN115457805A (en) * 2021-06-08 2022-12-09 本田技研工业株式会社 Control device, mobile body, control method, and computer-readable storage medium
JP7256233B2 (en) 2021-06-18 2023-04-11 本田技研工業株式会社 WARNING CONTROL DEVICE, MOVING OBJECT, WARNING CONTROL METHOD AND PROGRAM
JP7203905B2 (en) 2021-06-18 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOVING OBJECT, CONTROL METHOD AND PROGRAM
JP2023000913A (en) * 2021-06-18 2023-01-04 本田技研工業株式会社 Warning control device, mobile body, warning control method, and program
JP2023000673A (en) * 2021-06-18 2023-01-04 本田技研工業株式会社 Control device, moving object, control method and program
JP2023011079A (en) * 2021-06-22 2023-01-24 本田技研工業株式会社 Control device, mobile body, control method, and terminal
JP2023011080A (en) * 2021-06-22 2023-01-24 本田技研工業株式会社 Control device, mobile body, control method, and program
JP7203907B1 (en) 2021-06-22 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND TERMINAL
JP7203908B1 (en) 2021-06-22 2023-01-13 本田技研工業株式会社 CONTROL DEVICE, MOBILE BODY, CONTROL METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP2008299676A (en) Dead angle information requesting/providing devices and inter-vehicle communication system using the same
WO2018155159A1 (en) Remote video output system and remote video output device
JP4752486B2 (en) Imaging device, video signal selection device, driving support device, automobile
JP4434224B2 (en) In-vehicle device for driving support
US9467679B2 (en) Vehicle periphery monitoring device
JP4892965B2 (en) Moving object determination system, moving object determination method, and computer program
CN110574357B (en) Imaging control apparatus, method for controlling imaging control apparatus, and moving body
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2008250503A (en) Operation support device
JP4930187B2 (en) Driving support system
JP2002367080A (en) Method and device for visual support for vehicle
KR20130037274A (en) An apparatus and method for assisting parking using the multi-view cameras
US7333006B2 (en) Vehicle driving support device with face direction aligning
CN111246160A (en) Information providing system and method, server, in-vehicle device, and storage medium
JP2010143411A (en) Head-up display device
KR20120066194A (en) System for providing image around vehicle with portable terminal and method thereof
WO2019142660A1 (en) Picture processing device, picture processing method, and program
US11443520B2 (en) Image processing apparatus, image processing method, and image processing system
WO2014103272A1 (en) Camera system, camera module, and camera control method
JP4848644B2 (en) Obstacle recognition system
JP4499525B2 (en) Danger warning system
JP2022104107A (en) Vehicle remote operation system and vehicle remote operation method
JP2004040523A (en) Surveillance apparatus for vehicle surroundings
US20200231099A1 (en) Image processing apparatus
JP3231104U (en) Imaging equipment for mobile vehicles compatible with radar equipment