JP2008250503A - Operation support device - Google Patents

Operation support device Download PDF

Info

Publication number
JP2008250503A
JP2008250503A JP2007089110A JP2007089110A JP2008250503A JP 2008250503 A JP2008250503 A JP 2008250503A JP 2007089110 A JP2007089110 A JP 2007089110A JP 2007089110 A JP2007089110 A JP 2007089110A JP 2008250503 A JP2008250503 A JP 2008250503A
Authority
JP
Japan
Prior art keywords
vehicle
image
captured
intersection
blind spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007089110A
Other languages
Japanese (ja)
Inventor
Yuichi Oshita
裕一 大下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007089110A priority Critical patent/JP2008250503A/en
Publication of JP2008250503A publication Critical patent/JP2008250503A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation support device for complementing a visual field based on a pickup image against a dead angle from an own-vehicle to be generated in various directions and ranges by selecting a pickup image acquired by picking up the dead angle of the own-vehicle among the pickup images picked up by the other vehicle. <P>SOLUTION: When the own-vehicle 51 is approaching an intersection, and a pickup image acquired by imaging an intersection which is being approached by the vehicle is included in data received from other vehicles 52 and 53, it is decided that a received pickup image is a pickup image acquired by picking up a dead angle from the own-vehicle 51, predetermined image processing is operated to the pickup image, and the pickup image is projected to the dead angle direction of the own-vehicle 51 by a projector 14, and an image 72 in which an obstacle is transmissive is displayed to the other vehicle 52 forming the dead angle. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両からの死角方向における視界を補完する運転支援装置に関する。   The present invention relates to a driving support device that complements a field of view in a blind spot direction from a vehicle.

近年、ナビゲーションシステムの普及にともなって、車両の周辺の状況を車室内の表示装置に表示する画像表示システムを搭載する車両が増加している。車両の周辺の状況としては、例えば、他車の位置、障害物の状況、センターラインや停止線等の道路標示等があるが、車両の後方や、前方のバンパー下及びコーナー部等の死角は通常運転者からは認識することが困難となっている。従って、これらの死角における周辺の状況を、車両に設置したカメラ等の撮像装置によって撮像し、車両を右折、左折又はバック等をさせる際に表示装置に表示することにより、運転者の補助を行うことが行われている。   In recent years, with the spread of navigation systems, the number of vehicles equipped with an image display system that displays a situation around the vehicle on a display device in a vehicle compartment is increasing. The situation around the vehicle includes, for example, the position of other vehicles, the situation of obstacles, road markings such as the center line and stop line, etc., but the blind spots such as the rear of the vehicle and under the front bumper and corners are It is difficult for ordinary drivers to recognize. Therefore, the surrounding situation in these blind spots is imaged by an imaging device such as a camera installed in the vehicle, and displayed on the display device when the vehicle is turned right, left, back, etc., to assist the driver. Things have been done.

また、従来においては他車両と通信を行うことにより、他車両が撮像した撮像画像を取得し、自車両に設置されたカメラでは撮像できない死角範囲に関する画像についても表示可能とする技術についても提案されている。例えば、特開2003−319383号公報には、自車両の前方を走行する他車両から他車両の前方を撮像した撮像画像を通信で取得することにより、当該他車両によって生じる自車両からの死角範囲を透過した画像を表示装置に表示する技術について記載されている。
特開2003−319383号公報(第3頁〜第6頁、図2、図3)
Conventionally, a technique has also been proposed in which a captured image captured by another vehicle is acquired by communicating with the other vehicle, and an image relating to a blind spot range that cannot be captured by a camera installed in the own vehicle can be displayed. ing. For example, in Japanese Patent Application Laid-Open No. 2003-319383, a blind spot range from a host vehicle generated by the other vehicle is obtained by communication by acquiring a captured image obtained by capturing the front of the other vehicle from another vehicle traveling in front of the host vehicle. Describes a technique for displaying an image that has passed through a display device.
JP 2003-319383 A (page 3 to page 6, FIGS. 2 and 3)

しかしながら、前記した特許文献1に記載された技術では、自車両からの死角を形成する原因となる前方車両において撮像された撮像画像に基づいて自車両からの視界を補完しているが、自車両からの死角は前方車両のみに基づいて形成されるとは限らない。例えば、駐車車両、対向車両、並走車両等によって形成される場合がある。即ち、周囲に位置するどの車両が障害物となって自車両に対してどの方向に死角が生じているかについては、状況毎に変化するものであり特定することが非常に困難である。   However, in the technique described in Patent Document 1 described above, the field of view from the host vehicle is complemented based on the captured image captured in the preceding vehicle that causes the formation of a blind spot from the host vehicle. The blind spot from is not always formed based on the vehicle ahead. For example, it may be formed by a parked vehicle, an oncoming vehicle, a parallel running vehicle, or the like. In other words, it is very difficult to specify which vehicle located in the surrounding area becomes an obstacle and in which direction the blind spot is generated with respect to the own vehicle, which changes for each situation.

例えば、図14に示す自車両101の周囲状況においては、対向車線が渋滞しており、自車両101からは渋滞車両102が障害物となって交差点方向が死角となっている。従って、自車両101は交差点へと進入する進入車両103に気付かない虞がある。そこで、死角範囲にある進入車両103を撮像した撮像画像を、交差点の手前側に位置する渋滞車両102又は交差点の奥側に位置する渋滞車両104が撮像した画像から選択して表示することにより、自車両101からの死角方向の視界を補完することができる。   For example, in the surrounding situation of the own vehicle 101 shown in FIG. 14, the oncoming lane is congested, and the congested vehicle 102 becomes an obstacle from the own vehicle 101 and the intersection direction is a blind spot. Therefore, the own vehicle 101 may not notice the approaching vehicle 103 entering the intersection. Therefore, by selecting and displaying the captured image obtained by capturing the approaching vehicle 103 in the blind spot range from the image captured by the congested vehicle 102 located on the near side of the intersection or the congested vehicle 104 located on the far side of the intersection, The field of view in the blind spot direction from the host vehicle 101 can be supplemented.

ここで、前記特許文献1のように、自車両の前方を走行する前方車両のみを自車両からの死角を形成する障害物として扱うのでは、図14に示す状況では自車両からの視界を補完することができない。また、前方車両がカメラ等の撮像手段を備えていない場合もあり、その場合についても同様に自車両からの視界を補完することができない。   Here, as in Patent Document 1, only the front vehicle traveling in front of the host vehicle is treated as an obstacle that forms a blind spot from the host vehicle. In the situation shown in FIG. 14, the view from the host vehicle is complemented. Can not do it. Further, there are cases where the preceding vehicle does not include an imaging means such as a camera, and in this case as well, the field of view from the own vehicle cannot be complemented.

本発明は前記従来における問題点を解消するためになされたものであり、他車両が撮像した撮像画像の中から自車両の死角を撮像した撮像画像を選択するので、様々な方角及び範囲に生じた自車両からの死角に対して、撮像画像に基づく視界の補完を行うことが可能となった運転支援装置を提供することを目的とする。   The present invention has been made in order to solve the above-described conventional problems. Since a picked-up image obtained by picking up the blind spot of the own vehicle is selected from picked-up images picked up by other vehicles, it occurs in various directions and ranges. Another object of the present invention is to provide a driving support device that can complement a field of view based on a captured image with respect to a blind spot from the own vehicle.

前記目的を達成するため本願の請求項1に係る運転支援装置(1)は、他車両において撮像された撮像画像を取得する画像取得手段(4)と、前記画像取得手段で取得された複数の撮像画像の内、自車両からの死角を撮像した撮像画像を選択する画像選択手段(11)と、前記画像選択手段で選択された撮像画像を前記自車両からの死角の方向に対して投影する投影手段(14)と、を有することを特徴とする。   In order to achieve the above object, a driving support apparatus (1) according to claim 1 of the present application includes an image acquisition unit (4) that acquires a captured image captured in another vehicle, and a plurality of images acquired by the image acquisition unit. Of the captured images, image selection means (11) for selecting a captured image obtained by capturing a blind spot from the own vehicle, and projecting the captured image selected by the image selection means in the direction of the blind spot from the own vehicle. Projecting means (14).

また、請求項2に係る運転支援装置(1)は、請求項1に記載の運転支援装置において、前記画像選択手段(11)によって選択された撮像画像中から自車両の死角となる範囲の画像を抽出する画像抽出手段(11)と、前記投射手段(14)は前記画像抽出手段によって抽出された抽出画像を前記自車両からの死角の方向へと投影することを特徴とする。   Further, the driving support device (1) according to claim 2 is the driving support device according to claim 1, wherein an image in a range that is a blind spot of the host vehicle from the captured image selected by the image selection means (11). The image extracting means (11) for extracting the image and the projecting means (14) project the extracted image extracted by the image extracting means in the direction of the blind spot from the own vehicle.

また、請求項3に係る運転支援装置(1)は、請求項2に記載の運転支援装置において、自車両の現在位置を取得する自車両位置取得手段(15)と、他車両において前記撮像画像が撮像されたときの他車両の位置を取得する他車両位置取得手段(4)と、を有し、前記画像抽出手段(11)は前記自車両位置取得手段で取得した自車両の現在位置と前記他車両位置取得手段で取得した他車両の位置とに基づいて、自車両からの死角となる範囲の画像を抽出することを特徴とする。   Further, the driving support device (1) according to claim 3 is the driving support device according to claim 2, wherein the own vehicle position acquisition means (15) for acquiring the current position of the own vehicle and the captured image in another vehicle. Vehicle position acquisition means (4) for acquiring the position of the other vehicle when the vehicle is imaged, and the image extraction means (11) includes the current position of the host vehicle acquired by the host vehicle position acquisition means, Based on the position of the other vehicle acquired by the other vehicle position acquisition means, an image of a range that becomes a blind spot from the host vehicle is extracted.

また、請求項4に係る運転支援装置(1)は、請求項1乃至請求項3のいずれかに記載の運転支援装置において、自車両の現在位置を取得する自車両位置取得手段(15)と、他車両において前記撮像画像が撮像されたときの他車両の位置を取得する他車両位置取得手段(4)と、を有し、前記画像選択手段(11)は前記自車両位置取得手段で取得した自車両の現在位置と前記他車両位置取得手段で取得した他車両の位置とに基づいて、自車両からの死角を撮像した撮像画像を選択することを特徴とする。   Further, the driving support device (1) according to claim 4 is the driving support device according to any one of claims 1 to 3, and a host vehicle position acquisition means (15) for acquiring a current position of the host vehicle. And other vehicle position acquisition means (4) for acquiring the position of the other vehicle when the captured image is captured in the other vehicle, and the image selection means (11) is acquired by the own vehicle position acquisition means. A picked-up image obtained by picking up a blind spot from the own vehicle is selected based on the current position of the own vehicle and the position of the other vehicle acquired by the other vehicle position acquisition means.

また、請求項5に係る運転支援装置(1)は、請求項4に記載の運転支援装置において、自車両の前方に交差点があるか否か判定する交差点判定手段(11)と、前記交差点判定手段において自車両の前方に交差点があると判定された場合に、前記他車両位置取得手段で取得した他車両の位置が前記交差点の自車両進行方向の手前側にあるか否か判定する手前位置判定手段(11)と、を有し、前記画像選択手段(11)は前記手前位置判定手段によって他車両の位置が前記交差点の自車両進行方向の手前側にあると判定された場合に、その他車両で撮像された後方撮像画像を選択することを特徴とする。   Further, the driving support device (1) according to claim 5 is the driving support device according to claim 4, wherein the intersection determination means (11) for determining whether or not there is an intersection ahead of the host vehicle, and the intersection determination. When it is determined by the means that there is an intersection ahead of the host vehicle, the near position for determining whether or not the position of the other vehicle acquired by the other vehicle position acquiring means is on the near side of the intersection in the traveling direction of the host vehicle. Determination means (11), and the image selection means (11), when it is determined by the front position determination means that the position of the other vehicle is on the near side in the traveling direction of the vehicle at the intersection. A rear captured image captured by the vehicle is selected.

更に、請求項6に係る運転支援装置(1)は、請求項5に記載の運転支援装置において、前記手前位置判定手段(11)によって他車両の位置が前記交差点の自車両進行方向の手前側にないと判定された場合に、前記画像選択手段(11)は前記交差点の自車両進行方向の奥側にある他車両で撮像された前方撮像画像を選択することを特徴とする。   Further, the driving support device (1) according to claim 6 is the driving support device according to claim 5, wherein the position of the other vehicle is on the near side in the traveling direction of the own vehicle at the intersection by the near position determining means (11). When it is determined that the vehicle is not in the vehicle, the image selection means (11) selects a forward captured image captured by another vehicle located behind the intersection in the traveling direction of the host vehicle.

前記構成を有する請求項1に記載の運転支援装置によれば、他車両が撮像した撮像画像の中から自車両の死角を撮像した撮像画像を選択するので、様々な方角及び範囲に生じた自車両からの死角に対して、撮像画像に基づく視界の補完を行うことが可能となる。   According to the driving support apparatus according to claim 1 having the above-described configuration, the captured image obtained by capturing the blind spot of the host vehicle is selected from the captured images captured by the other vehicles. It becomes possible to complement the field of view based on the captured image with respect to the blind spot from the vehicle.

また、請求項2に記載の運転支援装置によれば、自車両からの死角範囲に相当する画像のみを投影することができるので、死角以外の不要範囲の画像が投影されることによって、視認可能な範囲に位置する対象物(歩行者や車両等)が死角に位置すると誤認させたり、死角に位置する対象物が視認可能な範囲にあると誤認させる虞がない。また、死角に位置する対象物のみを運転者に明確に把握させることが可能となる。更に、歩行者や他車両の運転者に対して画像が投影されることによって視界を奪う機会を著しく減少させることが可能となる。   Further, according to the driving support device of the second aspect, since only an image corresponding to the blind spot range from the own vehicle can be projected, it can be visually recognized by projecting an image of an unnecessary range other than the blind spot. There is no possibility of misidentifying that an object (pedestrian, vehicle, etc.) located in such a range is located in a blind spot or misidentifying that an object located in a blind spot is in a visible range. Moreover, it becomes possible to make a driver | operator grasp clearly only the target object located in a blind spot. Furthermore, it is possible to remarkably reduce the chance of depriving the field of vision by projecting images to pedestrians and drivers of other vehicles.

また、請求項3に記載の運転支援装置によれば、自車からの死角の範囲を正確に算出することが可能となるので、自車両からの死角範囲に相当する画像のみを抽出して投影することができる。   Further, according to the driving support apparatus of the third aspect, since it is possible to accurately calculate the range of the blind spot from the own vehicle, only the image corresponding to the blind spot range from the own vehicle is extracted and projected. can do.

また、請求項4に記載の運転支援装置によれば、前方車両以外にも、駐車車両、対向車両、並走車両等によって形成される様々な角度及び範囲の死角について、他車両が撮像した撮像画像に基づいて視界の補完を行うことが可能となる。   In addition, according to the driving support device of the fourth aspect, in addition to the preceding vehicle, the other vehicles image images of various angles and ranges of blind spots formed by a parked vehicle, an oncoming vehicle, a parallel running vehicle, and the like It is possible to complement the view based on the image.

また、請求項5に記載の運転支援装置によれば、交差点を手前側から撮像した他車両の後方撮像画像を自車両の死角を撮像した撮像画像として選択するので、死角を形成する障害物を透過した画像をより現実に近い形で形成し、その障害物に対して投影することが可能となる。従って、運転者は投影された画像を視認することにより、死角に位置する対象物の状態をより正確に把握することが可能となる。   Further, according to the driving support device of the fifth aspect, since the rear captured image of the other vehicle that images the intersection from the near side is selected as the captured image that captures the blind spot of the own vehicle, the obstacle that forms the blind spot is selected. A transmitted image can be formed in a more realistic form and projected onto the obstacle. Therefore, the driver can grasp the state of the object located at the blind spot more accurately by visually recognizing the projected image.

更に、請求項6に記載の運転支援装置によれば、交差点を手前側から撮像した他車両の後方撮像画像がなかった場合でも、交差点を奥側から撮像した他車両の前方撮像画像を自車両の死角を撮像した撮像画像として選択するので、死角を形成する障害物を透過した画像を形成することが可能となる。従って、運転者は投影された画像を視認することにより、死角に位置する対象物の状態を把握することが可能となる。   Further, according to the driving support device of the sixth aspect, even when there is no rear captured image of the other vehicle that images the intersection from the near side, the front captured image of the other vehicle that images the intersection from the back side is obtained. Therefore, it is possible to form an image transmitted through an obstacle that forms the blind spot. Therefore, the driver can grasp the state of the object located at the blind spot by visually recognizing the projected image.

以下、本発明に係る運転支援装置について具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。
先ず、本実施形態に係る運転支援装置1を備えた複数の車両2によって構成される車車間通信システム3の概略構成について図1を用いて説明する。図1は本実施形態に係る車車間通信システム3の概略構成図である。
DETAILED DESCRIPTION Hereinafter, a driving assistance apparatus according to the present invention will be described in detail with reference to the drawings based on an embodiment that is embodied.
First, a schematic configuration of a vehicle-to-vehicle communication system 3 constituted by a plurality of vehicles 2 provided with a driving support device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a schematic configuration diagram of an inter-vehicle communication system 3 according to the present embodiment.

図1に示すように、本実施形態に係る車車間通信システム3は、道路上を走行する複数の車両2によって構成され、各車両2に設置された運転支援装置1が備える通信装置(画像取得手段、他車両位置取得手段)4によって複数の車両2の間で相互に情報通信が可能となっている。   As shown in FIG. 1, the inter-vehicle communication system 3 according to this embodiment includes a plurality of vehicles 2 traveling on a road, and a communication device (image acquisition) included in the driving support device 1 installed in each vehicle 2. Information communication between the plurality of vehicles 2 is possible.

ここで、通信装置4は、例えばミリ波帯の電波による無線方式で情報を通信する通信装置である。そして、自車両位置に対して予め定められた無線通信可能範囲(例えば、自車両位置を中心とした半径2kmまでの範囲)に位置する他車両(後続車両、前方車両、対向車両等)との間で、無線による情報の通信を行うことが可能となっている。
また、通信装置4によって車両間で送受信される情報としては、後述するように車両2に設置された各種センサで検出した車両2の現在位置及び方位に関する自車情報、車両2に備え付けられた前方カメラ5及び後方カメラ6の設置位置や設置角度や撮像範囲等に関するカメラパラメータ情報、前方カメラ5で撮像した車両2の前方環境の前方撮像画像データ、及び後方カメラ6で撮像した車両2の後方環境の後方撮像画像データ等がある。
Here, the communication device 4 is a communication device that communicates information in a wireless manner using, for example, millimeter wave radio waves. And with other vehicles (subsequent vehicle, forward vehicle, oncoming vehicle, etc.) located in a predetermined wireless communicable range (for example, a range up to a radius of 2 km centered on the own vehicle position) with respect to the own vehicle position It is possible to communicate information wirelessly.
The information transmitted / received between the vehicles by the communication device 4 includes, as will be described later, own vehicle information related to the current position and direction of the vehicle 2 detected by various sensors installed in the vehicle 2, and the front provided in the vehicle 2. Camera parameter information related to the installation position, installation angle, imaging range, and the like of the camera 5 and the rear camera 6, front captured image data of the front environment of the vehicle 2 captured by the front camera 5, and the rear environment of the vehicle 2 captured by the rear camera 6 There is a rear captured image data.

尚、車車間通信システム3における車両2の間の通信では、直接に車両2の間で情報を送受信することの他に、通信センタ(図示せず)などの通信施設を介して情報を送受信することも可能である。   In the communication between the vehicles 2 in the inter-vehicle communication system 3, in addition to directly transmitting / receiving information between the vehicles 2, information is transmitted / received via a communication facility such as a communication center (not shown). It is also possible.

次に、上記車車間通信システム3を構成する車両2に設置された運転支援装置1の構成について図2及び図3を用いて説明する。図2は本実施形態に係る運転支援装置1の概略構成図、図3は本実施形態に係る運転支援装置1の制御系を模式的に示すブロック図である。   Next, the configuration of the driving support apparatus 1 installed in the vehicle 2 constituting the inter-vehicle communication system 3 will be described with reference to FIGS. FIG. 2 is a schematic configuration diagram of the driving support apparatus 1 according to the present embodiment, and FIG. 3 is a block diagram schematically showing a control system of the driving support apparatus 1 according to the present embodiment.

図2及び図3に示すように、車両2には前記した通信装置4に加えて、前方カメラ5と、後方カメラ6と、運転支援ECU(画像選択手段、画像抽出手段、交差点判定手段、手前位置判定手段)11と、カメラパラメータDB12と、画像DB13と、プロジェクタ(投影手段)14と、現在位置検出部(自車両位置取得手段)15と、車速センサ16と、ステアリングセンサ17と、ジャイロセンサ18とから構成されている。   As shown in FIGS. 2 and 3, in addition to the communication device 4 described above, the vehicle 2 includes a front camera 5, a rear camera 6, and a driving assistance ECU (image selection means, image extraction means, intersection determination means, front side) (Position determination means) 11, camera parameter DB 12, image DB 13, projector (projection means) 14, current position detection unit (own vehicle position acquisition means) 15, vehicle speed sensor 16, steering sensor 17, and gyro sensor 18.

前方カメラ5は、例えばCCD等の固体撮像素子を用いたものであり、車両2の前方に装着されたナンバープレートの上中央付近に取り付けられ、視線方向を水平より所定角度下方に向けて設置される。そして、走行時及び停車時に車両2の進行方向となる車両前方を撮像し、その撮像された前方撮像画像(図11参照)は画像DB13に一旦記憶され、必要に応じて後述のように通信装置4を介して他車両へと送信される。   The front camera 5 uses a solid-state image sensor such as a CCD, for example, and is installed near the upper center of the license plate mounted in front of the vehicle 2 and is installed with the line-of-sight direction downward from the horizontal by a predetermined angle. The Then, when the vehicle travels and stops, the front of the vehicle that is the traveling direction of the vehicle 2 is imaged, and the captured front image (see FIG. 11) is temporarily stored in the image DB 13 and, if necessary, a communication device as described later. 4 to the other vehicle.

後方カメラ6は、前方カメラ5と同じくCCD等の固体撮像素子を用いたものであり、車両2の後方に装着されたナンバープレートの上中央付近に取り付けられ、視線方向を水平より所定角度下方に向けて設置される。そして、走行時及び停車時に車両2の進行方向と逆方向となる車両後方を撮像し、その撮像された後方撮像画像(図9参照)は画像DB13に一旦記憶され、必要に応じて後述のように通信装置4を介して他車両へと送信される。   The rear camera 6 uses a solid-state image sensor such as a CCD like the front camera 5 and is attached in the vicinity of the upper center of the license plate mounted on the rear side of the vehicle 2 so that the line-of-sight direction is lower than the horizontal by a predetermined angle. Installed. Then, when the vehicle is traveling and stopped, the rear side of the vehicle that is in the opposite direction to the traveling direction of the vehicle 2 is imaged, and the captured rearward captured image (see FIG. 9) is temporarily stored in the image DB 13 and will be described later as required To the other vehicle via the communication device 4.

また、運転支援ECU(エレクトロニック・コントロール・ユニット)11は、車両2の停車時において前方カメラ5や後方カメラ6で撮像した撮像画像を車車間通信システム3を介して他車両との間で送受信する画像通信処理(図4参照)と、他車両から送信された撮像画像の内、特に自車両からの死角を撮像した撮像画像がある場合に、その撮像画像を自車両からの死角方向へとプロジェクタ14により投影する画像投影処理(図5、図6参照)等を行う電子制御ユニットである。尚、運転支援ECU11はナビゲーション装置の制御に使用するECUと兼用してもよい。また、運転支援ECU11の詳細な構成については後述する。   Further, the driving support ECU (Electronic Control Unit) 11 transmits and receives captured images captured by the front camera 5 and the rear camera 6 to and from other vehicles via the inter-vehicle communication system 3 when the vehicle 2 is stopped. When there is an image communication process (see FIG. 4) and a captured image transmitted from another vehicle, in particular, a captured image capturing a blind spot from the host vehicle, the captured image is projected in the blind spot direction from the host vehicle. 14 is an electronic control unit that performs an image projection process (see FIGS. 5 and 6) and the like projected by 14. The driving assistance ECU 11 may also be used as an ECU used for controlling the navigation device. The detailed configuration of the driving assistance ECU 11 will be described later.

また、カメラパラメータDB12は、前方カメラ5及び後方カメラ6に関する各種パラメータが記憶された記憶手段である。ここで、本実施形態ではカメラパラメータDB12に記憶される情報として、前方カメラ5及び後方カメラ6の車両2に対する設置位置、設置角度、撮像範囲等が記憶される。   The camera parameter DB 12 is a storage unit that stores various parameters related to the front camera 5 and the rear camera 6. Here, in the present embodiment, as the information stored in the camera parameter DB 12, the installation positions, the installation angles, the imaging ranges, and the like of the front camera 5 and the rear camera 6 with respect to the vehicle 2 are stored.

一方、画像DB13は、前方カメラ5及び後方カメラ6によって撮像された前方撮像画像及び後方撮像画像を記憶する記憶手段である。ここで、画像DB13に記憶される情報としては、自車両に設置された前方カメラ5及び後方カメラ6によって撮像された自車両周辺の前方撮像画像及び後方撮像画像の他、車車間通信システム3を介して他車両から受信した他車両で撮像された前方撮像画像及び後方撮像画像がある。   On the other hand, the image DB 13 is a storage unit that stores a front captured image and a rear captured image captured by the front camera 5 and the rear camera 6. Here, the information stored in the image DB 13 includes the inter-vehicle communication system 3 in addition to the front and rear captured images of the periphery of the host vehicle captured by the front camera 5 and the rear camera 6 installed in the host vehicle. There are a front captured image and a rear captured image captured by another vehicle received from another vehicle.

また、プロジェクタ14は、液晶パネルと投影用の光源から構成される所謂液晶プロジェクタである。そして、本実施形態に係る運転支援装置1では車両からの死角方向に対して、その死角を撮像した撮像画像を投影する。その結果、車両2からの死角を形成する障害物(具体的には他車両)に対して、障害物を透過した画像が表示される(図13参照)。尚、プロジェクタ14としては液晶プロジェクタの代わりに、DLPプロジェクタやLCOSプロジェクタを用いても良い。   The projector 14 is a so-called liquid crystal projector that includes a liquid crystal panel and a light source for projection. And in the driving assistance device 1 which concerns on this embodiment, the picked-up image which imaged the blind spot is projected with respect to the blind spot direction from a vehicle. As a result, an image transmitted through the obstacle is displayed with respect to the obstacle (specifically, another vehicle) that forms a blind spot from the vehicle 2 (see FIG. 13). As the projector 14, a DLP projector or an LCOS projector may be used instead of the liquid crystal projector.

また、現在位置検出部15は車両2の現在位置を地図上で特定する為の検出部であり、GPS21や地図DB22から構成される。
そして、GPS21は、人工衛星によって発生させられた電波を受信することにより、地球上における車両2の現在位置と現在時刻を検出する。
一方、地図DB22は、車両2が現在走行する道路を特定する為の地図データが記録された記憶手段である。ここで、地図データは、例えば道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、交差点に関する交差点データ等から構成されている。尚、現在位置検出部15としてはナビゲーション装置を用いても良い。
The current position detection unit 15 is a detection unit for specifying the current position of the vehicle 2 on a map, and includes a GPS 21 and a map DB 22.
And GPS21 detects the present position and the present | current time of the vehicle 2 on the earth by receiving the electromagnetic wave generated by the artificial satellite.
On the other hand, the map DB 22 is storage means in which map data for specifying a road on which the vehicle 2 is currently traveling is recorded. Here, the map data includes, for example, link data related to roads (links), node data related to node points, intersection data related to intersections, and the like. Note that a navigation device may be used as the current position detection unit 15.

また、車速センサ16は、車両2の車輪の回転に応じて車速パルスを発生させ、車両の移動距離や車速や加速度を検出するセンサである。
ステアリングセンサ17は、ステアリング装置の内部に取り付けられており、ステアリングの回動角を検出するセンサである。
ジャイロセンサ18は、車両2の旋回角を検出するセンサである。また、ジャイロセンサ18によって検出された旋回角を積分することにより、自車方位を検出することができる。
The vehicle speed sensor 16 is a sensor that generates a vehicle speed pulse in accordance with the rotation of the wheel of the vehicle 2 and detects the moving distance, the vehicle speed, and the acceleration of the vehicle.
The steering sensor 17 is attached to the inside of the steering apparatus, and is a sensor that detects the turning angle of the steering.
The gyro sensor 18 is a sensor that detects the turning angle of the vehicle 2. Further, by integrating the turning angle detected by the gyro sensor 18, the vehicle direction can be detected.

次に、運転支援ECU11の詳細について図3を用いて説明すると、運転支援ECU11はCPU31を核として構成されており、CPU31には記憶手段であるROM32及びRAM33が接続されている。そして、ROM32には後述の画像通信処理プログラム(図4参照)や画像投影処理プログラム(図5、図6参照)、その他、プロジェクタ14等の制御上必要な各種のプログラム等が格納されている。また、RAM33はCPU31で演算された各種データを一時的に記憶しておくメモリである。   Next, the details of the driving support ECU 11 will be described with reference to FIG. 3. The driving support ECU 11 is configured with the CPU 31 as a core, and a ROM 32 and a RAM 33 which are storage means are connected to the CPU 31. The ROM 32 stores an image communication processing program (see FIG. 4), an image projection processing program (see FIGS. 5 and 6), which will be described later, and various programs necessary for controlling the projector 14 and the like. The RAM 33 is a memory for temporarily storing various data calculated by the CPU 31.

続いて、前記構成を有する本実施形態に係る運転支援装置1の運転支援ECU11が実行する画像通信処理プログラムについて図4に基づき説明する。図4は本実施形態に係る画像通信処理プログラムのフローチャートである。ここで、画像通信処理プログラムは、所定間隔(例えば5sec毎)で繰り返し実行され、車両2の停車時において前方カメラ5や後方カメラ6で撮像した撮像画像を車車間通信システム3を介して他車両との間で送受信する処理を行うプログラムである。尚、以下の図4乃至図6にフローチャートで示されるプログラムは運転支援ECU11が備えているROM32やRAM33に記憶されており、CPU31により実行される。   Next, an image communication processing program executed by the driving support ECU 11 of the driving support device 1 according to the present embodiment having the above-described configuration will be described with reference to FIG. FIG. 4 is a flowchart of the image communication processing program according to this embodiment. Here, the image communication processing program is repeatedly executed at predetermined intervals (for example, every 5 seconds), and the captured image captured by the front camera 5 and the rear camera 6 when the vehicle 2 is stopped is transmitted to the other vehicle via the inter-vehicle communication system 3. It is a program that performs processing to send and receive to. The programs shown in the flowcharts of FIGS. 4 to 6 below are stored in the ROM 32 and the RAM 33 provided in the driving support ECU 11 and are executed by the CPU 31.

画像通信処理プログラムでは、先ずステップ(以下、Sと略記する)1において、CPU31は前方カメラ5により車両2の前方環境が撮像された前方撮像画像を取得する。また、後方カメラ6により車両2の後方環境が撮像された後方撮像画像を取得する。そして、取得した各撮像画像は画像DB13に一時的に記憶される。尚、前方カメラ5及び後方カメラ6のいずれか一方のみが車両に設置されている場合には、設置されているカメラによる撮像画像のみを取得する。   In the image communication processing program, first, in step (hereinafter abbreviated as S) 1, the CPU 31 obtains a front captured image obtained by capturing the front environment of the vehicle 2 with the front camera 5. Further, a rear captured image in which the rear environment of the vehicle 2 is captured by the rear camera 6 is acquired. The acquired captured images are temporarily stored in the image DB 13. Note that when only one of the front camera 5 and the rear camera 6 is installed in the vehicle, only a captured image by the installed camera is acquired.

次に、S2においてCPU31は、車速センサ16の検出結果に基づいて自車両が停車中であるか否か判定する。そして、自車両が停車中であると判定された場合(S2:YES)には、S3へと移行する。一方、自車両が走行中であると判定された場合(S2:NO)には画像通信処理プログラムを終了する。   Next, in S <b> 2, the CPU 31 determines whether or not the host vehicle is stopped based on the detection result of the vehicle speed sensor 16. And when it determines with the own vehicle being stopping (S2: YES), it transfers to S3. On the other hand, when it is determined that the host vehicle is traveling (S2: NO), the image communication processing program is terminated.

続いて、S3でCPU31は、現在位置検出部15や各種センサ16〜18により自車両の現在位置や自車方位を検出する。更に、S4ではカメラパラメータDB12から前方カメラ5及び後方カメラ6に関する各種パラメータ(設置位置、設置角度、撮像範囲等)情報を取得する。   Subsequently, in S <b> 3, the CPU 31 detects the current position and direction of the host vehicle using the current position detection unit 15 and the various sensors 16 to 18. Furthermore, in S4, various parameters (installation position, installation angle, imaging range, etc.) information about the front camera 5 and the rear camera 6 are acquired from the camera parameter DB 12.

その後、S5においてCPU31は、車車間通信システム3(図1)を構成する他車両に対して送信する為の送信データを作成する。尚、前記S5で作成される送信データは、前記S1で取得した前方カメラ5の前方撮像画像データ及び後方カメラ6の後方撮像画像データ、前記S3で検出された自車両の現在位置及び方位に関する自車情報、前記S4で取得した前方カメラ5及び後方カメラ6の設置位置や設置角度や撮像範囲等に関するカメラパラメータ情報によって構成される。   Thereafter, in S5, the CPU 31 creates transmission data for transmission to other vehicles constituting the inter-vehicle communication system 3 (FIG. 1). The transmission data created in S5 includes the front captured image data of the front camera 5 and the rear captured image data of the rear camera 6 acquired in S1, and the vehicle's current position and direction detected in S3. It consists of vehicle parameter information and camera parameter information related to the installation position, installation angle, imaging range, etc. of the front camera 5 and rear camera 6 acquired in S4.

そして、S6でCPU31は、前記S5で作成された送信データを車車間通信システム3により他車両へと送信する。そして、送信データを受信した他車両は、受信した送信データを用いて後述の画像投影処理(図5、図6)を行う。   In S6, the CPU 31 transmits the transmission data created in S5 to the other vehicle by the inter-vehicle communication system 3. And the other vehicle which received transmission data performs the below-mentioned image projection process (FIG. 5, FIG. 6) using the received transmission data.

次に、本実施形態に係る運転支援装置1の運転支援ECU11が実行する画像投影処理プログラムについて図5及び図6に基づき説明する。図5及び図6は本実施形態に係る画像投影処理プログラムのフローチャートである。ここで、画像投影処理プログラムは、他車両から車車間通信システム3を介して撮像画像を含む送信データを受信した際に実行され、受信した撮像画像の内、特に自車両からの死角を撮像した撮像画像がある場合には、その撮像画像を自車両からの死角方向へとプロジェクタ14により投影する処理を行うプログラムである。   Next, an image projection processing program executed by the driving support ECU 11 of the driving support device 1 according to the present embodiment will be described with reference to FIGS. 5 and 6. 5 and 6 are flowcharts of the image projection processing program according to the present embodiment. Here, the image projection processing program is executed when transmission data including a captured image is received from another vehicle via the inter-vehicle communication system 3, and images a blind spot from the own vehicle among the received captured images. When there is a captured image, this is a program that performs a process of projecting the captured image by the projector 14 in the blind spot direction from the host vehicle.

画像投影処理プログラムでは、先ずS11においてCPU31は、前記S6により他車両から送信された送信データを受信する。   In the image projection processing program, first, in S11, the CPU 31 receives transmission data transmitted from another vehicle in S6.

次に、S12でCPU31は、現在位置検出部15や各種センサ16〜18により自車両の現在位置や自車方位を検出する。更に、S13では前記S11で受信したデータに基づいて、データを送信した送信元となる他車両の現在位置や車両方位を特定する。   Next, in S <b> 12, the CPU 31 detects the current position and the vehicle direction of the host vehicle by using the current position detection unit 15 and the various sensors 16 to 18. Furthermore, in S13, based on the data received in S11, the current position and vehicle orientation of another vehicle that is the transmission source that transmitted the data are specified.

更に、S14でCPU31は、前記S12で検出した自車両の現在位置と自車方位とに基づいて、自車両が交差点へ向けて走行しており且つ交差点が所定距離(例えば20m)以内まで接近しているか否かを判定する。   Further, in S14, the CPU 31 is traveling toward the intersection based on the current position and direction of the own vehicle detected in S12, and the intersection approaches within a predetermined distance (for example, 20 m). It is determined whether or not.

その結果、自車両が交差点へ向けて走行しており且つ交差点が所定距離内まで接近していると判定された場合(S14:YES)には、S15へと移行する。一方、自車両が交差点を通過した場合や、交差点から所定距離以上離れていると判定された場合(S14:NO)には、プロジェクタ14による画像の投影を行うことを示す投影フラグ(交差点手前投影フラグ及び交差点奥側投影フラグ)をOFFして(S16)、当該画像投影処理プログラムを終了する。尚、上記S14が交差点判定手段の処理に相当する。   As a result, if it is determined that the host vehicle is traveling toward the intersection and the intersection is approaching within a predetermined distance (S14: YES), the process proceeds to S15. On the other hand, when the host vehicle passes through the intersection or when it is determined that the vehicle is separated from the intersection by a predetermined distance or more (S14: NO), a projection flag indicating that the image is projected by the projector 14 (projection before the intersection) The flag and the intersection rear side projection flag) are turned off (S16), and the image projection processing program is terminated. Note that S14 corresponds to the processing of the intersection determination means.

次に、S15でCPU31は、前記S11で他車両から受信したデータの内、自車両が接近中である交差点を撮像した撮像画像があるか否か、即ち自車両からの死角を撮像した撮像画像があるか否かを判定する。具体的には、前記S13で特定した撮像画像の撮像を行った他車両の現在位置や車両方位と、受信した他車両の各種カメラパラメータ(設置位置、設置角度、撮像範囲等)と、地図DB22に記憶された地図情報により判定する。   Next, in S15, the CPU 31 determines whether or not there is a captured image that captures an intersection that the host vehicle is approaching in the data received from the other vehicle in S11, that is, a captured image that captures a blind spot from the host vehicle. It is determined whether or not there is. Specifically, the current position and vehicle orientation of the other vehicle that has captured the captured image specified in S13, the various camera parameters (installation position, installation angle, imaging range, etc.) of the received other vehicle, and the map DB 22 It is determined by the map information stored in

以下に、前記S15の判定処理について図7を用いてより詳細に説明する。図7は所定の交差点50に接近中である自車両51とその周辺環境を示した俯瞰図である。
ここで、図7に示すように自車両51が交差点50に接近している場合において、他車両から受信したデータ中に交差点50を撮像した撮像画像がある場合(S15:YES)には、その撮像画像は(1)対向車線の交差点50の手前側に停車中の他車両52の後方カメラ6によって撮像された後方撮像画像、又は(2)対向車線の交差点50の奥側に停車中の他車両53の前方カメラ5によって撮像された前方撮像画像のいずれかとなる。そして、交差点50の手前側や奥側に他車両が停車しているということは、対向車線が混雑していると推定される。従って、対向車線に位置する他車両が障害物となって交差点50方向が自車両51からの死角になっていると予測され、結果的に、他車両52の後方カメラ6によって撮像された後方撮像画像及び他車両53の前方カメラ5によって撮像された前方撮像画像は、自車両からの死角を撮像した撮像画像となる。
以上より、前記S15で自車両が接近中である交差点を撮像した撮像画像がある場合には、その撮像画像は自車両からの死角を撮像した撮像画像にも相当することとなる。
Hereinafter, the determination process in S15 will be described in more detail with reference to FIG. FIG. 7 is an overhead view showing the host vehicle 51 that is approaching a predetermined intersection 50 and its surrounding environment.
Here, when the host vehicle 51 is approaching the intersection 50 as shown in FIG. 7, if there is a captured image obtained by imaging the intersection 50 in the data received from another vehicle (S15: YES), The captured image is (1) a rear captured image captured by the rear camera 6 of the other vehicle 52 parked on the near side of the oncoming lane intersection 50, or (2) other parked on the far side of the oncoming lane intersection 50. This is one of the forward captured images captured by the front camera 5 of the vehicle 53. And it is presumed that the oncoming lane is congested when other vehicles stop on the near side or the far side of the intersection 50. Therefore, it is predicted that the other vehicle located in the oncoming lane is an obstacle and the direction of the intersection 50 is a blind spot from the own vehicle 51, and as a result, the rear image captured by the rear camera 6 of the other vehicle 52. The image and the forward captured image captured by the front camera 5 of the other vehicle 53 are captured images obtained by capturing a blind spot from the host vehicle.
As mentioned above, when there exists a captured image which imaged the intersection which the own vehicle is approaching by said S15, the captured image will also correspond to the captured image which imaged the blind spot from the own vehicle.

そして、前記S15の判定の結果、自車両が接近中である交差点を撮像した撮像画像があると判定された場合(S15:YES)には、S17へと移行する。一方、自車両が接近中である交差点を撮像した撮像画像が無いと判定された場合(S15:NO)には、自車両からの死角を撮像した撮像画像も無いので、画像の投影を行うことなく当該画像投影処理プログラムを終了する。   If it is determined as a result of the determination in S15 that there is a captured image obtained by capturing an intersection where the host vehicle is approaching (S15: YES), the process proceeds to S17. On the other hand, when it is determined that there is no captured image obtained by capturing the intersection where the host vehicle is approaching (S15: NO), there is no captured image capturing the blind spot from the host vehicle, and thus the image is projected. The image projection processing program is terminated.

その後、S17でCPU31は、前記S11で他車両から受信したデータの内、自車両が接近中である交差点を手前から撮像した撮像画像があるか否か、即ち自車両からの死角となる交差点を交差点の手前側に位置する他車両が後方カメラ6により撮像した後方撮像画像があるか否かを判定する。具体的には、前記S13で特定した撮像画像の撮像を行った他車両の現在位置や車両方位と地図DB22に記憶された地図情報により、他車両の位置が交差点の自車両進行方向の手前側にあると判定された場合に、その他車両により撮像された画像が、自車両が接近中である交差点を手前から撮像した撮像画像であると判定される。尚、上記S17が手前位置判定手段の処理に相当する。   Thereafter, in S17, the CPU 31 determines whether there is a captured image obtained by imaging the intersection where the host vehicle is approaching from the data received from the other vehicle in S11, that is, an intersection that becomes a blind spot from the host vehicle. It is determined whether there is a rear captured image captured by the rear camera 6 by another vehicle located on the near side of the intersection. Specifically, based on the current position and direction of the other vehicle that has captured the captured image specified in S13 and the map information stored in the map DB 22, the position of the other vehicle is closer to the traveling direction of the host vehicle at the intersection. When it is determined that the vehicle is in the position, it is determined that the image captured by the other vehicle is a captured image captured from the front of the intersection where the host vehicle is approaching. Note that S17 corresponds to the process of the front position determination means.

そして、自車両が接近中である交差点を手前側から撮像した撮像画像があると判定された場合(S17:YES)には、その撮像画像を投影対象の画像として選択する(S18)。更に、S19では交差点を手前から撮像した撮像画像をプロジェクタ14により投影することを示す交差点手前画像投影フラグをONして、S23へと移行する。一方、自車両が接近中である交差点を手前側から撮像した撮像画像が無いと判定された場合(S17:NO)にはS20へと移行する。   If it is determined that there is a captured image captured from the near side of the intersection where the host vehicle is approaching (S17: YES), the captured image is selected as an image to be projected (S18). Further, in S19, the intersection front image projection flag indicating that the captured image obtained by imaging the intersection from the near side is projected by the projector 14 is turned on, and the process proceeds to S23. On the other hand, when it is determined that there is no captured image obtained by imaging the intersection where the host vehicle is approaching from the near side (S17: NO), the process proceeds to S20.

以下に、前記S17及びS18の処理について図8及び図9を用いてより詳細に説明する。図8は所定の交差点50に接近中である自車両51と交差点50の手前側に位置する他車両52とその周辺環境を示した俯瞰図である。また、図9は図8に示す状況での他車両52の後方カメラ6で撮像した後方撮像画像61を示した図である。
図8に示すように自車両51が交差点50に接近している場合において、他車両から受信したデータ中に交差点50を手前側から撮像した撮像画像がある場合(S17:YES)には、その撮像画像は対向車線の交差点50の手前側に位置する他車両52の後方カメラ6によって撮像された後方撮像画像となる。
そして、図9に示すように、他車両52の後方カメラ6によって撮像された後方撮像画像61には、交差点50の奥側に位置する他車両53の前面部と、交差点50へと進入する進入車両54の側面部が撮像される。従って、自車両51は後方撮像画像61を後述のようにプロジェクタ14で投影することによって(図13参照)、自車両51の死角に位置する進入車両54の存在を運転者に気付かせることが可能となる。そこで、前記S18では、この他車両52の後方カメラ6によって撮像された後方撮像画像61を自車の死角方向に投影する画像として選択する。
Hereinafter, the processes of S17 and S18 will be described in more detail with reference to FIGS. FIG. 8 is an overhead view showing the host vehicle 51 that is approaching the predetermined intersection 50, the other vehicle 52 that is positioned in front of the intersection 50, and the surrounding environment. FIG. 9 is a diagram showing a rear captured image 61 captured by the rear camera 6 of the other vehicle 52 in the situation shown in FIG.
As shown in FIG. 8, when the own vehicle 51 is approaching the intersection 50 and there is a captured image obtained by capturing the intersection 50 from the near side in the data received from another vehicle (S17: YES) The captured image is a rear captured image captured by the rear camera 6 of the other vehicle 52 positioned on the near side of the intersection 50 of the opposite lane.
As shown in FIG. 9, in the rear captured image 61 captured by the rear camera 6 of the other vehicle 52, the front portion of the other vehicle 53 located on the back side of the intersection 50 and the approach that enters the intersection 50. The side part of the vehicle 54 is imaged. Accordingly, the host vehicle 51 can cause the driver to notice the presence of the approaching vehicle 54 located at the blind spot of the host vehicle 51 by projecting the rear captured image 61 with the projector 14 as described later (see FIG. 13). It becomes. Therefore, in S18, the rear captured image 61 captured by the rear camera 6 of the other vehicle 52 is selected as an image to be projected in the blind spot direction of the own vehicle.

S20でCPU31は、交差点を手前から撮像した撮像画像をプロジェクタ14により投影することを示す交差点手前画像投影フラグがONか否か判定する。そして、交差点手前画像投影フラグがONであると判定された場合(S20:YES)には、既に交差点の手前側から他車両が撮像した後方撮像画像を投影中であるので、後方撮像画像の投影を優先する為に他の撮像画像(例えば、交差点の奥側に位置する他車両の前方撮像画像)の投影を行うことなく当該画像投影処理プログラムを終了する。   In S <b> 20, the CPU 31 determines whether or not an intersection front image projection flag indicating that the captured image obtained by imaging the intersection from the near side is projected by the projector 14 is ON. When it is determined that the intersection front image projection flag is ON (S20: YES), the rear captured image captured by the other vehicle is already being projected from the front side of the intersection, so the rear captured image is projected. Therefore, the image projection processing program is terminated without projecting another captured image (for example, a captured image of the front of another vehicle located behind the intersection).

一方、交差点手前画像投影フラグがOFFであると判定された場合(S20:NO)には、交差点の手前側から他車両が撮像した後方撮像画像を投影していないので、他の撮像画像、即ち、自車両が接近中である交差点を反対の奥側から撮像した撮像画像を投影対象の画像として選択する(S21)。その後、S22では交差点を奥側から撮像した撮像画像をプロジェクタ14により投影することを示す交差点奥側投影フラグをONして、S23へと移行する。   On the other hand, if it is determined that the image projection flag in front of the intersection is OFF (S20: NO), the rear captured image captured by the other vehicle from the front side of the intersection is not projected. Then, a captured image obtained by capturing an intersection at which the host vehicle is approaching from the opposite back side is selected as an image to be projected (S21). Thereafter, in S22, the intersection back side projection flag indicating that the captured image obtained by capturing the intersection from the back side is projected by the projector 14 is turned ON, and the process proceeds to S23.

以下に、前記S20及びS21の処理について図10及び図11を用いてより詳細に説明する。図10は所定の交差点50に接近中である自車両51と交差点50の奥側に位置する他車両53とその周辺環境を示した俯瞰図である。また、図11は図10に示す状況での他車両53の前方カメラ5で撮像した前方撮像画像62を示した図である。
図10に示すように自車両51が交差点50に接近している場合において、他車両から受信したデータ中に交差点50を手前側から撮像した撮像画像が無い場合(S20:NO)であっても、対向車線の交差点50の奥側に位置する他車両53の前方カメラ5によって撮像された前方撮像画像が存在する場合がある。
そして、図11に示すように、他車両53の前方カメラ5によって撮像された前方撮像画像62には、交差点50へと進入する進入車両54の正面が撮像される。従って、自車両51は前方撮像画像62を後述のようにプロジェクタ14で投影することによって、自車両51の死角に位置する進入車両54の存在を運転者に気付かせることが可能となる。従って、前記S21では、この他車両53の前方カメラ5によって撮像された前方撮像画像62を自車両の死角方向へ投影する画像として選択する。尚、上記S18及びS21が画像選択手段の処理に相当する。
Hereinafter, the processes of S20 and S21 will be described in more detail with reference to FIGS. FIG. 10 is an overhead view showing the host vehicle 51 that is approaching the predetermined intersection 50, the other vehicle 53 that is located on the far side of the intersection 50, and the surrounding environment. FIG. 11 is a diagram showing a front captured image 62 captured by the front camera 5 of the other vehicle 53 in the situation shown in FIG.
As shown in FIG. 10, even when the host vehicle 51 is approaching the intersection 50, there is no captured image obtained by capturing the intersection 50 from the near side in the data received from the other vehicle (S20: NO). In some cases, there may be a forward-captured image captured by the front camera 5 of another vehicle 53 located on the far side of the intersection 50 of the opposite lane.
Then, as shown in FIG. 11, the front captured image 62 captured by the front camera 5 of the other vehicle 53 captures the front of the approaching vehicle 54 that enters the intersection 50. Therefore, the host vehicle 51 can make the driver aware of the presence of the approaching vehicle 54 located at the blind spot of the host vehicle 51 by projecting the front captured image 62 with the projector 14 as described later. Therefore, in S21, the front captured image 62 captured by the front camera 5 of the other vehicle 53 is selected as an image to be projected in the blind spot direction of the host vehicle. Note that S18 and S21 correspond to the processing of the image selection means.

その後、S23においてCPU31は、前記S18又はS21で選択された撮像画像に対して、撮像した他車両の位置及び方位と撮像画像を撮像した前方カメラ5又は後方カメラ6の設置位置や設置角度や撮像範囲等に関するカメラパラメータとに基づいて、画像の歪みを補正する補正処理を実行する。   Thereafter, in S23, the CPU 31 sets the installation position, the installation angle, and the imaging of the front camera 5 or the rear camera 6 that captured the captured image of the position and orientation of the other vehicle and the captured image selected in S18 or S21. Based on the camera parameters related to the range and the like, correction processing for correcting image distortion is executed.

次に、S24でCPU31は、前記12で検出した自車両の現在位置や自車方位と、地図DB22に記憶された地図情報と、前記S11で受信したデータ送信元となる他車両の現在位置や車両方位に基づいて、障害物によって形成される自車両からの死角となるエリアを算出する。また、算出された死角エリアに基づいてプロジェクタ14による画像の投影方向を決定する。   Next, in S24, the CPU 31 determines the current position and direction of the own vehicle detected in 12 above, the map information stored in the map DB 22, the current position of the other vehicle that is the data transmission source received in S11, Based on the vehicle direction, an area that is a blind spot from the host vehicle formed by the obstacle is calculated. Further, the projection direction of the image by the projector 14 is determined based on the calculated blind spot area.

続いて、S25でCPU31は、前記S24で算出された死角エリアに基づいて、前記S18又はS21で選択された撮像画像の内、死角エリアを撮像した範囲を抽出する。具体的には、図9に示すように交差点の手前側に位置する他車両から撮像された後方撮像画像61である場合には、画像の上下方向の中心線から死角エリアが含まれる側(図9では右側)の画像を抽出する。また、図11に示すように交差点の奥側に位置する他車両から撮像された前方撮像画像62である場合には、画像の地平線より下方側の画像を抽出する。尚、上記S24及びS25が画像抽出手段の処理に相当する。   Subsequently, in S25, based on the blind spot area calculated in S24, the CPU 31 extracts a range in which the blind spot area is captured from the captured images selected in S18 or S21. Specifically, in the case of the rear captured image 61 captured from another vehicle located on the near side of the intersection as shown in FIG. 9, the blind spot area is included from the center line in the vertical direction of the image (FIG. 9). In FIG. 9, the right image) is extracted. Moreover, as shown in FIG. 11, when it is the front captured image 62 imaged from the other vehicle located in the back | inner side of an intersection, the image below a horizon of an image is extracted. Note that S24 and S25 correspond to the processing of the image extraction means.

その後、S26でCPU31は、自車両からの死角を形成する障害物(図7では他車両52)を平面とみなし、自車両が備えるプロジェクタ14との角度から、撮像画像を投影用の画像へと変換する画像変換処理を行う。尚、前記S26の変換方法は、公知の変換方法に準じる。   Thereafter, in S26, the CPU 31 regards an obstacle that forms a blind spot from the own vehicle (the other vehicle 52 in FIG. 7) as a plane, and converts the captured image into an image for projection from an angle with the projector 14 included in the own vehicle. An image conversion process for conversion is performed. The conversion method of S26 is in accordance with a known conversion method.

そして、S27でCPU31は、前記S26において変換された画像を、前記S23で決定された投影方向に対して投影する。それによって、自車両からの死角を形成する障害物を透過した画像をその障害物に対して表示することが可能となり、死角における視界の補完が完了する。   In S27, the CPU 31 projects the image converted in S26 in the projection direction determined in S23. As a result, an image that has passed through an obstacle that forms a blind spot from the host vehicle can be displayed on the obstacle, and the field of view complementation at the blind spot is completed.

ここで、図12は図7に示す状況でステップ27の画像の投影処理を行う前における自車両51の運転席からの視界風景70を示した図である。また、図13は図7に示す状況でステップ27の画像の投影処理を行った後における自車両51の運転席からの視界風景71を示した図である。ここで、投影を行わない状態では図7及び図12に示すように、自車両51からは他車両52が障害物となって交差点50の右側が死角となる。従って、自車両51からは右側から交差点50へと進入する進入車両54を運転者は視認することができない。
そこで、図13に示すように他車両で撮像された撮像画像に基づく画像を死角方向に投影することによって、他車両52の側面に対して進入車両54の画像72が表示される。従って、自車両51の運転者は他車両52に隠れた位置に対して進入車両54が存在することを容易に把握することが可能となる。また、特に図13のように交差点を手前側から撮像した他車両の後方撮像画像(図9)を投影することによって、死角を形成する他車両52を透過した画像をより現実に近い形で形成し、死角に位置する進入車両54の状態をより正確に把握させることが可能となる。
Here, FIG. 12 is a view showing a view scenery 70 from the driver's seat of the own vehicle 51 before performing the image projection processing of step 27 in the situation shown in FIG. FIG. 13 is a view showing a view scenery 71 from the driver's seat of the own vehicle 51 after performing the image projection processing in step 27 in the situation shown in FIG. Here, in the state where projection is not performed, as shown in FIGS. 7 and 12, the other vehicle 52 becomes an obstacle from the own vehicle 51 and the right side of the intersection 50 becomes a blind spot. Therefore, the driver cannot visually recognize the approaching vehicle 54 entering the intersection 50 from the right side from the own vehicle 51.
Therefore, as shown in FIG. 13, an image 72 of the approaching vehicle 54 is displayed on the side surface of the other vehicle 52 by projecting an image based on the captured image captured by the other vehicle in the blind spot direction. Accordingly, the driver of the host vehicle 51 can easily grasp that the approaching vehicle 54 exists at a position hidden behind the other vehicle 52. Further, in particular, as shown in FIG. 13, by projecting a rear captured image (FIG. 9) of another vehicle in which the intersection is imaged from the near side, an image transmitted through the other vehicle 52 forming the blind spot is formed in a more realistic form. Thus, the state of the approaching vehicle 54 located in the blind spot can be grasped more accurately.

以上詳細に説明した通り、本実施形態に係る運転支援装置1では、自車両が交差点に接近中であって(S14:YES)、他車両から受信したデータ中に接近中の交差点を撮像した撮像画像が含まれている場合(S15:YES)には、受信した撮像画像を自車両からの死角を撮像した撮像画像と判定し、その撮像画像に対して所定の画像処理を施した後に、プロジェクタ14によって自車両の死角方向へと投影し、死角を形成する障害物に対して障害物を透過した画像を表示する(S27)ので、様々な方角及び範囲に生じた自車両からの死角に対して、撮像画像に基づく視界の補完を行うことが可能となる。
また、他車両の撮像した撮像画像から自車両からの死角範囲に相当する画像のみを抽出して(S25)投影するので、死角以外の不要範囲の画像が投影されることによって、視認可能な範囲に位置する対象物(歩行者や車両等)が死角に位置すると誤認させたり、死角に位置する対象物が視認可能な範囲にあると誤認させる虞がない。また、死角に位置する対象物のみを運転者に明確に把握させることが可能となる。更に、歩行者や他車両の運転者に対して画像が投影されることによって視界を奪う機会を著しく減少させることが可能となる。
また、受信したデータ中に交差点を手前側から撮像した他車両の後方撮像画像がある場合には、投影する画像として優先的に後方撮像画像を選択するので、死角を形成する障害物を透過した画像をより現実に近い形で形成し、その障害物に対して投影することが可能となる。従って、運転者は投影された画像を視認することにより、死角に位置する対象物の状態をより正確に把握することが可能となる。
As described above in detail, in the driving support device 1 according to the present embodiment, the image of the intersection being approached in the data received from another vehicle when the host vehicle is approaching the intersection (S14: YES). If an image is included (S15: YES), the received captured image is determined to be a captured image obtained by capturing a blind spot from the host vehicle, and after performing predetermined image processing on the captured image, the projector 14 is projected in the direction of the blind spot of the host vehicle, and an image that has passed through the obstacle is displayed with respect to the obstacle that forms the blind spot (S27), so that the blind spot from the host vehicle generated in various directions and ranges is displayed. Thus, it is possible to complement the field of view based on the captured image.
In addition, since only the image corresponding to the blind spot range from the own vehicle is extracted from the captured image captured by the other vehicle (S25) and projected, an image in an unnecessary range other than the blind spot is projected, so that the visible range is obtained. There is no possibility of misidentifying that an object (such as a pedestrian or a vehicle) located in the blind spot is located in the blind spot or that the object located in the blind spot is in a visible range. Moreover, it becomes possible to make a driver | operator grasp clearly only the target object located in a blind spot. Furthermore, it is possible to remarkably reduce the chance of depriving the field of vision by projecting images to pedestrians and drivers of other vehicles.
In addition, when there is a rear captured image of another vehicle in which the intersection is captured from the near side in the received data, the rear captured image is preferentially selected as the image to be projected, so that the obstacle that forms the blind spot is transmitted. An image can be formed in a more realistic form and projected onto the obstacle. Therefore, the driver can grasp the state of the object located at the blind spot more accurately by visually recognizing the projected image.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では他車両から取得した撮像画像を、プロジェクタ14によって死角を形成する障害物に対して投影することにより、自車両からの死角における視界を補完するように構成しているが、他車両から取得した撮像画像を車内のディスプレイに表示することにより、自車両からの死角における視界を補完するようにしても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in the present embodiment, a captured image acquired from another vehicle is projected onto an obstacle that forms a blind spot by the projector 14 so as to complement the field of view at the blind spot from the own vehicle. You may make it complement the visual field in the blind spot from the own vehicle by displaying the captured image acquired from the other vehicle on the display in a vehicle.

また、本実施形態では、特に交差点において対向車線に存在する他車両によって生じる自車両から交差点への死角を、他車両において撮像した撮像画像を投影することにより補完しているが、交差点以外にも駐車場の出入り口や高速道路の合流帯等の他車両によって自車両の死角が発生する箇所において適用することが可能となる。   Further, in the present embodiment, the blind spot from the own vehicle to the intersection caused by the other vehicle existing in the oncoming lane at the intersection is complemented by projecting a captured image captured by the other vehicle. The present invention can be applied at a location where a blind spot of the host vehicle is generated by another vehicle such as an entrance / exit of a parking lot or a junction of an expressway.

また、本実施形態では他車両から任意のタイミングで送信されたデータを受信した(S11)際に、自車両が交差点に接近中であるか判定し(S14)、更に交差点に接近中である場合に、自車からの死角を撮像した撮像画像の選択(S18、S21)や選択された撮像画像の投影(S27)を行うこととしているが、自車両が交差点に接近中である場合に他車両に対してデータを要求するようにしても良い。その場合には、要求に応じて他車両から送信されたデータに基づいて、自車からの死角を撮像した撮像画像の選択(S18、S21)や選択された撮像画像の投影(S27)を行うようにすることが望ましい。それにより、撮像画像を含む送信データの送信(S6)は、他車両からの要求があった場合にのみ行うこととなり、通信処理負担の軽減が可能となる。   In the present embodiment, when data transmitted from another vehicle at an arbitrary timing is received (S11), it is determined whether the host vehicle is approaching the intersection (S14), and is further approaching the intersection. In addition, the selection of the captured image obtained by capturing the blind spot from the own vehicle (S18, S21) and the projection of the selected captured image (S27) are performed. You may make it request | require data with. In that case, on the basis of data transmitted from another vehicle in response to a request, selection of a captured image obtained by imaging a blind spot from the own vehicle (S18, S21) and projection of the selected captured image (S27) are performed. It is desirable to do so. Thereby, transmission of transmission data including a captured image (S6) is performed only when there is a request from another vehicle, and the communication processing load can be reduced.

本実施形態に係る車車間通信システムの概略構成図である。It is a schematic block diagram of the inter-vehicle communication system which concerns on this embodiment. 本実施形態に係る運転支援装置の概略構成図である。It is a schematic structure figure of a driving support device concerning this embodiment. 本実施形態に係る運転支援装置の制御系を模式的に示すブロック図である。It is a block diagram which shows typically the control system of the driving assistance device concerning this embodiment. 本実施形態に係る画像通信処理プログラムのフローチャートである。3 is a flowchart of an image communication processing program according to the present embodiment. 本実施形態に係る画像投影処理プログラムのフローチャートである。It is a flowchart of the image projection processing program which concerns on this embodiment. 本実施形態に係る画像投影処理プログラムのフローチャートである。It is a flowchart of the image projection processing program which concerns on this embodiment. 所定の交差点に接近中である自車両とその周辺環境を示した俯瞰図である。It is the bird's-eye view which showed the own vehicle which is approaching a predetermined | prescribed intersection, and its surrounding environment. 所定の交差点に接近中である自車両と交差点の手前側に位置する他車両とその周辺環境を示した俯瞰図である。It is the bird's-eye view which showed the own vehicle which is approaching a predetermined | prescribed intersection, the other vehicle located in the near side of an intersection, and its surrounding environment. 図8に示す状況での他車両の後方カメラで撮像した後方撮像画像を示した図である。It is the figure which showed the back captured image imaged with the rear camera of the other vehicle in the condition shown in FIG. 所定の交差点に接近中である自車両と交差点の奥側に位置する他車両とその周辺環境を示した俯瞰図である。It is the bird's-eye view which showed the own vehicle which is approaching a predetermined | prescribed intersection, the other vehicle located in the back | inner side of an intersection, and its surrounding environment. 図10に示す状況での他車両の前方カメラで撮像した前方撮像画像を示した図である。It is the figure which showed the front captured image imaged with the front camera of the other vehicle in the condition shown in FIG. 図7に示す状況でステップ27の画像の投影処理を行う前における自車両の運転席からの視界風景を示した図である。It is the figure which showed the view scenery from the driver's seat of the own vehicle before performing the image projection process of step 27 in the condition shown in FIG. 図7に示す状況でステップ27の画像の投影処理を行った後における自車両の運転席からの視界風景を示した図である。It is the figure which showed the view scenery from the driver's seat of the own vehicle after performing the projection process of the image of step 27 in the condition shown in FIG. 従来技術の問題点を説明した説明図である。It is explanatory drawing explaining the problem of the prior art.

符号の説明Explanation of symbols

1 運転支援装置
2 車両
4 通信装置
5 前方カメラ
6 後方カメラ
11 運転支援ECU
14 プロジェクタ
15 現在位置検出部
31 CPU
32 ROM
33 RAM
DESCRIPTION OF SYMBOLS 1 Driving assistance apparatus 2 Vehicle 4 Communication apparatus 5 Front camera 6 Rear camera 11 Driving assistance ECU
14 Projector 15 Current Position Detection Unit 31 CPU
32 ROM
33 RAM

Claims (6)

他車両において撮像された撮像画像を取得する画像取得手段と、
前記画像取得手段で取得された複数の撮像画像の内、自車両からの死角を撮像した撮像画像を選択する画像選択手段と、
前記画像選択手段で選択された撮像画像を前記自車両からの死角の方向に対して投影する投影手段と、を有することを特徴とする運転支援装置。
Image acquisition means for acquiring a captured image captured in another vehicle;
Image selection means for selecting a captured image obtained by imaging a blind spot from the own vehicle among a plurality of captured images acquired by the image acquisition means;
Projecting means for projecting the captured image selected by the image selection means in the direction of a blind spot from the host vehicle.
前記画像選択手段によって選択された撮像画像中から自車両の死角となる範囲の画像を抽出する画像抽出手段と、
前記投射手段は前記画像抽出手段によって抽出された抽出画像を前記自車両からの死角の方向へと投影することを特徴とする請求項1に記載の運転支援装置。
Image extracting means for extracting an image of a range that is a blind spot of the host vehicle from the captured image selected by the image selecting means;
The driving support apparatus according to claim 1, wherein the projecting unit projects the extracted image extracted by the image extracting unit in a direction of a blind spot from the host vehicle.
自車両の現在位置を取得する自車両位置取得手段と、
他車両において前記撮像画像が撮像されたときの他車両の位置を取得する他車両位置取得手段と、を有し、
前記画像抽出手段は前記自車両位置取得手段で取得した自車両の現在位置と前記他車両位置取得手段で取得した他車両の位置とに基づいて、自車両からの死角となる範囲の画像を抽出することを特徴とする請求項2に記載の運転支援装置。
Own vehicle position acquisition means for acquiring the current position of the own vehicle;
Other vehicle position acquisition means for acquiring the position of the other vehicle when the captured image is captured in the other vehicle,
The image extraction means extracts an image of a range that becomes a blind spot from the own vehicle based on the current position of the own vehicle acquired by the own vehicle position acquisition means and the position of the other vehicle acquired by the other vehicle position acquisition means. The driving support device according to claim 2, wherein
自車両の現在位置を取得する自車両位置取得手段と、
他車両において前記撮像画像が撮像されたときの他車両の位置を取得する他車両位置取得手段と、を有し、
前記画像選択手段は前記自車両位置取得手段で取得した自車両の現在位置と前記他車両位置取得手段で取得した他車両の位置とに基づいて、自車両からの死角を撮像した撮像画像を選択することを特徴とする請求項1乃至請求項3のいずれかに記載の運転支援装置。
Own vehicle position acquisition means for acquiring the current position of the own vehicle;
Other vehicle position acquisition means for acquiring the position of the other vehicle when the captured image is captured in the other vehicle,
The image selection means selects a captured image obtained by imaging a blind spot from the own vehicle based on the current position of the own vehicle acquired by the own vehicle position acquisition means and the position of the other vehicle acquired by the other vehicle position acquisition means. The driving support device according to any one of claims 1 to 3, wherein the driving support device is provided.
自車両の前方に交差点があるか否か判定する交差点判定手段と、
前記交差点判定手段において自車両の前方に交差点があると判定された場合に、前記他車両位置取得手段で取得した他車両の位置が前記交差点の自車両進行方向の手前側にあるか否か判定する手前位置判定手段と、を有し、
前記画像選択手段は前記手前位置判定手段によって他車両の位置が前記交差点の自車両進行方向の手前側にあると判定された場合に、その他車両で撮像された後方撮像画像を選択することを特徴とする請求項4に記載の運転支援装置。
Intersection determination means for determining whether there is an intersection in front of the host vehicle;
When it is determined by the intersection determination means that there is an intersection ahead of the own vehicle, it is determined whether or not the position of the other vehicle acquired by the other vehicle position acquisition means is on the near side in the traveling direction of the own vehicle. Front position determination means for performing,
The image selection unit selects a rear captured image captured by the other vehicle when the near position determination unit determines that the position of the other vehicle is on the near side of the intersection in the traveling direction of the host vehicle. The driving support apparatus according to claim 4.
前記手前位置判定手段によって他車両の位置が前記交差点の自車両進行方向の手前側にないと判定された場合に、前記画像選択手段は前記交差点の自車両進行方向の奥側にある他車両で撮像された前方撮像画像を選択することを特徴とする請求項5に記載の運転支援装置。
When it is determined by the near position determination means that the position of the other vehicle is not on the near side of the intersection in the traveling direction of the own vehicle, the image selection means is an other vehicle on the far side of the intersection in the traveling direction of the own vehicle. The driving support apparatus according to claim 5, wherein a captured front captured image is selected.
JP2007089110A 2007-03-29 2007-03-29 Operation support device Withdrawn JP2008250503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007089110A JP2008250503A (en) 2007-03-29 2007-03-29 Operation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007089110A JP2008250503A (en) 2007-03-29 2007-03-29 Operation support device

Publications (1)

Publication Number Publication Date
JP2008250503A true JP2008250503A (en) 2008-10-16

Family

ID=39975406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007089110A Withdrawn JP2008250503A (en) 2007-03-29 2007-03-29 Operation support device

Country Status (1)

Country Link
JP (1) JP2008250503A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4909451B1 (en) * 2011-03-28 2012-04-04 パイオニア株式会社 Information display apparatus and control method
JP2014206888A (en) * 2013-04-15 2014-10-30 本田技研工業株式会社 Driving support system of vehicle
JP2014229102A (en) * 2013-05-23 2014-12-08 日産自動車株式会社 Vehicular display device
JP2017055177A (en) * 2015-09-07 2017-03-16 株式会社東芝 Image processing apparatus, image processing program, and image processing system
JP2017162472A (en) * 2016-03-08 2017-09-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Information system for vehicles
WO2018002984A1 (en) * 2016-06-27 2018-01-04 日産自動車株式会社 Vehicle control method and vehicle control device
CN107968806A (en) * 2016-10-20 2018-04-27 福特环球技术公司 Vehicle communication and image projection system
JP2018074315A (en) * 2016-10-27 2018-05-10 学校法人立命館 Image display system, image display method, and computer program
JP2018073036A (en) * 2016-10-27 2018-05-10 学校法人立命館 Image acquisition method, image display system, and computer program
CN108583433A (en) * 2018-03-14 2018-09-28 斑马网络技术有限公司 Automobile auxiliary display system and its auxiliary display method
JP2019050622A (en) * 2018-11-28 2019-03-28 株式会社東芝 Image processing apparatus, image processing method, image processing program, and image processing system
US10262533B2 (en) 2017-03-17 2019-04-16 Toshiba Memory Corporation Moving object and driving support system for moving object
JP2019200608A (en) * 2018-05-16 2019-11-21 トヨタ自動車株式会社 Vehicle outside information sharing system, vehicle outside information sharing device, and vehicle outside information sharing method
WO2021015071A1 (en) * 2019-07-22 2021-01-28 株式会社デンソー Vehicle driving assistance system
WO2021048966A1 (en) * 2019-09-12 2021-03-18 三菱電機株式会社 Drive assistance device, vehicle control device, drive assistance system, and drive assistance method
JPWO2021229780A1 (en) * 2020-05-15 2021-11-18

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4909451B1 (en) * 2011-03-28 2012-04-04 パイオニア株式会社 Information display apparatus and control method
JP2014206888A (en) * 2013-04-15 2014-10-30 本田技研工業株式会社 Driving support system of vehicle
JP2014229102A (en) * 2013-05-23 2014-12-08 日産自動車株式会社 Vehicular display device
JP2017055177A (en) * 2015-09-07 2017-03-16 株式会社東芝 Image processing apparatus, image processing program, and image processing system
CN107170266B (en) * 2016-03-08 2022-10-11 罗伯特·博世有限公司 Information system for a motor vehicle, method and control device
JP2017162472A (en) * 2016-03-08 2017-09-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Information system for vehicles
CN107170266A (en) * 2016-03-08 2017-09-15 罗伯特·博世有限公司 Information system and method and control device for motor vehicle
WO2018002984A1 (en) * 2016-06-27 2018-01-04 日産自動車株式会社 Vehicle control method and vehicle control device
CN109416883A (en) * 2016-06-27 2019-03-01 日产自动车株式会社 Control method for vehicle and controller of vehicle
US10493984B2 (en) 2016-06-27 2019-12-03 Nissan Motor Co., Ltd. Vehicle control method and vehicle control device
JPWO2018002984A1 (en) * 2016-06-27 2019-04-11 日産自動車株式会社 Vehicle control method and vehicle control apparatus
CN107968806A (en) * 2016-10-20 2018-04-27 福特环球技术公司 Vehicle communication and image projection system
JP2018074315A (en) * 2016-10-27 2018-05-10 学校法人立命館 Image display system, image display method, and computer program
JP2018073036A (en) * 2016-10-27 2018-05-10 学校法人立命館 Image acquisition method, image display system, and computer program
US10262533B2 (en) 2017-03-17 2019-04-16 Toshiba Memory Corporation Moving object and driving support system for moving object
US11315420B2 (en) 2017-03-17 2022-04-26 Kioxia Corporation Moving object and driving support system for moving object
US10636304B2 (en) 2017-03-17 2020-04-28 Toshiba Memory Corporation Moving object and driving support system for moving object
CN108583433A (en) * 2018-03-14 2018-09-28 斑马网络技术有限公司 Automobile auxiliary display system and its auxiliary display method
CN110497904A (en) * 2018-05-16 2019-11-26 丰田自动车株式会社 Vehicle external information shared system, device and method
JP2019200608A (en) * 2018-05-16 2019-11-21 トヨタ自動車株式会社 Vehicle outside information sharing system, vehicle outside information sharing device, and vehicle outside information sharing method
CN110497904B (en) * 2018-05-16 2022-09-23 丰田自动车株式会社 Vehicle exterior information sharing system, device and method
JP2019050622A (en) * 2018-11-28 2019-03-28 株式会社東芝 Image processing apparatus, image processing method, image processing program, and image processing system
WO2021015071A1 (en) * 2019-07-22 2021-01-28 株式会社デンソー Vehicle driving assistance system
JP2021018648A (en) * 2019-07-22 2021-02-15 株式会社デンソー Vehicle driving support system
JP7306132B2 (en) 2019-07-22 2023-07-11 株式会社デンソー Vehicle driving support system
JPWO2021048966A1 (en) * 2019-09-12 2021-03-18
WO2021048966A1 (en) * 2019-09-12 2021-03-18 三菱電機株式会社 Drive assistance device, vehicle control device, drive assistance system, and drive assistance method
JP7321277B2 (en) 2019-09-12 2023-08-04 三菱電機株式会社 Driving support device, vehicle control device, driving support system, and driving support method
JPWO2021229780A1 (en) * 2020-05-15 2021-11-18
WO2021229780A1 (en) * 2020-05-15 2021-11-18 三菱電機株式会社 Communication control device, caravan travel control device, communication system, and communication control method
JP7246572B2 (en) 2020-05-15 2023-03-27 三菱電機株式会社 Communication control device, platooning control device, communication system and communication control method

Similar Documents

Publication Publication Date Title
JP2008250503A (en) Operation support device
US11972615B2 (en) Vehicular control system
US10449971B2 (en) Travel control device
US20190213428A1 (en) Method for providing vehicular parking assistance
US9507345B2 (en) Vehicle control system and method
JP6252304B2 (en) Vehicle recognition notification device, vehicle recognition notification system
JP4434224B2 (en) In-vehicle device for driving support
JP6402684B2 (en) Display device
CN112703540B (en) Driving assistance method and driving assistance device
JP4792948B2 (en) Inter-vehicle communication system
US20190135169A1 (en) Vehicle communication system using projected light
CN107406072B (en) Vehicle assistance system
JP4930187B2 (en) Driving support system
JP2008222153A (en) Merging support device
JP2009231938A (en) Surrounding monitoring device for vehicle
JP2000090393A (en) On-vehicle-type travel route environment recognition device
US11749105B2 (en) Vehicular communication system with turn signal identification
JP2003205805A (en) Operation supporting device for vehicle
JP4802686B2 (en) Inter-vehicle communication system
JP5274984B2 (en) Driving support system
US11600181B2 (en) Saddle-riding type vehicle
JP4986070B2 (en) Ambient monitoring device for vehicles
JP2006344133A (en) Road division line detector
JP2008250453A (en) Drive support device and method
JP4725310B2 (en) Inter-vehicle communication system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601