JP2010134640A - Information acquisition apparatus - Google Patents

Information acquisition apparatus Download PDF

Info

Publication number
JP2010134640A
JP2010134640A JP2008308908A JP2008308908A JP2010134640A JP 2010134640 A JP2010134640 A JP 2010134640A JP 2008308908 A JP2008308908 A JP 2008308908A JP 2008308908 A JP2008308908 A JP 2008308908A JP 2010134640 A JP2010134640 A JP 2010134640A
Authority
JP
Japan
Prior art keywords
vehicle
information
video
driver
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008308908A
Other languages
Japanese (ja)
Inventor
Shinsuke Ueda
信介 植田
Akio Takahashi
昭夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008308908A priority Critical patent/JP2010134640A/en
Publication of JP2010134640A publication Critical patent/JP2010134640A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information acquisition apparatus that can accurately and quickly present a driver with information about surrounding roads by reducing unnecessary information exchange. <P>SOLUTION: The information acquisition apparatus includes a transmission/reception part 11 for acquiring information about other vehicles present about an associated vehicle, a cabin imaging camera 18 and a sight line sensor 17 for detecting a driver's sight point position, and a switch 16 arranged in a cabin for the driver's operation input. When the input is made into the switch 16 while the driver's sight point position matches the position of another vehicle, the transmission/reception part 11 obtains video imaged by that vehicle and position information related to the video. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、自動車等の車両に搭載される情報取得装置に関するものである。   The present invention relates to an information acquisition device mounted on a vehicle such as an automobile.

従来から、自車両が走行する車線の道路関連情報を取得する情報取得装置が知られている。この情報取得装置は、路車間通信により道路関連情報を路側設備より受信して取得する構成となっている。そのため、路側に多くの通信設備を設ける必要があり、近年、道路上ですれ違う車両から自車両の進行方向の道路情報を車車間通信により取得するものが提案されている(例えば、特許文献1参照)。
特開2006−72472号公報
Conventionally, an information acquisition device that acquires road-related information of a lane in which the host vehicle travels is known. This information acquisition device is configured to receive and acquire road-related information from roadside equipment by road-to-vehicle communication. Therefore, it is necessary to provide a lot of communication facilities on the road side, and in recent years, there has been proposed a method for acquiring road information in the traveling direction of the host vehicle from a vehicle passing on the road by inter-vehicle communication (for example, see Patent Document 1). ).
JP 2006-72472 A

しかしながら、上述の情報取得装置においては、対向車が多数の場合、全ての対向車に対して道路情報の送受信を行うことで必要以上の情報が車車間通信により受信されて膨大な記憶容量が必要になるという課題がある。
また、無差別に道路情報を受信した場合、膨大な情報量を処理するための時間が必要となり、道路情報の迅速な表示が行えなくなる場合がある。さらに、受信情報が多すぎることで運転者が道路情報を正確に把握できない場合がある。
However, in the above-described information acquisition device, when there are a large number of oncoming vehicles, more than necessary information is received by inter-vehicle communication by transmitting and receiving road information to all oncoming vehicles, and a huge storage capacity is required. There is a problem of becoming.
In addition, when road information is received indiscriminately, it takes time to process an enormous amount of information, and it may be impossible to display road information quickly. Furthermore, the driver may not be able to accurately grasp road information due to too much received information.

この発明は、上記事情に鑑みてなされたものであり、不必要な情報の送受信を低減して周辺道路に関する情報を正確且つ迅速に運転者に提示可能な情報取得装置を提供するものである。   The present invention has been made in view of the above circumstances, and provides an information acquisition device capable of reducing information transmission / reception unnecessary and presenting information on surrounding roads to a driver accurately and quickly.

上記の課題を解決するために、請求項1に記載した発明は、自車両周辺に存在する他車両に関する情報を取得する取得手段(例えば、実施の形態における送受信部11)を備えた情報取得装置であって、運転者の視点位置を検知する視線検知手段(例えば、実施の形態における車内映像撮影カメラ18及び視線センサ17)と、車両室内に配置されて運転者による操作入力が可能な入力手段(例えば、実施の形態におけるスイッチ16)とを備え、前記取得手段は、前記他車両の位置と前記運転者の視点位置とが一致した状態で前記入力手段からの入力があったときに、前記他車両により撮影された映像と該映像に関連する位置情報とを取得することを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 is an information acquisition apparatus including an acquisition unit (for example, the transmission / reception unit 11 in the embodiment) that acquires information related to other vehicles existing around the host vehicle. The line-of-sight detecting means for detecting the viewpoint position of the driver (for example, the in-vehicle video camera 18 and the line-of-sight sensor 17 in the embodiment) and the input means arranged in the vehicle compartment and capable of operation input by the driver. (E.g., the switch 16 in the embodiment), and the acquisition unit receives the input from the input unit when the position of the other vehicle and the viewpoint position of the driver coincide with each other. A video captured by another vehicle and position information related to the video are acquired.

請求項2に記載した発明は、請求項1に記載の発明において、道路地図を表示可能な表示手段(例えば、実施の形態におけるナビディスプレイ14、HUD15)を備え、該表示手段は、前記取得した位置情報が自車両から所定範囲内であった場合に、前記位置情報に対応する位置を前記道路地図上に重ねて表示することを特徴とする。   The invention described in claim 2 is provided with display means (for example, the navigation display 14 and HUD 15 in the embodiment) capable of displaying a road map in the invention described in claim 1, and the display means acquires the acquired information. When the position information is within a predetermined range from the host vehicle, the position corresponding to the position information is displayed superimposed on the road map.

請求項1に記載した発明によれば、視線検知手段により検知した視点位置と他車両の位置とが一致した状態で入力手段から入力があったとき、すなわち運転者により視認されている他車両を入力手段を介して選択したときに、この他車両により撮影された映像および、映像を撮像した位置などの映像に関連する位置情報だけを自車両が取得するため、不必要な映像の送受信を低減して他車両の撮像した映像とこの映像に関連する位置情報とを正確且つ迅速に運転者に提示可能になるという効果がある。
また、上記のように映像を運転者に提示することで、進行方向の交通状況、路面状況、天候などを確認することが可能となる。
According to the first aspect of the present invention, when there is an input from the input means in a state where the viewpoint position detected by the line-of-sight detection means coincides with the position of the other vehicle, that is, the other vehicle being visually recognized by the driver. When the vehicle is selected via the input means, the host vehicle acquires only the position information related to the image captured by the other vehicle and the image such as the position where the image was captured, thereby reducing unnecessary image transmission / reception. Thus, there is an effect that it is possible to present the video captured by the other vehicle and the position information related to the video to the driver accurately and quickly.
In addition, by presenting the video to the driver as described above, it is possible to confirm the traffic situation in the traveling direction, the road surface condition, the weather, and the like.

請求項2に記載した発明によれば、表示手段に表示される道路地図に対して、取得手段を介して取得した映像に関する位置情報すなわち、撮影位置を重ねて表示することで、運転者が、映像を撮影した位置を映像を見ながら容易に把握することができる効果がある。   According to the invention described in claim 2, by displaying the position information related to the image acquired through the acquisition unit, that is, the shooting position superimposed on the road map displayed on the display unit, the driver can There is an effect that the position where the video is taken can be easily grasped while viewing the video.

次に、この発明の第1の実施の形態における情報取得装置について図面を参照しながら説明する。
図1に示すように、この第1の実施の形態に係る情報取得装置10は、自動車等の車両に搭載されるものであって、送受信部11と、自車位置検出部12と、記憶部13と、ナビディスプレイ14と、HUD(ヘッドアップディスプレイ)15と、スイッチ16と、視線センサ17と、車内映像撮影カメラ18と、車外映像撮影カメラ20と、処理部21とを備えて構成されている。
Next, an information acquisition apparatus according to a first embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the information acquisition apparatus 10 according to the first embodiment is mounted on a vehicle such as an automobile, and includes a transmission / reception unit 11, a vehicle position detection unit 12, and a storage unit. 13, a navigation display 14, a HUD (head-up display) 15, a switch 16, a line-of-sight sensor 17, an in-vehicle image capturing camera 18, an out-of-vehicle image capturing camera 20, and a processing unit 21. Yes.

送受信部11は、自車両周辺の他車両と車車間通信によって情報の送受を行うものであり、自車両又は他車両の撮像した映像および、この映像を撮像した位置や時間などのデータの送受を行う。ここで、自車両には、後述する車外映像撮影カメラ20が設けられ、この車外映像撮影カメラ20により車両の前後方向の映像が撮像される。また、車車間通信により映像の送受が行われる他車両にも、自車両と同様の車外映像撮影カメラ20が設けられている。   The transmission / reception unit 11 transmits and receives information by inter-vehicle communication with other vehicles around the own vehicle, and transmits and receives data such as a captured image of the own vehicle or the other vehicle, and a position and time at which the image is captured. Do. Here, the vehicle's own vehicle is provided with a video camera 20 outside the vehicle, which will be described later. Also, other vehicles that transmit and receive video by inter-vehicle communication are provided with an outside-vehicle video camera 20 similar to that of the host vehicle.

自車位置検出部12は、例えば、人工衛星を利用して車両の位置を測定するためのGPS(Global Position System)信号や、GPS信号の誤差を補正して測位精度を向上させるためのD(Differential)GPS信号等の測位信号を処理する測位信号処理部(図示略)と、例えばVICS情報等のように車外の情報発信装置(図示略)から発信される車両位置検出用の信号波を処理する位置検出用信号波処理部(図示略)と、例えば適宜のジャイロセンサー及び加速度計を具備してなる自律航法部(図示略)とを備えて構成されている。   The own vehicle position detection unit 12 uses, for example, a GPS (Global Position System) signal for measuring the position of the vehicle using an artificial satellite, or D (for correcting the error of the GPS signal and improving the positioning accuracy. Differential) A positioning signal processing unit (not shown) for processing a positioning signal such as a GPS signal and a signal wave for vehicle position detection transmitted from an information transmitting device (not shown) outside the vehicle, such as VICS information, for example. And a position detection signal wave processing unit (not shown) and an autonomous navigation unit (not shown) including an appropriate gyro sensor and an accelerometer, for example.

ここで、測位信号処理部は、例えば人工衛星から受信したGPS信号や、適宜の基地局から受信したDGPS信号に基づいて車両の現在位置を算出する。
また、上記位置検出用信号波処理部は、例えばFM多重放送や路上等に配置されたビーコン装置からの光信号及び電波信号によって受信したVICS情報等の道路交通情報に基づいて車両の現在位置を算出する。
さらに、上記自律航法部は、例えばジャイロセンサーにより、水平面内での車両の向き及び鉛直方向に対する傾斜角度の角度変化量を検出すると共に、例えば加速度計により車両の加速度を検出して車両の現在位置を算出する。
Here, the positioning signal processing unit calculates the current position of the vehicle based on, for example, a GPS signal received from an artificial satellite or a DGPS signal received from an appropriate base station.
The position detection signal wave processing unit determines the current position of the vehicle based on road traffic information such as VICS information received by an optical signal and a radio signal from, for example, FM multiplex broadcasting or a beacon device arranged on the road. calculate.
Further, the autonomous navigation unit detects the angle change amount of the inclination angle with respect to the direction of the vehicle in the horizontal plane and the vertical direction by using, for example, a gyro sensor, and detects the acceleration of the vehicle by using, for example, an accelerometer to detect the current position of the vehicle. Is calculated.

記憶部13は、例えばハードディスク装置等の磁気ディスク装置や、DVD等の光ディスク装置等、コンピュータ読み取り可能な記憶媒体からなり、いわゆるカーナビゲーション装置で用いる地図データ、より具体的には高架道路や陸橋、ビル等の構造物、及び、山や丘や樹木等の自然物等からなるオブジェクトを、2次元的及び3次元的にナビディスプレイ14およびHUD15に表示するための地図データをそれぞれ格納している。   The storage unit 13 is composed of a computer-readable storage medium such as a magnetic disk device such as a hard disk device or an optical disk device such as a DVD, for example, map data used in a so-called car navigation device, more specifically, an elevated road or an overpass, It stores map data for displaying structures such as buildings and natural objects such as mountains, hills and trees on the navigation display 14 and the HUD 15 two-dimensionally and three-dimensionally.

ナビディスプレイ14は、いわゆるカーナビゲーション用の画面表示を行う液晶などのディスプレイであり、車室内のセンターコンソール上部に配置される。ナビディスプレイ14は、処理部21の表示制御にしたがって例えば、現在地周辺などの地図上に、自車両の現在地や目的地、誘導ルート等を重畳して表示する。   The navigation display 14 is a display such as a liquid crystal that displays a screen for so-called car navigation, and is arranged on the center console in the vehicle interior. The navigation display 14 superimposes and displays the current location, the destination, the guidance route, and the like of the host vehicle on a map around the current location, for example, according to the display control of the processing unit 21.

HUD15は、車両のインスツルメントパネル上部の運転席の正面における、運転者の前方視界を妨げない位置に設けられ、その映像表示部として凹面ミラーを備え、インスツルメントパネル内部からの映像を反射・投影する。   The HUD 15 is provided in a position in front of the driver's seat at the top of the instrument panel of the vehicle at a position that does not obstruct the driver's front view, and has a concave mirror as its image display part, and reflects the image from inside the instrument panel.・ Project.

スイッチ16は、例えば、ステアリングホイールに配置される押しボタン式等のスイッチであり、運転者が視認している対向車(他車両)から情報を取得する意思があることを入力するための入力手段である。このスイッチ16が押下されるとその入力情報は処理部21へ出力される。なお、スイッチ16からの入力をキャンセルするキャンセルボタンを設けるようにしてもよい。   The switch 16 is, for example, a push button type switch disposed on the steering wheel, and is an input means for inputting that there is an intention to acquire information from an oncoming vehicle (other vehicle) that is visually recognized by the driver. It is. When the switch 16 is pressed, the input information is output to the processing unit 21. A cancel button for canceling the input from the switch 16 may be provided.

視線センサ17は、車内映像撮影カメラ18から入力される画像データに対して、例えば運転者の顔や眼球を検知対象物とした特徴量算出および形状判別等の認識処理を行い、認識した検知対象物に基づき、運転者の視線ベクトルを算出し、さらに、この視線ベクトルに基づき、視線の対象位置(以下、視点位置という)を求める。そして、この視点位置のデータを処理部21へ出力する
なお、画像データの認識処理において、特徴量算出の処理では、例えば二値化処理後の画像データに対して、画素の連続性に基づく検知対象物の抽出及びラベリングを行い、抽出した検知対象物の重心及び面積及び外接四角形の縦横比等を算出する。また、形状判別の処理では、例えば予め記憶している所定パターン(例えば輪郭等)に基づき画像データ上の検索を行い、所定パターンとの類似性に応じて検知対象物を抽出する。
The line-of-sight sensor 17 performs recognition processing such as feature amount calculation and shape determination using the driver's face and eyeball as a detection target, for example, on the image data input from the in-vehicle video camera 18, and the detected detection target The driver's line-of-sight vector is calculated based on the object, and further, the target position of the line-of-sight (hereinafter referred to as the viewpoint position) is obtained based on the line-of-sight vector. Then, the viewpoint position data is output to the processing unit 21. In the image data recognition processing, in the feature amount calculation processing, for example, detection based on pixel continuity is performed on the image data after binarization processing. The object is extracted and labeled, and the center of gravity and area of the extracted detection object and the aspect ratio of the circumscribed rectangle are calculated. In the shape determination process, for example, a search on image data is performed based on a predetermined pattern (for example, an outline) stored in advance, and a detection target is extracted according to the similarity to the predetermined pattern.

車内映像撮影カメラ18は、車室内のインストルメントパネルやダッシュボード上部等に設けられ、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラやC−MOSカメラ等により構成される。車内映像撮影カメラ18は、運転者の顔や眼球に向けて照射された赤外線の反射や、運転者の顔や眼球から反射される可視光を撮影する。そして、車内映像撮影カメラ18は、撮影した画像に対してフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成してこの画像データを視線センサ17へ出力する。   The in-vehicle video camera 18 is provided on an instrument panel, an upper dashboard, or the like in the passenger compartment, and is configured by, for example, a CCD camera or a C-MOS camera that can capture images in the visible light region or the infrared region. The in-vehicle image capturing camera 18 captures infrared light reflected toward the driver's face and eyeball and visible light reflected from the driver's face and eyeball. The in-vehicle video camera 18 performs predetermined image processing such as filtering and binarization processing on the captured image, generates image data composed of pixels in a two-dimensional array, and uses this image data as the line-of-sight sensor 17. Output to.

車外映像撮影カメラ20は、車両前方および後方の所定範囲を撮影するカメラであり、例えば車室内前方のルームミラーの近傍やリアガラス上部付近等にそれぞれ取り付けられ、撮影した画像に対して所定の画像処理を行い、二次元配列の画素からなる画像データを生成してこの生成した画像データを処理部21へ出力する。   The outside-vehicle video camera 20 is a camera that captures a predetermined range in front and rear of the vehicle, and is attached to, for example, the vicinity of a rear-view mirror in front of the vehicle interior or the upper part of the rear glass, and performs predetermined image processing on the captured image. The image data composed of the pixels of the two-dimensional array is generated, and the generated image data is output to the processing unit 21.

処理部21は、記憶部13から検索された地図データに対して、自車位置検出部12における測位信号処理部及び道路交通情報処理部及び自律航法部のそれぞれ、又は、何れかから得られる車両の現在位置の情報に基づいてマップマッチング等を行うと共に、後述するように、検出された車両の現在位置から見た進行方向の3D画像(周辺画像)を記憶部13より読み出してHUD15へ表示する制御を行う。   The processing unit 21 is a vehicle obtained from each or any of the positioning signal processing unit, the road traffic information processing unit, and the autonomous navigation unit in the vehicle position detection unit 12 with respect to the map data retrieved from the storage unit 13. Map matching is performed based on the current position information, and a 3D image (peripheral image) in the traveling direction viewed from the detected current position of the vehicle is read from the storage unit 13 and displayed on the HUD 15 as will be described later. Take control.

また、処理部21は、ナビゲーション機能として、自車位置検出部12により検出される自車位置情報に基づいて走行軌跡を記憶部13へ記憶するとともに、記憶部13から地図データおよび走行軌跡を読み出して、マップマッチングなどの処理を行って地図上における自車両の現在位置を特定する。そして、ナビディスプレイ14の表示制御を行い、自車両の現在位置および走行軌跡などを地図上に表示させる。   Further, as a navigation function, the processing unit 21 stores a travel locus in the storage unit 13 based on the vehicle position information detected by the vehicle position detection unit 12 and reads map data and a travel locus from the storage unit 13. Then, the current position of the host vehicle on the map is specified by performing processing such as map matching. Then, the display control of the navigation display 14 is performed, and the current position of the host vehicle, the travel locus, and the like are displayed on the map.

さらに、処理部21は、車外映像撮影カメラ20によって撮影された画像データに対して車両の特徴量算出、形状判別の処理、および、対象物の同一性の判定を行うことで他車両を特定し、さらに、当該画像に含まれる他車両の相対位置を特定する。   Further, the processing unit 21 specifies another vehicle by performing vehicle feature amount calculation, shape determination processing, and object identity determination on the image data captured by the outside-camera image capturing camera 20. Further, the relative position of the other vehicle included in the image is specified.

そして処理部21は、スイッチ16の入力結果に基づいて、他車両の相対位置が視線センサ17による視点位置と一致するか判定して、相対位置が視点位置と一致する他車両が存在する場合に、この他車両に送受信部11を介して自車両の進行方向の道路情報より具体的には、他車両の車外映像撮影カメラ20によって撮影された過去数分間の映像(例えば動画)および撮影位置を送信する旨の要求信号を出力する。処理部21は、他車からの映像及び撮影位置のデータが受信されると、これら映像及び撮影位置のデータを記憶部13へ記憶する。   Then, the processing unit 21 determines whether the relative position of the other vehicle matches the viewpoint position by the line-of-sight sensor 17 based on the input result of the switch 16, and when there is another vehicle whose relative position matches the viewpoint position. More specifically, the road information in the traveling direction of the own vehicle is transmitted to the other vehicle via the transmission / reception unit 11. More specifically, the video (for example, a moving image) and the shooting position of the other vehicle taken by the outside video shooting camera 20 are displayed. A request signal for transmission is output. When the video and the shooting position data from another vehicle are received, the processing unit 21 stores the video and the shooting position data in the storage unit 13.

また、処理部21は、送受信部11から受信されて記憶部13へ記憶された映像をHUD15へ表示させる。この際、HUD15に表示される後述の相対位置表示窓31などに、映像が撮影された撮影位置を適宜の形式で表示する。他車両において車両前方と車両後方との両方向の映像が撮影されている場合には、前方映像と後方映像とがスイッチ16が押下される毎に交互に切替えられる。なお、映像が撮影された撮影位置をHUD15に表示する場合について説明したが、ナビディスプレイ14に表示させるようにしてもよい。   In addition, the processing unit 21 displays the video received from the transmission / reception unit 11 and stored in the storage unit 13 on the HUD 15. At this time, the shooting position where the video was shot is displayed in an appropriate format on a relative position display window 31 described later displayed on the HUD 15. When images in both directions of the vehicle front and the vehicle rear are taken in another vehicle, the front image and the rear image are alternately switched each time the switch 16 is pressed. Although the case where the shooting position where the video was shot is displayed on the HUD 15 has been described, it may be displayed on the navigation display 14.

この第1の実施の形態による情報取得装置10は上述した構成を備えており、次に、この情報取得装置10の動作について図2のフローチャート及び図3〜図7を参照しながら説明する。
まずステップS01においては、自車位置検出部12より自車両の現在位置を取得する。
次いでステップS02においては、送受信部11より他車の走行情報などの車両周辺情報を取得する。
The information acquisition apparatus 10 according to the first embodiment has the above-described configuration. Next, the operation of the information acquisition apparatus 10 will be described with reference to the flowchart of FIG. 2 and FIGS.
First, in step S01, the current position of the host vehicle is acquired from the host vehicle position detection unit 12.
Next, in step S <b> 02, vehicle periphery information such as travel information of other vehicles is acquired from the transmission / reception unit 11.

ステップS03においては、車内映像撮影カメラ18の撮影結果に基づいて、視線センサ17により運転者の視点位置を検出する。
ステップS04においては、スイッチ16が押下されたか否かを判定する。
ステップS04における判定結果が「No」(押下されていない)である場合は、運転者に映像取得の意思がないため本ルーチンの実行を一旦終了する。
In step S03, the viewpoint position of the driver is detected by the line-of-sight sensor 17 based on the photographing result of the in-vehicle video photographing camera 18.
In step S04, it is determined whether or not the switch 16 has been pressed.
If the determination result in step S04 is “No” (not pressed), the execution of this routine is temporarily terminated because the driver does not intend to acquire a video.

一方、ステップS04における判定結果が「Yes」(押下された)である場合は、ステップS05へ進み、視点位置に車両(他車両)が存在するか否かを判定する。
ここで、図3は、運転者の後方から車両前方を見た景色を示しており、運転者Dがフロントガラス越しに対向車である他車両Cを注視しながらスイッチ16を押下している。なお、図3において、符号Fは先行車両を示し、運転者Dの視線を破線矢印で示す。また、図3では、図示都合上、先行車両Fおよび他車両Cを二次元画像で示している。
On the other hand, if the determination result in step S04 is “Yes” (pressed), the process proceeds to step S05 to determine whether or not a vehicle (another vehicle) exists at the viewpoint position.
Here, FIG. 3 shows a view of the front of the vehicle from behind the driver, and the driver D presses the switch 16 while gazing at the other vehicle C that is an oncoming vehicle through the windshield. In FIG. 3, the symbol F indicates a preceding vehicle, and the line of sight of the driver D is indicated by a dashed arrow. In FIG. 3, for convenience of illustration, the preceding vehicle F and the other vehicle C are shown as two-dimensional images.

ステップS05における判定結果が「No」(車両なし)である場合は、映像の送信元が存在しないので本ルーチンの実行を一旦終了する。
ステップS05における判定結果が「Yes」(車両あり)である場合は、ステップS06へ進み、視点位置に存在する車両へ映像および位置情報の要求を行い、視点位置に存在する車両により撮影された映像及び映像を撮影した位置のデータ(映像・位置情報)を取得する。
If the determination result in step S05 is “No” (no vehicle), the execution of this routine is temporarily terminated because there is no video transmission source.
If the determination result in step S05 is “Yes” (there is a vehicle), the process proceeds to step S06, a video and position information request is made to the vehicle existing at the viewpoint position, and the video captured by the vehicle present at the viewpoint position In addition, data on the position where the video was shot (video / position information) is acquired.

ここで、図4は、視点位置に存在する車両すなわち他車両Cが進行方向前方を撮影(以下、単に前方撮影という)する際の撮影範囲Aと、自車両Jに送信される映像の撮影距離L1を示したものであり、自車両Jと他車両Cとが車車間通信により映像の送受を行う直前までの過去数分間の映像である。また、図5は、他車両の進行方向に対して後方を撮影(以下、単に後方撮影という)する際の撮影範囲Bと、自車両Jに送信される映像の撮影距離L2を示したものである。上述した撮影距離L1と撮影距離L2とは映像データの容量に応じたものであり基本的に等距離に設定される。
なお、所定時間経過しても視点位置に存在する車両からの映像及び位置情報が受信されない場合、この車両が道路の映像を撮像する機能を有していない場合があるため、この場合は本ルーチンの実行は一旦終了される。
Here, FIG. 4 shows the shooting range A when the vehicle existing at the viewpoint position, that is, the other vehicle C, images the front in the traveling direction (hereinafter simply referred to as forward shooting) and the shooting distance of the image transmitted to the host vehicle J. L1 is an image of the past few minutes until immediately before the own vehicle J and the other vehicle C transmit and receive the image by inter-vehicle communication. FIG. 5 shows a shooting range B when shooting the rear of the other vehicle in the traveling direction (hereinafter simply referred to as “backward shooting”) and a shooting distance L2 of the video transmitted to the host vehicle J. is there. The shooting distance L1 and the shooting distance L2 described above correspond to the capacity of the video data, and are basically set at the same distance.
Note that if the video and position information from the vehicle at the viewpoint position are not received even after the predetermined time has elapsed, this vehicle may not have a function of capturing the video of the road. Is temporarily terminated.

ステップS07においては、取得した映像及び映像を撮影した位置の情報をHUD15へ表示する。
図6は、上述した図3と同様の方向から見た景色であり、他車両Cから前方を撮影した映像(以下、単に前方撮影時の映像と呼ぶ)がHUD15に表示された状態を示している。このHUD15に表示される前方撮影時の映像の画面には、上部に映像が撮像された時間(図6中、現在時刻を基準にして過去の時間をマイナス表示する一例を示す)を表示する時間表示部30が配置されるとともに、対向車線が表示されていないに下部に映像が撮影されたときの自車両の位置J1と他車両の位置Cnとを示す地図を表示する相対位置表示窓31が表示される。同様に図7は、HUD15に他車両Cから後方を撮影した映像(以下、単に後方撮影時の映像と呼ぶ)が表示された状態を示しており、この後方撮影時の映像の場合、対向車が表示される箇所を避けて画面の図6とは左右の反対位置に相対位置表示窓31が表示される。なお、時間表示部30および相対位置表示窓31の配置は、対向車線と重ならない位置であれば、図6,7に示した位置に限られるものではない。
In step S07, the acquired video and information on the position where the video was shot are displayed on the HUD 15.
FIG. 6 is a view seen from the same direction as in FIG. 3 described above, and shows a state in which an image taken forward from another vehicle C (hereinafter simply referred to as an image taken forward) is displayed on the HUD 15. Yes. On the screen of the video at the time of forward shooting displayed on the HUD 15, the time for displaying the time when the video was captured (showing an example in which the past time is minus-displayed with reference to the current time in FIG. 6) is displayed. A relative position display window 31 for displaying a map showing the position J1 of the host vehicle and the position Cn of the other vehicle when the image is taken at the lower part while the display unit 30 is arranged and the oncoming lane is not displayed. Is displayed. Similarly, FIG. 7 shows a state in which an image taken from the other vehicle C is displayed on the HUD 15 (hereinafter, simply referred to as an image at the time of rearward shooting). The relative position display window 31 is displayed at a position opposite to the left and right of FIG. The arrangement of the time display unit 30 and the relative position display window 31 is not limited to the position shown in FIGS. 6 and 7 as long as the position does not overlap the oncoming lane.

したがって、上述した実施の形態によれば、視線センサ17により検知した視点位置と他車両の位置とが一致した状態でスイッチ16から入力があったとき、すなわち運転者により視認されている他車両をスイッチ16を介して選択したときに、この他車両により撮影距離L1,L2の間に撮影された直近の映像および、映像を撮像した位置や時間などの映像に関連する位置情報だけを自車両が取得するため、不必要な映像の送受信を低減して他車両の撮像した映像とこの映像に関連する位置情報とを正確且つ迅速に運転者に提示することが可能になる。   Therefore, according to the above-described embodiment, when there is an input from the switch 16 in a state where the viewpoint position detected by the line-of-sight sensor 17 matches the position of the other vehicle, that is, the other vehicle being visually recognized by the driver. When the vehicle 16 is selected via the switch 16, the own vehicle only obtains the latest video taken during the shooting distances L1 and L2 by the other vehicle and the positional information related to the video such as the position and time when the video was taken. Therefore, it is possible to reduce unnecessary transmission / reception of an image and present the image captured by another vehicle and position information related to the image to the driver accurately and quickly.

また、HUD15に表示される相対位置表示窓31の地図上に、送受信部11を介して取得した映像を撮影した位置を重ねて表示することで、運転者が、その映像が撮像された位置を容易に把握することができる。   Further, the position where the video is captured is displayed by overlapping the position where the video acquired via the transmission / reception unit 11 is displayed on the map of the relative position display window 31 displayed on the HUD 15. It can be easily grasped.

次に、この発明の第2の実施の形態における情報取得装置50について、図面を参照しながら説明する。なお、この第2の実施の形態における情報取得装置50は、上述した第1の実施の形態において自車両で取得した他車両の撮影した映像に基づいて、渋滞の判定を行う機能を加えたものであるため、同一部分に同一符号を付して説明する。   Next, an information acquisition device 50 according to a second embodiment of the present invention will be described with reference to the drawings. The information acquisition device 50 according to the second embodiment has a function of determining a traffic jam based on a video taken by another vehicle acquired by the own vehicle in the first embodiment described above. Therefore, the same reference numerals are given to the same parts for explanation.

図8に示すように、情報取得装置50は、送受信部11と、自車位置検出部12と、記憶部13と、ナビディスプレイ14と、HUD(ヘッドアップディスプレイ)15と、スイッチ16と、視線センサ17と、車内映像撮影カメラ18と、車外映像撮影カメラ20と、処理部121とを備えて構成されている。なお、送受信部11と、自車位置検出部12と、記憶部13と、ナビディスプレイ14と、HUD(ヘッドアップディスプレイ)15と、スイッチ16と、視線センサ17と、車内映像撮影カメラ18と、車外映像撮影カメラ20とについては、上述した第1の実施の形態と同様であるため詳細説明を省略する。   As shown in FIG. 8, the information acquisition device 50 includes a transmission / reception unit 11, a vehicle position detection unit 12, a storage unit 13, a navigation display 14, a HUD (head-up display) 15, a switch 16, and a line of sight. The sensor 17, the in-vehicle image capturing camera 18, the out-vehicle image capturing camera 20, and the processing unit 121 are configured. In addition, the transmission / reception part 11, the own vehicle position detection part 12, the memory | storage part 13, the navigation display 14, the HUD (head-up display) 15, the switch 16, the gaze sensor 17, and the in-vehicle video camera 18, Since it is the same as that of 1st Embodiment mentioned above about the video camera 20 outside a vehicle, detailed description is abbreviate | omitted.

処理部121は、記憶部13から検索された地図データに対して、自車位置検出部12における測位信号処理部及び道路交通情報処理部及び自律航法部のそれぞれ、又は、何れかから得られる車両の現在位置の情報に基づいてマップマッチング等を行うと共に、後述するように、検出された車両の現在位置から見た進行方向の3D画像(周辺画像)を記憶部13より読み出してHUD15へ表示する制御を行う。   The processing unit 121 is a vehicle obtained from each or any of the positioning signal processing unit, the road traffic information processing unit, and the autonomous navigation unit in the vehicle position detection unit 12 with respect to the map data retrieved from the storage unit 13. Map matching is performed based on the current position information, and a 3D image (peripheral image) in the traveling direction viewed from the detected current position of the vehicle is read from the storage unit 13 and displayed on the HUD 15 as will be described later. Take control.

また、処理部121は、ナビゲーションの機能として、自車位置検出部12により検出される自車位置情報に基づいて走行軌跡を記憶部13へ記憶するとともに、記憶部13から地図データおよび走行軌跡を読み出して、マップマッチングなどの処理を行って地図上における自車両の現在位置を特定する。そして、ナビディスプレイ14の表示制御を行い、自車両の現在位置および走行軌跡などを地図上に重畳して表示させる。   Further, as a navigation function, the processing unit 121 stores a travel locus in the storage unit 13 based on the vehicle position information detected by the vehicle position detection unit 12, and also stores map data and a travel locus from the storage unit 13. It reads out and performs processing such as map matching to identify the current position of the host vehicle on the map. Then, display control of the navigation display 14 is performed, and the current position of the host vehicle, the travel locus, and the like are superimposed on the map and displayed.

さらに、処理部121は、車外映像撮影カメラ20によって撮影された画像データに対して車両の特徴量算出、形状判別の処理、および、対象物の同一性の判定を行うことで他車両を特定し、さらに、当該画像に含まれる他車両の相対位置を特定する。   Further, the processing unit 121 identifies another vehicle by performing vehicle feature amount calculation, shape determination processing, and object identity determination on the image data captured by the outside-camera image capturing camera 20. Further, the relative position of the other vehicle included in the image is specified.

処理部121は、スイッチ16へ入力があった場合、他車両の相対位置が視線センサ17による視点位置と一致するか判定して、例えば、図10に示すように、相対位置が視点位置と一致する他車両Cが存在する場合に、この他車両Cに送受信部11を介して自車両の進行方向の道路情報、より具体的には他車両Cの車外映像撮影カメラ20によって撮影された過去数分間の映像および撮影位置や撮影された時間を送信する旨の要求信号を出力する。処理部121は、他車両からの映像及び撮影位置のデータが受信されると、これら映像、撮影位置および撮影時間などのデータを記憶部13へ記憶する。   When there is an input to the switch 16, the processing unit 121 determines whether the relative position of the other vehicle matches the viewpoint position by the line-of-sight sensor 17. For example, as illustrated in FIG. 10, the relative position matches the viewpoint position. When the other vehicle C is present, road information in the traveling direction of the host vehicle is transmitted to the other vehicle C via the transmission / reception unit 11, more specifically, the past number captured by the outside-image video camera 20 of the other vehicle C. A request signal for transmitting the image of the minute, the shooting position, and the shooting time is output. When the image and the shooting position data from another vehicle are received, the processing unit 121 stores data such as the image, the shooting position, and the shooting time in the storage unit 13.

また、処理部121は、VICS情報などにより得られた渋滞情報をナビディスプレイ14上に重畳表示する表示制御を行うようになっている(例えば、図13中、細い矢印で示す)。
さらに、処理部121は、他車両から取得した映像に基づいて自車両の進行方向の渋滞を推定する渋滞推定部22を備えて構成される。
渋滞推定部22は、送受信部11を介して取得した映像データgを記憶部13から読み出して(図11参照)、所定の画像処理を行い対向車両すなわち、自車両が走行中の車線にいる複数の車両を特定する(図12中、特定された箇所を四角形で示す)とともに、これらの車間を推定して車両の連続性を求め、その車線の渋滞状況を推定する。処理部121は、渋滞推定部22によりその車線が渋滞であると推定された場合には、その渋滞の位置を映像の撮影位置より特定して、対向車(他車両)から取得した渋滞情報(対向車から得た情報)としてナビディスプレイ14上の地図に追加表示する(例えば、図13中、太い矢印で示す)。なお、所定の画像処理とは、例えば、車両の特徴量算出および形状判別等の認識処理ある。
The processing unit 121 performs display control to superimpose and display traffic jam information obtained from VICS information or the like on the navigation display 14 (for example, indicated by a thin arrow in FIG. 13).
Further, the processing unit 121 includes a traffic jam estimation unit 22 that estimates traffic jam in the traveling direction of the host vehicle based on the video acquired from the other vehicle.
The traffic jam estimation unit 22 reads the video data g acquired through the transmission / reception unit 11 from the storage unit 13 (see FIG. 11), performs predetermined image processing, and performs a plurality of oncoming vehicles, that is, a plurality of vehicles that are in the lane in which the host vehicle is traveling. (The identified location is indicated by a rectangle in FIG. 12), the continuity of the vehicle is obtained by estimating the distance between these vehicles, and the traffic congestion state of the lane is estimated. When the traffic estimator 22 estimates that the lane is a traffic jam, the processor 121 identifies the traffic jam position from the shooting position of the video, and acquires traffic jam information (from other vehicles) (from other vehicles). (Information obtained from the oncoming vehicle) is additionally displayed on the map on the navigation display 14 (for example, indicated by a thick arrow in FIG. 13). The predetermined image processing is, for example, recognition processing such as vehicle feature amount calculation and shape determination.

次に、上述した第2の実施の形態における情報取得装置50の動作について図9のフローチャート及び図10〜図13を参照しながら説明する。なお、図2のフローチャートで説明した処理と同一処理には同一符号を付して説明する。   Next, the operation of the information acquisition apparatus 50 in the second embodiment will be described with reference to the flowchart of FIG. 9 and FIGS. 10 to 13. The same processes as those described with reference to the flowchart of FIG.

まずステップS01においては、自車位置検出部12より自車両の現在位置を取得する。
次いでステップS02においては、送受信部11より他車両の走行情報などの車両周辺情報を取得する。
First, in step S01, the current position of the host vehicle is acquired from the host vehicle position detection unit 12.
Next, in step S02, vehicle periphery information such as travel information of other vehicles is acquired from the transmission / reception unit 11.

ステップS03においては、車内映像撮影カメラ18の撮影結果に基づいて、視線センサ17により運転者の視点位置を検出する。
ステップS04においては、スイッチ16が押下されたか否かを判定する。
ステップS04における判定結果が「No」(押下されていない)である場合は、運転者に映像取得の意思がないため本ルーチンの実行を一旦終了する。
In step S03, the viewpoint position of the driver is detected by the line-of-sight sensor 17 based on the photographing result of the in-vehicle video photographing camera 18.
In step S04, it is determined whether or not the switch 16 has been pressed.
If the determination result in step S04 is “No” (not pressed), the execution of this routine is temporarily terminated because the driver does not intend to acquire a video.

一方、ステップS04における判定結果が「Yes」(押下された)である場合は、ステップS05へ進み、視点位置に車両(他車)が存在するか否かを判定する。
ステップS05における判定結果が「No」(車両なし)である場合は、映像の送信元が存在しないので本ルーチンの実行を一旦終了する。
ステップS05における判定結果が「Yes」(車両あり)である場合は、ステップS06へ進み、視点位置に存在する車両へ映像および位置情報の要求を行い、視点位置に存在する車両により撮影された映像及び映像を撮影した位置のデータ(映像・位置情報)を取得する。
On the other hand, if the determination result in step S04 is “Yes” (pressed), the process proceeds to step S05 to determine whether or not a vehicle (another vehicle) exists at the viewpoint position.
If the determination result in step S05 is “No” (no vehicle), the execution of this routine is temporarily terminated because there is no video transmission source.
If the determination result in step S05 is “Yes” (there is a vehicle), the process proceeds to step S06, a video and position information request is made to the vehicle existing at the viewpoint position, and the video captured by the vehicle present at the viewpoint position In addition, data on the position where the video was shot (video / position information) is acquired.

次いで、ステップS11においては、他車両から取得した映像の画像処理を行うことで、当該映像を撮影した位置における渋滞状況を推定する(図11、図12参照)。
ステップS12においては、ステップS11の処理で渋滞していると推定された撮影位置のナビディスプレイ14の地図上に渋滞情報を追加表示するとともに他車両からの情報であることを区別できるように表示する(図13参照)。
Next, in step S11, a traffic jam situation at a position where the video is captured is estimated by performing image processing of the video acquired from another vehicle (see FIGS. 11 and 12).
In step S12, traffic jam information is additionally displayed on the map of the navigation display 14 at the shooting position estimated to be jammed in the process of step S11, and displayed so that it can be distinguished from other vehicles. (See FIG. 13).

したがって、とりわけ上述した第2の実施の形態によれば、VICS情報等で更新又は提供されていない道路においても、自車両の対向車線を走行している他車両が既に通過した道路であれば渋滞情報を追加取得することができるため、渋滞情報の信頼性を向上することができる。   Therefore, in particular, according to the second embodiment described above, even on a road that has not been updated or provided with VICS information or the like, if there is a road on which another vehicle traveling in the opposite lane of the host vehicle has already passed, there is a traffic jam. Since additional information can be acquired, the reliability of traffic jam information can be improved.

なお、上述した第2の実施の形態では、自車両が走行する車線の渋滞情報を他車両から取得した映像に基づいてナビディスプレイ14に重畳表示する場合について説明したが、この構成に限られるものではなく、例えば、自車両に目的地までのルート設定がなされている場合などには、他車両から全ルート上の映像を取得して渋滞を推定し、この推定結果をナビディスプレイ14上に表示するようにしてもよい。
また、上述した各実施の形態では、他車両Cから取得される映像が動画の場合について説明したが、所定間隔で撮像された静止画であってもよい。
また、他車両が画像処理により作成した渋滞推定データを取得するようにしても良く、この場合は、送受信するデータ量を削減することができる。
In the second embodiment described above, the case has been described in which the traffic congestion information of the lane in which the host vehicle is traveling is superimposed and displayed on the navigation display 14 based on the video acquired from the other vehicle. However, the present invention is limited to this configuration. Instead, for example, when a route to the destination is set for the host vehicle, the traffic on the entire route is acquired from another vehicle, the traffic jam is estimated, and the estimation result is displayed on the navigation display 14. You may make it do.
Moreover, although each embodiment mentioned above demonstrated the case where the image | video acquired from the other vehicle C was a moving image, the still image imaged at predetermined intervals may be sufficient.
Moreover, you may make it acquire the traffic congestion estimation data which the other vehicle produced by the image process, and in this case, the data amount transmitted / received can be reduced.

本発明の第1の実施の形態における情報取得装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information acquisition apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における情報取得装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the information acquisition apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態において運転者が他車両を視認しながらスイッチを押下した際の運転者の後方から自車両前方を見た図である。It is the figure which looked at the front of the own vehicle from the driver | operator's back when the driver | operator pressed down a switch, visually recognizing other vehicles in the 1st Embodiment of this invention. 本発明の第1の実施の形態において他車両から取得される前方撮影時の映像の撮影範囲を示す図である。It is a figure which shows the imaging | photography range of the image | video at the time of the front imaging | photography acquired from the other vehicle in the 1st Embodiment of this invention. 後方撮影時の図4に相当する図である。It is a figure equivalent to FIG. 4 at the time of back imaging | photography. 本発明の第1の実施の形態における他車両から取得した前方撮影時の映像をHUD上へ表示した一例を示す図である。It is a figure which shows an example which displayed the image | video at the time of the front imaging | photography acquired from the other vehicle in the 1st Embodiment of this invention on HUD. 後方撮影時の映像における図6に相当する図である。It is a figure equivalent to FIG. 6 in the image | video at the time of back imaging | photography. 本発明の第2の実施の形態における図1に相当するブロック図である。It is a block diagram equivalent to FIG. 1 in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における図2に相当するフローチャートである。It is a flowchart equivalent to FIG. 2 in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における図3に相当する図である。It is a figure equivalent to FIG. 3 in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像データの一例を示す図である。It is a figure which shows an example of the video data in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における映像データから対向車両を特定した一例を示す図である。It is a figure which shows an example which specified the oncoming vehicle from the video data in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるナビディスプレイの表示例を示す図である。It is a figure which shows the example of a display of the navigation display in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

11 送受信部(取得手段)
16 スイッチ(入力手段)
17 視線センサ(視線検知手段)
18 車内映像撮影カメラ(視線検知手段)
14 ナビディスプレイ(表示手段)
15 HUD(表示手段)
11 Transmitter / receiver (acquisition means)
16 switches (input means)
17 Gaze sensor (gaze detection means)
18 In-car video camera (Gaze detection means)
14 Navi display (display means)
15 HUD (display means)

Claims (2)

自車両周辺に存在する他車両に関する情報を取得する取得手段を備えた情報取得装置であって、
運転者の視点位置を検知する視線検知手段と、
車両室内に配置されて運転者による操作入力が可能な入力手段とを備え、
前記取得手段は、前記他車両の位置と前記運転者の視点位置とが一致した状態で前記入力手段からの入力があったときに、前記他車両により撮影された映像と該映像に関連する位置情報とを取得することを特徴とする情報取得装置。
An information acquisition device comprising an acquisition means for acquiring information related to other vehicles existing around the host vehicle,
Gaze detection means for detecting the driver's viewpoint position;
An input means arranged in the vehicle compartment and capable of operation input by the driver;
The acquisition means includes an image captured by the other vehicle and a position related to the image when there is an input from the input means in a state where the position of the other vehicle coincides with the viewpoint position of the driver. An information acquisition apparatus characterized by acquiring information.
道路地図を表示可能な表示手段を備え、
該表示手段は、前記取得した位置情報が自車両から所定範囲内であった場合に、前記位置情報に対応する位置を前記道路地図上に重ねて表示することを特徴とする請求項1に記載の情報取得装置。
It has a display means that can display a road map,
2. The display unit according to claim 1, wherein when the acquired position information is within a predetermined range from the host vehicle, the position corresponding to the position information is displayed on the road map in an overlapping manner. Information acquisition device.
JP2008308908A 2008-12-03 2008-12-03 Information acquisition apparatus Pending JP2010134640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008308908A JP2010134640A (en) 2008-12-03 2008-12-03 Information acquisition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008308908A JP2010134640A (en) 2008-12-03 2008-12-03 Information acquisition apparatus

Publications (1)

Publication Number Publication Date
JP2010134640A true JP2010134640A (en) 2010-06-17

Family

ID=42345890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008308908A Pending JP2010134640A (en) 2008-12-03 2008-12-03 Information acquisition apparatus

Country Status (1)

Country Link
JP (1) JP2010134640A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127736A (en) * 2011-12-19 2013-06-27 Denso Corp Inter-vehicle communication system and on-vehicle device
WO2014196038A1 (en) * 2013-06-05 2014-12-11 三菱電機株式会社 Device for processing information through line-of-sight detection and information processing method
JP2016088326A (en) * 2014-11-06 2016-05-23 三菱重工業株式会社 Wave motion irradiation device, travel direction monitoring device, method of irradiating wave motion, and program
JP2017162472A (en) * 2016-03-08 2017-09-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Information system for vehicles
JP2018106762A (en) * 2018-04-04 2018-07-05 パイオニア株式会社 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2018163564A (en) * 2017-03-27 2018-10-18 パイオニア株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2020030870A (en) * 2019-12-03 2020-02-27 パイオニア株式会社 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2022023863A (en) * 2019-12-03 2022-02-08 パイオニア株式会社 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (en) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp Driving assistance system
JP2001283381A (en) * 2000-03-30 2001-10-12 Toshiba Corp Inter-vehicle communication system
JP2004061259A (en) * 2002-07-29 2004-02-26 Mazda Motor Corp System, method, and program for providing information
JP2004139284A (en) * 2002-10-16 2004-05-13 Alpine Electronics Inc Information processor for vehicle
JP2006115360A (en) * 2004-10-15 2006-04-27 Alpine Electronics Inc Information processor for vehicle, and communication system and method between vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (en) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp Driving assistance system
JP2001283381A (en) * 2000-03-30 2001-10-12 Toshiba Corp Inter-vehicle communication system
JP2004061259A (en) * 2002-07-29 2004-02-26 Mazda Motor Corp System, method, and program for providing information
JP2004139284A (en) * 2002-10-16 2004-05-13 Alpine Electronics Inc Information processor for vehicle
JP2006115360A (en) * 2004-10-15 2006-04-27 Alpine Electronics Inc Information processor for vehicle, and communication system and method between vehicles

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127736A (en) * 2011-12-19 2013-06-27 Denso Corp Inter-vehicle communication system and on-vehicle device
WO2014196038A1 (en) * 2013-06-05 2014-12-11 三菱電機株式会社 Device for processing information through line-of-sight detection and information processing method
JP2016088326A (en) * 2014-11-06 2016-05-23 三菱重工業株式会社 Wave motion irradiation device, travel direction monitoring device, method of irradiating wave motion, and program
JP2017162472A (en) * 2016-03-08 2017-09-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Information system for vehicles
JP2018163564A (en) * 2017-03-27 2018-10-18 パイオニア株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2018106762A (en) * 2018-04-04 2018-07-05 パイオニア株式会社 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2020030870A (en) * 2019-12-03 2020-02-27 パイオニア株式会社 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2022023863A (en) * 2019-12-03 2022-02-08 パイオニア株式会社 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Similar Documents

Publication Publication Date Title
JP4293917B2 (en) Navigation device and intersection guide method
US9747800B2 (en) Vehicle recognition notification apparatus and vehicle recognition notification system
CN109383404B (en) Display system, display method, and medium storing program
JP2010134640A (en) Information acquisition apparatus
US8094192B2 (en) Driving support method and driving support apparatus
JP5017242B2 (en) Visual support device
JP4981566B2 (en) Driving support device and driving support method
US20110128136A1 (en) On-vehicle device and recognition support system
JP2008280026A (en) Driving assistance device
JP4848893B2 (en) Intersection information providing system and driving support system
JP6415583B2 (en) Information display control system and information display control method
JP4747867B2 (en) VEHICLE DISPLAY DEVICE AND VEHICLE VIDEO DISPLAY CONTROL METHOD
JP4952429B2 (en) Driving support system
JP2004061259A (en) System, method, and program for providing information
JP2007069756A (en) Vehicle input operation restricting device
JP2006172215A (en) Driving support system
JP2012048345A (en) On-vehicle device
JP2008059458A (en) Intervehicular communication system, on-vehicle device, and drive support device
JP4600391B2 (en) Display device, display system, and display method
JP2020086956A (en) Imaging abnormality diagnosis device
JP4725503B2 (en) In-vehicle device, driving support system, and driving support method
JP2014074627A (en) Navigation system for vehicle
JP2005029025A (en) On-vehicle display device, image display method, and image display program
JP2018073036A (en) Image acquisition method, image display system, and computer program
CN112406900A (en) Operation control device, operation control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002