JP2007149077A - Video processing method and device - Google Patents

Video processing method and device Download PDF

Info

Publication number
JP2007149077A
JP2007149077A JP2006295089A JP2006295089A JP2007149077A JP 2007149077 A JP2007149077 A JP 2007149077A JP 2006295089 A JP2006295089 A JP 2006295089A JP 2006295089 A JP2006295089 A JP 2006295089A JP 2007149077 A JP2007149077 A JP 2007149077A
Authority
JP
Japan
Prior art keywords
video data
road
data
video
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006295089A
Other languages
Japanese (ja)
Other versions
JP4738314B2 (en
Inventor
Akihide Shimamura
昭秀 嶋村
Kazuhiko Shide
和彦 志手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006295089A priority Critical patent/JP4738314B2/en
Publication of JP2007149077A publication Critical patent/JP2007149077A/en
Application granted granted Critical
Publication of JP4738314B2 publication Critical patent/JP4738314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a driver of an automobile to easily grasp positional relation between his own vehicle and a road, etc. shown by a video image. <P>SOLUTION: This video processing method includes: a receiving step of receiving video data of a cross road crossing a running road of the own vehicle; a conversion step of executing shearing conversion to the video data at a shearing angle determined based on a cross angle between the cross road and the running road regarding the received video data and storing the video data in a storage device and a display step of generating display video data from the video data after the shearing conversion stored in the storage device and displaying the display video data on a display device. Thus, the driver is enabled to easily grasp a cross road in what direction the video image is about and it leads to safe driving by inclining the video image at the shearing angle determined based on the cross angle between the cross road and the running road. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自動車の運転者に対して提示するための映像データを生成する技術に関する。   The present invention relates to a technique for generating video data to be presented to an automobile driver.

従来から、見通しの悪い交差点には、車両や歩行者などを相互に確認させ、注意を促すために道路反射鏡が設置されている。しかし、道路反射鏡には左右が逆に映るため位置関係や方向を混乱させたり、凸面鏡のために反射像が歪んだり、設置位置や向きの制約により映し出せない死角があったりといった問題がある。   Conventionally, road reflectors have been installed at intersections with poor visibility so that vehicles, pedestrians, and the like can mutually confirm and call attention. However, there are problems such as confusing the positional relationship and direction because the left and right images are reflected on the road reflector, the reflection image is distorted due to the convex mirror, and there are blind spots that cannot be projected due to restrictions on the installation position and orientation. .

このような道路反射鏡の問題を解決するため、例えば特開2001−155297号公報には、道路上の死角位置の映像を移動体に伝送して死角位置を減少させ、運転者が道路状況をより迅速且つ必要な時間中確認できるようにするための技術が開示されている。具体的には、太陽電池と撮影手段とを装備し、道路交差点等の監視エリアに設置され、撮影手段からの映像信号を無線送信する送信手段と、移動体に装備され送信手段からの映像信号を受信する受信手段とを備える。そして、移動体が映像信号の受信範囲に進入すると移動体の受信手段が自動的にその映像信号を受信することにより運転者は道路死角位置の状況を確認して運行することができる。しかし、運転者に提示される映像の内容については特に工夫はない。   In order to solve such a problem of the road reflector, for example, Japanese Patent Laid-Open No. 2001-155297 discloses an image of a blind spot position on a road to a moving body to reduce the blind spot position, so that the driver can Techniques have been disclosed for enabling confirmation more quickly and during the required time. Specifically, it is equipped with a solar cell and photographing means, installed in a monitoring area such as a road intersection, and transmitting means for wirelessly transmitting a video signal from the photographing means, and a video signal from the transmitting means that is equipped on a moving body. Receiving means. Then, when the moving body enters the reception range of the video signal, the receiving means of the moving body automatically receives the video signal, so that the driver can check the road blind spot position and operate. However, there is no particular idea about the content of the video presented to the driver.

また、特開2003−109199号公報には、交差点近傍にて道路状況を撮影した画像を、車両の搭乗者へ提供することにより、特に見通しの悪い交差点における、車両対車両、車両対自転車、車両対人などの車両事故を防止し、交通の利便を図ることができる車両事故防止システムが開示されている。具体的には、優先道路及び非優先道路からなる交差点において、優先道路を撮影すべくカメラC1,C2が設置され、非優先道路にて交差点へ進入する車両へ映像情報を提供すべく投受光器が設置されている。カメラC1,C2が撮影した映像は、画像提供装置を介して投受光器から映像情報として送信され、車両が搭載する車載装置にて受信された映像情報が図31に示すように表示部で単に並べて表示される。図31においてハッチングが付された四角は車両を模式的に示したものである。本公報においても、表示内容について特に工夫はない。
特開2001−155297号公報 特開2003−109199号公報
Japanese Patent Application Laid-Open No. 2003-109199 discloses a vehicle-to-vehicle, a vehicle-to-bicycle, and a vehicle at an intersection with particularly poor visibility by providing an image of a road situation in the vicinity of the intersection to a vehicle occupant. A vehicle accident prevention system that can prevent a vehicle accident such as an interpersonal accident and improve the convenience of transportation is disclosed. Specifically, cameras C1 and C2 are installed to photograph priority roads at intersections including priority roads and non-priority roads, and light projectors / receivers are provided to provide video information to vehicles entering the intersections on the non-priority roads. Is installed. Images taken by the cameras C1 and C2 are transmitted as image information from the projector / receiver via the image providing device, and the image information received by the in-vehicle device mounted on the vehicle is simply displayed on the display unit as shown in FIG. They are displayed side by side. In FIG. 31, hatched squares schematically show the vehicle. Even in this publication, there is no particular idea about the display contents.
JP 2001-155297 A JP 2003-109199 A

しかしながら、上記公報開示の技術では、道路の映像をそのまま車内のモニタに表示するだけであるから、運転者が通り慣れていない交差点では、映像がどの方向の道路を写しているのか瞬時に判断できないという問題がある。すなわち、道路反射鏡の場合には運転者は道路反射鏡を基準に自分と反射像の位置関係を把握することができるが、上記公報開示の技術では基準となるものがなく、運転者と映像の道路との位置関係を把握しづらくなっている。   However, in the technique disclosed in the above publication, the road image is simply displayed on the monitor in the vehicle as it is, so at an intersection where the driver is not familiar with the road, it is impossible to instantaneously determine which direction the image is taken. There is a problem. That is, in the case of a road reflector, the driver can grasp the positional relationship between himself and the reflected image with reference to the road reflector, but the technique disclosed in the above publication has no reference, and the driver and video It is difficult to grasp the positional relationship with other roads.

従って、本発明の目的は、自動車の運転者が表示画面において自車と映像で示される道路等との位置関係を把握しやすくするための映像処理技術を提供することである。   Accordingly, an object of the present invention is to provide a video processing technique for facilitating the driver of a car to grasp the positional relationship between the vehicle and a road or the like shown on the display screen.

本発明の第1の態様に係る映像処理方法は、自車両の走行道路と交差する交差道路の映像データを受信する受信ステップと、受信した映像データに係る交差道路と走行道路との交差角に基づき決定される剪断角で映像データに対して剪断変換を実施し、記憶装置に格納する変換ステップと、記憶装置に格納された剪断変換後の映像データから表示映像データを生成し、表示装置に表示する表示ステップとを含む。このように交差道路と走行道路との交差角に基づき決定される剪断角で映像を傾けることによって、運転者はどの方向の交差道路についての映像かを容易に把握することができるようになり、安全運転につながる。   The video processing method according to the first aspect of the present invention includes a reception step of receiving video data of an intersection road that intersects with the traveling road of the host vehicle, and an intersection angle between the intersection road and the traveling road according to the received video data. The image data is subjected to shear transformation at a shear angle determined based on the transformation step for storing in the storage device, and display video data is generated from the video data after the shear transformation stored in the storage device, A display step for displaying. By tilting the video at the shear angle determined based on the crossing angle between the crossing road and the traveling road in this way, the driver can easily grasp the video about the crossing road in which direction, It leads to safe driving.

また、上で述べた変換ステップが、受信した映像データに係る交差道路と走行道路との交差角を算出する交差角算出ステップと、受信した映像データにおいて当該映像データに係る交差道路の傾き角を算出する傾き角算出ステップと、交差角と傾き角とに基づき剪断角に関するデータを算出する剪断角算出ステップと、算出された剪断角に関するデータを用いて映像データに対して剪断変換を実施し、記憶装置に格納するステップとを含むようにしてもよい。このように傾き角を導入することによってより適切な剪断角を導き出すことができるようになる。   Further, the conversion step described above includes an intersection angle calculating step for calculating an intersection angle between the intersection road and the traveling road related to the received video data, and an inclination angle of the intersection road related to the video data in the received video data. An inclination angle calculation step to calculate, a shear angle calculation step to calculate data related to the shear angle based on the intersection angle and the inclination angle, and a shear transformation is performed on the video data using the data related to the calculated shear angle, Storing in the storage device. By introducing the inclination angle in this way, a more appropriate shear angle can be derived.

さらに、上で述べた表示ステップが、走行道路の両側に交差道路が存在する場合には、左側の交差道路に係る表示映像データを左側に配置し、右側の交差道路に係る表示映像データを右側に配置するステップを含むようにしてもよい。このようにすれば、例えば十字路の交差点については、右側には右側に道路が傾いた映像が、左側には左側に道路が傾いた映像が提示されるようになり、運転者はより容易に自車両との位置関係を把握できるようになる。   Further, when there are cross roads on both sides of the driving road, the display step described above arranges the display video data related to the left cross road on the left side and the display video data related to the right cross road to the right side. May be included in the step. In this way, for example, at the intersection of a crossroad, an image with the road tilted on the right side is displayed on the right side, and an image with the road tilted on the left side is displayed on the left side. It becomes possible to grasp the positional relationship with the vehicle.

本発明の第2の態様に係る映像処理方法は、自車両の走行道路の対向車線を含む、自車両の走行方向の映像データを受信するステップと、受信した映像データの座標系における自車両位置を決定するステップと、映像データと自車両を表すためのマークとを上記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示ステップとを含む。これによって、例えば交差点で右折する際に、自車両の位置をマークで把握しつつ対向車を映像で確認して、安全に右折できるようになる。   The video processing method according to the second aspect of the present invention includes a step of receiving video data in the traveling direction of the host vehicle including an opposite lane of the traveling road of the host vehicle, and a host vehicle position in the coordinate system of the received video data. And a display step of generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining the positional relationship in the coordinate system, and displaying the display image data on the display device. Thus, for example, when making a right turn at an intersection, it is possible to check the oncoming vehicle on the image while grasping the position of the host vehicle with the mark, and to make a right turn safely.

本発明の第2の態様において、受信した前記映像データの座標系における自車両の走行方向を特定するステップをさらに含むようにしてもよい。その際、上で述べた表示ステップが、走行方向に向いているマークを生成するステップを含むようにしてもよい。   The second aspect of the present invention may further include a step of specifying the traveling direction of the host vehicle in the coordinate system of the received video data. At that time, the display step described above may include a step of generating a mark facing the traveling direction.

また、本発明の第2の態様において、上で述べた表示ステップが、表示画像データにおける自車両位置から、自車両の走行道路と交わる当該自車両の右側の道路の所定位置への右折矢印を生成し、表示画像データ上に配置するステップを含むようにしてもよい。このようにすれば、右折時に進行方向などを把握しやすくなる。
なお、本映像処理方法をコンピュータに実行させるためのプログラムを作成することができ、このプログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体又は記憶装置に格納される。また、ネットワークなどを介してデジタル信号として配信される場合もある。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
Further, in the second aspect of the present invention, the display step described above includes a right turn arrow from the own vehicle position in the display image data to a predetermined position on the right road of the own vehicle that intersects the traveling road of the own vehicle. A step of generating and arranging on the display image data may be included. This makes it easier to grasp the direction of travel when turning right.
A program for causing the computer to execute the video processing method can be created, and the program is stored in a storage medium or storage device such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, or a hard disk. Is done. Moreover, it may be distributed as a digital signal via a network or the like. The intermediate processing result is temporarily stored in a storage device such as a main memory.

本発明によれば、自動車の運転者が表示画面において自車と映像で示される道路等との位置関係を把握しやすくすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the driver | operator of a motor vehicle can make it easy to grasp | ascertain the positional relationship between the own vehicle and the road etc. which are shown with an image | video on a display screen.

[実施の形態1]
図1に本発明の第1の実施の形態に係る道路及びシステム概要を示す。図1では、非優先道路R100(非優先道路R100の下側部分R100a及び上側部分R100bを含む)と優先道路R101(優先道路R101の左側部分R101a及び右側部分R101bを含む)とが交差している状態を示している。優先道路R101では、左側部分R101aを左から右に車両C3が走行しており、右側部分R101bを右から左に車両C4が走行している。また、非優先道路R100では、下側部分R100aを下から上に車両C2が走行しており、上側部分R100bを上から下に車両C1が走行している。車両C1乃至C4には、以下で説明する車載端末100が搭載されている。
[Embodiment 1]
FIG. 1 shows an outline of a road and a system according to the first embodiment of the present invention. In FIG. 1, the non-priority road R100 (including the lower portion R100a and the upper portion R100b of the non-priority road R100) and the priority road R101 (including the left portion R101a and the right portion R101b of the priority road R101) intersect. Indicates the state. On the priority road R101, the vehicle C3 is traveling from left to right on the left portion R101a, and the vehicle C4 is traveling from right to left on the right portion R101b. In addition, on the non-priority road R100, the vehicle C2 travels from the lower portion R100a from the bottom to the top, and the vehicle C1 travels from the top portion R100b to the bottom. The on-vehicle terminals 100 described below are mounted on the vehicles C1 to C4.

優先道路R101の右側部分R101bには、左側部分R101aを撮影するためのカメラ4が設置されており、左側部分R101aには、右側部分R101bを撮影するためのカメラ5が設置されている。カメラ4及び5は映像伝送装置3に接続されており、映像伝送装置3は映像データなどを無線で送信するためのアンテナ1及び2に接続されている。このようなカメラ4及び5、映像伝送装置3並びにアンテナ1及び2で構成される道路側システムは、その送信データの内容を除き従来と同じである。   A camera 4 for photographing the left portion R101a is installed on the right portion R101b of the priority road R101, and a camera 5 for photographing the right portion R101b is installed on the left portion R101a. The cameras 4 and 5 are connected to the video transmission device 3, and the video transmission device 3 is connected to antennas 1 and 2 for transmitting video data and the like wirelessly. Such a road side system composed of the cameras 4 and 5, the video transmission device 3, and the antennas 1 and 2 is the same as the conventional one except for the contents of the transmission data.

図2に車両C1乃至C4に搭載される車載端末100の機能ブロック図を示す。車載端末100は、車両位置を検出するGPS(Global Positioning System)などの位置検出部11と、位置検出部11により検出された位置データを格納する位置データ格納部12と、当該車載端末100に搭載されている車両の速度計などから速度データを取得する速度検出部13と、速度検出部13が取得した速度データを格納する速度データ格納部14と、位置データ格納部12に格納された位置データに基づき車両の進行方向を決定する進行方向決定部15と、進行方向決定部15により決定された進行方向のデータを格納する進行方向データ格納部16と、アンテナ1又は2などから映像データなどを受信する映像データ受信部17と、映像データ受信部17により受信された映像データなどを格納する映像データ格納部18と、位置データ格納部12と進行方向データ格納部16と映像データ格納部18とに格納されたデータに基づき映像に対して実施する剪断変換の角度(剪断角)を算出する剪断角算出部19と、剪断角算出部19により算出された剪断角のデータを格納する剪断角データ格納部20と、剪断角データ格納部20と映像データ格納部18とに格納されたデータを用いて映像に対して剪断角に応じた剪断変換を実施する映像変換部21と、剪断変換後の映像データを格納する変換後映像データ格納部22と、変換後映像データ格納部22に格納されている映像データを表示用に処理する映像表示処理部23と、映像表示処理部23の出力を表示する表示装置24とを有する。   FIG. 2 shows a functional block diagram of the in-vehicle terminal 100 mounted on the vehicles C1 to C4. The in-vehicle terminal 100 is mounted on the position detection unit 11 such as a GPS (Global Positioning System) that detects the vehicle position, the position data storage unit 12 that stores the position data detected by the position detection unit 11, and the in-vehicle terminal 100. A speed detection unit 13 that acquires speed data from a speedometer of the vehicle that is being used, a speed data storage unit 14 that stores speed data acquired by the speed detection unit 13, and position data stored in the position data storage unit 12 Based on the travel direction determination unit 15 for determining the travel direction of the vehicle, the travel direction data storage unit 16 for storing the travel direction data determined by the travel direction determination unit 15, the image data from the antenna 1 or 2, etc. The received video data receiving unit 17, the video data storing unit 18 for storing the video data received by the video data receiving unit 17, and the position data A shear angle calculation unit 19 for calculating an angle (shear angle) of shear transformation performed on the video based on data stored in the data storage unit 12, the traveling direction data storage unit 16, and the video data storage unit 18, Using the data stored in the shear angle data storage unit 20 for storing the data of the shear angle calculated by the shear angle calculation unit 19, and the data stored in the shear angle data storage unit 20 and the video data storage unit 18, the image is sheared. A video conversion unit 21 that performs shearing conversion according to a corner, a post-conversion video data storage unit 22 that stores video data after shear conversion, and video data stored in the post-conversion video data storage unit 22 for display And a display device 24 for displaying the output of the video display processing unit 23.

本実施の形態では、例えば非優先道路R100を下から上に移動する車両C2では、表示装置24に図3に示すような画面が表示される。図3の例では、表示画面上に、2つの映像201及び202が表示される。左側の映像201においては、優先道路R101の左側部分R101a及び当該優先道路R101を走行中の車両C3が示されている。図25に示した従来技術による映像(左側)と比較すると、本実施の形態では、優先道路R101の左側部分R101aが左側に傾けられていることが分かる。同様に、右側の映像202においては、優先道路R101の右側部分R101b及び当該優先道路R101を走行中の車両C4が示されている。図25に示した従来技術による映像(右側)と比較すると、本実施の形態では、優先道路R101の右側部分R101bが右側に傾けられていることが分かる。   In the present embodiment, for example, in the vehicle C2 that moves from the bottom to the top on the non-priority road R100, a screen as shown in FIG. In the example of FIG. 3, two images 201 and 202 are displayed on the display screen. The left image 201 shows the left portion R101a of the priority road R101 and the vehicle C3 traveling on the priority road R101. Compared with the conventional video (left side) shown in FIG. 25, in the present embodiment, it can be seen that the left portion R101a of the priority road R101 is tilted to the left. Similarly, the right image 202 shows the right portion R101b of the priority road R101 and the vehicle C4 traveling on the priority road R101. Compared with the conventional video (right side) shown in FIG. 25, in the present embodiment, it can be seen that the right portion R101b of the priority road R101 is tilted to the right.

また、例えば非優先道路R100を上から下に移動する車両C1では、表示装置24に図4に示すような画面が表示される。図4の例では、表示画面上に、2つの映像203及び204が表示される。左側の映像203においては、優先道路R101の右側部分R101b及び当該優先道路R101を走行中の車両C4が示されている。そして、優先道路R101の右側部分R101bが左側に傾けられていることが分かる。同様に、右側の映像204においては、優先道路R101の左側部分R101a及び当該優先道路R101を走行中の車両C3が示されている。また、優先道路R101の左側部分R101aが右側に傾けられていることが分かる。このように図3と図4では、映像は左右逆転しており、さらに走行方向が逆方向であるから傾ける方向も逆となっている。   Further, for example, in the vehicle C1 moving from the top to the bottom on the non-priority road R100, a screen as shown in FIG. In the example of FIG. 4, two images 203 and 204 are displayed on the display screen. The left image 203 shows the right portion R101b of the priority road R101 and the vehicle C4 traveling on the priority road R101. It can be seen that the right portion R101b of the priority road R101 is tilted to the left. Similarly, the right image 204 shows the left portion R101a of the priority road R101 and the vehicle C3 traveling on the priority road R101. It can also be seen that the left portion R101a of the priority road R101 is tilted to the right. As described above, in FIGS. 3 and 4, the images are reversed left and right, and the direction of tilting is also reversed because the traveling direction is the opposite direction.

このように映像中の道路を、優先道路R101と非優先道路R100との交差角度に応じて傾けることによって、自車両が走行する道路と交差する道路の方向及び道路の位置関係を把握しやすくしている。図1では優先道路R101と非優先道路R100とが直交していたが、例えば図5の中央に示すように、優先道路R101と非優先道路R100とが、左側では左手側の交差角θで交差し、右側では右手側の交差角Φで交差しているものとする。なお、Φ>θである。ここで、図5の左側に示すように、車両C2の車載端末100では、カメラ4で撮影された映像データ211を受信し、当該映像に対して左手側の交差角θに応じた角度だけ左側に剪断変換を行って映像データ212を生成し、表示装置に表示する。同様に、図5の右側に示すように、カメラ5で撮影された映像データ213を受信し、当該映像に対して右側の交差角Φに応じた角度だけ右側に剪断変換を行って映像データ214を生成し、表示装置に表示する。映像データ212と映像データ214とを比較すれば、Φ>θであるから、映像中の優先道路R101の左側部分R101aより、映像中の優先道路R101の右側部分R101bの方が、傾きが大きくなっている。また、図3及び図4のように左右並べて表示することによって、道路の交差状態を含めて交差点の状況を容易に把握できるようになる。これによって安全運転が促進される。なお、図25のような表示を行っても道路の方向及び道路の位置関係を瞬時に把握することはできず、表示する効果が薄れている。   In this way, by tilting the road in the video according to the intersection angle between the priority road R101 and the non-priority road R100, it is easy to grasp the direction of the road intersecting with the road on which the host vehicle travels and the positional relationship of the road. ing. In FIG. 1, the priority road R101 and the non-priority road R100 are orthogonal to each other. However, as shown in the center of FIG. 5, for example, the priority road R101 and the non-priority road R100 intersect at the intersection angle θ on the left hand side on the left side. On the right side, it is assumed that they intersect at an intersection angle Φ on the right hand side. Note that Φ> θ. Here, as shown on the left side of FIG. 5, the in-vehicle terminal 100 of the vehicle C2 receives the video data 211 photographed by the camera 4, and is left by an angle corresponding to the crossing angle θ on the left hand side with respect to the video. The image data 212 is generated by performing shear transformation on the image and displayed on the display device. Similarly, as shown on the right side of FIG. 5, the video data 213 photographed by the camera 5 is received, and the video data 214 is subjected to shear conversion on the right side by an angle corresponding to the right intersection angle Φ. Is generated and displayed on the display device. Comparing the video data 212 and the video data 214, since Φ> θ, the slope of the right portion R101b of the priority road R101 in the video is larger than that of the left portion R101a of the priority road R101 in the video. ing. Further, by displaying side by side as shown in FIGS. 3 and 4, it becomes possible to easily grasp the situation of the intersection including the intersection state of the road. This promotes safe driving. Even if the display as shown in FIG. 25 is performed, the direction of the road and the positional relationship of the road cannot be grasped instantaneously, and the effect of the display is weakened.

また、図6の左側に示すような交差点の場合には、並べればより差が出るような映像が表示される。すなわち、車両C2が走行している非優先道路R100は、車両C4が走行している優先道路R101の右側部分R101bと比較的大きな交差角で交差しており、車両C5が走行している道路R102とは比較的小さな交差角で交差している。但し、両方とも車両C2の右手側の道路である。従って、カメラ4で撮影され且つ車両C5及び道路R102が含まれる映像は、比較的小さな交差角に応じた比較的小さな角度、すなわち道路の中心線が垂直から表示角θとなるように剪断変換される。一方、カメラ5で撮影され且つ車両C4及び道路R101bが含まれる映像は、比較的大きな交差角に応じた比較的大きな角度、すなわち道路の中心線が垂直から表示角Φとなるように剪断変換される。Φ>θであるから、運転者は図6の右側に示すような映像が表示されれば、同じ右側の交差道路であっても、容易に区別して判断することができるようになる。   In addition, in the case of the intersection as shown on the left side of FIG. That is, the non-priority road R100 on which the vehicle C2 is traveling intersects the right portion R101b of the priority road R101 on which the vehicle C4 is traveling at a relatively large intersection angle, and the road R102 on which the vehicle C5 is traveling. Intersects with a relatively small crossing angle. However, both are roads on the right hand side of the vehicle C2. Therefore, the image captured by the camera 4 and including the vehicle C5 and the road R102 is shear-transformed so that a relatively small angle corresponding to a relatively small intersection angle, that is, the road center line changes from the vertical to the display angle θ. The On the other hand, the image captured by the camera 5 and including the vehicle C4 and the road R101b is shear-transformed so that a relatively large angle corresponding to a relatively large intersection angle, that is, the road center line changes from the vertical to the display angle Φ. The Since Φ> θ, the driver can easily discriminate and judge even the same right crossing road if the video as shown on the right side of FIG. 6 is displayed.

以下、図7乃至図18を用いて図1及び図2に示したシステムの処理内容について説明する。まず、速度検出部13は、自車両の速度計などから所定時間間隔で自車速度を検出し、速度データ格納部14に格納する(ステップS1)。速度データ格納部14では、自車速度が時系列的に保存されている。また、位置検出部11は、所定の時間間隔で自車位置を検出し、自車位置のデータを位置データ格納部12に格納し、進行方向決定部15は、位置データ格納部12に格納されている、現時点tにおける位置PVtのデータと時刻(t−1)における位置PVt-1のデータとを用いて、進行方向ベクトルを決定し、進行方向データ格納部16に格納する(ステップS3)。位置データ格納部12及び進行方向データ格納部16では、自車位置及び進行方向のデータが例えば計測時刻と共に時系列的に保存されている。 The processing contents of the system shown in FIGS. 1 and 2 will be described below with reference to FIGS. First, the speed detection unit 13 detects the host vehicle speed from the speedometer of the host vehicle at predetermined time intervals and stores it in the speed data storage unit 14 (step S1). In the speed data storage unit 14, the vehicle speed is stored in time series. The position detection unit 11 detects the vehicle position at predetermined time intervals, stores the vehicle position data in the position data storage unit 12, and the traveling direction determination unit 15 is stored in the position data storage unit 12. The traveling direction vector is determined using the data of the position P Vt at the current time t and the data of the position P Vt-1 at the time (t−1), and is stored in the traveling direction data storage unit 16 (step S3). ). In the position data storage unit 12 and the traveling direction data storage unit 16, data on the vehicle position and the traveling direction are stored in time series together with the measurement time, for example.

例えば、映像データ受信部17は、速度データ格納部14に格納されている現時点の自車速度のデータから、自車両が停止又は所定の速度以下で走行している徐行状態であるか判断する(ステップS5)。もし、通常走行中であれば、映像を表示装置24に表示してしまうと運転者に不要な情報を与えることになり、危険なので、ステップS1に戻る。   For example, the video data receiving unit 17 determines from the current vehicle speed data stored in the speed data storage unit 14 whether the host vehicle is in a slow state where the vehicle is stopped or traveling at a predetermined speed or less ( Step S5). If the vehicle is traveling normally, displaying the video on the display device 24 will give unnecessary information to the driver, and the process returns to step S1 because it is dangerous.

一方、自車両が停止又は徐行していると判断された場合には、映像データ受信部17は、カメラ4又は5により撮影され且つアンテナ1又は2により送信される道路映像データを受信し、映像データ格納部18に格納する(ステップS7)。また、撮影パラメータを受信し、映像データ格納部18に格納する(ステップS9)。   On the other hand, when it is determined that the host vehicle is stopped or slowing down, the video data receiving unit 17 receives the road video data captured by the camera 4 or 5 and transmitted by the antenna 1 or 2, and the video The data is stored in the data storage unit 18 (step S7). Further, the imaging parameter is received and stored in the video data storage unit 18 (step S9).

映像データ格納部18には例えば図8乃至図10に示すような道路映像及び撮影パラメータが格納される。映像データ格納部18では、道路映像(例えば図9又は図10のような映像データ)及び撮影パラメータは時系列的に格納される。図8の例では、時刻t−1のデータ及び時刻tのデータしか示されていないが、これ以外の時刻のデータが保持される場合もある。各時刻のデータは、各カメラのデータを含む。ここでは第1及び第2のカメラのデータが含まれる。各カメラのデータは、映像データと、カメラの設置位置、カメラの撮影方向、画角、撮影時刻、注視点位置等、例えば撮影された道路の中央線上の2点の実座標PRnS及びPRnE、及び2点の実座標のそれぞれに対応する映像上の座標IRnS及びIRnEを含む撮影パラメータとを含む。なお、撮影パラメータには、撮影している道路が優先道路か否かのフラグを含む場合もある。ここでnはカメラ番号を表す。 The video data storage unit 18 stores road images and shooting parameters as shown in FIGS. 8 to 10, for example. In the video data storage unit 18, road video (for example, video data as shown in FIG. 9 or FIG. 10) and shooting parameters are stored in time series. In the example of FIG. 8, only data at time t-1 and data at time t are shown, but data at other times may be held. The data at each time includes the data of each camera. Here, data of the first and second cameras are included. The data of each camera includes video data, camera installation position, camera shooting direction, angle of view, shooting time, gazing point position, etc., for example, two real coordinates P RnS and P RnE on the center line of the shot road. , And imaging parameters including coordinates I RnS and I RnE on the image corresponding to each of the two real coordinates. Note that the shooting parameter may include a flag indicating whether the road being shot is a priority road. Here, n represents a camera number.

次に、剪断角算出部19は、受信した映像データに係る撮影パラメータに含まれるカメラの設置位置と進行方向データ格納部16に格納されている現時点における自車両の進行方向のデータとから、受信した映像データが自車両の進行方向において直近交差点の交差道路の映像であるか判断する(ステップS11)。進行方向データ格納部16に格納された進行方向の先の所定領域にカメラの設置位置が存在するか否かで判断できる。直近か否かは例えばステップS7乃至11を何回か実行して、最も近いものを特定するようにしても良いし、例えばナビゲーションシステムなどが保持する地図のデータを用いることができれば、カメラの設置位置から直近の交差点に設置されているのか否かを判断する。さらに、撮影パラメータに、撮影している道路が優先道路か否かを表すフラグが存在している場合には当該フラグに基づき、映像データに係る道路が優先道路か否かを判断し、優先道路であれば映像データを使用するように判断するようにしても良い。   Next, the shear angle calculation unit 19 receives from the camera installation position included in the imaging parameters related to the received video data and the current traveling direction data stored in the traveling direction data storage unit 16. It is determined whether or not the image data is an image of an intersection road at the nearest intersection in the traveling direction of the host vehicle (step S11). This can be determined by whether or not the camera installation position exists in a predetermined area ahead of the traveling direction stored in the traveling direction data storage unit 16. Whether it is the latest or not may be determined by, for example, executing steps S7 to S11 several times to identify the closest one. For example, if the map data held by the navigation system or the like can be used, the camera is installed. It is determined whether it is installed at the nearest intersection from the position. Furthermore, when a flag indicating whether or not the shooting road is a priority road exists in the shooting parameters, based on the flag, it is determined whether or not the road according to the video data is a priority road. If so, it may be determined to use video data.

もし、自車両の進行方向において直近交差点の交差道路の映像でないと判断された場合には、ステップS7に戻る。一方、自車両の進行方向において直近交差点の交差道路の映像であると判断されれば、剪断角算出部19及び映像変換部21は、映像変換処理を実施し、処理結果を剪断角データ格納部20及び変換後映像データ格納部22に格納する(ステップS13)。映像変換処理については後に詳しく説明する。映像変換処理を実施することによって、図3の映像201又は202、図4の映像203又は204が生成される。   If it is determined that the image is not an image of an intersection road at the nearest intersection in the traveling direction of the host vehicle, the process returns to step S7. On the other hand, if it is determined that the image is the image of the intersection road at the nearest intersection in the traveling direction of the host vehicle, the shear angle calculation unit 19 and the image conversion unit 21 perform the image conversion process, and the processing result is stored in the shear angle data storage unit. 20 and the converted video data storage unit 22 (step S13). The video conversion process will be described in detail later. By performing the video conversion process, the video 201 or 202 in FIG. 3 and the video 203 or 204 in FIG. 4 are generated.

そして、剪断角算出部19は、自車両の進行方向において直近交差点で必要な全ての映像データを受信したか判断する(ステップS15)。基本的には左右の2方向のデータが存在するものと仮定するが、実際には2以上の場合もあれば1の場合もある。従って、例えば同一交差点に設置されたカメラが複数の場合には、映像データの配信タイミングをカメラ毎にずらせば、ステップS7乃至11を複数回実施して、設置位置が同じカメラによって撮影された異なる時刻の映像データなどを受信した場合には、全ての映像データを受信したものと判断できる。   And the shear angle calculation part 19 judges whether all the video data required at the nearest intersection in the advancing direction of the own vehicle were received (step S15). Basically, it is assumed that there are left and right data in two directions, but in actuality, there are cases where there are two or more and cases where there is one. Therefore, for example, when there are a plurality of cameras installed at the same intersection, if the distribution timing of the video data is shifted for each camera, Steps S7 to S11 are performed a plurality of times, and the installation positions are taken by the same camera. When the video data at the time is received, it can be determined that all the video data has been received.

ステップS15で、自車両の進行方向において直近交差点で必要な全ての映像データを受信していないと判断された場合には、ステップS7に戻る。一方、自車両の進行方向において直近交差点で必要な全ての映像データを受信したと判断された場合には、映像表示処理部23は、変換後映像データ格納部22に格納された変換後の映像データを、走行道路と交差道路との交差関係に応じて配置し(ステップS17)、表示装置24に表示する(ステップS19)。例えば図3又は図4のような表示データを生成し、表示装置24に表示する。すなわち、優先道路の左側部分を含む変換後の映像データについては左側に、優先道路の右側部分を含む変換後の映像データについては右側に配置する。   If it is determined in step S15 that not all video data required at the nearest intersection in the traveling direction of the host vehicle has been received, the process returns to step S7. On the other hand, when it is determined that all necessary video data has been received at the nearest intersection in the traveling direction of the host vehicle, the video display processing unit 23 converts the converted video stored in the converted video data storage unit 22. The data is arranged according to the intersection relationship between the traveling road and the intersection road (step S17) and displayed on the display device 24 (step S19). For example, display data as shown in FIG. 3 or 4 is generated and displayed on the display device 24. That is, the converted video data including the left portion of the priority road is arranged on the left side, and the converted video data including the right portion of the priority road is arranged on the right side.

以上の処理を終了が指示されるまで実施する(ステップS21)。なお、ステップS7乃至S11で、使用すべき映像データを受信する前に車両が走行を開始してしまったり、所定時間待っても使用すべき映像を受信できない場合には、タイムアウトとしてステップS1に戻るようにする。   The above processing is carried out until an end instruction is given (step S21). In steps S7 to S11, if the vehicle starts running before receiving the video data to be used, or if the video to be used cannot be received even after waiting for a predetermined time, the process returns to step S1 as a timeout. Like that.

以上のような処理を実施すれば、交差点で直接見ることが難しい交差道路の様子を、その道路の交差状態、位置関係などを容易に把握可能な態様で運転者に提示することができるようになる。   By carrying out the processing as described above, it is possible to present the state of the intersection road that is difficult to see directly at the intersection to the driver in a manner that allows easy understanding of the intersection state and positional relationship of the road. Become.

次にステップS13の映像変換処理について図11乃至図18を用いて詳しく述べる。剪断角算出部19は、進行方向データ格納部16に格納されている、自車両の進行方向VVのデータと、映像データ格納部18に格納されている、道路上の2点の実座標PRnS及びPRnE(nは正の整数)とから、走行道路と交差道路との交差角を算出し、例えばメインメモリなどの記憶装置に格納する(ステップS31)。 Next, the video conversion process in step S13 will be described in detail with reference to FIGS. The shear angle calculation unit 19 stores data on the traveling direction V V of the host vehicle stored in the traveling direction data storage unit 16 and two actual coordinates P on the road stored in the video data storage unit 18. The intersection angle between the traveling road and the intersection road is calculated from RnS and P RnE (n is a positive integer) and stored in a storage device such as a main memory (step S31).

進行方向ベクトルVVは、図12に示すように、進行方向決定部15により、時刻t−1における車両位置PVt-1から時刻tにおける車両位置PVtへのベクトルとなる。また、優先道路R101の右側部分R101bを含む映像データに付随する撮影パラメータである2つの実座標PR1S及びPR1Eによって、実座標PR1Sから実座標PR1Eへの第1の道路流出方向ベクトルVR1を特定する。同様に、優先道路R101の左側部分R101aを含む映像データに付随する撮影パラメータである2つの実座標PR2S及びPR2Eから、実座標PR2Sから実座標PR2Eへの第2の道路流出方向ベクトルVR2を特定する。 Traveling direction vector V V, as shown in FIG. 12, the traveling direction setting unit 15, a vector from the vehicle position P Vt-1 at time t-1 to the vehicle position P Vt at time t. Further, a photographing parameters associated with the video data including the right-hand portion R101b priority road R101 by two real coordinates P R1S and P R1E, first road outflow direction vector V from the real coordinate P R1S to real coordinate P R1E Specify R1 . Similarly, the second road outflow direction vector from the real coordinates P R2S to the real coordinates P R2E from the two real coordinates P R2S and P R2E that are the shooting parameters associated with the video data including the left portion R101a of the priority road R101. Specify V R2 .

そして進行方向ベクトルVVとVR1又はVR2とのベクトル演算により交差角を算出する。具体的には、以下の式に基づきθを算出する。
cosθ=VV・VRi/(|VV||VRi|)
Then, the intersection angle is calculated by vector calculation of the traveling direction vector V V and V R1 or V R2 . Specifically, θ is calculated based on the following equation.
cos θ = V V · V Ri / (| V V || V Ri |)

なお、進行方向ベクトルVVを基準に左回りを正とし、図13(a)に示すように、進行方向ベクトルVVと第2の道路流出ベクトルVR2との間の交差角θ2は、0<θ2<180であって、優先道路R101の左側部分R101aは、自車両の左手に存在していることが分かる。また、図13(b)に示すように、進行方向ベクトルVVと第1の道路流出ベクトルVR1との間の交差角θ1は、0>θ1>−180であって、優先道路R101の右側部分R101bは、自車両の右手に存在していることが分かる。 Incidentally, the traveling direction vector V V positive in the counterclockwise relative to, as shown in FIG. 13 (a), the crossing angle theta 2 between the traveling direction vector V V and a second road runoff vector V R2 is It can be seen that 0 <θ 2 <180 and the left portion R101a of the priority road R101 is present on the left hand side of the host vehicle. As shown in FIG. 13B, the intersection angle θ 1 between the traveling direction vector V V and the first road outflow vector V R1 is 0> θ 1 > −180, and the priority road R101. It can be seen that the right portion R101b of the vehicle is present on the right hand of the host vehicle.

次に、剪断角算出部19は、交差角θに基づき表示角βを算出し、例えばメインメモリなどの記憶装置に格納する(ステップS33)。この際、例えば図14(a)に示すような変換直線を用いて交差角θを表示角βに変換する。表示角βは、最終的な映像中の中央線の傾き角である。図14(a)のグラフは、横軸は交差角θ(°)を表し、縦軸は表示角β(°)を表しており、本実施の形態では、表示角βは、交差角θに比例するようになっている。但し、表示角βが大きすぎると映像が歪むので、比例係数を小さめに設定する。なお、上でも述べたが、角度は左回りが正であるから、図14(a)のグラフの横軸の右半分は、交差角としては左手を示している。また、グラフの横軸の左半分は、交差角としては右手を示している。   Next, the shear angle calculation unit 19 calculates the display angle β based on the crossing angle θ, and stores it in a storage device such as a main memory (step S33). At this time, for example, the crossing angle θ is converted into the display angle β using a conversion straight line as shown in FIG. The display angle β is the tilt angle of the center line in the final video. In the graph of FIG. 14A, the horizontal axis represents the crossing angle θ (°), and the vertical axis represents the display angle β (°). In this embodiment, the display angle β is the crossing angle θ. Proportional. However, since the video is distorted if the display angle β is too large, the proportionality coefficient is set to be small. As described above, since the counterclockwise angle is positive, the right half of the horizontal axis of the graph in FIG. 14A indicates the left hand as the crossing angle. Further, the left half of the horizontal axis of the graph indicates the right hand as the crossing angle.

このような変換直線による変換を行えば、図14(b)に示されているように、交差角θが正の方向に大きくなれば、映像中の表示角βは左手方向に大きくなる。但し、上でも述べたように表示角βを大きくしすぎると歪みが大きくなるので、表示角βは交差角θに比してそれほど大きくならない。同様に、交差角θが負の方向に大きくなれば、映像中の表示角βは右手方向に大きくなる。   If conversion using such a conversion line is performed, as shown in FIG. 14B, when the crossing angle θ increases in the positive direction, the display angle β in the video increases in the left-hand direction. However, as described above, since the distortion increases when the display angle β is excessively large, the display angle β is not so large as compared with the crossing angle θ. Similarly, when the crossing angle θ increases in the negative direction, the display angle β in the video increases in the right-hand direction.

図11の説明に戻って、剪断角算出部19は、映像データ格納部18に格納されている映像中の道路画像座標IRiS及びIRiEから、映像内の道路の傾き角αを算出し、例えばメインメモリなどの記憶装置に格納する(ステップS35)。図15に示すように、中央線上の道路画像座標IRiSから道路画像座標IRiEへのベクトルVIVを特定し、映像中垂直線301とベクトルVIVとの間の傾き角αを算出する。 Returning to the description of FIG. 11, the shear angle calculation unit 19 calculates the inclination angle α of the road in the video from the road image coordinates I RiS and I RiE in the video stored in the video data storage unit 18. For example, it is stored in a storage device such as a main memory (step S35). As shown in FIG. 15, a vector V IV from the road image coordinate I RiS on the center line to the road image coordinate I RiE is specified, and an inclination angle α between the vertical line 301 in the video and the vector V IV is calculated.

そして、剪断角算出部19は、ステップS33で格納された表示角βとステップS35で格納された表示角αとから剪断角γ又はtanγを算出し、剪断角データ格納部20に格納する(ステップS36)。図16(a)に示すように、撮影された映像では傾き角αだけ道路が傾いている場合、図16(b)に示すように、道路が表示角βだけ傾くように、剪断角γを決定する。   Then, the shear angle calculation unit 19 calculates the shear angle γ or tan γ from the display angle β stored in step S33 and the display angle α stored in step S35, and stores it in the shear angle data storage unit 20 (step S36). As shown in FIG. 16 (a), when the road is inclined by the inclination angle α in the captured image, the shear angle γ is set so that the road is inclined by the display angle β as shown in FIG. 16 (b). decide.

剪断角γの算出法については、図17を用いて説明する。図17において、変換前の映像の外形を表す細実線の長方形の高さをhとし、細点線401により映像中の道路の中央線を表す。中央線は傾き角αだけ傾いている。この細実線の長方形を剪断角γだけ傾けると、太線平行四辺形となる。結果として、映像中の道路の中央線401は、太点線402に変換される。太点線402は、表示角βだけ傾いている。なお、剪断変換であるから、水平方向の長さは変化しないので、変換前のaは、変換後もaとなる。具体的には、高さhにおける、変換後の平行四辺形の側辺と太点線402との間の長さaは、高さhにおける、変換前の長方形の側辺と細点線401との間の長さaとなる。   A method of calculating the shear angle γ will be described with reference to FIG. In FIG. 17, the height of a thin solid line rectangle representing the outer shape of the video before conversion is h, and a thin dotted line 401 represents the center line of the road in the video. The center line is inclined by an inclination angle α. If this thin solid rectangle is tilted by the shear angle γ, it becomes a thick parallelogram. As a result, the center line 401 of the road in the video is converted into a thick dotted line 402. The thick dotted line 402 is inclined by the display angle β. In addition, since it is a shearing conversion, the horizontal length does not change, so a before conversion becomes a after conversion. Specifically, the length a between the side of the parallelogram after conversion and the thick dotted line 402 at the height h is the distance between the side of the rectangle before conversion and the thin dotted line 401 at the height h. The length a is between.

このような場合、以下の式が成立する。
a=h×tanα
b=h×tanβ
tanγ=c/h=(b−a)/h
=(h×tanβ−h×tanα)/h
=tanβ−tanα
γ=atan(tanβ−tanα)
In such a case, the following equation is established.
a = h × tan α
b = h × tan β
tan γ = c / h = (ba) / h
= (H × tan β−h × tan α) / h
= Tan β-tan α
γ = atan (tan β−tan α)

そして、映像変換部21は、映像データ格納部18に格納された映像データと剪断角データ格納部20に格納されている剪断角γ又はtanγとを用いて、映像データに対して剪断変換を実施し、剪断変換後の映像データを変換後映像データ格納部22に格納する(ステップS37)。以下のような行列変換を実施する。

Figure 2007149077
上記の式において、hは映像の高さを表し、横方向をx方向、縦方向をy方向とする。 Then, the video conversion unit 21 performs shear conversion on the video data using the video data stored in the video data storage unit 18 and the shear angle γ or tan γ stored in the shear angle data storage unit 20. Then, the video data after the shear transformation is stored in the post-conversion video data storage unit 22 (step S37). The following matrix transformation is performed.
Figure 2007149077
In the above formula, h represents the height of the video, the horizontal direction is the x direction, and the vertical direction is the y direction.

そして、映像変換部21は、変換後映像データ格納部22に格納された剪断変換後の映像データから、道路部分を最大限含む矩形領域を切り出し、表示領域に併せて拡大する(ステップS39)。なお、切り出しの際には、映像データ格納部18に格納されているIRnS及びIRnEを含み且つ剪断変換後の映像に内接する最大の矩形領域を特定する。本ステップの処理を模式的に表せば図18(a)乃至(c)のようになる。図18(a)では、剪断変換後の映像の中で、IRnS及びIRnEを含む特定の領域601を切り出し、図18(b)に示すような中間映像を生成する。そして、図18(c)に示すように、予め定められている表示領域のサイズに拡大する。そして元の処理に戻る。 Then, the video conversion unit 21 cuts out a rectangular region including the road portion to the maximum from the video data after shear conversion stored in the post-conversion video data storage unit 22, and expands it together with the display region (step S39). At the time of clipping, the largest rectangular area including I RnS and I RnE stored in the video data storage unit 18 and inscribed in the video after the shear transformation is specified. The process of this step is schematically shown in FIGS. 18 (a) to 18 (c). In FIG. 18A , a specific region 601 including I RnS and I RnE is cut out from the image after shear transformation, and an intermediate image as shown in FIG. 18B is generated. Then, as shown in FIG. 18C, the display area is enlarged to a predetermined size. Then, the process returns to the original process.

以上のような処理を実施することによって表示すべき変換後の映像データが生成される。図3又は図4に示したような配置を行えば、運転者に安全について重要な情報をわかりやすく提示することができるようになる。   By performing the processing as described above, converted video data to be displayed is generated. If the arrangement shown in FIG. 3 or FIG. 4 is performed, important information about safety can be presented to the driver in an easy-to-understand manner.

[実施の形態2]
次に、第2の実施の形態について説明する。第2の実施の形態では、右折時における車載端末の処理に関係する。図19(a)及び(b)に示すように、十字路などで自車C502が位置C502aから位置C502bに移動して右折する際に、対向車C501が走行している状況をカメラ503により撮影する。カメラ503により撮影された映像データは、図示しない映像伝送装置により自車C502に無線で通知される。この際、カメラ503により撮影された映像は図19(a)の上段のような映像となるが、これでは映像中自車がどこに位置するのかが運転者には分かりにくいという問題がある。そこで、車載端末が、位置C502aの場合には、図19(a)中段に示すような映像に変換し、さらに位置C502bの場合には、図19(a)下段に示すような映像に変換する。マーク511は、自車位置及び進行方向を示すマーカであり、以下で説明する変換後の映像上にオーバーレイ表示される。
[Embodiment 2]
Next, a second embodiment will be described. In 2nd Embodiment, it is related to the process of the vehicle-mounted terminal at the time of a right turn. As shown in FIGS. 19A and 19B, when the host vehicle C502 moves from the position C502a to the position C502b and makes a right turn at a crossroad or the like, the situation where the oncoming vehicle C501 is traveling is photographed by the camera 503. . Video data captured by the camera 503 is wirelessly notified to the host vehicle C502 by a video transmission device (not shown). At this time, the video imaged by the camera 503 is the video image as shown in the upper part of FIG. 19A. However, there is a problem that it is difficult for the driver to know where the vehicle is located in the video image. Therefore, when the in-vehicle terminal is at the position C502a, it is converted into an image as shown in the middle part of FIG. 19A, and when it is at the position C502b, it is converted into an image as shown in the lower part of FIG. . A mark 511 is a marker indicating the vehicle position and the traveling direction, and is displayed as an overlay on the converted image described below.

このように図19(a)における中段及び下段のような映像を車載端末の表示装置に表示することにより、運転者は映像の中における相対的な位置関係を容易に把握できるようになる。   In this way, by displaying images such as the middle and lower in FIG. 19A on the display device of the in-vehicle terminal, the driver can easily grasp the relative positional relationship in the image.

次に、このような映像を表示させる車載端末500の機能ブロック図を図20に示す。車載端末500は、車両位置を検出するGPS(Global Positioning System)などの位置検出部521と、位置検出部521により検出された位置データを格納する位置データ格納部522と、当該車載端末500に搭載されている車両の速度計などから速度データを取得する速度検出部525と、速度検出部525が取得した速度データを格納する速度データ格納部535と、位置データ格納部522に格納された位置データに基づき車両の進行方向を決定する進行方向決定部523と、進行方向決定部523により決定された進行方向のデータを格納する進行方向データ格納部524と、方向指示器により右折又は左折が指示されているか否かについてのデータを取得する方向指示器状態取得部526と、方向指示器状態取得部526により取得された方向指示器状態データを格納する方向指示器状態データ格納部527と、カメラ503が撮影した映像データなどを受信する映像データ受信部528と、映像データ受信部528により受信された映像データなどを格納する映像データ格納部529と、進行方向データ格納部524と映像データ格納部529と位置データ格納部522に格納されたデータを用いて透視変換を実施し、映像データ格納部529に格納されている映像内における自車位置及び進行方向角度を算出する透視変換部530と、透視変換部530により算出された位置及び角度のデータを格納する位置及び角度データ格納部531と、位置及び角度データ格納部531と映像データ格納部529とに格納されたデータを用いて受信した映像に対してアフィン変換を実施するアフィン変換部532と、アフィン変換部523によりアフィン変換された映像データを格納するアフィン変換映像データ格納部533と、アフィン変換後の映像データに対して自車位置及び角度を表すマーカのオーバーレイ表示を実施するオーバーレイ表示処理部534と、オーバーレイ表示処理部534の処理結果を表示する表示装置536とを有する。   Next, FIG. 20 shows a functional block diagram of the in-vehicle terminal 500 that displays such an image. The in-vehicle terminal 500 is installed in a position detection unit 521 such as a GPS (Global Positioning System) that detects a vehicle position, a position data storage unit 522 that stores position data detected by the position detection unit 521, and the in-vehicle terminal 500. A speed detection unit 525 that acquires speed data from a speedometer of the vehicle that is being used, a speed data storage unit 535 that stores speed data acquired by the speed detection unit 525, and position data stored in the position data storage unit 522 Based on the travel direction determination unit 523 that determines the travel direction of the vehicle, the travel direction data storage unit 524 that stores the data of the travel direction determined by the travel direction determination unit 523, and the turn indicator instructs the right or left turn. It is acquired by the direction indicator state acquisition unit 526 that acquires data about whether or not it is present, and the direction indicator state acquisition unit 526 A direction indicator state data storage unit 527 for storing the direction indicator state data received, a video data reception unit 528 for receiving video data taken by the camera 503, and video data received by the video data reception unit 528. The video data storage unit 529, the traveling direction data storage unit 524, the video data storage unit 529, and the data stored in the position data storage unit 522 are used to perform perspective transformation and are stored in the video data storage unit 529. A perspective conversion unit 530 that calculates the vehicle position and the traveling direction angle in the image being viewed, a position and angle data storage unit 531 that stores data of the position and angle calculated by the perspective conversion unit 530, and position and angle data Affine transformation of video received using data stored in storage unit 531 and video data storage unit 529 An affine transformation unit 532 to be implemented, an affine transformation video data storage unit 533 that stores video data that has been affine transformed by the affine transformation unit 523, and an overlay of markers that represent the vehicle position and angle with respect to the video data after the affine transformation An overlay display processing unit 534 that performs display and a display device 536 that displays a processing result of the overlay display processing unit 534 are included.

次に、図21乃至図24を用いて図20に示した車載端末500の処理について説明する。まず、方向指示器状態取得部526は、方向指示器などから右折又は左折が指示されているか否かについてのデータを方向指示器状態データとして取得し、方向指示器状態データを方向指示器状態データ格納部527に格納する(ステップS41)。方向指示器状態データ格納部527には、左折ON又はOFF、若しくは右折ON又はOFFのデータが保持されている。また、速度検出部525は、自車両の速度計などから所定時間間隔で自車速度を検出し、速度データ格納部535に格納する(ステップS43)。速度データ格納部535では、自車速度が時系列的に例えば計測時刻と共に保存されている。また、位置検出部521は、所定の時間間隔で自車位置を検出し、自車位置のデータを位置データ格納部522に格納し、進行方向決定部523は、位置データ格納部522に格納されている、現時点tにおける位置PVtのデータと時刻(t−1)における位置PVt-1のデータとを用いて、進行方向ベクトルを決定し、進行方向データ格納部524に格納する(ステップS45)。位置データ格納部522及び進行方向データ格納部524では、自車位置及び進行方向のデータが時系列的に例えば計測時刻と共に保存されている。 Next, processing of the in-vehicle terminal 500 shown in FIG. 20 will be described using FIG. 21 to FIG. First, the direction indicator state acquisition unit 526 acquires, as the direction indicator state data, data about whether a right turn or a left turn is instructed from a direction indicator or the like, and the direction indicator state data is the direction indicator state data. Store in the storage unit 527 (step S41). The turn indicator state data storage unit 527 holds data for turning left or on, or turning right or left. Further, the speed detection unit 525 detects the own vehicle speed at predetermined time intervals from a speedometer of the own vehicle and stores the detected vehicle speed in the speed data storage unit 535 (step S43). In the speed data storage unit 535, the own vehicle speed is stored in time series together with, for example, the measurement time. The position detection unit 521 detects the vehicle position at predetermined time intervals, stores the vehicle position data in the position data storage unit 522, and the traveling direction determination unit 523 is stored in the position data storage unit 522. The traveling direction vector is determined using the data of the position P Vt at the current time t and the data of the position P Vt-1 at time (t−1), and stored in the traveling direction data storage unit 524 (step S45). ). In the position data storage unit 522 and the traveling direction data storage unit 524, the data of the own vehicle position and the traveling direction are stored in time series with, for example, the measurement time.

そして、例えば、映像データ受信部528は、方向指示器状態データ格納部527に格納されている方向指示器状態データが右折指示ONを示しているか判断する(ステップS47)。右折指示ONという状態ではない場合には、ステップS41に戻る。一方、右折指示ONという状態であれば、速度データ格納部535に格納されている現時点の自車速度のデータから、自車両が停止又は所定の速度以下で走行している徐行状態であるか判断する(ステップS49)。もし、通常走行中であれば、映像を表示装置536に表示してしまうと運転者に不要な情報を与えることになり、危険なので、ステップS41に戻る。   For example, the video data receiving unit 528 determines whether or not the direction indicator state data stored in the direction indicator state data storage unit 527 indicates a right turn instruction ON (step S47). If the right turn instruction is not ON, the process returns to step S41. On the other hand, if the state is a right turn instruction ON, it is determined from the current vehicle speed data stored in the speed data storage unit 535 whether the host vehicle is in a slow state where the vehicle is stopped or traveling at a predetermined speed or less. (Step S49). If the image is displayed on the display device 536 during normal driving, unnecessary information is given to the driver, and the process returns to step S41 because it is dangerous.

一方、自車両が停止又は徐行していると判断された場合には、映像データ受信部528は、カメラ503により撮影された道路映像データを受信し、映像データ格納部529に格納する(ステップS51)。また、撮影パラメータを受信し、映像データ格納部529に格納する(ステップS53)。映像データ格納部529に格納されるデータについては、図8に示したものと同様である。   On the other hand, when it is determined that the host vehicle is stopped or slowing down, the video data receiving unit 528 receives the road video data captured by the camera 503 and stores it in the video data storage unit 529 (step S51). ). Also, the imaging parameters are received and stored in the video data storage unit 529 (step S53). The data stored in the video data storage unit 529 is the same as that shown in FIG.

そして、例えば透視変換部530は、位置データ格納部522に格納されている自車の現在位置と進行方向データ格納部524に格納されている進行方向と映像データ格納部529に格納されているカメラの設置位置及び道路実座標PRnS及びPRnEとから、ステップS51で受信した道路映像データが進行方向直近の対向車線の映像か否かを判断する(ステップS55)。自車の現在自動車位置とカメラの設置位置とから所定の閾値以下の距離であることが分かる。なお、複数のカメラについての設置映像データを受信した場合には、最も近いカメラについて上記の判断を行う。さらに、道路実座標PRnS及びPRnEと自車の現在位置と自車の進行方向とから、道路実座標PRnS及びPRnEで特定される道路ベクトルと自車の進行方向のベクトルとが平行又はほぼ平行であり、且つ道路実座標PRnS及びPRnEが自車の現在位置より進行方向の先の領域に位置するか確認する。上で述べたような条件を満たすような映像データを受信していなければステップS41に戻る。 For example, the perspective conversion unit 530 includes a current position of the host vehicle stored in the position data storage unit 522, a travel direction stored in the travel direction data storage unit 524, and a camera stored in the video data storage unit 529. It is determined whether or not the road image data received in step S51 is an image of the oncoming lane closest to the traveling direction from the installation position and the actual road coordinates P RnS and P RnE (step S55). It can be seen that the distance is equal to or less than a predetermined threshold from the current vehicle position of the own vehicle and the installation position of the camera. When installation video data for a plurality of cameras is received, the above determination is made for the closest camera. Furthermore, from the actual road coordinates P RnS and P RnE , the current position of the host vehicle and the traveling direction of the host vehicle, the road vector specified by the actual road coordinates P RnS and P RnE and the vector of the traveling direction of the host vehicle are parallel. Alternatively, it is confirmed whether the road actual coordinates P RnS and P RnE are substantially parallel and located in a region ahead of the current position of the host vehicle. If video data that satisfies the above-described conditions has not been received, the process returns to step S41.

上で述べたような条件を満たしていると判断された場合には、透視変換部530は、映像データ格納部529に格納されているカメラ位置、撮影方向、画角及び注視点位置に基づき、位置データ格納部522に格納された自車位置PVtに対する座標変換(周知の透視変換)を行い、映像データにおける座標系における座標値IVtを取得する。さらに、時刻t−1の時点での自車位置PVt-1についても同様に座標変換を実施し、映像データにおける座標系における座標値IVt-1を取得して、IVt-1からIVtへのベクトルが映像データ内における水平方向となす角δを算出する(ステップS57)。座標位置IVt及び角度δのデータは、位置及び角度データ格納部531に格納する。 When it is determined that the conditions as described above are satisfied, the perspective conversion unit 530 is based on the camera position, shooting direction, field angle, and gaze point position stored in the video data storage unit 529. Coordinate transformation (known perspective transformation) is performed on the vehicle position P Vt stored in the position data storage unit 522, and a coordinate value I Vt in the coordinate system in the video data is acquired. Further, coordinate conversion is similarly performed on the own vehicle position P Vt-1 at time t-1 to obtain a coordinate value I Vt-1 in the coordinate system in the video data, and from I Vt-1 to I An angle δ between the vector to Vt and the horizontal direction in the video data is calculated (step S57). Data on the coordinate position I Vt and the angle δ are stored in the position and angle data storage unit 531.

このステップの処理については図22を用いて説明する。実座標系XYでは、自車C502は、位置PVtに存在する。対向車C501とカメラ503との位置関係は図19(b)と同じである。この状態において、上で述べたようなデータに基づき位置PVtに対して周知の透視変換を実施すれば、映像データの座標系xyにおける自車の座標値IVtを取得できる。さらに、位置PVt-1にも周知の透視変換を実施すれば、映像データの座標系xyにおける自車の座標値IVt-1を取得できる。そして、図22(b)に示すように、この座標値IVt-1からIVtへのベクトルと画像データにおける水平線とが成す角δを特定できる。 The process of this step will be described with reference to FIG. In the real coordinate system XY, the own vehicle C502 exists at the position P Vt . The positional relationship between the oncoming vehicle C501 and the camera 503 is the same as that in FIG. In this state, if the known perspective transformation is performed on the position P Vt based on the data as described above, the coordinate value I Vt of the own vehicle in the coordinate system xy of the video data can be acquired. Furthermore, if a known perspective transformation is also performed at the position P Vt−1 , the coordinate value I Vt−1 of the own vehicle in the coordinate system xy of the video data can be acquired. Then, as shown in FIG. 22B, the angle δ formed by the vector from the coordinate values I Vt−1 to I Vt and the horizontal line in the image data can be specified.

次に、アフィン変換部532は、映像データ格納部529に格納された映像データに対して自車位置IVtを基準にアフィン変換を実施し、変換後の映像データをアフィン変換映像データ格納部533に格納する(ステップS59)。具体的には、図23(a)に示すように、映像データ601と自車位置IVtとをそのままの縮尺で表示させようとしても、表示画面701のサイズを超えてしまう。そこで、映像データ601と自車位置IVtとの位置関係を維持しつつ自車位置IVtが表示画面701の下部にくるように映像データ601を平行移動させる。その後、図23(b)に示すように、表示画面701に入るように映像データ601を縮小し、当該縮小に合わせて自車位置IVtに対応する、表示画面701上の位置IVt'を算出する。変換後の映像データ601'及び位置IVt'のデータをアフィン変換映像データ格納部533に格納する。 Next, the affine transformation unit 532 performs affine transformation on the video data stored in the video data storage unit 529 with reference to the vehicle position I Vt , and converts the converted video data into the affine transformation video data storage unit 533. (Step S59). Specifically, as shown in FIG. 23A, even if the video data 601 and the vehicle position I Vt are displayed at the same scale, the size of the display screen 701 is exceeded. Therefore, translating the image data 601 as while maintaining the positional relationship between the image data 601 and the vehicle position I Vt is the vehicle position I Vt comes at the bottom of the display screen 701. Thereafter, as shown in FIG. 23B, the video data 601 is reduced so as to enter the display screen 701, and the position I Vt ′ on the display screen 701 corresponding to the own vehicle position I Vt is set in accordance with the reduction. calculate. The converted video data 601 ′ and position I Vt ′ data are stored in the affine transformation video data storage 533.

その後、オーバーレイ表示処理部534は、アフィン変換映像データ格納部533に格納されたアフィン変換後の映像データに対して、位置及び角度データ格納部531に格納された角度δだけ傾けた自車マークを位置IVt'にオーバーレイさせて、表示装置536に表示する(ステップS61)。これによって、図24に示すように、カメラ503から受信された映像データ内の空間における位置関係を表すための自車マーク611を角度δだけ傾けた形で表示している。その後、処理終了までステップS41に戻り処理を行う(ステップS63)。 After that, the overlay display processing unit 534 displays the vehicle mark that is tilted by the angle δ stored in the position and angle data storage unit 531 with respect to the video data after the affine transformation stored in the affine transformation video data storage unit 533. Overlaying at the position I Vt ′ is displayed on the display device 536 (step S61). Accordingly, as shown in FIG. 24, the vehicle mark 611 for representing the positional relationship in the space in the video data received from the camera 503 is displayed in an inclined form by an angle δ. Thereafter, the process returns to step S41 until the process is completed (step S63).

以上のような処理により図24のような表示を行うと、運転者は自車位置と対向車の位置関係をより正確に且つ容易に表示内容だけで把握することができるようになる。マークを付さなければ、運転者は自車位置把握まで時間がかかるかもしれないが、本実施の形態によれば瞬時に把握可能である。また、自車の向いている方向も示されているので、進行方向をも道路の状態及び対向車との関係で把握しやすくなっている。但し、マークの角度を変更しなくとも良い。   When the display as shown in FIG. 24 is performed by the processing as described above, the driver can grasp the positional relationship between the own vehicle position and the oncoming vehicle more accurately and easily only by the display contents. If the mark is not attached, the driver may take time to grasp the vehicle position, but according to the present embodiment, the driver can grasp instantly. Further, since the direction in which the vehicle is facing is also shown, it is easy to grasp the traveling direction based on the road condition and the relationship with the oncoming vehicle. However, it is not necessary to change the angle of the mark.

[実施の形態3]
第2の実施の形態では、自車マーク611をオーバーレイ表示する例を示したが、運転者が、その交差点付近の地理に不案内である場合には、自車マーク611だけでは、表示内容と実際の地理との対応関係を把握しづらい場合もある。このような場合に対処するため、右折先の道路への矢印や、ランドマーク等を適切にオーバーレイ表示することにより、表示内容から実際の道路状況やランドマーク等の位置関係を把握しやすくするものである。さらに、行き先などを把握できるようにすれば、慣れない土地でも右折時に戸惑わずに済むようにする。
[Embodiment 3]
In the second embodiment, an example in which the own vehicle mark 611 is displayed in an overlay manner has been shown. However, if the driver is not guided to the geography near the intersection, the display content is displayed only by the own vehicle mark 611. It may be difficult to grasp the correspondence with the actual geography. In order to cope with such a case, it is easy to grasp the actual road conditions and the positional relationship of landmarks etc. from the displayed contents by appropriately overlaying the arrow to the road to the right turn, and landmarks etc. It is. In addition, if you know where you are going, you will not be confused when you turn right even in unfamiliar lands.

本実施の形態における主要な処理内容は、第2の実施の形態に類似している。但し、図21のステップS53でカメラ503から受信するデータは、図8に示されたデータではなく、図25に示したようなデータとなる。図25においてデータ1001は、本実施の形態において追加配信される第1カメラからのデータであって、第1カメラ右折ポイント画像座標Ipin1と、第1カメラマーク画像1と、第1カメラマーク画像1画像座標Im1と、第1カメラマーク画像2と、第1カメラマーク画像2画像座標Im2とを含む。第1カメラ右折ポイント画像座標Ipin1は、映像における、右折先の道路の特定の点(例えば中心)の座標である。第1カメラマーク画像1及び2は、それぞれのランドマークや行き先及び道路名などを表す画像データである。第1カメラマーク画像1画像座標Im1は、第1カメラマーク画像1を配置すべき、映像上の座標である。同様に、第1カメラマーク画像2画像座標Im2は、第1カメラマーク画像2を配置すべき、映像上の座標である。データ1002については、第2カメラについての同様のデータであり、データ1003についてはデータ1001と同じであり、データ1004についてはデータ1002と同じである。マーク画像についてのデータは2セットに限定されず、より多い場合もあれば少ない場合もある。 The main processing contents in the present embodiment are similar to those in the second embodiment. However, the data received from the camera 503 in step S53 of FIG. 21 is not the data shown in FIG. 8 but data as shown in FIG. In FIG. 25, data 1001 is data from the first camera that is additionally distributed in the present embodiment, and is the first camera right turn point image coordinate I pin1 , the first camera mark image 1, and the first camera mark image. 1 image coordinate I m1 , first camera mark image 2, and first camera mark image 2 image coordinate I m2 are included. The first camera right turn point image coordinate I pin1 is the coordinate of a specific point (for example, the center) of the right turn destination road in the video. The first camera mark images 1 and 2 are image data representing respective landmarks, destinations and road names. The first camera mark image 1 image coordinate Im1 is a coordinate on the video where the first camera mark image 1 is to be arranged. Similarly, the first camera mark image 2 image coordinate Im 2 is a coordinate on the video where the first camera mark image 2 is to be placed. The data 1002 is the same as that for the second camera, the data 1003 is the same as the data 1001, and the data 1004 is the same as the data 1002. The data about the mark image is not limited to two sets, and may be more or less.

また、図21のステップS57乃至S61については、図26に示すような処理フローに置換される。ステップS57及びS61については、図21と同じである。ステップS57の後に、アフィン変換部532は、映像データ格納部529に格納された映像データ等に対して自車位置IVtを基準にアフィン変換を実施し、変換後の映像データをアフィン変換映像データ格納部533に格納すると共に、アフィン変換後の自車位置IVt'、アフィン変換後の右折ポイント位置Ipin'及びアフィン変換後のマーク位置Im1'等を特定し、アフィン変換映像データ格納部533に格納する(ステップS71)。 Further, steps S57 to S61 in FIG. 21 are replaced with a processing flow as shown in FIG. Steps S57 and S61 are the same as those in FIG. After step S57, the affine transformation unit 532 performs affine transformation on the video data or the like stored in the video data storage unit 529 with reference to the vehicle position I Vt , and converts the converted video data to affine transformation video data. The affine transformation video data storage section is specified by storing the vehicle position I Vt ′ after the affine transformation, the right turn point position I pin ′ after the affine transformation, the mark position I m1 ′ after the affine transformation, etc. It stores in 533 (step S71).

例えば図27(a)に示すように、映像データ601、自車位置IVt、右折ポイント画像座標Ipin、マーク画像1画像座標Im1及びマーク画像2画像座標Im2が配置されているとすると、映像データ601及び自車位置IVtなどの位置関係を維持しつつ、表示画面701に入るように映像データ601を縮小し、当該縮小に合わせて各座標を算出する。すなわち、自車位置IVtに対応する、表示画面701上の位置IVt'、右折ポイント画像座標Ipinに対応する、表示画面701上の位置Ipin'、マーク画像1画像座標Im1に対応する、表示画面701上の位置Im1'、及びマーク画像2画像座標Im2に対応する、表示画面701上の位置Im2'を得る。結果的に、図27(b)のような位置関係が得られるようになる。なお、マーク画像1画像座標Im1及びマーク画像2画像座標Im2については、存在しない場合もあるので、その場合には変換は行われない。 For example, as shown in FIG. 27A, it is assumed that video data 601, own vehicle position I Vt , right turn point image coordinate I pin , mark image 1 image coordinate I m1, and mark image 2 image coordinate I m2 are arranged. The video data 601 is reduced so as to enter the display screen 701 while maintaining the positional relationship such as the video data 601 and the vehicle position I Vt, and each coordinate is calculated in accordance with the reduction. That is, the position I Vt ′ on the display screen 701 corresponding to the vehicle position I Vt , the position I pin ′ on the display screen 701 corresponding to the right turn point image coordinate I pin , and the mark image 1 image coordinate I m1 to position I m1 on the display screen 701 ', and corresponds to the mark image 2 image coordinates I m2, the position I m2 on the display screen 701' obtained. As a result, the positional relationship as shown in FIG. 27B is obtained. Note that the mark image 1 image coordinate I m1 and the mark image 2 image coordinate I m2 may not exist, and in this case, conversion is not performed.

次に、オーバーレイ表示処理部534は、アフィン変換後の自車位置IVt'からアフィン変換後の右折ポイントIpin'へのカーブを例えばベジエ曲線やスプライン曲線で生成し、さらに当該カーブに基づく矢印を生成してアフィン変換後の映像にオーバーレイさせて、表示装置536に表示させる(ステップS73)。具体的には、図28に示すようにカーブを生成して、当該カーブに沿った矢印621を生成し、図29に示すようにアフィン変換後の映像にオーバーレイ表示させる。 Next, the overlay display processing unit 534 generates a curve from the vehicle position I Vt ′ after the affine transformation to the right turn point I pin ′ after the affine transformation using, for example, a Bezier curve or a spline curve, and an arrow based on the curve Is overlaid on the video after the affine transformation and displayed on the display device 536 (step S73). Specifically, a curve is generated as shown in FIG. 28, an arrow 621 along the curve is generated, and an overlay display is performed on the video after affine transformation as shown in FIG.

さらに、オーバーレイ表示処理部534は、アフィン変換後の映像に、アフィン変換後のマーク位置Im1'及びIm2'に対応するマーク画像をオーバーレイさせて、表示装置536に表示させる(ステップS75)。すなわち、図30に示すように、アフィン変換後のマーク位置Im1'には、マーク623をオーバーレイさせ、アフィン変換後のマーク位置Im2'には、マーク624をオーバーレイさせる。 Further, the overlay display processing unit 534 overlays the mark images corresponding to the mark positions I m1 ′ and I m2 ′ after the affine transformation on the video after the affine transformation, and displays them on the display device 536 (step S75). That is, as shown in FIG. 30, the mark 623 is overlaid on the mark position I m1 ′ after the affine transformation, and the mark 624 is overlaid on the mark position I m2 ′ after the affine transformation.

最後に、オーバーレイ表示処理部534は、第2の実施の形態と同様に、ステップS61を実施する。そうすれば、図30に示すような画像が生成され、表示装置536に表示される。なお、オーバーレイは上で述べたような順番で行うと、表示が正しく行われる。   Finally, the overlay display processing unit 534 performs step S61 as in the second embodiment. Then, an image as shown in FIG. 30 is generated and displayed on the display device 536. Note that if overlaying is performed in the order described above, display is performed correctly.

図30のような表示を行うことによって、自らの位置を自車マーク611で把握できる上に、右折方向を矢印621で、ランドマークをマーク624で、右折方向の行き先や道路名をマーク623で把握できるため、初めての道であっても右折時とまどうことなく、運転することができるようになる。但し、ランドマークや行き先及び道路名などについては、存在しない場合もある。   By performing the display as shown in FIG. 30, the user's own position can be grasped by the own vehicle mark 611, the right turn direction is indicated by the arrow 621, the landmark is indicated by the mark 624, and the destination and road name in the right turn direction are indicated by the mark 623. Because it can be grasped, even on the first road, it will be possible to drive without any trouble when turning right. However, landmarks, destinations and road names may not exist.

以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、機能ブロック図については一例であって、必ずしもプログラム・モジュールと機能ブロックとは対応しない。   Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, the functional block diagram is an example, and a program module and a functional block do not necessarily correspond.

また、処理フローについても処理結果が変わらない限りにおいて変更可能である。例えば、図7及び図21において道路映像データ及び撮影パラメータの受信を条件が成立した場合に行うようにしていたが、常に受信するようにしても良い。   Further, the processing flow can be changed as long as the processing result does not change. For example, in FIG. 7 and FIG. 21, the reception of the road video data and the shooting parameters is performed when the condition is satisfied, but may be always received.

(付記1)
自車両の走行道路と交差する交差道路の映像データを受信する受信ステップと、
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換ステップと、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。
(Appendix 1)
A receiving step for receiving video data of an intersecting road that intersects with the traveling road of the vehicle;
A conversion step of performing shear conversion on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
A display step of generating display video data from the video data after the shear transformation stored in the storage device and displaying the display video data on a display device;
Video processing method.

(付記2)
前記変換ステップが、
受信した前記映像データに係る交差道路と前記走行道路との交差角を算出する交差角算出ステップと、
受信した前記映像データにおいて当該映像データに係る交差道路の傾き角を算出する傾き角算出ステップと、
前記交差角と前記傾き角とに基づき剪断角に関するデータを算出する剪断角算出ステップと、
算出された前記剪断角に関するデータを用いて前記映像データに対して剪断変換を実施し、記憶装置に格納するステップと、
を含む付記1記載の映像処理方法。
(Appendix 2)
The converting step comprises:
A crossing angle calculating step of calculating a crossing angle between the crossing road related to the received video data and the traveling road;
An inclination angle calculating step of calculating an inclination angle of an intersection road related to the video data in the received video data;
A shear angle calculating step of calculating data on the shear angle based on the intersection angle and the inclination angle;
Performing a shear transformation on the video data using the calculated data relating to the shear angle, and storing in a storage device;
The video processing method according to appendix 1, which includes:

(付記3)
前記剪断角算出ステップが、
前記交差角に応じた表示角を算出する表示角算出ステップと、
前記表示角と前記傾き角とから剪断角に関するデータを算出するステップと、
を含む付記2記載の映像処理方法。
(Appendix 3)
The shear angle calculating step includes:
A display angle calculation step of calculating a display angle according to the intersection angle;
Calculating data relating to the shear angle from the display angle and the tilt angle;
The video processing method according to appendix 2, including:

(付記4)
前記受信ステップにおいて前記映像データと共に当該映像データに係る交差道路の流出方向を表すデータをさらに受信し、
前記交差角算出ステップが、
前記自車両の走行方向を特定するステップと、
前記走行方向と前記交差道路の流出方向とから交差角を算出するステップと、
を含む付記2記載の映像処理方法。
(Appendix 4)
In the receiving step, further receiving data representing the outflow direction of the crossing road related to the video data together with the video data,
The intersection angle calculating step includes:
Identifying the traveling direction of the host vehicle;
Calculating a crossing angle from the traveling direction and the outflow direction of the crossing road;
The video processing method according to appendix 2, including:

(付記5)
前記受信ステップにおいて前記映像データと共に当該映像データに係る交差道路の、当該映像における方向を表すデータをさらに受信し、
前記傾き角算出ステップにおいて、前記映像における方向を表すデータから前記傾き角を算出する
付記2記載の映像処理方法。
(Appendix 5)
In the receiving step, further receiving data indicating the direction in the video of the intersection road related to the video data together with the video data;
The video processing method according to claim 2, wherein, in the tilt angle calculating step, the tilt angle is calculated from data representing a direction in the video.

(付記6)
前記表示角算出ステップにおいて、所定の関数に従って前記交差角を表示角に変換することを特徴とする付記3記載の映像処理方法。
(Appendix 6)
The video processing method according to claim 3, wherein, in the display angle calculation step, the intersection angle is converted into a display angle according to a predetermined function.

(付記7)
前記表示ステップが、
前記走行道路の両側に前記交差道路が存在する場合には、左側の前記交差道路に係る前記表示映像データを左側に配置し、右側の前記交差道路に係る前記表示映像データを右側に配置するステップ
を含む付記1記載の映像処理方法。
(Appendix 7)
The displaying step comprises:
When the intersection road exists on both sides of the traveling road, the display image data relating to the left intersection road is arranged on the left side, and the display image data relating to the right intersection road is arranged on the right side. The video processing method according to appendix 1, which includes:

(付記8)
前記表示ステップが、
前記剪断変換後の前記映像データを長方形又は正方形に切り出し、拡大又は縮小処理を実施するステップ
を含む付記1記載の映像処理方法。
(Appendix 8)
The displaying step comprises:
The video processing method according to claim 1, further comprising a step of cutting the video data after the shear transformation into a rectangle or a square and performing an enlargement or reduction process.

(付記9)
前記受信ステップ又は前記変換ステップ以降の処理を自車両速度が閾値以下である場合に実行する付記1記載の映像処理方法。
(Appendix 9)
The video processing method according to claim 1, wherein the processing after the receiving step or the converting step is executed when the host vehicle speed is equal to or less than a threshold value.

(付記10)
前記走行道路が非優先道路である場合に前記受信ステップ又は前記変換ステップ以降の処理を実行する付記1記載の映像処理方法。
(Appendix 10)
The video processing method according to supplementary note 1, wherein when the travel road is a non-priority road, the processing after the reception step or the conversion step is executed.

(付記11)
自車両の走行道路と交差する交差道路の映像データを受信する受信手段と、
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換手段と、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。
(Appendix 11)
Receiving means for receiving video data of an intersecting road that intersects the traveling road of the host vehicle;
Conversion means for performing shear transformation on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
Display means for generating display video data from the video data after the shear transformation stored in the storage device, and displaying on the display device;
A video processing apparatus.

(付記12)
自車両の走行道路の対向車線を含む、前記自車両の走行方向の映像データを受信するステップと、
受信した前記映像データの座標系における自車両位置を特定するステップと、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。
(Appendix 12)
Receiving video data of the traveling direction of the host vehicle, including the opposite lane of the traveling road of the host vehicle;
Identifying the vehicle position in the coordinate system of the received video data;
A display step of generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
Video processing method.

(付記13)
受信した前記映像データの座標系における自車両の走行方向を特定するステップ
をさらに含み、
前記表示ステップが、
前記走行方向に向いているマークを生成するステップ
を含む付記12記載の映像処理方法。
(Appendix 13)
Further comprising the step of specifying the traveling direction of the host vehicle in the coordinate system of the received video data,
The displaying step comprises:
The video processing method according to appendix 12, including a step of generating a mark facing in the traveling direction.

(付記14)
前記表示ステップが、
前記表示画像データにおける前記自車両位置から、前記自車両の走行道路と交わる当該自車両の右側の道路の所定位置への右折矢印を生成し、前記表示画像データ上に配置するステップ
を含む付記12記載の映像処理方法。
(Appendix 14)
The displaying step comprises:
Additional remark 12 including the step of generating a right turn arrow from the own vehicle position in the display image data to a predetermined position on a road on the right side of the own vehicle that intersects the traveling road of the own vehicle, and placing the arrow on the display image data. The video processing method described.

(付記15)
前記表示ステップが、
前記映像データと前記自車両位置と前記自車両の走行道路と交わる当該自車両の右側の道路の所定位置とに関する、前記座標系における位置関係を保持するように、前記映像データと前記自車両位置と前記所定位置とに対してアフィン変換を実施するステップと、
前記アフィン変換後の前記自車両位置と前記アフィン変換後の前記所定位置との間を結ぶ曲線から右折矢印を生成し、当該右折矢印を前記表示画像データ上で前記曲線の位置に配置するステップと、
を含む付記12記載の映像処理方法。
(Appendix 15)
The displaying step comprises:
The video data and the host vehicle position so as to maintain a positional relationship in the coordinate system with respect to the video data, the host vehicle position, and a predetermined position of a road on the right side of the host vehicle that intersects the traveling road of the host vehicle. And affine transformation for the predetermined position;
Generating a right turn arrow from a curve connecting the vehicle position after the affine transformation and the predetermined position after the affine transformation, and placing the right turn arrow at the position of the curve on the display image data; ,
The video processing method according to appendix 12, including:

(付記16)
自車両の走行道路の対向車線を含む、前記自車両の走行方向の映像データを受信する手段と、
受信した前記映像データの座標系における自車両位置を特定する手段と、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。
(Appendix 16)
Means for receiving video data of the traveling direction of the host vehicle, including an opposite lane of the traveling road of the host vehicle;
Means for specifying the vehicle position in the coordinate system of the received video data;
Display means for generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
A video processing apparatus.

本発明の第1の実施の形態における道路及びシステム概要を表す図である。It is a figure showing the road and system outline | summary in the 1st Embodiment of this invention. 本発明の第1の実施の形態における車載端末の機能ブロック図である。It is a functional block diagram of the vehicle-mounted terminal in the 1st Embodiment of this invention. 本発明の第1の実施の形態における第1の表示画面例を示す図である。It is a figure which shows the example of the 1st display screen in the 1st Embodiment of this invention. 本発明の第1の実施の形態における第2の表示画面例を示す図である。It is a figure which shows the 2nd example of a display screen in the 1st Embodiment of this invention. 本発明の第1の実施の形態における、道路の交差態様の一例と対応する映像変換について説明した模式図である。It is the schematic diagram explaining the video conversion corresponding to an example of the road intersection in the first embodiment of the present invention. 本発明の第1の実施の形態における、道路の交差態様の他の例と対応する映像変換について説明した模式図である。It is the schematic diagram demonstrated about the video conversion corresponding to the other example of the crossing aspect of a road in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるメイン処理の処理フローを示す図である。It is a figure which shows the processing flow of the main process in the 1st Embodiment of this invention. 映像データ格納部に格納されたデータの一例を示す図である。It is a figure which shows an example of the data stored in the video data storage part. 道路設置のカメラによって撮影された映像の一例を示す図である。It is a figure which shows an example of the image | video image | photographed with the camera of road installation. 道路設置のカメラによって撮影された映像の他の例を示す図である。It is a figure which shows the other example of the image | video image | photographed with the camera of road installation. 本発明の第1の実施の形態における映像変換処理の処理フローを示す図である。It is a figure which shows the processing flow of the video conversion process in the 1st Embodiment of this invention. 道路流出ベクトルなどを説明するための図である。It is a figure for demonstrating a road runoff vector. (a)及び(b)は、進行方向ベクトルと道路流出ベクトルとの交差角を説明するための図である。(A) And (b) is a figure for demonstrating the intersection angle of a advancing direction vector and a road outflow vector. (a)は、交差角から表示角βを算出する際の変換関数を表す図であり、(b)は交差角と表示角の関係を模式的に示す図である。(A) is a figure showing the conversion function at the time of calculating the display angle (beta) from an intersection angle, (b) is a figure which shows typically the relationship between an intersection angle and a display angle. 傾き角αについて説明するための図である。It is a figure for demonstrating inclination | tilt angle (alpha). (a)は傾き角αを表す図であり、(b)は表示角βと剪断角γとの関係を表す図である。(A) is a figure showing inclination-angle (alpha), (b) is a figure showing the relationship between display angle (beta) and shear angle (gamma). 剪断角γの算出を説明するための図である。It is a figure for demonstrating calculation of the shear angle (gamma). (a)乃至(c)は、映像の切り出し及び拡大の処理を説明するための図である。(A) thru | or (c) is a figure for demonstrating the process of cutting-out of an image | video, and expansion. (a)及び(b)は、本発明の第2の実施の形態を説明するための図である。(A) And (b) is a figure for demonstrating the 2nd Embodiment of this invention. 本発明の第2の実施の形態における車載端末の機能ブロック図である。It is a functional block diagram of the vehicle-mounted terminal in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における処理フローを示す図である。It is a figure which shows the processing flow in the 2nd Embodiment of this invention. (a)及び(b)は、本発明の第2の実施の形態における座標変換を説明するための図である。(A) And (b) is a figure for demonstrating the coordinate transformation in the 2nd Embodiment of this invention. (a)及び(b)は、本発明の第2の実施の形態におけるアフィン変換を説明するための図である。(A) And (b) is a figure for demonstrating the affine transformation in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画面例を示す図である。It is a figure which shows the example of a screen in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における受信データの一例を示す図である。It is a figure which shows an example of the reception data in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における処理フローを示す図である。It is a figure which shows the processing flow in the 3rd Embodiment of this invention. (a)及び(b)は、本発明の第3の実施の形態における処理を説明するための図である。(A) And (b) is a figure for demonstrating the process in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における処理を説明するための図である。It is a figure for demonstrating the process in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における処理を説明するための図である。It is a figure for demonstrating the process in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における画面例を示す図である。It is a figure which shows the example of a screen in the 3rd Embodiment of this invention. 従来技術を説明するための図である。It is a figure for demonstrating a prior art.

符号の説明Explanation of symbols

C1,C2,C3,C4,C5 車両 1,2 アンテナ
3 映像伝送装置 4,5 カメラ
11,521 位置検出部 12,522 位置データ格納部
13,525 速度検出部 14,535 速度データ格納部
15.523 進行方向決定部 16,524 進行方向データ格納部
17,528 映像データ受信部 18,529 映像データ格納部
19 剪断角算出部 20 剪断角データ格納部
21 映像変換部 22 変換後映像データ格納部
23 映像表示処理部 24 表示装置
526 方向指示器状態取得部 527 方向指示器状態データ格納部
530 透視変換部 531 位置及び角度データ格納部
532 アフィン変換部 533 アフィン変換映像データ格納部
534 オーバーレイ表示処理部 536 表示装置
C1, C2, C3, C4, C5 Vehicle 1, 2 Antenna 3 Video transmission device 4, 5 Camera 11, 521 Position detection unit 12, 522 Position data storage unit 13, 525 Speed detection unit 14, 535 Speed data storage unit 15. 523 Travel direction determination unit 16,524 Travel direction data storage unit 17,528 Video data reception unit 18,529 Video data storage unit 19 Shear angle calculation unit 20 Shear angle data storage unit 21 Video conversion unit 22 Converted video data storage unit 23 Video display processing unit 24 Display device 526 Direction indicator state acquisition unit 527 Direction indicator state data storage unit 530 Perspective conversion unit 531 Position and angle data storage unit 532 Affine conversion unit 533 Affine conversion video data storage unit 534 Overlay display processing unit 536 Display device

Claims (8)

自車両の走行道路と交差する交差道路の映像データを受信する受信ステップと、
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換ステップと、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。
A receiving step for receiving video data of an intersecting road that intersects with the traveling road of the vehicle;
A conversion step of performing shear conversion on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
A display step of generating display video data from the video data after the shear transformation stored in the storage device and displaying the display video data on a display device;
Video processing method.
前記変換ステップが、
受信した前記映像データに係る交差道路と前記走行道路との交差角を算出する交差角算出ステップと、
受信した前記映像データにおいて当該映像データに係る交差道路の傾き角を算出する傾き角算出ステップと、
前記交差角と前記傾き角とに基づき剪断角に関するデータを算出する剪断角算出ステップと、
算出された前記剪断角に関するデータを用いて前記映像データに対して剪断変換を実施し、記憶装置に格納するステップと、
を含む請求項1記載の映像処理方法。
The converting step comprises:
A crossing angle calculating step of calculating a crossing angle between the crossing road related to the received video data and the traveling road;
An inclination angle calculating step of calculating an inclination angle of an intersection road related to the video data in the received video data;
A shear angle calculating step of calculating data on the shear angle based on the intersection angle and the inclination angle;
Performing a shear transformation on the video data using the calculated data relating to the shear angle, and storing in a storage device;
The video processing method according to claim 1, further comprising:
前記表示ステップが、
前記走行道路の両側に前記交差道路が存在する場合には、左側の前記交差道路に係る前記表示映像データを左側に配置し、右側の前記交差道路に係る前記表示映像データを右側に配置するステップ
を含む請求項1記載の映像処理方法。
The displaying step comprises:
When the intersection road exists on both sides of the traveling road, the display image data relating to the left intersection road is arranged on the left side, and the display image data relating to the right intersection road is arranged on the right side. The video processing method according to claim 1, further comprising:
自車両の走行道路と交差する交差道路の映像データを受信する受信手段と、
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換手段と、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。
Receiving means for receiving video data of an intersecting road that intersects the traveling road of the host vehicle;
Conversion means for performing shear transformation on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
Display means for generating display video data from the video data after the shear transformation stored in the storage device, and displaying on the display device;
A video processing apparatus.
自車両の走行道路の対向車線を含む、前記自車両の走行方向の映像データを受信するステップと、
受信した前記映像データの座標系における自車両位置を特定するステップと、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。
Receiving video data of the traveling direction of the host vehicle, including the opposite lane of the traveling road of the host vehicle;
Identifying the vehicle position in the coordinate system of the received video data;
A display step of generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
Video processing method.
受信した前記映像データの座標系における自車両の走行方向を特定するステップ
をさらに含み、
前記表示ステップが、
前記走行方向に向いているマークを生成するステップ
を含む請求項5記載の映像処理方法。
Further comprising the step of specifying the traveling direction of the host vehicle in the coordinate system of the received video data,
The displaying step comprises:
The video processing method according to claim 5, further comprising: generating a mark facing in the traveling direction.
前記表示ステップが、
前記表示画像データにおける前記自車両位置から、前記自車両の走行道路と交わる当該自車両の右側の道路の所定位置への右折矢印を生成し、前記表示画像データ上に配置するステップ
を含む請求項5記載の映像処理方法。
The displaying step comprises:
A step of generating a right turn arrow from the position of the host vehicle in the display image data to a predetermined position of a road on the right side of the host vehicle that intersects with a traveling road of the host vehicle and arranging the arrow on the display image data. 5. The video processing method according to 5.
自車両の走行道路の対向車線を含む、前記自車両の走行方向の映像データを受信する手段と、
受信した前記映像データの座標系における自車両位置を特定する手段と、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。
Means for receiving video data of the traveling direction of the host vehicle, including an opposite lane of the traveling road of the host vehicle;
Means for specifying the vehicle position in the coordinate system of the received video data;
Display means for generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
A video processing apparatus.
JP2006295089A 2005-11-07 2006-10-31 Video processing method and apparatus Active JP4738314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006295089A JP4738314B2 (en) 2005-11-07 2006-10-31 Video processing method and apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005321834 2005-11-07
JP2005321834 2005-11-07
JP2006295089A JP4738314B2 (en) 2005-11-07 2006-10-31 Video processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2007149077A true JP2007149077A (en) 2007-06-14
JP4738314B2 JP4738314B2 (en) 2011-08-03

Family

ID=38210369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006295089A Active JP4738314B2 (en) 2005-11-07 2006-10-31 Video processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4738314B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037457A (en) * 2007-08-02 2009-02-19 Denso Corp Driving support system
WO2010023785A1 (en) * 2008-08-26 2010-03-04 パナソニック株式会社 Intersection situation recognition system
KR20210008737A (en) * 2019-07-15 2021-01-25 주식회사 하이퍼센싱 Device and method for calculation vehicle position in an image, and traffic analysis system using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242500A (en) * 1991-01-16 1992-08-31 Toshiba Corp Vehicle driving supporting device
JPH11160080A (en) * 1997-12-01 1999-06-18 Harness Syst Tech Res Ltd Mobile body information system
JP2000259818A (en) * 1999-03-09 2000-09-22 Toshiba Corp Condition information providing device and method therefor
JP2001184595A (en) * 1999-12-27 2001-07-06 Matsushita Electric Ind Co Ltd Transmitting system, transmitter, receiver, display device and vehicle
JP2003151070A (en) * 2001-11-13 2003-05-23 Sony Corp Information processing system, device and method, recording medium and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242500A (en) * 1991-01-16 1992-08-31 Toshiba Corp Vehicle driving supporting device
JPH11160080A (en) * 1997-12-01 1999-06-18 Harness Syst Tech Res Ltd Mobile body information system
JP2000259818A (en) * 1999-03-09 2000-09-22 Toshiba Corp Condition information providing device and method therefor
JP2001184595A (en) * 1999-12-27 2001-07-06 Matsushita Electric Ind Co Ltd Transmitting system, transmitter, receiver, display device and vehicle
JP2003151070A (en) * 2001-11-13 2003-05-23 Sony Corp Information processing system, device and method, recording medium and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037457A (en) * 2007-08-02 2009-02-19 Denso Corp Driving support system
WO2010023785A1 (en) * 2008-08-26 2010-03-04 パナソニック株式会社 Intersection situation recognition system
KR20210008737A (en) * 2019-07-15 2021-01-25 주식회사 하이퍼센싱 Device and method for calculation vehicle position in an image, and traffic analysis system using the same
KR102256205B1 (en) 2019-07-15 2021-05-27 주식회사 하이퍼센싱 Device and method for calculation vehicle position in an image, and traffic analysis system using the same

Also Published As

Publication number Publication date
JP4738314B2 (en) 2011-08-03

Similar Documents

Publication Publication Date Title
JP4293917B2 (en) Navigation device and intersection guide method
EP2110797B1 (en) Traffic situation display method, traffic situation display system, vehicle-mounted device, and computer program
US9827907B2 (en) Drive assist device
US8885039B2 (en) Providing vehicle information
US8977486B2 (en) Navigation system and displaying method thereof
US10895912B2 (en) Apparatus and a method for controlling a head- up display of a vehicle
US7856313B2 (en) Electronic device, display processing method and program
JP5223768B2 (en) Vehicle display device
JP2008280026A (en) Driving assistance device
JP4747867B2 (en) VEHICLE DISPLAY DEVICE AND VEHICLE VIDEO DISPLAY CONTROL METHOD
US9423267B2 (en) Navigation device and display control method
JP4858212B2 (en) Car navigation system
KR20160140055A (en) Automotive navigation apparatus and method for providing dynamic map therof
JP2008046766A (en) Vehicle external information display device
JP2008097279A (en) Vehicle exterior information display device
JP2022176234A (en) Information display control device, information display control method, and information display control program
JP4738314B2 (en) Video processing method and apparatus
JP2005297810A (en) Display system for vehicle and program
JP4600391B2 (en) Display device, display system, and display method
JP4249037B2 (en) Peripheral vehicle display device, navigation device, and vehicle display method
JP4924300B2 (en) In-vehicle intersection stop prevention device, in-intersection stop prevention system, in-vehicle intersection stop prevention device program, in-vehicle crossing stop prevention device, in-crossing stop prevention system, and in-vehicle crossing stop prevention device program
JP2009037457A (en) Driving support system
JP4725503B2 (en) In-vehicle device, driving support system, and driving support method
JP2014074627A (en) Navigation system for vehicle
JPH1097700A (en) Information providing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110426

R150 Certificate of patent or registration of utility model

Ref document number: 4738314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3