JP2007149077A - Video processing method and device - Google Patents
Video processing method and device Download PDFInfo
- Publication number
- JP2007149077A JP2007149077A JP2006295089A JP2006295089A JP2007149077A JP 2007149077 A JP2007149077 A JP 2007149077A JP 2006295089 A JP2006295089 A JP 2006295089A JP 2006295089 A JP2006295089 A JP 2006295089A JP 2007149077 A JP2007149077 A JP 2007149077A
- Authority
- JP
- Japan
- Prior art keywords
- video data
- road
- data
- video
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、自動車の運転者に対して提示するための映像データを生成する技術に関する。 The present invention relates to a technique for generating video data to be presented to an automobile driver.
従来から、見通しの悪い交差点には、車両や歩行者などを相互に確認させ、注意を促すために道路反射鏡が設置されている。しかし、道路反射鏡には左右が逆に映るため位置関係や方向を混乱させたり、凸面鏡のために反射像が歪んだり、設置位置や向きの制約により映し出せない死角があったりといった問題がある。 Conventionally, road reflectors have been installed at intersections with poor visibility so that vehicles, pedestrians, and the like can mutually confirm and call attention. However, there are problems such as confusing the positional relationship and direction because the left and right images are reflected on the road reflector, the reflection image is distorted due to the convex mirror, and there are blind spots that cannot be projected due to restrictions on the installation position and orientation. .
このような道路反射鏡の問題を解決するため、例えば特開2001−155297号公報には、道路上の死角位置の映像を移動体に伝送して死角位置を減少させ、運転者が道路状況をより迅速且つ必要な時間中確認できるようにするための技術が開示されている。具体的には、太陽電池と撮影手段とを装備し、道路交差点等の監視エリアに設置され、撮影手段からの映像信号を無線送信する送信手段と、移動体に装備され送信手段からの映像信号を受信する受信手段とを備える。そして、移動体が映像信号の受信範囲に進入すると移動体の受信手段が自動的にその映像信号を受信することにより運転者は道路死角位置の状況を確認して運行することができる。しかし、運転者に提示される映像の内容については特に工夫はない。 In order to solve such a problem of the road reflector, for example, Japanese Patent Laid-Open No. 2001-155297 discloses an image of a blind spot position on a road to a moving body to reduce the blind spot position, so that the driver can Techniques have been disclosed for enabling confirmation more quickly and during the required time. Specifically, it is equipped with a solar cell and photographing means, installed in a monitoring area such as a road intersection, and transmitting means for wirelessly transmitting a video signal from the photographing means, and a video signal from the transmitting means that is equipped on a moving body. Receiving means. Then, when the moving body enters the reception range of the video signal, the receiving means of the moving body automatically receives the video signal, so that the driver can check the road blind spot position and operate. However, there is no particular idea about the content of the video presented to the driver.
また、特開2003−109199号公報には、交差点近傍にて道路状況を撮影した画像を、車両の搭乗者へ提供することにより、特に見通しの悪い交差点における、車両対車両、車両対自転車、車両対人などの車両事故を防止し、交通の利便を図ることができる車両事故防止システムが開示されている。具体的には、優先道路及び非優先道路からなる交差点において、優先道路を撮影すべくカメラC1,C2が設置され、非優先道路にて交差点へ進入する車両へ映像情報を提供すべく投受光器が設置されている。カメラC1,C2が撮影した映像は、画像提供装置を介して投受光器から映像情報として送信され、車両が搭載する車載装置にて受信された映像情報が図31に示すように表示部で単に並べて表示される。図31においてハッチングが付された四角は車両を模式的に示したものである。本公報においても、表示内容について特に工夫はない。
しかしながら、上記公報開示の技術では、道路の映像をそのまま車内のモニタに表示するだけであるから、運転者が通り慣れていない交差点では、映像がどの方向の道路を写しているのか瞬時に判断できないという問題がある。すなわち、道路反射鏡の場合には運転者は道路反射鏡を基準に自分と反射像の位置関係を把握することができるが、上記公報開示の技術では基準となるものがなく、運転者と映像の道路との位置関係を把握しづらくなっている。 However, in the technique disclosed in the above publication, the road image is simply displayed on the monitor in the vehicle as it is, so at an intersection where the driver is not familiar with the road, it is impossible to instantaneously determine which direction the image is taken. There is a problem. That is, in the case of a road reflector, the driver can grasp the positional relationship between himself and the reflected image with reference to the road reflector, but the technique disclosed in the above publication has no reference, and the driver and video It is difficult to grasp the positional relationship with other roads.
従って、本発明の目的は、自動車の運転者が表示画面において自車と映像で示される道路等との位置関係を把握しやすくするための映像処理技術を提供することである。 Accordingly, an object of the present invention is to provide a video processing technique for facilitating the driver of a car to grasp the positional relationship between the vehicle and a road or the like shown on the display screen.
本発明の第1の態様に係る映像処理方法は、自車両の走行道路と交差する交差道路の映像データを受信する受信ステップと、受信した映像データに係る交差道路と走行道路との交差角に基づき決定される剪断角で映像データに対して剪断変換を実施し、記憶装置に格納する変換ステップと、記憶装置に格納された剪断変換後の映像データから表示映像データを生成し、表示装置に表示する表示ステップとを含む。このように交差道路と走行道路との交差角に基づき決定される剪断角で映像を傾けることによって、運転者はどの方向の交差道路についての映像かを容易に把握することができるようになり、安全運転につながる。 The video processing method according to the first aspect of the present invention includes a reception step of receiving video data of an intersection road that intersects with the traveling road of the host vehicle, and an intersection angle between the intersection road and the traveling road according to the received video data. The image data is subjected to shear transformation at a shear angle determined based on the transformation step for storing in the storage device, and display video data is generated from the video data after the shear transformation stored in the storage device, A display step for displaying. By tilting the video at the shear angle determined based on the crossing angle between the crossing road and the traveling road in this way, the driver can easily grasp the video about the crossing road in which direction, It leads to safe driving.
また、上で述べた変換ステップが、受信した映像データに係る交差道路と走行道路との交差角を算出する交差角算出ステップと、受信した映像データにおいて当該映像データに係る交差道路の傾き角を算出する傾き角算出ステップと、交差角と傾き角とに基づき剪断角に関するデータを算出する剪断角算出ステップと、算出された剪断角に関するデータを用いて映像データに対して剪断変換を実施し、記憶装置に格納するステップとを含むようにしてもよい。このように傾き角を導入することによってより適切な剪断角を導き出すことができるようになる。 Further, the conversion step described above includes an intersection angle calculating step for calculating an intersection angle between the intersection road and the traveling road related to the received video data, and an inclination angle of the intersection road related to the video data in the received video data. An inclination angle calculation step to calculate, a shear angle calculation step to calculate data related to the shear angle based on the intersection angle and the inclination angle, and a shear transformation is performed on the video data using the data related to the calculated shear angle, Storing in the storage device. By introducing the inclination angle in this way, a more appropriate shear angle can be derived.
さらに、上で述べた表示ステップが、走行道路の両側に交差道路が存在する場合には、左側の交差道路に係る表示映像データを左側に配置し、右側の交差道路に係る表示映像データを右側に配置するステップを含むようにしてもよい。このようにすれば、例えば十字路の交差点については、右側には右側に道路が傾いた映像が、左側には左側に道路が傾いた映像が提示されるようになり、運転者はより容易に自車両との位置関係を把握できるようになる。 Further, when there are cross roads on both sides of the driving road, the display step described above arranges the display video data related to the left cross road on the left side and the display video data related to the right cross road to the right side. May be included in the step. In this way, for example, at the intersection of a crossroad, an image with the road tilted on the right side is displayed on the right side, and an image with the road tilted on the left side is displayed on the left side. It becomes possible to grasp the positional relationship with the vehicle.
本発明の第2の態様に係る映像処理方法は、自車両の走行道路の対向車線を含む、自車両の走行方向の映像データを受信するステップと、受信した映像データの座標系における自車両位置を決定するステップと、映像データと自車両を表すためのマークとを上記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示ステップとを含む。これによって、例えば交差点で右折する際に、自車両の位置をマークで把握しつつ対向車を映像で確認して、安全に右折できるようになる。 The video processing method according to the second aspect of the present invention includes a step of receiving video data in the traveling direction of the host vehicle including an opposite lane of the traveling road of the host vehicle, and a host vehicle position in the coordinate system of the received video data. And a display step of generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining the positional relationship in the coordinate system, and displaying the display image data on the display device. Thus, for example, when making a right turn at an intersection, it is possible to check the oncoming vehicle on the image while grasping the position of the host vehicle with the mark, and to make a right turn safely.
本発明の第2の態様において、受信した前記映像データの座標系における自車両の走行方向を特定するステップをさらに含むようにしてもよい。その際、上で述べた表示ステップが、走行方向に向いているマークを生成するステップを含むようにしてもよい。 The second aspect of the present invention may further include a step of specifying the traveling direction of the host vehicle in the coordinate system of the received video data. At that time, the display step described above may include a step of generating a mark facing the traveling direction.
また、本発明の第2の態様において、上で述べた表示ステップが、表示画像データにおける自車両位置から、自車両の走行道路と交わる当該自車両の右側の道路の所定位置への右折矢印を生成し、表示画像データ上に配置するステップを含むようにしてもよい。このようにすれば、右折時に進行方向などを把握しやすくなる。
なお、本映像処理方法をコンピュータに実行させるためのプログラムを作成することができ、このプログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体又は記憶装置に格納される。また、ネットワークなどを介してデジタル信号として配信される場合もある。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
Further, in the second aspect of the present invention, the display step described above includes a right turn arrow from the own vehicle position in the display image data to a predetermined position on the right road of the own vehicle that intersects the traveling road of the own vehicle. A step of generating and arranging on the display image data may be included. This makes it easier to grasp the direction of travel when turning right.
A program for causing the computer to execute the video processing method can be created, and the program is stored in a storage medium or storage device such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, or a hard disk. Is done. Moreover, it may be distributed as a digital signal via a network or the like. The intermediate processing result is temporarily stored in a storage device such as a main memory.
本発明によれば、自動車の運転者が表示画面において自車と映像で示される道路等との位置関係を把握しやすくすることができる。 ADVANTAGE OF THE INVENTION According to this invention, the driver | operator of a motor vehicle can make it easy to grasp | ascertain the positional relationship between the own vehicle and the road etc. which are shown with an image | video on a display screen.
[実施の形態1]
図1に本発明の第1の実施の形態に係る道路及びシステム概要を示す。図1では、非優先道路R100(非優先道路R100の下側部分R100a及び上側部分R100bを含む)と優先道路R101(優先道路R101の左側部分R101a及び右側部分R101bを含む)とが交差している状態を示している。優先道路R101では、左側部分R101aを左から右に車両C3が走行しており、右側部分R101bを右から左に車両C4が走行している。また、非優先道路R100では、下側部分R100aを下から上に車両C2が走行しており、上側部分R100bを上から下に車両C1が走行している。車両C1乃至C4には、以下で説明する車載端末100が搭載されている。
[Embodiment 1]
FIG. 1 shows an outline of a road and a system according to the first embodiment of the present invention. In FIG. 1, the non-priority road R100 (including the lower portion R100a and the upper portion R100b of the non-priority road R100) and the priority road R101 (including the left portion R101a and the right portion R101b of the priority road R101) intersect. Indicates the state. On the priority road R101, the vehicle C3 is traveling from left to right on the left portion R101a, and the vehicle C4 is traveling from right to left on the right portion R101b. In addition, on the non-priority road R100, the vehicle C2 travels from the lower portion R100a from the bottom to the top, and the vehicle C1 travels from the top portion R100b to the bottom. The on-
優先道路R101の右側部分R101bには、左側部分R101aを撮影するためのカメラ4が設置されており、左側部分R101aには、右側部分R101bを撮影するためのカメラ5が設置されている。カメラ4及び5は映像伝送装置3に接続されており、映像伝送装置3は映像データなどを無線で送信するためのアンテナ1及び2に接続されている。このようなカメラ4及び5、映像伝送装置3並びにアンテナ1及び2で構成される道路側システムは、その送信データの内容を除き従来と同じである。
A camera 4 for photographing the left portion R101a is installed on the right portion R101b of the priority road R101, and a
図2に車両C1乃至C4に搭載される車載端末100の機能ブロック図を示す。車載端末100は、車両位置を検出するGPS(Global Positioning System)などの位置検出部11と、位置検出部11により検出された位置データを格納する位置データ格納部12と、当該車載端末100に搭載されている車両の速度計などから速度データを取得する速度検出部13と、速度検出部13が取得した速度データを格納する速度データ格納部14と、位置データ格納部12に格納された位置データに基づき車両の進行方向を決定する進行方向決定部15と、進行方向決定部15により決定された進行方向のデータを格納する進行方向データ格納部16と、アンテナ1又は2などから映像データなどを受信する映像データ受信部17と、映像データ受信部17により受信された映像データなどを格納する映像データ格納部18と、位置データ格納部12と進行方向データ格納部16と映像データ格納部18とに格納されたデータに基づき映像に対して実施する剪断変換の角度(剪断角)を算出する剪断角算出部19と、剪断角算出部19により算出された剪断角のデータを格納する剪断角データ格納部20と、剪断角データ格納部20と映像データ格納部18とに格納されたデータを用いて映像に対して剪断角に応じた剪断変換を実施する映像変換部21と、剪断変換後の映像データを格納する変換後映像データ格納部22と、変換後映像データ格納部22に格納されている映像データを表示用に処理する映像表示処理部23と、映像表示処理部23の出力を表示する表示装置24とを有する。
FIG. 2 shows a functional block diagram of the in-
本実施の形態では、例えば非優先道路R100を下から上に移動する車両C2では、表示装置24に図3に示すような画面が表示される。図3の例では、表示画面上に、2つの映像201及び202が表示される。左側の映像201においては、優先道路R101の左側部分R101a及び当該優先道路R101を走行中の車両C3が示されている。図25に示した従来技術による映像(左側)と比較すると、本実施の形態では、優先道路R101の左側部分R101aが左側に傾けられていることが分かる。同様に、右側の映像202においては、優先道路R101の右側部分R101b及び当該優先道路R101を走行中の車両C4が示されている。図25に示した従来技術による映像(右側)と比較すると、本実施の形態では、優先道路R101の右側部分R101bが右側に傾けられていることが分かる。
In the present embodiment, for example, in the vehicle C2 that moves from the bottom to the top on the non-priority road R100, a screen as shown in FIG. In the example of FIG. 3, two
また、例えば非優先道路R100を上から下に移動する車両C1では、表示装置24に図4に示すような画面が表示される。図4の例では、表示画面上に、2つの映像203及び204が表示される。左側の映像203においては、優先道路R101の右側部分R101b及び当該優先道路R101を走行中の車両C4が示されている。そして、優先道路R101の右側部分R101bが左側に傾けられていることが分かる。同様に、右側の映像204においては、優先道路R101の左側部分R101a及び当該優先道路R101を走行中の車両C3が示されている。また、優先道路R101の左側部分R101aが右側に傾けられていることが分かる。このように図3と図4では、映像は左右逆転しており、さらに走行方向が逆方向であるから傾ける方向も逆となっている。
Further, for example, in the vehicle C1 moving from the top to the bottom on the non-priority road R100, a screen as shown in FIG. In the example of FIG. 4, two
このように映像中の道路を、優先道路R101と非優先道路R100との交差角度に応じて傾けることによって、自車両が走行する道路と交差する道路の方向及び道路の位置関係を把握しやすくしている。図1では優先道路R101と非優先道路R100とが直交していたが、例えば図5の中央に示すように、優先道路R101と非優先道路R100とが、左側では左手側の交差角θで交差し、右側では右手側の交差角Φで交差しているものとする。なお、Φ>θである。ここで、図5の左側に示すように、車両C2の車載端末100では、カメラ4で撮影された映像データ211を受信し、当該映像に対して左手側の交差角θに応じた角度だけ左側に剪断変換を行って映像データ212を生成し、表示装置に表示する。同様に、図5の右側に示すように、カメラ5で撮影された映像データ213を受信し、当該映像に対して右側の交差角Φに応じた角度だけ右側に剪断変換を行って映像データ214を生成し、表示装置に表示する。映像データ212と映像データ214とを比較すれば、Φ>θであるから、映像中の優先道路R101の左側部分R101aより、映像中の優先道路R101の右側部分R101bの方が、傾きが大きくなっている。また、図3及び図4のように左右並べて表示することによって、道路の交差状態を含めて交差点の状況を容易に把握できるようになる。これによって安全運転が促進される。なお、図25のような表示を行っても道路の方向及び道路の位置関係を瞬時に把握することはできず、表示する効果が薄れている。
In this way, by tilting the road in the video according to the intersection angle between the priority road R101 and the non-priority road R100, it is easy to grasp the direction of the road intersecting with the road on which the host vehicle travels and the positional relationship of the road. ing. In FIG. 1, the priority road R101 and the non-priority road R100 are orthogonal to each other. However, as shown in the center of FIG. 5, for example, the priority road R101 and the non-priority road R100 intersect at the intersection angle θ on the left hand side on the left side. On the right side, it is assumed that they intersect at an intersection angle Φ on the right hand side. Note that Φ> θ. Here, as shown on the left side of FIG. 5, the in-
また、図6の左側に示すような交差点の場合には、並べればより差が出るような映像が表示される。すなわち、車両C2が走行している非優先道路R100は、車両C4が走行している優先道路R101の右側部分R101bと比較的大きな交差角で交差しており、車両C5が走行している道路R102とは比較的小さな交差角で交差している。但し、両方とも車両C2の右手側の道路である。従って、カメラ4で撮影され且つ車両C5及び道路R102が含まれる映像は、比較的小さな交差角に応じた比較的小さな角度、すなわち道路の中心線が垂直から表示角θとなるように剪断変換される。一方、カメラ5で撮影され且つ車両C4及び道路R101bが含まれる映像は、比較的大きな交差角に応じた比較的大きな角度、すなわち道路の中心線が垂直から表示角Φとなるように剪断変換される。Φ>θであるから、運転者は図6の右側に示すような映像が表示されれば、同じ右側の交差道路であっても、容易に区別して判断することができるようになる。
In addition, in the case of the intersection as shown on the left side of FIG. That is, the non-priority road R100 on which the vehicle C2 is traveling intersects the right portion R101b of the priority road R101 on which the vehicle C4 is traveling at a relatively large intersection angle, and the road R102 on which the vehicle C5 is traveling. Intersects with a relatively small crossing angle. However, both are roads on the right hand side of the vehicle C2. Therefore, the image captured by the camera 4 and including the vehicle C5 and the road R102 is shear-transformed so that a relatively small angle corresponding to a relatively small intersection angle, that is, the road center line changes from the vertical to the display angle θ. The On the other hand, the image captured by the
以下、図7乃至図18を用いて図1及び図2に示したシステムの処理内容について説明する。まず、速度検出部13は、自車両の速度計などから所定時間間隔で自車速度を検出し、速度データ格納部14に格納する(ステップS1)。速度データ格納部14では、自車速度が時系列的に保存されている。また、位置検出部11は、所定の時間間隔で自車位置を検出し、自車位置のデータを位置データ格納部12に格納し、進行方向決定部15は、位置データ格納部12に格納されている、現時点tにおける位置PVtのデータと時刻(t−1)における位置PVt-1のデータとを用いて、進行方向ベクトルを決定し、進行方向データ格納部16に格納する(ステップS3)。位置データ格納部12及び進行方向データ格納部16では、自車位置及び進行方向のデータが例えば計測時刻と共に時系列的に保存されている。
The processing contents of the system shown in FIGS. 1 and 2 will be described below with reference to FIGS. First, the
例えば、映像データ受信部17は、速度データ格納部14に格納されている現時点の自車速度のデータから、自車両が停止又は所定の速度以下で走行している徐行状態であるか判断する(ステップS5)。もし、通常走行中であれば、映像を表示装置24に表示してしまうと運転者に不要な情報を与えることになり、危険なので、ステップS1に戻る。
For example, the video
一方、自車両が停止又は徐行していると判断された場合には、映像データ受信部17は、カメラ4又は5により撮影され且つアンテナ1又は2により送信される道路映像データを受信し、映像データ格納部18に格納する(ステップS7)。また、撮影パラメータを受信し、映像データ格納部18に格納する(ステップS9)。
On the other hand, when it is determined that the host vehicle is stopped or slowing down, the video
映像データ格納部18には例えば図8乃至図10に示すような道路映像及び撮影パラメータが格納される。映像データ格納部18では、道路映像(例えば図9又は図10のような映像データ)及び撮影パラメータは時系列的に格納される。図8の例では、時刻t−1のデータ及び時刻tのデータしか示されていないが、これ以外の時刻のデータが保持される場合もある。各時刻のデータは、各カメラのデータを含む。ここでは第1及び第2のカメラのデータが含まれる。各カメラのデータは、映像データと、カメラの設置位置、カメラの撮影方向、画角、撮影時刻、注視点位置等、例えば撮影された道路の中央線上の2点の実座標PRnS及びPRnE、及び2点の実座標のそれぞれに対応する映像上の座標IRnS及びIRnEを含む撮影パラメータとを含む。なお、撮影パラメータには、撮影している道路が優先道路か否かのフラグを含む場合もある。ここでnはカメラ番号を表す。
The video
次に、剪断角算出部19は、受信した映像データに係る撮影パラメータに含まれるカメラの設置位置と進行方向データ格納部16に格納されている現時点における自車両の進行方向のデータとから、受信した映像データが自車両の進行方向において直近交差点の交差道路の映像であるか判断する(ステップS11)。進行方向データ格納部16に格納された進行方向の先の所定領域にカメラの設置位置が存在するか否かで判断できる。直近か否かは例えばステップS7乃至11を何回か実行して、最も近いものを特定するようにしても良いし、例えばナビゲーションシステムなどが保持する地図のデータを用いることができれば、カメラの設置位置から直近の交差点に設置されているのか否かを判断する。さらに、撮影パラメータに、撮影している道路が優先道路か否かを表すフラグが存在している場合には当該フラグに基づき、映像データに係る道路が優先道路か否かを判断し、優先道路であれば映像データを使用するように判断するようにしても良い。
Next, the shear angle calculation unit 19 receives from the camera installation position included in the imaging parameters related to the received video data and the current traveling direction data stored in the traveling direction
もし、自車両の進行方向において直近交差点の交差道路の映像でないと判断された場合には、ステップS7に戻る。一方、自車両の進行方向において直近交差点の交差道路の映像であると判断されれば、剪断角算出部19及び映像変換部21は、映像変換処理を実施し、処理結果を剪断角データ格納部20及び変換後映像データ格納部22に格納する(ステップS13)。映像変換処理については後に詳しく説明する。映像変換処理を実施することによって、図3の映像201又は202、図4の映像203又は204が生成される。
If it is determined that the image is not an image of an intersection road at the nearest intersection in the traveling direction of the host vehicle, the process returns to step S7. On the other hand, if it is determined that the image is the image of the intersection road at the nearest intersection in the traveling direction of the host vehicle, the shear angle calculation unit 19 and the
そして、剪断角算出部19は、自車両の進行方向において直近交差点で必要な全ての映像データを受信したか判断する(ステップS15)。基本的には左右の2方向のデータが存在するものと仮定するが、実際には2以上の場合もあれば1の場合もある。従って、例えば同一交差点に設置されたカメラが複数の場合には、映像データの配信タイミングをカメラ毎にずらせば、ステップS7乃至11を複数回実施して、設置位置が同じカメラによって撮影された異なる時刻の映像データなどを受信した場合には、全ての映像データを受信したものと判断できる。 And the shear angle calculation part 19 judges whether all the video data required at the nearest intersection in the advancing direction of the own vehicle were received (step S15). Basically, it is assumed that there are left and right data in two directions, but in actuality, there are cases where there are two or more and cases where there is one. Therefore, for example, when there are a plurality of cameras installed at the same intersection, if the distribution timing of the video data is shifted for each camera, Steps S7 to S11 are performed a plurality of times, and the installation positions are taken by the same camera. When the video data at the time is received, it can be determined that all the video data has been received.
ステップS15で、自車両の進行方向において直近交差点で必要な全ての映像データを受信していないと判断された場合には、ステップS7に戻る。一方、自車両の進行方向において直近交差点で必要な全ての映像データを受信したと判断された場合には、映像表示処理部23は、変換後映像データ格納部22に格納された変換後の映像データを、走行道路と交差道路との交差関係に応じて配置し(ステップS17)、表示装置24に表示する(ステップS19)。例えば図3又は図4のような表示データを生成し、表示装置24に表示する。すなわち、優先道路の左側部分を含む変換後の映像データについては左側に、優先道路の右側部分を含む変換後の映像データについては右側に配置する。
If it is determined in step S15 that not all video data required at the nearest intersection in the traveling direction of the host vehicle has been received, the process returns to step S7. On the other hand, when it is determined that all necessary video data has been received at the nearest intersection in the traveling direction of the host vehicle, the video
以上の処理を終了が指示されるまで実施する(ステップS21)。なお、ステップS7乃至S11で、使用すべき映像データを受信する前に車両が走行を開始してしまったり、所定時間待っても使用すべき映像を受信できない場合には、タイムアウトとしてステップS1に戻るようにする。 The above processing is carried out until an end instruction is given (step S21). In steps S7 to S11, if the vehicle starts running before receiving the video data to be used, or if the video to be used cannot be received even after waiting for a predetermined time, the process returns to step S1 as a timeout. Like that.
以上のような処理を実施すれば、交差点で直接見ることが難しい交差道路の様子を、その道路の交差状態、位置関係などを容易に把握可能な態様で運転者に提示することができるようになる。 By carrying out the processing as described above, it is possible to present the state of the intersection road that is difficult to see directly at the intersection to the driver in a manner that allows easy understanding of the intersection state and positional relationship of the road. Become.
次にステップS13の映像変換処理について図11乃至図18を用いて詳しく述べる。剪断角算出部19は、進行方向データ格納部16に格納されている、自車両の進行方向VVのデータと、映像データ格納部18に格納されている、道路上の2点の実座標PRnS及びPRnE(nは正の整数)とから、走行道路と交差道路との交差角を算出し、例えばメインメモリなどの記憶装置に格納する(ステップS31)。
Next, the video conversion process in step S13 will be described in detail with reference to FIGS. The shear angle calculation unit 19 stores data on the traveling direction V V of the host vehicle stored in the traveling direction
進行方向ベクトルVVは、図12に示すように、進行方向決定部15により、時刻t−1における車両位置PVt-1から時刻tにおける車両位置PVtへのベクトルとなる。また、優先道路R101の右側部分R101bを含む映像データに付随する撮影パラメータである2つの実座標PR1S及びPR1Eによって、実座標PR1Sから実座標PR1Eへの第1の道路流出方向ベクトルVR1を特定する。同様に、優先道路R101の左側部分R101aを含む映像データに付随する撮影パラメータである2つの実座標PR2S及びPR2Eから、実座標PR2Sから実座標PR2Eへの第2の道路流出方向ベクトルVR2を特定する。
Traveling direction vector V V, as shown in FIG. 12, the traveling
そして進行方向ベクトルVVとVR1又はVR2とのベクトル演算により交差角を算出する。具体的には、以下の式に基づきθを算出する。
cosθ=VV・VRi/(|VV||VRi|)
Then, the intersection angle is calculated by vector calculation of the traveling direction vector V V and V R1 or V R2 . Specifically, θ is calculated based on the following equation.
cos θ = V V · V Ri / (| V V || V Ri |)
なお、進行方向ベクトルVVを基準に左回りを正とし、図13(a)に示すように、進行方向ベクトルVVと第2の道路流出ベクトルVR2との間の交差角θ2は、0<θ2<180であって、優先道路R101の左側部分R101aは、自車両の左手に存在していることが分かる。また、図13(b)に示すように、進行方向ベクトルVVと第1の道路流出ベクトルVR1との間の交差角θ1は、0>θ1>−180であって、優先道路R101の右側部分R101bは、自車両の右手に存在していることが分かる。 Incidentally, the traveling direction vector V V positive in the counterclockwise relative to, as shown in FIG. 13 (a), the crossing angle theta 2 between the traveling direction vector V V and a second road runoff vector V R2 is It can be seen that 0 <θ 2 <180 and the left portion R101a of the priority road R101 is present on the left hand side of the host vehicle. As shown in FIG. 13B, the intersection angle θ 1 between the traveling direction vector V V and the first road outflow vector V R1 is 0> θ 1 > −180, and the priority road R101. It can be seen that the right portion R101b of the vehicle is present on the right hand of the host vehicle.
次に、剪断角算出部19は、交差角θに基づき表示角βを算出し、例えばメインメモリなどの記憶装置に格納する(ステップS33)。この際、例えば図14(a)に示すような変換直線を用いて交差角θを表示角βに変換する。表示角βは、最終的な映像中の中央線の傾き角である。図14(a)のグラフは、横軸は交差角θ(°)を表し、縦軸は表示角β(°)を表しており、本実施の形態では、表示角βは、交差角θに比例するようになっている。但し、表示角βが大きすぎると映像が歪むので、比例係数を小さめに設定する。なお、上でも述べたが、角度は左回りが正であるから、図14(a)のグラフの横軸の右半分は、交差角としては左手を示している。また、グラフの横軸の左半分は、交差角としては右手を示している。 Next, the shear angle calculation unit 19 calculates the display angle β based on the crossing angle θ, and stores it in a storage device such as a main memory (step S33). At this time, for example, the crossing angle θ is converted into the display angle β using a conversion straight line as shown in FIG. The display angle β is the tilt angle of the center line in the final video. In the graph of FIG. 14A, the horizontal axis represents the crossing angle θ (°), and the vertical axis represents the display angle β (°). In this embodiment, the display angle β is the crossing angle θ. Proportional. However, since the video is distorted if the display angle β is too large, the proportionality coefficient is set to be small. As described above, since the counterclockwise angle is positive, the right half of the horizontal axis of the graph in FIG. 14A indicates the left hand as the crossing angle. Further, the left half of the horizontal axis of the graph indicates the right hand as the crossing angle.
このような変換直線による変換を行えば、図14(b)に示されているように、交差角θが正の方向に大きくなれば、映像中の表示角βは左手方向に大きくなる。但し、上でも述べたように表示角βを大きくしすぎると歪みが大きくなるので、表示角βは交差角θに比してそれほど大きくならない。同様に、交差角θが負の方向に大きくなれば、映像中の表示角βは右手方向に大きくなる。 If conversion using such a conversion line is performed, as shown in FIG. 14B, when the crossing angle θ increases in the positive direction, the display angle β in the video increases in the left-hand direction. However, as described above, since the distortion increases when the display angle β is excessively large, the display angle β is not so large as compared with the crossing angle θ. Similarly, when the crossing angle θ increases in the negative direction, the display angle β in the video increases in the right-hand direction.
図11の説明に戻って、剪断角算出部19は、映像データ格納部18に格納されている映像中の道路画像座標IRiS及びIRiEから、映像内の道路の傾き角αを算出し、例えばメインメモリなどの記憶装置に格納する(ステップS35)。図15に示すように、中央線上の道路画像座標IRiSから道路画像座標IRiEへのベクトルVIVを特定し、映像中垂直線301とベクトルVIVとの間の傾き角αを算出する。
Returning to the description of FIG. 11, the shear angle calculation unit 19 calculates the inclination angle α of the road in the video from the road image coordinates I RiS and I RiE in the video stored in the video
そして、剪断角算出部19は、ステップS33で格納された表示角βとステップS35で格納された表示角αとから剪断角γ又はtanγを算出し、剪断角データ格納部20に格納する(ステップS36)。図16(a)に示すように、撮影された映像では傾き角αだけ道路が傾いている場合、図16(b)に示すように、道路が表示角βだけ傾くように、剪断角γを決定する。 Then, the shear angle calculation unit 19 calculates the shear angle γ or tan γ from the display angle β stored in step S33 and the display angle α stored in step S35, and stores it in the shear angle data storage unit 20 (step S36). As shown in FIG. 16 (a), when the road is inclined by the inclination angle α in the captured image, the shear angle γ is set so that the road is inclined by the display angle β as shown in FIG. 16 (b). decide.
剪断角γの算出法については、図17を用いて説明する。図17において、変換前の映像の外形を表す細実線の長方形の高さをhとし、細点線401により映像中の道路の中央線を表す。中央線は傾き角αだけ傾いている。この細実線の長方形を剪断角γだけ傾けると、太線平行四辺形となる。結果として、映像中の道路の中央線401は、太点線402に変換される。太点線402は、表示角βだけ傾いている。なお、剪断変換であるから、水平方向の長さは変化しないので、変換前のaは、変換後もaとなる。具体的には、高さhにおける、変換後の平行四辺形の側辺と太点線402との間の長さaは、高さhにおける、変換前の長方形の側辺と細点線401との間の長さaとなる。
A method of calculating the shear angle γ will be described with reference to FIG. In FIG. 17, the height of a thin solid line rectangle representing the outer shape of the video before conversion is h, and a thin
このような場合、以下の式が成立する。
a=h×tanα
b=h×tanβ
tanγ=c/h=(b−a)/h
=(h×tanβ−h×tanα)/h
=tanβ−tanα
γ=atan(tanβ−tanα)
In such a case, the following equation is established.
a = h × tan α
b = h × tan β
tan γ = c / h = (ba) / h
= (H × tan β−h × tan α) / h
= Tan β-tan α
γ = atan (tan β−tan α)
そして、映像変換部21は、映像データ格納部18に格納された映像データと剪断角データ格納部20に格納されている剪断角γ又はtanγとを用いて、映像データに対して剪断変換を実施し、剪断変換後の映像データを変換後映像データ格納部22に格納する(ステップS37)。以下のような行列変換を実施する。
そして、映像変換部21は、変換後映像データ格納部22に格納された剪断変換後の映像データから、道路部分を最大限含む矩形領域を切り出し、表示領域に併せて拡大する(ステップS39)。なお、切り出しの際には、映像データ格納部18に格納されているIRnS及びIRnEを含み且つ剪断変換後の映像に内接する最大の矩形領域を特定する。本ステップの処理を模式的に表せば図18(a)乃至(c)のようになる。図18(a)では、剪断変換後の映像の中で、IRnS及びIRnEを含む特定の領域601を切り出し、図18(b)に示すような中間映像を生成する。そして、図18(c)に示すように、予め定められている表示領域のサイズに拡大する。そして元の処理に戻る。
Then, the
以上のような処理を実施することによって表示すべき変換後の映像データが生成される。図3又は図4に示したような配置を行えば、運転者に安全について重要な情報をわかりやすく提示することができるようになる。 By performing the processing as described above, converted video data to be displayed is generated. If the arrangement shown in FIG. 3 or FIG. 4 is performed, important information about safety can be presented to the driver in an easy-to-understand manner.
[実施の形態2]
次に、第2の実施の形態について説明する。第2の実施の形態では、右折時における車載端末の処理に関係する。図19(a)及び(b)に示すように、十字路などで自車C502が位置C502aから位置C502bに移動して右折する際に、対向車C501が走行している状況をカメラ503により撮影する。カメラ503により撮影された映像データは、図示しない映像伝送装置により自車C502に無線で通知される。この際、カメラ503により撮影された映像は図19(a)の上段のような映像となるが、これでは映像中自車がどこに位置するのかが運転者には分かりにくいという問題がある。そこで、車載端末が、位置C502aの場合には、図19(a)中段に示すような映像に変換し、さらに位置C502bの場合には、図19(a)下段に示すような映像に変換する。マーク511は、自車位置及び進行方向を示すマーカであり、以下で説明する変換後の映像上にオーバーレイ表示される。
[Embodiment 2]
Next, a second embodiment will be described. In 2nd Embodiment, it is related to the process of the vehicle-mounted terminal at the time of a right turn. As shown in FIGS. 19A and 19B, when the host vehicle C502 moves from the position C502a to the position C502b and makes a right turn at a crossroad or the like, the situation where the oncoming vehicle C501 is traveling is photographed by the
このように図19(a)における中段及び下段のような映像を車載端末の表示装置に表示することにより、運転者は映像の中における相対的な位置関係を容易に把握できるようになる。 In this way, by displaying images such as the middle and lower in FIG. 19A on the display device of the in-vehicle terminal, the driver can easily grasp the relative positional relationship in the image.
次に、このような映像を表示させる車載端末500の機能ブロック図を図20に示す。車載端末500は、車両位置を検出するGPS(Global Positioning System)などの位置検出部521と、位置検出部521により検出された位置データを格納する位置データ格納部522と、当該車載端末500に搭載されている車両の速度計などから速度データを取得する速度検出部525と、速度検出部525が取得した速度データを格納する速度データ格納部535と、位置データ格納部522に格納された位置データに基づき車両の進行方向を決定する進行方向決定部523と、進行方向決定部523により決定された進行方向のデータを格納する進行方向データ格納部524と、方向指示器により右折又は左折が指示されているか否かについてのデータを取得する方向指示器状態取得部526と、方向指示器状態取得部526により取得された方向指示器状態データを格納する方向指示器状態データ格納部527と、カメラ503が撮影した映像データなどを受信する映像データ受信部528と、映像データ受信部528により受信された映像データなどを格納する映像データ格納部529と、進行方向データ格納部524と映像データ格納部529と位置データ格納部522に格納されたデータを用いて透視変換を実施し、映像データ格納部529に格納されている映像内における自車位置及び進行方向角度を算出する透視変換部530と、透視変換部530により算出された位置及び角度のデータを格納する位置及び角度データ格納部531と、位置及び角度データ格納部531と映像データ格納部529とに格納されたデータを用いて受信した映像に対してアフィン変換を実施するアフィン変換部532と、アフィン変換部523によりアフィン変換された映像データを格納するアフィン変換映像データ格納部533と、アフィン変換後の映像データに対して自車位置及び角度を表すマーカのオーバーレイ表示を実施するオーバーレイ表示処理部534と、オーバーレイ表示処理部534の処理結果を表示する表示装置536とを有する。
Next, FIG. 20 shows a functional block diagram of the in-
次に、図21乃至図24を用いて図20に示した車載端末500の処理について説明する。まず、方向指示器状態取得部526は、方向指示器などから右折又は左折が指示されているか否かについてのデータを方向指示器状態データとして取得し、方向指示器状態データを方向指示器状態データ格納部527に格納する(ステップS41)。方向指示器状態データ格納部527には、左折ON又はOFF、若しくは右折ON又はOFFのデータが保持されている。また、速度検出部525は、自車両の速度計などから所定時間間隔で自車速度を検出し、速度データ格納部535に格納する(ステップS43)。速度データ格納部535では、自車速度が時系列的に例えば計測時刻と共に保存されている。また、位置検出部521は、所定の時間間隔で自車位置を検出し、自車位置のデータを位置データ格納部522に格納し、進行方向決定部523は、位置データ格納部522に格納されている、現時点tにおける位置PVtのデータと時刻(t−1)における位置PVt-1のデータとを用いて、進行方向ベクトルを決定し、進行方向データ格納部524に格納する(ステップS45)。位置データ格納部522及び進行方向データ格納部524では、自車位置及び進行方向のデータが時系列的に例えば計測時刻と共に保存されている。
Next, processing of the in-
そして、例えば、映像データ受信部528は、方向指示器状態データ格納部527に格納されている方向指示器状態データが右折指示ONを示しているか判断する(ステップS47)。右折指示ONという状態ではない場合には、ステップS41に戻る。一方、右折指示ONという状態であれば、速度データ格納部535に格納されている現時点の自車速度のデータから、自車両が停止又は所定の速度以下で走行している徐行状態であるか判断する(ステップS49)。もし、通常走行中であれば、映像を表示装置536に表示してしまうと運転者に不要な情報を与えることになり、危険なので、ステップS41に戻る。
For example, the video
一方、自車両が停止又は徐行していると判断された場合には、映像データ受信部528は、カメラ503により撮影された道路映像データを受信し、映像データ格納部529に格納する(ステップS51)。また、撮影パラメータを受信し、映像データ格納部529に格納する(ステップS53)。映像データ格納部529に格納されるデータについては、図8に示したものと同様である。
On the other hand, when it is determined that the host vehicle is stopped or slowing down, the video
そして、例えば透視変換部530は、位置データ格納部522に格納されている自車の現在位置と進行方向データ格納部524に格納されている進行方向と映像データ格納部529に格納されているカメラの設置位置及び道路実座標PRnS及びPRnEとから、ステップS51で受信した道路映像データが進行方向直近の対向車線の映像か否かを判断する(ステップS55)。自車の現在自動車位置とカメラの設置位置とから所定の閾値以下の距離であることが分かる。なお、複数のカメラについての設置映像データを受信した場合には、最も近いカメラについて上記の判断を行う。さらに、道路実座標PRnS及びPRnEと自車の現在位置と自車の進行方向とから、道路実座標PRnS及びPRnEで特定される道路ベクトルと自車の進行方向のベクトルとが平行又はほぼ平行であり、且つ道路実座標PRnS及びPRnEが自車の現在位置より進行方向の先の領域に位置するか確認する。上で述べたような条件を満たすような映像データを受信していなければステップS41に戻る。
For example, the
上で述べたような条件を満たしていると判断された場合には、透視変換部530は、映像データ格納部529に格納されているカメラ位置、撮影方向、画角及び注視点位置に基づき、位置データ格納部522に格納された自車位置PVtに対する座標変換(周知の透視変換)を行い、映像データにおける座標系における座標値IVtを取得する。さらに、時刻t−1の時点での自車位置PVt-1についても同様に座標変換を実施し、映像データにおける座標系における座標値IVt-1を取得して、IVt-1からIVtへのベクトルが映像データ内における水平方向となす角δを算出する(ステップS57)。座標位置IVt及び角度δのデータは、位置及び角度データ格納部531に格納する。
When it is determined that the conditions as described above are satisfied, the
このステップの処理については図22を用いて説明する。実座標系XYでは、自車C502は、位置PVtに存在する。対向車C501とカメラ503との位置関係は図19(b)と同じである。この状態において、上で述べたようなデータに基づき位置PVtに対して周知の透視変換を実施すれば、映像データの座標系xyにおける自車の座標値IVtを取得できる。さらに、位置PVt-1にも周知の透視変換を実施すれば、映像データの座標系xyにおける自車の座標値IVt-1を取得できる。そして、図22(b)に示すように、この座標値IVt-1からIVtへのベクトルと画像データにおける水平線とが成す角δを特定できる。
The process of this step will be described with reference to FIG. In the real coordinate system XY, the own vehicle C502 exists at the position P Vt . The positional relationship between the oncoming vehicle C501 and the
次に、アフィン変換部532は、映像データ格納部529に格納された映像データに対して自車位置IVtを基準にアフィン変換を実施し、変換後の映像データをアフィン変換映像データ格納部533に格納する(ステップS59)。具体的には、図23(a)に示すように、映像データ601と自車位置IVtとをそのままの縮尺で表示させようとしても、表示画面701のサイズを超えてしまう。そこで、映像データ601と自車位置IVtとの位置関係を維持しつつ自車位置IVtが表示画面701の下部にくるように映像データ601を平行移動させる。その後、図23(b)に示すように、表示画面701に入るように映像データ601を縮小し、当該縮小に合わせて自車位置IVtに対応する、表示画面701上の位置IVt'を算出する。変換後の映像データ601'及び位置IVt'のデータをアフィン変換映像データ格納部533に格納する。
Next, the
その後、オーバーレイ表示処理部534は、アフィン変換映像データ格納部533に格納されたアフィン変換後の映像データに対して、位置及び角度データ格納部531に格納された角度δだけ傾けた自車マークを位置IVt'にオーバーレイさせて、表示装置536に表示する(ステップS61)。これによって、図24に示すように、カメラ503から受信された映像データ内の空間における位置関係を表すための自車マーク611を角度δだけ傾けた形で表示している。その後、処理終了までステップS41に戻り処理を行う(ステップS63)。
After that, the overlay
以上のような処理により図24のような表示を行うと、運転者は自車位置と対向車の位置関係をより正確に且つ容易に表示内容だけで把握することができるようになる。マークを付さなければ、運転者は自車位置把握まで時間がかかるかもしれないが、本実施の形態によれば瞬時に把握可能である。また、自車の向いている方向も示されているので、進行方向をも道路の状態及び対向車との関係で把握しやすくなっている。但し、マークの角度を変更しなくとも良い。 When the display as shown in FIG. 24 is performed by the processing as described above, the driver can grasp the positional relationship between the own vehicle position and the oncoming vehicle more accurately and easily only by the display contents. If the mark is not attached, the driver may take time to grasp the vehicle position, but according to the present embodiment, the driver can grasp instantly. Further, since the direction in which the vehicle is facing is also shown, it is easy to grasp the traveling direction based on the road condition and the relationship with the oncoming vehicle. However, it is not necessary to change the angle of the mark.
[実施の形態3]
第2の実施の形態では、自車マーク611をオーバーレイ表示する例を示したが、運転者が、その交差点付近の地理に不案内である場合には、自車マーク611だけでは、表示内容と実際の地理との対応関係を把握しづらい場合もある。このような場合に対処するため、右折先の道路への矢印や、ランドマーク等を適切にオーバーレイ表示することにより、表示内容から実際の道路状況やランドマーク等の位置関係を把握しやすくするものである。さらに、行き先などを把握できるようにすれば、慣れない土地でも右折時に戸惑わずに済むようにする。
[Embodiment 3]
In the second embodiment, an example in which the
本実施の形態における主要な処理内容は、第2の実施の形態に類似している。但し、図21のステップS53でカメラ503から受信するデータは、図8に示されたデータではなく、図25に示したようなデータとなる。図25においてデータ1001は、本実施の形態において追加配信される第1カメラからのデータであって、第1カメラ右折ポイント画像座標Ipin1と、第1カメラマーク画像1と、第1カメラマーク画像1画像座標Im1と、第1カメラマーク画像2と、第1カメラマーク画像2画像座標Im2とを含む。第1カメラ右折ポイント画像座標Ipin1は、映像における、右折先の道路の特定の点(例えば中心)の座標である。第1カメラマーク画像1及び2は、それぞれのランドマークや行き先及び道路名などを表す画像データである。第1カメラマーク画像1画像座標Im1は、第1カメラマーク画像1を配置すべき、映像上の座標である。同様に、第1カメラマーク画像2画像座標Im2は、第1カメラマーク画像2を配置すべき、映像上の座標である。データ1002については、第2カメラについての同様のデータであり、データ1003についてはデータ1001と同じであり、データ1004についてはデータ1002と同じである。マーク画像についてのデータは2セットに限定されず、より多い場合もあれば少ない場合もある。
The main processing contents in the present embodiment are similar to those in the second embodiment. However, the data received from the
また、図21のステップS57乃至S61については、図26に示すような処理フローに置換される。ステップS57及びS61については、図21と同じである。ステップS57の後に、アフィン変換部532は、映像データ格納部529に格納された映像データ等に対して自車位置IVtを基準にアフィン変換を実施し、変換後の映像データをアフィン変換映像データ格納部533に格納すると共に、アフィン変換後の自車位置IVt'、アフィン変換後の右折ポイント位置Ipin'及びアフィン変換後のマーク位置Im1'等を特定し、アフィン変換映像データ格納部533に格納する(ステップS71)。
Further, steps S57 to S61 in FIG. 21 are replaced with a processing flow as shown in FIG. Steps S57 and S61 are the same as those in FIG. After step S57, the
例えば図27(a)に示すように、映像データ601、自車位置IVt、右折ポイント画像座標Ipin、マーク画像1画像座標Im1及びマーク画像2画像座標Im2が配置されているとすると、映像データ601及び自車位置IVtなどの位置関係を維持しつつ、表示画面701に入るように映像データ601を縮小し、当該縮小に合わせて各座標を算出する。すなわち、自車位置IVtに対応する、表示画面701上の位置IVt'、右折ポイント画像座標Ipinに対応する、表示画面701上の位置Ipin'、マーク画像1画像座標Im1に対応する、表示画面701上の位置Im1'、及びマーク画像2画像座標Im2に対応する、表示画面701上の位置Im2'を得る。結果的に、図27(b)のような位置関係が得られるようになる。なお、マーク画像1画像座標Im1及びマーク画像2画像座標Im2については、存在しない場合もあるので、その場合には変換は行われない。
For example, as shown in FIG. 27A, it is assumed that
次に、オーバーレイ表示処理部534は、アフィン変換後の自車位置IVt'からアフィン変換後の右折ポイントIpin'へのカーブを例えばベジエ曲線やスプライン曲線で生成し、さらに当該カーブに基づく矢印を生成してアフィン変換後の映像にオーバーレイさせて、表示装置536に表示させる(ステップS73)。具体的には、図28に示すようにカーブを生成して、当該カーブに沿った矢印621を生成し、図29に示すようにアフィン変換後の映像にオーバーレイ表示させる。
Next, the overlay
さらに、オーバーレイ表示処理部534は、アフィン変換後の映像に、アフィン変換後のマーク位置Im1'及びIm2'に対応するマーク画像をオーバーレイさせて、表示装置536に表示させる(ステップS75)。すなわち、図30に示すように、アフィン変換後のマーク位置Im1'には、マーク623をオーバーレイさせ、アフィン変換後のマーク位置Im2'には、マーク624をオーバーレイさせる。
Further, the overlay
最後に、オーバーレイ表示処理部534は、第2の実施の形態と同様に、ステップS61を実施する。そうすれば、図30に示すような画像が生成され、表示装置536に表示される。なお、オーバーレイは上で述べたような順番で行うと、表示が正しく行われる。
Finally, the overlay
図30のような表示を行うことによって、自らの位置を自車マーク611で把握できる上に、右折方向を矢印621で、ランドマークをマーク624で、右折方向の行き先や道路名をマーク623で把握できるため、初めての道であっても右折時とまどうことなく、運転することができるようになる。但し、ランドマークや行き先及び道路名などについては、存在しない場合もある。
By performing the display as shown in FIG. 30, the user's own position can be grasped by the
以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、機能ブロック図については一例であって、必ずしもプログラム・モジュールと機能ブロックとは対応しない。 Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, the functional block diagram is an example, and a program module and a functional block do not necessarily correspond.
また、処理フローについても処理結果が変わらない限りにおいて変更可能である。例えば、図7及び図21において道路映像データ及び撮影パラメータの受信を条件が成立した場合に行うようにしていたが、常に受信するようにしても良い。 Further, the processing flow can be changed as long as the processing result does not change. For example, in FIG. 7 and FIG. 21, the reception of the road video data and the shooting parameters is performed when the condition is satisfied, but may be always received.
(付記1)
自車両の走行道路と交差する交差道路の映像データを受信する受信ステップと、
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換ステップと、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。
(Appendix 1)
A receiving step for receiving video data of an intersecting road that intersects with the traveling road of the vehicle;
A conversion step of performing shear conversion on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
A display step of generating display video data from the video data after the shear transformation stored in the storage device and displaying the display video data on a display device;
Video processing method.
(付記2)
前記変換ステップが、
受信した前記映像データに係る交差道路と前記走行道路との交差角を算出する交差角算出ステップと、
受信した前記映像データにおいて当該映像データに係る交差道路の傾き角を算出する傾き角算出ステップと、
前記交差角と前記傾き角とに基づき剪断角に関するデータを算出する剪断角算出ステップと、
算出された前記剪断角に関するデータを用いて前記映像データに対して剪断変換を実施し、記憶装置に格納するステップと、
を含む付記1記載の映像処理方法。
(Appendix 2)
The converting step comprises:
A crossing angle calculating step of calculating a crossing angle between the crossing road related to the received video data and the traveling road;
An inclination angle calculating step of calculating an inclination angle of an intersection road related to the video data in the received video data;
A shear angle calculating step of calculating data on the shear angle based on the intersection angle and the inclination angle;
Performing a shear transformation on the video data using the calculated data relating to the shear angle, and storing in a storage device;
The video processing method according to
(付記3)
前記剪断角算出ステップが、
前記交差角に応じた表示角を算出する表示角算出ステップと、
前記表示角と前記傾き角とから剪断角に関するデータを算出するステップと、
を含む付記2記載の映像処理方法。
(Appendix 3)
The shear angle calculating step includes:
A display angle calculation step of calculating a display angle according to the intersection angle;
Calculating data relating to the shear angle from the display angle and the tilt angle;
The video processing method according to appendix 2, including:
(付記4)
前記受信ステップにおいて前記映像データと共に当該映像データに係る交差道路の流出方向を表すデータをさらに受信し、
前記交差角算出ステップが、
前記自車両の走行方向を特定するステップと、
前記走行方向と前記交差道路の流出方向とから交差角を算出するステップと、
を含む付記2記載の映像処理方法。
(Appendix 4)
In the receiving step, further receiving data representing the outflow direction of the crossing road related to the video data together with the video data,
The intersection angle calculating step includes:
Identifying the traveling direction of the host vehicle;
Calculating a crossing angle from the traveling direction and the outflow direction of the crossing road;
The video processing method according to appendix 2, including:
(付記5)
前記受信ステップにおいて前記映像データと共に当該映像データに係る交差道路の、当該映像における方向を表すデータをさらに受信し、
前記傾き角算出ステップにおいて、前記映像における方向を表すデータから前記傾き角を算出する
付記2記載の映像処理方法。
(Appendix 5)
In the receiving step, further receiving data indicating the direction in the video of the intersection road related to the video data together with the video data;
The video processing method according to claim 2, wherein, in the tilt angle calculating step, the tilt angle is calculated from data representing a direction in the video.
(付記6)
前記表示角算出ステップにおいて、所定の関数に従って前記交差角を表示角に変換することを特徴とする付記3記載の映像処理方法。
(Appendix 6)
The video processing method according to claim 3, wherein, in the display angle calculation step, the intersection angle is converted into a display angle according to a predetermined function.
(付記7)
前記表示ステップが、
前記走行道路の両側に前記交差道路が存在する場合には、左側の前記交差道路に係る前記表示映像データを左側に配置し、右側の前記交差道路に係る前記表示映像データを右側に配置するステップ
を含む付記1記載の映像処理方法。
(Appendix 7)
The displaying step comprises:
When the intersection road exists on both sides of the traveling road, the display image data relating to the left intersection road is arranged on the left side, and the display image data relating to the right intersection road is arranged on the right side. The video processing method according to
(付記8)
前記表示ステップが、
前記剪断変換後の前記映像データを長方形又は正方形に切り出し、拡大又は縮小処理を実施するステップ
を含む付記1記載の映像処理方法。
(Appendix 8)
The displaying step comprises:
The video processing method according to
(付記9)
前記受信ステップ又は前記変換ステップ以降の処理を自車両速度が閾値以下である場合に実行する付記1記載の映像処理方法。
(Appendix 9)
The video processing method according to
(付記10)
前記走行道路が非優先道路である場合に前記受信ステップ又は前記変換ステップ以降の処理を実行する付記1記載の映像処理方法。
(Appendix 10)
The video processing method according to
(付記11)
自車両の走行道路と交差する交差道路の映像データを受信する受信手段と、
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換手段と、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。
(Appendix 11)
Receiving means for receiving video data of an intersecting road that intersects the traveling road of the host vehicle;
Conversion means for performing shear transformation on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
Display means for generating display video data from the video data after the shear transformation stored in the storage device, and displaying on the display device;
A video processing apparatus.
(付記12)
自車両の走行道路の対向車線を含む、前記自車両の走行方向の映像データを受信するステップと、
受信した前記映像データの座標系における自車両位置を特定するステップと、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。
(Appendix 12)
Receiving video data of the traveling direction of the host vehicle, including the opposite lane of the traveling road of the host vehicle;
Identifying the vehicle position in the coordinate system of the received video data;
A display step of generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
Video processing method.
(付記13)
受信した前記映像データの座標系における自車両の走行方向を特定するステップ
をさらに含み、
前記表示ステップが、
前記走行方向に向いているマークを生成するステップ
を含む付記12記載の映像処理方法。
(Appendix 13)
Further comprising the step of specifying the traveling direction of the host vehicle in the coordinate system of the received video data,
The displaying step comprises:
The video processing method according to
(付記14)
前記表示ステップが、
前記表示画像データにおける前記自車両位置から、前記自車両の走行道路と交わる当該自車両の右側の道路の所定位置への右折矢印を生成し、前記表示画像データ上に配置するステップ
を含む付記12記載の映像処理方法。
(Appendix 14)
The displaying step comprises:
(付記15)
前記表示ステップが、
前記映像データと前記自車両位置と前記自車両の走行道路と交わる当該自車両の右側の道路の所定位置とに関する、前記座標系における位置関係を保持するように、前記映像データと前記自車両位置と前記所定位置とに対してアフィン変換を実施するステップと、
前記アフィン変換後の前記自車両位置と前記アフィン変換後の前記所定位置との間を結ぶ曲線から右折矢印を生成し、当該右折矢印を前記表示画像データ上で前記曲線の位置に配置するステップと、
を含む付記12記載の映像処理方法。
(Appendix 15)
The displaying step comprises:
The video data and the host vehicle position so as to maintain a positional relationship in the coordinate system with respect to the video data, the host vehicle position, and a predetermined position of a road on the right side of the host vehicle that intersects the traveling road of the host vehicle. And affine transformation for the predetermined position;
Generating a right turn arrow from a curve connecting the vehicle position after the affine transformation and the predetermined position after the affine transformation, and placing the right turn arrow at the position of the curve on the display image data; ,
The video processing method according to
(付記16)
自車両の走行道路の対向車線を含む、前記自車両の走行方向の映像データを受信する手段と、
受信した前記映像データの座標系における自車両位置を特定する手段と、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。
(Appendix 16)
Means for receiving video data of the traveling direction of the host vehicle, including an opposite lane of the traveling road of the host vehicle;
Means for specifying the vehicle position in the coordinate system of the received video data;
Display means for generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
A video processing apparatus.
C1,C2,C3,C4,C5 車両 1,2 アンテナ
3 映像伝送装置 4,5 カメラ
11,521 位置検出部 12,522 位置データ格納部
13,525 速度検出部 14,535 速度データ格納部
15.523 進行方向決定部 16,524 進行方向データ格納部
17,528 映像データ受信部 18,529 映像データ格納部
19 剪断角算出部 20 剪断角データ格納部
21 映像変換部 22 変換後映像データ格納部
23 映像表示処理部 24 表示装置
526 方向指示器状態取得部 527 方向指示器状態データ格納部
530 透視変換部 531 位置及び角度データ格納部
532 アフィン変換部 533 アフィン変換映像データ格納部
534 オーバーレイ表示処理部 536 表示装置
C1, C2, C3, C4,
Claims (8)
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換ステップと、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。 A receiving step for receiving video data of an intersecting road that intersects with the traveling road of the vehicle;
A conversion step of performing shear conversion on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
A display step of generating display video data from the video data after the shear transformation stored in the storage device and displaying the display video data on a display device;
Video processing method.
受信した前記映像データに係る交差道路と前記走行道路との交差角を算出する交差角算出ステップと、
受信した前記映像データにおいて当該映像データに係る交差道路の傾き角を算出する傾き角算出ステップと、
前記交差角と前記傾き角とに基づき剪断角に関するデータを算出する剪断角算出ステップと、
算出された前記剪断角に関するデータを用いて前記映像データに対して剪断変換を実施し、記憶装置に格納するステップと、
を含む請求項1記載の映像処理方法。 The converting step comprises:
A crossing angle calculating step of calculating a crossing angle between the crossing road related to the received video data and the traveling road;
An inclination angle calculating step of calculating an inclination angle of an intersection road related to the video data in the received video data;
A shear angle calculating step of calculating data on the shear angle based on the intersection angle and the inclination angle;
Performing a shear transformation on the video data using the calculated data relating to the shear angle, and storing in a storage device;
The video processing method according to claim 1, further comprising:
前記走行道路の両側に前記交差道路が存在する場合には、左側の前記交差道路に係る前記表示映像データを左側に配置し、右側の前記交差道路に係る前記表示映像データを右側に配置するステップ
を含む請求項1記載の映像処理方法。 The displaying step comprises:
When the intersection road exists on both sides of the traveling road, the display image data relating to the left intersection road is arranged on the left side, and the display image data relating to the right intersection road is arranged on the right side. The video processing method according to claim 1, further comprising:
受信した前記映像データに係る交差道路と前記走行道路との交差角に基づき決定される剪断角で前記映像データに対して剪断変換を実施し、記憶装置に格納する変換手段と、
前記記憶装置に格納された前記剪断変換後の前記映像データから表示映像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。 Receiving means for receiving video data of an intersecting road that intersects the traveling road of the host vehicle;
Conversion means for performing shear transformation on the video data at a shear angle determined based on an intersection angle between the intersecting road related to the received video data and the traveling road, and storing the data in a storage device;
Display means for generating display video data from the video data after the shear transformation stored in the storage device, and displaying on the display device;
A video processing apparatus.
受信した前記映像データの座標系における自車両位置を特定するステップと、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示ステップと、
を含む映像処理方法。 Receiving video data of the traveling direction of the host vehicle, including the opposite lane of the traveling road of the host vehicle;
Identifying the vehicle position in the coordinate system of the received video data;
A display step of generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
Video processing method.
をさらに含み、
前記表示ステップが、
前記走行方向に向いているマークを生成するステップ
を含む請求項5記載の映像処理方法。 Further comprising the step of specifying the traveling direction of the host vehicle in the coordinate system of the received video data,
The displaying step comprises:
The video processing method according to claim 5, further comprising: generating a mark facing in the traveling direction.
前記表示画像データにおける前記自車両位置から、前記自車両の走行道路と交わる当該自車両の右側の道路の所定位置への右折矢印を生成し、前記表示画像データ上に配置するステップ
を含む請求項5記載の映像処理方法。 The displaying step comprises:
A step of generating a right turn arrow from the position of the host vehicle in the display image data to a predetermined position of a road on the right side of the host vehicle that intersects with a traveling road of the host vehicle and arranging the arrow on the display image data. 5. The video processing method according to 5.
受信した前記映像データの座標系における自車両位置を特定する手段と、
前記映像データと前記自車両を表すためのマークとを前記座標系における位置関係を保持しつつ配置することによって表示画像データを生成し、表示装置に表示する表示手段と、
を有する映像処理装置。 Means for receiving video data of the traveling direction of the host vehicle, including an opposite lane of the traveling road of the host vehicle;
Means for specifying the vehicle position in the coordinate system of the received video data;
Display means for generating display image data by arranging the video data and a mark for representing the host vehicle while maintaining a positional relationship in the coordinate system, and displaying the display image data on a display device;
A video processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006295089A JP4738314B2 (en) | 2005-11-07 | 2006-10-31 | Video processing method and apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005321834 | 2005-11-07 | ||
JP2005321834 | 2005-11-07 | ||
JP2006295089A JP4738314B2 (en) | 2005-11-07 | 2006-10-31 | Video processing method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007149077A true JP2007149077A (en) | 2007-06-14 |
JP4738314B2 JP4738314B2 (en) | 2011-08-03 |
Family
ID=38210369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006295089A Active JP4738314B2 (en) | 2005-11-07 | 2006-10-31 | Video processing method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4738314B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037457A (en) * | 2007-08-02 | 2009-02-19 | Denso Corp | Driving support system |
WO2010023785A1 (en) * | 2008-08-26 | 2010-03-04 | パナソニック株式会社 | Intersection situation recognition system |
KR20210008737A (en) * | 2019-07-15 | 2021-01-25 | 주식회사 하이퍼센싱 | Device and method for calculation vehicle position in an image, and traffic analysis system using the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04242500A (en) * | 1991-01-16 | 1992-08-31 | Toshiba Corp | Vehicle driving supporting device |
JPH11160080A (en) * | 1997-12-01 | 1999-06-18 | Harness Syst Tech Res Ltd | Mobile body information system |
JP2000259818A (en) * | 1999-03-09 | 2000-09-22 | Toshiba Corp | Condition information providing device and method therefor |
JP2001184595A (en) * | 1999-12-27 | 2001-07-06 | Matsushita Electric Ind Co Ltd | Transmitting system, transmitter, receiver, display device and vehicle |
JP2003151070A (en) * | 2001-11-13 | 2003-05-23 | Sony Corp | Information processing system, device and method, recording medium and program |
-
2006
- 2006-10-31 JP JP2006295089A patent/JP4738314B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04242500A (en) * | 1991-01-16 | 1992-08-31 | Toshiba Corp | Vehicle driving supporting device |
JPH11160080A (en) * | 1997-12-01 | 1999-06-18 | Harness Syst Tech Res Ltd | Mobile body information system |
JP2000259818A (en) * | 1999-03-09 | 2000-09-22 | Toshiba Corp | Condition information providing device and method therefor |
JP2001184595A (en) * | 1999-12-27 | 2001-07-06 | Matsushita Electric Ind Co Ltd | Transmitting system, transmitter, receiver, display device and vehicle |
JP2003151070A (en) * | 2001-11-13 | 2003-05-23 | Sony Corp | Information processing system, device and method, recording medium and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009037457A (en) * | 2007-08-02 | 2009-02-19 | Denso Corp | Driving support system |
WO2010023785A1 (en) * | 2008-08-26 | 2010-03-04 | パナソニック株式会社 | Intersection situation recognition system |
KR20210008737A (en) * | 2019-07-15 | 2021-01-25 | 주식회사 하이퍼센싱 | Device and method for calculation vehicle position in an image, and traffic analysis system using the same |
KR102256205B1 (en) | 2019-07-15 | 2021-05-27 | 주식회사 하이퍼센싱 | Device and method for calculation vehicle position in an image, and traffic analysis system using the same |
Also Published As
Publication number | Publication date |
---|---|
JP4738314B2 (en) | 2011-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4293917B2 (en) | Navigation device and intersection guide method | |
EP2110797B1 (en) | Traffic situation display method, traffic situation display system, vehicle-mounted device, and computer program | |
US9827907B2 (en) | Drive assist device | |
US8885039B2 (en) | Providing vehicle information | |
US8977486B2 (en) | Navigation system and displaying method thereof | |
US10895912B2 (en) | Apparatus and a method for controlling a head- up display of a vehicle | |
US7856313B2 (en) | Electronic device, display processing method and program | |
JP5223768B2 (en) | Vehicle display device | |
JP2008280026A (en) | Driving assistance device | |
JP4747867B2 (en) | VEHICLE DISPLAY DEVICE AND VEHICLE VIDEO DISPLAY CONTROL METHOD | |
US9423267B2 (en) | Navigation device and display control method | |
JP4858212B2 (en) | Car navigation system | |
KR20160140055A (en) | Automotive navigation apparatus and method for providing dynamic map therof | |
JP2008046766A (en) | Vehicle external information display device | |
JP2008097279A (en) | Vehicle exterior information display device | |
JP2022176234A (en) | Information display control device, information display control method, and information display control program | |
JP4738314B2 (en) | Video processing method and apparatus | |
JP2005297810A (en) | Display system for vehicle and program | |
JP4600391B2 (en) | Display device, display system, and display method | |
JP4249037B2 (en) | Peripheral vehicle display device, navigation device, and vehicle display method | |
JP4924300B2 (en) | In-vehicle intersection stop prevention device, in-intersection stop prevention system, in-vehicle intersection stop prevention device program, in-vehicle crossing stop prevention device, in-crossing stop prevention system, and in-vehicle crossing stop prevention device program | |
JP2009037457A (en) | Driving support system | |
JP4725503B2 (en) | In-vehicle device, driving support system, and driving support method | |
JP2014074627A (en) | Navigation system for vehicle | |
JPH1097700A (en) | Information providing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110426 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4738314 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |