JP5281424B2 - Road marking map generation method - Google Patents
Road marking map generation method Download PDFInfo
- Publication number
- JP5281424B2 JP5281424B2 JP2009017528A JP2009017528A JP5281424B2 JP 5281424 B2 JP5281424 B2 JP 5281424B2 JP 2009017528 A JP2009017528 A JP 2009017528A JP 2009017528 A JP2009017528 A JP 2009017528A JP 5281424 B2 JP5281424 B2 JP 5281424B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- road
- path
- road surface
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、道路面に施された標示を含む路面標示地図を生成する技術に関する。 The present invention relates to a technique for generating a road marking map including a marking applied to a road surface.
カーナビゲーションなどで使用される電子地図データには、多様な機能を実現するため、種々の詳細なデータが要求されている。その一つとして、横断歩道や中央線、車線境界線などの路面に描かれる標示が挙げられる。これらの標示を予め画像として取得しておくことにより、ユーザに対して実際の路面に近い画像を提供することができ、直感的に理解しやすい案内を実現することが可能となる。 Electronic map data used in car navigation or the like requires various detailed data in order to realize various functions. One example is the markings on road surfaces such as pedestrian crossings, central lines, and lane boundaries. By acquiring these signs as images in advance, it is possible to provide the user with an image close to the actual road surface, and to realize guidance that is easy to understand intuitively.
標示を含む路面の画像を効率的に生成するための技術として特許文献1、特許文献2などが挙げられる。
特許文献1は、車輌の前後または側方に対してデジタルカメラ等により取得された画像から、路面の標示を含む静止画像を生成する技術を開示している。この技術では、目的の道路を車両で走行しながら、その車両に搭載されたデジタルカメラ等で路面の標示等を撮影する。そして、動画を構成する各フレーム画像を真上から見た状態の正射画像に変換し、撮影位置に応じて配列する。正射画像とは、道路の垂直上方の無限遠点に視点を置いた場合の道路画像を言う。複数のフレーム画像を配列することによって、1回の走行の軌跡(以下、パスと呼ぶこともある)に沿った道路面の合成画像を得ることができる。
As a technique for efficiently generating an image of a road surface including a sign, Patent Document 1, Patent Document 2, and the like can be cited.
Patent Document 1 discloses a technique for generating a still image including a road surface marking from images acquired by a digital camera or the like with respect to the front and rear or the side of a vehicle. In this technique, a road marking or the like is photographed with a digital camera or the like mounted on the vehicle while traveling on the target road with the vehicle. Then, each frame image constituting the moving image is converted into an orthogonal image as viewed from directly above, and arranged according to the shooting position. An orthographic image is a road image when the viewpoint is placed at an infinite point vertically above the road. By arranging a plurality of frame images, it is possible to obtain a composite image of the road surface along the trajectory of one run (hereinafter also referred to as a path).
特許文献2は、2つのパスで得られた画像を合成して幅広の道路画像を合成する技術を開示している。この技術では、まず一つのパスで得られた画像に対して、道路の車線境界線など、本来、直線的に描かれているものが直線として表示されるようにアフィン変換をかける。そして、2つのパスで共通して撮影されている車線境界線などの座標が一致するように、一方のパスの画像をアフィン変換する。また、同様の方法によって、パスごとに画像をアフィン変換しながら合成することによって3以上のパスを合成する技術も開示している。 Patent Document 2 discloses a technique for synthesizing a wide road image by synthesizing images obtained by two passes. In this technique, first, an affine transformation is applied to an image obtained in one pass so that what is originally drawn linearly, such as a road lane boundary line, is displayed as a straight line. Then, the image of one path is affine transformed so that the coordinates of the lane boundary line or the like that are photographed in common in the two paths coincide. Also disclosed is a technique of synthesizing three or more paths by synthesizing images while performing affine transformation for each path by a similar method.
地図データには、経路探索用に道路をノード、リンクで表した道路ネットワーク、および地図を表示するために道路をポリゴンで表したデータなどがある。道路ネットワークでは、道路を1本または2本のリンクで代表させているため、リンクに付された座標は、道路のいずれの部分を表しているか厳密には分からない。描画データでは、道路を表すポリゴンの外周の位置座標は分かるものの、道路内部の地点についての位置座標は分からない。
例えば、道路内部の各地点の位置座標が詳細に得られている地図データが存在すれば、車両の現在位置に応じて、車両が道路のどの車線を走行しているかを判断して、車線変更の案内を行うことや、車両に横断歩道が接近していることを警告するなどの高機能な案内を実現することが可能となる。
Map data includes a road network in which roads are represented by nodes and links for route search, and data in which roads are represented by polygons in order to display a map. In the road network, since the road is represented by one or two links, the coordinates attached to the link do not know exactly which part of the road is represented. In the drawing data, the position coordinates of the outer periphery of the polygon representing the road are known, but the position coordinates of the points inside the road are not known.
For example, if there is map data in which the position coordinates of each point inside the road are obtained in detail, the lane change is determined by determining which lane on the road the vehicle is driving according to the current position of the vehicle It is possible to realize highly functional guidance such as providing guidance on the vehicle and warning that a pedestrian crossing is approaching the vehicle.
しかし、従来技術は、合成して得られる画像に含まれる路面標示を十分に活用することはできなかった。
例えば、特許文献2は、2つのパスで得られた画像を合成する旨の技術を開示しているが、各パスに対応する画像内の路面標示の画質に優劣があることは考慮されていない。つまり、一方の画像内の路面標示の画質が、他方の路面標示よりも劣る場合でも、低画質の路面標示が合成画像で用いられる可能性がある。
However, the prior art cannot fully utilize the road marking included in the image obtained by the synthesis.
For example, Patent Document 2 discloses a technique for synthesizing images obtained in two passes, but it is not considered that image quality of road markings in an image corresponding to each pass is superior or inferior. . That is, even when the image quality of the road marking in one image is inferior to that of the other road marking, the low-quality road marking may be used in the composite image.
かかる弊害を回避するため、合成する際には、路面標示の画質が高い側を優先的に用いることも考えられる。しかし、2つのパスで得られる画像を比較した場合、ある部分では一方のパスの画質が良いが、他の部分では他方のパスの画質が良いということが生じる。従って、いずれか一方を優先的に用いたとしても、合成画像に含まれる路面標示の画質には更に向上の余地が残ることになる。
これらの課題の他、従来の地図データは、これらの高精度、高機能な案内を実現するためには不十分な精度しか有していなかったという課題もあった。仮に車両の現在位置を精度良く把握したとしても、その位置情報を活かすだけの詳細な地図データが用意されていたとは言えなかったのである。
In order to avoid such adverse effects, it is conceivable to preferentially use the side with the high image quality of the road marking when combining. However, when the images obtained in the two passes are compared, the image quality of one pass is good in a certain part, but the image quality of the other pass is good in the other part. Therefore, even if either one is used preferentially, there is still room for improvement in the image quality of the road markings included in the composite image.
In addition to these problems, there has been a problem that the conventional map data has insufficient accuracy to realize such high-precision and high-performance guidance. Even if the current position of the vehicle is grasped with high accuracy, it cannot be said that detailed map data has been prepared to make use of the position information.
路面の標示は道路上の位置座標を豊富にするための目的物として適している。例えば、横断歩道や車線境界線の位置座標が得られていれば、上述した高機能な案内の実現に資することができる。
しかし、従来技術は、いずれも道路面の合成画像を得ることを主目的としており、路面の標示の位置座標を得ることを目的としてはいなかった。
例えば、特許文献2の技術は、道路が直線か曲線かにかかわらず車両の進行方向をX軸とし、その移動距離をX座標として画像を表しているに過ぎず、このX軸に直交する方向にのみ画像をアフィン変換するに過ぎない。複数のパスで得られた画像について、このように定められたX座標が十分に一致しているという保証はないから、特許文献2の技術では路面の標示の位置座標を精度良く得ることはできない。
また、アフィン変換は、原画像の長方形領域を平行四辺形に歪ませる作用を持つ変換とも言えるから、特許文献2の技術では、アフィン変換によって画像の合成を行うことにより画質の劣化を招き、路面の標示の位置座標を一層低下させるという課題もある。
一方、特許文献1記載の技術は、1回のパスで得られる画像に対する処理を開示しているのみであり、道路全体を十分にカバーすることができない。
The road marking is suitable as an object for enriching the position coordinates on the road. For example, if the position coordinates of the pedestrian crossing and the lane boundary line are obtained, it is possible to contribute to the realization of the high-performance guidance described above.
However, all the prior arts have a main purpose of obtaining a composite image of a road surface, and have not been intended to obtain a position coordinate of a road surface sign.
For example, the technique of Patent Document 2 merely represents an image with the traveling direction of the vehicle as the X axis and the movement distance as the X coordinate regardless of whether the road is a straight line or a curve, and a direction orthogonal to the X axis. Only the image is affine transformed. Since there is no guarantee that the X coordinates determined in this manner are sufficiently coincident with each other for images obtained by a plurality of passes, the technique of Patent Document 2 cannot accurately obtain the position coordinates of road markings. .
The affine transformation can also be said to be a transformation having the effect of distorting the rectangular area of the original image into a parallelogram. Therefore, in the technique of Patent Document 2, the image is deteriorated by synthesizing the image by the affine transformation, and the road surface. There is also a problem of further reducing the position coordinates of the markings.
On the other hand, the technique described in Patent Document 1 only discloses processing for an image obtained in one pass and cannot sufficiently cover the entire road.
本発明は、これらの課題の少なくとも一部を解決し、道路面に含まれる路面標示を十分に活用した合成画像を生成可能とすることを目的とする。また、路面の標示を高い位置精度で含む地図の生成を可能とすることを目的とする。 An object of the present invention is to solve at least a part of these problems and to generate a composite image that fully utilizes a road marking included in a road surface. It is another object of the present invention to make it possible to generate a map that includes road markings with high positional accuracy.
本発明は、道路面に施された標示を含む路面標示地図をコンピュータによって生成する路面標示地図生成方法として構成することができる。
本発明では、まず、コンピュータは、撮影対象である道路を複数回にわたって移動しながら標示が施された道路面を撮影した複数のフレーム画像で構成される画像データと、この画像データにおける各フレーム画像の撮影位置を表す位置座標データとを取得する。これによって、撮影された道路を移動した際の移動軌跡である複数のパスの位置座標データと、複数のパスに沿う連続画像の画像データとが取得されることになる。
上述の画像データは、例えば、車両などの移動体に搭載した撮影装置によって撮影することができる。撮影装置としては、例えば、ディジタル・ビデオ・カメラなどを用いることができる。また、撮影装置には、撮影時の位置座標データを取得する位置計測装置を搭載しておくことが好ましい。位置計測装置は、例えば、GPS(Global Positioning System)や、ジャイロなどの慣性航法装置などを単独または組み合わせて用いることができる。また、処理の便宜上、撮影した画像と位置座標データを取得し、両者を同期させて記録する記録装置を用意しておくことが好ましい。
The present invention can be configured as a road marking map generation method for generating a road marking map including a marking on a road surface by a computer.
In the present invention, the computer firstly includes image data composed of a plurality of frame images obtained by photographing a road surface on which a sign is given while moving on a road to be imaged a plurality of times, and each frame image in the image data . acquires the position coordinate data representing the photographing position. As a result, the position coordinate data of a plurality of paths, which are movement trajectories when the photographed road is moved, and image data of continuous images along the plurality of paths are acquired .
The above-mentioned image data can be photographed by a photographing device mounted on a moving body such as a vehicle, for example. For example, a digital video camera or the like can be used as the photographing apparatus. Moreover, it is preferable that the photographing apparatus is equipped with a position measuring device that acquires position coordinate data at the time of photographing. As the position measuring device, for example, a GPS (Global Positioning System) or an inertial navigation device such as a gyro can be used alone or in combination. For convenience of processing, it is preferable to prepare a recording apparatus that acquires a captured image and position coordinate data and records them in synchronization.
ここで、複数のパスは、第1に、異なる車線など走行位置が異なるパスとすることができる。もっとも、必ずしも車線が異なる必要はなく、いずれかの車線上を複数回移動して撮影してもよい。車線が異なる場合は、車線とパスとが1対1に対応することになる。後者の場合は、パスと車線とが複数対1に対応することになる。本発明はいずれの場合にも適用可能である。
このようにパスの位置が異なる場合には、後述する通り、これらのパスから得られる画像を合成することによって、1つのパスで得られる範囲よりも幅広の合成画像を得ることが可能となる。
複数のパスは、第2に、異なる時期に取得したパスとしてもよい。例えば、一旦、道路の画像を撮影し、地図データを整備した後、時間が経過してから、再度、同じパスを走行して道路の画像を撮影するのである。この場合には、後述する通り、これらのパスから得られる画像を合成することによって、路面標示の変化を反映した地図を生成することが可能となる。
Here, first, the plurality of paths can be paths having different travel positions such as different lanes. However, the lanes do not necessarily have to be different, and the image may be taken by moving a plurality of times on any lane. When the lanes are different, the lane and the path have a one-to-one correspondence. In the latter case, the path and the lane correspond to each other in a plurality of one-to-one. The present invention is applicable to any case.
In this way, when the positions of the paths are different, as will be described later, by combining images obtained from these paths, it is possible to obtain a composite image that is wider than the range obtained in one pass.
Secondly, the plurality of paths may be paths acquired at different times. For example, once a road image is taken and map data is prepared, after a lapse of time, the road is taken again by taking the same path. In this case, as will be described later, it is possible to generate a map reflecting changes in road markings by combining images obtained from these paths.
画像データを入力すると、コンピュータは、画像データを構成する各フレーム画像を変換して、道路面を真上から見た状態の正射画像を得る。正射画像は、各フレーム画像の一部を利用して生成してもよい。
そして、こうして得られた正射画像を位置座標データに基づいて、パス上に配置することにより、各パスの道路面を表す連結画像を生成して表示する。この際、正射画像の一部が重なっても良い。正射画像は、例えば、その中心線がパスの進行方向に沿う状態で配置することが好ましい。こうすることで連結画像がパスの本数分だけ得られる。
When the image data is input, the computer converts each frame image constituting the image data to obtain an orthographic image in a state where the road surface is viewed from directly above. The orthographic image may be generated using a part of each frame image.
Then, by arranging the orthographic image obtained in this way on the path based on the position coordinate data, a connected image representing the road surface of each path is generated and displayed. At this time, a part of the orthographic image may overlap. For example, the orthographic image is preferably arranged in a state where its center line is along the traveling direction of the path. In this way, as many connected images as the number of paths are obtained.
次に、コンピュータは、位置座標データに基づき、1の道路を構成する複数の車線に対応するパス上の連結画像を重ねて、道路面の合成画像を生成する。合成は種々の方法で行うことができる。例えば、位置座標データの誤差を考慮することなく、それぞれの連結画像を配置する方法を採っても良い。また、複数のパス間の位置座標データに相対的な誤差が含まれている場合には、その誤差を修正した上で合成画像を生成するようにしてもよい。修正方法については、特許文献2記載のようにアフィン変換を利用してもよいし、後で例示する方法を採用してもよい。
Next, the computer based on the position coordinate data, superimposed the combined images on the path corresponding to the plurality of lanes constituting one of the road, and generates a composite image of the road road. The synthesis can be performed by various methods. For example, a method of arranging each connected image without considering the error of the position coordinate data may be adopted. Further, in the case where a relative error is included in the position coordinate data between a plurality of paths, a composite image may be generated after correcting the error. As for the correction method, affine transformation may be used as described in Patent Document 2, or a method exemplified later may be employed.
こうして合成画像を生成すると、コンピュータは、透明化ポリゴンを、連結画像に応じて定まる位置および形状で生成する。透明化ポリゴンとは、連結画像同士が重なっている領域において上側の連結画像を透過させて下側の連結画像を表示させるためのポリゴンを言う。透明化ポリゴンが生成された領域では、上側の連結画像が透過され、下側の連結画像が表示されることになる。「連結画像に応じて定まる」とは、透明化ポリゴンが所定の規則に従って自動的に生成されることを意味している。また、透明化ポリゴンは、連結画像に応じて定まるものであり、予め設定された固定の位置に透明化ポリゴンを生成する訳ではない。 When the composite image is generated in this way, the computer generates a transparent polygon at a position and shape determined according to the connected image. The transparent polygon is a polygon for transmitting the upper connected image and displaying the lower connected image in an area where the connected images overlap each other. In the region where the transparent polygon is generated, the upper connected image is transmitted and the lower connected image is displayed. “Determined according to the connected image” means that the transparent polygon is automatically generated according to a predetermined rule. Further, the transparent polygon is determined according to the connected image, and the transparent polygon is not generated at a preset fixed position.
本発明によれば、透明化ポリゴンを生成することにより、合成に用いられた連結画像に含まれる路面標示を有効活用して合成画像を生成することが可能となる。つまり、複数の連結画像のいずれか一つのみを固定的に優先させて合成画像を生成するのではない。透明化ポリゴンを設定した箇所では下側に配置された連結画像を優先し、その他の領域では上側の連結画像を優先するというように、領域ごとに優先させる連結画像を切り換えることが可能となる。この結果、透明化ポリゴンを設定するための規則に応じて、各連結画像に含まれる路面標示を、有効活用することが可能となるのである。
また、これらの透明化ポリゴンを、所定の規則に基づき自動的に設定するため、オペレータの負荷が軽減されるとともに、オペレータのスキルによる品質のばらつきなく、安定した合成画像を得ることができるという利点もある。
According to the present invention, by generating a transparent polygon, it is possible to generate a composite image by effectively utilizing road markings included in a connected image used for composition. That is, a composite image is not generated by giving priority only to any one of a plurality of connected images in a fixed manner. It is possible to switch the connected image to be prioritized for each region, such as giving priority to the connected image arranged at the lower side in the place where the transparent polygon is set, and giving priority to the upper connected image in other regions. As a result, road markings included in each connected image can be used effectively according to the rules for setting the transparent polygon.
In addition, since these transparent polygons are automatically set based on predetermined rules, the burden on the operator is reduced, and a stable composite image can be obtained without variation in quality due to operator skill. There is also.
透明化ポリゴンは、種々の態様で生成可能であるが、例えば、下側の連結画像が存在する範囲内で生成することが好ましい。連結画像が一部分において重なっている場合には、下側または上側の連結画像のみが存在する領域と、両者が重なっている領域とが生じる。このような場合に、上側の連結画像のみが存在する領域に透明化ポリゴンを設定すると、上側の連結画像が透過されることによって、完全に画像が欠けた状態が生じてしまう。下側の連結画像が存在する範囲内で透明化ポリゴンを設定するようにしておけば、こうした現象を回避することができる。
かかる態様に代えて、例えば、上側または下側の連結画像しか存在しない領域に生成された透明化ポリゴンは、無効扱いとし、画像を透明化させずに合成画像を表示する方法をとってもよい。
The transparent polygon can be generated in various modes. For example, it is preferable to generate the transparent polygon within a range where the lower connected image exists. When the connected images partially overlap, an area where only the lower or upper connected image exists and an area where both overlap are generated. In such a case, if a transparent polygon is set in an area where only the upper connected image exists, the upper connected image is transmitted, resulting in a state in which the image is completely missing. Such a phenomenon can be avoided if the transparent polygon is set within the range where the lower connected image exists.
Instead of such a mode, for example, a transparent polygon generated in a region where only the upper or lower connected image exists may be treated as invalid, and a composite image may be displayed without making the image transparent.
透明化ポリゴンの位置および形状は、例えば、連結画像に含まれる標示に基づいて生成することができる。それぞれの連結画像内の標示を抽出し、その位置関係や画質の優劣の評価に基づいて透明化ポリゴンを生成するのである。こうすることにより、それぞれの連結画像内の路面標示を有効活用可能な透明化ポリゴンを生成することができる。
評価方法は、合成画像を生成する目的に応じて、種々の方法を採ることができる。
例えば、標示の再現を重視する場合には、下側の連結画像に含まれる標示が、上側の連結画像に含まれる標示よりも正確さを表す評価値が高いと判断される部分に透明化ポリゴンを設定する方法を採ることができる。こうすることによって、正確に得られている標示を活かした合成画像を生成することができる。
The position and shape of the transparent polygon can be generated based on, for example, a sign included in the connected image. The sign in each connected image is extracted, and a transparent polygon is generated based on the evaluation of the positional relationship and the superiority or inferiority of the image quality. By doing so, it is possible to generate a transparent polygon that can effectively use the road marking in each connected image.
Various evaluation methods can be adopted depending on the purpose of generating the composite image.
For example, when emphasizing the reproduction of the sign, the transparent polygon is displayed in a portion where the sign included in the lower connected image is judged to have a higher evaluation value indicating the accuracy than the sign included in the upper connected image. The method of setting can be taken. By doing so, it is possible to generate a composite image using the sign obtained accurately.
正確さの指標は、位置精度、形状などを考慮して求めることができる。
位置精度を考慮する態様として、例えば、それぞれのパスの撮影時の位置座標データの精度を表す評価データを取得し、パスごとに位置精度の優劣を定めるようにしてもよい。この態様では、下側のパスの方が高い位置精度を有していると評価された場合には、標示が重なり合っている部分または下側の標示のみが存在する部分に対して、透明化ポリゴンを設定すればよい。こうすることにより、位置精度が高い標示を有効活用することが可能となる。
形状を考慮する態様としては、上側と下側で重なり合っている標示を比較し、標示の面積が大きい側を採用するように透明化ポリゴンを設定する方法を採ることができる。面積が大きいということは、標示が欠落なく取得されていると考えられるからである。この場合には、下側の標示の面積が、上側よりも大きい部分に透明化ポリゴンを生成すればよい。面積の比較には標示の種別を考慮してもよく、例えば、同一の種別の標示が重なり合っている場合についてのみ面積を比較するようにしてもよい。
The accuracy index can be obtained in consideration of position accuracy, shape, and the like.
As an aspect that considers the position accuracy, for example, evaluation data representing the accuracy of the position coordinate data at the time of shooting each pass may be acquired, and the superiority or inferiority of the position accuracy may be determined for each pass. In this aspect, when it is evaluated that the lower path has higher positional accuracy, the transparent polygon is applied to a part where the signs overlap or a part where only the lower sign exists. Should be set. By doing so, it is possible to effectively utilize a sign with high position accuracy.
As an aspect in consideration of the shape, a method can be used in which the markings overlapping on the upper side and the lower side are compared, and the transparent polygon is set so that the side having the larger area of the marking is adopted. The large area is considered that the sign has been acquired without omission. In this case, the transparent polygon may be generated in a portion where the area of the lower sign is larger than that of the upper mark. For the comparison of the areas, the type of the sign may be considered. For example, the areas may be compared only when the same type of sign is overlapped.
また、位置精度と形状の双方を考慮するようにしてもよい。まず、位置精度が高いパスの標示を基準として、位置精度が低い側の標示の位置のずれを求める。このずれは、標示同士の対応する頂点間のずれ、または標示の重心間のずれなどで評価することができる。一方、形状については、面積の差異で評価する。そして、位置精度の評価と、形状の評価のそれぞれに所定の重み値を乗じた和を求めることで両者を総合比較する。そして、下側の標示に対する総合評価値が、上側の標示よりも高い部分に、透明化ポリゴンを生成するのである。もっとも、正確さの指標は、これらの例に限らず、種々の方法を採ることが可能である。 Moreover, you may make it consider both position accuracy and a shape. First, with reference to a sign of a path with high position accuracy, a position shift of a sign with a low position accuracy is obtained. This shift can be evaluated by a shift between corresponding vertices between the signs or a shift between the centers of gravity of the signs. On the other hand, the shape is evaluated by the difference in area. Then, the two are comprehensively compared by obtaining a sum obtained by multiplying each of the position accuracy evaluation and the shape evaluation by a predetermined weight value. Then, a transparent polygon is generated in a portion where the overall evaluation value for the lower sign is higher than that of the upper sign. However, the accuracy index is not limited to these examples, and various methods can be adopted.
標示に基づいて透明化ポリゴンを生成する別の態様として、下側の連結画像にのみ標示が含まれている部分に透明化ポリゴンを生成するようにしてもよい。こうすることによって、比較的軽い負荷で、下側の連結画像に含まれる標示を有効活用することが可能となる。標示に基づいて透明化ポリゴンを設定する場合、各連結画像内の標示は、例えば、連結画像の表示画面内でポインティングデバイス等を用いて予めオペレータが抽出しておく方法をとってもよい。
また、コンピュータが、各連結画像に対し、画像処理によって、標示を認識し、この認識の結果に基づき透明化ポリゴンを設定するようにしてもよい。標示を自動認識するようにすれば、オペレータの負荷を軽減することができる利点がある。オペレータによる抽出と自動認識は、併用してもよい。例えば、自動認識を行わせた後、オペレータによる抽出を行って、誤認識を修正したり、認識漏れを補充したりしてもよい。
As another aspect of generating the transparent polygon based on the sign, the transparent polygon may be generated in a portion where the sign is included only in the lower connected image. By doing so, it is possible to effectively utilize the sign included in the lower connected image with a relatively light load. When the transparent polygon is set based on the sign, the sign in each connected image may be extracted in advance by an operator using a pointing device or the like in the display screen of the connected image, for example.
Further, the computer may recognize a sign for each connected image by image processing, and set a transparent polygon based on the recognition result. If the sign is automatically recognized, there is an advantage that the load on the operator can be reduced. The extraction by the operator and the automatic recognition may be used in combination. For example, after automatic recognition is performed, extraction by an operator may be performed to correct misrecognition or replenish a recognition failure.
標示の自動認識は、例えば、次の方法を採ることができる。
まず、コンピュータは次の手順で標示を認識するための連結画像を生成する。
処理の基準として、二次元平面において予め設定された方向に、パス上の基準点からの距離を表す直線状の距離軸を定義する。基準点は、パスの始点としてもよいし、パス上に設けられた任意の点としてもよい。距離軸は、二次元平面の任意の方向に定義できる。もっとも、x軸またはy軸と一致させておくことが、後述する各処理が簡易になるという点で好ましい。
コンピュータは、パスに沿った基準点からの距離に基づいて、正射画像を距離軸上に配置することにより、各パスの道路面を表す直前状の連結画像を生成する。この際、正射画像の一部が重なっても良い。正射画像は、例えば、その中心線が距離軸に沿う状態で配置することが好ましい。こうすることで距離軸に沿った直線状の道路を表す連結画像を得ることができる。
The automatic recognition of a sign can take the following method, for example.
First, the computer generates a connected image for recognizing a sign in the following procedure.
As a processing reference, a linear distance axis representing a distance from a reference point on the path is defined in a predetermined direction on the two-dimensional plane. The reference point may be a starting point of the path or an arbitrary point provided on the path. The distance axis can be defined in any direction on the two-dimensional plane. However, it is preferable to match with the x-axis or the y-axis from the viewpoint that each processing described later is simplified.
Based on the distance from the reference point along the path, the computer arranges the orthographic image on the distance axis, thereby generating a just-connected image that represents the road surface of each path. At this time, a part of the orthographic image may overlap. For example, the orthographic image is preferably arranged with its center line along the distance axis. By doing so, a connected image representing a straight road along the distance axis can be obtained.
コンピュータは、このように直線状となった連結画像に基づいて、道路面に描かれた標示の種別および位置を認識する。パスは道路面を撮影する際の走行軌跡であり、走行しながら、位置座標データが取得されているから、位置精度が十分に確保されており、抽出される標示の位置精度も確保することができる。
また、距離軸上に正射画像を配置することにより、道路がカーブしている場合でも、直線状に伸びた連結画像を得ることができる。このように連結画像を生成した場合、道路上の標示は、距離軸に対して一定の位置関係で存在することになる。例えば、横断歩道や停止線は距離軸に直交するように描かれており、車線境界線は距離軸に平行に描かれることになる。このように連結画像内で抽出すべき標示の描かれ方が、標示ごとに一定となるため、標示を抽出するための条件を明確に設定することが可能となり、安定して標示を抽出することが可能となる。
本発明では、正射画像を配置して連結画像を生成しているため、距離軸上に正射画像を配置することにより、直線状に伸びた連結画像を比較的容易に得ることができる。
The computer recognizes the type and position of the sign drawn on the road surface based on the linearly connected image. The path is a travel locus when photographing the road surface, and since the position coordinate data is acquired while traveling, the position accuracy is sufficiently secured, and the position accuracy of the extracted sign can be secured. it can.
Further, by arranging the orthographic image on the distance axis, it is possible to obtain a connected image extending linearly even when the road is curved. When the connected image is generated in this way, the sign on the road exists in a certain positional relationship with respect to the distance axis. For example, pedestrian crossings and stop lines are drawn so as to be orthogonal to the distance axis, and lane boundary lines are drawn parallel to the distance axis. In this way, how to draw a sign to be extracted in the connected image is constant for each sign, so it is possible to clearly set the conditions for extracting the sign and extract the sign stably. Is possible.
In the present invention, since the orthographic image is arranged to generate the connected image, the linearly extended connected image can be relatively easily obtained by arranging the orthographic image on the distance axis.
本発明では、上述の通り、標示に基づいて透明化ポリゴンを設定する態様に限らず、標示に依存せず透明化ポリゴンを生成する態様を採ることもできる。
例えば、上側の連結画像の側端の所定範囲を覆うように透明化ポリゴンを生成してもよい。連結画像を構成する正射画像を生成するための画像変換では、画像の側端に行くほど歪みの影響を受けやすい。また、正射画像は台形になることが通常であるため、これを配置して生成された連結画像の両側端は、のこぎり刃状のギザギザが生じることがある。この結果、連結画像の側端は、下側の連結画像に比較して、標示の位置精度が低くなるとともに、ギザギザの形状によって標示も分断された状態となることが多い。従って、側端の所定範囲に透明化ポリゴンを生成すれば、こうした領域を比較的容易に除去することができ、下側の連結画像の標示を有効活用することが可能となるのである。
As described above, the present invention is not limited to the mode in which the transparent polygon is set based on the sign, but can also have a mode in which the transparent polygon is generated without depending on the sign.
For example, the transparent polygon may be generated so as to cover a predetermined range at the side edge of the upper connected image. In image conversion for generating an orthographic image constituting a connected image, it is more susceptible to distortion as it goes to the side edge of the image. In addition, since the orthographic image is usually trapezoidal, a sawtooth-like jagged shape may occur at both ends of the connected image generated by arranging the orthographic image. As a result, the side edge of the connected image is often in a state where the position accuracy of the sign is lower than that of the lower connected image and the sign is also divided by the jagged shape. Therefore, if a transparent polygon is generated in a predetermined range at the side end, such a region can be removed relatively easily, and the indication of the lower connected image can be effectively used.
上述の態様において、透明化ポリゴンは、上側の連結画像の両側端に生成するようにしてもよいし、いずれか一方のみに生成するようにしてもよい。
また、側端の所定範囲は、任意に生成可能である。例えば、のこぎり刃状のギザギザとなっている領域を特定し、この範囲を除去するのに足りる最小幅の透明化ポリゴンを設定する方法を採ることができる。こうすれば、上側の連結画像を無用に削除することを回避できる。
In the above-described aspect, the transparent polygon may be generated at both ends of the upper connected image, or may be generated only in one of them.
Further, the predetermined range of the side end can be arbitrarily generated. For example, it is possible to identify a region that is a saw-toothed jagged area and set a transparent polygon having a minimum width sufficient to remove this range. In this way, it is possible to avoid unnecessary deletion of the upper connected image.
道路幅が広い場合には、一つのパスでは、道路全体の標示を撮影できない場合がある。このような場合には、走行位置が異なる複数のパスで撮影した画像を合成して道路全体の画像を得るようにしてもよい。複数のパスで画像を撮影する際、各パスごとに位置精度が同一とは限らない。従って、各パスの連結画像を、それぞれの位置座標データに基づいて配置しても、標示の位置に不整合が生じることがある。かかる場合には、次の方法で、位置を修正してもよい。
まず、複数のパスのうち2本以上のパスの連結画像に共通して撮影されている領域内で、パス間で対応する対応点を特定する。例えば、2本のパスに横断歩道が共通に撮影されている場合には、それぞれの連結画像において横断歩道の縞模様のいずれかの角を対応する対応点とすることができる。
コンピュータが、複数のパス間で、抽出された標示の種別および位置関係を比較し、標示の対応関係を特定することによって、標示上のいずれかの点を対応点として自動的に特定するようにしてもよい。また、連結画像および抽出された標示をコンピュータのディスプレイ上に表示し、オペレータがこの表示を見て、対応点を指示するようにしてもよい。
こうして特定された対応点同士のずれは、位置座標の誤差を表すことになる。
When the road width is wide, it may not be possible to photograph the entire road with one pass. In such a case, an image of the entire road may be obtained by combining images taken with a plurality of paths having different travel positions. When taking an image with a plurality of passes, the positional accuracy is not necessarily the same for each pass. Therefore, even if the connected images of each path are arranged based on the respective position coordinate data, inconsistencies may occur in the positions of the markings. In such a case, the position may be corrected by the following method.
First, corresponding points corresponding to each path are identified in an area that is photographed in common with a connected image of two or more paths among a plurality of paths. For example, when a pedestrian crossing is photographed in common in two paths, one of the corners of the pedestrian crossing pattern can be set as a corresponding point in each connected image.
The computer compares the extracted sign types and positional relationships among multiple paths and identifies the corresponding correspondence of the sign so that any point on the sign is automatically identified as the corresponding point. May be. Alternatively, the connected image and the extracted sign may be displayed on a computer display, and the operator may view the display and indicate the corresponding point.
The deviation between the corresponding points specified in this way represents an error in position coordinates.
コンピュータは、複数のパスのうち1本を基準パスとして設定する。この設定は、対応点が特定された後に行っても良いし、その前に行っても構わない。そして、対応する対応点の位置が一致するように設定された移動ベクトルに基づいて、基準パス以外のパスの連結画像に対して補正をかけることで、複数のパスにまたがる道路面の合成画像を生成する。
この補正は、移動ベクトルに基づいて、連結画像を構成する領域ごとに平行移動することによって行う。この領域は、一旦、生成された連結画像を元の正射画像に相当するサイズまたは別の任意に設定されたサイズに分割したものでもよい。また、連結画像を生成する際に、正射画像を合成せずに配置するだけに留めておく場合には、各正射画像ごとに位置を修正するようにしてもよい。
The computer sets one of a plurality of paths as a reference path. This setting may be performed after the corresponding point is identified or may be performed before that. Then, based on the movement vector set so that the positions of the corresponding corresponding points coincide with each other, the combined image of the road surface extending over a plurality of paths can be obtained by correcting the connection image of the path other than the reference path. Generate.
This correction is performed by translating for each region constituting the connected image based on the movement vector. This area may be obtained by dividing the generated connected image once into a size corresponding to the original orthographic image or another arbitrarily set size. In addition, when generating a connected image, if the orthographic images are merely arranged without being synthesized, the position may be corrected for each orthographic image.
こうすれば、撮影時の位置座標データに基づいて各パスの道路面を表す連結画像を生成することができるため、位置精度が確保された状態で連結画像を得ることができる。
そして、複数のパスの中から、一つを基準パスと設定し、この基準パスは固定した状態で、他のパスの位置を修正するため、基準パスの位置精度を確保した状態で、各パス間の位置精度の誤差を解消することができる。
また、各パスの合成は、連結画像を領域ごとに平行移動することによって行うため、各領域の正射画像に歪みを加えることなく位置を修正することができる。従って、この修正時には道路面の標示は、各領域の正射画像内での相対的な位置精度を保持しておくことができる。
以上の作用によって、本発明の路面標示地図生成方法によれば、位置精度を確保した状態で、道路面の標示を含む合成画像を得ることができる。
In this way, since a connected image representing the road surface of each path can be generated based on the position coordinate data at the time of shooting, the connected image can be obtained in a state where positional accuracy is ensured.
Then, one of the multiple paths is set as the reference path, and this path is fixed, and the position of the other paths is corrected. It is possible to eliminate the positional accuracy error.
Further, since the synthesis of each path is performed by translating the connected image for each area, the position can be corrected without adding distortion to the orthographic image of each area. Therefore, at the time of this correction, the road surface marking can maintain the relative positional accuracy in the orthographic image of each region.
By the above operation, according to the road marking map generation method of the present invention, a composite image including road surface marking can be obtained in a state where position accuracy is ensured.
本発明の路面標示地図生成方法において、基準パスは、オペレータが指定するなど、種々の方法で設定することができる。
コンピュータは各パスについて、位置座標データの精度の評価データを併せて入力し、この評価データに基づいて基準パスを設定するようにしてもよい。例えば、複数のパスのうち、評価データに基づいて位置精度が最も高いと評価されるパスを基準パスと設定する方法が挙げられる。こうして設定された基準パスに他のパスを合わせるようにして合成画像を生成すれば、最も高い位置精度を確保することが可能となる。
評価データは、直接に位置精度を定量的に表すデータとしてもよいし、位置精度の算出に用いることができるデータとしてもよい。
In the road marking map generation method of the present invention, the reference path can be set by various methods such as designation by an operator.
The computer may also input evaluation data on the accuracy of the position coordinate data for each path and set a reference path based on the evaluation data. For example, among the plurality of paths, there is a method of setting a path that is evaluated as having the highest position accuracy based on evaluation data as a reference path. If a composite image is generated so as to match another path with the reference path set in this way, the highest position accuracy can be ensured.
The evaluation data may be data that directly represents the position accuracy quantitatively or may be data that can be used to calculate the position accuracy.
本発明では、透明化ポリゴンは複数生成しても構わない。
かかる場合には、更に、生成された複数の透明化ポリゴンのうち、相互に重なり合うものを結合させてもよい。こうすることによって、透明化ポリゴンの数を減らすことができ、データ構造の簡素化、データ容量の削減を図ることができる。
本発明において複数のパスに対する連結画像を重ねる際に、いずれを上に配置するかは、オペレータが判断して決めてもよいし、自動で設定してもよい。
In the present invention, a plurality of transparent polygons may be generated.
In such a case, among the generated transparent polygons, those overlapping each other may be combined. By doing so, the number of transparent polygons can be reduced, and the data structure can be simplified and the data capacity can be reduced.
In the present invention, when overlapping images for a plurality of paths are overlaid, the operator may determine which one is arranged on top or may automatically set it.
自動で設定する方法としては、例えば、連結画像またはフレーム画像を用いた画像処理によって、連結画像内の標示の量、および標示以外の異物の量の少なくとも一方を検出し、この検出結果に基づいて、いずれのパスを上側に配置するかを決定する方法を採ることができる。重ね合わせの上下関係を決定するのであるから、この処理は、道路面の合成画像の生成に先立って、行う必要がある。なお、「異物」とは、道路面や標示の撮影を妨げる物体を意味しており、例えば撮影中に前方や側方を通行する車両や、自転車、バイク、路上駐車中の車両、等が該当する。
連結画像内の標示の量、標示以外の異物の量は、いずれか一方のみを検出してもよいし、双方を検出してもよい。ここで、「量」は、標示等の数で評価してもよいし、面積で評価してもよい。
As an automatic setting method, for example, at least one of the amount of a sign in a connected image and the amount of a foreign substance other than the sign is detected by image processing using a connected image or a frame image, and based on this detection result A method for determining which path is to be arranged on the upper side can be adopted. Since the upper / lower relationship of superposition is determined, this processing needs to be performed prior to the generation of the composite image of the road surface. Note that “foreign matter” means an object that hinders shooting of road surfaces and signs, such as vehicles that pass forward or sideways during shooting, bicycles, motorcycles, vehicles parked on the road, etc. To do.
Only one or both of the amount of sign in the connected image and the amount of foreign matter other than the sign may be detected. Here, the “amount” may be evaluated by a number such as a sign or an area.
上述の方法では、標示の量を考慮して上下関係を判断することにより、透明化ポリゴンの数を抑制したり形状を簡略化することができる。また、異物の量を考慮して上下関係を判断することにより、透明化ポリゴンを設定した後の道路画像の見栄えを向上させることができる。
例えば、下側の連結画像上の路面標示が隠されているところに透明化ポリゴンを生成する場合を考える。この場合には、標示の量が多い連結画像を上側に配置することにより、透明化ポリゴンを抑制することができる。また、異物の量が少ない連結画像を上側に配置することにより、見栄えを向上させることができる。
逆に、上側の標示を除く部分に透明化ポリゴンを生成する場合には、標示の量が少ない連結画像を上側に配置することにより、透明化ポリゴンが避けるべき標示が減るから、透明化ポリゴンの形状を簡略化することができる。また、下側にできるだけ異物の量が少ない連結画像を配置することにより、見栄えを向上させることができる。
更に、上述の方法では、パスの上下関係を自動的に判断させるため、オペレータの主観が入り込まなくなり、オペレータによって道路画像の見栄えが異なるという不安定さを抑制することができる。
In the above-described method, the number of transparent polygons can be suppressed or the shape can be simplified by determining the vertical relationship in consideration of the amount of marking. Further, by determining the vertical relationship in consideration of the amount of foreign matter, it is possible to improve the appearance of the road image after setting the transparent polygon.
For example, consider a case where a transparent polygon is generated where a road marking on the lower connected image is hidden. In this case, the transparent polygon can be suppressed by arranging the connected image having a large amount of the sign on the upper side. Further, the appearance can be improved by arranging the connected image with a small amount of foreign matter on the upper side.
On the other hand, when generating a transparent polygon in a portion excluding the upper sign, placing a connected image with a small amount of the sign on the upper side reduces the sign that the transparent polygon should avoid. The shape can be simplified. Further, the appearance can be improved by arranging a connected image with as little foreign matter as possible on the lower side.
Furthermore, in the above-described method, since the vertical relationship of the path is automatically determined, the subjectivity of the operator does not enter, and the instability that the appearance of the road image differs depending on the operator can be suppressed.
連結画像の配置を自動判定する場合、標示の量および異物の量の双方を考慮してもよい。この場合には、異物の量を標示の量よりも優先的に評価して配置を決定することが好ましい。異物の量を優先するとは、まず、異物の量に従ってパスの上下関係を判断し、上下いずれのパスも異物の量が同等の場合など、上下関係が決まらない場合に、標示の量を考慮することを意味する。
上述の通り、異物の量は、道路画像の見栄えに影響を与える。従って、異物の量を優先的に考慮することにより、道路画像の見栄えを向上することができる。
When automatically determining the arrangement of connected images, both the amount of marking and the amount of foreign matter may be considered. In this case, it is preferable to determine the arrangement by evaluating the amount of foreign matter preferentially over the amount of marking. To prioritize the amount of foreign matter, first determine the vertical relationship of the path according to the amount of foreign matter, and consider the amount of indication when the vertical relationship is not determined, such as when the amount of foreign matter is the same for both upper and lower paths Means that.
As described above, the amount of foreign matter affects the appearance of the road image. Therefore, the appearance of the road image can be improved by preferentially considering the amount of foreign matter.
連結画像内の標示および異物の量は、それぞれのパスの連結画像全体を対象として評価してもよいし、連結画像同士が重なっている領域を対象として評価してもよい。
また双方の評価を併用してもよい。双方の評価を併用する場合には。連結画像全体における量よりも、重なっている領域における量を優先的に評価することが好ましい。優先とは、重なっている領域における評価で上下関係が定まらない場合に、連結画像全体における評価を考慮することを意味する。重なっている領域以外の領域は、上下関係を入れ換えても、道路画像の見栄えには影響を与えないため、重なっている領域での評価を重視した方が、見栄えを向上させる効果が適切に得られるからである。
The sign and the amount of foreign matter in the connected image may be evaluated for the entire connected image of each path, or may be evaluated for the area where the connected images overlap.
Moreover, you may use both evaluation together. When both evaluations are used together. It is preferable to preferentially evaluate the amount in the overlapping area rather than the amount in the whole connected image. The priority means that the evaluation in the entire connected image is considered when the vertical relationship is not determined by the evaluation in the overlapping region. Since areas other than overlapping areas do not affect the appearance of the road image even if the top-and-bottom relationship is changed, the effect of improving the appearance is more appropriately obtained if the evaluation in the overlapping areas is emphasized. Because it is.
連結画像内の標示は、先に説明した方法で認識可能である。標示以外の異物の画像(以下、「ゴミ画像」と言うこともある)の写り込みについては、例えば、以下に示す方法で抽出可能である。
ゴミ画像を認識して、路面標示の認識に反映させる第1の方法は、次の通りである。
まず、コンピュータは、連続するフレーム画像間でオプティカルフローを求める。オプティカルフローとは、前のフレーム画像内の複数の特徴点から、次のフレーム画像内の対応する特徴点への移動を表すベクトルである。連続するフレーム画像とは、必ずしも連続して撮影されたフレーム画像である必要はなく、撮影されたフレーム画像を、所定の距離間隔や時間間隔などで間引いた後のフレーム画像群で定義してもよい。
CPUは、こうして得られたオプティカルフローに基づいて、標示以外の写り込み、つまりゴミ画像をフレーム画像内で抽出する。路面標示とは異なる異物が写り込んでいる場合、そのオプティカルフローも、路面標示の部分のオプティカルフローとは大きさおよび方向が異なるからである。写り込みの抽出は、オプティカルフローの大きさおよび方向の双方に基づいて評価してもよいし、いずれか一方に基づいて評価してもよい。
The sign in the connected image can be recognized by the method described above. The reflection of a foreign object image other than the sign (hereinafter also referred to as “dust image”) can be extracted by the following method, for example.
A first method for recognizing a dust image and reflecting it in recognition of a road marking is as follows.
First, the computer obtains an optical flow between successive frame images. The optical flow is a vector representing movement from a plurality of feature points in the previous frame image to corresponding feature points in the next frame image. A continuous frame image does not necessarily need to be a frame image captured continuously, and the captured frame image may be defined by a frame image group after thinning out at a predetermined distance interval or time interval. Good.
Based on the optical flow thus obtained, the CPU extracts an image other than the marking, that is, a dust image from the frame image. This is because when a foreign object different from the road marking is reflected, the optical flow also has a different size and direction from the optical flow of the road marking portion. Reflection extraction may be evaluated based on both the magnitude and direction of the optical flow, or may be evaluated based on either one.
次に、CPUは、写り込みの抽出結果を反映した正射画像を生成する。ゴミ画像を考慮せずに生成された正射画像に加えて、ゴミ画像の正射画像を生成してもよい。また、ゴミ画像を考慮せずに生成された正射画像に代えて、フレーム画像からゴミ画像を除去した画像に基づいて正射画像を生成してもよい。いずれの方法によっても、連結画像内でのゴミ画像がある領域を特定することができる。あとは、ゴミ画像の数または面積を計測して評価値を求めればよい。 Next, the CPU generates an orthographic image reflecting the extraction result of the reflection. In addition to the orthographic image generated without considering the dust image, an orthographic image of the dust image may be generated. Further, instead of the orthographic image generated without considering the dust image, the orthographic image may be generated based on an image obtained by removing the dust image from the frame image. By any method, it is possible to specify an area where a dust image is present in a connected image. After that, the evaluation value may be obtained by measuring the number or area of dust images.
ゴミ画像を認識して、路面標示の認識に反映させる第2の方法は、次の通りである。
CPUは、距離軸上に配置された正射画像同士が重なる部分を切り出す。そして、この重複部分の正射画像間の各点の階調差分を求める。階調差分とは各点に記録されている色成分の差分である。カラー画像の場合、RGBの成分ごとに階調差分を求めても良いが、HSVの3要素に分解した上で明度(V)差分を求めることが好ましい。正射画像同士の重複部分では路面標示も重なっているはずなので、路面標示に対する階調差分は所定値以下となる。これに対し、路面標示以外の異物は、撮影時刻や撮影場所が異なれば正射画像への写り込みの形状、大きさが異なるのが通常であるため、大きな階調差分となる。従って、所定の閾値を超える階調差分が得られた点を抽出することにより、ゴミ画像を抽出することが可能となる。こうしてゴミ画像が抽出されると、連結画像内で、ゴミ画像がある領域を特定することができる。
A second method for recognizing the dust image and reflecting it in the recognition of the road marking is as follows.
The CPU cuts out a portion where the orthogonal images arranged on the distance axis overlap. Then, the gradation difference of each point between the orthogonal images of the overlapping portion is obtained. The gradation difference is a difference between color components recorded at each point. In the case of a color image, a gradation difference may be obtained for each RGB component, but it is preferable to obtain a lightness (V) difference after decomposing into three elements of HSV. Since the road markings should overlap in the overlapping portion between the orthogonal images, the gradation difference with respect to the road marking is less than a predetermined value. On the other hand, foreign objects other than road markings usually have large gradation differences because the shape and size of the reflection on the orthographic image are different at different shooting times and shooting locations. Therefore, it is possible to extract a dust image by extracting a point where a gradation difference exceeding a predetermined threshold is obtained. When the dust image is extracted in this way, it is possible to specify an area where the dust image is present in the connected image.
第2の方法を用いる場合には、正射画像に平滑化フィルタを適用した上で、階調差分を求めることが好ましい。画像を構成する画素単位で厳密に階調差分を求めると、正射画像を生成する際の位置誤差などによって、路面標示の部分も大きな階調差分が生じる場合があるからである。平滑化フィルタを適用することにより、画像内の階調変化を鈍化させることができるため、位置誤差などの影響を緩和し、ゴミ画像の抽出精度を向上することができる。 In the case of using the second method, it is preferable to obtain the gradation difference after applying a smoothing filter to the orthogonal image. This is because if the gradation difference is strictly determined for each pixel constituting the image, a large gradation difference may occur in the road marking portion due to a position error when generating an orthographic image. By applying the smoothing filter, the gradation change in the image can be dulled, so that the influence of the position error and the like can be alleviated and the dust image extraction accuracy can be improved.
ゴミ画像の抽出は、フレーム画像全体に適用してもよいが、処理速度を向上させるため、一部にのみ適用してもよい。例えば、正射画像の生成対象となる部分を対象とすることができる。
また別の態様として、パスを含む所定範囲を除く所定領域を対象としてもよい。パスに沿って移動しながら撮影を行うため、パス周辺の領域には、路面標示以外の異物が写り込んでいる可能性は低いからである。これは、自車が走行する走行レーンにおいては、前方を走行する車両が画像作成範囲に入ってこないように車間距離を開けて走行することが可能だからである。一方、走行レーン以外のレーンは、異物の写り込みを回避する手段がないのが現状である。
更に、両者を組合せ、正射画像の生成対象となる部分のうち、パスを含む所定範囲を除く所定領域を対象としてもよい。
The dust image extraction may be applied to the entire frame image, but may be applied to only a part of the frame image in order to improve the processing speed. For example, it is possible to target a portion that is an orthographic image generation target.
As another aspect, a predetermined area excluding a predetermined range including a path may be targeted. This is because photographing is performed while moving along the path, and it is unlikely that foreign objects other than road markings appear in the area around the path. This is because, in the travel lane in which the host vehicle travels, it is possible to travel at a greater distance so that the vehicle traveling ahead does not enter the image creation range. On the other hand, in lanes other than the traveling lane, there is currently no means for avoiding the appearance of foreign objects.
Furthermore, by combining the two, a predetermined region excluding a predetermined range including a path may be targeted in a portion that is an orthographic image generation target.
本発明において、上側の連結画像によって隠されている標示の部分に透明化ポリゴンを生成する例を先に説明したが、透明化ポリゴンの生成方法は、かかる部位に限られるものではない。
例えば、上述の方法などによって、上側の連結画像内において標示以外の異物が写り込んだ部分、つまりゴミ画像を抽出する場合、抽出された異物の少なくとも一部に対応する領域を覆うように透明化ポリゴンを生成してもよい。こうすることにより、道路画像の見栄えを向上させることができる。
ゴミ画像を覆う透明化ポリゴンを生成する場合も、標示の部分に透明化ポリゴンを生成する場合と同様、下側に連結画像が存在する範囲内で生成することが好ましい。連結画像がない部分に透明化ポリゴンを設定すると、その部分だけ穴があいたかのような道路画像となってしまうからである。
In the present invention, the example in which the transparent polygon is generated in the portion of the sign hidden by the upper connected image has been described above. However, the method for generating the transparent polygon is not limited to such a part.
For example, when extracting a portion where foreign objects other than the marking appear in the upper connected image, that is, a dust image, by the above-described method, the region is made transparent so as to cover an area corresponding to at least a part of the extracted foreign matter. Polygons may be generated. By doing so, the appearance of the road image can be improved.
When generating the transparent polygon that covers the dust image, it is preferable to generate the transparent polygon within the range in which the connected image exists on the lower side, as in the case of generating the transparent polygon in the marking portion. This is because if a transparent polygon is set in a portion where there is no connected image, a road image will appear as if there was a hole in that portion.
また、上側の連結画像の側端の所定範囲を覆うように透明化ポリゴンを生成し、連結画像の両側に生じるのこぎり状のギザギザ部分を隠す場合、異物の少なくとも一部を覆う透明化ポリゴンは、このギザギザ部分を隠すための透明化ポリゴン(以下、側端透明化ポリゴンと呼ぶ)との間隙を埋めるように一体化させてもよい。こうすることにより透明化ポリゴンの数を抑制し、形状を簡素化することができる。また、間隙を埋めるように一体化させることにより、抽出しきれなかったゴミ画像が間隙に存在する場合、そのゴミ画像も透明化ポリゴンによって隠すことができる。
一体化は種々の方法で行うことができる。例えば、側端透明化ポリゴンを投影する垂線を引いて両者を結合してもよい。また、側端透明化ポリゴンから所定の距離内にある異物の透明化ポリゴンのみを結合するようにしてもよい。
Further, when generating a transparent polygon so as to cover a predetermined range of the side edge of the upper connected image and hiding a saw-toothed jagged portion generated on both sides of the connected image, the transparent polygon covering at least a part of the foreign matter is You may integrate so that the clearance gap with the transparent polygon (henceforth a side edge transparent polygon) for concealing this jagged part may be filled up. By doing so, the number of transparent polygons can be suppressed and the shape can be simplified. Further, by integrating so as to fill the gap, if there is a dust image that could not be extracted in the gap, the dust image can also be hidden by the transparent polygon.
Integration can be done in various ways. For example, a perpendicular line for projecting the side-end transparent polygon may be drawn to combine the two. Further, only the transparent polygons of foreign matters within a predetermined distance from the side end transparent polygons may be combined.
透明化ポリゴンは、逆に路面標示のみを残すように生成することもできる。
つまり、上側の連結画像に含まれる路面標示を抽出した後、抽出された路面標示について、その路面標示よりも連結画像の側端側を覆う透明化ポリゴンを生成するのである。ただし、この透明化ポリゴンは、他の路面標示にかぶらない範囲で生成することが好ましい。抽出された路面標示よりも側端側の領域には、路面標示が存在していないため、必ずしも連結画像を残しておく必要はない。上述の方法では、かかる部分に透明化ポリゴンを生成し、上側の連結画像の不要な部分をまとめて削除することにより、ゴミ画像があるか否かを抽出するまでなく、簡易にゴミ画像を削除することができる。
Conversely, the transparent polygon can be generated so that only the road marking is left.
That is, after extracting the road marking included in the upper connected image, a transparent polygon that covers the side end side of the connected image with respect to the extracted road marking is generated. However, it is preferable that the transparent polygon is generated within a range that does not cover other road markings. Since there is no road marking in the region on the side end side from the extracted road marking, it is not always necessary to leave a connected image. In the above method, a transparent polygon is generated in such a part, and unnecessary parts of the upper connected image are deleted together, so that it is easy to delete the dust image without having to extract whether or not there is a dust image. can do.
また、パスに対して投影可能な路面標示が存在しない部分では、パスに交差する方向にパスから所定の距離内にある部分を除く範囲で連結画像を覆うように透明化ポリゴンを生成してもよい。こうすることにより、路面標示が存在しない箇所についても、簡易にゴミ画像を削除することが可能となる。
本発明は、必ずしも上述した特徴を全て備えている必要はなく、適宜、その一部を省略してもよいし、いくつかの特徴を適宜、組み合わせて備えるようにしてもよい。
本発明は、上述の路面標示地図生成方法に限らず、この路面標示地図生成方法によって道路面に施された標示を含む路面標示地図を生成する路面標示地図生成装置として構成してもよい。
In addition, in a portion where there is no road marking that can be projected on the path, a transparent polygon may be generated so as to cover the connected image in a range excluding a portion within a predetermined distance from the path in a direction intersecting the path Good. In this way, it is possible to easily delete the dust image even at a location where no road marking exists.
The present invention does not necessarily have all the above-described features, and some of them may be omitted as appropriate, or some features may be appropriately combined.
The present invention is not limited to the road marking map generation method described above, and may be configured as a road marking map generation device that generates a road marking map including a marking applied to a road surface by the road marking map generation method.
また、上述の路面標示地図生成方法をコンピュータに実現させるためのコンピュータプログラムとして構成してもよいし、かかるコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体として構成してもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置等、コンピュータが読取り可能な種々の媒体を利用できる。 Further, the above road marking map generation method may be configured as a computer program for causing a computer to realize the method, or may be configured as a computer-readable recording medium on which the computer program is recorded. Examples of the recording medium include a flexible disk, a CD-ROM, a magneto-optical disk, an IC card, a ROM cartridge, a punch card, a printed matter on which a code such as a barcode is printed, an internal storage device of a computer (a memory such as a RAM or a ROM). ) And external storage devices can be used.
透明化ポリゴンを生成することにより、合成に用いられた連結画像に含まれる路面標示を有効活用して合成画像を生成することが可能となる。また、透明化ポリゴンを設定するための規則に応じて、各連結画像に含まれる路面標示を有効活用することが可能となる。 By generating the transparent polygon, it is possible to generate a composite image by effectively utilizing the road marking included in the connected image used for the synthesis. In addition, road markings included in each connected image can be effectively used according to the rules for setting the transparent polygon.
本発明の実施例について以下の順序で説明する。
A.システム構成:
A1.道路面撮影システム:
A2.路面標示地図生成装置:
B.処理概要:
B1.中間データ構成:
B2.処理例:
B3.位置合わせ加工概要:
C.路面標示地図生成方法:
C1.連結画像生成処理:
C2.位置合わせ加工:
C3.基準パス設定処理:
C4.連結画像移動処理:
C5.透明化ポリゴン設定処理:
C6.ペイント認識処理:
C7.自動透明化ポリゴン生成処理:
D.効果:
E.変形例:
E1.優先パスの決定:
E2.自動透明化ポリゴン生成処理(1):
E3.自動透明化ポリゴン生成処理(2):
Embodiments of the present invention will be described in the following order.
A. System configuration:
A1. Road surface photography system:
A2. Road marking map generator:
B. Outline of processing:
B1. Intermediate data structure:
B2. Processing example:
B3. Outline of alignment processing:
C. Road marking map generation method:
C1. Connected image generation processing:
C2. Alignment processing:
C3. Standard path setting process:
C4. Connected image movement processing:
C5. Transparent polygon setting process:
C6. Paint recognition process:
C7. Automatic transparency polygon generation processing:
D. effect:
E. Variations:
E1. Determining the preferred path:
E2. Automatic transparency polygon generation processing (1):
E3. Automatic transparency polygon generation processing (2):
A.システム構成:
本実施例では、車両に搭載したビデオカメラで撮影した道路面の画像を用いて、路面の標示を含む地図(以下、「路面標示地図」と呼ぶ)を生成する方法を示す。
本実施例のシステムは、道路面撮影システムと路面標示地図生成装置とを備える。道路面撮影システムは、道路を走行しながら道路面の画像をビデオカメラで撮影するシステムである。本実施例では、対象となる道路を、異なる走行軌跡で複数回走行し、それぞれ画像を撮影する。
路面標示地図生成装置は、道路面撮影システムで撮影された道路面の画像に基づいて路面標示地図を生成する装置である。まず、上述の各走行軌跡上に、撮影された画像を正射画像に変換した上で配置することで、道路面の一部の車線についての連結画像を生成する。そして、複数の走行軌跡の画像を、位置座標が整合するように配置することで道路全体の画像を生成する。また、こうして生成された連結画像から道路面の標示を抽出する。
以下、道路面撮影システムと路面標示地図生成装置のシステム構成について説明する。
A. System configuration:
In this embodiment, a method for generating a map including road markings (hereinafter referred to as a “road marking map”) using road surface images taken by a video camera mounted on a vehicle will be described.
The system of the present embodiment includes a road surface photographing system and a road marking map generating device. The road surface photographing system is a system for photographing an image of a road surface with a video camera while traveling on the road. In the present embodiment, the target road is traveled a plurality of times with different travel trajectories, and images are respectively captured.
The road marking map generation device is a device that generates a road marking map based on an image of a road surface photographed by a road surface photographing system. First, a connected image of a part of the lane on the road surface is generated by arranging the photographed image after converting it into an orthographic image on each of the above-described traveling trajectories. And the image of the whole road is produced | generated by arrange | positioning the image of a some driving | running | working locus so that a position coordinate may match. Further, a road surface sign is extracted from the connection image thus generated.
Hereinafter, the system configuration of the road surface photographing system and the road marking map generating device will be described.
A1.道路面撮影システム:
図1は実施例としての道路面撮影システムの構成を示す説明図である。
道路面撮影システム100は、車両に搭載されたシステムである。図の下方のブロック図に基づき、システム構成を説明する。
ビデオカメラ120は、走行中の道路面の画像を撮影する。
位置計測部110は、撮影中の位置座標を計測する装置である。位置計測部110は、GPS(Global Positioning System)114、IMU(Inertial
Measurement Unit)116、DMI(Distance Measuring Instrument)118およびコントローラ112を備える。GPS114は、全地球測位システムである。IMU116は、内部に3軸のジャイロおよび加速度センサを備えた慣性計測装置である。DMI118は、車輪の回転を検出して移動距離を計測する装置である。
A1. Road surface photography system:
FIG. 1 is an explanatory diagram showing a configuration of a road surface photographing system as an embodiment.
The road surface photographing system 100 is a system mounted on a vehicle. The system configuration will be described based on the block diagram below.
The video camera 120 captures an image of a running road surface.
The position measurement unit 110 is a device that measures position coordinates during shooting. The position measurement unit 110 includes a GPS (Global Positioning System) 114 and an IMU (Inertial).
A measurement unit (116) 116, a distance measuring instrument (DMI) 118, and a controller 112 are provided. The GPS 114 is a global positioning system. The IMU 116 is an inertial measurement device including a triaxial gyro and an acceleration sensor inside. The DMI 118 is a device that measures the distance traveled by detecting the rotation of a wheel.
コントローラ112は、GPS114、IMU116、DMI118からの信号を受け、撮影時の位置座標を逐次出力する。位置座標は任意の座標系を採ることができるが、本実施例では、緯度経度および標高を用いた。
また、これらの信号の取得後、位置座標の計測精度の評価値である自己推定位置精度σを併せて出力する。一般にGPS114は、位置座標の検出に使用される人工衛星の配置、電波の受信状況、建造物などに反射した電波を受信することによるマルチパスの有無などによって検出精度が変動することが知られている。またディファレンシャル測位では、基準局の稼働状況によっても検出精度は影響を受ける。
自己推定位置精度σは、任意に定義可能である。例えば、GPS114の人工衛星の配置によって定まる精度低下率(DOP(Dilution of Precision))を用いて自己推定位置精度σを算出するようにしてもよい。自己推定位置精度σは、取得されたデータを後述する路面標示地図生成装置で処理する際に、解析するようにしてもよい。
The controller 112 receives signals from the GPS 114, the IMU 116, and the DMI 118, and sequentially outputs position coordinates at the time of shooting. The position coordinates can take an arbitrary coordinate system, but in this embodiment, latitude and longitude and altitude are used.
In addition, after obtaining these signals, a self-estimated position accuracy σ, which is an evaluation value of the position coordinate measurement accuracy, is also output. In general, it is known that the detection accuracy of the GPS 114 varies depending on the arrangement of artificial satellites used for detecting position coordinates, the reception status of radio waves, the presence of multipath by receiving radio waves reflected on buildings, and the like. Yes. In differential positioning, the detection accuracy is also affected by the operating status of the reference station.
The self-estimated position accuracy σ can be arbitrarily defined. For example, the self-estimated position accuracy σ may be calculated using a precision reduction rate (DOP (Dilution of Precision)) determined by the arrangement of the satellites of the GPS 114. The self-estimated position accuracy σ may be analyzed when the acquired data is processed by a road marking map generation device to be described later.
記録装置130は、ビデオカメラ120および位置計測部110の出力信号を同期して記録する。本実施例では、記録装置130は、汎用のパーソナルコンピュータに、記録用のハードディスク140を増設した装置によって構成した。ハードディスク140内には、図示する通り、画像データ142、同期データ144、計測データ146が記録される。画像データ142は、ビデオカメラで撮影された画像の動画ファイルである。計測データ146は、位置計測部110で得られた位置座標である。同期データ144は、画像データ142と計測データ146との取得時刻を対応づけるデータである。同期データ144および計測データ146を参照することにより、画像データ142のフレームごとに撮影地点の位置座標を得ることができる。 The recording device 130 records the output signals of the video camera 120 and the position measuring unit 110 in synchronization. In this embodiment, the recording device 130 is configured by a device in which a recording hard disk 140 is added to a general-purpose personal computer. In the hard disk 140, as shown in the figure, image data 142, synchronization data 144, and measurement data 146 are recorded. The image data 142 is a moving image file of an image taken with a video camera. The measurement data 146 is position coordinates obtained by the position measurement unit 110. The synchronization data 144 is data that associates the acquisition times of the image data 142 and the measurement data 146 with each other. By referring to the synchronization data 144 and the measurement data 146, the position coordinates of the shooting point can be obtained for each frame of the image data 142.
撮影時の記録用のデータ構造は、上述した構造に限られない。例えば、計測データ146は、画像データ142の各フレームの位置座標を順次、格納するデータとしてもよい。こうすることにより、同期データ144を省略することが可能となる。かかるデータを取得するためには、例えば、記録装置130がビデオカメラ120のフレームごとに同期信号を位置計測部110に出力し、その時の位置座標を取得する方法を採ることができる。
図の上方に、車両に搭載した状態を模式的に示した。
ビデオカメラ120は、前方画像を撮影できるよう、車両の前方に設置する。画角を広げるために広角レンズを装着してもよい。
GPS114のアンテナ114Aは、車両のルーフ上部に設置する。本実施例では、GPS用の人工衛星からの電波を確実に受信し、十分な位置精度を確保することができるよう、アンテナ114Aを車両の前後に主副の2台設置した。いずれか一台のみを用いるものとしてもよい。
IMU116、DMI118、コントローラ112は、それぞれ車両の後部に設置した。DMI118は、後輪の回転を検出可能に装着されている。
記録装置130およびハードディスク140は車室内の任意の場所に設置可能であるため、図示を省略した。
The data structure for recording at the time of shooting is not limited to the structure described above. For example, the measurement data 146 may be data that sequentially stores the position coordinates of each frame of the image data 142. By doing so, the synchronization data 144 can be omitted. In order to acquire such data, for example, a method in which the recording device 130 outputs a synchronization signal to the position measuring unit 110 for each frame of the video camera 120 and acquires the position coordinates at that time can be employed.
The state mounted on the vehicle is schematically shown in the upper part of the figure.
The video camera 120 is installed in front of the vehicle so that a front image can be taken. A wide-angle lens may be attached to widen the angle of view.
The antenna 114A of the GPS 114 is installed on the upper roof of the vehicle. In the present embodiment, two main and sub antennas 114A are installed in front of and behind the vehicle so that radio waves from GPS artificial satellites can be reliably received and sufficient positional accuracy can be ensured. Only one of them may be used.
The IMU 116, DMI 118, and controller 112 were installed at the rear of the vehicle. The DMI 118 is mounted so that the rotation of the rear wheel can be detected.
Since the recording device 130 and the hard disk 140 can be installed at any location in the vehicle interior, illustration is omitted.
A2.路面標示地図生成装置:
図2は実施例としての路面標示地図生成装置の構成を示す説明図である。道路面撮影システムで撮影された道路面の画像に基づいて路面標示地図を生成するための装置である。本実施例では、完全に自動で路面標示地図を生成するのではなく、適宜、オペレータからのコマンドによる指示を受けながら対話型または半自動で処理を進める方法を採用した。
図中には、路面標示地図生成装置200の機能ブロックを示した。本実施例では、路面標示地図生成装置200は、図示する各機能を実現するためのコンピュータプログラムを汎用のパーソナルコンピュータにインストールすることによってソフトウェア的に構築した。これらの機能ブロックの一部はOS(Operating System)によって提供してもよい。また、これらの機能ブロックは、それぞれハードウェア的に構成することも可能である。また、ここでは説明の便宜上、スタンドアロンで稼働する装置として説明するが、各機能ブロックをネットワークで接続された複数のコンピュータに分散して用意してもよい。
A2. Road marking map generator:
FIG. 2 is an explanatory diagram showing a configuration of a road marking map generating apparatus as an embodiment. It is an apparatus for generating a road marking map based on an image of a road surface photographed by a road surface photographing system. In this embodiment, a method of advancing the process interactively or semi-automatically while receiving an instruction by a command from an operator as appropriate, instead of generating a road marking map completely automatically.
In the figure, functional blocks of the road marking map generating apparatus 200 are shown. In this embodiment, the road marking map generating apparatus 200 is constructed in software by installing a computer program for realizing each function shown in a general-purpose personal computer. Some of these functional blocks may be provided by an OS (Operating System). Each of these functional blocks can also be configured in hardware. In addition, here, for convenience of explanation, it is described as a stand-alone operating device, but each functional block may be distributed and prepared in a plurality of computers connected via a network.
主制御部201は、各機能ブロックを統合制御する。データ入力部204は、道路面撮影システム100で取得した各種データを記録したハードディスク140から、画像データ142、同期データ144、計測データ146を入力する。本実施例では、ハードディスク140を道路面撮影システム100から路面標示地図生成装置200に接続し直すことによって、これらのデータを受け渡す方法を採ったが、ネットワーク経由でデータを送信する方法や、DVDなどの記録媒体を用いてデータを受け渡す方法を採ってもよい。計測データには、位置計測部110で得られた位置座標が含まれるから、データ入力部204は、本発明における入力部に相当する。 The main control unit 201 performs integrated control of each functional block. The data input unit 204 inputs image data 142, synchronization data 144, and measurement data 146 from the hard disk 140 that records various data acquired by the road surface photographing system 100. In this embodiment, a method of transferring these data by reconnecting the hard disk 140 to the road marking map generating device 200 from the road surface photographing system 100 is adopted. However, a method of transmitting data via a network, a DVD, A method of transferring data using a recording medium such as the above may be adopted. Since the measurement data includes the position coordinates obtained by the position measurement unit 110, the data input unit 204 corresponds to the input unit in the present invention.
コマンド入力部202は、コンピュータに備えられたキーボードやマウスなどの操作を介して、オペレータからのコマンドを入力する。
表示制御部203は、コンピュータのディスプレイに、路面標示地図生成装置200での処理結果を表示したり、オペレータが種々のコマンドを指示するための画面を表示したりする。コマンド入力部202、表示制御部203の機能は、コンピュータのOSによって提供してもよい。
The command input unit 202 inputs a command from an operator through operations such as a keyboard and a mouse provided in the computer.
The display control unit 203 displays the processing result of the road marking map generation device 200 on a computer display, or displays a screen for an operator to instruct various commands. The functions of the command input unit 202 and the display control unit 203 may be provided by a computer OS.
軌跡データ算出部205は、計測データ146に基づき、画像データ142を撮影した時の走行軌跡(以下、「パス」と呼ぶこともある)を表すデータを生成する。本実施例では、軌跡データ算出部205は、道路面撮影システム100によって得られる位置座標を記録した計測データ146に対して、位置座標が既知の基準局から提供されている検出情報に基づく補正を施すことによって軌跡データを生成する。基準局の情報を用いて位置座標を補正する技術は周知であるため、説明を省略する。この処理によって位置座標の精度を向上させることが可能となる。
もっとも、基準局からのデータを用いることは必須ではない。計測データ146で得られた位置座標をそのまま用いるものとしてもよい。かかる場合には、軌跡データ算出部205は省略することも可能である。
The trajectory data calculation unit 205 generates data representing a travel trajectory (hereinafter also referred to as “pass”) when the image data 142 is captured based on the measurement data 146. In this embodiment, the trajectory data calculation unit 205 corrects the measurement data 146 in which the position coordinates obtained by the road surface photographing system 100 are recorded based on detection information provided from a reference station whose position coordinates are known. Thus, trajectory data is generated. Since the technique for correcting the position coordinates using the information of the reference station is well known, the description thereof is omitted. This processing can improve the accuracy of position coordinates.
However, it is not essential to use data from the reference station. The position coordinates obtained from the measurement data 146 may be used as they are. In such a case, the trajectory data calculation unit 205 can be omitted.
画像変換部206は、正射投影、即ち画像データ142の各フレーム画像を真上から見た状態に変換して正射画像を生成する。
連結画像生成部としての1パス合成部207は、画像変換部206によって得られた各フレーム画像の正射画像を、その正射画像内の代表点が、撮影時の位置座標に基づいて定まる位置座標に来るように配置することによって、撮影時の走行軌跡(パス)に沿った道路面の画像を合成する。こうして合成された画像を、連結画像と呼ぶものとする。合成された連結画像は、処理データ記憶部210に保存される。
本実施例では、それぞれの道路に対して、異なる走行軌跡で、複数回走行して、撮影を行う。1パス画像合成部207は、それぞれのパスごとに合成画像を生成する。この結果、連結画像は、パスの本数に応じて、複数生成される。
The image conversion unit 206 generates an orthographic image by converting each frame image of the image data 142 into an orthographic projection, that is, a state as viewed from directly above.
A one-pass composition unit 207 serving as a connected image generation unit determines an orthographic image of each frame image obtained by the image conversion unit 206, and a position at which a representative point in the orthographic image is determined based on position coordinates at the time of shooting. By arranging so as to come to the coordinates, an image of the road surface along the traveling locus (path) at the time of photographing is synthesized. The image synthesized in this way is called a connected image. The combined connection image is stored in the processing data storage unit 210.
In this embodiment, each road is photographed by traveling a plurality of times with different traveling trajectories. The 1-pass image composition unit 207 generates a composite image for each pass. As a result, a plurality of connected images are generated according to the number of paths.
なお、複数パスの画像は異なる時期に撮影したものでもよい。例えば、ある時期に道路面の画像を撮影し、路面標示を含む地図を整備した後、所定の時期が経過した時点で、再度、同じ道路を走行して画像を撮影し、前回の画像と今回の画像とを合成することによって、地図に路面標示の変化を反映させるようにしてもよい。
また、撮影対象が複数車線の道路である場合、車線ごとに1回ずつ移動して撮影してもよいし、いずれかの車線上を複数回移動して撮影してもよい。前者の場合は、車線とパスが1対1に対応することになる。後者の場合は、パスと車線が複数対1に対応することになる。本実施例では、特に断らない場合には、各車線について1回ずつ走行した場合、つまり車線とパスとが1対1に対応している場合を例にとって説明する。
Note that images of a plurality of passes may be taken at different times. For example, after taking an image of a road surface at a certain time and preparing a map that includes road markings, when the predetermined time has elapsed, the image is taken again on the same road, and the previous image and this time The change of the road marking may be reflected on the map by synthesizing the image.
When the object to be photographed is a road with multiple lanes, the image may be taken by moving once for each lane, or may be taken by moving several times on any lane. In the former case, the lane and the path correspond one-to-one. In the latter case, the path and the lane correspond to a plurality of one-to-one. In this embodiment, unless otherwise specified, a case where the vehicle travels once for each lane, that is, a case where the lane and the path correspond one-to-one will be described as an example.
合成画像生成部としての位置合わせ処理部220は、1パス画像合成部207で生成された複数の連結画像を、位置合わせ処理、即ち連結画像間の位置座標の誤差を修正して路面の画像が整合するように配置する処理を行うことで、道路全体の正射画像(以下、「道路画像」と呼ぶこともある)を生成する。位置合わせ処理は、オペレータからの指示に応じて行う。処理内容は後述する。
位置合わせで得られた道路画像は、処理データ記憶部210に保存される。
The alignment processing unit 220 serving as a composite image generation unit converts a plurality of connected images generated by the one-pass image combining unit 207 into an alignment process, that is, corrects positional coordinate errors between the connected images, thereby generating a road surface image. By performing the process of arranging them so as to match, an orthogonal image of the entire road (hereinafter also referred to as “road image”) is generated. The alignment process is performed according to an instruction from the operator. The processing contents will be described later.
The road image obtained by the alignment is stored in the processing data storage unit 210.
透明化ポリゴン生成部としての透明化ポリゴン設定部221は、得られた道路画像上に、オペレータの指示によって、透明化ポリゴンを設定する。上述の位置合わせを行う際には、隣接するパスに対応する正射画像の一部が重なり合うことがある。そして重なった部分では、下側に配置された正射画像の方に、路面標示が鮮明に写されている場合もある。透明化ポリゴンは、このような場合に、下側の画像が表示されるように上側の正射画像の一部を透明化する処理を施す領域を指定するためのポリゴンである。透明化ポリゴンを設定することにより、路面標示を正確に把握可能な地図を提供することが可能となる。 A transparent polygon setting unit 221 as a transparent polygon generation unit sets a transparent polygon on the obtained road image according to an operator's instruction. When performing the above-described alignment, a part of the orthographic image corresponding to the adjacent path may overlap. In the overlapped portion, the road marking may be clearly copied toward the orthographic image arranged on the lower side. In such a case, the transparent polygon is a polygon for designating an area to be subjected to processing for making a part of the upper orthographic image transparent so that the lower image is displayed. By setting the transparent polygon, it is possible to provide a map that can accurately grasp the road marking.
自動透明化ポリゴン設定部224は、上述の透明化ポリゴンの設定を自動的に行う。こうすることによって、オペレータの負荷を軽減するとともに、オペレータのスキルに依存せず、安定した品質で透明化ポリゴンを設定することが可能となる利点がある。
透明化ポリゴン設定部221と、自動透明化ポリゴン設定部224とは、オペレータの指示によって、いずれか一方を選択的に使用可能としてもよいし、双方を併用してもよい。併用の態様としては、例えば、自動透明化ポリゴン設定部224による処理を行った後、透明化ポリゴン設定部221によって、透明化ポリゴンの修正や追加を行う態様が挙げられる。
透明化ポリゴン設定部221、自動透明化ポリゴン設定部224によって設定された透明化ポリゴンは、所定データ記憶部210に保存される。
The automatic transparent polygon setting unit 224 automatically sets the transparent polygon described above. By doing so, there is an advantage that the load on the operator can be reduced and the transparent polygon can be set with stable quality without depending on the skill of the operator.
Either one of the transparent polygon setting unit 221 and the automatic transparent polygon setting unit 224 may be selectively used according to an operator instruction, or both may be used in combination. As an example of the combined use, for example, a mode in which the transparent polygon setting unit 221 corrects or adds the transparent polygon after the processing by the automatic transparent polygon setting unit 224 is performed.
The transparent polygon set by the transparent polygon setting unit 221 and the automatic transparent polygon setting unit 224 is stored in the predetermined data storage unit 210.
ペイント認識部223は、道路面の標示(以下、「ペイント」と呼ぶこともある)を認識する。本実施例では、1パス画像合成部207で生成された連結画像に基づいて標示の認識を行うものとした。ペイント認識結果は、処理データ記憶部210に保存される。
路面標示地図生成装置は、以上で生成された道路画像に基づいて路面標示地図を出力することができる。例えば、道路画像を印刷可能なファイルとして出力してもよい。また、路面標示地図を電子地図として生成するように、道路画像を電子データとして出力してもよい。また、これらの出力に先立って、道路画像に基づいて路面標示の位置座標や形状データを取得する処理を行うようにしてもよい。
The paint recognition unit 223 recognizes a road surface sign (hereinafter also referred to as “paint”). In the present embodiment, the sign is recognized based on the connected image generated by the one-pass image combining unit 207. The paint recognition result is stored in the processing data storage unit 210.
The road marking map generating device can output a road marking map based on the road image generated as described above. For example, a road image may be output as a printable file. Moreover, you may output a road image as electronic data so that a road marking map may be produced | generated as an electronic map. In addition, prior to these outputs, a process for obtaining position coordinates and shape data of road markings based on road images may be performed.
B.処理概要:
B1.中間データ構成:
図3は路面標示地図の生成過程における中間データを示す説明図である。これらのデータは、順次、処理データ記憶部210(図2参照)に記憶される。
本実施例では、道路を走行しながらビデオカメラ120および位置計測部110で取得したデータが記録装置130としてのパーソナルコンピュータによってハードディスク140内に格納されている。格納されるデータとしては、画像データ142、計測データ146、および両者の同期をとるための同期データ144がある。
本実施例では、異なる時期に取得された複数の画像を処理対象とすることも可能ではあるが、以下では、同時期に異なる走行軌跡で撮影を行った場合を例にとって説明する。
B. Outline of processing:
B1. Intermediate data structure:
FIG. 3 is an explanatory diagram showing intermediate data in the process of generating a road marking map. These data are sequentially stored in the processing data storage unit 210 (see FIG. 2).
In this embodiment, data acquired by the video camera 120 and the position measuring unit 110 while traveling on a road is stored in the hard disk 140 by a personal computer as the recording device 130. The stored data includes image data 142, measurement data 146, and synchronization data 144 for synchronizing them.
In the present embodiment, it is possible to process a plurality of images acquired at different times. However, in the following, a case will be described as an example in which shooting is performed with different travel trajectories at the same time.
計測データ146は、撮影時の位置座標データの記録である。本実施例では、基準局データ150を参照して、計測データ146を補正することにより、軌跡データ210aを算出する。これは、先に図2で説明した軌跡データ算出部205が行う処理である。基準局データ150は、位置座標が既知の基準点におけるGPSでの検出結果を表すデータであり、例えば、国土地理院が提供している基準点データなどを用いることができる。ここで得られた軌跡データ210aは、以下、それぞれの処理において、道路面の画像を撮影した際の軌跡(以下、「パス」と呼ぶこともある)を緯度経度、高度からなる絶対座標で表すデータとして利用される。 The measurement data 146 is a record of position coordinate data at the time of shooting. In this embodiment, the trajectory data 210a is calculated by correcting the measurement data 146 with reference to the reference station data 150. This is a process performed by the trajectory data calculation unit 205 described above with reference to FIG. The reference station data 150 is data representing a detection result by GPS at a reference point whose position coordinates are known. For example, reference point data provided by the Geospatial Information Authority of Japan can be used. The trajectory data 210a obtained here represents the trajectory (hereinafter also referred to as “path”) when an image of the road surface is captured in each processing, in absolute coordinates including latitude, longitude, and altitude. Used as data.
一方、画像データ142、同期データ144、軌跡データ210aからは、路面テクスチャ210cが生成される。また、同期データ144と軌跡データ210aから、路面軌跡データが生成される。
本実施例では、各道路を複数回走行して、道路面の画像を撮影する。従って、路面軌跡データ210bおよび路線軌跡データ210bは、各道路に対して複数パス分、生成されることになる。
On the other hand, a road surface texture 210c is generated from the image data 142, the synchronization data 144, and the trajectory data 210a. In addition, road surface trajectory data is generated from the synchronization data 144 and the trajectory data 210a.
In this embodiment, each road is traveled a plurality of times, and an image of the road surface is taken. Therefore, the road surface track data 210b and the route track data 210b are generated for a plurality of paths for each road.
路面テクスチャ210cおよび路線軌跡データ210bを用いて、連結画像210dが生成される。連結画像210dは、図2中の1パス画像合成部207によって生成される画像である。つまり、連結画像210dとは、路線軌跡データ210bで表される位置座標に基づき、各路面テクスチャ210cを配置することによって生成される各パスの路面画像である。連結画像210dも、各道路に対して複数パス分、生成されることになる。
連結画像210dは、路面テクスチャ210cを結合した一つの画像ファイルとして生成することもできる。本実施例では、後に続く処理の便宜上、合成画像として生成するのではなく、路面テクスチャ210cを配置して連結画像210dを生成するための情報(以下、「登録データ」と呼ぶこともある)を、路面テクスチャ210cの各画像と対応づけて格納するものとした。かかる情報には、路面テクスチャ210cを配置する位置座標、配置する際の姿勢(角度)、および隣接する路面テクスチャ210cを特定する情報、隣接する路面テクスチャ210cとの上下関係などを含めることができる。
A coupled image 210d is generated using the road surface texture 210c and the route trajectory data 210b. The connected image 210d is an image generated by the one-pass image composition unit 207 in FIG. That is, the connected image 210d is a road surface image of each path generated by arranging each road surface texture 210c based on the position coordinates represented by the route locus data 210b. The connected image 210d is also generated for a plurality of paths for each road.
The connected image 210d can also be generated as one image file obtained by combining the road surface texture 210c. In this embodiment, for convenience of subsequent processing, information (hereinafter also referred to as “registered data”) for generating the connected image 210d by arranging the road surface texture 210c is not generated as a composite image. The image is stored in association with each image of the road surface texture 210c. Such information can include position coordinates for placing the road surface texture 210c, posture (angle) at the time of placement, information for specifying the adjacent road surface texture 210c, vertical relationship with the adjacent road surface texture 210c, and the like.
こうして得られた連結画像210dを用いて、位置合わせおよび透明化ポリゴン設定などの処理を行う。これらの処理は、図2の位置合わせ処理部220、透明化ポリゴン設定部221、自動透明化ポリゴン設定部224が行う処理である。この処理によって、複数パス分の連結画像210dを合成して、道路ごとに道路画像210eを得ることができる。
道路画像210eについても、合成画像として生成してもよいし、路面テクスチャ210cを配置して道路画像210eを生成するための情報を、路面テクスチャ210cの各画像と対応づけて格納するようにしてもよい。本実施例では、後者の方法を採用した。それぞれの路面テクスチャ210cを配置する位置座標、配置する際の姿勢(角度)などの情報は、道路画像用登録データ210fとして保存されている。また、位置合わせの過程で、路線軌跡データ210bに対して、位置誤差を修正する処理が施されるため、この原データに対する修正過程を表す情報を、軌跡用登録データ210gとして保存する。
Using the connected image 210d thus obtained, processing such as alignment and transparent polygon setting is performed. These processes are performed by the alignment processing unit 220, the transparent polygon setting unit 221 and the automatic transparent polygon setting unit 224 shown in FIG. By this process, the linked images 210d for a plurality of paths can be synthesized to obtain a road image 210e for each road.
The road image 210e may be generated as a composite image, or information for generating the road image 210e by arranging the road surface texture 210c may be stored in association with each image of the road surface texture 210c. Good. In this embodiment, the latter method is adopted. Information such as the position coordinates at which each road surface texture 210c is arranged and the posture (angle) at the time of arrangement are stored as road image registration data 210f. In addition, since a process for correcting the position error is performed on the route trajectory data 210b in the alignment process, information indicating the correction process for the original data is stored as the trajectory registration data 210g.
この他、連結画像210dのデータ(路面テクスチャ210c、路線軌跡データ210bを含む)も併せて保存する。原データである画像データ142、軌跡データ210aも保存しておくことが好ましい。仮に、合成画像化された形で連結画像210dを保存している場合には、道路画像210eは、連結画像210dを合成することになるため、合成の繰り返しで原データに比較して画質が劣化するおそれがある。これに対し、本実施例のように、路面テクスチャ210cも含めて、原データに近いデータを残しておくことにより、これらのデータを利用して道路画像210eを生成することが可能となる。従って、合成の繰り返しなど、画像データに重畳的に画像処理が施されることを抑制でき、道路画像210eの画質を向上させることが可能となる。 In addition, the data of the connected image 210d (including the road surface texture 210c and the route trajectory data 210b) are also stored. It is preferable to store the image data 142 and the trajectory data 210a as the original data. If the connected image 210d is stored in the form of a composite image, the road image 210e is combined with the connected image 210d. Therefore, the image quality is deteriorated as compared with the original data due to repeated combining. There is a risk. On the other hand, as in the present embodiment, by leaving data close to the original data including the road surface texture 210c, it is possible to generate the road image 210e using these data. Therefore, it is possible to suppress the image processing being superimposed on the image data, such as repeated synthesis, and to improve the image quality of the road image 210e.
B2.処理例:
次に、本実施例における処理の概要理解を容易にするため、処理例を示す。
図4は実施例における道路画像の生成例を示す説明図である。図4(a)には、1本のパスに沿って得られた連結画像の生成例を示し、図4(b)には、複数パスの連結画像を配置して得られた道路画像の例を示している。
図4(a)中の直線L41〜L44は、それぞれ道路面撮影システム100で走行しながら道路画像を撮影した際の走行軌跡(パス)を表している。図4(a)のPIC41は、パスL43を走行して得られた画像データに基づいて生成された連結画像である。本実施例では、広角レンズを用いて撮影しているため、1回のパスでも複数車線を覆うだけの連結画像を得ることができている。連結画像の両端が、のこぎり刃状にギザギザになっているのは、画像データの各フレームを正射投影した際に生じる形状歪みの影響である。この連結画像PIC41は、ギザギザの山数に応じたフレーム数の正射画像(路面テクスチャ)を配置して生成されているのである。
このような連結画像は、図中のパスL41〜L44のそれぞれに対して得られる。
B2. Processing example:
Next, in order to facilitate understanding of the outline of processing in the present embodiment, a processing example will be shown.
FIG. 4 is an explanatory diagram illustrating a generation example of a road image in the embodiment. FIG. 4A shows an example of generation of a connected image obtained along one path, and FIG. 4B shows an example of a road image obtained by arranging connected images of a plurality of paths. Is shown.
Straight lines L <b> 41 to L <b> 44 in FIG. 4A represent travel trajectories (paths) when a road image is captured while traveling on the road surface photographing system 100. The PIC 41 in FIG. 4A is a linked image generated based on image data obtained by traveling on the path L43. In this embodiment, since the image is taken using the wide-angle lens, it is possible to obtain a connected image that only covers a plurality of lanes even in one pass. The fact that both ends of the connected image are serrated in a saw-tooth shape is due to the influence of shape distortion that occurs when each frame of image data is orthographically projected. The connected image PIC41 is generated by arranging orthogonal images (road surface texture) having the number of frames corresponding to the number of jagged peaks.
Such a connected image is obtained for each of the paths L41 to L44 in the drawing.
図4(b)は、パスL41〜L44に対する連結画像を合成して得られた道路画像PIC42を示している。図4(a)よりも幅広く、反対車線まで含めて道路画像が生成されていることが分かる。複数パスの連結画像を合成する際、各パスの位置座標に誤差があると、連結画像間にずれが生じる。これらのずれが存在すると、図4(b)中の横断歩道、車線境界線などの標示も途中でずれた状態で表示されてしまう。本実施例では、各パスの連結画像間の位置座標の誤差を修正しつつ合成を行う。この処理を位置合わせと呼ぶ。このように位置合わせを行って連結画像を合成することにより、図4(b)に示すように、横断歩道、車線境界線などの標示が整合した道路画像を得ることができる。 FIG. 4B shows a road image PIC42 obtained by synthesizing connected images for the paths L41 to L44. It can be seen that a road image is generated that is wider than that in FIG. When combining a multi-pass connected image, if there is an error in the position coordinates of each pass, a shift occurs between the connected images. If these deviations exist, signs such as a pedestrian crossing and a lane boundary line in FIG. 4B are also displayed in a state of being shifted in the middle. In this embodiment, the composition is performed while correcting the positional coordinate error between the connected images of each path. This process is called alignment. By performing alignment in this way and synthesizing the connected images, as shown in FIG. 4B, a road image in which signs such as a pedestrian crossing and a lane boundary line are matched can be obtained.
B3.位置合わせ加工概要:
図5は位置合わせ加工の概要を示す説明図である。本実施例では、複数の連結画像に共通して撮影されている標示に基づいてオペレータが指定した対応点の位置を合わせるように、連結画像を平行移動することによって位置合わせを行う。
図5(a)には対応点が1つだけ指定された場合の処理方法を示した。図中には、2本の連結画像PIC51、PIC52が描かれている。これらには、それぞれ菱形の標示、つまり横断歩道の予告標示が含まれている。ただし、図5(a)左側の状態では、連結画像PIC51、PIC52には相対的に位置誤差があるため、標示の位置がずれている。
B3. Outline of alignment processing:
FIG. 5 is an explanatory diagram showing an outline of the alignment process. In the present embodiment, alignment is performed by moving the connected images in parallel so that the positions of corresponding points designated by the operator are aligned based on the signs photographed in common with the plurality of connected images.
FIG. 5A shows a processing method when only one corresponding point is designated. In the figure, two linked images PIC51 and PIC52 are drawn. Each of these includes a diamond sign, that is, a warning sign for a pedestrian crossing. However, in the state on the left side of FIG. 5 (a), the linked images PIC51 and PIC52 have a relative position error, so that the positions of the markings are shifted.
オペレータは、この表示画面を見ながら、マウス等のポインティングデバイスを用いて対応点を指定する。図の例では、横断歩道の予告表示の頂点に当たるP51、P52を指定した状態を示した。これらの対応点P51、P52は、連結画像PIC51、PIC52に位置誤差がなければ、本来、同じ位置に重なるはずの点である。そこで、本実施例では、対応点P51、P52が一致するよう、図中に矢印で示すように連結画像PIC51、PIC52を平行移動させる。
この際、連結画像PIC51、PIC52の一方を基準とし、他方を平行移動する方法を採った。図の例では、連結画像PIC51を基準とし、連結画像PIC52を移動させた例を示している。このように移動することにより、予告標示のずれが解消した状態の道路画像PIC53を得ることができる。
The operator designates corresponding points using a pointing device such as a mouse while looking at the display screen. In the example of the figure, a state is shown in which P51 and P52 corresponding to the apex of the notice of pedestrian crossing are designated. These corresponding points P51 and P52 are originally points that should overlap at the same position if the connected images PIC51 and PIC52 have no position error. Therefore, in this embodiment, the connected images PIC51 and PIC52 are translated as indicated by arrows in the drawing so that the corresponding points P51 and P52 coincide.
At this time, a method was adopted in which one of the connected images PIC51 and PIC52 is translated and the other is translated. In the example of the figure, an example in which the connected image PIC52 is moved with reference to the connected image PIC51 is shown. By moving in this way, it is possible to obtain the road image PIC53 in a state in which the shift of the warning sign is eliminated.
図5(b)には対応点が複数指定された場合の処理方法を示した。図中には、2本の連結画像PIC54、PIC55が描かれている。これらには、それぞれ横断歩道の予告標示が含まれている。但し、図5(b)の左側の状態では、連結画像PIC54、PIC55には相対的に位置誤差があるため、標示の位置がずれている。
この状態で、オペレータが、2組の対応点を指定したとする。対応点P54、P53の組と、対応点P56、P55の組である。連結画像PIC54では、連結画像PIC55に含まれる予告標示M52は全体が描かれており、連結画像PIC54に含まれる予告標示M51は一部が消えている。このような状態であっても、対応点P55、P56が対応することは明らかであるため、対応点として指定することは可能である。
このように複数組の対応点が指定されると、連結画像PIC54を基準として、それぞれの対応点が一致するように、連結画像PIC55を移動させる。ただし、対応点P53をP54に一致させるための第1の移動量と、対応点P55をP56に一致させるための第2の移動量とが同じであるとは限らない。そこで、対応点P53とP55との間の領域では、第1の移動量、第2の移動量を直線補間して、各点の移動量を設定する。こうすることにより、予告標示のずれが解消した状態の道路画像PIC56を得ることができる。
FIG. 5B shows a processing method when a plurality of corresponding points are designated. In the figure, two linked images PIC54 and PIC55 are drawn. Each of these includes a warning sign for a pedestrian crossing. However, in the state on the left side of FIG. 5B, since the linked images PIC54 and PIC55 have a relative position error, the positions of the markings are shifted.
In this state, it is assumed that the operator has specified two sets of corresponding points. A pair of corresponding points P54 and P53 and a pair of corresponding points P56 and P55. In the linked image PIC54, the entire warning sign M52 included in the linked image PIC55 is drawn, and a part of the warning sign M51 included in the linked image PIC54 has disappeared. Even in such a state, since it is clear that the corresponding points P55 and P56 correspond, it is possible to designate them as corresponding points.
When a plurality of sets of corresponding points are designated in this way, the linked image PIC 55 is moved so that the corresponding points match with the linked image PIC 54 as a reference. However, the first movement amount for matching the corresponding point P53 with P54 and the second movement amount for matching the corresponding point P55 with P56 are not necessarily the same. Therefore, in the region between the corresponding points P53 and P55, the first movement amount and the second movement amount are linearly interpolated to set the movement amount of each point. By doing so, it is possible to obtain the road image PIC 56 in a state in which the shift of the notice sign is eliminated.
図5(b)中には、透明化ポリゴンの設定例も併せて示した。
この例では、連結画像PIC54中の予告標示M51は半分が欠けている。この状態で位置合わせを行うと、この例では、連結画像PIC54をPIC55の上側に重ねるように表示しているから、連結画像PIC55の予告標示M52は、連結画像PIC54によって覆い隠されてしまう。この結果、連結画像PIC55では完全な状態で描かれている標示M52を道路画像PIC56で活かすことができない。
そこで、このような場合に、オペレータの指示によって予告標示M52を取り囲むように透明化ポリゴンTP50を設定する。透明化ポリゴンTP50が設定された箇所では、上側の連結画像が透明化され、切り取られたように表示される。この結果、透明化ポリゴンTP50の部分では、連結画像PIC54の下側に配置された連結画像PIC55に描かれている予告標示M52が表示される。
本実施例では、このように透明化ポリゴンを設定可能とすることによって、それぞれの連結画像で描かれている標示を、道路画像においても有効活用することができる。
FIG. 5B also shows an example of setting a transparent polygon.
In this example, half of the notice sign M51 in the linked image PIC54 is missing. If alignment is performed in this state, in this example, the connected image PIC54 is displayed so as to be superimposed on the upper side of the PIC55, so the notice sign M52 of the connected image PIC55 is covered by the connected image PIC54. As a result, the sign M52 drawn in the complete state in the connected image PIC55 cannot be utilized in the road image PIC56.
Therefore, in such a case, the transparent polygon TP50 is set so as to surround the notice sign M52 according to an instruction from the operator. At the place where the transparent polygon TP50 is set, the upper connected image is made transparent and displayed as if it was cut out. As a result, in the part of the transparent polygon TP50, the notice sign M52 drawn on the connection image PIC55 arranged below the connection image PIC54 is displayed.
In this embodiment, by making the transparent polygons settable in this way, the signs drawn in the respective connected images can be used effectively in the road image.
図6は交差点が存在する場合の位置合わせの手順を示す説明図である。図の煩雑化を避けるため、ここでは連結画像のパスの位置関係のみを示した。図中には、2つの交差点周辺の道路が描かれている。縦の道路では、それぞれパスBP61、BP62に沿って連結画像が得られているとする。横の道路については、破線で示したパスBP63b、BP64b、NP61bに沿って連結画像が得られているとする。 FIG. 6 is an explanatory diagram showing a procedure for alignment when an intersection exists. In order to avoid complication of the figure, only the positional relationship of the paths of the connected images is shown here. In the figure, roads around two intersections are drawn. It is assumed that connected images are obtained along the paths BP61 and BP62 on the vertical road, respectively. For the horizontal road, it is assumed that a connected image is obtained along the paths BP63b, BP64b, and NP61b indicated by broken lines.
本実施例では、複数のパス間の位置合わせを行う際には、いずれか一つのパスを基準パスに設定し、他のパスを平行移動して基準パスに合わせる。基準パス以外のパスを、以下、標準パスと呼ぶものとする。基準パスおよび標準パスは、任意の方法で設定可能であるが、本実施例では、後述する通り、位置精度が高いものを基準パスとして設定している。
図6の例では、縦の道路については、それぞれ単一のパスしか存在しないため、パスBP61、BP62が基準パスとなる。
横の道路については、区間D61ではパスBP63bとNP61bのうち位置精度が高い側を基準パスとし、区間D62についてはBP64bとNP61bのうち位置精度が高い側を基準パスとする。ここでは、それぞれパスBP63b、BP64bが基準パスとして設定されているものとする。更に、パスBP63b、BP64b間の位置精度を比較して、優劣を決める。パスBP63b、BP64bはそれぞれ区間D61、D62の基準パスではあるが、一本の道路に配置された連続するパスなので、これらのパス間でも位置合わせを行う必要があるからである。図6の例では、パスBP63bの方が、パスBP64bよりも位置精度が高いものとする。
この結果、横のパスについては、基準パスBP63b>基準パスBP64b>標準パスNP61bの順に位置合わせの優先度が定まる。
In this embodiment, when positioning between a plurality of paths, any one path is set as a reference path, and the other paths are translated to match the reference path. A path other than the reference path is hereinafter referred to as a standard path. Although the reference path and the standard path can be set by an arbitrary method, in this embodiment, as described later, a path with high position accuracy is set as the reference path.
In the example of FIG. 6, there is only a single path for each vertical road, so the paths BP61 and BP62 are the reference paths.
For the side road, in the section D61, the side having higher position accuracy among the paths BP63b and NP61b is set as the reference path, and for the section D62, the side in BP64b and NP61b having the higher position accuracy is set as the reference path. Here, it is assumed that the paths BP63b and BP64b are set as reference paths, respectively. Further, the superiority or inferiority is determined by comparing the positional accuracy between the paths BP63b and BP64b. This is because the paths BP63b and BP64b are reference paths of the sections D61 and D62, respectively, but are continuous paths arranged on one road, and therefore it is necessary to perform alignment between these paths. In the example of FIG. 6, it is assumed that the path accuracy of the path BP63b is higher than that of the path BP64b.
As a result, for the horizontal path, the alignment priority is determined in the order of the reference path BP63b> reference path BP64b> standard path NP61b.
次に、上述の優先度に従って、それぞれのパスの位置合わせを行う。縦のパスBP61、BP62は既に位置合わせが完了しているものとする。
まず、基準パスBP63bの位置合わせを行う。オペレータの指示によって、基準パスBP63b上の対応点P63bが指定され、その本来の位置として、点P63aが指定されたとする。この結果、基準パスBP63bは、対応点P63bが、点P63aに一致するように移動され、実線で示した基準パスBP63aが得られる。
図示を省略したが、基準パスBP63bに対応した連結画像も基準パスBP63aに合わせて移動する。本実施例では、基準パスBP63bに沿って路面テクスチャを配置することによって連結画像を表示しており、これらの路面テクスチャを合成してはいない。従って、基準パスBP63aへの移動が行われた場合には、基準パスBP63aに沿うように、各路面テクスチャの位置を平行移動することによって、基準パスBP63aの連結画像を得ることができる。
Next, each path is aligned according to the above-described priority. Assume that the vertical paths BP61 and BP62 have already been aligned.
First, alignment of the reference path BP63b is performed. It is assumed that the corresponding point P63b on the reference path BP63b is designated by the operator's instruction, and the point P63a is designated as its original position. As a result, the reference path BP63b is moved so that the corresponding point P63b coincides with the point P63a, and the reference path BP63a indicated by the solid line is obtained.
Although not shown, the connected image corresponding to the reference path BP63b also moves in accordance with the reference path BP63a. In the present embodiment, the connected images are displayed by arranging road surface textures along the reference path BP63b, and these road surface textures are not synthesized. Therefore, when the movement to the reference path BP63a is performed, a connected image of the reference path BP63a can be obtained by translating the position of each road surface texture along the reference path BP63a.
次に、基準パスBP64bの位置合わせを行う。オペレータの指示によって、基準パスBP64b上の対応点P65b、P64bが指定され、その本来の位置として、点P65a、P64aが指定されたとする。この対応点は、基準パスBP63aの連結画像に基づいて指定されている。つまり、基準パスBP63bを基準パスBP63aに位置合わせする処理の結果に応じて、基準パスBP64bの位置合わせは影響を受けることになる。
対応点が指定されると、基準パスBP64bは、対応点P65b、P64bが、点P65a、P64aに一致するように移動され、実線で示した基準パスBP64aが得られる。これに合わせて、基準パスBP64bの連結画像を構成していた路面テクスチャも、それぞれ基準パスBP64a上に平行移動される。
Next, the reference path BP64b is aligned. It is assumed that corresponding points P65b and P64b on the reference path BP64b are designated by the operator's instruction, and points P65a and P64a are designated as their original positions. This corresponding point is designated based on the connected image of the reference path BP63a. That is, the alignment of the reference path BP64b is affected according to the result of the process of aligning the reference path BP63b with the reference path BP63a.
When the corresponding point is designated, the reference path BP64b is moved so that the corresponding points P65b and P64b coincide with the points P65a and P64a, and the reference path BP64a indicated by the solid line is obtained. In accordance with this, the road surface texture constituting the connected image of the reference path BP64b is also translated on the reference path BP64a.
最後に、標準パスNP61bの位置合わせを行う。オペレータの指示によって、標準パスNP61b上の対応点P68b、P67b、P66bが指定され、その本来の位置として、点P68a、P67a、P66aが指定されたとする。この対応点は、基準パスBP63a、BP64aの連結画像に基づいて指定されている。つまり、基準パスBP63bを基準パスBP63aに位置合わせする処理、および基準パスBP64bを基準パスBP64aに位置合わせする処理の結果に応じて、標準パスNP61bの位置合わせは影響を受けることになる。
対応点が指定されると、標準パスNP61bは、対応点P68b、P67bが、点P68a、P67aに一致するように移動されるとともに、対応点P67b、P66bが、点P67a、P66aに一致するように移動される。これらの3点は一直線上にはないから、結果として、標準パスNP61bは、折れ線状の標準パスN61aに移動される。これに合わせて、標準パスNP61bの連結画像を構成していた路面テクスチャも、それぞれ標準パスNP61a上に平行移動される。
Finally, the standard path NP61b is aligned. It is assumed that corresponding points P68b, P67b, and P66b on the standard path NP61b are designated by an operator's instruction, and points P68a, P67a, and P66a are designated as their original positions. This corresponding point is designated based on the connected image of the reference paths BP63a and BP64a. That is, the alignment of the standard path NP61b is affected by the result of the process of aligning the reference path BP63b with the reference path BP63a and the process of aligning the reference path BP64b with the reference path BP64a.
When the corresponding point is designated, the standard path NP61b is moved so that the corresponding points P68b and P67b coincide with the points P68a and P67a, and the corresponding points P67b and P66b coincide with the points P67a and P66a. Moved. Since these three points are not on a straight line, as a result, the standard path NP61b is moved to the broken line-shaped standard path N61a. In accordance with this, the road surface texture constituting the connected image of the standard path NP61b is also translated on the standard path NP61a.
本実施例では、図6に示すように複数のパスが存在する場合には、以上で説明した手順によって、位置精度が高いパスから優先的に位置合わせが行われる。こうすることによって、全体の位置精度を十分に確保しつつ位置合わせを行うことができる。
例えば、図6の処理において、位置精度が低い順、つまり標準パスNP61b、基準パスBP64b、基準パスBP63bの順に位置合わせをしたとする。この場合には、基準パスBP64bの位置合わせは、標準パスNP61bの位置合わせの影響を受け、位置精度が低下する。基準パスBP63bの位置合わせは、標準パスNP61b、基準パスBP64bの位置合わせの影響を受け、位置精度が低下する。従って、位置精度が低い順に位置合わせを行うと、パス間の相互作用によって全体の位置精度が低下してしまう。
本実施例では、これとは逆に、位置精度が高い順に位置合わせを行う。従って、最も位置精度が高いパスの位置精度を劣化させることなく、全体の位置合わせを行うことが可能となるのである。
In the present embodiment, when there are a plurality of paths as shown in FIG. 6, alignment is performed preferentially from a path with high position accuracy by the procedure described above. By doing so, it is possible to perform alignment while ensuring sufficient overall position accuracy.
For example, in the processing of FIG. 6, it is assumed that alignment is performed in the order of low position accuracy, that is, the standard path NP61b, the reference path BP64b, and the reference path BP63b. In this case, the alignment of the reference path BP64b is affected by the alignment of the standard path NP61b, and the position accuracy decreases. The alignment of the reference path BP63b is affected by the alignment of the standard path NP61b and the reference path BP64b, and the position accuracy is lowered. Therefore, if the alignment is performed in the order from the lowest position accuracy, the overall position accuracy decreases due to the interaction between the paths.
In the present embodiment, on the contrary, the alignment is performed in the descending order of positional accuracy. Therefore, it is possible to perform the entire alignment without deteriorating the position accuracy of the path having the highest position accuracy.
C.路面標示地図生成方法:
以下、図1〜6で説明した路面標示地図生成方法について、オペレータが必要に応じて指示を行う場合を例にとって、詳細に説明する。
まず、連結画像生成処理、つまり図3中の路面テクスチャ210c、路面軌跡データ210bに基づいて各パスの連結画像210dを得る処理について説明する。
次に、位置合わせ加工、つまり複数パスに対する連結画像210dの位置合わせを行う処理、および位置合わせ加工の中で行われる基準パス設定処理、連結画像移動処理について説明する。
また、透明化ポリゴンの設定処理について説明する。透明化ポリゴンの設定に関しては、まず、処理概要の理解を容易にするため、オペレータが指定する場合を例にとって説明する。
C. Road marking map generation method:
Hereinafter, the road marking map generation method described with reference to FIGS. 1 to 6 will be described in detail with reference to an example in which an operator gives an instruction as necessary.
First, a connected image generation process, that is, a process of obtaining a connected image 210d of each path based on the road surface texture 210c and the road surface trajectory data 210b in FIG. 3 will be described.
Next, registration processing, that is, processing for positioning the connected image 210d with respect to a plurality of passes, reference path setting processing, and connected image movement processing performed during the positioning processing will be described.
Also, the transparent polygon setting process will be described. Regarding the setting of the transparent polygon, first, in order to facilitate understanding of the processing outline, a case where the operator designates will be described as an example.
上述の一連の処理においては、路面標示地図生成装置が連結画像内の標示の位置を表示するようにすれば、オペレータが対応点や透明化ポリゴンの位置を容易に指定可能となる。また、自動的に対応点を特定したり、透明化ポリゴンを設定したりすることも可能となる。こうした処理を可能にするための処理として、ペイント認識処理について説明する。
そして、ペイント認識処理の結果を踏まえて、透明化ポリゴンを自動設定するための自動透明ポリゴン設定処理について説明する。
In the series of processes described above, if the road marking map generating apparatus displays the position of the marking in the connected image, the operator can easily specify the corresponding point and the position of the transparent polygon. It is also possible to automatically identify corresponding points and set transparent polygons. A paint recognition process will be described as a process for enabling such a process.
Then, based on the result of the paint recognition process, an automatic transparent polygon setting process for automatically setting a transparent polygon will be described.
C1.連結画像生成処理:
図7は連結画像生成処理のフローチャートである。ハードウェア的には路面標示地図生成装置200のCPUが実行する処理である。これは、図2に示した画像変換部206、1パス合成部207の処理に相当する。
処理を開始すると、CPUは、まずフレームデータを読み込む(ステップS10)。フレームデータとは、道路面撮影システム100(図1)のビデオカメラ120で撮影された画像データ142を構成する各フレームの画像である。
C1. Connected image generation processing:
FIG. 7 is a flowchart of linked image generation processing. In terms of hardware, this is a process executed by the CPU of the road marking map generating apparatus 200. This corresponds to the processing of the image conversion unit 206 and the one-pass synthesis unit 207 shown in FIG.
When the process is started, the CPU first reads frame data (step S10). The frame data is an image of each frame constituting the image data 142 photographed by the video camera 120 of the road surface photographing system 100 (FIG. 1).
図中にフレームデータの例を示した。ビデオカメラ120は、道路面撮影システム100の前方に向けて設置されているため、フレームデータには、車両の前方の道路、前方車両などが写っている。本実施例では、道路面の画像を生成したいため、このフレームデータの一部の領域を切り出して使用する。図中の領域A71は、道路面のみが含まれるように設定された切り出し領域を現している。本実施例では、車両の前方5〜7mの領域の画像を取得するように領域A71を設定した。領域A71の各フレーム内での相対的な位置は一定である。
領域A71は、上述の例に限らず、任意に設定可能である。ビデオカメラ120が一定のフレームレートで画像を撮影するため、フレームデータは、道路面を間欠的に撮影した画像群となる。従って、領域A71は、間欠的に撮影された画像群を並べた時に、道路が連続画像として再現できるように範囲を決定することが好ましい。例えば、領域A71の縦幅を狭くすれば、車両の速度が速い場合には、あるフレームデータから切り出された領域と、次のフレームデータから切り出された領域との間に隙間が生じやすくなる。一方、領域A71の縦幅を広くすれば、前方車両や空、建物など、道路画像とは異なる雑多な映像が含まれやすくなる。領域A71は、これらの影響を考慮した上で、設定すればよい。
An example of frame data is shown in the figure. Since the video camera 120 is installed toward the front of the road surface photographing system 100, the frame data includes a road ahead of the vehicle, a vehicle ahead, and the like. In this embodiment, since it is desired to generate an image of the road surface, a partial region of this frame data is cut out and used. A region A71 in the figure represents a cut-out region set to include only the road surface. In this embodiment, the area A71 is set so as to acquire an image of an area 5 to 7 m ahead of the vehicle. The relative position of the area A71 in each frame is constant.
The area A71 is not limited to the above example, and can be set arbitrarily. Since the video camera 120 captures images at a constant frame rate, the frame data is an image group obtained by intermittently capturing the road surface. Therefore, it is preferable to determine the range of the area A71 so that the road can be reproduced as a continuous image when the group of images photographed intermittently are arranged. For example, if the vertical width of the area A71 is narrowed, a gap is likely to be generated between an area cut out from certain frame data and an area cut out from the next frame data when the vehicle speed is high. On the other hand, if the vertical width of the area A71 is increased, miscellaneous images different from the road image such as the preceding vehicle, the sky, and the building are likely to be included. The area A71 may be set in consideration of these influences.
次に、CPUは、取得されたフレームデータを正射画像(路面テクスチャ)に画像変換する(ステップS12)。図中に処理の概要を示した。上側にはフレームデータの例である。ここでは路面の状態のみが撮影され、道路の左右の車線規制線L71、L72および標示M7が写されている例を示した。前方を撮影した画像であるため、パース(遠近法)の影響で、本来平行な車線規制線L71、L72が、ハの字状に写されている。
先に説明した通り、このフレームデータの一部の領域A71を切り出して使用する。
下段には、領域A71の画像を正射投影変換した状態を例示した。道路を真上から見た画像に変換するため、左右の車線規制線L71、L72は図示する通り、平行な線分に変換される。標示M7も同様に真上から見た状態の形状に変換される。
Next, the CPU converts the acquired frame data into an orthogonal image (road surface texture) (step S12). The outline of the processing is shown in the figure. On the upper side is an example of frame data. Here, an example is shown in which only the road surface state is photographed, and the left and right lane regulation lines L71 and L72 and the sign M7 are photographed. Since this is an image of the front, the lane restriction lines L71 and L72 that are essentially parallel are shown in a square shape under the influence of perspective (perspective).
As described above, a partial area A71 of this frame data is cut out and used.
The lower part illustrates a state in which the image of the area A71 is orthographically converted. In order to convert the road into an image viewed from directly above, the left and right lane regulation lines L71 and L72 are converted into parallel line segments as shown in the figure. The sign M7 is similarly converted into a shape as seen from directly above.
正射投影変換の方法を説明する。
まず、道路面撮影システム100を搭載した車両は水平面上を走行しており、被写体である道路も同一水平面上にあるものとする。
この時、道路画像、即ちフレームデータの画面上の2次元座標をm=[u,v]Tとする。また、地面に固定された世界座標系の3次元座標をM=[X,Y,Z]Tとする。これらの各座標に1の要素を直積で加えたベクトルを、次式(1)の通り定義する。
An orthographic projection conversion method will be described.
First, it is assumed that a vehicle on which the road surface photographing system 100 is mounted is traveling on a horizontal plane, and a road as a subject is also on the same horizontal plane.
At this time, the road image, that is, the two-dimensional coordinates on the screen of the frame data is m = [u, v] T. Further, the three-dimensional coordinate of the world coordinate system fixed to the ground is M = [X, Y, Z] T. A vector obtained by adding one element to each of these coordinates as a direct product is defined as the following equation (1).
3次元座標Mと、その投影画像の2次元座標mとの関係を以下の関係式(2)(3)によりモデル化する。
ここで、sはスケール・ファクター;
[Rt]は、外部パラメータ行列;
Rは回転行列;
tは平行移動行列;
Aは内部パラメータ行列である。
内部パラメータ行列Aは、ビデオカメラ120の焦点距離等を考慮した内部的なパラメータであり、実画像座標系(xy座標系)からフレーム座標系(uv座標系)への写像パラメータを表す。
α、βはそれぞれu軸、v軸方向のスケール因子、γは2つの画像軸のスキューにより表されるパラメータ;
[u0,v0]Tは、画像の主点の座標(主点座標)である。
Where s is the scale factor;
[Rt] is an external parameter matrix;
R is a rotation matrix;
t is a translation matrix;
A is an internal parameter matrix.
The internal parameter matrix A is an internal parameter considering the focal length of the video camera 120 and the like, and represents a mapping parameter from the real image coordinate system (xy coordinate system) to the frame coordinate system (uv coordinate system).
α and β are scale factors in the u-axis and v-axis directions, respectively, and γ is a parameter represented by the skew of the two image axes;
[U 0 , v 0 ] T is the coordinate (principal point coordinate) of the principal point of the image.
画像のピクセルサイズを(ku、kv)、u軸とv軸とのなす角をθ、焦点距離をfとすると、α、β、γは次式(4)で表される。
外部パラメータ行列[Rt]は、ビデオカメラ120の設置位置、設置姿勢などによる外部的なパラメータであり、世界座標系(XYZ座標系)から実画像座標系(xy座標系)への写像パラメータを表す。世界座標系は、ビデオカメラ120の真下の路面を原点とし、車両の進行方向に対し垂直な水平軸をX軸、鉛直軸をY軸、進行方向の水平軸をZ軸とする。
平行移動ベクトルtは、世界座標系において原点に対する実画像の画像主点の移動ベクトルである。
ビデオカメラ120の高さ(実画像の画像主点の高さ)をhとすると、平行移動ベクトルtは次式(5)で表される。
The external parameter matrix [Rt] is an external parameter depending on the installation position, installation posture, and the like of the video camera 120, and represents a mapping parameter from the world coordinate system (XYZ coordinate system) to the real image coordinate system (xy coordinate system). . In the world coordinate system, the road surface directly below the video camera 120 is the origin, the horizontal axis perpendicular to the traveling direction of the vehicle is the X axis, the vertical axis is the Y axis, and the horizontal axis in the traveling direction is the Z axis.
The parallel movement vector t is a movement vector of the image principal point of the real image with respect to the origin in the world coordinate system.
When the height of the video camera 120 (the height of the main image point of the actual image) is h, the translation vector t is expressed by the following equation (5).
また、世界座標系において、実画像のヘディング方向の回転角(ヨー角)をφ、ピッチ角をω、ロール角をκとすると、回転行列Rは次式(6)で表される。
内部パラメータ行列Aは、事前の測定によって得られる。
ヨー角φ、ピッチ角ω、ロール角κおよび画像主点の高さhは、次の手順で得られる。まず、初期状態、即ち車両が水平な地面に設置されている状態において、ヨー角φ0、ピッチ角ω0、ロール角κ0、および高さh0の基準値を計測しておく。次に、走行中には逐次、車両の姿勢角の変化および車高の変化をジャイロ、加速度センサ等で記録しておき、上述の基準値にこの変化を反映することで、各地点でのヨー角φ、ピッチ角ω、ロール角κおよび高さを得ることができる。
The internal parameter matrix A is obtained by a prior measurement.
The yaw angle φ, pitch angle ω, roll angle κ, and height h of the image principal point are obtained by the following procedure. First, in an initial state, that is, a state where the vehicle is installed on a horizontal ground, reference values of the yaw angle φ 0 , the pitch angle ω 0 , the roll angle κ 0 , and the height h 0 are measured. Next, while driving, the change in the vehicle attitude angle and the change in vehicle height are recorded with a gyroscope, an acceleration sensor, etc., and this change is reflected in the above-mentioned reference value. The angle φ, the pitch angle ω, the roll angle κ, and the height can be obtained.
正射投影変換は、これらのパラメータに基づき、式(2)を用いることにより、行われ、フレーム座標系(uv座標系)の道路画像を、世界座標系(XYZ座標系)の投射道路画像に変換することができる。その手順は次の通りである。
まず、被写体である道路面を水平面(Y=0)の画像であると仮定する。この時、式(2)より、次式(7)の関係が成立する。
The orthographic projection conversion is performed by using the equation (2) based on these parameters, and a road image in the frame coordinate system (uv coordinate system) is converted into a projected road image in the world coordinate system (XYZ coordinate system). Can be converted. The procedure is as follows.
First, it is assumed that the road surface as a subject is an image of a horizontal plane (Y = 0). At this time, the relationship of the following equation (7) is established from the equation (2).
まず、フレームデータを取得した各地点の位置座標データ(X0,Y0,Z0)と、被写体である道路面付近の複数点の位置座標(Xi,Yi,Zi)とから、被写体である道路面の勾配を計算する。本実施例では、勾配は一様であるものと仮定した。
具体的には、撮影地点の世界座標点(X,Y,Z)付近の位置座標データから、高さの変化Δhを求める。つまり、Δh=Y−Y0である。この時、一様な勾配を仮定すると、道路面上の世界座標系(X’,Y’,Z’)の点の奥行きZ’は次式(9)で求めることができる。
First, from the position coordinate data (X 0 , Y 0 , Z 0 ) of each point where the frame data is acquired, and the position coordinates (X i , Y i , Z i ) of a plurality of points near the road surface that is the subject, The slope of the road surface that is the subject is calculated. In this embodiment, it is assumed that the gradient is uniform.
Specifically, the height change Δh is obtained from position coordinate data in the vicinity of the world coordinate point (X, Y, Z) of the shooting point. That is Δh = Y-Y 0. At this time, assuming a uniform gradient, the depth Z ′ of the points in the world coordinate system (X ′, Y ′, Z ′) on the road surface can be obtained by the following equation (9).
これより、世界座標点のX’,Y’を次式(11)によって計算することができる。
以上の通り、フレームデータ上の点(u,v)を、それぞれ(X’,Z’)に写像すれば、正射画像(路面テクスチャ)を得ることができる。図7中に示すように、フレームデータを矩形の領域A71で切り出した上で正射投影すると、上方が広がる台形状の正射画像(路面テクスチャ)A72が得られる。
本実施例では、後に続く処理の便宜のため、正射画像(路面テクスチャ)を低解像度/高解像度の2通りで生成するものとした。高解像度の正射画像(路面テクスチャ)(以下、「高解像度画像」と呼ぶ)は、もとのフレームデータの切り出し領域A71をそのまま利用して生成された画像、即ち原画像と同じ解像度で生成された画像である。低解像度の正射画像(路面テクスチャ)(以下、「低解像度画像」と呼ぶ)は、解像度を原データよりも下げた画像である。低解像度画像の解像度は、路面標示地図生成装置200が軽い負荷で画像を表示することができる程度の値とすることが好ましく、原画像の解像度の半分など、任意に設定可能である。
As described above, an orthographic image (road surface texture) can be obtained by mapping the point (u, v) on the frame data to (X ′, Z ′), respectively. As shown in FIG. 7, when the frame data is cut out in a rectangular area A71 and orthographically projected, a trapezoidal orthographic image (road surface texture) A72 spreading upward is obtained.
In the present embodiment, for the convenience of the subsequent processing, the orthographic image (road surface texture) is generated in two ways of low resolution / high resolution. A high-resolution orthographic image (road texture) (hereinafter referred to as a “high-resolution image”) is generated with the same resolution as the original image, ie, an image generated by using the cut-out area A71 of the original frame data as it is. It is an image that was made. A low-resolution orthographic image (road texture) (hereinafter referred to as “low-resolution image”) is an image whose resolution is lower than that of the original data. The resolution of the low-resolution image is preferably set to such a value that the road marking map generating apparatus 200 can display the image with a light load, and can be arbitrarily set such as half the resolution of the original image.
次に、路面標示地図生成装置200のCPUは、得られた正射画像(路面テクスチャ)を配置して1パス画像の合成を行う(ステップS14)。図中に1パス画像合成の例を示した。この例では、正射画像(路面テクスチャ)A72[0]〜A72[5]が合成されている。
各正射画像(路面テクスチャ)A72は、フレーム座標系(uv座標系)の原点に対応する点を、各フレームデータの撮影時の位置座標に基づいて配置すればよい。フレームデータは車両の位置よりも前方を写したものであるため、正射画像(路面テクスチャ)は、車両位置から一定距離だけ前方に移動させた地点に配置する必要がある。本実施例では、フレームデータ毎に車輌位置とフレーム座標系の位置関係を計算して配置する。また、正射画像(路面テクスチャ)は、時系列的に古い画像から新しい画像に順次、配置するものとした。
Next, the CPU of the road marking map generating apparatus 200 arranges the obtained orthographic image (road surface texture) and synthesizes a one-pass image (step S14). An example of 1-pass image synthesis is shown in the figure. In this example, orthographic images (road surface texture) A72 [0] to A72 [5] are synthesized.
In each orthographic image (road surface texture) A72, a point corresponding to the origin of the frame coordinate system (uv coordinate system) may be arranged based on the position coordinates at the time of shooting each frame data. Since the frame data is a forward image of the position of the vehicle, the orthographic image (road surface texture) needs to be arranged at a point moved forward by a certain distance from the vehicle position. In this embodiment, the positional relationship between the vehicle position and the frame coordinate system is calculated and arranged for each frame data. In addition, the orthographic image (road surface texture) is sequentially arranged from the old image to the new image in time series.
このように正射画像(路面テクスチャ)を配置することによって、道路面の車線境界線L71、L72および標示M7が再現される。
本実施例では、連結画像生成処理の段階では、正射画像(路面テクスチャ)を1枚の画像に結合することなく、配置して表示する状態に留めている。従って、1パス画像合成処理(ステップS14)で生成されるのは、合成画像ではなく、各正射画像(路面テクスチャ)の配置を決定する情報となる。もっとも、この処理において、正射画像(路面テクスチャ)を1枚の画像に結合する方法を採ることもできる。
By arranging the orthographic image (road surface texture) in this way, the lane boundary lines L71 and L72 and the marking M7 on the road surface are reproduced.
In the present embodiment, at the stage of the connected image generation processing, the orthographic image (road surface texture) is kept arranged and displayed without being combined with one image. Therefore, what is generated by the one-pass image synthesis process (step S14) is not a synthesized image but information that determines the arrangement of each orthogonal image (road surface texture). However, in this process, a method of combining an orthographic image (road surface texture) into one image can be adopted.
C2.位置合わせ加工:
図8は位置合わせ加工のフローチャートである。ハードウェア的には路面標示地図生成装置200のCPUが実行する処理である。これは、図2に示した位置合わせ処理部220の処理に相当する。
処理を開始すると、CPUは、まず処理の対象となる道路(以下、「対象道路」と言う)についてのオペレータからの指定を入力する(ステップS20)。そして、対象道路に対応する連結画像を入力する(ステップS22)。本実施例では、それぞれの道路について、走行位置を変えながら複数回走行して、路面画像を撮影している。従って、各走行に対応するパスに基づいて、それぞれ連結画像が生成されている。ステップS22では、これらの複数の連結画像を読み込む。
次に、CPUは基準パスを設定する(ステップS30)。基準パスとは、複数のパスの位置合わせをする際に、基準となるパスである。本実施例では、対象道路に対応するパスのうち、位置精度の評価値、即ち自己推定位置精度が最も高いものを選択する。基準パスの設定方法については、後述する。
C2. Alignment processing:
FIG. 8 is a flowchart of alignment processing. In terms of hardware, this is a process executed by the CPU of the road marking map generating apparatus 200. This corresponds to the processing of the alignment processing unit 220 shown in FIG.
When the process is started, the CPU first inputs a designation from the operator regarding a road to be processed (hereinafter referred to as “target road”) (step S20). Then, a connected image corresponding to the target road is input (step S22). In this embodiment, each road is traveled a plurality of times while changing the travel position, and a road surface image is taken. Therefore, a connected image is generated based on the path corresponding to each run. In step S22, the plurality of connected images are read.
Next, the CPU sets a reference path (step S30). The reference path is a path that serves as a reference when positioning a plurality of paths. In the present embodiment, among the paths corresponding to the target road, the evaluation value of the position accuracy, that is, the one having the highest self-estimated position accuracy is selected. The reference path setting method will be described later.
基準パスが設定されると、CPUはオペレータの操作に従い、各パスについて対応点を設定する処理を行う(ステップS40)。
本実施例では、図中に示すように、基準パスおよび標準パスの連結画像をディスプレイに表示し、オペレータが、マウスなどのポインティングデバイスを操作して、この画面内で対応点を設定するという方法を採った。図の例では、標準パスの画像内で菱形をした横断歩道予告標示の頂点を対応点として指定し、次に、これに対応する頂点を基準パスの画像内で指定する例を示した。対応点は、1点に限らず、複数の点を指定可能である。
後述するペイント認識処理が行われており、各連結画像内の標示が抽出されている場合には、CPUは、抽出した標示をディスプレイに表示し、オペレータがこの中から対応点として用いるべき標示を選択するようにしてもよい。また、連結画像間で抽出した標示の位置関係に基づいて、対応する標示を特定し、対応点や透明化ポリゴンを自動的に設定可能としてもよい。
When the reference path is set, the CPU performs processing for setting corresponding points for each path in accordance with the operation of the operator (step S40).
In this embodiment, as shown in the figure, a method of displaying a linked image of a reference path and a standard path on a display, and an operator operating a pointing device such as a mouse to set corresponding points in this screen. Was taken. In the example of the figure, the vertex of the pedestrian crossing warning sign having a rhombus shape in the standard path image is designated as the corresponding point, and then the corresponding vertex is designated in the reference path image. The corresponding points are not limited to one point, and a plurality of points can be designated.
When a paint recognition process (to be described later) is performed and a sign in each connected image is extracted, the CPU displays the extracted sign on the display, and the sign that the operator should use as a corresponding point from this is displayed. You may make it select. Further, it is possible to identify a corresponding sign based on the positional relationship between the signs extracted between connected images, and to automatically set corresponding points and transparent polygons.
本実施例では、この連結画像の表示には、低解像度画像を用いる。こうすることにより、対応点を指定する際に、表示の移動、拡大・縮小を円滑に行うことができ、作業効率を高めることができる利点がある。
対応点が指定されると、CPUは、対応点同士が一致するように、標準パスの連結画像を基準パスの連結画像に合わせるよう移動する処理を行って、位置合わせ加工を終了する(ステップS50)。
先に説明した通り、本実施例では、連結画像は一枚の合成画像として生成されている訳ではなく、正射画像(路面テクスチャ)を配置して表示している。従って、ステップS50の処理では、それぞれの正射画像(路面テクスチャ)を移動することで、連結画像の移動処理が行われる。移動処理と併せて、それぞれの正射画像を低解像度画像から高解像度画像に置換する処理が行われる。高解像度画像を用いて、正射画像を再配置する処理を行うものとしてもよい。
連結画像移動処理の内容は、後で詳述する。
In this embodiment, a low-resolution image is used for displaying the connected image. By doing so, there is an advantage that when the corresponding point is designated, the display can be smoothly moved, enlarged and reduced, and the work efficiency can be improved.
When the corresponding point is designated, the CPU performs a process of moving the standard path connected image to match the reference path connected image so that the corresponding points match each other, and ends the alignment process (step S50). ).
As described above, in the present embodiment, the connected image is not generated as a single composite image, but an orthographic image (road surface texture) is arranged and displayed. Therefore, in the process of step S50, the movement process of a connected image is performed by moving each orthogonal image (road surface texture). Along with the movement process, a process of replacing each orthogonal image from a low resolution image to a high resolution image is performed. Processing for rearranging the orthographic image may be performed using the high-resolution image.
The contents of the connected image moving process will be described in detail later.
C3.基準パス設定処理:
図9は基準パス設定処理のフローチャートである。位置合わせ加工(図8)のステップS30に相当する処理であり、複数のパスの位置合わせをする際に、自己推定位置精度が最も高いものを基準パスとして設定するための処理である。
CPUは、処理を開始すると、対象道路の各パスについて、フレーム画像が取得されている各地点での位置精度を入力する(ステップS31)。撮影時には、図中に示すように、パスにそって点P91,P92、P93等でフレーム画像を撮影するとともに、各点ごとに東西方向の位置精度AC1、南北方向の位置精度AC2が記録されている。
C3. Standard path setting process:
FIG. 9 is a flowchart of the reference path setting process. This process corresponds to step S30 of the alignment process (FIG. 8), and is a process for setting a reference path having the highest self-estimated position accuracy when aligning a plurality of paths.
When starting the processing, the CPU inputs the position accuracy at each point where the frame image is acquired for each path of the target road (step S31). At the time of shooting, as shown in the figure, a frame image is shot along the path at points P91, P92, P93, etc., and position accuracy AC1 in the east-west direction and position accuracy AC2 in the north-south direction are recorded for each point. Yes.
一般にGPS114は、位置座標の検出に使用される人工衛星の配置、電波の受信状況、建造物などに反射した電波を受信することによるマルチパスの有無などによって検出精度が変動することが知られている。またディファレンシャル測位では、基準局の稼働状況によっても検出精度は影響を受ける。位置精度は、これらの影響を定量的に評価したものである。位置精度は、任意に定義可能であり、例えば、精度低下率(DOP(Dilution of Precision))等を用いても良い。
CPUは、各点の位置精度に基づいて、パスごとに自己推定位置精度σを算出する(ステップS32)。
In general, it is known that the detection accuracy of the GPS 114 varies depending on the arrangement of artificial satellites used for detecting position coordinates, the reception status of radio waves, the presence of multipath by receiving radio waves reflected on buildings, and the like. Yes. In differential positioning, the detection accuracy is also affected by the operating status of the reference station. The position accuracy is a quantitative evaluation of these effects. The position accuracy can be arbitrarily defined. For example, a precision reduction rate (DOP (Dilution of Precision)) or the like may be used.
The CPU calculates the self-estimated position accuracy σ for each path based on the position accuracy of each point (step S32).
自己位置推定精度は、GPSと、IMU、DMI等とのずれに基づいて定まる値としてもよい。この場合は、例えば、ずれ量の標準偏差を用いても良い。また、東西方向の標準偏差の自乗と、南北方向の標準偏差の自乗の和を求め、この平方根を自己位置推定精度として用いても良い。このように、GPSと、IMU、DMI等のずれ量に応じた値とする場合には、自己位置推定精度は、ずれが大きい程、大きい値となる。つまり、自己推定位置精度は値が小さい方が、精度が高いことを示す評価値となる。
各パスの自己推定位置精度σが得られると、CPUはこの値が最小となるパスを基準パスとして設定する(ステップS33)。対象道路に対して単一のパスしか存在しない場合には、無条件にそのパスが基準パスとして設定されることになる。この基準パスの自己推定位置精度をσBとする。
The self-position estimation accuracy may be a value determined based on a difference between GPS and IMU, DMI, or the like. In this case, for example, a standard deviation of the deviation amount may be used. Alternatively, the sum of the square of the standard deviation in the east-west direction and the square of the standard deviation in the north-south direction may be obtained, and this square root may be used as the self-position estimation accuracy. As described above, when the GPS, IMU, DMI, and other values are used, the self-position estimation accuracy increases as the deviation increases. That is, the smaller the value of the self-estimated position accuracy is, the higher the accuracy is.
When the self-estimated position accuracy σ of each path is obtained, the CPU sets the path having the minimum value as the reference path (step S33). If there is only a single path for the target road, that path is unconditionally set as the reference path. Let the self-estimated position accuracy of this reference path be σ B.
ステップS33で設定された基準パスの自己推定位置精度σBが、所定の閾値σTHよりも低い場合には(ステップS34)、基準パス設定処理を終了する。
これに対し、自己推定位置精度σBが、所定の閾値σTH以上の場合には、エラー表示を行って(ステップS35)、処理を終了する。この場合には、基準パスの位置精度が十分確保されていないことを意味するため、位置合わせ処理を行っても、位置精度が十分に保証されないからである。
所定の閾値σTHは、上述の通り、路面標示地図として確保すべき位置精度に基づいて任意に設定可能である。
If the self-estimated position accuracy σ B of the reference path set in step S33 is lower than the predetermined threshold σ TH (step S34), the reference path setting process is terminated.
On the other hand, if the self-estimated position accuracy σ B is equal to or greater than the predetermined threshold σ TH , an error display is performed (step S35), and the process ends. In this case, it means that the position accuracy of the reference path is not sufficiently ensured, and therefore the position accuracy is not sufficiently ensured even if the alignment process is performed.
As described above, the predetermined threshold σ TH can be arbitrarily set based on the position accuracy to be secured as the road marking map.
エラー表示(ステップS35)を行うか否かの判断対象となるのは、基準パスの自己推定位置精度σBのみとした。他の標準パスについては、自己推定位置精度が低い場合でも、基準パスを基準として位置合わせを行うことにより、位置精度を高めることが可能だからである。
もっとも、位置合わせ処理における修正は、いずれのパスに対してもできるだけ小さい方が、より好ましいと言える。従って、ステップS34において、全てのパスの自己推定位置精度を閾値σTHと比較し、いずれか一本でも、この閾値を下回る精度のパスが存在する場合にはエラー表示を行うようにしてもよい。
ただし、標準パスにも基準パスと同等の位置精度を要求すると、エラー表示が頻繁になされるおそれがある。かかる弊害を回避するため、標準パスでは基準パスよりも高い閾値σTHを用いるようにしてもよい。つまり、標準パスについては位置精度の要求を基準パスよりも緩めるのである。こうすることによって、標準パスについても最低限の位置精度を保証しつつ、エラー表示が頻繁になされるのを回避することができる。
It is only the self-estimated position accuracy σ B of the reference path that is the object of judgment whether or not to perform error display (step S35). This is because, with respect to other standard paths, even if the self-estimated position accuracy is low, it is possible to improve the position accuracy by performing alignment with reference to the reference path.
However, it can be said that the correction in the alignment process is preferably as small as possible for any path. Therefore, in step S34, the self-estimated position accuracy of all the paths is compared with the threshold value σTH, and if any one of the paths has an accuracy lower than the threshold value, an error display may be performed. .
However, if the standard path is required to have the same position accuracy as the reference path, there is a possibility that error display is frequently performed. In order to avoid such an adverse effect, a higher threshold σ TH may be used in the standard path than in the reference path. In other words, for the standard path, the positional accuracy requirement is relaxed compared to the reference path. By doing so, it is possible to avoid frequent error display while guaranteeing the minimum position accuracy for the standard path.
C4.連結画像移動処理:
(1)フローチャート:
図10は連結画像移動処理のフローチャートである。位置合わせ処理(図8)のステップS50の処理に相当する。
処理を開始すると、CPUは移動対象となる標準パスのデータおよび対応点のデータを入力する(ステップS51)。標準パスのデータとは、フレーム画像が撮影された時の位置座標を順次、記録した点列からなる軌跡データである。対応点のデータは、図8のステップS20において、基準パスおよび標準パスが表示された画面内でオペレータが指定した対応点の座標値である。
C4. Connected image movement processing:
(1) Flow chart:
FIG. 10 is a flowchart of the connected image movement process. This corresponds to the processing in step S50 of the alignment processing (FIG. 8).
When the process is started, the CPU inputs standard path data and corresponding point data to be moved (step S51). The standard path data is trajectory data including a point sequence in which position coordinates when a frame image is taken are sequentially recorded. The corresponding point data is the coordinate value of the corresponding point designated by the operator in the screen on which the reference path and the standard path are displayed in step S20 of FIG.
CPUは、次に、標準パス上で正射画像(路面テクスチャ)が配置されている点ごとに、移動ベクトルを算出する(ステップS52)。
図中に移動ベクトルの算出例を示した。この例では、標準パスNP10について、対応点P101、P103が指定されているものとする。標準パス上には、図中に台形で示すように正射画像(路面テクスチャ)が配置されている。
対応点P101、P103に対応する点としては、基準パス上では、対応点P102、P104が指定されているものとする。CPUは、これらの指定結果に基づき、対応点について移動ベクトルを求める。図の例では、標準パスの対応点P101からP102に向かう移動ベクトルV10と、対応点P103からP104に向かう移動ベクトルV11が得られる。
Next, the CPU calculates a movement vector for each point where the orthographic image (road surface texture) is arranged on the standard path (step S52).
An example of movement vector calculation is shown in the figure. In this example, it is assumed that corresponding points P101 and P103 are designated for the standard path NP10. On the standard path, an orthographic image (road surface texture) is arranged as shown by a trapezoid in the drawing.
As points corresponding to the corresponding points P101 and P103, it is assumed that corresponding points P102 and P104 are designated on the reference path. The CPU obtains a movement vector for the corresponding points based on these designation results. In the illustrated example, a movement vector V10 from the corresponding point P101 to P102 of the standard path and a movement vector V11 from the corresponding point P103 to P104 are obtained.
対応点は、標示の頂点など、オペレータが基準パスと標準パスとで対応をとりやすい点を指定するため、必ずしも標準パスNP10上で指定されるとは限らない。対応点が標準パスNP10からずれた場所で指定されている場合には、図中に破線で示すように標準パスNP10からずれた場所に移動ベクトルV10aが得られる。従って、この移動ベクトルV10aの始点が標準パスNP10上に来るように、標準パスNP10に垂直方向に移動させて移動ベクトルV10を求めればよい。 The corresponding point is not necessarily specified on the standard path NP10 because the operator specifies a point such as the apex of the sign that the operator can easily correspond with the standard path and the standard path. When the corresponding point is specified at a location deviated from the standard path NP10, the movement vector V10a is obtained at a location deviated from the standard path NP10 as indicated by a broken line in the drawing. Therefore, the movement vector V10 may be obtained by moving in the vertical direction to the standard path NP10 so that the starting point of the movement vector V10a is on the standard path NP10.
対応点での移動ベクトルV10、V11が得られると、CPUは、これらを補間することによって、対応点P101、P103の間に位置する各点での移動ベクトルを求める。例えば、図中に示すように、フレーム画像の撮影地点PP10で移動ベクトルを求める場合には、この地点を始点とするように移動ベクトルV10、V11を平行移動し、両ベクトルの終点を結ぶ線分を、対応点P101〜PP10の距離、P103〜PP10の距離の比で内分する点を求める。こうすることによって、点PP10を始点とし、この内分点を終点とする移動ベクトルVP10を求めることができる。 When the movement vectors V10 and V11 at the corresponding points are obtained, the CPU obtains the movement vectors at the respective points located between the corresponding points P101 and P103 by interpolating these. For example, as shown in the figure, when the movement vector is obtained at the shooting point PP10 of the frame image, the movement vectors V10 and V11 are translated so that this point is the starting point, and a line segment connecting the end points of both vectors is obtained. Is internally divided by the ratio of the distance between corresponding points P101 to PP10 and the distance between P103 to PP10. By doing so, it is possible to obtain a movement vector VP10 starting from the point PP10 and ending at this internal dividing point.
2つの移動ベクトルV10、V11に挟まれた区間に存在しない点については、最も近い位置にある移動ベクトルをそのまま用いる。図中の例では、点P101よりも右側の区間では、移動ベクトルV10をそのまま用い、点P103の左側の区間では、移動ベクトルV11をそのまま用いることになる。
また、対応点が一つしか指定されておらず、移動ベクトルが一つしか与えられない場合は、この移動ベクトルを用いる。
For points that do not exist in the section between the two movement vectors V10 and V11, the movement vector at the closest position is used as it is. In the example in the figure, the movement vector V10 is used as it is in the section on the right side of the point P101, and the movement vector V11 is used as it is in the section on the left side of the point P103.
Further, when only one corresponding point is specified and only one movement vector is given, this movement vector is used.
CPUは以上の処理で得られた移動ベクトルに従って、正射画像(路面テクスチャ)を平行移動して(ステップS53)、連結画像移動処理を終了する。図の例では、標準パスNP10の点PP10に配置されていた路面テクスチャTX11が、移動ベクトルVP10に従って路面テクスチャTX12の位置に平行移動される例を示している。
この処理と併せて、標準パスNP10上の点PP10の位置も移動ベクトルVP10によって修正される。従って、ステップS53の処理では、路面テクスチャの移動と共に、標準パスNP10の軌跡も修正されることになる。
The CPU translates the orthographic image (road surface texture) according to the movement vector obtained by the above processing (step S53), and ends the connected image movement processing. In the example of the figure, an example is shown in which the road surface texture TX11 arranged at the point PP10 of the standard path NP10 is translated to the position of the road surface texture TX12 according to the movement vector VP10.
Along with this processing, the position of the point PP10 on the standard path NP10 is also corrected by the movement vector VP10. Therefore, in the process of step S53, the locus of the standard path NP10 is also corrected along with the movement of the road surface texture.
(2)位置合わせ加工の処理例(1):
図11は位置合わせ加工の処理例(1)を示す説明図である。図11(a)〜図11(c)のそれぞれには、標準パスNP11および基準パスBP11に対する連結画像を重ねて表示した表示した状態を示している。図11(a)は標準パスNP11の連結画像を、基準パスBP11の連結画像よりも上に配置した状態である。先に説明した通り、連結画像は多数の路面テクスチャを配置することで構成されているが、図中には、説明の便宜上、一つの路面テクスチャTX11に輪郭を付して示した。
オペレータは、この画面中で、標準パスNP11における対応点P111を指定する。対応点P111は、任意に設定可能である。本実施例では、分離帯標示M11の白線の斜め縞模様の端点の一つを対応点P111として選択している。
(2) Positioning processing example (1):
FIG. 11 is an explanatory view showing a processing example (1) of alignment processing. Each of FIG. 11A to FIG. 11C shows a state where the linked images for the standard path NP11 and the reference path BP11 are displayed in an overlapping manner. FIG. 11A shows a state in which the connected image of the standard path NP11 is arranged above the connected image of the reference path BP11. As described above, the connected image is configured by arranging a large number of road surface textures, but for the sake of convenience of explanation, one road surface texture TX11 is illustrated with an outline.
The operator designates the corresponding point P111 in the standard path NP11 in this screen. The corresponding point P111 can be arbitrarily set. In this embodiment, one of the end points of the white stripe diagonal stripe pattern of the separation band sign M11 is selected as the corresponding point P111.
図11(b)は、基準パスBP11の連結画像を上側にして配置した状態を示している。この状態では、標準パスNP11と基準パスBP11の位置がずれている。従って、基準パスBP11の連結画像を上側に表示すると、対応点P111の位置は、分離帯標示M12の白線の斜め縞模様からずれてしまう。
図11(c)は、基準パスBP11の連結画像を上側にした状態で、対応点P112を指定した状態を示している。つまり、基準パスBP11を上側にした画像内で、分離帯標示M11の白線の斜め縞模様の端点を対応点P112として選択すればよい。
対応点P112が指定されると、標準パスNP11の対応点P111から基準パスBP11の対応点P112に向かうように移動ベクトルV11が求められる。この移動ベクトルV11に従って、路面テクスチャTX11を移動すれば、対応点P111は対応点P112に一致し、分離帯標示M11、M12の位置も一致させることができる。
FIG. 11B shows a state where the connected images of the reference path BP11 are arranged on the upper side. In this state, the positions of the standard path NP11 and the reference path BP11 are shifted. Therefore, when the connected image of the reference path BP11 is displayed on the upper side, the position of the corresponding point P111 is deviated from the diagonal stripe pattern of the white line of the separation band sign M12.
FIG. 11C shows a state in which the corresponding point P112 is specified with the connected image of the reference path BP11 facing upward. That is, in the image with the reference path BP11 on the upper side, the end point of the white stripe of the separation band sign M11 may be selected as the corresponding point P112.
When the corresponding point P112 is designated, the movement vector V11 is obtained so as to go from the corresponding point P111 of the standard path NP11 to the corresponding point P112 of the reference path BP11. If the road texture TX11 is moved according to the movement vector V11, the corresponding point P111 coincides with the corresponding point P112, and the positions of the separation band signs M11 and M12 can also coincide.
路面テクスチャTX11だけでなく、位置合わせ加工では、標準パスNP11を構成する他の路面テクスチャも同様に、移動ベクトルV11に従って移動させる。ここでは対応点を一つだけ指定した処理例を示したが、対応点は複数指定してもよい。例えば、図の例では、横断歩道の縞模様、停止線、車線境界線の端点などを対応点として利用することが考えられる。 In the alignment process, not only the road surface texture TX11 but also other road surface textures constituting the standard path NP11 are similarly moved according to the movement vector V11. Although an example of processing in which only one corresponding point is specified is shown here, a plurality of corresponding points may be specified. For example, in the example of the figure, it is conceivable to use the crossing stripe pattern, the stop line, the end point of the lane boundary line, or the like as the corresponding point.
(3)位置合わせ加工の処理例(2):
図12は位置合わせ加工の処理例(2)を示す説明図である。標準パスNP12、基準パスBP12の連結画像を重ねた状態を示した。説明の便宜上、双方の路面標示を視認可能な状態で示している。位置合わせ前は、標準パスNP12、基準パスBP12の位置がずれているため、車線境界線などの標示の位置はずれている。
オペレータは、ここでは破線での車線境界線の端点の一つを対応点として選択している。標準パスNP12については車線境界線L122の端点を対応点P122として選択し、基準パスBP12については車線境界線L121の端点を対応点P121として選択する。この結果、標準パスNP12の対応点P122から基準パスBP12の対応点P121に向かう移動ベクトルV12が定まる。
(3) Positioning processing example (2):
FIG. 12 is an explanatory view showing a processing example (2) of alignment processing. The state where the connected images of the standard path NP12 and the reference path BP12 are overlapped is shown. For convenience of explanation, both road markings are shown in a visible state. Before the alignment, the positions of the standard path NP12 and the reference path BP12 are deviated, and thus the positions of the markings such as the lane boundary line are deviated.
Here, the operator selects one of the end points of the lane boundary line indicated by a broken line as a corresponding point. For the standard path NP12, the end point of the lane boundary line L122 is selected as the corresponding point P122, and for the reference path BP12, the end point of the lane boundary line L121 is selected as the corresponding point P121. As a result, a movement vector V12 from the corresponding point P122 of the standard path NP12 toward the corresponding point P121 of the reference path BP12 is determined.
図13は位置合わせ加工の処理(2)の加工結果を示す説明図である。
上述の通り、標準パスNP12の連結画像を、移動ベクトルV12に従って移動することによって、車線境界線の位置を合わせることができる。位置合わせの結果が車線境界線L13である。
また、この位置合わせ加工によって、標準パスも基準パスの位置に合わせられる。本実施例は、本来、異なる位置を走行した複数のパスを位置合わせすることによって、道路面の画像を生成する。この際、図12、図13の比較から分かる通り、対応点に基づいて設定される移動ベクトルに従って、標準パスを平行移動することにより、複数のパス間で、路面標示の位置関係およびパスの位置関係を、非常によく一致させることができる。
FIG. 13 is an explanatory diagram showing a processing result of the positioning processing (2).
As described above, the position of the lane boundary line can be adjusted by moving the connected image of the standard path NP12 according to the movement vector V12. The result of the alignment is the lane boundary line L13.
In addition, by this alignment process, the standard path is also aligned with the position of the reference path. In the present embodiment, an image of a road surface is generated by aligning a plurality of paths originally traveling at different positions. At this time, as can be seen from the comparison between FIG. 12 and FIG. 13, by moving the standard path in parallel according to the movement vector set based on the corresponding point, the positional relationship of the road marking and the position of the path between the plurality of paths. Relationships can be matched very well.
(4)絶対座標の取得:
図14は路面標示の絶対位置座標の取得方法を示す説明図である。図の例では、標準パスNP14上の路面テクスチャTX142、基準パスBP14上の路面テクスチャTX141を例示した。路面テクスチャTX141、TX142内には、それぞれ標示M141、M142が含まれている。
路面テクスチャTX141、TX142は、それぞれの代表点が、基準パスBP14上の点P141、および標準パスNP14上の点P143に一致するように配置される。
(4) Acquisition of absolute coordinates:
FIG. 14 is an explanatory diagram showing a method for obtaining the absolute position coordinates of the road marking. In the illustrated example, the road surface texture TX142 on the standard path NP14 and the road surface texture TX141 on the reference path BP14 are illustrated. In the road surface textures TX141 and TX142, signs M141 and M142 are included, respectively.
The road surface textures TX141 and TX142 are arranged so that their representative points coincide with a point P141 on the reference path BP14 and a point P143 on the standard path NP14.
路面テクスチャTX141内で、標示M141の頂点P142の位置は、代表点を原点とする相対的な座標(x142,y142)で特定することができる。従って、代表点の絶対座標、即ち路面テクスチャTX141が配置されている位置座標(X141,Y141)が分かれば、これに、上述の相対的な座標を加えることによって、標示M141の頂点P142の絶対位置座標を取得することができる。
路面テクスチャTX142内も同様に、標示M142の頂点P145の位置は、代表点を原点とする相対的な座標(x145,Y145)で特定することができる。従って、代表点の絶対座標、即ち路面テクスチャTX142が配置されている位置座標(X143,Y143)が分かれば、これに、上述の相対的な座標を加えることによって、標示M142の頂点P145の絶対位置座標を取得することができる。
In the road surface texture TX141, the position of the vertex P142 of the sign M141 can be specified by relative coordinates (x142, y142) with the representative point as the origin. Therefore, if the absolute coordinates of the representative point, that is, the position coordinates (X141, Y141) where the road surface texture TX141 is arranged are known, the absolute position of the vertex P142 of the sign M141 is added by adding the relative coordinates described above. Coordinates can be acquired.
Similarly, in the road surface texture TX142, the position of the vertex P145 of the sign M142 can be specified by relative coordinates (x145, Y145) with the representative point as the origin. Accordingly, if the absolute coordinates of the representative point, that is, the position coordinates (X143, Y143) where the road surface texture TX142 is arranged are known, the relative position described above is added to the absolute position of the vertex P145 of the sign M142. Coordinates can be acquired.
路面テクスチャTX142については、位置合わせ加工によって、移動ベクトルV14に従って、代表点の位置P143が点P144に移動したとする。この時、位置合わせ後の点P144の絶対位置座標は、移動前の点P143の位置座標(X143,Y143)に、移動ベクトルV14の成分(VX14,VY14)を加えることで得ることができる。更に、こうして得られた点P144の絶対位置座標に対して、点P145の相対的な座標(x145,Y145)を加えれば、位置合わせ加工後の標示M142の頂点P145の絶対位置座標を取得することができる。
ここでは、路面テクスチャ内の標示M141,M142の頂点について絶対位置座標を取得する方法を示したが、路面テクスチャ内の任意の点は、それぞれ路面テクスチャの代表点を基準とする相対的な座標で特定可能であるから、同様の方法によって任意の点の絶対位置座標を取得することが可能である。
For the road surface texture TX142, it is assumed that the position P143 of the representative point is moved to the point P144 according to the movement vector V14 by the alignment process. At this time, the absolute position coordinates of the point P144 after alignment can be obtained by adding the components (VX14, VY14) of the movement vector V14 to the position coordinates (X143, Y143) of the point P143 before movement. Furthermore, if the relative coordinates (x145, Y145) of the point P145 are added to the absolute position coordinates of the point P144 obtained in this way, the absolute position coordinates of the vertex P145 of the sign M142 after the alignment processing are acquired. Can do.
Here, the method of obtaining the absolute position coordinates for the vertices of the signs M141 and M142 in the road texture has been shown. However, each arbitrary point in the road texture is a relative coordinate based on the representative point of the road texture. Since it can be specified, the absolute position coordinates of an arbitrary point can be obtained by a similar method.
C5.透明化ポリゴン設定処理:
(1)処理概要:
図15は透明化ポリゴン設定処理の概要を示す説明図である。透明化ポリゴン設定処理は、重ねられた道路画像上に、オペレータの指示によって、透明化ポリゴンを設定することによって、隣接するパスに対応する正射画像同士が重なり合っている部分で、上側の正射画像の一部を透明化して、下側の正射画像を透視可能とする処理である。ここでは、まずオペレータが手動で設定する場合を例にとって処理内容を説明する。
図の中央に、正射画像P152の上に正射画像P151が重ねられている様子を斜視図的に示した。下側の正射画像P152には、横断歩道A154が分断された状態で含まれており、停止線A153が完全な状態で含まれている。上側の正射画像P151には、横断歩道A152が完全な形で含まれており、停止線A151が分断された状態で含まれている。それぞれ分断された部分を、破線で囲んで示した。
C5. Transparent polygon setting process:
(1) Process overview:
FIG. 15 is an explanatory diagram showing an outline of the transparent polygon setting process. In the transparent polygon setting process, the transparent polygon is set on the superimposed road image according to the operator's instruction so that the orthographic image corresponding to the adjacent path overlaps at the upper orthographic image. This is a process in which part of the image is made transparent so that the lower orthographic image can be seen through. Here, the processing contents will be described by taking as an example a case where the operator manually sets.
In the center of the figure, a state in which the orthographic image P151 is superimposed on the orthographic image P152 is shown in a perspective view. The lower orthographic image P152 includes the pedestrian crossing A154 in a divided state, and includes the stop line A153 in a complete state. In the upper orthographic image P151, the pedestrian crossing A152 is included in a complete form, and the stop line A151 is included in a divided state. Each divided part is shown surrounded by a broken line.
この状態で正射画像P151、P152を重ねると、左側に示したように表示される。つまり、両者が重なった部分では、上側の正射画像P151の画像のみが表示されるため、横断歩道A152は完全な状態で表示されるが、停止線A151は分断された状態で示されてしまうのである。
仮に、正射画像P151、P152の上下関係を変えたとすれば、今度は、停止線A153は完全な状態で表示することができるが、横断歩道A154が分断された状態で表示されることになる。このように、正射画像P151、P152の上下関係だけでは、横断歩道、停止線の双方を完全な状態で表示させることはできない。
When the orthographic images P151 and P152 are overlapped in this state, they are displayed as shown on the left side. That is, in the part where both overlap, only the image of the upper orthographic image P151 is displayed, so the pedestrian crossing A152 is displayed in a complete state, but the stop line A151 is shown in a divided state. It is.
If the vertical relationship between the orthogonal images P151 and P152 is changed, the stop line A153 can be displayed in a complete state, but the pedestrian crossing A154 is displayed in a divided state. . Thus, it is not possible to display both the pedestrian crossing and the stop line in a complete state only by the vertical relationship between the orthogonal images P151 and P152.
そこで、本実施例では、透明化ポリゴンPOL15を設定する。この例では、上側の正射画像P151において、分断されている停止線A151を覆うように設定した例を示した。透明化ポリゴンPOL15内では、上側の正射画像P151は透過した状態で表示される。従って、図の右側に示すように、正射画像P151、P152を重ねた状態では、透明化ポリゴンPOL15の内部では、下側の正射画像P152が表示され、その他の部分では、上側の正射画像P151が表示される。この結果、下側の正射画像P151に含まれる停止線A153と、上側の正射画像P152に含まれる横断歩道A152が表示され、停止線および横断歩道の双方を完全な形で表示することができる。 Therefore, in this embodiment, the transparent polygon POL15 is set. In this example, the upper orthographic image P151 is set so as to cover the divided stop line A151. In the transparent polygon POL15, the upper orthographic image P151 is displayed in a transparent state. Therefore, as shown on the right side of the figure, when the orthographic images P151 and P152 are overlapped, the lower orthographic image P152 is displayed inside the transparent polygon POL15, and the upper orthographic image is displayed in other portions. An image P151 is displayed. As a result, the stop line A153 included in the lower orthographic image P151 and the pedestrian crossing A152 included in the upper orthographic image P152 are displayed, and both the stop line and the pedestrian crossing can be displayed in a complete form. it can.
(2)フローチャート:
図16は透明化ポリゴン設定処理のフローチャートである。ハードウェア的には路面標示地図生成装置200のCPUが実行する処理である。これは、図2に示した透明化ポリゴン設定部221の処理に相当する。
処理を開始すると、CPUは、オペレータからの対象道路の指定を入力し(ステップS100)、対象道路に対応する連結画像を入力する(ステップS102)。対象道路に対して複数のパスが対応している場合には、これらのパスに対応する複数の連結画像が入力される。
(2) Flow chart:
FIG. 16 is a flowchart of the transparent polygon setting process. In terms of hardware, this is a process executed by the CPU of the road marking map generating apparatus 200. This corresponds to the processing of the transparent polygon setting unit 221 shown in FIG.
When the process is started, the CPU inputs designation of the target road from the operator (step S100), and inputs a connected image corresponding to the target road (step S102). When a plurality of paths correspond to the target road, a plurality of connected images corresponding to these paths are input.
CPUは、これらの連結画像を表示し、オペレータの操作に基づいて優先パスの指定を入力する(ステップS104)。優先パスとは、複数のパスのうち路面画像が最も良好なパスを言い、複数のパスの連結画像を重ねる際に最も上に位置するパスを言う。優先パスは、位置合わせ加工で用いられた基準パスとは異なる。基準パスは位置精度が最も良いものを意味したが、位置精度が良いからといって、路面画像が良好とは限らないからである。複数のパス間の連結画像の重ね合わせの上下関係がどのような状態であっても、位置合わせは支障なく行うことが可能であるから、位置合わせ用の基準パスと優先パスとは相互に独立して設定可能である。
本実施例では、優先パスは、オペレータが各パスの連結画像を比較しながら、任意に設定することができる。仮に、路面画像が最も粗いパスを優先パスに指定しても構わない。このような場合には、後述する透明化ポリゴンの設定数が増えるだけのことである。
The CPU displays these connected images and inputs designation of a priority path based on the operation of the operator (step S104). The priority path refers to a path having the best road image among a plurality of paths, and refers to a path positioned at the top when overlapping connected images of a plurality of paths. The priority path is different from the reference path used in the alignment process. The reference path means the one with the best position accuracy, but just because the position accuracy is good does not mean that the road surface image is good. Regardless of the top-to-bottom relationship of the overlay of connected images between multiple paths, alignment can be performed without any problem, so the alignment reference path and priority path are independent of each other. And can be set.
In this embodiment, the priority path can be arbitrarily set while the operator compares the linked images of the paths. The path with the roughest road surface image may be designated as the priority path. In such a case, only the number of transparent polygons to be described later increases.
優先パスが設定されると、CPUは、オペレータの操作に従い透明化ポリゴンを設定する(ステップS106)。
図中に透明化ポリゴンの設定例を示した。この例では、優先パスに沿った路面テクスチャTX161と、その他のパスに沿った路面テクスチャTX162を示した。
撮影時には矩形の画像が、正射画像変換により、台形になるため、路面テクスチャTX161、TX162を配置すると、図示するようにのこぎり刃状になる。のこぎり刃状の部分からは、路面画像の見栄えを落とすと共に、分断された路面画像しか得られないため、完全な路面画像を得るという目的からは不要な部分となる。そこで、図の例では、路面テクスチャTX161、TX162が重なり合った部分では、のこぎり刃状になった路面テクスチャTX161の左端の部分に透明化ポリゴンPOL161を設定し、のこぎり刃状の部分が表示されないようにしている。
When the priority path is set, the CPU sets a transparent polygon according to the operation of the operator (step S106).
An example of transparent polygon setting is shown in the figure. In this example, the road surface texture TX161 along the priority path and the road surface texture TX162 along the other paths are shown.
At the time of shooting, a rectangular image becomes a trapezoid by orthographic image conversion. Therefore, when the road surface textures TX161 and TX162 are arranged, it becomes a saw blade shape as shown in the figure. From the saw blade portion, the appearance of the road surface image is deteriorated and only the divided road surface image can be obtained. Therefore, the portion is unnecessary for the purpose of obtaining a complete road surface image. Therefore, in the example of the figure, in the portion where the road surface textures TX161 and TX162 overlap, the transparent polygon POL161 is set at the left end portion of the road surface texture TX161 having a saw blade shape so that the saw blade portion is not displayed. ing.
一方、路面テクスチャTX161、TX162が重なりあっていない部分、図の例では、両端の領域A161、A162の部分には、透明化ポリゴンは設定しない。この部分では、それぞれ路面テクスチャTX161、TX162によって得られる画像が、唯一の画像情報となるからである。両端の領域に透明化ポリゴンを設定すると、この部分に含まれる路面画像の情報は活用し得なくなる。本実施例では、このように他の路面テクスチャと重なり合っていない部分には、透明化ポリゴンを設定しないようにすることで、路面テクスチャに含まれる路面画像の情報を有効活用できるようにした。
かかる設定は、単に路面テクスチャが重なっていない部分を避けて、オペレータが透明化ポリゴンを設定するという運用によって実現してもよいが、透明化ポリゴンの設定処理(ステップS106)において、透明化ポリゴンの設定位置を制限するようにしてもよい。つまり、路面テクスチャが重なり合っている部分についてのみ、オペレータによる透明化ポリゴンの設定操作を受け付けるようにしても良い。
On the other hand, transparent polygons are not set in the portions where the road surface textures TX161 and TX162 do not overlap, in the example shown in the figure, the regions A161 and A162 at both ends. This is because in this portion, the images obtained by the road surface textures TX161 and TX162 are the only image information. If transparent polygons are set in the regions at both ends, the information on the road surface image included in this portion cannot be used. In the present embodiment, the information on the road surface image included in the road surface texture can be effectively used by not setting the transparent polygon in the portion that does not overlap with the other road surface texture.
Such a setting may be realized by an operation in which the operator sets a transparent polygon by simply avoiding a portion where the road surface texture does not overlap, but in the transparent polygon setting process (step S106), the transparent polygon You may make it restrict | limit a setting position. In other words, the transparent polygon setting operation by the operator may be accepted only for the portion where the road surface texture overlaps.
路面テクスチャTX161によって隠されている標示がある場合には、オペレータはその標示が視認できるように透明化ポリゴンを設定する。図の例では、矢印の標示を覆うように、透明化ポリゴンPOL162が設定されている例を示した。矢印の標示は、テクスチャTX161の下側に配置されているテクスチャに含まれている画像である。
このように標示を覆う透明化ポリゴンPOL162を設定するためには、一旦、路面テクスチャTX161を他の路面テクスチャよりも下側に位置するように上下関係を変更したり、路面テクスチャTX161を非表示としたりすればよい。これらの操作によって、路面テクスチャTX161に隠された標示を視認可能な状態にした上で、その標示を覆うように透明化ポリゴンPOL162を設定し、路面テクスチャTX161の表示を元に戻せばよい。
When there is a sign hidden by the road surface texture TX161, the operator sets the transparent polygon so that the sign can be visually recognized. In the example shown in the figure, the transparent polygon POL 162 is set so as to cover the arrow mark. The arrow mark is an image included in the texture arranged on the lower side of the texture TX161.
In order to set the transparent polygon POL162 that covers the sign in this way, the vertical relationship is temporarily changed so that the road texture TX161 is positioned below the other road texture, or the road texture TX161 is not displayed. Just do it. With these operations, the sign hidden in the road texture TX161 is made visible, the transparent polygon POL162 is set so as to cover the sign, and the display of the road texture TX161 is restored.
以上の処理によって、透明化ポリゴンの設定が終わると、CPUは、設定結果を出力して、透明化ポリゴン設定処理を終了する。
(3)処理例:
図17は透明化ポリゴンを設定する前の道路画像例を示す説明図である。この例では、パスP171、P172の2本に沿って得られた連結画像の位置合わせを行って生成された道路画像を示した。パスP172の連結画像と、パスP171の連結画像とで、のこぎり刃状の両端の形状が逆向きになっているのは、これらのパスP171,P172を道路面撮影システム100の車両が走行する方向が逆だからである。
When the setting of the transparent polygon is completed by the above processing, the CPU outputs the setting result and ends the transparent polygon setting processing.
(3) Processing example:
FIG. 17 is an explanatory diagram showing an example of a road image before setting a transparent polygon. In this example, a road image generated by performing alignment of connected images obtained along two paths P171 and P172 is shown. The shape of both ends of the saw blade in the connected image of the path P172 and the connected image of the path P171 are opposite to each other in the direction in which the vehicle of the road surface photographing system 100 travels on these paths P171 and P172. This is because the opposite is true.
パスP172の連結画像が、パスP171の連結画像と重なっている部分では、パスP172の連結画像の端部B17ののこぎり刃状の境界が現れており、道路画像の画質を劣化させている。ただし、図17では、図示の都合上、のこぎり刃状の輪郭を付して端部B17の形状を強調してある。
また、パスP172の路面画像が端の方で不鮮明なため、例えば、領域A171では横断歩道の縞模様が歪んでいる。領域A172では、停止線が分断された状態となっている。領域A173では、路線バス等優先通行帯(いわゆるバスレーン)であることを示す「バス専用」の文字が読めない程に崩れている。領域A174では、破線状の車線境界線が途中で分断された状態となっている。
In a portion where the connected image of the path P172 overlaps with the connected image of the path P171, a saw-toothed boundary at the end B17 of the connected image of the path P172 appears, degrading the image quality of the road image. However, in FIG. 17, for the convenience of illustration, the shape of the end portion B <b> 17 is emphasized with a saw-blade contour.
Further, since the road surface image of the path P172 is unclear at the end, for example, in the region A171, the stripe pattern of the pedestrian crossing is distorted. In the area A172, the stop line is divided. In the area A173, the character “bus only” indicating that the route is a preferential traffic zone such as a route bus (so-called bus lane) is broken so that it cannot be read. In the area A174, the broken-line lane boundary line is divided in the middle.
これらの影響を回避するため、図17では、領域A171〜A174および端部B17を包含する透明化テクスチャPOL17を図中の一点鎖線のように設定した。
このように透明化ポリゴンPOL17を設定すると、パスP172側の路面テクスチャは、透明化ポリゴンPOL17の内部では透視状態となり、下側に配置されたパスP171側の路面テクスチャが視認されるようになる。
In order to avoid these influences, in FIG. 17, the transparent texture POL <b> 17 including the regions A <b> 171 to A <b> 174 and the end B <b> 17 is set as indicated by a one-dot chain line in the drawing.
When the transparent polygon POL17 is set in this way, the road surface texture on the path P172 side is in a transparent state inside the transparent polygon POL17, and the road surface texture on the path P171 side arranged below is visually recognized.
図18は透明化ポリゴンの設定後の道路画像例を示す説明図である。上述の透明化ポリゴンの作用により、領域A181では、下側の画像が表示されるため、図17で示した横断歩道の分断状態が解消される。領域A182でも同様に、停止線が完全な状態で表示される。また、領域B18に例示するように、路面テクスチャの端部ののこぎり刃状の輪郭は視認されなくなり、道路画像全体の画質が向上する。
領域A183では、バス専用の文字が、はっきりと判読可能な状態となる。領域A184では、車線境界線が完全な状態で表示される。
このように、本実施例では、透明化ポリゴンを設定することにより、道路画像の画質を向上させることができるとともに、道路面の標示の画質も向上させることができる。
FIG. 18 is an explanatory diagram showing an example of a road image after setting a transparent polygon. Due to the action of the transparent polygon described above, the lower image is displayed in the area A181, so that the divided state of the pedestrian crossing shown in FIG. 17 is eliminated. Similarly, in the area A182, the stop line is displayed in a complete state. Further, as exemplified in the region B18, the saw-tooth profile at the end of the road surface texture is not visually recognized, and the image quality of the entire road image is improved.
In the area A183, the bus-specific characters are clearly readable. In the area A184, the lane boundary line is displayed in a complete state.
As described above, in this embodiment, by setting the transparent polygon, the image quality of the road image can be improved and the image quality of the marking on the road surface can be improved.
C6.ペイント認識処理:
(1)全体処理:
図19はペイント認識処理のフローチャートである。ハードウェア的には路面標示地図生成装置200のCPUが実行する処理である。これは、図2に示したペイント認識部223の処理に相当する。
処理を開始すると、CPUは処理データ記憶部210から、処理対象となっている道路の画像、即ち路面テクスチャ、パスのデータを読み込む(ステップS300)。
次に、CPUは縦配置処理を行って(ステップS302)、縦配置画像を生成し、処理データ記憶部210に格納する。
C6. Paint recognition process:
(1) Overall processing:
FIG. 19 is a flowchart of the paint recognition process. In terms of hardware, this is a process executed by the CPU of the road marking map generating apparatus 200. This corresponds to the processing of the paint recognition unit 223 shown in FIG.
When the process is started, the CPU reads the image of the road to be processed, that is, road surface texture and path data, from the processing data storage unit 210 (step S300).
Next, the CPU performs vertical arrangement processing (step S302), generates a vertical arrangement image, and stores it in the processing data storage unit 210.
図20は縦配置処理の内容を示す説明図である。図20(a)に通常の処理における連結画像を示した。図中の一点鎖線の矢印PA20は画像を撮影した際のパスを表している。通常の処理では、パスPA20に沿って路面テクスチャTx20を配置する。パスPA20の位置座標は、緯度経度などの絶対座標系XYで得られている。従って、絶対座標系でパスPA20および路面テクスチャTx20を配置すると、図20(a)に示すように連結画像は斜めに表示されることがある。この例では、直線状の道路を例示しているが、道路がカーブしている場合には、連結画像もカーブした状態となる。 FIG. 20 is an explanatory diagram showing the contents of the vertical arrangement processing. FIG. 20A shows a connected image in normal processing. A one-dot chain line arrow PA20 in the figure represents a path when an image is taken. In normal processing, the road surface texture Tx20 is arranged along the path PA20. The position coordinates of the path PA20 are obtained in an absolute coordinate system XY such as latitude and longitude. Therefore, when the path PA20 and the road surface texture Tx20 are arranged in the absolute coordinate system, the connected image may be displayed obliquely as shown in FIG. In this example, a straight road is illustrated, but when the road is curved, the connected image is also curved.
図20(b)は縦配置した画像例を示した。道路が直線状のため、図20(a)の向きを矢印A20方向に回転した状態の画像となっている。
縦配置の画像は、次の手順で生成することができる。まず、2次元座標xyの縦(y)方向に距離軸を設定する。距離軸とは、パスPA20に沿って画像を撮影する際の開始点からの移動距離を表す軸である。パスPA20が直線状の時は、パスPA20の進行方向を上向きに表示した状態となる。パスが曲線状のときには、パスを直線状に伸ばした状態となる。
FIG. 20B shows an example of vertically arranged images. Since the road is straight, the image in FIG. 20A is rotated in the direction of arrow A20.
The vertically arranged image can be generated by the following procedure. First, a distance axis is set in the longitudinal (y) direction of the two-dimensional coordinate xy. The distance axis is an axis representing a moving distance from the start point when an image is taken along the path PA20. When the path PA20 is linear, the traveling direction of the path PA20 is displayed upward. When the path is curved, the path is straightened.
それぞれの路面テクスチャTx20については、撮影時の位置座標データおよび撮影開始からの移動距離が得られているから(図1の位置計測部110参照)、これらのデータに基づき、距離軸上に路面テクスチャTx20を配置する。路面テクスチャTx20は、画像内の代表点を距離軸上に置き、左右対称軸が距離軸に平行になるよう配置する。こうすることによって、パスが曲線状か否かにかかわらず、進行方向が縦方向に直線状に伸ばされた状態の連結画像を表示することができる。この連結画像によれば、図示する通り、横断歩道および停止線は距離軸に直交する方向(図中の左右方向)に描かれ、車線境界線は距離軸に沿う方向(図中の上下方向)に描かれる。縦配置画像には、このように道路の標示が一定の位置関係で描画されるため、これらの認識がしやすくなるという利点がある。ここでは、距離軸を縦に配置する例を示したが、横または斜めなど任意の方向に配置可能である。 For each road texture Tx20, since the position coordinate data at the time of shooting and the movement distance from the start of shooting are obtained (see the position measuring unit 110 in FIG. 1), the road texture on the distance axis is based on these data. Tx20 is arranged. The road surface texture Tx20 is arranged such that the representative point in the image is placed on the distance axis and the left-right symmetry axis is parallel to the distance axis. By doing so, it is possible to display a connected image in which the traveling direction is linearly extended in the vertical direction regardless of whether the path is curved. According to this connected image, as shown in the figure, the pedestrian crossing and the stop line are drawn in a direction perpendicular to the distance axis (left and right direction in the figure), and the lane boundary line is in a direction along the distance axis (up and down direction in the figure). Drawn in. In the vertically arranged image, road markings are drawn in a fixed positional relationship in this way, so that there is an advantage that these can be easily recognized. Here, an example is shown in which the distance axis is arranged vertically, but the distance axis can be arranged in any direction such as laterally or diagonally.
図19に戻り、ペイント認識処理について説明する。
縦配置処理が完了すると、CPUは横断関連ペイント抽出処理を行う(ステップS310)。これは、横断歩道、自転車横断帯、停止線など交差点近辺の標示を抽出する処理である。本実施例では、処理データ記憶部210に格納された縦配置画像を用い、そこに描かれた標示を画像処理で抽出するとともに、標示に含まれる線分の位置関係や長さなどに基づく条件判断によって標示の種別を判断するようにした。
Returning to FIG. 19, the paint recognition process will be described.
When the vertical arrangement process is completed, the CPU performs a crossing-related paint extraction process (step S310). This is a process of extracting signs in the vicinity of intersections such as pedestrian crossings, bicycle crossings, and stop lines. In the present embodiment, a vertically arranged image stored in the processing data storage unit 210 is used, and a sign drawn there is extracted by image processing, and conditions based on the positional relationship and length of line segments included in the sign are included. Judgment type is judged by judgment.
横断関連ペイント処理が終わると、CPUは各種ペイント抽出処理を行う(ステップS350)。この処理で抽出対象となる標示を図中に示した。
「境界線」とは、実線および破線などで描かれた車線境界線である。
「矢印」とは、交差点内の進行方向の規制を示すために、交差点付近で各車線に示されている矢印である。
「ゼブラ」とは、横断歩道とは異なり、中央分離帯や右左折用の車線が増える箇所などに標示されている縞模様である。
「Uターン」とは、Uターン禁止道路に描かれているU字形状の矢印である。
「転回禁止」とは、Uターンの矢印とともに描かれている×印である。
「規制」とは、通行規制の時刻標示等である。例えば、バスレーンなどの標示と併せて描かれる「17−19」の標示(17時〜19時であることを意味)のような通行態様の規制等である。
When the crossing-related paint process ends, the CPU performs various paint extraction processes (step S350). Indices to be extracted in this process are shown in the figure.
The “boundary line” is a lane boundary line drawn with a solid line or a broken line.
“Arrow” is an arrow shown in each lane in the vicinity of the intersection in order to indicate regulation of the traveling direction within the intersection.
Unlike a pedestrian crossing, the “zebra” is a striped pattern that is marked on the median strip or where there are more lanes for turning left and right.
“U-turn” is a U-shaped arrow drawn on a U-turn prohibited road.
“Turning prohibited” is a cross marked with a U-turn arrow.
“Regulation” means time marking of traffic regulation. For example, traffic mode restrictions such as a sign “17-19” (meaning from 17:00 to 19:00) drawn together with a sign such as a bus lane.
「数字」とは、速度規制などの数字である。
「横断歩道予告」とは、横断歩道手前に描かれている菱形の記号である。
「減速帯」とは、車速の減速を促すために、路面上にパスに直交する方向の線分をパスの進行方向に沿って平行に複数本配置することで描かれている縞模様である。
「路面塗装」は、急カーブその他の運転者の注意を喚起すべき箇所に対し、通行の安全のために施されている赤色等の舗装領域である。
「バスレーン文字」とは、バスレーンとして使用される車線に付される「バスレーン」という文字である。本実施例では、バスレーンを例示しているが、バスレーンに限らず、路面に標示される文字一般を対象としてもよい。
「終わり記号」とは、バスレーンなどの終了地点を示す「0」形状の記号である。
本実施例では、これらの標示を対象としているが、これらは例示に過ぎず、更に多くの標示を対象としてもよいし、この中の一部を抽出処理の対象外としても構わない。
The “number” is a number such as speed regulation.
“Pedestrian crossing notice” is a diamond-shaped symbol drawn in front of the pedestrian crossing.
The “deceleration zone” is a striped pattern drawn by arranging a plurality of line segments in a direction perpendicular to the path on the road surface in parallel along the traveling direction of the path in order to promote the deceleration of the vehicle speed. .
“Road surface painting” is a pavement area such as red, which is provided for safety of traffic at sharp curves and other places where the driver should be alerted.
The “bus lane character” is a character “bus lane” attached to a lane used as a bus lane. In the present embodiment, the bus lane is illustrated, but the present invention is not limited to the bus lane, and may be a general character displayed on the road surface.
The “end symbol” is a “0” -shaped symbol indicating an end point such as a bus lane.
In the present embodiment, these signs are targeted, but these are merely examples, and more signs may be targeted, and some of them may be excluded from the extraction process.
各種ペイント抽出処理(ステップS350)では、予め用意されたモデルを用いて、パターンマッチングを行う。本実施例では、人工モデル画像、OCRモデル画像の2種類を用いるものとした。これらのモデルは、予め処理データ記憶部210に記憶されている。
人工モデル画像とは、コンピュータグラフィックスによって生成されたモデルである。矢印、Uターン、転回禁止など、比較的単純な標示のマッチング用のモデルとして適している。
OCRモデル画像とは、撮影された画像から、オペレータが手作業で切り出した画像に基づいて生成されたモデルである。例えば、数字、バスレーンなどの複雑な形状をした標示のマッチング用のモデルとして適している。これらのモデルをコンピュータグラフィックスによって生成することも不可能ではないが、文字の形状を現実の道路標示に併せてモデルを生成するためには、結局、撮影した画像をトレース等する必要が生じるため、結果としてOCRモデルを利用しているのと大差ない。
In various paint extraction processes (step S350), pattern matching is performed using a model prepared in advance. In this embodiment, two types of artificial model images and OCR model images are used. These models are stored in the processing data storage unit 210 in advance.
An artificial model image is a model generated by computer graphics. It is suitable as a model for matching relatively simple markings such as arrows, U-turns, and turning prohibition.
An OCR model image is a model generated based on an image that is manually cut out by an operator from a captured image. For example, it is suitable as a model for matching signs having complicated shapes such as numbers and bus lanes. Although it is not impossible to generate these models by computer graphics, in order to generate a model by combining the shape of characters with actual road markings, it is necessary to trace the captured image after all. As a result, it is not much different from using the OCR model.
CPUは、以上の処理を直線状の連結画像単位で実行した後、絶対座標系に変換する相対座標変換処理(ステップS370)を行い、ペイント認識結果を処理データ記憶部210に格納して、ペイント認識処理を終了する。
認識されたペイントは、画像データとして格納してもよいが、併せて、種別と存在領域を格納してもよい。存在領域とは、認識されたペイントを包含する幾何形状を言う。例えば、横断歩道や自転車横断帯、矢印などに外接する矩形を存在領域として用いることができる。存在領域は重心位置および対角線長さで形状を表すようにしてもよいし、対角に位置する2つの頂点の座標値で表すようにしてもよい。存在領域は、矩形に限らず、種々の多角形や円形など任意の形状を利用することができる。
The CPU performs the above processing in units of linear connected images, and then performs relative coordinate conversion processing (step S370) for conversion to the absolute coordinate system, stores the paint recognition result in the processing data storage unit 210, and paints The recognition process ends.
The recognized paint may be stored as image data, but may also store a type and an existing area. The existence area refers to a geometric shape including the recognized paint. For example, a rectangle circumscribing a pedestrian crossing, a bicycle crossing band, an arrow, or the like can be used as the existence area. The existence region may be represented by a centroid position and a diagonal length, or may be represented by coordinate values of two vertices located diagonally. The existence area is not limited to a rectangle, and any shape such as various polygons and circles can be used.
(2)相対座標変換処理:
図21は相対座標変換処理の内容を示す説明図である。本実施例では、以上で説明した各種標示の認識結果は、全て距離軸に沿って路面テクスチャを配置した直線状の画像を用いて得られている。従って、認識結果は、この直線状の画像を表示する座標系における相対的な位置が取得されているに過ぎない。相対座標変換処理は、この相対的な位置を、撮影時の位置座標に対応する絶対座標系の位置に変換する処理である。
図の左側には、直線状の連結画像で標示を認識した状態を示している。ここでは、矩形の存在領域M391、M392を示した。これらの存在領域M391、M392の位置は、代表点としての重心G391、G392の位置座標で表される。この座標は、直線状の連結画像を表示するための座標系xn、ynで与えられる。この座標系xn、ynは、例えば、距離軸NP39をyn軸として定義することが好ましい。
(2) Relative coordinate conversion processing:
FIG. 21 is an explanatory diagram showing the contents of the relative coordinate conversion process. In the present embodiment, the recognition results of the various signs described above are all obtained using linear images in which road textures are arranged along the distance axis. Therefore, as a recognition result, only a relative position in the coordinate system displaying this linear image is acquired. The relative coordinate conversion process is a process of converting this relative position into an absolute coordinate system position corresponding to the position coordinate at the time of photographing.
The left side of the figure shows a state in which the sign is recognized by a linear connected image. Here, rectangular existence areas M391 and M392 are shown. The positions of these existence areas M391 and M392 are represented by the position coordinates of the centroids G391 and G392 as representative points. These coordinates are given by a coordinate system xn, yn for displaying a linear connected image. In the coordinate systems xn and yn, for example, the distance axis NP39 is preferably defined as the yn axis.
連結画像では、路面テクスチャTx39の代表点が、撮影時の位置に応じて、距離軸上に配置されている。各路面テクスチャTx39内の各点の代表点からの相対的な座標は既知である。従って、各存在領域の重心G391、G392の路面テクスチャTx39内での相対的な座標が求まるため、重心G391、G392から距離軸におろした垂線の足R391、R392の座標も求めることができる。
図の右側には、絶対座標系XYに変換した状態を示した。道路は直線とは限らないから、絶対座標系では、撮影時に取得された位置座標に従い、パスRP39は曲線状に描かれることもある。
In the connected image, the representative points of the road surface texture Tx39 are arranged on the distance axis according to the position at the time of shooting. The relative coordinates from the representative point of each point in each road surface texture Tx39 are known. Accordingly, since the relative coordinates within the road surface texture Tx39 of the centroids G391 and G392 of the respective existence regions are obtained, the coordinates of the perpendicular legs R391 and R392 taken from the centroids G391 and G392 on the distance axis can also be obtained.
The right side of the figure shows a state converted to the absolute coordinate system XY. Since the road is not necessarily a straight line, in the absolute coordinate system, the path RP39 may be drawn in a curved line according to the position coordinates acquired at the time of shooting.
各存在領域M391、M392の位置および向きは次の方法で求める。
まず、この曲線状のパスRP39の基準点からの距離に応じて、存在領域の垂線の足R391、R392のパスRP39上での位置を求め、点R391、R392から、それぞれ法線ベクトルV391、V392を描き、その終点を重心G391、G392とする。法線ベクトルV391、V392の大きさは、直線状の連結画像における点R391、G391間の距離、および点R392、G392間の距離にそれぞれ等しい。存在領域M391、M392の方向は、長手方向が法線ベクトルV391、V392と直交するように配置する。つまり、存在領域M391、M392と、重心G391、G392、および垂線の足R391、R392の相対的な位置関係が、直線状の連結画像(図の左側)と絶対座標系(図の右側)とで同一となるように、存在領域M391、M392を配置するのである。
この変換処理により、抽出された各標示の位置を絶対座標系の位置座標で表すことが可能となる。
The positions and orientations of the respective existence areas M391 and M392 are obtained by the following method.
First, according to the distance from the reference point of the curved path RP39, the positions of the perpendicular legs R391 and R392 on the path RP39 of the existing region are obtained, and the normal vectors V391 and V392 are obtained from the points R391 and R392, respectively. Is drawn, and the end points are set as the center of gravity G391 and G392. The magnitudes of the normal vectors V391 and V392 are equal to the distance between the points R391 and G391 and the distance between the points R392 and G392 in the linear connected image, respectively. The directions of the existence regions M391 and M392 are arranged so that the longitudinal direction is orthogonal to the normal vectors V391 and V392. In other words, the relative positional relationship between the existence areas M391, M392, the centroids G391, G392, and the perpendicular legs R391, R392 is expressed by a linear connected image (left side in the figure) and an absolute coordinate system (right side in the figure). The existence areas M391 and M392 are arranged so as to be the same.
By this conversion process, the position of each extracted sign can be expressed by the position coordinates of the absolute coordinate system.
C7.自動透明化ポリゴン生成処理:
(1)全体処理:
図22は自動透明化ポリゴン生成処理のフローチャートである。先に説明した透明化ポリゴン設定処理(図16参照)に相当する内容をCPUが自動的に実行する処理である。
この処理を開始すると、CPUは、処理対象となる道路画像、ペイント認識結果を入力する(ステップS400)。これらの結果は、処理データ記憶部210に格納されている。そして、CPUは、道路画像において、連結画像同士の重なりの有無を判定する(ステップS402)。
C7. Automatic transparency polygon generation processing:
(1) Overall processing:
FIG. 22 is a flowchart of automatic transparent polygon generation processing. This is a process in which the CPU automatically executes the contents corresponding to the transparent polygon setting process (see FIG. 16) described above.
When this process is started, the CPU inputs a road image to be processed and a paint recognition result (step S400). These results are stored in the processing data storage unit 210. Then, the CPU determines whether or not the connected images overlap in the road image (step S402).
図23は重なり判定の方法を示す説明図である。図中には、2つのパスRT231、RT232に沿って、それぞれ路面テクスチャTX231、TX232が配置され、道路画像が生成されている状態を示した。
これらの連結画像の重なりは、路面テクスチャTX231、TX232同士の重なりの有無を判定することによって、判定する方法を採ることも可能ではある。ただし、この場合には、パスRT231に配置される路面テクスチャTX231と、パスRT232に配置される路面テクスチャTX232の全ての組み合わせについて重なり判定を行うか、それぞれ位置座標が一定範囲内にある路面テクスチャ同士で重なり判定を行う必要がある。図示するようにパスRT231、RT232の連結画像同士が重なっている場合でも、全ての路面テクスチャTX231、TX232が相互に重なっている訳ではないからである。例えば、一番左側の路面テクスチャTX231と、一番右側の路面テクスチャTX232とは重なっていないことになる。従って、路面テクスチャ単位で、重なり判定をしようとすれば、上述した多数の組み合わせで重なりの有無を判定する必要があり、そのための処理も、判定結果の管理も非常に複雑となる。
FIG. 23 is an explanatory diagram showing a method for determining overlap. In the drawing, road surface textures TX231 and TX232 are arranged along two paths RT231 and RT232, respectively, and a road image is generated.
The overlapping of these connected images can be determined by determining whether or not the road surface textures TX231 and TX232 overlap each other. However, in this case, overlap determination is performed for all combinations of the road surface texture TX231 arranged in the path RT231 and the road surface texture TX232 arranged in the path RT232, or road surface textures whose position coordinates are within a certain range, respectively. It is necessary to perform overlap determination with This is because even when the connected images of the paths RT231 and RT232 overlap each other as shown in the drawing, not all the road surface textures TX231 and TX232 overlap each other. For example, the leftmost road surface texture TX231 and the rightmost road surface texture TX232 do not overlap. Therefore, if an overlap determination is to be made in units of road texture, it is necessary to determine whether or not there is an overlap with the above-mentioned many combinations, and the processing for that and the management of the determination results become very complicated.
本実施例では、次の方法により、重なり判定を容易に行えるようにした。
まず、CPUは、それぞれのパスRT231、RT232について、連結画像を包含するポリゴンを設定する。図中の例では、パスRT231については、それぞれの路面テクスチャTX231の両端の頂点P23を求め、これらを線分で結ぶことによって、連結画像を包含するポリゴンA231を設定する。
同様にして、パスRT232については、それぞれの路面テクスチャTX232の両端の頂点Q23を求め、これらを線分で結ぶことによって、連結画像を包含するポリゴンA232を設定する。
そして、このようにして設定されたポリゴンA231、A232同士の重なりの有無を判定する。ポリゴン同士の重なりの有無は、種々の方法によって判定可能であるため、ここでは詳細な説明は省略する。
In this embodiment, the overlap determination can be easily performed by the following method.
First, the CPU sets a polygon that includes a connected image for each of the paths RT231 and RT232. In the example in the figure, for the path RT231, the vertexes P23 at both ends of each road surface texture TX231 are obtained, and these are connected by line segments to set a polygon A231 that includes a connected image.
Similarly, for the path RT232, vertices Q23 at both ends of each road texture TX232 are obtained, and these are connected by line segments to set a polygon A232 that includes a connected image.
Then, it is determined whether or not the polygons A231 and A232 set in this way are overlapped. Since the presence / absence of overlapping of polygons can be determined by various methods, detailed description thereof is omitted here.
図22に戻り、自動透明化ポリゴン生成処理について説明する。
CPUは、図23で説明した方法によって、ポリゴンA231、A232の重なりの有無に応じて、ステップS404を判定することができる。連結画像同士が重なっていない場合には(ステップS404)、透明化ポリゴンを設定する必要はないため、CPUは自動透明化ポリゴン生成処理を終了する。
連結画像同士が重なっている場合には(ステップS404)、CPUは、優先パスを決定する(ステップS406)。優先パスとは、複数のパスのうち路面画像が最も良好なパスを言い、複数のパスの連結画像を重ねる際に最も上に位置するパスを言う。優先パスは、任意の方法で設定可能である。例えば、道路画像の合成時に基準パスとされたものを、無条件に優先パスと扱うようにしてもよい。また、それぞれの連結画像に含まれているペイント(路面標示)の数または面積が多いものを優先パスとしてもよい。
Returning to FIG. 22, the automatic transparency polygon generation processing will be described.
The CPU can determine step S404 according to whether or not the polygons A231 and A232 overlap each other by the method described with reference to FIG. If the connected images do not overlap (step S404), there is no need to set a transparent polygon, so the CPU ends the automatic transparent polygon generation process.
If the connected images overlap (step S404), the CPU determines a priority path (step S406). The priority path refers to a path having the best road image among a plurality of paths, and refers to a path positioned at the top when overlapping connected images of a plurality of paths. The priority path can be set by any method. For example, a reference path that is used when a road image is synthesized may be unconditionally handled as a priority path. In addition, a path with a large number or area of paint (road markings) included in each connected image may be used as the priority path.
こうして優先パスを決定すると、CPUは、ルート領域を設定する(ステップS408)。ルート領域とは、連結画像のうち、両端のギザギザ部分を除いた領域、つまり、パスに沿う方向の縁線に鋭角的に折れ曲がる部分が存在しない滑らかな状態となる領域を言う。ステップS408は、連結画像に対して、ルート領域を定義づける処理であり、両端のギザギザ領域を削除する処理ではない。
図24はルート領域の設定方法を示す説明図である。パスに沿って、路面テクスチャTa24〜Tf24が配置されている状態を示した。路面テクスチャTa24は頂点Pa1〜Pa4からなる台形である。同様にして、路面テクスチャTb24、Td24、Te24、Tf24は、頂点Pb1〜Pb4、Pd1〜Pd4、Pe1〜Pe4、Pf1〜Pf4からなる台形である。図示の煩雑化を避けるため、路面テクスチャTc24の頂点の符号は省略した。
When the priority path is determined in this way, the CPU sets a route area (step S408). The root region refers to a region in the connected image excluding the jagged portions at both ends, that is, a region that is in a smooth state where there is no portion that is bent acutely at the edge line in the direction along the path. Step S408 is a process of defining the root area for the connected image, and is not a process of deleting the jagged areas at both ends.
FIG. 24 is an explanatory diagram showing a route area setting method. The state where road surface textures Ta24 to Tf24 are arranged along the path is shown. The road surface texture Ta24 is a trapezoid composed of vertices Pa1 to Pa4. Similarly, the road surface textures Tb24, Td24, Te24, and Tf24 are trapezoids including vertices Pb1 to Pb4, Pd1 to Pd4, Pe1 to Pe4, and Pf1 to Pf4. In order to avoid complication of illustration, the symbol of the vertex of the road surface texture Tc24 is omitted.
CPUは、路面テクスチャTa24の下底Pa1−Pa4と、路面テクスチャTb24の斜辺Pb1−Pb2、Pb4−Pb3との交点P1、Q1を求める。同様に、路面テクスチャTb24とTc24の交点P2,Q2、路面テクスチャTd24とTe24の交点P3、Q3も求めることができる。
路面テクスチャTe24とTf24との交点は、P4、Q4である。しかし、交点P4は路面テクスチャTf24の斜辺Pf1−Pf2の交点であるが、交点Q4は上底Pf2−Pf3との交点である。本実施例では、ルート領域の設定では、路面テクスチャの斜辺との交点を用いるものとするため、交点Q4は採用外とした。
CPUは、こうして得られた交点P1、P2…、P3、P4およびQ1、Q2,…Q3を結ぶことによって、図中に太線で示すルート領域RTA24を設定する。
ルート領域はこの例に限らず、種々の設定が可能であり、斜辺以外の辺との交点(図中の点Q4)を用いてルート領域を設定するようにしてもよい。
The CPU obtains intersections P1, Q1 between the lower base Pa1-Pa4 of the road texture Ta24 and the oblique sides Pb1-Pb2, Pb4-Pb3 of the road texture Tb24. Similarly, the intersection points P2 and Q2 of the road surface textures Tb24 and Tc24 and the intersection points P3 and Q3 of the road surface textures Td24 and Te24 can be obtained.
The intersections of the road texture Te24 and Tf24 are P4 and Q4. However, the intersection point P4 is an intersection point of the oblique sides Pf1-Pf2 of the road surface texture Tf24, but the intersection point Q4 is an intersection point with the upper base Pf2-Pf3. In this embodiment, since the intersection with the oblique side of the road surface texture is used in setting the route area, the intersection Q4 is not adopted.
The CPU establishes a route area RTA24 indicated by a bold line in the figure by connecting the intersections P1, P2,..., P3, P4 and Q1, Q2,.
The route area is not limited to this example, and various settings are possible, and the route area may be set using an intersection (point Q4 in the figure) with a side other than the oblique side.
図22に戻り自動透明化ポリゴン生成処理について説明する。
ルート領域設定が完了すると(ステップS408)、CPUはペイント用透明化ポリゴン設定処理を行う(ステップS410)。これは、連結画像内のペイント(路面標示)の重なり状態に基づいて透明化ポリゴンの設定要否を判断するとともに、その位置および形状を設定する処理である。ペイント用透明化ポリゴン設定処理の内容は後で詳述する。
そして、CPUは次に、ギザギザカット処理(ステップS430)を行う。この処理は、連結画像の両端のギザギザ領域を非表示とするように透明化ポリゴンを設定する処理である。処理内容については、後で詳述する。
こうして透明化ポリゴンが設定されると、CPUは、設定された透明化ポリゴンの結合処理を行う(ステップS450)。これは、複数の透明化ポリゴンのうち、重なる物同士を結合する処理である。この処理を行うことにより、透明化ポリゴンの数を減らすことができ、その容量を削減することが可能となる。
以下、ペイント用透明化ポリゴン設定処理(ステップS410)、ギザギザカット処理(ステップS430)、透明化ポリゴン結合処理(ステップS450)について順次説明する。
Returning to FIG. 22, the automatic transparency polygon generation processing will be described.
When the route area setting is completed (step S408), the CPU performs a paint transparent polygon setting process (step S410). This is a process of determining whether or not to set the transparent polygon based on the overlapping state of the paint (road marking) in the connected image and setting its position and shape. The details of the transparent polygon setting process for painting will be described later.
Next, the CPU performs a jagged cut process (step S430). This process is a process of setting the transparent polygon so as to hide the jagged areas at both ends of the connected image. The processing contents will be described in detail later.
When the transparent polygon is set in this way, the CPU performs a combination process of the set transparent polygon (step S450). This is a process of combining overlapping objects among a plurality of transparent polygons. By performing this process, the number of transparent polygons can be reduced, and the capacity thereof can be reduced.
Hereinafter, the paint transparent polygon setting process (step S410), the jagged cut process (step S430), and the transparent polygon combination process (step S450) will be sequentially described.
(2)ペイント用透明化ポリゴン設定処理:
図25はペイント用透明化ポリゴン設定処理のフローチャートである。自動透明化ポリゴン生成処理(図22)のステップS410に相当する処理である。この処理では、CPUは、各連結画像のペイント認識結果に基づいて、透明化ポリゴンの設定の要否の判断、およびその位置、形状の設定を行う。
まず、CPUは、道路画像において下側に配置されているパス、即ち優先パス以外のパスから、優先パスとの重なり領域内に存在するペイントを処理対象ペイントとして抽出する(ステップS411)。また、優先パスの重なり領域に存在するペイントから、重なりペイントを抽出する(ステップS412)。重なりペイントとは、優先パスに含まれるペイントのうち、処理対象ペイントと同一種別のペイントであって、処理対象ペイントに一部でも重なるペイントを言う。
(2) Transparent polygon setting process for paint:
FIG. 25 is a flowchart of the transparent polygon setting process for painting. This process corresponds to step S410 in the automatic transparency polygon generation process (FIG. 22). In this process, the CPU determines whether or not to set a transparent polygon and sets its position and shape based on the paint recognition result of each connected image.
First, the CPU extracts, as a processing target paint, paint existing in the overlapping area with the priority path from the paths arranged on the lower side in the road image, that is, paths other than the priority path (step S411). In addition, the overlapping paint is extracted from the paint existing in the overlapping area of the priority path (step S412). The overlapping paint is a paint of the same type as the processing target paint among the paints included in the priority path, and it overlaps at least partially with the processing target paint.
本実施例では、処理対象ペイントおよび優先ペイントは、上下のパスの重なり領域から抽出する。重なり領域以外ではペイントが他の連結画像によって覆い隠されることがないため、透明化ポリゴンの設定は不要だからである。また、上側の連結画像しか存在しない領域のペイントを処理対象として抽出し、ここに誤って透明化ポリゴンが設定されることがあると、上側の連結画像が透過されてしまうため、一部が欠落した状態の道路画像が生成されてしまうからである。
本実施例では、重なりペイントの抽出を、処理対象ペイントと同一種別のペイントに限定したが、ペイントの種別を問わず、重なり合うものを抽出するようにしてもよい。
重なりペイントが抽出されている場合には(ステップS413)、処理対象ペイントと重なりペイントの面積を比較する(ステップS414)。重なりペイントの方が大きい場合には(ステップS414)、CPUは、道路画像には重なりペイントを表示すべきと判断する。重なりペイントは優先パスに存在するから、透明化ポリゴンは不要と判断する。
In the present embodiment, the processing object paint and the priority paint are extracted from the overlapping region of the upper and lower paths. This is because the setting of the transparent polygon is unnecessary because the paint is not obscured by other connected images except in the overlapping region. Also, if the paint of the area where only the upper connected image exists is extracted as the processing target, and the transparent polygon may be mistakenly set here, the upper connected image will be transmitted, so some will be missing This is because the road image in the state is generated.
In this embodiment, the extraction of the overlapping paint is limited to the same type of paint as the processing target paint, but the overlapping paint may be extracted regardless of the type of paint.
If the overlapping paint has been extracted (step S413), the areas of the processing object paint and the overlapping paint are compared (step S414). If the overlapping paint is larger (step S414), the CPU determines that the overlapping paint should be displayed on the road image. Since the overlapping paint exists in the priority path, it is determined that the transparent polygon is unnecessary.
これに対し、重なりペイントが存在しない場合(ステップS413)、または重なりペイントの面積の方が処理対象ペイントよりも小さい場合(ステップS414)には、CPUは、下側に存在するペイントを道路画像に表示すべきと判断する。従って、処理対象ペイントを表示できるように、その位置および形状に基づいて透明化ポリゴンを設定する(ステップS415)。
CPUは、以上の処理を、全ての処理対象ペイントおよび全パスについて実行し(ステップS416)、ペイント用透明化ポリゴン設定処理を終了する。
On the other hand, when there is no overlapping paint (step S413), or when the area of the overlapping paint is smaller than the processing target paint (step S414), the CPU uses the paint existing below as a road image. Judge that it should be displayed. Therefore, the transparent polygon is set based on the position and shape so that the processing target paint can be displayed (step S415).
The CPU executes the above processing for all the processing target paints and all the passes (step S416), and ends the paint transparent polygon setting processing.
図26はペイント用透明化ポリゴンの設定例(1)を示す説明図である。
図26(a)は、下側の路面テクスチャTX26に、優先パスのルート領域OR26を重ねた状態を示している。ルート領域OR26には、ペイントとして破線の車線境界線L261、L262が含まれている。下側の路面テクスチャTX26には、進行方向の規制を示す矢印A26が含まれている。
下側の路面テクスチャTX26からは、矢印A26が処理対象ペイントとして抽出される。これに重なり合うペイントは存在しないため、ルート領域OR26からは、重なりペイントは抽出されない。従って、重なりペイントが存在しないため(図25のステップ413)、透明化ポリゴンを設定すべきと判断される。この結果、CPUは矢印A26を包含する矩形状の透明化ポリゴンR26を設定する。
FIG. 26 is an explanatory diagram showing a setting example (1) of the transparent polygon for paint.
FIG. 26A shows a state in which the route area OR26 of the priority path is overlaid on the lower road surface texture TX26. The route area OR26 includes dashed lane boundary lines L261 and L262 as paint. The lower road surface texture TX26 includes an arrow A26 indicating the restriction of the traveling direction.
From the lower road surface texture TX26, an arrow A26 is extracted as a processing target paint. Since there is no overlapping paint there, no overlapping paint is extracted from the root region OR26. Therefore, since there is no overlapping paint (step 413 in FIG. 25), it is determined that a transparent polygon should be set. As a result, the CPU sets a rectangular transparent polygon R26 including the arrow A26.
透明化ポリゴンR26は、種々の方法で設定可能である。本実施例では、矢印A26の存在領域を用いるものとした。本実施例では、ペイントを認識する際に、ペイントを包含する幾何形状である存在領域の形で、サイズおよび位置を出力している。そこで本実施例では、存在領域を数割、拡大した形状を、透明化ポリゴンとして用いている。こうすれば、ペイントに適合した位置およびサイズの透明化ポリゴンを比較的容易に設定することができる。
透明化ポリゴンは、この他、例えば、ペイントの輪郭を抽出し、抽出された形状を、数割、拡大することで、生成してもよい。
The transparent polygon R26 can be set by various methods. In this embodiment, the region where the arrow A26 exists is used. In this embodiment, when recognizing a paint, the size and position are output in the form of an existing area that is a geometric shape including the paint. Therefore, in this embodiment, a shape obtained by dividing the existence area by several percent and using it as the transparent polygon is used. In this way, a transparent polygon having a position and size suitable for painting can be set relatively easily.
In addition to this, the transparent polygon may be generated, for example, by extracting the outline of the paint and enlarging the extracted shape by several percent.
図26(b)は、存在領域の拡大方法(1)を示す説明図である。図の煩雑化を避けるため、図26(a)の路面テクスチャTx26に代えて、下側もルート領域UR26の形で表した。
本実施例では、透明化ポリゴンは、存在領域を予め設定された拡大率で拡大することによって設定する。ただし、拡大した結果、透明化ポリゴンが、付近に存在する車線境界線L261、L262にかぶさってしまうと、車線境界線L261、L262が透過されてしまうことになる。そこで、拡大した透明化ポリゴンが付近に存在する他のペイントにかぶさる時には、図26(b)の透明化ポリゴンR262に示すように、CPUは、他のペイント(図の例では、車線境界線L261、L262)にかぶさらないように、パスに沿う方向または幅方向の拡大率を抑制する。図26(b)は、車線境界線L261にかぶらないよう、幅方向の拡大率を抑制した例を示している。
FIG. 26B is an explanatory diagram showing a method (1) for expanding an existing area. In order to avoid complication of the figure, the lower side is represented in the form of the route area UR26 instead of the road surface texture Tx26 of FIG.
In this embodiment, the transparent polygon is set by enlarging the existing area at a preset enlargement ratio. However, as a result of the enlargement, if the transparent polygon covers the lane boundary lines L261 and L262 existing in the vicinity, the lane boundary lines L261 and L262 are transmitted. Therefore, when the enlarged transparent polygon is covered with another paint in the vicinity, as shown by the transparent polygon R262 in FIG. 26B, the CPU performs other paint (lane boundary line L261 in the example in the figure). , L262), the enlargement factor in the direction along the path or in the width direction is suppressed. FIG. 26B shows an example in which the enlargement ratio in the width direction is suppressed so as not to get over the lane boundary line L261.
図26(c)は、存在領域の拡大方法(2)を示す説明図である。本実施例では、上側および下側のルート領域の重なる範囲内で透明化ポリゴンを設定するものとした。上側のルート領域しか存在しない領域に透明化ポリゴンを設定すると、下側の画像が存在しないおそれがあり、道路画像の一部が欠落した状態になってしまうおそれがあるからである。
そこで、存在領域を拡大した結果、下側のルート領域UR26の境界線を超える可能性がある場合には、図26(c)の透明化ポリゴンR263に示すように、パスに沿う方向または幅方向の拡大率を抑制する。こうすることによって、ルート領域の重なり領域内で、透明化ポリゴンを設定することができる。
FIG. 26C is an explanatory diagram showing a method (2) for enlarging an existing area. In this embodiment, the transparent polygon is set within the overlapping range of the upper and lower root areas. This is because if the transparent polygon is set in a region where only the upper route region exists, there is a possibility that the lower image does not exist and a part of the road image may be lost.
Therefore, when there is a possibility of exceeding the boundary line of the lower route area UR26 as a result of enlarging the existence area, as shown in the transparent polygon R263 in FIG. Suppresses the expansion rate. In this way, a transparent polygon can be set within the overlapping area of the root area.
図27はペイント用透明化ポリゴンの設定例(2)を示す説明図である。
図27(a)には、下側のパスに沿った路面テクスチャTx272と、上側のパスに沿った路面テクスチャTx271を示した。下側には車線境界線L272が含まれており、上側には車線境界線L271が含まれている。これらは同種のペイントであり、重なり合っている。従って、ペイント用透明化ポリゴン設定処理(図25)では、下側の車線境界線L272が処理対象ペイント、上側の車線境界線L271が重なりペイントとして抽出される(図25のステップS411、S412)。
重なりペイントがある場合には、下側の面積が大きい時に透明化ポリゴンが設定される(図25のステップS415)。図27の例では、下側の車線境界線L272の方が面積が大きいため、ここに透明化ポリゴンを設定する。上側の車線境界線L271の面積が小さいのは、一部が欠けて認識されていることが原因と考えられるからである。このように透明化ポリゴンを設定することにより、道路画像では、車線境界線L272が表示されるため、より現実に近い形で正確なペイントを表示することが可能となる。
FIG. 27 is an explanatory view showing a setting example (2) of the transparent polygon for paint.
FIG. 27A shows a road surface texture Tx272 along the lower path and a road surface texture Tx271 along the upper path. A lane boundary line L272 is included on the lower side, and a lane boundary line L271 is included on the upper side. These are the same kind of paint and overlap. Therefore, in the paint transparent polygon setting process (FIG. 25), the lower lane boundary line L272 is extracted as the processing target paint, and the upper lane boundary line L271 is extracted as the overlapping paint (steps S411 and S412 in FIG. 25).
If there is overlapping paint, a transparent polygon is set when the lower area is large (step S415 in FIG. 25). In the example of FIG. 27, since the lower lane boundary line L272 has a larger area, a transparent polygon is set here. The reason why the area of the upper lane boundary line L271 is small is that a part of the area is recognized as being missing. By setting the transparent polygon in this way, the lane boundary line L272 is displayed in the road image, so that it is possible to display accurate paint in a more realistic form.
図27(b)には、透明化ポリゴンTP27の設定例を示した。ここでも、下側の車線境界線L272の存在領域を拡大して透明化ポリゴンTP27を設定する。
まず、上側のルート領域OR27に存在する他のペイント(図の例では、矢印A27)にかぶらないように、存在領域の拡大率を抑制する。図の例では、車線境界線L272よりも上側で幅方向の拡大率を抑制している。下方向には他のペイントが存在しないため、透明化ポリゴンTP27は、一例として、下側のルート領域UR27の境界まで拡大した状態を示したが、下方向の拡大率も、車線境界線L272を確実に表示できる範囲で設定すれば足りる。
パスに沿う方向(図の左右方向)は、上側のルート領域OR27と下側のルート領域UR27との重なり範囲からはみ出さないように拡大率を決めている。上側のルート領域OR27が、図示した範囲で切れているとすると、図示するように、透明化ポリゴンTP27の左側がルート領域OR27の境界からはみ出さないように拡大率が制限されることになる。
FIG. 27B shows a setting example of the transparent polygon TP27. Again, the transparent polygon TP27 is set by enlarging the existence area of the lower lane boundary line L272.
First, the enlargement ratio of the existing area is suppressed so as not to cover other paint (arrow A27 in the example in the figure) existing in the upper root area OR27. In the example of the figure, the enlargement ratio in the width direction is suppressed above the lane boundary line L272. Since there is no other paint in the downward direction, the transparent polygon TP27 has been shown as an example expanded to the boundary of the lower route region UR27. However, the downward expansion rate also shows the lane boundary line L272. It is sufficient to set within the range that can be displayed reliably.
In the direction along the path (the left-right direction in the figure), the enlargement ratio is determined so as not to protrude from the overlapping range of the upper route region OR27 and the lower route region UR27. Assuming that the upper root area OR27 is cut out in the illustrated range, the enlargement ratio is limited so that the left side of the transparent polygon TP27 does not protrude from the boundary of the root area OR27, as illustrated.
図28はペイント用透明化ポリゴンの設定例(3)を示す説明図である。
図28(a)には、下側のパスに沿った路面テクスチャTx282と、上側のパスに沿った路面テクスチャTx281を示した。下側には横断歩道CR282が含まれており、上側には横断歩道CR281が含まれている。これらは同種のペイントであり、重なり合っている。従って、ペイント用透明化ポリゴン設定処理(図25)では、下側の横断歩道CR282が処理対象ペイント、上側の横断歩道CR281が重なりペイントとして抽出される(図25のステップS411、S412)。
重なりペイントがある場合には、下側の面積が大きい時に透明化ポリゴンが設定される(図25のステップS415)。図28の例では、下側の横断歩道CR282の方が面積が大きいため、ここに透明化ポリゴンを設定する。
FIG. 28 is an explanatory view showing a setting example (3) of the transparent polygon for paint.
FIG. 28A shows a road texture Tx282 along the lower path and a road texture Tx281 along the upper path. The lower side includes a pedestrian crossing CR282, and the upper side includes a pedestrian crossing CR281. These are the same kind of paint and overlap. Accordingly, in the paint transparent polygon setting process (FIG. 25), the lower pedestrian crossing CR282 is extracted as the processing target paint, and the upper pedestrian crossing CR281 is extracted as the overlapping paint (steps S411 and S412 in FIG. 25).
If there is overlapping paint, a transparent polygon is set when the lower area is large (step S415 in FIG. 25). In the example of FIG. 28, since the lower crosswalk CR282 has a larger area, a transparent polygon is set here.
図28(b)には、透明化ポリゴンTP28の設定例を示した。ここでも、下側の横断歩道CR282の存在領域を拡大して透明化ポリゴンTP28を設定する。
他の例と同様、透明化ポリゴンTP28は、下側のルート領域UR28からはみ出さない範囲で設定する。透明化ポリゴンTP28は、上側の横断歩道CR281を透過させることが目的のため、拡大率は、図示するように、横断歩道CR281を包含するように設定することが好ましい。
FIG. 28B shows a setting example of the transparent polygon TP28. Also here, the transparent polygon TP28 is set by enlarging the existence area of the lower crosswalk CR282.
As in the other examples, the transparent polygon TP28 is set in a range that does not protrude from the lower root area UR28. Since the transparent polygon TP28 is intended to transmit the upper pedestrian crossing CR281, the enlargement ratio is preferably set so as to include the pedestrian crossing CR281 as illustrated.
(3)ギザギザカット処理:
図29はギザギザカット処理のフローチャートである。自動透明化ポリゴン生成処理(図22)のステップS430に相当する処理である。
ギザギザカット処理とは、連結画像の両端ののこぎり刃状のギザギザ部分に透明化ポリゴンを設定する処理である。但し、本実施例では、上側、下側の連結画像の全てのギザギザ部分に透明化ポリゴンを設定するのではなく、両者が重なっている部分のみに設定するものとした。他の連結画像が存在しない部分(連結画像が重なり合っていない部分)に設定しても、画像の一部を削除するに過ぎず、連結画像に含まれるペイントを有効活用を図ることはできないからである。
(3) Jagged cut processing:
FIG. 29 is a flowchart of the jagged cut processing. This process corresponds to step S430 in the automatic transparency polygon generation process (FIG. 22).
The jagged cut process is a process for setting a transparent polygon to a saw-toothed jagged portion at both ends of a connected image. However, in this embodiment, the transparent polygons are not set for all the jagged portions of the upper and lower connected images, but are set only for the overlapping portions. Even if it is set to a part where there is no other connected image (a part where the connected images do not overlap), only a part of the image is deleted, and the paint contained in the connected image cannot be used effectively. is there.
処理を開始すると、CPUは優先パスのルート領域の側線を読み込む(ステップS431)。図中に処理例を示した。優先パスの路面テクスチャTx291に対し、太線で示す矩形のルート領域が設定されているとする。ルート領域は、先に図24で説明した方法で設定することができる。
側線とは、ルート領域の境界線のうち、パスに沿う方向の境界線を言う。図の例では、CPUは側線SL291、SL292を読み込むことになる。
When the process is started, the CPU reads the side line of the route area of the priority path (step S431). An example of processing is shown in the figure. It is assumed that a rectangular route region indicated by a thick line is set for the road texture Tx291 of the priority path. The root area can be set by the method described above with reference to FIG.
The side line refers to a boundary line in the direction along the path among the boundary lines of the route region. In the illustrated example, the CPU reads the side lines SL291 and SL292.
次に、CPUは、ステップS431で抽出した2本の側線のうち、下側のパスのルート領域に含まれる側線を選択する(ステップS432)。図中に処理例を示した。
図中には、上側の路面テクスチャTx291、下側の路面テクスチャTx292、および下側のルート領域UR29を示した。優先パスから抽出された2本の側線SL291、SL292のうち、下側のルート領域UR29に含まれるのは、側線SL292であるため、これが選択される。
Next, the CPU selects a side line included in the route area of the lower path from the two side lines extracted in step S431 (step S432). An example of processing is shown in the figure.
In the figure, an upper road surface texture Tx291, a lower road surface texture Tx292, and a lower route area UR29 are shown. Of the two side lines SL291 and SL292 extracted from the priority path, the lower route area UR29 includes the side line SL292, which is selected.
CPUは、こうして選択した側線を外側へオフセットすることで透明化ポリゴンを設定する(ステップS433)。
図中に処理例を示した。図は上側の路面テクスチャTx291を示している。図の煩雑化を回避するため、下側の路面テクスチャは図示を省略した。CPUは、選択された側線SL292を、矢印A29で示すように外側に移動することによって、透明化ポリゴンTP29を生成することができる。
外側への移動量は、任意に設定可能である。例えば、側線292と上側の路面テクスチャTx291とが交差しなくなるまで平行移動させてもよい。この場合には、ギザギザ部分を確実に透過させるため、交差しなくなった後、所定幅だけ余分に移動させて、透明化ポリゴンTP29を設定することが好ましい。
また別の態様として、側線292を、他のペイントにかぶさるまで、または下側のルート領域の境界を超えるまで、移動させる方法をとってもよい。
The CPU sets the transparent polygon by offsetting the selected side line to the outside (step S433).
An example of processing is shown in the figure. The figure shows the upper road surface texture Tx291. In order to avoid complication of the drawing, the illustration of the lower road surface texture is omitted. The CPU can generate the transparent polygon TP29 by moving the selected side line SL292 outward as indicated by the arrow A29.
The amount of outward movement can be set arbitrarily. For example, the side line 292 and the upper road surface texture Tx291 may be translated until they no longer intersect. In this case, it is preferable to set the transparent polygon TP29 by moving it by a predetermined width after it has not crossed in order to ensure that the jagged portion is transmitted.
As another aspect, a method may be used in which the side line 292 is moved until it is covered with another paint or exceeds the boundary of the lower root area.
これらの方法によって、ギザギザ部分に透明化ポリゴンを設定することができる。連結画像を構成する正射画像を生成するための画像変換では、画像の側端に行くほど歪みの影響を受けやすい。また、ギザギザ部分は、その下側の連結画像に含まれるペイントを分断してしまうことがある。本実施例のように、側端のギザギザ部分を設定すれば、こうした領域を比較的容易に除去することができ、下側の連結画像の標示を有効活用することが可能となる。 By these methods, a transparent polygon can be set at a jagged portion. In image conversion for generating an orthographic image constituting a connected image, it is more susceptible to distortion as it goes to the side edge of the image. In addition, the jagged portion may divide the paint included in the lower linked image. If a jagged portion at the side edge is set as in the present embodiment, such a region can be removed relatively easily, and it is possible to effectively utilize the indication of the lower connected image.
(4)透明化ポリゴン結合処理:
図30は透明化ポリゴン結合処理の内容を示す説明図である。透明化ポリゴン結合処理とは、自動透明化ポリゴン生成処理(図22)のステップS450に相当する処理である。
図30(a)には、下側の路面テクスチャTx302、上側の路面テクスチャTx301、および透明化ポリゴンTP301〜TP303を示している。透明化ポリゴンは、このように複数設定されることがある。この例では、透明化ポリゴンTP301、TP302は一部で重なりあっている。
(4) Transparent polygon combination processing:
FIG. 30 is an explanatory diagram showing the contents of the transparent polygon combining process. The transparent polygon combining process is a process corresponding to step S450 of the automatic transparent polygon generation process (FIG. 22).
FIG. 30A shows a lower road surface texture Tx302, an upper road surface texture Tx301, and transparent polygons TP301 to TP303. A plurality of transparent polygons may be set in this way. In this example, the transparent polygons TP301 and TP302 partially overlap each other.
このように設定されている場合、3つの透明化ポリゴンTP301〜TP303を、それぞれ設定結果として出力するようにしてもよい。
しかし、一部が重なっている場合には、これらの透明化ポリゴンを一つのポリゴンとして結合することにより、透明化ポリゴンの数を減らすことができ、データ容量を削減することができる。
図30(b)には、透明化ポリゴン結合処理を施した例を示している。図30(a)における透明化ポリゴンTP301、TP302が結合され、一つの透明化ポリゴンTP304となっている。ポリゴンの結合は、周知の種々の方法で行うことが可能であるため、説明を省略する。
When set in this way, the three transparent polygons TP301 to TP303 may be output as setting results.
However, if some of them overlap, the number of transparent polygons can be reduced by combining these transparent polygons as a single polygon, and the data capacity can be reduced.
FIG. 30B shows an example in which the transparent polygon combining process is performed. The transparent polygons TP301 and TP302 in FIG. 30A are combined to form one transparent polygon TP304. Since the polygons can be combined by various known methods, description thereof is omitted.
(5)処理例:
図31は透明化ポリゴンの設定例を示す説明図である。
図31(a)は、下側のパスNP31、上側のパスBP31の連結画像を示した。図の例では、領域B31に示すように、上側のパスBP310の路面テクスチャ側端のギザギザ部分が表れており、道路画像の画質を損ねている。また、領域A31に示すように、破線の車線境界線が、上側のギザギザ部分で分断されている。
(5) Processing example:
FIG. 31 is an explanatory view showing an example of setting a transparent polygon.
FIG. 31A shows a concatenated image of the lower path NP31 and the upper path BP31. In the example of the figure, as shown in a region B31, a jagged portion at the road texture side end of the upper path BP310 appears, and the image quality of the road image is impaired. Moreover, as shown to area | region A31, the broken lane boundary line is parted by the upper jagged part.
図31(b)は、透明化ポリゴンの設定例を示している。上側のギザギザ部分を透過するように、ラインL313、L314で挟まれる間に透明化ポリゴンを設定した。また、下側の連結画像が他の連結画像に重なっている場合には、ラインL311、L312で挟まれる部分に透明化ポリゴンを設定することもできる。本実施例では、上側と下側の連結画像が重なり合っている範囲で透明化ポリゴンを設定するため、ラインL311、L312の間には、透明化ポリゴンは設定していない。
図31(c)は、透明化ポリゴンを設定した結果の表示例である。図31(a)との比較で分かる通り、上側のパスのギザギザ部分の表示が消え、路面画像の見栄えが向上している。また、分断されていた車線境界線では、ギザギザ部分が透過される結果、下側の連結画像の車線境界線のみが分断されることなく、明瞭に表示されることになる。
FIG. 31B shows a setting example of the transparent polygon. The transparent polygon was set while being sandwiched between the lines L313 and L314 so as to pass through the upper jagged portion. Further, when the lower connected image overlaps with another connected image, a transparent polygon can be set in a portion sandwiched between the lines L311 and L312. In this embodiment, since the transparent polygon is set in the range where the upper and lower connected images overlap, no transparent polygon is set between the lines L311 and L312.
FIG. 31C shows a display example of the result of setting the transparent polygon. As can be seen from comparison with FIG. 31 (a), the jagged portion of the upper path disappears and the appearance of the road surface image is improved. Further, as a result of the jagged portion being transmitted through the divided lane boundary line, only the lane boundary line of the lower connected image is clearly displayed without being divided.
D.効果:
以上で説明した実施例の道路面撮影システム100および路面標示地図生成装置200によれば、道路を走行しながら取得したフレーム画像を正射変換して得られた路面テクスチャを配置することにより、走行軌跡(パス)に沿って位置精度のよい連結画像を得ることができる。更に、複数のパスに沿って得られた連結画像同士を、位置合わせして合成することにより、道路全体の路面画像を得ることができる。この際、画像を撮影した際の各パスの位置精度が最も高いものを基準パスとして、他のパスをこの基準パスに合わせる方法を採ることにより、全体の位置精度を確保しつつ路面画像を生成することができる。
本実施例では、各パスの連結画像は、路面テクスチャを配置するまでに留め、これらを一枚の画像として合成していない。従って、路面テクスチャ単位で配置を平行移動することによって、複数パスの連結画像を容易に合成可能である。
D. effect:
According to the road surface photographing system 100 and the road marking map generating device 200 of the embodiment described above, the road surface texture obtained by orthogonal transformation of the frame image acquired while traveling on the road is arranged, thereby driving. A connected image with high positional accuracy can be obtained along a trajectory (path). Furthermore, a road surface image of the entire road can be obtained by aligning and synthesizing connected images obtained along a plurality of paths. At this time, a road surface image is generated while ensuring the overall position accuracy by adopting a method that uses the path with the highest position accuracy of each path when taking an image as a reference path and aligning other paths with this reference path. can do.
In the present embodiment, the connected images of the respective paths are limited until the road surface texture is arranged, and these are not combined as a single image. Therefore, it is possible to easily synthesize a multi-pass connected image by translating the arrangement in units of road surface texture.
本実施例では、各パスの連結画像の生成、および複数パスの連結画像の合成のいずれの処理も、路面テクスチャに対するアフィン変換を施す必要がなく、単純な平行移動で行う。従って、複雑な画像処理に伴う画質の劣化を回避することができ、路面標示が鮮明な状態で表示された路面画像を得ることが可能である。また、平行移動で行うため、路面テクスチャ内の代表点を基準とする相対的な座標系は、連結画像の生成および合成の前後で維持される。この結果、代表点の絶対位置座標が得られれば、路面テクスチャ内の各点の絶対位置座標を容易に取得することが可能となり、路面標示の絶対位置座標を取得することも可能となる。 In this embodiment, both the generation of the connected image of each path and the synthesis of the combined images of a plurality of paths do not need to perform affine transformation on the road surface texture, and are performed by simple parallel movement. Therefore, it is possible to avoid deterioration in image quality due to complicated image processing, and to obtain a road surface image displayed with a clear road marking. Further, since the translation is performed by parallel movement, a relative coordinate system based on the representative point in the road texture is maintained before and after the generation and synthesis of the connected images. As a result, if the absolute position coordinates of the representative point are obtained, the absolute position coordinates of each point in the road texture can be easily obtained, and the absolute position coordinates of the road marking can also be obtained.
本実施例では、透明化ポリゴンを設定することにより、各パスの連結画像に含まれる路面標示(ペイント)を有効活用して道路画像を生成することができる。また、本実施例では、この透明化ポリゴンを自動設定することができるため、オペレータにかける負荷を軽減することができるとともに、透明化ポリゴンの設定結果を安定的に得ることができる利点がある。 In this embodiment, by setting transparent polygons, it is possible to generate road images by effectively utilizing road markings (paints) included in the connected images of each path. Further, in this embodiment, since the transparent polygon can be automatically set, there is an advantage that the load on the operator can be reduced and the setting result of the transparent polygon can be obtained stably.
E.変形例:
E1.優先パスの決定:
(1)優先パスの決定方法:
実施例では、優先パス、即ち連結画像を重ね合わせる際に、上側に配置されるパスの指定をオペレータが行う場合を例示した(図22のステップS406参照)。変形例では、優先パスを自動的に決定する例を示す。
E. Variations:
E1. Determining the preferred path:
(1) Priority path determination method:
In the embodiment, a case where the operator designates a priority path, that is, a path to be arranged on the upper side when overlapping connected images is illustrated (see step S406 in FIG. 22). In the modification, an example in which a priority path is automatically determined is shown.
図32は優先パス決定処理のフローチャートである。この処理は、図22のステップS406に代わる処理として実行することができる。
この処理では、CPUは、処理対象パスの連結画像およびペイントの認識結果を入力する(ステップS321)。ペイントの認識結果は、図19で示した処理で得られた結果を利用できる。
次に、CPUは各パスについてゴミ画像を認識する(ステップS322)。ゴミ画像とは、連結画像内で、停止車両など、路面標示以外の異物が写り込んだ部分の画像を言う。ゴミ画像の認識方法については、後述する。
FIG. 32 is a flowchart of the priority path determination process. This process can be executed as a process replacing step S406 in FIG.
In this process, the CPU inputs the connected image of the processing target path and the paint recognition result (step S321). As the recognition result of paint, the result obtained by the processing shown in FIG. 19 can be used.
Next, the CPU recognizes a dust image for each path (step S322). A dust image refers to an image of a portion of a connected image where a foreign object other than a road marking is reflected, such as a stopped vehicle. A dust image recognition method will be described later.
CPUは、ペイントおよびゴミ画像の認識結果に基づいて、優先パスを決定する(ステップS323)。本実施例では、以下に示す4つの条件に従って優先パスを決定するものとした。
条件1:重なり領域のゴミ画像面積が大きい側のパスを下側に決定(ゴミ画像面積が小さいパスを優先パスとする);
条件2:重なり領域のペイントが少ないパスを下側に決定(ペイントが多いパスを優先パスとする);
条件3:全領域のゴミ画像面積が大きい側のパスを下側に決定(ゴミ画像面積が小さいパスを優先パスとする);
条件4:全領域のペイントが少ないパスを下側に決定(ペイントが多いパスを優先パスとする);
The CPU determines a priority path based on the recognition result of the paint and dust image (step S323). In this embodiment, the priority path is determined according to the following four conditions.
Condition 1: A path having a larger dust image area in the overlapping region is determined as a lower side (a path having a smaller dust image area is set as a priority path);
Condition 2: A path with less paint in the overlapping area is determined to be the lower side (a path with much paint is a priority path);
Condition 3: A path having a larger dust image area in all regions is determined as a lower path (a path having a smaller dust image area is set as a priority path);
Condition 4: A path with less paint in all areas is determined as a lower path (a path with more paint is a priority path);
上述の条件は、条件1〜条件4の優先度で順に適用する。つまり、条件1で優先パスが決定されない時に、条件2が適用される(ステップS324)。条件3、条件4も同様である(ステップS324)。
これらの条件は次の意図で決められている。まず、ゴミ画像については面積を評価値とし、ペイントについては数を評価値として量を評価する。そして、連結画像同士が重なる領域での評価(条件1、条件2)を、連結画像全体の評価(条件3、条件4)よりも優先している。透明化ポリゴンの生成、および道路画像の見栄えに与える影響は、重なり領域の方が大きいからである。また、重なり領域、および連結画像全体の評価内では、ゴミ画像の評価をペイントの評価よりも優先する。道路画像の見栄えに対する影響はゴミ画像の方が大きいからである。
The above conditions are applied in order of priority of condition 1 to condition 4. That is, Condition 2 is applied when the priority path is not determined under Condition 1 (Step S324). The same applies to conditions 3 and 4 (step S324).
These conditions are determined with the following intention. First, the amount is evaluated by using the area as an evaluation value for a dust image and the number as an evaluation value for paint. Then, the evaluation (condition 1 and condition 2) in the region where the connected images overlap is prioritized over the evaluation of the entire connected image (condition 3 and condition 4). This is because the overlapping region has a larger influence on the generation of the transparent polygon and the appearance of the road image. In the evaluation of the overlapping area and the entire connected image, the evaluation of the dust image is given priority over the evaluation of the paint. This is because the garbage image has a greater influence on the appearance of the road image.
図33は優先パスの決定例を示す説明図である。図中のパスP33Aに対する連結画像T33Aと、パスP33Bに対する連結画像T33Bとを重ねる場合を例示した。左側の図に示す通り、両者は、重なり領域OLで重なっている。連結画像T33Aには、重なり領域からはずれる部分にゴミ画像G33Aが認識されている。連結画像T33Bでは、重なり領域内のゴミ画像G33Bと、重なり領域から外れる部分のゴミ画像G33Cが認識されている。
これらの画像について、まず、上述の「条件1:重なり領域のゴミ画像面積が大きい側のパスを下側に決定(ゴミ画像面積が小さいパスを優先パスとする)」に従って、優先パスを決定する。重なり領域では、ゴミ画像G33Bが存在する分、パスP33Bの方が、ゴミ画像面積が大きいことになる。従って、右上に示すように、連結画像T33Aが優先パスと決定され、その下に連結画像T33Bを配置する状態となる。このように重ねた場合は、右上の図に示すように、ゴミ画像G33Bが連結画像T33Aに隠され、道路画像の見栄えがよくなる。
FIG. 33 is an explanatory diagram of an example of determining a priority path. The case where the connection image T33A for the path P33A and the connection image T33B for the path P33B in FIG. As shown in the figure on the left side, the two overlap in the overlapping region OL. In the connected image T33A, the dust image G33A is recognized in a portion that is out of the overlapping region. In the connected image T33B, the dust image G33B in the overlapping region and the dust image G33C in a portion outside the overlapping region are recognized.
For these images, first, a priority path is determined according to the above-mentioned “condition 1: a path having a larger dust image area in the overlapping region is determined as a lower side (a path having a smaller dust image area is set as a priority path)”. . In the overlapping area, the dust image area is larger in the path P33B because the dust image G33B exists. Therefore, as shown in the upper right, the connected image T33A is determined as the priority path, and the connected image T33B is placed below the connected image T33B. When overlapping in this way, as shown in the upper right figure, the garbage image G33B is hidden by the connected image T33A, and the appearance of the road image is improved.
これに対し、右下の図には、仮に条件1に反してゴミ画像面積が大きい側のパスP33Bを優先パスとした例を示した。連結画像T33Bの下側に連結画像T33Aが配置された状態となる。このように重ねた場合は、右下の図に示すように、ゴミ画像G33Bが道路画像内に存在することとなり、道路画像の見栄えを損なっている。
仮に、条件1、条件2で優先パスが決定できなかったとすると、「条件3:全領域のゴミ画像面積が大きい側のパスを下側に決定(ゴミ画像面積が小さいパスを優先パスとする)」に従って、優先パスを決定することになる。
On the other hand, the lower right diagram shows an example in which the path P33B on the side where the dust image area is large contrary to the condition 1 is set as the priority path. The connected image T33A is placed below the connected image T33B. In this case, as shown in the lower right figure, the garbage image G33B exists in the road image, and the appearance of the road image is impaired.
Assuming that the priority path could not be determined under conditions 1 and 2, "Condition 3: The path having the larger dust image area in all regions is determined as the lower side (the path having the smaller dust image area is set as the priority path). ”To determine the priority path.
この場合は、連結画像T33A内のゴミ画像G33Aの面積と、連結画像T33B内のゴミ画像G33B、G33Cの面積を比較する。ゴミ画像G33Aの面積の方が大きければ、右下の図のように連結画像T33Aが下側に配置されることになる。ゴミ画像G33B、G33Cの面積の方が大きければ、右上の図のように連結画像T33Bが下側に配置されることになる。
連結画像全体での評価を行うのは、次の理由による。連結画像同士の重なり領域を外れる部分のゴミ画像は、実際には道路画像の見栄えには影響を与えない。しかし、実際にはゴミ画像は完全に認識できる訳ではない。従って、連結画像全体で認識されたゴミ画像の面積が大きい連結画像は、認識できていない分のゴミ画像も含めると、実質的には重なり領域のゴミ画像面積も大きくなる可能性が高い。条件3は、かかる観点から、連結画像全体のゴミ画像の量に基づいて、優先パスを決定している。
In this case, the area of the dust image G33A in the connected image T33A is compared with the areas of the dust images G33B and G33C in the connected image T33B. If the area of the dust image G33A is larger, the linked image T33A is arranged on the lower side as shown in the lower right figure. If the areas of the dust images G33B and G33C are larger, the linked image T33B is arranged on the lower side as shown in the upper right figure.
The whole connected image is evaluated for the following reason. The part of the dust image outside the overlapping region of the connected images does not actually affect the appearance of the road image. However, in reality, garbage images are not completely recognizable. Therefore, a connected image having a large area of dust images recognized as a whole connected image includes a large amount of dust images that are not recognized. Condition 3 determines the priority path based on the amount of dust images of the entire connected image from this point of view.
(2)ゴミ画像の認識結果の反映:
上述の通り優先パスの決定には、ゴミ画像の認識結果を用いる。また、ゴミ画像とペイントの認識結果の双方を優先パスの決定条件で用いるため、ペイントはゴミ画像の認識結果も踏まえて認識されることが好ましい。
そこで、以下では、まず、ゴミ画像を例示し、ゴミ画像の認識結果をペイントの認識に反映させる方法を示した後、具体的に2通りのゴミ画像の認識方法について説明する。
(2) Reflecting dust image recognition results:
As described above, a dust image recognition result is used to determine the priority path. Since both the dust image and the paint recognition result are used as the priority path determination condition, it is preferable that the paint is recognized based on the dust image recognition result.
Therefore, in the following, first, a dust image will be exemplified, a method for reflecting a dust image recognition result in paint recognition, and then two specific dust image recognition methods will be described.
図34は異物の写り込みを例示する説明図である。
図34(a)にはフレーム画像を例示した。図中の中央当たりの枠A34内が、路面テクスチャの生成に利用される部分である(図7参照)。この例では、矢印P34cが描かれた車線を走行しているものとする。この枠内には、矢印P34cや車線境界線P34bなどのペイントが写されている他、右隣の車線を走行するトラックの後部P34aが異物として写り込んでいる。
図34(b)は、異物が写り込んだフレーム画像を用いて生成した連結画像を示している。図34(a)のように異物が写り込んだ部分は、連結画像では、図中の領域G34に示すように、ペイントとして認識不能な部分として表される。以下、フレーム画像内に写り込んだ異物や、連結画像に表された異物をゴミ画像と呼ぶ。
FIG. 34 is an explanatory view illustrating the reflection of a foreign object.
FIG. 34A illustrates a frame image. A frame A34 in the center in the figure is a part used for generating road surface texture (see FIG. 7). In this example, it is assumed that the vehicle is traveling in the lane on which the arrow P34c is drawn. In this frame, paint such as an arrow P34c and a lane boundary line P34b is shown, and a rear part P34a of a truck traveling in the right lane is shown as a foreign object.
FIG. 34B shows a connected image generated using a frame image in which a foreign object is reflected. The part in which the foreign object is reflected as shown in FIG. 34A is represented as a part that cannot be recognized as paint in the connected image, as shown in a region G34 in the figure. Hereinafter, the foreign matter reflected in the frame image or the foreign matter shown in the connected image is referred to as a dust image.
次に、ゴミ画像の認識結果をペイントの認識に反映させる方法について説明する。
図35はゴミ画像の認識結果の反映方法を示すフローチャートである。ゴミ画像の認識結果は、ペイントの抽出に先立って行う前処理による反映方法と、ペイントの抽出後に行う後処理による反映方法とが可能である。
図中のフローチャートでは、左側に前処理、右側に後処理の場合の反映方法を示した。
これらの処理を実行するに当たり、別途、ゴミ認識処理(ステップS351)によって、フレーム画像または連結画像内のゴミ画像が認識されており、その結果がゴミ画像データに格納されているものとする。ゴミ認識処理(ステップS351)の内容は、後述する。
ここでは、ゴミ認識処理を独立して行う例を示しているが、前処理または後処理の過程に組み込んでも構わない。
Next, a method of reflecting the dust image recognition result in the paint recognition will be described.
FIG. 35 is a flowchart showing a method of reflecting the recognition result of the dust image. The result of recognizing the dust image can be reflected by a pre-processing performed prior to paint extraction or by a post-processing performed after paint extraction.
In the flowchart in the figure, the reflection method in the case of pre-processing on the left side and post-processing on the right side is shown.
In executing these processes, it is assumed that a dust image in a frame image or a connected image is recognized separately by dust recognition processing (step S351), and the result is stored in dust image data. The contents of the dust recognition process (step S351) will be described later.
Here, an example is shown in which the dust recognition process is performed independently, but it may be incorporated in the process of pre-processing or post-processing.
前処理の場合、CPUはフレーム画像を読み込み(ステップS300A)、ゴミ画像データを用いて、フレーム画像からゴミ画像を削除する(ステップS301)。この処理によって、例えば、図34(a)に示した画像では、トラック後部の写り込みP34aが削除されることになる。
CPUは、ゴミ画像が除去されたフレーム画像を用いて、実施例(図19参照)で説明した手順に従って、ペイントを抽出する。つまり、縦配置処理を行い(ステップS302)、横断関連ペイントを抽出し(ステップS310)、各種ペイントの抽出を行う(ステップS350)。そして、相対座標変換処理(図21参照)を行う(ステップS370)。
前処理の方法によれば、ゴミ画像が除去されたフレーム画像を用いてペイントを抽出するため、ゴミ画像による誤認識を抑制することができる。
In the case of preprocessing, the CPU reads a frame image (step S300A), and deletes the dust image from the frame image using the dust image data (step S301). By this process, for example, in the image shown in FIG. 34A, the reflection P34a at the rear of the track is deleted.
The CPU extracts paint according to the procedure described in the embodiment (see FIG. 19) using the frame image from which the dust image has been removed. That is, vertical arrangement processing is performed (step S302), cross-related paint is extracted (step S310), and various paints are extracted (step S350). Then, a relative coordinate conversion process (see FIG. 21) is performed (step S370).
According to the preprocessing method, the paint is extracted using the frame image from which the dust image is removed, so that erroneous recognition due to the dust image can be suppressed.
後処理の場合、CPUはフレーム画像を読み込み(ステップS300A)、実施例(図19)で説明した手順に従って、縦配置処理(ステップS302)、横断関連ペイント抽出(ステップS310)、各種ペイント抽出(ステップS350)、および相対座標変換処理(ステップS370)を行う。ここまでの処理は、ゴミ画像が含まれた連結画像を用いて行われるため、ゴミ画像による誤認識も含まれている。
次に、CPUはゴミ画像データを用いてゴミ画像の存在位置を読み込む(ステップS352)。ゴミ画像の存在位置とは、フレーム画像内で認識されたゴミ画像を、実施例と同様の方法で正射投影し(図7参照)、位置合わせ加工(図8参照)を施したものである。ゴミ画像はペイント抽出に使用される訳ではないので、縦配置処理は不要であり、縦配置の結果を絶対座標系の位置に変換するための相対座標変換処理は不要である。
CPUは、こうしてゴミ画像の存在領域が得られると、ペイントとゴミ画像の存在領域の位置関係を調べ、存在領域に重なるペイントを削除する(ステップS353)。かかるペイントは、ゴミ画像が誤認識されたものと判断されるからである。
In the post-processing, the CPU reads the frame image (step S300A), and in accordance with the procedure described in the embodiment (FIG. 19), the vertical arrangement process (step S302), the crossing related paint extraction (step S310), and various paint extractions (step S350) and relative coordinate conversion processing (step S370) are performed. Since the processing so far is performed using a connected image including a dust image, misrecognition due to the dust image is also included.
Next, the CPU reads the dust image location using the dust image data (step S352). The presence position of the dust image is obtained by orthographically projecting the dust image recognized in the frame image (see FIG. 7) and performing alignment processing (see FIG. 8). . Since dust images are not used for paint extraction, vertical arrangement processing is unnecessary, and relative coordinate conversion processing for converting the result of vertical arrangement into a position in the absolute coordinate system is unnecessary.
When the dust image existence area is thus obtained, the CPU checks the positional relationship between the paint and the dust image existence area, and deletes the paint overlapping the existence area (step S353). This is because it is determined that such a paint has erroneously recognized a dust image.
後処理の方法によれば、認識されたペイントのうち、ゴミ画像と位置的に重複するものを除去するため、ゴミ画像を誤認識したペイントが残存するのを抑制することができる。
図35では、前処理と後処理とを別個独立の処理として説明した。ゴミ認識結果の反映は、前処理または後処理のいずれか一方の方法で行うものとしてもよいし、前処理を行った上で、更に後処理を適用してもよい。
以下では、ステップS351のゴミ画像認識処理の内容について具体的に説明する。ゴミ画像の認識方法としては、オプティカルフローによる方法と、階調差分による方法とがある。
According to the post-processing method, since the part of the recognized paint that overlaps with the dust image is removed, it is possible to prevent the paint that erroneously recognized the dust image from remaining.
In FIG. 35, the pre-processing and the post-processing have been described as separate independent processes. The reflection of the dust recognition result may be performed by either the pre-processing or the post-processing, or the post-processing may be further applied after performing the pre-processing.
Hereinafter, the details of the dust image recognition process in step S351 will be described in detail. As a dust image recognition method, there are an optical flow method and a gradation difference method.
(3)ゴミ画像認識処理(1)〜オプティカルフロー:
図36はゴミ画像認識処理(1)のフローチャートである。オプティカルフローを利用する処理例を示した。
CPUは、まず撮影位置約1m間隔で配置された2枚のフレームデータを読み込む(ステップS361)。走行しながら撮影されたフレーム画像は、1mよりも短い距離間隔で得られているが、処理負荷を軽減するため、約1m間隔でフレーム画像を間引き、その中の連続した2枚を読み込むものとした。約1mとしたのは、フレーム画像は厳密に1m間隔で撮影されている訳ではないからである。
CPUは、フレーム画像の読み込みと併せて、その位置座標に基づき、フレーム間の距離を算出する(ステップS362)。
(3) Dust image recognition processing (1) to optical flow:
FIG. 36 is a flowchart of the dust image recognition process (1). An example of processing using optical flow is shown.
The CPU first reads two pieces of frame data arranged at an interval of about 1 m from the photographing position (step S361). Frame images taken while traveling are obtained at distance intervals shorter than 1 m, but in order to reduce the processing load, frame images are thinned out at intervals of about 1 m and two consecutive images are read. did. The reason why it is set to about 1 m is that the frame images are not strictly taken at intervals of 1 m.
The CPU calculates the distance between the frames based on the position coordinates together with the reading of the frame image (step S362).
次に、CPUは各フレーム画像から左右の検査領域を抽出する(ステップS363)。図中に検査領域の概要を示した。検査領域とは、フレーム画像FL36のうち、路面テクスチャの生成に使用される矩形領域の中で、更に中央部分A36Cを除いた左右の領域A36L、A36Rである。路面テクスチャの生成に使用される領域に限るのは、この他の領域にゴミ画像が存在してもペイントの認識には影響を与えないからである。中央部分A36Cを除いたのは、自車が走行している車線には他の停車車両その他の異物は存在しないためである。これは、自車が走行する走行レーンにおいては、前方を走行する車両が画像作成範囲に入ってこないように車間距離を開けて走行することが可能だからである。
検査領域は、フレーム画像を解析して得るものではなく、フレーム画像内に固定の領域でよい。カメラが車両に固定された状態で撮影が行われているため、フレーム画像FL36のうちテクスチャに使用可能な部分は固定されるし、ゴミ画像の認識が不要となる車両正面の領域A36Cも固定されるからである。車両正面の領域A36Cは、任意に設定可能であるが、例えば、自車が走行する車線幅に相当する領域となるよう設定することができる。
Next, the CPU extracts left and right inspection areas from each frame image (step S363). The outline of the inspection area is shown in the figure. The inspection areas are the left and right areas A36L and A36R excluding the central part A36C in the rectangular area used for generating the road surface texture in the frame image FL36. The reason for limiting to the area used for generating the road surface texture is that the recognition of the paint is not affected even if a dust image exists in the other area. The reason why the central portion A36C is excluded is that there are no other stopped vehicles or other foreign objects in the lane in which the vehicle is traveling. This is because, in the travel lane in which the host vehicle travels, it is possible to travel at a greater distance so that the vehicle traveling ahead does not enter the image creation range.
The inspection area is not obtained by analyzing the frame image, but may be a fixed area in the frame image. Since shooting is performed with the camera fixed to the vehicle, a portion of the frame image FL36 that can be used for texture is fixed, and a region A36C in front of the vehicle that does not require recognition of a dust image is also fixed. This is because that. The area A36C in front of the vehicle can be set arbitrarily, but can be set to be an area corresponding to the lane width in which the host vehicle travels, for example.
CPUは、左右の検査領域の画像に基づき、オプティカルフローを生成する(ステップS364)。オプティカルフローとは、前のフレーム画像の検査領域内に存在する特徴点が、次のフレーム画像内では、どこに移動するかを示す特徴点追跡ベクトルである。
オプティカルフローの大きさは、生成に利用される2つのフレーム画像の間隔にも依存する。CPUは、フレーム画像の間隔に依存しない値に、オプティカルフローを正規化する。この例では、正規化として1m間隔のフレーム画像から得られる値相当に換算する方法を採った。正規化は、例えば、次の方法で行うことができる。
(Vx,Vy)=(OFx/DIST,OFy/DIST);
Vx,Vy…正規化移動ベクトルのx、y成分;
OFx,OFy…オプティカルフローのx、y成分;
DIST…2つのフレーム画像の間隔;
CPUは、検査領域内の各オプティカルフローを正規化して得られた正規化移動量ベクトルのそれぞれについて、次の3種類の評価値を求める(ステップS365)。
|V|…正規化移動量ベクトルの大きさ;
Vx…正規化移動量ベクトルのx成分;
Vy…正規化移動量ベクトルのy成分;
The CPU generates an optical flow based on the images of the left and right inspection areas (step S364). The optical flow is a feature point tracking vector indicating where a feature point existing in the inspection area of the previous frame image moves in the next frame image.
The magnitude of the optical flow also depends on the interval between two frame images used for generation. The CPU normalizes the optical flow to a value that does not depend on the frame image interval. In this example, as a normalization, a method of converting to a value corresponding to a value obtained from a frame image having an interval of 1 m is adopted. Normalization can be performed by the following method, for example.
(Vx, Vy) = (OFx / DIST, OFy / DIST);
Vx, Vy ... x, y components of the normalized movement vector;
OFx, OFy ... optical flow x and y components;
DIST: interval between two frame images;
The CPU obtains the following three types of evaluation values for each normalized movement amount vector obtained by normalizing each optical flow in the inspection region (step S365).
| V |: the size of the normalized movement amount vector;
Vx: x component of the normalized movement amount vector;
Vy: y component of the normalized movement amount vector;
そして、いずれかの評価値が異常となる点、即ちいずれかの評価値が、予め設定された閾値範囲を超える点を抽出する(ステップS366)。例えば、正規化移動量ベクトルの大きさ|V|が、予め設定された最小値|V|minより小さくなったり、最大値|V|maxよりも大きくなった場合には、異常と判断される。同様に、x成分、y成分についても、その最小値Vxmin、Vyminより小さくなったり、最大値Vxmax,Vymaxよりも大きくなった場合には、異常と判断される。
閾値範囲は評価値の絶対値の許容範囲として設定してもよい。この場合には、正規化移動量ベクトルの大きさ|V|が、予め設定された閾値|V|thを超える場合に異常と判断される。同様に、x成分、y成分についても、その絶対値|Vx|、|Vy|が、それぞれの閾値|Vx|th、|Vy|thを超える場合に異常と判断される。
Then, a point where any evaluation value becomes abnormal, that is, a point where any evaluation value exceeds a preset threshold range is extracted (step S366). For example, if the magnitude | V | of the normalized movement amount vector is smaller than a preset minimum value | V | min or larger than a maximum value | V | max, it is determined that there is an abnormality. . Similarly, the x component and the y component are also determined to be abnormal if they are smaller than the minimum values Vxmin and Vymin or larger than the maximum values Vxmax and Vymax.
The threshold range may be set as an allowable range of the absolute value of the evaluation value. In this case, it is determined that there is an abnormality when the magnitude | V | of the normalized movement amount vector exceeds a preset threshold value | V | th. Similarly, regarding the x component and the y component, if the absolute values | Vx | and | Vy | exceed the respective threshold values | Vx | th and | Vy | th, they are determined to be abnormal.
評価値が異常か否かを判断するための閾値は任意に設定可能である。例えば、異物の写っていない画面の正規化移動量ベクトルを求め、ここから得られる評価値の範囲に基づいて設定する方法を採ることができる。また、ここでは検査領域の全点に対し、統一的な閾値を用いるものとしたが、左右の検査領域で異なる閾値を用いてもよい。検査領域を更に細分化した部分ごとに閾値を変化させてもよい。
ステップS366では、正規化移動量ベクトルの大きさ、x成分、y成分のいずれか一つでも異常と判断された点を抽出しているが、全ての点が異常となる点を抽出するなど、他の評価方法をとることもできる。CPUは、次に、異常と判断された点を包含する凸ポリゴンを生成し、これをゴミ画像として格納する(ステップS367)。
CPUは以上の処理を、全フレームデータについて繰り返し実行して(ステップS368)、ゴミ画像認識処理を終了する。
A threshold value for determining whether or not the evaluation value is abnormal can be arbitrarily set. For example, it is possible to obtain a normalized movement amount vector of a screen on which no foreign object is shown and set based on a range of evaluation values obtained therefrom. In addition, here, a uniform threshold value is used for all points in the inspection area, but different threshold values may be used for the right and left inspection areas. The threshold value may be changed for each portion obtained by further subdividing the inspection area.
In step S366, the point at which any one of the magnitude of the normalized movement amount vector, the x component, and the y component is determined to be abnormal is extracted, but the points where all the points are abnormal are extracted. Other evaluation methods can also be taken. Next, the CPU generates a convex polygon including the point determined to be abnormal, and stores this as a dust image (step S367).
The CPU repeatedly executes the above processing for all the frame data (step S368), and ends the dust image recognition processing.
図37はオプティカルフローの例である。自車の走行レーン正面の領域A37Cの両側に実線で囲んだ部分が検査領域A37L、A37Rである。図中に点状に示したのがオプティカルフローV37である。この例では、検査領域A37L、A37Rにかかわらず、画像内全体でオプティカルフローV37を求めた例を示した。検査領域A37L、A37Rには異物が存在していないため、オプティカルフローは自車の走行に伴って画面内で路面標示が移動する量および方向を示すベクトルとなる。1m程度の移動では、図示するように点状に表される程度の大きさのベクトルに過ぎない。
このオプティカルフローを正規化した上で、正規化移動量ベクトルの大きさ、x成分、y成分の分布を求めれば、その最大値、最小値に基づいて、ゴミ認識処理(図36)のステップS366で用いる閾値を設定することができる。
FIG. 37 shows an example of an optical flow. The portions surrounded by solid lines on both sides of the area A37C in front of the traveling lane of the host vehicle are inspection areas A37L and A37R. The optical flow V37 is shown in the form of dots in the drawing. In this example, the optical flow V37 is obtained over the entire image regardless of the inspection areas A37L and A37R. Since no foreign matter is present in the inspection areas A37L and A37R, the optical flow is a vector indicating the amount and direction of the road marking to move in the screen as the vehicle travels. A movement of about 1 m is only a vector having a magnitude represented in a dot shape as illustrated.
After normalizing this optical flow, if the magnitude of the normalized movement amount vector, the distribution of the x component, and the y component are obtained, step S366 of the dust recognition process (FIG. 36) is performed based on the maximum value and the minimum value. It is possible to set a threshold value used in
図38は走行車両がある場合のオプティカルフローの例である。自車の左側の車線を車両C38が追い越していった場合の例を示した。左側の検査領域について、オプティカルフローV38を示している。自車を追い越す車両の特徴点は、自車の移動よりも速い速度で移動するから、自車に対して前方、即ち画面内の右上方向に移動する。従って、オプティカルフローV38は、右上方向を向くベクトルとなる。
この結果、車両A38に該当する部分では、オプティカルフローV38の評価値(大きさ、x成分、y成分)は、予め設定された閾値を超え、異常と判断される。
異常と判断された点を包含する凸ポリゴンを生成することにより、ゴミ画像A38が認識される。車両C38の上側および左側がゴミ画像A38に含まれていないのは、これらの部分が検査領域外だからである。また、ゴミ画像A38内の曲線L38は、正規化移動量ベクトルの大きさ、x成分、y成分のうち、いずれの評価値で閾値を超えたかによる区分を表している。変形例では、いずれかの評価値が閾値を超えていれば全てゴミ画像と判断しているため、曲線L38は特に意味を持たない。
FIG. 38 shows an example of an optical flow when there is a traveling vehicle. An example in which the vehicle C38 overtakes the lane on the left side of the host vehicle is shown. The optical flow V38 is shown for the inspection area on the left side. Since the feature point of the vehicle overtaking the own vehicle moves at a speed faster than the movement of the own vehicle, it moves forward with respect to the own vehicle, that is, in the upper right direction in the screen. Therefore, the optical flow V38 is a vector pointing in the upper right direction.
As a result, in the portion corresponding to the vehicle A38, the evaluation value (size, x component, y component) of the optical flow V38 exceeds a preset threshold value and is determined to be abnormal.
The dust image A38 is recognized by generating a convex polygon including a point determined to be abnormal. The upper and left sides of the vehicle C38 are not included in the dust image A38 because these portions are outside the inspection area. A curve L38 in the dust image A38 represents a classification according to which evaluation value has exceeded the threshold among the magnitude of the normalized movement amount vector, the x component, and the y component. In the modified example, if any evaluation value exceeds the threshold value, all the images are determined as dust images, and therefore the curve L38 has no particular meaning.
図39は停止車両がある場合のオプティカルフローの例である。自車の左側の車線に車両C39が停車している場合の例を示した。左側の検査領域について、オプティカルフローV39を示している。停車車両C39は移動速度が0という点では路面標示と何ら変わらないが、路面標示と異なり立体であるため、フレーム画像では路面標示とは異なるオプティカルフローが得られる。追い越し(図38)が、全体に右斜め上方向のオプティカルフローが得られているのに対し、停止車両では、車両右側面では左斜め下方向のオプティカルフローが得られ、車両後部では、左方向その他の複雑なオプティカルフローとなっている。
これらのオプティカルフローV39を正規化し、閾値範囲を超える異常な点を包含する凸ポリゴンを生成した結果が、ゴミ画像A39である。この例では、車両C39の全体をゴミ画像と認識することはできていないが、閾値範囲を調整することにより、全体をゴミ画像と認識することも可能である。
FIG. 39 is an example of an optical flow when there is a stopped vehicle. The example in case the vehicle C39 has stopped in the lane of the left side of the own vehicle was shown. An optical flow V39 is shown for the inspection area on the left side. The stopped vehicle C39 is not different from the road marking in that the moving speed is 0, but is different from the road marking, and is a three-dimensional figure. Therefore, an optical flow different from the road marking is obtained in the frame image. The overtaking (FIG. 38) provides an optical flow that is diagonally upward to the right on the whole, whereas an optical flow that is diagonally downward to the left is obtained on the right side of the vehicle on the stopped vehicle, and leftward on the rear side of the vehicle. Other complex optical flows.
The result of normalizing these optical flows V39 and generating convex polygons including abnormal points exceeding the threshold range is the dust image A39. In this example, the entire vehicle C39 cannot be recognized as a dust image, but it can also be recognized as a dust image by adjusting the threshold range.
(4)ゴミ画像認識処理(2)〜階調差分:
図40はゴミ画像認識処理(2)のフローチャートである。階調差分を利用する処理例を示した。
CPUは、まず連結画像において連続するテクスチャ画像の重なり領域を抽出する(ステップS501)。図中に処理例を示した。左側に示すように連結画像内で隣接するテクスチャT401、T402に着目する。両者は、ハッチングの部分で重複している。従って、CPUは、右側に示すように、テクスチャT401のうち、テクスチャT402と重なる領域A401を切り出す。また、同様に、テクスチャT402からは領域A401を切り出す。
(4) Dust image recognition processing (2)-gradation difference:
FIG. 40 is a flowchart of the dust image recognition process (2). An example of processing using gradation difference is shown.
First, the CPU extracts an overlapping area of consecutive texture images in the connected image (step S501). An example of processing is shown in the figure. As shown on the left side, attention is paid to adjacent textures T401 and T402 in the connected image. Both overlap in the hatched part. Therefore, as shown on the right side, the CPU cuts out a region A401 overlapping the texture T402 from the texture T401. Similarly, a region A401 is cut out from the texture T402.
次に、CPUは、平滑化フィルタを適用し、重なり領域の画像をぼかす(ステップS502)。平滑化フィルタは、任意のものを適用可能である。
平滑化を行う理由は次の通りである。このゴミ認識処理では、後述する通り、上述の重なり領域の画素ごとの階調差分に基づいてゴミ画像か否かを判断する。重なり領域では路面標示同士も重なるはずであり、ゴミ画像の部分にのみ階調差分が生じるはずだからである。しかし、実際には撮影時や処理過程で種々の誤差が含まれるため、重なり領域で路面標示の位置が完全に一致するとは限らない。かかる状態で、画素ごとに階調差分を算出すると、路面標示の部分もゴミ画像と誤認識されるおそれがある。そこで、ステップS502では、重なり領域の画像に平滑化フィルタを施し、重なり領域で路面標示の位置にずれが生じた場合でも、大きな階調差分が生じないようにした。
Next, the CPU applies a smoothing filter to blur the image of the overlapping area (step S502). Any smoothing filter can be applied.
The reason for smoothing is as follows. In this dust recognition process, as will be described later, it is determined whether or not the image is a dust image based on the gradation difference for each pixel in the overlapping region. This is because road markings should overlap each other in the overlapping area, and a gradation difference should occur only in the dust image portion. However, since various errors are actually included at the time of photographing or in the processing process, the position of the road marking does not always coincide completely in the overlapping region. If the gradation difference is calculated for each pixel in this state, the road marking portion may be erroneously recognized as a dust image. Therefore, in step S502, a smoothing filter is applied to the image of the overlapping area so that a large gradation difference does not occur even when the position of the road marking is shifted in the overlapping area.
こうして平滑化された画像を用いて、CPUは重なり領域間の階調差分を求め、階調差分が閾値を超える画素を抽出する(ステップS503)。
図中に処理例を示した。重なり画像A401の画素Pxaの色成分がH(色相)S(彩度)V(明度)系で(Ha、Sa、Va)と表されるとする。重なり画像A402内で、これに対応する画素Pxbの色成分が(Hb、Sb、Vb)と表されるとする。
そして、両者の階調差分が閾値を超える画素を抽出する。
色相については|Ha−Hb|>閾値THHとなる画素が抽出される。
彩度については|Sa−Sb|>閾値THSとなる画素が抽出される。
明度については|Va−Vb|>閾値THVとなる画素が抽出される。
ここでは、明度の差分が閾値を超える画素を抽出する方法をとった。路面標示は白または黄色が使われているため、路面標示とその他のゴミ画像とは、明度の階調差分が最も顕著に生じるからである。もっとも、色相、彩度についての階調差分が閾値を超える画素も併せて抽出してもよい。また、明度、彩度、色相の全てで閾値を超える画素のみを抽出する方法をとることもできる。
Using the image thus smoothed, the CPU obtains a gradation difference between the overlapping areas, and extracts pixels whose gradation difference exceeds a threshold value (step S503).
An example of processing is shown in the figure. It is assumed that the color component of the pixel Pxa of the overlapping image A401 is expressed as (Ha, Sa, Va) in the H (hue) S (saturation) V (lightness) system. It is assumed that the color component of the pixel Pxb corresponding to the overlap image A402 is represented as (Hb, Sb, Vb).
Then, a pixel whose gradation difference exceeds the threshold is extracted.
For the hue, pixels satisfying | Ha−Hb |> threshold THH are extracted.
For saturation, pixels satisfying | Sa−Sb |> threshold THS are extracted.
For brightness, pixels satisfying | Va−Vb |> threshold THV are extracted.
Here, a method of extracting pixels whose brightness difference exceeds a threshold value is adopted. This is because white or yellow is used for the road marking, so that the lightness gradation difference is most prominent between the road marking and other dust images. Of course, pixels whose tone difference regarding hue and saturation exceeds a threshold value may also be extracted. Further, it is possible to take a method of extracting only pixels that exceed a threshold value in all of lightness, saturation, and hue.
CPUは、抽出された画素を結合して、ゴミ画像領域を特定する(ステップS504)。
結合は、例えば、次の方法で行うことができる。まず、ゴミ画像として抽出された画素のうち、隣接する部分を結合する。次に、各画素について上下左右に所定画素ずつ太らせ処理を行う。この太らせの結果、結合された画素があれば、その部分も一つのポリゴンとして認識する。こうすることにより、CPUはゴミ画像領域を生成することができる。画素を結合して得られたポリゴンの凹部を埋め合わせて凸ポリゴン化してもよい。
最後に、CPUは閾値以下の微小面積の領域を削除する(ステップS505)。停車車両その他の異物は通常、大きなゴミ画像として認識されるからであり、また、微小面積のゴミ画像は残しておいたとしてもペイントの認識に大きな悪影響を与えないからである。もっとも、この処理は省略しても差し支えない。
The CPU combines the extracted pixels to specify a dust image area (step S504).
The bonding can be performed, for example, by the following method. First, adjacent portions of pixels extracted as dust images are combined. Next, each pixel is thickened by predetermined pixels vertically and horizontally. As a result of this fattening, if there is a combined pixel, that portion is also recognized as one polygon. By doing so, the CPU can generate a dust image area. A convex polygon may be formed by filling a concave portion of a polygon obtained by combining pixels.
Finally, the CPU deletes a region having a minute area that is equal to or smaller than the threshold (step S505). This is because a stopped vehicle or other foreign object is normally recognized as a large dust image, and even if a small area dust image is left, it does not have a significant adverse effect on the recognition of paint. However, this process can be omitted.
図41はゴミ画像の認識例を示す説明図である。図41(a)および図41(b)が、二つのテクスチャから切り出された重なり領域である。両者は、右側にゴミ画像G412、G413が写り込んでいる。また、図41(a)には、別のゴミ画像G411が写り込んでいる。
図41(c)、図41(d)は、それぞれ図41(a)、図41(b)に平滑化フィルタを適用した結果である。原データに比較して、路面標示等の輪郭がぼけていることが分かる。図41(e)、図41(f)は、それぞれ図41(c)と図41(d)の間の階調差分を求めた結果である。明度の階調差分が閾値THVを超える範囲が実線で示したゴミ画像G414〜G417である。ゴミ画像G414,G416、およびG415,G417は、それぞれ同じものとなる。ここでは、図41(c)、図41(d)との対比が分かるよう、それぞれと重ね合わせて示したに過ぎない。
FIG. 41 is an explanatory diagram showing an example of dust image recognition. 41 (a) and 41 (b) are overlapping regions cut out from two textures. In both cases, dust images G412 and G413 are shown on the right side. In FIG. 41A, another dust image G411 is shown.
41 (c) and 41 (d) show the results of applying a smoothing filter to FIGS. 41 (a) and 41 (b), respectively. It can be seen that the contours of road markings are blurred compared to the original data. 41 (e) and 41 (f) show the results of obtaining the gradation differences between FIGS. 41 (c) and 41 (d), respectively. The range where the lightness gradation difference exceeds the threshold value THV is dust images G414 to G417 indicated by solid lines. The dust images G414, G416, and G415, G417 are the same. Here, they are merely shown superimposed on each other so that the comparison with FIG. 41 (c) and FIG. 41 (d) can be seen.
例えば、図41(f)だけを見るとゴミ画像G416の部分は適正な路面標示に見える。しかし、ここと重ね合わされる図41(e)のゴミ画像G414が存在するため、階調差分は閾値を超える異常値となっているのである。
一方、ゴミ画像G415,G417は、異物の写り込みである。この例では、異物の写り込み全体をゴミ画像と認識できてはいないが、閾値の調整次第で全体を認識することが可能である。
図41(g)は、別のテクスチャについての認識結果である。上述の方法で階調差分を求めた結果、ゴミ画像G418が認識されている。ただし、これらのゴミ画像G418は、微小であるため、CPUはゴミ画像から除外する(図40のステップS505参照)。
For example, when only FIG. 41 (f) is viewed, the portion of the dust image G416 appears as an appropriate road marking. However, since there is the dust image G414 of FIG. 41E superimposed on this, the gradation difference is an abnormal value exceeding the threshold value.
On the other hand, the dust images G415 and G417 are reflections of foreign matters. In this example, the entire reflection of the foreign object cannot be recognized as a dust image, but the entire image can be recognized depending on the adjustment of the threshold value.
FIG. 41 (g) shows the recognition result for another texture. As a result of obtaining the gradation difference by the above method, the dust image G418 is recognized. However, since these dust images G418 are very small, the CPU excludes them from the dust images (see step S505 in FIG. 40).
変形例で示した優先パスの決定方法を用いれば、ペイントの量を考慮して上下関係を判断することにより、透明化ポリゴンの数を抑制したり形状を簡略化することができる。また、ゴミの量を考慮して上下関係を判断することにより、透明化ポリゴンを設定した後の道路画像の見栄えを向上させることができる。
また、上述の方法では、パスの上下関係を自動的に判断させるため、オペレータの主観が入り込まなくなり、オペレータによって道路画像の見栄えが異なるという不安定さを抑制することができる。
If the priority path determination method shown in the modification is used, the number of transparent polygons can be suppressed or the shape can be simplified by determining the vertical relationship in consideration of the amount of paint. Further, by determining the vertical relationship in consideration of the amount of dust, the appearance of the road image after setting the transparent polygon can be improved.
Further, in the above-described method, since the vertical relationship of the path is automatically determined, the subjectivity of the operator does not enter, and instability that the appearance of the road image differs depending on the operator can be suppressed.
E2.自動透明化ポリゴン生成処理(1):
実施例では、ペイントが存在する箇所に透明化ポリゴンを生成する例を示した(図25参照)。
図42は実施例の方法による透明化ポリゴン設定例を示す説明図である。パスP42Aに対応する連結画像T42Aの上に、パスP42Bに対応する連結画像T42Bを重ね合わせた例を示している。領域A42では、透明化ポリゴンTP42を生成することによって、速度制限(50km/時)を示すペイントPT42が表れている。このように、ペイントの存在する部位に透明化ポリゴンを生成することによって、下側の連結画像に含まれるペイントを道路画像に活用することが可能となる。
しかし、この方法では、領域B42に示すように、道路画像に異物が写り込んだゴミ画像が残ることがある。このようなゴミ画像の存在は、道路画像の見栄えを損ねてしまう。
変形例では、この道路画像の見栄えを向上するため、領域B42に示すゴミ画像を透明化ポリゴンによって消去する方法を示す。このようにゴミ画像を消去するための透明化ポリゴンを、ゴミ画像消去ポリゴンと呼ぶものとする。
以下で示す処理は、自動透明化ポリゴン生成処理(図22)において、ペイント用透明化ポリゴン設定処理(ステップS410)、ギザギザカット処理(ステップS430)、および透明化ポリゴン結合処理(ステップS450)の後に行うことが好ましい。
E2. Automatic transparency polygon generation processing (1):
In the embodiment, an example is shown in which a transparent polygon is generated at a place where paint exists (see FIG. 25).
FIG. 42 is an explanatory diagram showing an example of setting a transparent polygon by the method of the embodiment. In the example, the connection image T42B corresponding to the path P42B is superimposed on the connection image T42A corresponding to the path P42A. In the area A42, the paint PT42 indicating the speed limit (50 km / hour) appears by generating the transparent polygon TP42. As described above, by generating a transparent polygon in a portion where paint is present, it is possible to utilize the paint included in the lower connected image as a road image.
However, in this method, as shown in the region B42, a dust image in which a foreign object appears in the road image may remain. The presence of such a garbage image impairs the appearance of the road image.
In the modified example, in order to improve the appearance of the road image, a method of erasing the dust image shown in the region B42 with a transparent polygon is shown. Such a transparent polygon for erasing a dust image is called a dust image erasing polygon.
The following process is performed after the paint transparent polygon setting process (step S410), the jagged cut process (step S430), and the transparent polygon combination process (step S450) in the automatic transparent polygon generation process (FIG. 22). Preferably it is done.
図43はゴミ画像消去ポリゴン生成処理のフローチャート(1)である。CPUは、ゴミ画像データから、上側のパスのゴミ画像の認識結果を読み込む(ステップS601)。ゴミ画像データとは、オプティカルフローおよび階調差分(図36〜図41)などの方法によって認識されたゴミ画像の存在部分を格納したデータである。
CPUは、このゴミ画像データに基づいて、各ゴミ画像をポリゴン化する(ステップS602)。このポリゴンを、以下、ゴミポリゴンと呼ぶものとする。図中にゴミポリゴンGP431の例を示した。
FIG. 43 is a flowchart (1) of the dust image erasure polygon generation process. The CPU reads the recognition result of the dust image in the upper path from the dust image data (step S601). The dust image data is data storing a dust image existing portion recognized by a method such as optical flow and gradation difference (FIGS. 36 to 41).
The CPU polygonizes each dust image based on the dust image data (step S602). This polygon is hereinafter referred to as a garbage polygon. An example of the garbage polygon GP431 is shown in the figure.
次にCPUは、近くにあるゴミポリゴン同士をグループ化し、同一グループ内のゴミポリゴンを包含するゴミポリゴンを生成する(ステップS603)。
グループ化は、次の手順で行うことができる。まず処理対象となるゴミポリゴンを抽出し、最も近くに位置するゴミポリゴンを抽出する。このゴミポリゴン間の距離が所定値以下であれば、両者に同一のグループIDを付す。いずれかのゴミポリゴンに既にグループIDが付されている場合には、このグループIDを共通して用いればよい。一方、所定値を超える場合には、対象のゴミポリゴン単独にグループIDを付す。以上の処理を、全てのゴミポリゴンにグループIDが付されるまで、繰り返し実行すればよい。
図中の例では、破線で示したゴミポリゴンGP431は、最も近いゴミポリゴンまでの距離が所定値以下となっている状態を示した。この結果、これらのゴミポリゴンには、順次、同一のグループIDが付されることになる。また、ゴミポリゴンGP432は、最も近いゴミポリゴンまでの距離d43が所定値を超えているため、単独でグループとされている。
こうしてグループ化が完了すると、CPUは同一のグループに存在するゴミポリゴンGP431を包含するゴミポリゴンGP433を生成する。
Next, the CPU groups dust polygons in the vicinity and generates a dust polygon including the dust polygons in the same group (step S603).
Grouping can be performed by the following procedure. First, dust polygons to be processed are extracted, and the nearest dust polygon is extracted. If the distance between the dust polygons is equal to or less than a predetermined value, the same group ID is assigned to both. If a group ID has already been assigned to any dust polygon, this group ID may be used in common. On the other hand, if the predetermined value is exceeded, a group ID is assigned to the target dust polygon alone. The above processing may be repeatedly executed until a group ID is assigned to all dust polygons.
In the example in the figure, the dust polygon GP431 indicated by a broken line shows a state in which the distance to the nearest dust polygon is equal to or less than a predetermined value. As a result, the same group ID is sequentially assigned to these dust polygons. Further, the dust polygon GP432 is grouped independently because the distance d43 to the nearest dust polygon exceeds a predetermined value.
When the grouping is completed in this way, the CPU generates a dust polygon GP433 including the dust polygon GP431 existing in the same group.
次にCPUは下側のパスのルート領域を読み込む(ステップS604)。ルート領域とは、図24で説明した通り、連結画像のうち、両端のギザギザ部分を除いた領域、つまり、パスに沿う方向の縁線に鋭角的に折れ曲がる部分が存在しない滑らかな状態となる領域を言う。
図44はゴミ画像消去ポリゴン生成処理のフローチャート(2)である。
CPUは、上述の処理で生成されたゴミポリゴンと、ルート領域との重なり部分を抽出する(ステップS605)。
Next, the CPU reads the route area of the lower path (step S604). As described with reference to FIG. 24, the root region is a region in the connected image excluding the jagged portions at both ends, that is, a region that is in a smooth state in which there is no portion that is sharply bent at the edge line in the direction along the path. Say.
FIG. 44 is a flowchart (2) of the dust image erasure polygon generation process.
The CPU extracts an overlapping portion between the dust polygon generated by the above process and the root area (step S605).
図中に処理例を示した。ゴミポリゴンGP432はルート領域R43内に全体が含まれているため、そのまま抽出される。ゴミポリゴンGP433は、ルート領域RT43から一部はみ出しているため、ルート領域RT43内の部分(図中のハッチングを付した部分)が抽出される。ゴミポリゴンGP434は、ルート領域RT43から全体がはみ出しているため、除外される。
こうすることにより、抽出されたゴミポリゴンを利用すれば、下側にルート領域が存在する部分にのみ透明化ポリゴンを生成することができるため、道路画像に穴が空いたかのような状態となることを回避できる。
An example of processing is shown in the figure. The dust polygon GP432 is extracted as it is because it is entirely included in the route region R43. Since the dust polygon GP433 partially protrudes from the root area RT43, a part in the root area RT43 (the hatched part in the figure) is extracted. The dust polygon GP434 is excluded because it entirely protrudes from the route region RT43.
In this way, if the extracted dust polygon is used, the transparent polygon can be generated only in the portion where the route area exists on the lower side, so that the road image appears to have a hole. Can be avoided.
次に、CPUはギザギザカット処理の透明化ポリゴンと、ゴミポリゴンとを結合し、形状を修正する(ステップS606)。
図中に処理例を示した。連結画像Tx43に対して、図29で示したギザギザカット処理によって、透明化ポリゴンTP29が設定されているとする。また、この状態で、破線で示したゴミポリゴンGP435が得られているとする。ステップS606の処理では、ゴミポリゴンGP435を、透明化ポリゴンTP29に投影する。ゴミポリゴンGP435が、透明化ポリゴンTP29に沿う方向に最大幅となる点P431、P432を求め、ここから透明化ポリゴンTP29に垂線をおろせばよい。
CPUは、このようにしてゴミポリゴンGP435と透明化ポリゴンTP29とを結合するとともに、ゴミポリゴンGP435の凹部を形成している構成点P433等を間引くことによって滑らかな形に整形し、ゴミポリゴンGP436を得る。
この処理は、ゴミポリゴンGP435と透明化ポリゴンTP29の距離が所定値以下の場合にのみ適用するようにしてもよい。
Next, the CPU combines the jagged cutting transparent polygon and the dust polygon to correct the shape (step S606).
An example of processing is shown in the figure. It is assumed that the transparent polygon TP29 is set for the connected image Tx43 by the jagged cut processing shown in FIG. In this state, it is assumed that a dust polygon GP435 indicated by a broken line is obtained. In the processing of step S606, the dust polygon GP435 is projected onto the transparent polygon TP29. The dust polygon GP435 may obtain points P431 and P432 having a maximum width in the direction along the transparent polygon TP29, and a perpendicular line may be placed on the transparent polygon TP29 therefrom.
In this way, the CPU combines the dust polygon GP435 and the transparent polygon TP29 and shapes the dust polygon GP436 into a smooth shape by thinning out the constituent points P433 forming the recesses of the dust polygon GP435. obtain.
This processing may be applied only when the distance between the dust polygon GP435 and the transparent polygon TP29 is equal to or less than a predetermined value.
以上の処理によって透明化ポリゴンを生成すれば、ゴミ画像を透明化ポリゴンによって消去することができ、道路画像の見栄えを向上することができる。
また、変形例の方法では、近くにあるゴミポリゴンを包含するゴミポリゴンを生成するため、ゴミ画像の認識処理で認識できずに漏れたゴミ画像も、まとめて消去することが可能となる。更に、ゴミ画像に基づいて生成されたゴミポリゴンと、ギザギザカット処理によって生成された透明化ポリゴンとを結合するため、両者の間隙に存在するゴミ画像もまとめて消去することが可能である。
If the transparent polygon is generated by the above processing, the dust image can be erased by the transparent polygon, and the appearance of the road image can be improved.
Further, in the modified method, dust polygons including nearby dust polygons are generated, so that dust images that cannot be recognized by the dust image recognition process can be erased collectively. Furthermore, since the dust polygon generated based on the dust image and the transparent polygon generated by the jagged cut processing are combined, it is possible to erase the dust images existing in the gap between the two.
E3.自動透明化ポリゴン生成処理(2): 次に、ゴミ画像を透明化ポリゴンによって消去する他の態様について説明する。
図43,44で示した処理では、ゴミ画像を認識し、そこに透明化ポリゴンを生成する方法を採った。これに対し、以下で示す態様では、上側の連結画像のうち、ペイント以外の不要な部分はゴミ画像か否かを判断するまでなく透明化ポリゴンで消去してしまう方法をとる。
図45はゴミ画像消去ポリゴン生成処理(2)の処理例を示す説明図である。
始点S45から終点E45に向かうパスPS45の連結画像の左半分を示した。ただし、図の煩雑化を回避するため、連結画像を構成するテクスチャTx45は一部のみを示し、他の部分は図示を省略した。図中で、ハッチングを付した部分は、車線境界線等のペイントを表している。また、点G45はゴミ画像を表している。
E3. Automatic transparency polygon generation process (2): Next, another aspect of erasing a dust image with a transparency polygon will be described.
In the processing shown in FIGS. 43 and 44, a method of recognizing a dust image and generating a transparent polygon there is adopted. On the other hand, in the mode shown below, a method is adopted in which unnecessary portions other than the paint in the upper connected image are erased with the transparent polygons without determining whether or not they are dust images.
FIG. 45 is an explanatory diagram showing a processing example of the dust image erasure polygon generation processing (2).
The left half of the connected image of the path PS45 from the start point S45 to the end point E45 is shown. However, in order to avoid complication of the figure, only a part of the texture Tx45 constituting the connected image is shown, and the other parts are not shown. In the figure, hatched portions represent paint such as lane boundary lines. A point G45 represents a dust image.
この処理では、まず、始点S45から終点E45に至るまで、等間隔でパスPS45に対する垂線L45[1]〜L45[18]を生成する。垂線の間隔d45は、0.5m間隔など任意の値とすることができる。パスPS45を所定数で分割することによって与えられる間隔としてもよい。
CPUはこの垂線L45[1]〜L45[18]の順に、透明化ポリゴンの構成点を次の方法で生成していく。まず、垂線L45[1]について連結画像の側端側から矢印A45に示すように、ペイントを探索する。垂線L45[1]のようにペイントが存在しない場合には、パスPS45から所定の距離OS451だけ離れた点に透明化ポリゴンの構成点P45[1]を生成する。垂線L45[2]についても同様に点P45[2]を生成する。
所定の距離OS451も任意に設定可能であり、この例では、道路の車線の半幅に基づき1.5mに設定した。パスPS45を含む車線は連結画像の撮影時に走行した車線であり、異物は存在しないと考えられるからである。
In this process, first, perpendicular lines L45 [1] to L45 [18] with respect to the path PS45 are generated at equal intervals from the start point S45 to the end point E45. The perpendicular interval d45 can be set to an arbitrary value such as an interval of 0.5 m. The interval may be given by dividing the path PS45 by a predetermined number.
The CPU generates constituent points of the transparent polygon in the order of the perpendicular lines L45 [1] to L45 [18] by the following method. First, paint is searched for as indicated by an arrow A45 from the side end side of the connected image with respect to the perpendicular line L45 [1]. When there is no paint as shown by the perpendicular line L45 [1], a transparent polygon constituent point P45 [1] is generated at a point separated from the path PS45 by a predetermined distance OS451. Similarly, the point P45 [2] is generated for the perpendicular L45 [2].
The predetermined distance OS451 can also be set arbitrarily. In this example, the predetermined distance OS451 is set to 1.5 m based on the half width of the road lane. This is because the lane including the path PS45 is the lane that was traveled when the connected image was captured, and it is considered that no foreign matter exists.
垂線L45[3]にはペイントが存在する。この場合には、ペイントから所定距離OS452だけ離れた位置に構成点P45[3]を生成する。距離OS452は、透明化ポリゴンがペイントにかかることを回避するために任意の値に設定される距離であり、この例では、0.2mとした。垂線L45[4]についても、ペイントが存在するため、同様に点P45[4]が生成される。
垂線L45[5]上には、ペイントは存在しない。しかし、直前の垂線L45[4]上にペイントが存在しておりパスPS45から比較的離れた位置に構成点P45[4]が設定されている。従って、垂線L45[1]等と同じようにパスPS45から距離OS451の位置に構成点を生成すると、透明化ポリゴンがいびつな形状となるおそれがある。そこで、直前の垂線L45[4]上にペイントが存在している場合には、その垂線L45[4]上の構成点P45[4]と同じだけパスPS45から離れた位置に構成点P45[5]と生成するものとした。
Paint exists in the perpendicular line L45 [3]. In this case, the constituent point P45 [3] is generated at a position away from the paint by a predetermined distance OS452. The distance OS452 is a distance set to an arbitrary value in order to avoid the transparent polygon from being applied to the paint. In this example, the distance OS452 is set to 0.2 m. Since the paint exists for the vertical line L45 [4], the point P45 [4] is generated similarly.
There is no paint on the vertical line L45 [5]. However, paint is present on the immediately preceding perpendicular L45 [4], and the composing point P45 [4] is set at a position relatively distant from the path PS45. Therefore, if the composing point is generated at the position of the distance OS451 from the path PS45 as in the case of the perpendicular line L45 [1], the transparent polygon may have an irregular shape. Therefore, when paint is present on the immediately preceding vertical line L45 [4], the constituent point P45 [5] is located at a position as far away from the path PS45 as the constituent point P45 [4] on the vertical line L45 [4]. ] To be generated.
垂線L45[6]、L45[7]上には2つのペイントが存在するが、矢印A45の方向に探索を行うため、側端側のペイントを基準として構成点P45[6]、P45[7]が生成される。以下、同様にして構成点P45[8]〜P45[18]が設定される。
こうして得られた構成点P45[1]〜P45[18]を結ぶとともに、その両端をギザギザカット処理(図29)で得られる透明化ポリゴンの外側の線と結ぶことによって、透明化ポリゴンPOL45を得る。
この例では、透明化ポリゴンPOL45の境界線が、ペイントと交差のを回避するため、境界線はパスPS45に平行または垂直の線で構成した。斜めの境界線も許容しつつ、境界線とペイントが交差する場合には、ペイントを回避するよう境界線の形状を修正する方法を採っても良い。
There are two paints on the perpendicular lines L45 [6] and L45 [7], but since the search is performed in the direction of the arrow A45, the configuration points P45 [6] and P45 [7] are based on the side end side paint. Is generated. Thereafter, the configuration points P45 [8] to P45 [18] are set similarly.
By connecting the constituent points P45 [1] to P45 [18] obtained in this way, and connecting both ends thereof with a line outside the transparent polygon obtained by the jagged cut processing (FIG. 29), a transparent polygon POL45 is obtained. .
In this example, in order to avoid the boundary line of the transparent polygon POL45 from intersecting with the paint, the boundary line is constituted by a line parallel or perpendicular to the path PS45. When the boundary line and the paint intersect with each other while allowing an oblique boundary line, a method of correcting the shape of the boundary line so as to avoid painting may be adopted.
図46はゴミ画像消去ポリゴン生成処理(2)のフローチャートである。図45で説明した透明化ポリゴンを生成するための処理である。この処理も、自動透明化ポリゴン生成処理(図22)において、ペイント用透明化ポリゴン設定処理(ステップS410)、ギザギザカット処理(ステップS430)、および透明化ポリゴン結合処理(ステップS450)の後に行うことが好ましい。
CPUは、ペイント認識結果(図19参照)から上側のパスのペイントを読み込む(ステップS660)。そして、パスを等間隔に分割する垂線列を生成する(図S661)。図45で示した垂線L45を生成する処理である。
FIG. 46 is a flowchart of the dust image erasure polygon generation process (2). This is a process for generating the transparent polygon described with reference to FIG. This process is also performed after the paint transparent polygon setting process (step S410), the jagged cut process (step S430), and the transparent polygon combination process (step S450) in the automatic transparent polygon generation process (FIG. 22). Is preferred.
The CPU reads the upper path paint from the paint recognition result (see FIG. 19) (step S660). Then, a perpendicular line that divides the path into equal intervals is generated (FIG. S661). This is processing for generating the perpendicular L45 shown in FIG.
CPUは、処理対象の垂線について連結画像の側端側からペイントとの交点を探索する(ステップS662)。交点がある場合には、図45の垂線L45[3]等で示したように、交点を外側に距離OS452だけオフセットした点を構成点として格納する。
交点がない場合には(ステップS663)、隣接する垂線上にペイントとの交点があるか否かを判断する(ステップS665)。図45中の垂線L45[5]のように、隣接する垂線L45[4]上に交点がある場合には、隣接する垂線上の構成点と同じオフセットの点を構成点として格納する。図45中の垂線L45[1]のように、隣接する垂線上にペイントとの交点がない場合はパスから外側に距離OS451だけオフセットした点を構成点として格納する(ステップS667)。
The CPU searches for the intersection with the paint from the side end side of the connected image for the perpendicular to be processed (step S662). If there is an intersection, as indicated by the perpendicular line L45 [3] in FIG. 45, the point offset from the intersection by the distance OS452 is stored as a constituent point.
If there is no intersection (step S663), it is determined whether there is an intersection with the paint on the adjacent perpendicular (step S665). When there is an intersection point on the adjacent perpendicular line L45 [4] as in the perpendicular line L45 [5] in FIG. 45, a point having the same offset as the constituent point on the adjacent perpendicular line is stored as the constituent point. If there is no intersection with paint on the adjacent vertical line as shown by the vertical line L45 [1] in FIG. 45, a point offset from the path by the distance OS451 is stored as a constituent point (step S667).
CPUは以上のステップS662〜S667の処理を、処理対象となる垂線がなくなるまで(ステップS668)、繰り返し実行する。そして、得られた構成点よりも外側のテクスチャを包含する透明化ポリゴンを生成する(ステップS669)。具体的には、図45で説明したように、構成点を結んだ線の両端と、ギザギザカット処理(図29)で得られる透明化ポリゴンの外側の線と結べばよい。
図47は自動透明化ポリゴン生成処理(2)の適用例を示す説明図である。
図47(a)には透明化ポリゴンを生成する前の状態を示した。パスP471の連結画像の上に、パスP472の連結画像が配置されているとする。パスP472の連結画像にはペイントPT47が認識されている。この状態で、図45、図46で説明した方法で透明化ポリゴンを生成すると、ペイントPT47よりも道路側端側を覆う透明化ポリゴンPOL47が生成される。
The CPU repeatedly executes the processes in steps S662 to S667 until there is no perpendicular to be processed (step S668). Then, a transparent polygon including a texture outside the obtained constituent points is generated (step S669). Specifically, as described with reference to FIG. 45, both ends of the line connecting the constituent points may be connected to the line outside the transparent polygon obtained by the jagged cut processing (FIG. 29).
FIG. 47 is an explanatory diagram showing an application example of the automatic transparency polygon generation process (2).
FIG. 47A shows a state before the transparent polygon is generated. It is assumed that the connected image of the path P472 is arranged on the connected image of the path P471. The paint PT47 is recognized in the connected image of the path P472. In this state, when a transparent polygon is generated by the method described with reference to FIGS. 45 and 46, a transparent polygon POL47 that covers the road side end side of the paint PT47 is generated.
図47(b)には透明化ポリゴンPOL47を適用した状態を示した。領域A47は透明化ポリゴンPOL47によってゴミ画像が消去され、パスP471に対応する連結画像が表れている。パスP471の連結画像生成時に走行した車線には、異物は存在せず、ゴミ画像は存在しない。従って、パスP471の連結画像が表れるようにすることで、ゴミ画像を消去でき、道路画像の見栄えを向上させることができる。
以上で説明した処理では、連結画像内のゴミ画像を認識するまでなく非常に軽い負荷で透明化ポリゴンを生成し、ゴミ画像を消去することができる。
なお、この処理を適用する場合には、上側の連結画像については、ペイントを残して不要な部分を一括して消去するように透明化ポリゴンが設定されるから、ゴミ画像が多い連結画像を上側に配置し、透明化ポリゴンによって表される下側にゴミ画像が少ない連結画像を配置することが好ましい。従って、先に説明した優先パス決定処理(図32)の条件1、3を次の通り変更することが好ましい。
FIG. 47 (b) shows a state where the transparent polygon POL47 is applied. In the area A47, the dust image is erased by the transparent polygon POL47, and the connected image corresponding to the path P471 appears. There is no foreign matter and no dust image in the lane that was traveled when the connected image was generated on the path P471. Therefore, by allowing the connected image of the path P471 to appear, the dust image can be deleted, and the appearance of the road image can be improved.
In the processing described above, it is possible to generate the transparent polygon and erase the dust image with a very light load without recognizing the dust image in the connected image.
When this processing is applied, for the upper connected image, transparent polygons are set so that unnecessary portions are erased all together while leaving paint, so that the connected image with many dust images is It is preferable that a connected image with few dust images is arranged on the lower side represented by the transparent polygon. Therefore, it is preferable to change the conditions 1 and 3 of the priority path determination process (FIG. 32) described above as follows.
条件1:重なり領域のゴミ画像面積が小さい側のパスを下側に決定(ゴミ画像面積が大きいパスを優先パスとする);
条件3:全領域のゴミ画像面積が小さい側のパスを下側に決定(ゴミ画像面積が大きいパスを優先パスとする);
以上、本発明の種々の実施例について説明したが、本発明はこれらの実施例に限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。
例えば、連結画像は、路面テクスチャを合成した一枚の画像として生成してもよい。この場合、複数パスの合成を行う際には、連結画像を路面テクスチャに相当する複数の領域に分割した上で、領域ごとに平行移動すればよい。
本実施例では、車両に搭載したビデオカメラで撮影した画像を利用する例を示したが、車両に限らず自転車その他の種々の移動体を利用可能であり、歩行しながら撮影する方法を採っても良い。
Condition 1: A path having a smaller dust image area in the overlapping region is determined as a lower side (a path having a larger dust image area is set as a priority path);
Condition 3: A path having a smaller dust image area in all regions is determined as a lower path (a path having a larger dust image area is set as a priority path);
Although various embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and it goes without saying that various configurations can be adopted without departing from the spirit of the present invention.
For example, the connected image may be generated as a single image obtained by combining road textures. In this case, when synthesizing a plurality of paths, the connected image may be divided into a plurality of regions corresponding to the road texture, and then translated for each region.
In this embodiment, an example of using an image taken with a video camera mounted on a vehicle is shown. However, not only a vehicle but also various other moving bodies can be used, and a method of taking a picture while walking is adopted. Also good.
実施例では、同時期に異なる位置を走行して得られた画像を合成する例を示した。本実施例は、異なる時期に得られた画像を比較して、道路に施された変化を反映した道路画像を生成するという態様でも利用可能である。この場合でも、連結画像の生成方法や、これらを合成して道路画像を生成する方法は、実施例と同様である。
透明化ポリゴンを設定する場合も、実施例と同様の方法を適用可能である。ただし、画像を取得した時期を基準に優先パスを決定することが好ましい。新しく取得された側を優先パスとするのである。路面のペイントの変化を道路画像に反映させるという目的を考慮すると、新しく撮影された画像を優先する方が好ましいからである。こうすることによって、従前は存在しなかったペイントが新たに施された場合には、透明化ポリゴンを設定するまでなく、道路画像に反映させることができる。
In the embodiment, an example in which images obtained by traveling at different positions at the same time are combined is shown. The present embodiment can also be used in a mode in which images obtained at different times are compared to generate a road image reflecting a change applied to the road. Even in this case, the method for generating a connected image and the method for generating a road image by combining them are the same as in the embodiment.
When setting a transparent polygon, the same method as in the embodiment can be applied. However, it is preferable to determine the priority path based on the time when the image is acquired. The newly acquired side is set as the priority path. This is because it is preferable to give priority to the newly photographed image in consideration of the purpose of reflecting the change in the paint on the road surface in the road image. By doing so, when a paint that has not existed before is newly applied, it is possible to reflect it on the road image without setting a transparent polygon.
実施例では、下側の連結画像にのみペイントが存在する時は、透明化ポリゴンの設定対象としていたが(図25のステップS413、S415)、この態様では、透明化ポリゴンの設定対象から外すことが好ましい。つまり、図25のステップS413で「No」判定の時には、ステップS416に処理を移行することが好ましい。従前描かれていたペイントが、削除された場合には、下側(古い側)の連結画像にのみペイントが存在し、上側(新しく取得された側)にはペイントが存在しない状態となるが、このような領域を、透明化ポリゴンの設定対象から外すことにより、こうしたペイントの削除も支障なく反映させることが可能となる。 In the embodiment, when the paint exists only in the lower connected image, the transparent polygon is set as the setting target (steps S413 and S415 in FIG. 25). However, in this aspect, the transparent polygon is excluded from the setting target. Is preferred. That is, when “No” determination is made in step S413 of FIG. 25, it is preferable to shift the processing to step S416. If the previously drawn paint is deleted, the paint will be present only on the lower (older) connected image, and no paint will be present on the upper (newly acquired side) By removing such an area from the setting target of the transparent polygon, such deletion of paint can be reflected without any trouble.
100…道路面撮影システム
110…位置計測部
110…計測データ
112…コントローラ
114…GPS
114A…アンテナ
116…IMU
118…DMI
120…ビデオカメラ
130…記録装置
140…ハードディスク
142…画像データ
144…同期データ
146…計測データ
150…基準局データ
200…路面標示地図生成装置
201…主制御部
202…コマンド入力部
203…表示制御部
204…データ入力部
205…軌跡データ算出部
206…画像変換部
207…1パス画像合成部
210a…軌跡データ
210b…路面軌跡データ
210c…路面テクスチャ
210d…連結画像
210e…道路画像
210f…道路画像用登録データ
210g…軌跡用登録データ
210c…データ(路面テクスチャ
210…処理データ記憶部
220…位置合わせ処理部
221…透明化ポリゴン設定部
DESCRIPTION OF SYMBOLS 100 ... Road surface imaging | photography system 110 ... Position measurement part 110 ... Measurement data 112 ... Controller 114 ... GPS
114A ... Antenna 116 ... IMU
118 ... DMI
DESCRIPTION OF SYMBOLS 120 ... Video camera 130 ... Recording apparatus 140 ... Hard disk 142 ... Image data 144 ... Synchronization data 146 ... Measurement data 150 ... Base station data 200 ... Road marking map generator 201 ... Main control part 202 ... Command input part 203 ... Display control part 204 ... Data input unit 205 ... Track data calculation unit 206 ... Image conversion unit 207 ... 1-pass image synthesis unit 210a ... Track data 210b ... Road surface track data 210c ... Road surface texture 210d ... Linked image 210e ... Road image 210f ... Road image registration data 210g ... Registration data for trajectory 210c ... Data (road surface texture 210 ... Processing data storage unit 220 ... Alignment processing unit 221 ... Transparent polygon setting unit
Claims (18)
(a) 前記コンピュータが、撮影対象である道路を複数回にわたって移動しながら前記標示が施された道路面を撮影した複数のフレーム画像で構成される画像データ、および該画像データにおける各フレーム画像の撮影位置を表す位置座標データを取得する工程と、
(b) 前記コンピュータが、前記取得された画像データを構成する各フレーム画像を変換して、前記道路面を真上から見た状態の正射画像を得る工程と、
(c) 前記コンピュータが、前記正射画像を前記位置座標データに基づいて、撮影された道路を移動した際の移動軌跡であるパス上に配置することにより、前記パスの道路面を表す連結画像を生成する工程と、
(d) 前記コンピュータが、前記位置座標データに基づき、1の道路を構成する複数の車線に対応するパス上の連結画像を重ねて、前記道路面の合成画像を生成する工程と、
(f) 前記コンピュータが、前記連結画像同士が重なっている領域において上側の連結画像を透過させて下側の連結画像を表示させるための透明化ポリゴンを、前記連結画像に応じて定まる位置および形状で生成する工程と
を有する路面標示地図生成方法。 A road marking map generation method for generating a road marking map including a marking given to a road surface by a computer ,
(A) The computer includes image data composed of a plurality of frame images obtained by capturing the road surface on which the sign is given while moving on the imaging target road a plurality of times, and each frame image in the image data Obtaining position coordinate data representing a shooting position;
(B) The computer converts each frame image constituting the acquired image data to obtain an orthographic image in a state where the road surface is viewed from directly above;
(C) the computer, on the basis of the orthoimage in the position data, by placing on the path a moving locus when you move the photographed road, connected image representing the road surface of the path Generating
A step; (d) computer, which on the basis of the position data, superimposed the combined images on the path corresponding to the plurality of lanes constituting one of the road to generate a composite image before Symbol road surface,
(F) the computer, position and shape of the transparent polygon for by transmitting an upper connected image displays the connected image in the lower side in the overlapping region is the connection between images, determined according to the connected image A road marking map generation method comprising the step of generating a road marking map.
前記工程(f)では、前記コンピュータが、前記下側の連結画像が存在する範囲内で前記透明化ポリゴンを生成する路面標示地図生成方法。 A road marking map generation method according to claim 1,
In the step (f), the road marking map generating method in which the computer generates the transparent polygon within a range where the lower connected image exists.
前記工程(f)では、前記コンピュータが、前記連結画像に含まれる標示に基づいて前記透明化ポリゴンの位置および形状を生成する路面標示地図生成方法。 A road marking map generation method according to claim 1 or 2,
In the step (f), the computer, the road marking map generating method for generating the position and shape of the transparent polygon based on the indication contained in the connected image.
前記工程(f)では、前記コンピュータが、下側の連結画像に含まれる標示が、上側の連結画像に含まれる標示よりも正確さを表す評価値が高いと判断される部分に前記透明化ポリゴンを生成する路面標示地図生成方法。 A road marking map generation method according to claim 3,
In the step (f), the computer includes the transparent polygon in a portion where the sign included in the lower connected image has a higher evaluation value indicating the accuracy than the sign included in the upper connected image. A road marking map generation method for generating
前記工程(f)では、前記コンピュータが、下側の連結画像にのみ前記標示が含まれている部分に前記透明化ポリゴンを生成する路面標示地図生成方法。 A road marking map generation method according to claim 3,
In the step (f), the road marking map generation method in which the computer generates the transparent polygon in a portion where the marking is included only in a lower connected image.
(e) 前記コンピュータが、前記各連結画像に対し、画像処理によって、前記標示を認識する工程を有し、
前記工程(f)では、前記コンピュータが、前記認識の結果に基づき、前記透明化ポリゴンを生成する路面標示地図生成方法。 The road marking map generation method according to any one of claims 3 to 5, further comprising:
(E) said computer, wherein for each connected image by image processing, has a step of recognizing the indication,
In the step (f), the road marking map generation method in which the computer generates the transparent polygon based on the recognition result.
前記工程(f)では、前記コンピュータが、前記上側の連結画像の側端の所定範囲を覆うように前記透明化ポリゴンを生成する路面標示地図生成方法。 A road marking map generation method according to any one of claims 1 to 5,
In the step (f), the computer, the road marking map generating method for generating a transparent polygon so as to cover a predetermined range of the side end of the connection image of the upper.
前記工程(d)は、
(d1) 前記コンピュータが、1の道路を構成する複数のパスのうち2本以上のパスの連結画像に共通して撮影されている領域内で、対応する対応点を特定する工程と、
(d2) 前記コンピュータが、前記複数のパスのうち1本を基準パスとして設定する工程と、
(d3) 前記コンピュータが、前記対応する対応点の位置が一致するように設定された移動ベクトルに基づいて、前記基準パス以外のパスを構成する連結画像における所定の領域ごとに平行移動して、前記複数のパスにまたがる前記道路面の合成画像を生成する工程と
を有する路面標示地図生成方法。 A road marking map generation method according to any one of claims 1 to 7,
The step (d)
(D1) the computer specifying a corresponding corresponding point in an area that is photographed in common in a connected image of two or more paths among a plurality of paths constituting one road ;
(D2) the computer sets one of the plurality of paths as a reference path;
(D3) The computer translates for each predetermined region in the connected image constituting a path other than the reference path, based on the movement vector set so that the positions of the corresponding corresponding points match, road marking map generated how having a generating a composite image of the road surface spanning the plurality of paths.
(g) 前記コンピュータが、前記工程(f)において生成された複数の透明化ポリゴンのうち、相互に重なり合うものを結合する工程
を有する路面標示地図生成方法。 The road marking map generation method according to any one of claims 1 to 8, further comprising:
(G) the computer, the step (f) of the plurality of transparent polygons generated in, road marking map generated how having a step of attaching those mutually overlapping.
前記工程(d)は、
(d4) 前記コンピュータが、前記道路面の合成画像の生成に先立って、前記連結画像またはフレーム画像を用いた画像処理によって、前記連結画像内の標示の量、および標示以外の異物の量の少なくとも一方を検出する工程と、
(d5) 前記コンピュータが、該検出結果に基づいて、いずれのパス上の正射画像を上側に配置するかを決定する工程と
を有する路面標示地図生成方法。 A road marking map generation method according to any one of claims 1 to 9,
The step (d)
(D4) Before the generation of the composite image of the road surface , the computer performs at least the amount of the sign in the connected image and the amount of foreign matter other than the sign by image processing using the connected image or the frame image. Detecting one,
(D5) the computer, the detection result on the basis of the road surface marking map generated how having a the step of determining whether to place the orthoimage on any path on the upper side.
前記工程(d4)では、前記コンピュータが、前記標示の量および前記異物の量の双方を検出し、
前記工程(d5)では、前記コンピュータが、前記異物の量に基づいて前記正射画像の配置が決定できない場合に前記標示の量に基づいて前記正射画像の配置を決定する路面標示地図生成方法。 A road marking map generation method according to claim 10,
In the step (d4), the computer detects both the amount of the sign and the amount of the foreign matter,
In the step (d5), the computer, the road marking map generating method for determining the placement of the orthophoto image based on the amount of the indicia when the arrangement can not be determined in the orthoimage based on the amount of the foreign substance .
前記工程(d4)では、前記コンピュータが、前記標示および異物の少なくとも一方について、前記連結画像全体における量と、前記連結画像同士が重なっている領域における量とを求め、
前記工程(d5)では、前記コンピュータが、前記連結画像全体における量よりも、前記連結画像同士が重なっている領域における量を優先的に評価することにより、前記正射画像の配置を決定する路面標示地図生成方法。 A road marking map generating method according to claim 10 or 11,
In the step (d4), the computer calculates an amount in the entire connected image and an amount in a region where the connected images overlap, for at least one of the sign and the foreign matter,
In the step (d5), the computer determines the arrangement of the orthographic image by preferentially evaluating the amount in the region where the connected images overlap each other than the amount in the entire connected image. Marking map generation method.
前記工程(f)は、
前記コンピュータが、前記上側の連結画像内において前記異物が写り込んだ部分を抽出する工程と、
前記コンピュータが、前記異物の少なくとも一部に対応する領域を覆う透明化ポリゴンを生成する工程と
を有する路面標示地図生成方法。 A road marking map generation method according to any one of claims 10 to 12,
The step (f)
The step of extracting a portion in which the foreign object is reflected in the upper connected image;
The computer, road marking map generated how having a generating a transparent polygons covering a region corresponding to at least a portion of the foreign substance.
前記工程(f)は、
(f1) 前記コンピュータが、前記上側の連結画像の側端の所定範囲を覆うように前記透明化ポリゴンを生成する工程と、
(f2) 前記コンピュータが、前記異物の少なくとも一部を覆う透明化ポリゴンと、前記工程(f1)で生成された透明化ポリゴンとの間隙を埋めるように一体化する工程と
を有する路面標示地図生成方法。 A road marking map generation method according to claim 13,
The step (f)
(F1) the computer generating the transparent polygon so as to cover a predetermined range of a side edge of the upper connected image;
(F2) said computer, at least a portion transparent polygons covering the road surface marking that having a the step of integrating to fill the gap between the generated transparent polygon in the step (f1) of the foreign substance Map generation method.
前記工程(f)は、
(f3) 前記コンピュータが、前記上側の連結画像に含まれる標示を抽出する工程と、
(f4) 前記コンピュータが、抽出された前記上側の標示について、他の標示にかぶらない範囲で、該標示よりも前記連結画像の側端側を覆う透明化ポリゴンを生成する工程と
を有する路面標示地図生成方法。 A road marking map generation method according to any one of claims 1 to 12,
The step (f)
(F3) the computer extracting a sign included in the upper connected image;
(F4) the computer, the extracted the upper indicia was in a range not fogged other indicia, that having a generating a transparent polygons covering the side end side of the connection image than the indication Road marking map generation method.
前記工程(f)は、更に、
(f5) 前記コンピュータが、前記パスに沿った道路面の連結画像における標示が存在しない部分では、該パスに交差する方向に該パスから所定の距離内にある部分を除く範囲で前記連結画像を覆う透明化ポリゴンを生成する工程
を有する路面標示地図生成方法。 A road marking map generation method according to claim 15,
The step (f) further includes
(F5) In a portion where the sign does not exist in the connected image of the road surface along the path, the computer displays the connected image in a range excluding a portion within a predetermined distance from the path in a direction intersecting the path. road marking map generated how having a step of generating a transparent polygons covering.
撮影対象である道路を複数回にわたって移動しながら前記標示が施された道路面を撮影した複数のフレーム画像で構成される画像データ、および該画像データにおける各フレーム画像の撮影位置を表す位置座標データを取得する取得部と、
前記取得された画像データを構成する各フレーム画像を変換して、前記道路面を真上から見た状態の正射画像を得る画像変換部と、
前記正射画像を前記位置座標データに基づいて、撮影された道路を移動した際の移動軌跡であるパス上に配置することにより、前記パスの道路面を表す連結画像を生成する連結画像生成部と、
前記位置座標データに基づき、1の道路を構成する複数の車線にそれぞれ対応するパス上の連結画像を重ねて、前記道路面の合成画像を生成する合成画像生成部と、
前記連結画像同士が重なっている領域において上側の連結画像を透過させて下側の連結画像を表示させるための透明化ポリゴンを、前記連結画像に応じて定まる位置および形状で生成する透明化ポリゴン生成部と
を備える路面標示地図生成装置。 A road marking map generating device for generating a road marking map including a marking applied to a road surface,
Image data composed of a plurality of frame images obtained by photographing the road surface on which the sign is given while moving on a road to be imaged a plurality of times, and position coordinate data representing a shooting position of each frame image in the image data An acquisition unit for acquiring
An image conversion unit that converts each frame image constituting the acquired image data to obtain an orthographic image in a state in which the road surface is viewed from directly above;
A connected image generation unit that generates a connected image representing a road surface of the path by arranging the orthographic image on a path that is a movement locus when the photographed road is moved based on the position coordinate data. When,
Based on the position data, it superimposed the combined images on the path corresponding to a plurality of lanes constituting one of the roads, and the composite image generation unit for generating a composite image before Symbol road surface,
Transparent polygon generation for generating a transparent polygon for transmitting the upper connected image and displaying the lower connected image in a region where the connected images overlap with each other at a position and shape determined according to the connected image A road marking map generating device comprising a section.
撮影対象である道路を複数回にわたって移動しながら前記標示が施された道路面を撮影した複数のフレーム画像で構成される画像データ、および該画像データにおける各フレーム画像の撮影位置を表す位置座標データを取得する手順と、
前記取得された画像データを構成する各フレーム画像を変換して、前記道路面を真上から見た状態の正射画像を得る処理を実行する手順と、
前記正射画像を前記位置座標データに基づいて、撮影された道路を移動した際の移動軌跡であるパス上に配置することにより、前記パスの道路面を表す連結画像を生成する処理を実行する手順と、
前記位置座標データに基づき、1の道路を構成する複数の車線にそれぞれ対応するパス上の連結画像を重ねて、前記道路面の合成画像を生成する処理を実行する手順と、
前記連結画像同士が重なっている領域において上側の連結画像を透過させて下側の連結画像を表示させるための透明化ポリゴンを、前記連結画像に応じて定まる位置および形状で生成する処理を実行する手順と
をコンピュータに実行させるためのコンピュータプログラム。 A computer program for generating a road marking map including a marking applied to a road surface,
Image data composed of a plurality of frame images obtained by photographing the road surface on which the sign is given while moving on a road to be imaged a plurality of times, and position coordinate data representing a shooting position of each frame image in the image data With the steps to get
A procedure for converting each frame image constituting the acquired image data and executing a process of obtaining an orthographic image in a state where the road surface is viewed from directly above;
Based on the position coordinate data, the orthographic image is arranged on a path that is a movement locus when the photographed road is moved, thereby executing a process of generating a connected image representing the road surface of the path. Procedure and
A step of executing a process based on said position data, superimposed the combined images on the path corresponding to a plurality of lanes constituting one of the road to generate a composite image before Symbol road surface,
A process of generating a transparent polygon for transmitting the upper connected image and displaying the lower connected image in a region where the connected images overlap with each other at a position and a shape determined according to the connected image is executed. A computer program for causing a computer to execute the procedure .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009017528A JP5281424B2 (en) | 2008-03-18 | 2009-01-29 | Road marking map generation method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008070216 | 2008-03-18 | ||
JP2008070216 | 2008-03-18 | ||
JP2009017528A JP5281424B2 (en) | 2008-03-18 | 2009-01-29 | Road marking map generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009258651A JP2009258651A (en) | 2009-11-05 |
JP5281424B2 true JP5281424B2 (en) | 2013-09-04 |
Family
ID=41386094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009017528A Expired - Fee Related JP5281424B2 (en) | 2008-03-18 | 2009-01-29 | Road marking map generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5281424B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10301783B2 (en) | 2012-01-17 | 2019-05-28 | LimnTech LLC | Roadway maintenance striping control system |
US9298991B2 (en) | 2012-01-17 | 2016-03-29 | LimnTech LLC | GPS-based machine vision roadway mark locator, inspection apparatus, and marker |
US8935057B2 (en) * | 2012-01-17 | 2015-01-13 | LimnTech LLC | Roadway mark data acquisition and analysis apparatus, systems, and methods |
US9784843B2 (en) | 2012-01-17 | 2017-10-10 | Limn Tech LLC | Enhanced roadway mark locator, inspection apparatus, and marker |
EP3648050B1 (en) * | 2017-06-28 | 2022-11-02 | FUJIFILM Corporation | Image compositing method, image compositing device, and recording medium |
KR102645368B1 (en) * | 2018-08-16 | 2024-03-11 | 소니그룹주식회사 | Information processing devices and information processing methods and programs |
CN114022856A (en) * | 2021-10-27 | 2022-02-08 | 北京机械设备研究所 | Unstructured road travelable area identification method, electronic device and medium |
CN113989450B (en) * | 2021-10-27 | 2023-09-26 | 北京百度网讯科技有限公司 | Image processing method, device, electronic equipment and medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000066659A (en) * | 1998-08-21 | 2000-03-03 | Denso Corp | Image compositing device and method, and navigation system |
AU2003248269A1 (en) * | 2002-07-12 | 2004-02-02 | Iwane Laboratories, Ltd. | Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device |
JP3820428B2 (en) * | 2003-02-25 | 2006-09-13 | 名古屋市 | Road image composition method and composition apparatus |
JP4273119B2 (en) * | 2003-10-21 | 2009-06-03 | 和郎 岩根 | Navigation device |
JP5047515B2 (en) * | 2006-03-20 | 2012-10-10 | 株式会社ゼンリン | Road image creation system, road image creation method, and road image composition apparatus |
WO2008130219A1 (en) * | 2007-04-19 | 2008-10-30 | Tele Atlas B.V. | Method of and apparatus for producing road information |
CN101842808A (en) * | 2007-11-16 | 2010-09-22 | 电子地图有限公司 | Method of and apparatus for producing lane information |
-
2009
- 2009-01-29 JP JP2009017528A patent/JP5281424B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009258651A (en) | 2009-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5281424B2 (en) | Road marking map generation method | |
JP5324240B2 (en) | Road marking map generation method and road marking map generation device | |
JP2009237901A (en) | Method of creating road marker map | |
JP5363752B2 (en) | Road marking map generation method | |
JP2009259215A (en) | Road surface marking map generation method | |
US10871377B1 (en) | Computer-vision based positioning for augmented reality navigation | |
US8571265B2 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
CN108460815B (en) | Method and device for editing map road elements | |
JP2009223817A (en) | Method for generating road surface marked map | |
EP2491527B1 (en) | Method for creating a mosaic image using masks | |
JP2006250917A (en) | High-precision cv arithmetic unit, and cv-system three-dimensional map forming device and cv-system navigation device provided with the high-precision cv arithmetic unit | |
CA2705375A1 (en) | Method of and apparatus for producing lane information | |
JP2012073397A (en) | Three-dimentional map display system | |
JP7010535B2 (en) | Information processing equipment | |
JP2008145364A (en) | Route guiding device | |
JP5285311B2 (en) | Road marking map generation method | |
JP5339753B2 (en) | Road marking map generation method | |
JP2007271568A (en) | One's own vehicle location recognition system and method | |
JP2021071885A (en) | Area cut-out method and area cut-out program | |
JP2012099010A (en) | Image processing apparatus and image processing program | |
JP7293931B2 (en) | Position measurement data generation device, position measurement data generation method, and position measurement data generation program | |
WO2009095966A1 (en) | Navigation device | |
CN117994744A (en) | Image data processing method, image data processing device, storage medium and vehicle | |
CN116152448A (en) | Method for vectorizing and extracting road elements based on image data | |
JP2007003298A (en) | Road model generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130524 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |