JP2006119591A - Map information generation method, map information generation program and map information collection apparatus - Google Patents
Map information generation method, map information generation program and map information collection apparatus Download PDFInfo
- Publication number
- JP2006119591A JP2006119591A JP2005172646A JP2005172646A JP2006119591A JP 2006119591 A JP2006119591 A JP 2006119591A JP 2005172646 A JP2005172646 A JP 2005172646A JP 2005172646 A JP2005172646 A JP 2005172646A JP 2006119591 A JP2006119591 A JP 2006119591A
- Authority
- JP
- Japan
- Prior art keywords
- information
- map
- unit
- similarity
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は地図情報を生成する技術に関するものである。 The present invention relates to a technique for generating map information.
従来、地図情報を生成する技術としては、特開平9−269726号公報において、ビデオカメラと高精度測位装置によって道路地図を作成するものが開示されている。この従来技術では、車にビデオカメラと高精度測位装置を積載した装置を利用する。まずビデオカメラによって得られた画像から道路車線を示す白線を検出し、その結果から車両が車線の中心からどの程度ずれた位置を走行しているかを検出する。そして、高精度測位装置によって得られる車両の位置情報と、カメラ画像処理結果によって得られた車両の道路中心からのずれの情報とを利用して、車線の中心における位置情報を求める。これを連続的に処理することで、道路中心の位置情報を算出して、既存の地図情報と照合して地図を補正することが可能となっている。 Conventionally, as a technique for generating map information, Japanese Patent Application Laid-Open No. 9-269726 discloses a technique for creating a road map using a video camera and a high-precision positioning device. In this prior art, a device in which a video camera and a high-precision positioning device are mounted on a car is used. First, a white line indicating a road lane is detected from an image obtained by a video camera, and from this result, it is detected how far the vehicle is traveling from the center of the lane. Then, the position information at the center of the lane is obtained by using the position information of the vehicle obtained by the high-accuracy positioning device and the information on the deviation of the vehicle from the road center obtained by the camera image processing result. By processing this continuously, it is possible to calculate the position information of the road center and correct the map by comparing with the existing map information.
しかしながら、上記特開平9−269726号公報に示されたものは、検出するものは道路の中心線であり、地図の作成等に必要な地図上に記載される周辺の情報を取得することができなかった。 However, what is disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 9-269726 is the centerline of the road to be detected, and it is possible to acquire the peripheral information described on the map necessary for map creation and the like. There wasn't.
本発明は、このような課題を解決するためになされたもので、地図作成に必要な地図上に記載される店舗などの情報、すなわち地図情報を効率的に生成できるようにすることを目的とする。 The present invention has been made to solve such problems, and has an object to efficiently generate information such as stores described on a map necessary for map creation, that is, map information. To do.
本発明では、撮像手段の移動に伴って撮像される映像データと、この映像データに対応して記録され上記撮像手段の撮像位置に対応して測位される測位情報とを入力し、この入力された映像データ中の検出対象を検出し、この検出された検出対象と上記撮像手段との相対位置情報を算出し、この算出された相対位置情報と上記測位情報とに基づき、検出対象の位置情報を生成するようにしたものである。 In the present invention, video data to be imaged as the imaging unit moves and positioning information recorded corresponding to the video data and positioned in accordance with the imaging position of the imaging unit are input and input. Detecting the detection target in the video data, calculating relative position information between the detected detection target and the imaging means, and detecting the position information of the detection target based on the calculated relative position information and the positioning information. Is generated.
本発明によれば、既存の地図には存在しない地図情報を効率的に生成することができる。 According to the present invention, map information that does not exist in an existing map can be efficiently generated.
実施の形態1.
以下に本発明の実施形態を示す。
図1は本実施形態における地図情報生成のために必要な情報を収集するデータ収集装置の構成を示す構成図である。図において、101はGPSもしくは慣性航法もしくはそれらを複合して構成され自位置を測定する測位手段、102は周囲の風景を撮影するビデオカメラ、103は方位を測定する方位センサである。
これら測位手段101、ビデオカメラ102、方位センサ103は移動体としての車両104に設置されており、これらの機器は正確にその位置関係が計測された上で設置されている。例えば、測位手段101、ビデオカメラ102、方位センサ103は、地平に対して同一垂直線上に中心が配置されるとともに、車両進行方向と水平に設置されている。さらにビデオカメラと方位センサはほとんど接する形で設置されている。方位センサ103は上記車両104の向きや姿勢を計測する。
Embodiments of the present invention will be described below.
FIG. 1 is a configuration diagram showing a configuration of a data collection apparatus that collects information necessary for generating map information in the present embodiment. In the figure, reference numeral 101 denotes GPS, inertial navigation or a combination of them, positioning means for measuring its own position, 102 a video camera for photographing the surrounding landscape, and 103 an orientation sensor for measuring the direction.
The positioning means 101, the
106は上記車両104の車速を検出する車速センサ、105はこの車速センサ106および上記測位手段101、ビデオカメラ102、方位センサ103からの情報を同期記録する記録装置である。この記録装置105と測位手段101、ビデオカメラ102、方位センサ103は信号線により接続されている。
Reference numeral 106 denotes a vehicle speed sensor that detects the vehicle speed of the vehicle 104, and 105 denotes a recording device that synchronously records information from the vehicle speed sensor 106 and the positioning means 101, the
次にこの発明における地図情報生成の動作を説明する。ここでは地図情報として、ある検出対象(例えば白線)の位置情報を正確に生成するものを示す。さらにこの位置情報に基づき、地図への対応を行う。
図2は本実施形態における地図情報生成の動作を示すフローチャートである。
まず、以下のようにして情報(データ)収集対象地域の情報(データ)を一括収集する(ステップST201)。車両104によって情報収集対象地域の路上を走行し、データ収集開始すると、測位手段101から例えばNMEA−0183形式の位置情報(緯度、経度、高度などのデータ)、ビデオカメラ102からは映像データ、方位センサ103からは車両104の三軸の角度、角加速度などのデータが出力され、これらの情報(データ)が記録装置105に入力されて記録が始まる。各データの信号のタイミングは入力した時点の記録装置の内部時刻によって同期される。情報収集対象地域でないところでは記録装置105での記録を停止させる。
その後、記録装置105内に記録されたデータをもとに地図情報を生成する。
Next, the operation of generating map information in the present invention will be described. Here, as map information, information that accurately generates position information of a detection target (for example, a white line) is shown. Furthermore, the map is handled based on the position information.
FIG. 2 is a flowchart showing the operation of generating map information in this embodiment.
First, the information (data) of the information (data) collection target area is collectively collected as follows (step ST201). When the vehicle 104 travels on the road in the information collection target area and starts collecting data, the positioning means 101 sends position information (latitude, longitude, altitude, etc.) in the form of NMEA-0183, video data from the
Thereafter, map information is generated based on the data recorded in the recording device 105.
まず、記録装置105内に記録されている映像データを解析して被写体を検出し、その画像座標を取得する(ステップST202:入力ステップ、検出ステップ)。本実施の形態では被写体は例えば道路上の白線とする。映像データからエッジ情報や直線性などの評価を行い被写体を検出する。図3に示すように白線と道路の境界線上の点(以下、対象点と呼ぶ)における座標を検出する。本実施の形態では路上の白線を検出対象とするが、白線以外にも横断歩道や専用レーンを示す矢印などの道路指標や、道路の周囲に存在する店舗の看板、交通標識などでもよいものとする。 First, the video data recorded in the recording device 105 is analyzed to detect a subject, and the image coordinates are acquired (step ST202: input step, detection step). In the present embodiment, the subject is, for example, a white line on the road. The subject is detected by evaluating edge information and linearity from the video data. As shown in FIG. 3, the coordinates at a point on the boundary line between the white line and the road (hereinafter referred to as a target point) are detected. In this embodiment, the white line on the road is a detection target, but in addition to the white line, a road indicator such as an arrow indicating a pedestrian crossing or a dedicated lane, a signboard of a store existing around the road, a traffic sign, etc. To do.
白線の検知方法としては既知の方法を利用するものとし、本実施の形態では特に言及しないものとする。また、ここで形状を認識してその領域を抽出し、領域内に含まれる文字列を把握した上で、その輪郭線の座標を算出したり、交通標識やチェーン店の看板などのパターンをあらかじめモデルとして記憶しておき、モデルとのマッチングによって交通標識や店舗の種類を特定したりすることが出来る。ここで得られた結果は図4に示すような画像座標系の座標値列とする。 A known method is used as a white line detection method, and is not particularly mentioned in the present embodiment. In addition, the shape is recognized here, the area is extracted, the character string included in the area is grasped, the coordinates of the outline are calculated, and the patterns such as traffic signs and signboards of chain stores are pre-set. It is memorized as a model, and the type of traffic sign or store can be specified by matching with the model. The result obtained here is a coordinate value sequence in an image coordinate system as shown in FIG.
次に得られた対象点の画像座標(二次元)から撮影時点のカメラと対象点との相対的な位置(三次元)を算出する(ステップST203:算出ステップ)。例えば路面に存在するものに関してカメラを一台だけ利用する場合には、次のような拘束条件によって相対位置を算出することができる。車両上に設置したカメラの高さは計測により既知とする。このときに対象点の存在する路面とカメラとの高さの関係は特殊な場合を除き一定と仮定できるため、高さは既知のパラメータとなり以下に示す方程式の元(Y)が一つ減り、スケールファクターsを含めて連立三元一次方程式の形にすることが出来る。x,yは画像座標系の座標点を示し、X,Y,Zはカメラを中心としたカメラ座標系(図5に示す)の空間座標を示し、fはカメラの焦点距離を示す。 Next, the relative position (three-dimensional) between the camera and the target point at the time of shooting is calculated from the obtained image coordinates (two-dimensional) of the target point (step ST203: calculation step). For example, when only one camera is used for an object existing on the road surface, the relative position can be calculated according to the following constraint conditions. The height of the camera installed on the vehicle is known by measurement. At this time, since the relationship between the height of the road surface where the target point exists and the camera can be assumed to be constant except in special cases, the height becomes a known parameter, and the element (Y) of the equation shown below is reduced by one, It can be in the form of simultaneous ternary linear equations including the scale factor s. x, y indicate coordinate points in the image coordinate system, X, Y, and Z indicate spatial coordinates in the camera coordinate system (shown in FIG. 5) centered on the camera, and f indicates the focal length of the camera.
x=sfX/Z ・・・(1)
y=sfY/Z ・・・(2)
1=s/Z ・・・(3)
x = sfX / Z (1)
y = sfY / Z (2)
1 = s / Z (3)
この式を既知の画像座標m(x,y)、焦点距離f、カメラからの高さYを代入して、X,Zについて解くと空間座標(=相対位置)M(X,Y,Z)を求めることが出来る。実際にはカメラの内部行列A、平行移動行列t、回転行列Rを利用してm=A[R,t]Mの関係を用いて計算を行う。ここでは説明を簡単にするために簡易式を用いているが、m=A[R,t]Mの関係式によって計算することももちろん可能である。この場合はA(3×3の行列)の各値をカメラの内部パラメータとよび、この測定をあらかじめ行うことで既知の値とすることが出来る。回転行列Rも3×3の行列であり、三軸それぞれの回転角を計測して入力することが出来る。これを利用して車両走行によるカメラの角度変化時でも計算結果の誤差の軽減に対応することも出来る。tはカメラの原点からの平行移動量を示す3×1の行列である。通常はこの実施形態の場合のように、カメラ座標と原点の位置は一致しているので平行移動量は0とみなすことが出来る。仮にカメラ設置位置がずれている場合、このバラメータを調整してデータ収集環境のキャリブレーションを行うことで、正確にデータ計算をすることが出来る。 When this equation is solved for X and Z by substituting the known image coordinates m (x, y), focal length f, and height Y from the camera, spatial coordinates (= relative position) M (X, Y, Z) Can be requested. Actually, the calculation is performed using the relationship of m = A [R, t] M using the internal matrix A, translation matrix t, and rotation matrix R of the camera. Here, a simple formula is used for the sake of simplicity of explanation, but it is of course possible to calculate with a relational formula of m = A [R, t] M. In this case, each value of A (3 × 3 matrix) is called an internal parameter of the camera, and a known value can be obtained by performing this measurement in advance. The rotation matrix R is also a 3 × 3 matrix, and the rotation angle of each of the three axes can be measured and input. By using this, it is possible to reduce the error of the calculation result even when the camera angle changes due to vehicle running. t is a 3 × 1 matrix indicating the amount of translation from the camera origin. Normally, as in the case of this embodiment, since the camera coordinates and the position of the origin coincide with each other, the parallel movement amount can be regarded as zero. If the camera installation position is deviated, data can be accurately calculated by adjusting this parameter and calibrating the data collection environment.
なお、ここでは路上の道路指標の検出を例にしているが、道路標識や看板などの路上に存在しない物体に関しては2台のカメラを利用して同時撮影された2枚の画像からカメラからの相対的な三次元位置を算出する方法が知られているため、これを利用することも可能である。 Here, the detection of road indicators on the road is taken as an example, but for objects that do not exist on the road, such as road signs and signboards, two cameras taken simultaneously from two images are taken from the camera. Since a method for calculating a relative three-dimensional position is known, it can be used.
次にステップST203の処理で得られた相対距離情報と、対象フレームを撮影したときの測位情報を利用して対象点の地理位置を計算する(ステップST204:対象位置情報生成ステップ)。図6にカメラ座標系と地理座標系の関係を示す。図6に示すようにカメラ座標系は地理座標系の縦軸(北半球の場合は北の方向)に対して角度を持っている。また、扱う単位としてはカメラ座標系での単位はメートル、地理座標系の単位は緯度、経度である。 Next, the geographical position of the target point is calculated using the relative distance information obtained in the process of step ST203 and the positioning information when the target frame is captured (step ST204: target position information generation step). FIG. 6 shows the relationship between the camera coordinate system and the geographic coordinate system. As shown in FIG. 6, the camera coordinate system has an angle with respect to the vertical axis of the geographic coordinate system (north direction in the case of the northern hemisphere). As a unit to be handled, a unit in the camera coordinate system is meter, and a unit in the geographic coordinate system is latitude and longitude.
カメラ座標系におけるZ軸の方向が車両の進行方向である。これは方位角として方位センサにより取得することが出来る。撮影時のカメラの測位情報は緯度、経度として得ることができるので、カメラ座標の原点Oは地理座標系において図7上部の図に示すような関係になっている。この時点ではカメラ座標と地理座標は平行の関係であると考えている。対象点Mの緯度経度も原点Oの緯度、経度を基にして換算することが出来る。しかしながら実際はカメラ座標系と地理座標系の間には方位角で示す角度があるため、方位角の情報を利用して原点Oを中心にして対象点Mを回転させる。回転後のイメージが図7の下図の図である。回転は2×2行列に広く知られている回転行列を掛け合わせて得ることが出来る。この演算によってカメラ座標系の相対距離で示されていた対象点の座標を地理座標系の座標値に変換することが出来る。このようにして計算された地理座標はハードディスクなどの記録領域に記録される。 The direction of the Z axis in the camera coordinate system is the traveling direction of the vehicle. This can be acquired by an azimuth sensor as an azimuth angle. Since the positioning information of the camera at the time of shooting can be obtained as latitude and longitude, the origin O of the camera coordinates has a relationship as shown in the upper part of FIG. 7 in the geographic coordinate system. At this point, the camera coordinates and geographic coordinates are considered to be parallel. The latitude and longitude of the target point M can also be converted based on the latitude and longitude of the origin O. However, since there is actually an angle indicated by an azimuth angle between the camera coordinate system and the geographic coordinate system, the target point M is rotated around the origin O using the azimuth information. The image after rotation is the lower figure of FIG. Rotation can be obtained by multiplying a 2 × 2 matrix by a widely known rotation matrix. By this calculation, the coordinates of the target point indicated by the relative distance in the camera coordinate system can be converted into coordinate values in the geographic coordinate system. The geographical coordinates calculated in this way are recorded in a recording area such as a hard disk.
次に処理しているフレームが最終フレームかどうかを判断する(図2のステップST205)。最終フレームではない場合はステップST202の処理に戻り、最終フレームである場合はステップST206以降の処理、すなわち、上記検出対象を地図上に対応させる処理(地図対応ステップ)を実行する。
ステップST206の処理では記録領域に蓄積された位置情報列を地図上にプロットする。プロット結果は例えば図8に示すようになる。
Next, it is determined whether the frame being processed is the final frame (step ST205 in FIG. 2). If it is not the last frame, the process returns to step ST202, and if it is the last frame, the process after step ST206, that is, the process for associating the detection target on the map (map correspondence step) is executed.
In the process of step ST206, the position information sequence accumulated in the recording area is plotted on the map. The plot result is as shown in FIG.
次にプロットした座標をつなぎ合わせて線分化する処理を行う(ステップST207)。線分化は一般的な一次の線形補間で行うことも出来るし、二次以上の曲線補間を行うことも可能である。道路の切れ目のような情報が存在しない部分がある場合は、データが一定値以上はなれていないかを確認し、離れているようであれば線分をそこで分割するという処理を行う。 Next, a process of line segmentation by connecting the plotted coordinates is performed (step ST207). Line differentiation can be performed by general linear interpolation, or quadratic or higher-order curve interpolation. If there is a part where there is no information such as a road break, it is checked whether the data is not more than a certain value, and if it is far away, the line segment is divided there.
これによって道路上の白線情報を始点、終点、曲率などの情報によってベクトル化することが出来る。このときにベクトル化の対象とする点として、すべての算出された位置情報点を同等に利用するのではなく、車速センサによって映像と同時に得られた車速情報によって利用する点の優先度を変更することで車両の移動による誤差を抑えることが出来、追加する情報の精度を高めることが出来る。たとえば、停止している状態では位置と映像の記録ぶれは生じないため、このときの優先度を例えば5段階中の最高位5に設定する。時速10Km/hまでの取得データは4に設定し、10Km/hから30Km/hまでは3、30Km/hから60Km/hまでは2、60Km/h以上は1とする。この優先度を用いることにより、点列情報を精度よくベクトル化することができる。 As a result, the white line information on the road can be vectorized by information such as the start point, end point, and curvature. At this time, instead of using all the calculated position information points equally as points to be vectorized, the priority of the points used by the vehicle speed information obtained simultaneously with the video by the vehicle speed sensor is changed. Thus, errors due to movement of the vehicle can be suppressed, and the accuracy of information to be added can be increased. For example, since the position and video recording blur does not occur in the stopped state, the priority at this time is set to, for example, the highest level 5 out of 5 levels. The acquired data up to 10 km / h is set to 4, 3 from 10 km / h to 30 km / h, 2 from 30 km / h to 60 km / h, and 1 from 60 km / h. By using this priority, the point sequence information can be vectorized with high accuracy.
図9の上部分に示すように単純にプロットした結果を利用して線形補間してベクトル化すると、曲がった線になる場合がある。一方、優先度を利用する場合は、例えば、優先度3のプロット点の信頼線は低いため平均化する際の重み付けの係数を小さい値0.5に設定し、優先度5のところは信頼できるデータとしてそのまま採用するため重み付けの係数を1とし、優先度4のところは0.75とする。これを利用して線分をベクトル化することで信頼性の低い点の情報を落として、信頼性の高い点の情報を採用できるので、図9の下部分に示すように精度高く点列情報をベクトル化することが出来る。
そして、ステップST207においてベクトル化されたデータをステップST208において一つのレイヤーとして管理する。これは一般的な地図ソフトで行われている方式を利用すればよい。
As shown in the upper part of FIG. 9, if the result of simple plotting is used to perform vector interpolation by linear interpolation, a curved line may be obtained. On the other hand, when the priority is used, for example, since the confidence line of the plot point of priority 3 is low, the weighting coefficient for averaging is set to a small value 0.5, and the place of priority 5 is reliable. Since the data is used as it is, the weighting coefficient is set to 1, and the priority 4 is set to 0.75. By using this to vectorize the line segment, information on points with low reliability can be dropped and information on points with high reliability can be adopted, so point sequence information with high accuracy as shown in the lower part of FIG. Can be vectorized.
Then, the data vectorized in step ST207 is managed as one layer in step ST208. This can be done by using a method used in general map software.
以上のようにして、既存の地図には存在しない詳細な情報を新たに生成し、地図上に付加することが出来、地図作成において必要な地図上に乗る店舗などの情報を効率的に生成できる。 As described above, detailed information that does not exist in the existing map can be newly generated and added to the map, and information such as stores on the map necessary for map creation can be efficiently generated. .
なお、映像データから認識した物体(例えば交通標識)から文字情報、特徴情報を読み取り、物体の種別を判定して属性を付加し、その属性とともに復元結果を既存の地図上に重ね合わせることで既存の地図にはない情報を付加することも可能であり、より詳細な情報を生成、付加することができる。上記物体は、交通標識の他、看板や建物を示す表示板とし、物体から得られた特徴情報により店舗や建物を識別して、地図に店舗情報を付加することもできる。 In addition, text information and feature information is read from an object (for example, traffic sign) recognized from video data, the type of object is determined, an attribute is added, and the restoration result is overlaid on the existing map together with the attribute. It is also possible to add information that is not in the map, and it is possible to generate and add more detailed information. In addition to traffic signs, the object may be a display board indicating a signboard or a building, and the store or building may be identified by feature information obtained from the object, and the store information may be added to the map.
以上の実施形態中に記載した構成要素はその趣旨を変えない範囲で別の手段と代替することが出来るものとする。
さらに複数のビデオカメラ102を車両104に設置して同時に複数の角度からの画像を取得することも可能である。ビデオカメラ102はラインセンサなどの画像を取得できるものであれば他のもので代替することも可能である。
The constituent elements described in the above embodiments can be replaced with other means within a range that does not change the gist thereof.
It is also possible to install a plurality of
なお、以上の実施形態の説明は地図情報を生成する方法を示すものであるが、計算機で動作するソフトウエアで実現することもできる。 The above description of the embodiment shows a method for generating map information, but it can also be realized by software operating on a computer.
実施の形態2.
以下、実施の形態2について説明する。実施の形態1では、一つの車両収集装置にて対象物体を測位する方法について説明した。実施の形態2では、多数の車両や複数のセンサを用いて収集した映像データから対象物を検出し、これらの検出結果を累積した値に閾値処理を施すことで、対象物を高精度に検出・測位する方法について説明する。
Embodiment 2. FIG.
The second embodiment will be described below. In the first embodiment, the method of positioning the target object with one vehicle collection device has been described. In the second embodiment, a target object is detected from video data collected using a large number of vehicles and a plurality of sensors, and a threshold value process is performed on a value obtained by accumulating the detection results, thereby detecting the target object with high accuracy.・ Explain the method of positioning.
ここで、対象物とは、収集の対象となっている地図情報のことを意味し、例えば、道路標識、道路上の白線や、横断歩道、道路の周囲に存在する店舗の看板、信号機、電柱、などのことを指すものとする。 Here, the object means map information to be collected. For example, a road sign, a white line on the road, a pedestrian crossing, a store signboard around the road, a traffic light, a telephone pole , Etc.
図10は、実施の形態2に係る地図情報収集装置の構成図である。地図情報収集装置1000は、映像情報・位置情報データベース1001と、対象物情報収集部1002と、地図データベース1003と、対象物情報累積部1004とを備えている。
映像情報・位置情報データベース1001は、映像情報とそれに同期した車両の位置情報を記憶する記憶領域であり、地図情報収集装置1000の内部または外部に設けられた記憶装置に構築される。
対象情報収集部1002は、対象物検出部1005と、対象物測位部1006と、対象物保存部1007とを備えている。
さらに、対象物検出部1005は、画像走査部1010と、類似度計算部1011と、矩形領域マージ部1012と、閾値処理部1013とを備えている。
地図データベース1003は、対象物の緯度・経度・標高の3次元座標と、対象物に関するその他の情報を記憶する記憶領域であり、地図情報収集装置1000の内部または外部に設けられた記憶装置に構築される。
対象物情報累積部1004は、対象物マージ部1008と、閾値処理部1009とを備えている。
FIG. 10 is a configuration diagram of the map information collecting apparatus according to the second embodiment. The map
The video information /
The target
Further, the
The
The object
ここで、本実施の形態に係る構成要素と、実施の形態1に係る構成要素の関係について述べる。まず、映像情報・位置情報データベース1001は、実施の形態1に説明した記録装置105に相当する。また、対象物検出部1005は、実施の形態1に説明した検出ステップ(ステップST202)に相当する処理装置である。また、対象物測位部1006とは、算出ステップ(ステップST203)と対象位置情報生成ステップ(ステップST204)に相当する処理装置である。
Here, the relationship between the components according to the present embodiment and the components according to the first embodiment will be described. First, the video information /
次に、動作について説明する。本実施の形態に係る地図情報収集装置1000の動作は、映像情報とそれに同期した位置データから対象物を検出・測位して地図データベース1003に保存する対象物情報収集フェイズと、地図データベース1003に保存された対象物の情報を累積する対象物情報累積フェイズと、二つのフェイズから構成される。
Next, the operation will be described. The operation of the map
まず、図11を参照して、対象物情報収集フェイズについて説明する。図11は、対象物情報収集フェイズの動作を示すフローチャートである。初めに、実施の形態1で述べた構成により、GPSとビデオカメラ(あるいはセンサ)を搭載した多数の車両を用いて、道路と周辺情景の映像データと、この映像データに同期した車両の位置情報を収集し、映像情報・位置情報データベース1001に保存する(ステップST1101)。なお、個々の車両における映像データと、映像データに同期した位置情報の収集方法は実施の形態1と同じであるので説明を省略する。
ここで、同一の車両で日を変えて映像データと位置情報データを収集しても良い。また一つの車両に複数のビデオカメラやセンサを搭載して、異なる位置や角度から同一区間の道路の映像情報と測位情報データを収集しても良い。このようにすることで、広範囲の市街地を満遍なくデータ収集を行なうことが可能となる。
また、ステップST1101で収集する映像データは、ビデオカメラで撮影した可視画像に限らず、例えば、ラインスキャンレーザで得られる奥行き映像データや、赤外線カメラによって得られる熱映像データなど、カメラ以外のセンサから得られる映像データでもよい。
First, the object information collection phase will be described with reference to FIG. FIG. 11 is a flowchart showing the operation of the object information collection phase. First, using the configuration described in the first embodiment, using a large number of vehicles equipped with GPS and video cameras (or sensors), video data of roads and surrounding scenes, and vehicle position information synchronized with the video data Are stored in the video information / position information database 1001 (step ST1101). Note that the video data in each vehicle and the method of collecting position information synchronized with the video data are the same as those in the first embodiment, and thus description thereof is omitted.
Here, the video data and the position information data may be collected by changing the date in the same vehicle. Further, a plurality of video cameras and sensors may be mounted on one vehicle, and video information and positioning information data of roads in the same section may be collected from different positions and angles. By doing so, it is possible to collect data uniformly over a wide area of the city.
In addition, the video data collected in step ST1101 is not limited to a visible image captured by a video camera. For example, depth video data obtained by a line scan laser, thermal video data obtained by an infrared camera, and the like from sensors other than the camera. The obtained video data may be used.
次に、対象物検出部1005は、映像情報・測位情報データベース1001に保存された多数の映像情報の中から一つを選択する(ステップST1102)。
Next, the
次に、対象物検出部1005は、ステップST1102で選択された映像情報の中から1フレームだけ画像を取得する(ステップST1103)。
Next, the
次に、対象物検出部1005は、ステップST1103にて取得した画像を解析して対象物が写る矩形領域を検出し、同時に矩形領域の類似度を求める(ステップST1104)。例えば、映像情報を基に道路設備管理を行なう場合、対象物検出部1005は、入力画像に写る道路標識や信号機、電柱、等を検出して、それらを取り囲む矩形領域を出力し、またその矩形領域の類似度を算出する。
ここで類似度とは、「ある矩形領域の画像が目的の対象物の画像と類似している度合いを数値的に表現しているもの」と定義する。以下、本実施の形態では、例えば、矩形領域の画像が目的の対象物である可能性が高いほど大きな正の値をとり、また矩形領域の画像が目的の対象物である可能性が低いほど負の値をとるものとする。
類似度の算出方法としては、例えば、テンプレートマッチングを用いて、テンプレート画像と矩形領域の類似度を算出することも可能である。また、対象物の色が特定されている場合には、矩形領域の色と対象物に特定の色との類似度を算出してもよい。また、例えば、参考文献1、2に記載のアルゴリズムを用いることで、高精度かつ高速に対象物の矩形領域を検出して、その類似度を算出することも可能である。
[参考文献1]
Paul A. Viola, Michael J. Jones, “Rapid Object Detection Using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ISSN: 1063-6919, Vol. 1, pp. 511-518, December 2001
[参考文献2]
Paul A. Viola, Michael J. Jones, “Fast and Robust Classification using Asymmetric AdaBoost and a Detector Cascade.” Advances in Neural Information Processing Systems 14, p1311-1318, 2001, MIT Press,
Next, the
Here, the similarity is defined as “a numerical expression of the degree of similarity of an image of a certain rectangular area with an image of a target object”. Hereinafter, in the present embodiment, for example, the higher the possibility that the image in the rectangular area is the target object, the higher the positive value, and the lower the possibility that the image in the rectangular area is the target object. It shall take a negative value.
As a method of calculating the similarity, for example, it is possible to calculate the similarity between the template image and the rectangular area by using template matching. When the color of the object is specified, the similarity between the color of the rectangular area and the color specific to the object may be calculated. Further, for example, by using the algorithms described in
[Reference 1]
Paul A. Viola, Michael J. Jones, “Rapid Object Detection Using a Boosted Cascade of Simple Features”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), ISSN: 1063-6919, Vol. 1, pp. 511 -518, December 2001
[Reference 2]
Paul A. Viola, Michael J. Jones, “Fast and Robust Classification using Asymmetric AdaBoost and a Detector Cascade.” Advances in Neural Information Processing Systems 14, p1311-1318, 2001, MIT Press,
ここで、参考文献1および参考文献2に記載の物体検出アルゴリズムを用いた類似度の算出方法について述べる。
Here, a method of calculating the similarity using the object detection algorithm described in
参考文献1、2においてViola & Jonesらは、Adaboostと呼ばれる学習アルゴリズムを用いて高精度かつ高速に対象物の検出を行った。これは、エッジなどの特徴量の情報に基づいて入力画像が対象物であるか否かを判別する関数(以下、これを判別関数と呼ぶ)の出力を累積し、累積した値の大小に応じて入力画像が対象物か否かの判定を行うものである。この判別関数の出力を累積する式は、以下に示す数式1で与えられる。
数式1において、confは判別関数の出力を累積した値であり、xは入力された矩形領域の画像であり、θは検出率を調整するための閾値であり、tは判別関数のインデックスであり、Tは加算する判別関数の総数である。
また、ht(x)は判別関数であり、画像xが対象物の画像である可能性が高ければ正の値を返し、画像xが対象物である可能性が低ければ負の値を返す。例えば、道路標識を検出したい場合、ある判別関数は道路標識に固有の形を検出することで道路標識である可能性の大小を数値化して返し、また、ある判別関数は道路標識に固有の色を検出して目的の道路標識である可能性の大小を数値化して返す。
数式1において、xが目的の対象物の画像である可能性が高いほどconfは大きな正の値をとり、またxが対象物の画像である可能性が低いほどconfは負の値をとる。このため、対象物検出部1005において、数式1に示すconfを類似度として使用することが可能である。
なお、上記の判別関数を求める方法や、閾値θを決定する方法については文献002および文献003に記載されているのでここでは言及しない。
In References 1 and 2, Viola & Jones et al. Used a learning algorithm called Adaboost to detect an object with high accuracy and high speed. This is done by accumulating the output of a function that discriminates whether or not the input image is a target object based on information about feature quantities such as edges (hereinafter referred to as discriminant function), and depending on the magnitude of the accumulated value. Thus, it is determined whether or not the input image is an object. An equation for accumulating the output of the discriminant function is given by
In
H t (x) is a discriminant function, which returns a positive value if the image x is likely to be an image of the object, and returns a negative value if the image x is unlikely to be an object. . For example, if you want to detect a road sign, a certain discriminant function quantifies and returns the possibility of being a road sign by detecting the shape unique to the road sign. Is detected, and the possibility of being the target road sign is converted into a numerical value and returned.
In
Note that the method for obtaining the discriminant function and the method for determining the threshold θ are described in Documents 002 and 003, and are not described here.
以下では、対象物検出部1005が、例えば参考文献1と参考文献2に記載の物体検出アルゴリズムを用いて、対象物の矩形領域とその類似度を算出する方法について説明する。図12は、対象物検出部1005の動作を示すフローチャートである。図12は、図11に示すステップST1104における対象物検出部1005の動作を詳細に説明したものである。
Hereinafter, a method will be described in which the
まず、画像走査部1010は、ステップST1103で取得した画像を入力として受け取る(ステップST1201)。
次に、画像走査部1010は、異なる大きさの対象物を検出するために、元画像を異なる率で縮小させた画像を複数生成する(ステップST1202)。図14は、画像走査部1010の動作例を示す説明図である。例えば、図14の(a)に示すように、元画像を縮小して異なる大きさの画像を複数生成する。
次に、画像走査部1010は、矩形領域を一ピクセルごとに移動させて、ステップST1202で生成した縮小画像を走査する(ステップST1203)。
First, the
Next, the
Next, the
次に、類似度計算部1011は、ステップST1203で走査した矩形領域の類似度を計算する(ステップST1204)。類似度の計算には、例えば、数式1を用いる。
次に、類似度計算部1011は、入力した矩形領域の類似度が0より大きいか否かを判断する(ステップST1205)。
次に、類似度計算部1011は、入力した矩形領域の類似度が0より大きければ、この矩形領域は対象物の画像であるとみなし、その矩形領域の座標と類似度を保存しておく(ステップST1206)。図15は、対象物の矩形領域の例を示す説明図である。ここで矩形領域の座標とは、図15に示すように、画像座標系XYにおいて矩形領域の位置を指定する四つの座標値x1、x2、y1、y2のことを指す。一方、ステップST1205で、入力した矩形領域の類似度が0より大きくなければ、ステップST1207へ進む。
Next,
Next, the
Next, if the similarity of the input rectangular area is greater than 0, the
次に、画像走査部1010は、ステップST1202で生成したすべての縮小画像を走査したか否かを判断する(ステップST1207)。まだ走査していない縮小画像があれば、すべての画像を走査するまでステップST1203に戻り、対象物の矩形領域を検出する処理を繰り返す。すべての縮小画像を走査した場合は、ステップST1208に進む。
Next,
ステップST1203からステップST1207の処理により、通常、図14の(b)に示すように、一つの対象物に対して複数の矩形領域が重なって検出される。そこで、矩形領域マージ部1012は、保存した矩形領域を一つにまとめるために、矩形領域の面積が一定の割合以上重なっている場合、これらの重なった矩形領域をマージして一つの矩形領域を出力する(以下、マージ処理)(ステップST1208)。この際、新しい矩形領域の座標は、複数の矩形領域の座標の類似度による重み付け平均とする。また、新しい矩形領域の類似度は二つの類似度の和とする。 By the processing from step ST1203 to step ST1207, normally, as shown in FIG. 14B, a plurality of rectangular areas are detected overlapping one object. Therefore, the rectangular area merging unit 1012 merges these overlapping rectangular areas when the areas of the rectangular areas overlap by a certain ratio or more in order to combine the saved rectangular areas into one. Output (hereinafter, merge process) (step ST1208). At this time, the coordinates of the new rectangular area are weighted averages based on the similarity of the coordinates of the plurality of rectangular areas. The similarity of the new rectangular area is the sum of the two similarities.
図16は、矩形領域マージ部1012の動作例を示す説明図である。図16を用いて、ステップST1208の動作例を説明する。図16(a)に示すように、2次元の画像座標系に矩形領域Aと矩形領域Bと矩形領域Cが検出されたものとする。ここで、矩形領域Aが類似度5を持ち、矩形領域Bが類似度10を持ち、矩形領域Cが類似度10を持つとする。矩形領域Aと矩形領域Bの面積が一定以上重なっているため、これら二つの領域をマージ処理して矩形領域Dを新しく生成する(図16(b))。矩形領域Dの座標は、矩形領域Aと矩形領域Bの類似度によるそれぞれの座標の重み付け平均となる。また、矩形領域Dの類似度は10+5=15と計算される。
ステップST1208の具体的な計算例を以下に示す。図16(a)において、矩形領域Aの座標を(a_x1,a_x2,a_y1,a_y2)とし、矩形領域Bの座標を(b_x1,b_x2,b_y1,b_y2)とする。また、矩形領域Aの類似度をa_confとし、矩形領域Bの類似度をb_confとする。このとき、図16(b)の矩形領域Dの座標(d_x1,d_x2,d_y1,d_y2)は数式2で与えられる。
d_x1 = ( a_conf×a_x1 + b_conf×b_x1)/( a_conf + b_conf)
d_x2 = ( a_conf×a_x2 + b_conf×b_x2)/( a_conf + b_conf)
d_y1 = ( a_conf×a_y1 + b_conf×b_y1)/( a_conf + b_conf)
d_y2 = ( a_conf×a_y2 + b_conf×b_y2)/( a_conf + b_conf)
・・・(数式2)
また、矩形領域Dの類似度d_confは数式3で与えられる。
d_conf= a_conf + b_conf ・・・(数式3)
FIG. 16 is an explanatory diagram illustrating an operation example of the rectangular area merging unit 1012. An example of the operation in step ST1208 will be described with reference to FIG. As shown in FIG. 16A, it is assumed that a rectangular area A, a rectangular area B, and a rectangular area C are detected in a two-dimensional image coordinate system. Here, it is assumed that the rectangular area A has a similarity of 5, the rectangular area B has a similarity of 10, and the rectangular area C has a similarity of 10. Since the areas of the rectangular area A and the rectangular area B overlap each other by a certain amount or more, these two areas are merged to generate a new rectangular area D (FIG. 16B). The coordinates of the rectangular area D are weighted averages of the coordinates based on the similarity between the rectangular area A and the rectangular area B. Further, the similarity of the rectangular area D is calculated as 10 + 5 = 15.
A specific calculation example of step ST1208 is shown below. In FIG. 16A, the coordinates of the rectangular area A are (a_x1, a_x2, a_y1, a_y2), and the coordinates of the rectangular area B are (b_x1, b_x2, b_y1, b_y2). Further, the similarity of the rectangular area A is a_conf, and the similarity of the rectangular area B is b_conf. At this time, the coordinates (d_x1, d_x2, d_y1, d_y2) of the rectangular area D in FIG.
d_x1 = (a_conf × a_x1 + b_conf × b_x1) / (a_conf + b_conf)
d_x2 = (a_conf × a_x2 + b_conf × b_x2) / (a_conf + b_conf)
d_y1 = (a_conf × a_y1 + b_conf × b_y1) / (a_conf + b_conf)
d_y2 = (a_conf × a_y2 + b_conf × b_y2) / (a_conf + b_conf)
... (Formula 2)
The similarity d_conf of the rectangular area D is given by Equation 3.
d_conf = a_conf + b_conf (Formula 3)
最後に、閾値処理部1013は、ステップST1208において加算された類似度に対して閾値処理を行い、一定の閾値以下の類似度を持つ矩形領域は棄却する(ステップST1209)。閾値処理部1013の動作例を図16の(b)と(c)に示す。図16(b)には、類似度15を持つ矩形領域Dと、類似度10を持つ矩形領域Cが存在する。矩形領域Cの近傍にはその他の矩形領域が存在しなかったため、マージ処理が行われず、類似度は10のままである。このとき、類似度が10以下の矩形領域は棄却する閾値処理を行うとする。この処理で、矩形領域Cは棄却される。一方で、矩形領域Dは類似度が15であるため、棄却されずに残る。この矩形領域Dを閾値処理部1013の出力とする。
通常、対象物の周辺には複数の矩形領域が重なって検出されるため、これらをマージ処理することで類似度を高めることができる。一方、ノイズ等の影響で誤って検出された場合、複数の矩形領域が重なって検出されることは滅多に無く、マージ処理が行われずに、各矩形領域の類似度は低いままである。このため、マージ処理を行って類似度を累積した後に閾値処理を施すことで誤検出を減らすことが可能となる。
Finally,
Usually, since a plurality of rectangular areas are detected in the vicinity of the object, the similarity can be increased by merging them. On the other hand, when erroneously detected due to the influence of noise or the like, a plurality of rectangular areas are rarely detected in an overlapping manner, and the merge process is not performed, and the similarity between the rectangular areas remains low. For this reason, it is possible to reduce false detections by performing threshold processing after performing merge processing and accumulating similarities.
以上のように、対象物検出部1005は、例えば参考文献1と参考文献2に記載の物体検出アルゴリズムを用いて、入力された画像から対象物を検出して、その矩形領域と類似度を算出することができる。
As described above, the
また、対象物検出部1005において、対象物の類似度を計算する方法は、参考文献1、2に記載のアルゴリズムに限らず、目的となる対象物の画像と矩形領域の画像が類似している度合いを数値的に算出することが可能であれば、いずれのアルゴリズムを用いてもよい。
In addition, the method of calculating the similarity of the object in the
再び、図11を用いて、対象物情報収集部1002の動作について説明する。対象物測位部1006は、ステップST1104で検出した対象物の矩形領域の座標(2次元)を用いて、撮影時点のカメラを中心とした対象物の相対的な位置(3次元)を算出する(ステップST1105)。なお、対象物の矩形領域の座標から、対象物の相対的な位置を算出する方法は実施の形態1におけるステップST203の処理と同じであるため、実施の形態2では説明を省略する。
The operation of the object
次に、対象物測位部1006は、ステップST1105の処理で得られた相対位置情報と、現在処理している対象フレームを撮影したときの測位情報とを利用して対象物の地理座標を計算する(ステップST1106)。なお、対象物の地理座標の計算については、実施の形態1のステップST204の処理と同じであるため、実施の形態2では説明を省略する。
Next, the target
次に、対象物保存部1007は、映像情報から検出した対象物の情報を地図データベース1003に保存する(ステップST1107)。ここで対象物の情報とは、例えば、ステップST1106で求めた対象物の地理座標(緯度、経度、標高)や、対象物の類似度、対象物の種類、対象物の大きさ、切り出した対象物の画像等の対象物に関する情報のことを指す。
Next, the
次に、対象物情報収集部1002は、ステップST1103で取得した画像が、ステップST1102で取得した映像情報の最終フレームか否かを判断する(ステップST1108)。もし、ステップST1103で取得した画像が、ステップST1102で取得した映像情報の最終フレームである場合は次のステップST1109に進む。そうでない場合はステップST1103に戻り映像情報から次のフレームを取得して対象物を検出する処理を繰り返す。
Next, the object
次に、対象物情報収集部1002は、現在処理を行っている映像情報が、映像情報・測位情報データベース1001に保存されている最後の映像情報か否かを判断する(ステップST1109)。もし、映像情報・測位情報データベース1001に、まだ対象物検出の処理を行っていない映像情報が残っている場合、ステップST1102に戻り次の映像情報に対して処理を行う。また、現在処理を行っている映像情報が、映像情報・測位情報データベース1001に保存されている最後の映像情報である場合、対象物情報収集フェイズの処理を終了する。
Next, the object
以上で述べたように、対象物情報収集フェイズでは、対象物情報収集部1002が、多数の車両やセンサで収集した映像情報から対象物を検出し、その位置情報を地図データベース1003に保存する。
As described above, in the object information collection phase, the object
次に、対象物情報累積フェイズについて説明する。前述した対象物情報収集フェイズでは、例えば二台の車両で同じ対象物の情報を収集した場合、これらは個別に地図データベース1003に保存されていた。そこで、対象物情報累積フェイズでは、同一の地理座標にある複数の対象物は同じものであるとみなし、対象物の情報を一つにまとめる処理を行なう。以下では、図13を用いて、対象物情報累積フェイズの動作手順を説明する。図13は、対象物情報累積フェイズの動作を示すフローチャートである。
Next, the object information accumulation phase will be described. In the above-described object information collection phase, for example, when information on the same object is collected by two vehicles, these are individually stored in the
はじめに、対象物情報累積部1004は、地図データベース1003から一つの対象物を番号順に選択して、該当の対象物の情報を取得する(ステップST1301)。なお、地図データベース1003に保存されている対象物の情報は、保存された日付や位置などの特徴により番号付けされているものとする。
First, the object
次に、対象物マージ部1008は、地図データベース1003を検索して、ステップST1301で選択した対象物の地理座標の近傍にその他の対象物が存在するか否かを調べる(ステップST1302)。もし、ステップST1301で選択した対象物の地理座標の近傍にその他の対象物が見つかった場合、次のステップST1303に進む。また、もし、ステップST1301で選択した対象物の地理座標の近傍にその他の検出された対象物が見つからなかった場合、ステップST1301に戻り、次の対象物の情報を取得する。
Next, the
次に、対象物マージ部1008は、ステップST1301で選択した対象物の情報と、この対象物の地理座標の近傍に存在する対象物の情報を一つにまとめる(ステップST1303)。以下、図17と図18を用いて、ステップST1303の動作例を説明する。
Next, the
まず、図17を用いて、対象物の表現方法について説明する。図17は、対象物が直方体の例を示す説明図である。図17に示すように、対象物を、経度と緯度と標高の3次元空間において、適当な大きさを持つ直方体で表現する。ここで、対象物を表現する直方体の大きさは、実際の対象物の大きさと、対象物情報収集フェイズにおける地理座標の測位精度とによって決定される。例えば、厚さが無視できるほど薄い50cm四方の道路標識を標準偏差2cmの精度で測位した場合、図17に示すように、標準偏差の3倍である6cmを道路標識の大きさに加算して、直方体の大きさを算出する。 First, a method for expressing an object will be described with reference to FIG. FIG. 17 is an explanatory diagram illustrating an example in which the object is a rectangular parallelepiped. As shown in FIG. 17, the object is represented by a rectangular parallelepiped having an appropriate size in a three-dimensional space of longitude, latitude, and altitude. Here, the size of the rectangular parallelepiped representing the object is determined by the actual object size and the positioning accuracy of the geographic coordinates in the object information collection phase. For example, when a 50 cm square road sign with a negligible thickness is measured with an accuracy of 2 cm of standard deviation, 6 cm, which is three times the standard deviation, is added to the size of the road sign as shown in FIG. The size of the rectangular parallelepiped is calculated.
次に、図18を用いて、対象物の情報を一つにまとめる方法について説明する。図18は、対象物情報累積部1004の動作例を示す説明図である。図18の(a)に示すように、地図データベース1003上の緯度、経度、標高の3次元空間に、対象物Aと対象物Bと対象物Cの三つの対象物があるとする。また、それぞれの対象物は、対象物情報収集フェイズにて計算した類似度の情報も持つ。この例では、対象物Aが類似度5を持ち、対象物Bが類似度10を持ち、対象物Cが類似度5を持つとする。
ここで、対象物Aの地理座標の近傍に対象物Bが存在するか否かを判断するための基準として、例えば、対象物の直方体の重なった体積を利用することが考えられる。例えば、図18の(a)において、対象物Aと対象物Bの体積が一定以上重なっているとする。このとき、対象物Aと対象物Bを一つにまとめ、新しく対象物Dを生成する(以下、マージ処理)。また、地図データベース1003にある対象物Aと対象物Bの情報は削除して、新しく対象物Dの情報を地図データベース1003に保存する。
Next, with reference to FIG. 18, a description will be given of a method for combining information on objects. FIG. 18 is an explanatory diagram illustrating an operation example of the object
Here, as a reference for determining whether or not the object B exists in the vicinity of the geographical coordinates of the object A, for example, it is conceivable to use a volume in which the rectangular parallelepipeds of the object overlap. For example, in FIG. 18A, it is assumed that the volumes of the object A and the object B overlap each other by a certain amount or more. At this time, the object A and the object B are combined into one, and a new object D is generated (hereinafter, merge processing). Further, the information on the object A and the object B in the
以下に、具体的な計算方法を示す。対象物Aは数式4の6つの平面により囲まれる直方体であるとする。
X=a_x1,X=a_x2,Y=a_y1,Y=a_y2,Z=a_z1,Z=a_z2 ・・・(数式4)
同様に対象物Bは、数式5の6つの平面により囲まれる直方体であるとする。
X=b_x1,X=b_x2,Y=b_y1,Y=b_y2,Z=b_z1,Z=b_z2 ・・・(数式5)
また、対象物Aの類似度をa_confとし、対象物Bの類似度をb_confとする。
このとき、対象物Dの座標(d_x1,d_x2,d_y1,d_y2,d_z1,d_z2)は、対象物Aと対象物Bの座標の類似度による重み付け平均であり、数式6で与えられる。
d_x1 = ( a_conf×a_x1 + b_conf×b_x1)/( a_conf + b_conf)
d_x2 = ( a_conf×a_x2 + b_conf×b_x2)/( a_conf + b_conf)
d_y1 = ( a_conf×a_y1 + b_conf×b_y1)/( a_conf + b_conf)
d_y2 = ( a_conf×a_y2 + b_conf×b_y2)/( a_conf + b_conf)
d_z1 = ( a_conf×a_z1 + b_conf×b_z1)/( a_conf + b_conf)
d_z2 = ( a_conf×a_z2 + b_conf×b_z2)/( a_conf + b_conf)
・・・(数式6)
また、対象物Dの類似度d_confは数式7で与えられる。
d_conf= a_conf + b_conf ・・・(数式7)
図18の(b)に示す例では、数式7により、新しく生成された対象物Dの類似度は15と計算される。一方で、図18の(a)に示す対象物Cは、近傍に対象物が存在しないため、座標の類似度の情報も更新されない。
なお、上記例では、対象物Aの地理座標の近傍に対象物Bが存在するか否かを判断するための基準として、対象物の直方体の重なった体積の割合を利用したが、これに限らずその他の基準を利用しても良い。
A specific calculation method is shown below. The object A is assumed to be a rectangular parallelepiped surrounded by the six planes of Equation 4.
X = a_x1, X = a_x2, Y = a_y1, Y = a_y2, Z = a_z1, Z = a_z2 (Equation 4)
Similarly, it is assumed that the object B is a rectangular parallelepiped surrounded by six planes of Equation 5.
X = b_x1, X = b_x2, Y = b_y1, Y = b_y2, Z = b_z1, Z = b_z2 (Equation 5)
Further, the similarity of the object A is a_conf, and the similarity of the object B is b_conf.
At this time, the coordinates (d_x1, d_x2, d_y1, d_y2, d_z1, d_z2) of the object D are weighted averages based on the similarity between the coordinates of the object A and the object B, and are given by Equation 6.
d_x1 = (a_conf × a_x1 + b_conf × b_x1) / (a_conf + b_conf)
d_x2 = (a_conf × a_x2 + b_conf × b_x2) / (a_conf + b_conf)
d_y1 = (a_conf × a_y1 + b_conf × b_y1) / (a_conf + b_conf)
d_y2 = (a_conf × a_y2 + b_conf × b_y2) / (a_conf + b_conf)
d_z1 = (a_conf × a_z1 + b_conf × b_z1) / (a_conf + b_conf)
d_z2 = (a_conf × a_z2 + b_conf × b_z2) / (a_conf + b_conf)
... (Formula 6)
Further, the similarity d_conf of the object D is given by Equation 7.
d_conf = a_conf + b_conf (Formula 7)
In the example shown in FIG. 18B, the similarity of the newly generated object D is calculated as 15 by Equation 7. On the other hand, since the object C shown in FIG. 18A does not exist in the vicinity, the coordinate similarity information is not updated.
In the above example, the ratio of the volume of the rectangular parallelepiped of the object is used as a reference for determining whether or not the object B exists in the vicinity of the geographical coordinates of the object A. However, the present invention is not limited to this. Other criteria may be used.
次に、対象物マージ部1008は、ステップST1301で選択した対象物が、地図データベース1003に保存された最後の対象物か否かを判断する(ステップST1304)。もし、ステップST1301で選択した対象物が地図データベース1003に保存された最後の対象物である場合、ステップST1305に進む。そうでない場合、すなわち、地図データベース1003にまだ選択していない対象物がある場合には、次の対象物を選択する。
Next, the
最後に、閾値処理部1009は、ステップST1303で加算した対象物の類似度に対して閾値処理を施し、一定の閾値以上の類似度を持つ対象物を出力する(ステップST1305)。例えば、図18の(b)において、対象物Aと対象物Bをマージして生成した対象物Dは類似度15を持つ。また、対象物Cは類似度5である。ここで、閾値処理を行って類似度が10以上の対象物を出力するものとすると、類似度15対象物Dだけが対象物として出力され、対象物Cは出力されない。
Finally,
なお、類似度が閾値よりも低い対象物Cのデータは、地図データベース1003から削除しないでそのまま保存しておく。これは、別の車両の情報や別の日に収集した情報によって、対象物Cの近傍に新しいデータが追加される可能性があるからである。例えば、対象物Cの地理座標の近傍に、類似度10を持つ対象物Eが新たに保存されたとする。対象物Cと対象物Eの立方体の体積がある一定の割合以上重なっている場合、対象物Cと対象物Eはマージされて、新しい対象物Fが生成される。このとき、新しい対象物Fは類似度15を持つ。ここで、閾値処理を行って類似度が10以下の対象物を棄却した場合、類似度15を持つ対象物Dと対象物Fは共に出力される。
Note that the data of the object C whose similarity is lower than the threshold value is stored as it is without being deleted from the
一般に、ある車両で検出された対象物は、別の車両でも検出される可能性が高い。このため、多数の車両やセンサで収集した情報から対象物を検出して類似度を累積していくことで、対象物の類似度をいっそう高めることが可能となる。一方で、本来は対象物で無いのに対象物として誤って検出された物は、他の車両によって再び検出される可能性は低く、類似度が累積される機会は限りなく少ない。このため、累積した類似度に対して閾値処理を行うことで、誤検出を減少させ、精度よく対象物を検出することが可能となる。 In general, an object detected by a certain vehicle is highly likely to be detected by another vehicle. For this reason, it is possible to further increase the similarity of an object by detecting the object from information collected by a large number of vehicles and sensors and accumulating the similarity. On the other hand, an object that is not originally an object but is erroneously detected as an object is unlikely to be detected again by another vehicle, and the number of opportunities for similarity accumulation is extremely small. For this reason, by performing threshold processing on the accumulated similarity, it is possible to reduce erroneous detection and detect an object with high accuracy.
また、類似度を利用して、検出した対象物の表示を行うインターフェイスを作成し、設備管理に役立てることも可能である。例えば、収集した映像から対象物を検索して、類似度の大きな順に検索結果を表示することも可能である。
更に、対象物の検索結果を類似度の大小に応じて色わけして表示することで、映像から対象物を探す人間の作業を支援することも可能である。
It is also possible to create an interface for displaying the detected object using the similarity, and use it for facility management. For example, it is also possible to search for an object from the collected video and display the search results in descending order of similarity.
Furthermore, by displaying the search result of the target object in different colors according to the degree of similarity, it is possible to support human work for searching for the target object from the video.
101 測位手段、102 ビデオカメラ、103 方位センサ、104 車両、105 記録装置、910 映像情報・位置情報データベース、920 類似度計算部、930 対象物領域測位部、940 類似度・測位情報保存部、950 検出結果累積部、960 対象物検出・測位部、970 地図データベース、1000 地図情報収集装置、1001 映像情報・位置情報データベース、1002 対象物情報収集部、1003 地図データベース、1004 対象物情報累積部、1005 対象物検出部、1006 対象物測位部、1007 対象物保存部、1008 対象物マージ部、1009 閾値処理部、1010 画像走査部、1011 類似度計算部、1012 矩形領域マージ部、1013 閾値処理部。
DESCRIPTION OF SYMBOLS 101 Positioning means, 102 Video camera, 103 Direction sensor, 104 Vehicle, 105 Recording apparatus, 910 Video information / position information database, 920 Similarity calculation unit, 930 Object region positioning unit, 940 Similarity / positioning information storage unit, 950 Detection result accumulation unit, 960 Object detection / positioning unit, 970 Map database, 1000 Map information collection device, 1001 Video information / position information database, 1002 Object information collection unit, 1003 Map database, 1004 Object information accumulation unit, 1005 Object detection unit, 1006 Object positioning unit, 1007 Object storage unit, 1008 Object merging unit, 1009 Threshold processing unit, 1010 Image scanning unit, 1011 Similarity calculation unit, 1012 Rectangular area merging unit, 1013 Threshold processing unit.
Claims (9)
この入力ステップで入力された上記映像データ中の検出対象を検出する検出ステップと、
この検出ステップで検出された上記検出対象と上記撮像手段との相対位置情報を算出する算出ステップと、
この算出ステップで算出された上記相対位置情報と上記入力ステップで入力された上記測位情報とに基づき、上記検出対象の位置情報を生成する対象位置情報生成ステップとを備えたことを特徴とする地図情報生成方法。 An input step for inputting video data to be imaged in accordance with movement of the imaging means, and positioning information recorded in correspondence with the imaging position of the imaging means recorded in correspondence with the video data;
A detection step of detecting a detection target in the video data input in the input step;
A calculation step for calculating relative position information between the detection object detected in the detection step and the imaging means;
A target position information generation step for generating position information of the detection target based on the relative position information calculated in the calculation step and the positioning information input in the input step. Information generation method.
この入力ステップで入力された上記映像データ中の検出対象を検出する検出ステップと、
この検出ステップで検出された上記検出対象と上記撮像手段との相対位置情報を算出する算出ステップと、
この算出ステップで算出された上記相対位置情報と上記入力ステップで入力された上記測位情報とに基づき、上記検出対象の位置情報を生成する対象位置情報生成ステップとからなる地図情報生成方法を計算機に実行させる地図情報生成プログラム。 An input step for inputting video data to be imaged in accordance with movement of the imaging means, and positioning information recorded in correspondence with the imaging position of the imaging means recorded in correspondence with the video data;
A detection step of detecting a detection target in the video data input in the input step;
A calculation step for calculating relative position information between the detection object detected in the detection step and the imaging means;
Based on the relative position information calculated in the calculation step and the positioning information input in the input step, a map information generation method including a target position information generation step for generating position information of the detection target is provided to a computer. Map information generation program to be executed.
前記映像情報から対象物を検出し、前記対象物の情報を収集する対象物情報収集部と、
前記対象物情報収集部が収集した前記対象物の情報を記憶する地図データベースと、
前記地図データベースに記憶された前記対象物の情報を累積する対象物情報累積部とを備えた地図情報収集装置。 A video information / position information database for storing video information and position information synchronized with the video information;
An object information collecting unit for detecting an object from the video information and collecting information on the object;
A map database for storing information on the object collected by the object information collecting unit;
A map information collecting apparatus comprising: an object information accumulating unit that accumulates information on the object stored in the map database.
前記映像情報から前記対象物を検出する対象物検出部と、
前記対象物検出部が検出した前記対象物の地理座標を算出する対象物測位部と、
前記対象物測位部が算出した前記対象物の地理座標を前記地図データベースに保存する対象物保存部とを備えていることを特徴とする請求項6記載の地図情報収集装置。 The object information collection unit
An object detection unit for detecting the object from the video information;
An object positioning unit that calculates geographic coordinates of the object detected by the object detection unit;
The map information collection device according to claim 6, further comprising: an object storage unit that stores the geographical coordinates of the object calculated by the object positioning unit in the map database.
前記映像情報から取得した画像を走査して前記対象物の矩形領域を検出する画像走査部と、
前記画像走査部が検出した前記矩形領域と前記対象物との類似度を算出する類似度計算部と、
前記画像走査部が検出した前記矩形領域のうち、近傍に存在する前記矩形領域をマージ処理した矩形領域を出力すると共に、近傍に存在する前記矩形領域の類似度を累積して前記マージ処理した矩形領域の類似度として出力する矩形領域マージ部と、
前記矩形領域マージ部が出力する前記マージ処理した矩形領域のうち、一定の閾値以上の類似度を有する矩形領域だけを出力する閾値処理部とを備えていることを特徴とする請求項7記載の地図情報収集装置。 The object detection unit includes:
An image scanning unit that scans an image acquired from the video information and detects a rectangular region of the object;
A similarity calculation unit for calculating a similarity between the rectangular area detected by the image scanning unit and the object;
Among the rectangular areas detected by the image scanning unit, a rectangular area obtained by merging the rectangular areas existing in the vicinity is output, and the merging process is performed by accumulating the similarities of the rectangular areas existing in the vicinity. A rectangular area merging unit that outputs the similarity of the areas;
The threshold processing unit that outputs only a rectangular region having a similarity equal to or higher than a certain threshold among the rectangular regions subjected to the merging process that is output by the rectangular region merging unit. Map information collection device.
前記地図データベースに保存された前記対象物のうち、近傍に存在する前記対象物の情報をマージ処理すると共に、近傍に存在する前記対象物の類似度を累積して前記マージ処理した前記対象物の類似度として出力する対象物マージ部と、
前記対象物マージ部が出力する前記マージ処理した対象物のうち、一定の閾値以上の類似度を有する対象物だけを出力する閾値処理部とを備えていることを特徴とする請求項6から請求項8のうちのいずれか1項記載の地図情報収集装置。
The object information accumulating unit
Among the objects stored in the map database, information on the objects existing in the vicinity is merged, and the similarity of the objects existing in the vicinity is accumulated to merge the objects. An object merging unit to output as a similarity,
7. A threshold processing unit that outputs only objects having a degree of similarity equal to or greater than a certain threshold among the merged objects output by the object merging unit. Item 9. The map information collection device according to any one of items 8 to 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005172646A JP5225542B2 (en) | 2004-09-22 | 2005-06-13 | MAP INFORMATION GENERATION METHOD, MAP INFORMATION GENERATION PROGRAM, AND MAP INFORMATION COLLECTION DEVICE |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004275160 | 2004-09-22 | ||
JP2004275160 | 2004-09-22 | ||
JP2005172646A JP5225542B2 (en) | 2004-09-22 | 2005-06-13 | MAP INFORMATION GENERATION METHOD, MAP INFORMATION GENERATION PROGRAM, AND MAP INFORMATION COLLECTION DEVICE |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006119591A true JP2006119591A (en) | 2006-05-11 |
JP5225542B2 JP5225542B2 (en) | 2013-07-03 |
Family
ID=36537483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005172646A Expired - Fee Related JP5225542B2 (en) | 2004-09-22 | 2005-06-13 | MAP INFORMATION GENERATION METHOD, MAP INFORMATION GENERATION PROGRAM, AND MAP INFORMATION COLLECTION DEVICE |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5225542B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008014814A (en) * | 2006-07-06 | 2008-01-24 | Mitsubishi Precision Co Ltd | Method for detecting end of road |
EP2154542A1 (en) | 2008-08-07 | 2010-02-17 | Kabushiki Kaisha Topcon | GPS-installed all-azimuth camera and spatial data collecting device |
JP2010122486A (en) * | 2008-11-20 | 2010-06-03 | Fujitsu Ltd | Map information collecting system |
JP2011089977A (en) * | 2009-09-24 | 2011-05-06 | Denso Corp | Guidance system for street crossings |
US9733080B2 (en) | 2009-10-02 | 2017-08-15 | Kabushiki Kaisha Topcon | Wide-angle image pickup unit and measuring device |
JP2017182287A (en) * | 2016-03-29 | 2017-10-05 | 三菱電機株式会社 | Ledger generation device and ledger generation program |
KR20180067199A (en) * | 2016-12-12 | 2018-06-20 | 현대모비스 주식회사 | Apparatus and method for recognizing object |
CN111736586A (en) * | 2019-01-30 | 2020-10-02 | 斯特拉德视觉公司 | Method and apparatus for automatically driving vehicle position for path planning |
JP2021124633A (en) * | 2020-02-06 | 2021-08-30 | トヨタ自動車株式会社 | Map generation system and map generation program |
JP2022166185A (en) * | 2016-07-21 | 2022-11-01 | モービルアイ ビジョン テクノロジーズ リミテッド | Crowdsourcing and distributing sparse map and lane measurements for autonomous vehicle navigation |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10884131B1 (en) * | 2018-08-03 | 2021-01-05 | GM Global Technology Operations LLC | Conflict resolver for a lidar data segmentation system of an autonomous vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293670A (en) * | 1999-04-08 | 2000-10-20 | Asia Air Survey Co Ltd | Method and device for automatically recognizing road sign of video picture and storage medium storing program for automatically recognizing road sign |
JP2004077189A (en) * | 2002-08-12 | 2004-03-11 | Pioneer Electronic Corp | Information processing apparatus, system, method and program for the same, record medium for recording program, and navigation apparatus |
JP2004151063A (en) * | 2002-11-01 | 2004-05-27 | Fujitsu Ltd | Navigation system |
JP2004151523A (en) * | 2002-10-31 | 2004-05-27 | Mitsubishi Electric Corp | Map data update apparatus |
-
2005
- 2005-06-13 JP JP2005172646A patent/JP5225542B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293670A (en) * | 1999-04-08 | 2000-10-20 | Asia Air Survey Co Ltd | Method and device for automatically recognizing road sign of video picture and storage medium storing program for automatically recognizing road sign |
JP2004077189A (en) * | 2002-08-12 | 2004-03-11 | Pioneer Electronic Corp | Information processing apparatus, system, method and program for the same, record medium for recording program, and navigation apparatus |
JP2004151523A (en) * | 2002-10-31 | 2004-05-27 | Mitsubishi Electric Corp | Map data update apparatus |
JP2004151063A (en) * | 2002-11-01 | 2004-05-27 | Fujitsu Ltd | Navigation system |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008014814A (en) * | 2006-07-06 | 2008-01-24 | Mitsubishi Precision Co Ltd | Method for detecting end of road |
EP2154542A1 (en) | 2008-08-07 | 2010-02-17 | Kabushiki Kaisha Topcon | GPS-installed all-azimuth camera and spatial data collecting device |
US7982665B2 (en) | 2008-08-07 | 2011-07-19 | Kabushiki Kaisha Topcon | GPS-installed all-azimuth camera and spatial data collecting device |
JP2010122486A (en) * | 2008-11-20 | 2010-06-03 | Fujitsu Ltd | Map information collecting system |
JP2011089977A (en) * | 2009-09-24 | 2011-05-06 | Denso Corp | Guidance system for street crossings |
US9733080B2 (en) | 2009-10-02 | 2017-08-15 | Kabushiki Kaisha Topcon | Wide-angle image pickup unit and measuring device |
JP2017182287A (en) * | 2016-03-29 | 2017-10-05 | 三菱電機株式会社 | Ledger generation device and ledger generation program |
JP2022166185A (en) * | 2016-07-21 | 2022-11-01 | モービルアイ ビジョン テクノロジーズ リミテッド | Crowdsourcing and distributing sparse map and lane measurements for autonomous vehicle navigation |
JP7559296B2 (en) | 2016-07-21 | 2024-10-02 | モービルアイ ビジョン テクノロジーズ リミテッド | Method, system and program |
KR20180067199A (en) * | 2016-12-12 | 2018-06-20 | 현대모비스 주식회사 | Apparatus and method for recognizing object |
KR102680011B1 (en) * | 2016-12-12 | 2024-07-02 | 현대모비스 주식회사 | Apparatus and method for recognizing object |
CN111736586A (en) * | 2019-01-30 | 2020-10-02 | 斯特拉德视觉公司 | Method and apparatus for automatically driving vehicle position for path planning |
CN111736586B (en) * | 2019-01-30 | 2023-10-03 | 斯特拉德视觉公司 | Method for automatically driving vehicle position for path planning and device thereof |
JP2021124633A (en) * | 2020-02-06 | 2021-08-30 | トヨタ自動車株式会社 | Map generation system and map generation program |
JP7238821B2 (en) | 2020-02-06 | 2023-03-14 | トヨタ自動車株式会社 | Map generation system and map generation program |
Also Published As
Publication number | Publication date |
---|---|
JP5225542B2 (en) | 2013-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5225542B2 (en) | MAP INFORMATION GENERATION METHOD, MAP INFORMATION GENERATION PROGRAM, AND MAP INFORMATION COLLECTION DEVICE | |
US20200401617A1 (en) | Visual positioning system | |
US9129163B2 (en) | Detecting common geographic features in images based on invariant components | |
WO2018142900A1 (en) | Information processing device, data management device, data management system, method, and program | |
JP4717760B2 (en) | Object recognition device and video object positioning device | |
CN101617197B (en) | Feature identification apparatus, measurement apparatus and measuring method | |
US5642106A (en) | Visual incremental turn detector | |
KR100743485B1 (en) | Video object recognition device and recognition method, video annotation giving device and giving method, and program | |
US8280107B2 (en) | Method and apparatus for identification and position determination of planar objects in images | |
US8953838B2 (en) | Detecting ground geographic features in images based on invariant components | |
Wang et al. | Automated road sign inventory system based on stereo vision and tracking | |
US20060195858A1 (en) | Video object recognition device and recognition method, video annotation giving device and giving method, and program | |
JP4874607B2 (en) | Object positioning device | |
KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
US8761435B2 (en) | Detecting geographic features in images based on invariant components | |
JP2010510559A (en) | Method and apparatus for detecting an object from ground mobile mapping data | |
AU2018253534A1 (en) | Information processing device and information processing system | |
JP6165422B2 (en) | Information processing system, information processing device, server, terminal device, information processing method, and program | |
CN113838129B (en) | Method, device and system for obtaining pose information | |
CN110223223A (en) | Street scan method, device and scanner | |
JP4752319B2 (en) | Image recognition apparatus and image recognition method | |
KR20220062709A (en) | System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor | |
JP3437671B2 (en) | Landmark recognition device and landmark recognition method | |
JP2018152036A (en) | Artificial feature recognition device, artificial feature recognition method and artificial feature recognition program | |
JP7117408B1 (en) | POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080509 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110830 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130313 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |