JP6616967B2 - Map creation apparatus and map creation method - Google Patents

Map creation apparatus and map creation method Download PDF

Info

Publication number
JP6616967B2
JP6616967B2 JP2015121433A JP2015121433A JP6616967B2 JP 6616967 B2 JP6616967 B2 JP 6616967B2 JP 2015121433 A JP2015121433 A JP 2015121433A JP 2015121433 A JP2015121433 A JP 2015121433A JP 6616967 B2 JP6616967 B2 JP 6616967B2
Authority
JP
Japan
Prior art keywords
image
road
mosaic
map
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015121433A
Other languages
Japanese (ja)
Other versions
JP2017010082A (en
Inventor
天恩 陳
耕平 山本
菊生 橘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2015121433A priority Critical patent/JP6616967B2/en
Publication of JP2017010082A publication Critical patent/JP2017010082A/en
Application granted granted Critical
Publication of JP6616967B2 publication Critical patent/JP6616967B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は地図作成装置、および地図作成方法に関するものである。   The present invention relates to a map creation device and a map creation method.

道路の路面および道路両脇の景色を道路長に沿って連続撮影した撮影画像、および撮影位置・方位情報を用いて道路沿いの地図を作成する地図作成装置としては、従来、特許文献1に記載されたものが知られている。   Conventionally, Patent Document 1 discloses a map creation device that creates a map along a road using a photographed image obtained by continuously photographing the road surface and scenery on both sides of the road along the road length, and photographing position / direction information. Is known.

この従来例において地図の作成は、先ず最初に、全周囲カメラを積載した車両から取得される全周映像の中から特徴点を抽出し、それを隣接する複数フレームにトラッキングし、カメラ移動のベースとトラッキング点で校正する三角形を構成し、そのトラッキングデータを解析することで、特徴点の三次元座標とカメラ位置と姿勢を持つ全周映像を取得する。次いで、この全周映像からカメラ位置と姿勢を基として座標を絞り込み、三次元解析することで、点、線、および端点からなる幾何学的単純図形を抽出するとともに、そのトラッキングデータから、上述と同様の原理で、その三次元位置と姿勢を検出し、その三次元座標を与える。なお、この座標は相対座標であるので、地図上の既知のデータや高精度のGPSのデータから、後処理で絶対座標を付加する。   In this conventional example, the map is created by first extracting feature points from the all-around video acquired from the vehicle carrying the all-around camera, tracking it to adjacent frames, and then moving the camera to the base. And the tracking point are calibrated, and the tracking data is analyzed to obtain an all-round image having the three-dimensional coordinates of the feature points, the camera position, and the posture. Next, from this all-round image, the coordinates are narrowed down based on the camera position and orientation, and a three-dimensional analysis is performed to extract a geometric simple figure consisting of points, lines, and end points, and from the tracking data, Based on the same principle, the three-dimensional position and orientation are detected and the three-dimensional coordinates are given. Since these coordinates are relative coordinates, absolute coordinates are added by post-processing from known data on the map or high-precision GPS data.

この後、前もって用意したパターンとの比較により、上述の幾何学的単純図形を形状分類して道路標示、道路標識、信号機などの属性を登録し、さらに、上述の幾何学的単純図形から、元となる三次元空間に対応する三次元空間を再構築する。これに目的に応じて、他の必要な情報が統合され、俯瞰的に表現したり、車両目線で表現したりすることのできる、すなわち全方向、及び全ての視点に変換可能なデータを持っている三次元機械地図が完成する。   After that, by comparing with the patterns prepared in advance, the geometric simple figures described above are classified and registered attributes such as road markings, road signs, traffic lights, and the like. Reconstruct the 3D space corresponding to the 3D space. Depending on the purpose, other necessary information is integrated and can be expressed from a bird's-eye view or from the viewpoint of the vehicle, that is, with data that can be converted into all directions and all viewpoints. The 3D machine map is completed.

特許第5227065号公報Japanese Patent No. 5227005

しかしながら、上述した従来例における地図は、視点を俯瞰などの立体的な構図に合わせたときには、実地での眺めとの共通点が極めて多くなり、地理を直感的に把握しやすくなるものの、反面、一度に把握、表示できる地理的範囲は狭くなり、一覧性が低下してしまうし、また、平面地図のように平面的な構図に合わせたときには、一覧性が向上する反面、実地での眺めとの共通点が極めて少なくなり、地理を直感的に把握しずらくなってしまうという欠点がある。   However, the map in the conventional example described above has a lot in common with the actual view when the viewpoint is adjusted to a three-dimensional composition such as a bird's-eye view, but it is easy to grasp the geography intuitively, The geographical range that can be grasped and displayed at a time will be narrowed, and the listability will be reduced, and when it is adjusted to a flat composition like a flat map, the listability will improve, but on the other hand it will be a real view. There is a disadvantage that the number of common points is extremely small and it is difficult to intuitively grasp the geography.

また、撮影画像から幾何学的単純図形を抽出した上で、この幾何学的単純図形から三次元空間を再構成したり、相対座標に後処理で絶対座標を付加したりするために、誤差が蓄積しやすく、これにより精度が低くなることによっても地理の直感的な把握がしずらくなる。   In addition, after extracting a geometric simple figure from the photographed image and reconstructing a three-dimensional space from the geometric simple figure, or adding absolute coordinates to the relative coordinates by post-processing, there is an error. It is easy to accumulate, and this makes it difficult to intuitively grasp geography even if accuracy is lowered.

本発明は以上の欠点を解消すべくなされたものであって、地理を直感的に把握しやすくさせ、かつ、一覧性をも向上させた道路沿いの地図を作成することのできる地図作成装置、および地図作成方法の提供を目的とする。   The present invention has been made to solve the above drawbacks, making it easy to intuitively grasp the geography, and creating a map along the road with improved listability, And to provide a mapping method.

本発明によれば上記目的は、
道路の路面1および道路両脇を道路長に沿って連続撮影した撮影画像3、および撮影位置・方位情報を用いて道路沿いの地図を作成する地図作成装置であって、
同一撮影位置から道路の路面1および道路両脇を分割撮影するカメラ11により同時撮影された原画像12同士を撮影位置・方位情報を用いて接合した撮影画像3を生成し、前記道路の路面1に対し垂直方向に撮影したモザイク画像6、および前記道路の道路長に対し道路両脇の水平方向に撮影したモザイク画像7を生成する個別画像生成部8と、
前記垂直撮影方向のモザイク画像6の道路の両脇に応じた位置に当該位置を下端とする水平撮影方向のモザイク画像7を同一平面上につなぎ合わせて展開図近似の写真地図を作成する展開画像生成部10と、
前記撮影画像3または前記原画像12から前記道路の交差点15を抽出し、前記撮影画像3または前記原画像12における前記交差点15の支線撮影領域から補間画像16を生成し、補間画像16を前記垂直撮影方向のモザイク画像6の支線対応位置につなぎ合わせる交差点調整部を有する地図作成装置を提供することにより達成される。
According to the present invention, the object is
A map creation device for creating a map along a road using a photographed image 3 obtained by continuously photographing the road surface 1 and both sides of the road along the road length, and photographing position / azimuth information,
A photographed image 3 is generated by joining the original images 12 simultaneously photographed by the camera 11 that shoots the road surface 1 and both sides of the road separately from the same photographing position using the photographing position / azimuth information, and the road surface 1 of the road An individual image generation unit 8 that generates a mosaic image 6 photographed in the vertical direction and a mosaic image 7 photographed in the horizontal direction on both sides of the road with respect to the road length of the road ;
A developed image in which a mosaic image 7 in the horizontal shooting direction with the position at the lower end is connected on the same plane at positions corresponding to both sides of the road in the mosaic image 6 in the vertical shooting direction to create a photograph map approximating a developed view. Generating unit 10;
The road intersection 15 is extracted from the photographed image 3 or the original image 12, an interpolation image 16 is generated from a branch photographing region of the intersection 15 in the photographed image 3 or the original image 12, and the interpolation image 16 is converted into the vertical image 16. This is achieved by providing a map creation device having an intersection adjustment unit that joins to the branch line corresponding position of the mosaic image 6 in the photographing direction .

本発明によれば、地図作成装置は、撮影画像3中に設定したパスポイント4に撮影位置・方位情報を含めたブロック調整によって絶対標定、モザイク処理をするとともに、3次元モデル5を利用して正射変換等の平行投影変換をすることにより、精度に極めて優れた垂直撮影方向のモザイク画像6、および道路両脇の一組の水平撮影方向のモザイク画像7、7を生成する。また、このようにして位置標定された垂直・水平撮影方向のモザイク画像6、7、7を道路を基準にして同一平面上につなぎ合わせることにより、展開図近似の写真地図9を生成する。   According to the present invention, the map creation device performs absolute orientation and mosaic processing by block adjustment including the shooting position / orientation information at the pass point 4 set in the shot image 3 and uses the three-dimensional model 5. By performing parallel projection conversion such as orthogonal transformation, the mosaic image 6 in the vertical shooting direction and the mosaic images 7 and 7 in the horizontal shooting direction on both sides of the road are generated with extremely high accuracy. Further, by connecting the mosaic images 6, 7, and 7 in the vertical and horizontal photographing directions thus positioned on the same plane with the road as a reference, a photographic map 9 approximating the developed view is generated.

得られた写真地図9は、実地での眺めとの共通点が多いために、地理を直感的に把握しやすく、また、平面的な構図の下で地理を仮想的に再現しているために、一覧性にも優れる。さらに、垂直・水平撮影方向のモザイク画像6、7は厳密な方法により撮影画像3から生成されているために、精度に優れたものとなる。例えば、上述のブロック調整にはバンドル法を利用することが可能であり、また、パスポイント4の設定には、Shift法やHarris法を利用することができる。なお、位置精度を高めるために、ブロック調整には地上基準点を利用するのが望ましい。   The obtained photographic map 9 has a lot in common with the actual view, so it is easy to grasp the geography intuitively, and because the geography is virtually reproduced under a planar composition. , Excellent listability. Further, since the mosaic images 6 and 7 in the vertical and horizontal shooting directions are generated from the shot image 3 by a strict method, the accuracy is excellent. For example, the bundle method can be used for the block adjustment described above, and the Shift method or the Harris method can be used for setting the pass point 4. In order to increase the position accuracy, it is desirable to use a ground reference point for block adjustment.

したがって本発明によれば、例えば、カメラ、レーザ測距装置、GPS、およびIMUなどを搭載した計測車両によるモービルマッピングにより取得されたデータを入力することにより、上述のように使い勝手の良い地図を得ることができる。   Therefore, according to the present invention, for example, a user-friendly map as described above is obtained by inputting data acquired by mobile mapping using a measurement vehicle equipped with a camera, a laser range finder, GPS, IMU, and the like. be able to.

また、同一の撮影位置から全天頂方向を分割撮影するカメラ11により同時撮影された原画像12、12同士を撮影位置・方位情報を用いて接合し、上記撮影画像3を生成する広画角画像生成部13を有し、
上記個別画像生成部8により撮影画像3あるいは前記原画像12に基づいてモザイク画像6、7を生成したときには、モービルマッピングに多用されるようないわゆる全周囲画像などを用いて上述の地図を生成する場合に比べ、仰角方向に撮影範囲の欠損領域が生じないために、道路沿いの高層建築物についても確実に漏れなく地図に反映することができ、地図の臨場感が格段に向上する。また、例えば上述の水平撮影方向のモザイク画像7を生成するに際し、水平撮影方向に近い撮影方向の原画像12を利用することにより、再現性をより高めることができる。なお、原画像12を分割撮影するカメラ11には、例えば標準レンズを備えたもののほか、広角レンズや魚眼レンズを備えたものを用いることが可能である。
Also, the wide-angle image that generates the captured image 3 by joining the original images 12 and 12 that are simultaneously captured by the camera 11 that divides and captures the entire zenith direction from the same capturing position using the capturing position and orientation information A generator 13;
When the individual image generating unit 8 generates the mosaic images 6 and 7 based on the captured image 3 or the original image 12, the above-described map is generated using a so-called all-around image that is frequently used for mobile mapping. Compared to the case, since there is no missing area in the shooting range in the elevation angle direction, it is possible to reliably reflect high-rise buildings along the road on the map without any omissions, and the realism of the map is greatly improved. For example, when generating the above-described mosaic image 7 in the horizontal shooting direction, the reproducibility can be further improved by using the original image 12 in the shooting direction close to the horizontal shooting direction. For example, the camera 11 that divides and shoots the original image 12 may be a camera provided with a wide-angle lens or a fish-eye lens in addition to a standard lens.

さらに、上記個別画像生成部8による垂直・水平撮影方向のモザイク画像6、7の生成に際し、魚眼レンズ14を用いて撮影された射影方式の撮影画像3を垂直・水平方向に平行投影変換処理したときには、中心投影画像などと比べて画像にひずみがないために、見やすい地図を得ることができる。また、魚眼レンズ14を用いることにより、撮影範囲を極めて広くすることができ、これにより全天頂方向を同時撮影するための原画像12の枚数を減らせることから、上述した広画角画像生成部13の負荷を軽減することができる。以上の魚眼レンズ14を用いた撮影画像3、3同士の接合は、例えばそれぞれのタイポイントをエピポーラ線を用いて対応付けてすることが可能である。   Further, when generating the mosaic images 6 and 7 in the vertical and horizontal shooting directions by the individual image generation unit 8, when the projection-type shot image 3 shot using the fisheye lens 14 is subjected to parallel projection conversion processing in the vertical and horizontal directions. Since the image is not distorted compared to the central projection image, an easy-to-view map can be obtained. Further, by using the fisheye lens 14, the photographing range can be made extremely wide, thereby reducing the number of original images 12 for simultaneously photographing all zenith directions. Can reduce the load. The above-described joining of the photographed images 3 and 3 using the fisheye lens 14 can associate each tie point with an epipolar line, for example.

加えて、上記撮影画像3あるいは3次元モデル5に基づいて交差点15を抽出するとともに、上記撮影画像3あるいは原画像12における上記交差点15の支線撮影領域を加工して補間画像16を生成し、かつ、該補間画像16を垂直撮影方向のモザイク画像6の支線対応位置につなぎ合わせるようにして貼り付ける交差点調整部17を有するときには、交差点15があるときにも、その存在を地図により良好に把握することができる。また、補間画像16を貼り付けることにより、水平撮影方向のモザイク画像7の支線対応位置に表れてしまう不自然な表示の抜け落ちがなり、支線の存在を含めて地図全体の臨場感が向上する。なお、上述の交差点15の抽出は、撮影画像3や3次元モデル5において道路両脇の建築物の表面により仮想的に構成される面の不連続部分の探索や、パターンマッチングあるいは輪郭追跡により交差点15や支線と推測される領域を探索等してすることができ、また、上記補間画像16には、例えば、路面1と同じように支線の交差点15近傍の領域についての正射投影画像や、原画像12における支線の水平撮影方向の撮影領域を加工したものなどを利用することができる。   In addition, the intersection 15 is extracted based on the photographed image 3 or the three-dimensional model 5, the branch line photographing region of the intersection 15 in the photographed image 3 or the original image 12 is processed to generate an interpolation image 16, and When the intersection adjustment unit 17 for pasting the interpolated image 16 so as to be connected to the branch line corresponding position of the mosaic image 6 in the vertical photographing direction is present, the existence of the intersection 15 can be grasped better by the map. be able to. In addition, by pasting the interpolation image 16, an unnatural display dropout appears at the branch line corresponding position of the mosaic image 7 in the horizontal shooting direction, and the presence of the entire map including the presence of the branch line is improved. In addition, the above-described extraction of the intersection 15 is performed by searching for discontinuous portions of the surface virtually constituted by the surfaces of the buildings on both sides of the road in the photographed image 3 and the three-dimensional model 5, pattern matching, or contour tracking. 15 or a region estimated to be a branch line, and the interpolation image 16 includes, for example, an orthographic projection image of a region in the vicinity of the branch line intersection 15 like the road surface 1, An image obtained by processing a shooting area in the horizontal shooting direction of the branch line in the original image 12 can be used.

また、本発明によれば、上述した目的は、
道路の路面1および道路両脇の景色を道路長に沿って連続撮影した撮影画像3、および撮影位置・方位情報を用いて道路沿いの地図を作成する地図作成方法であって、
同一撮影位置から道路の路面1および道路両脇を分割撮影するカメラ11により同時撮影された原画像12同士を撮影位置・方位情報を用いて接合した撮影画像3を生成し、前記道路の路面1に対し垂直方向に撮影したモザイク画像6、および前記道路の道路長に対し道路両脇の水平方向に撮影したモザイク画像7を生成するステップと、
前記垂直撮影方向のモザイク画像6の道路の両脇に応じた位置に当該位置を下端とする水平撮影方向のモザイク画像7を同一平面上につなぎ合わせて展開図近似の写真地図を作成するステップと、
前記撮影画像3または前記原画像12から前記道路の交差点15を抽出し、前記撮影画像3または前記原画像12における前記交差点15の支線撮影領域から補間画像16を生成し、補間画像16を前記垂直撮影方向のモザイク画像6の支線対応位置につなぎ合わせるステップとを有する地図作成方法を提供することにより達成される。
Further, according to the present invention, the above-described object is
A map creation method for creating a map along a road using a photographed image 3 obtained by continuously photographing the road surface 1 and scenery on both sides of the road along the road length, and photographing position / direction information,
A photographed image 3 is generated by joining the original images 12 simultaneously photographed by the camera 11 that shoots the road surface 1 and both sides of the road separately from the same photographing position using the photographing position / azimuth information, and the road surface 1 of the road Generating a mosaic image 6 photographed in the vertical direction and a mosaic image 7 photographed in the horizontal direction on both sides of the road with respect to the road length of the road;
Creating a photographic map approximating a developed view by connecting mosaic images 7 in the horizontal shooting direction with the lower end at the position corresponding to both sides of the road in the mosaic image 6 in the vertical shooting direction on the same plane; ,
The road intersection 15 is extracted from the photographed image 3 or the original image 12, an interpolation image 16 is generated from a branch photographing region of the intersection 15 in the photographed image 3 or the original image 12, and the interpolation image 16 is converted into the vertical image 16. This is achieved by providing a map generation method including the step of connecting to the branch line corresponding position of the mosaic image 6 in the photographing direction .

さらに、上述した地図作成装置に入力され、あるいは、以上の地図作成方法に用いる撮影画像3は、
所定の仰俯角範囲内を撮影範囲として道路の路面1、および道路脇の高層建築物18の比較的低高度域を含む景色2を撮影する低高度域撮影カメラ11Aと、
該低高度域用撮影カメラ11の撮影範囲と外周縁部において重合する天頂領域を撮影範囲とし、道路脇の高層建築物18の比較的高層域を撮影する高高度域撮影カメラ11Bとを有するモービルマッピング用計測装置を用いて取得することができる。
Furthermore, the captured image 3 that is input to the above-described map creation device or used in the above map creation method is:
A low-altitude imaging camera 11A that captures a road surface 1 of a road and a landscape 2 including a relatively low-altitude area of a high-rise building 18 beside the road within a predetermined elevation angle range;
A mobile having a shooting range of the low-altitude shooting camera 11 and a high-altitude shooting camera 11B that takes a comparatively high-rise area of a high-rise building 18 on the roadside with a shooting range as a shooting range that overlaps at the outer peripheral edge. It can be obtained using a mapping measuring device.

このモービルマッピング用計測装置は、低高度域撮影カメラ11Aと高高度域撮影カメラ11Bにより、全天頂方向、言い換えれば天頂を含む仰俯角方向を分割撮影する。これにより、道路沿いの高層建築物18の比較的高層域についても確実に漏れなく撮影する。なお、低高度域撮影カメラ11Aと高高度域撮影カメラ11Bは、それぞれ別個のカメラ11であっても、あるいは比較的低高度域と比較的高層域とを分割撮影する単一筐体のカメラ11としても構成することが可能である。 This mobile mapping measuring apparatus divides and shoots the entire zenith direction, in other words, the elevation angle direction including the zenith, by the low altitude imaging camera 11A and the high altitude imaging camera 11B. As a result, even a relatively high-rise area of the high-rise building 18 along the road is surely photographed without omission. Note that the low altitude shooting camera 11A and the high altitude shooting camera 11B may be separate cameras 11 or may be a single housing camera 11 that divides and shoots a relatively low altitude region and a relatively high layer region. It is also possible to configure.

したがって、上述した地図作成装置に入力され、あるいは地図作成方法に用いられる道路の路面1および道路脇の景色2を道路長に沿って連続撮影した撮影画像3を取得することができる上に、仰角方向に撮影範囲の欠損領域が生じないことから、地図作成装置等により得られる地図に道路沿いの高層建築物18の全景を反映させ、その臨場感をも高めることができる。

Therefore, it is possible to acquire a captured image 3 obtained by continuously shooting the road surface 1 and the roadside scenery 2 along the road length that is input to the above-described map creation device or used in the map creation method. Since there is no missing area in the shooting range in the direction, the entire view of the high-rise building 18 along the road can be reflected in the map obtained by the map creation device or the like, and the presence can be enhanced.

なお、道路沿いの高層建築物18の比較的高層域は、例えば、計測車両の走行する道路が1車線もしくは片側1車線のとき、あるいは片側2車線以上のときにおいて道路脇に最も近い車線を計測車両が走行することにより、低高度域撮影カメラ11Aの撮影範囲から外れやすくもなる。このため、例えば上述のモービルマッピング用計測装置にカメラ制御部を設け、低高度域撮影カメラ11Aにより撮影された画像を逐次解析し、得られる走行車線情報が片側2車線以上の道路における路肩に最も近い車線ではないなどの条件を満たすときに高高度域撮影カメラ11Bによる撮影を停止するようにすれば、不要な高高度域撮影カメラ11Bによる撮影や、その撮影画像3についての不要な接合処理などを防止することができる。また、以上のような走行車線に代えて、道路脇までの距離を高高度域撮影カメラ11Bについての制御の判断基準にして足りる。   The relatively high-rise area of the high-rise building 18 along the road measures, for example, the lane closest to the roadside when the road on which the measurement vehicle is traveling is one lane, one lane on one side, or two or more lanes on one side. When the vehicle travels, the vehicle can easily go out of the shooting range of the low altitude shooting camera 11A. For this reason, for example, a camera control unit is provided in the above-described mobile mapping measurement device, and images taken by the low altitude shooting camera 11A are sequentially analyzed. If the shooting by the high altitude shooting camera 11B is stopped when the conditions such as not being in a near lane are satisfied, unnecessary shooting by the high altitude shooting camera 11B, unnecessary joining processing for the shot image 3, etc. Can be prevented. Moreover, it replaces with the above driving lanes, and the distance to the roadside is sufficient as a control criterion for the high altitude photographing camera 11B.

以上の説明から明らかなように、本発明によれば、地理を直感的に把握しやすくさせ、かつ、一覧性をも向上させた道路沿いの地図を作成することのできる地図作成装置、および地図作成方法を提供することができ、また、上記地図の作成のためのデータ収集に使用可能なモービルマッピング用撮影装置を提供することができ、これにより、道路を利用している歩行者や車両が目的地へとミスなく簡単にたどり着けるようにすることができる。   As is apparent from the above description, according to the present invention, a map creation device capable of creating a map along a road that makes it easy to intuitively grasp the geography and improves the listability, and a map A creation method can be provided, and a mobile mapping imaging device that can be used to collect data for creating the map can be provided, whereby a pedestrian or vehicle using the road can be provided. You can easily reach your destination without making a mistake.

本発明に係る地図作成装置のハードウェア構成図である。It is a hardware block diagram of the map creation apparatus which concerns on this invention. 計測車両を示す図で、(a)は計測範囲、計測状態を説明する側面図、(b)は平面図である。It is a figure which shows a measurement vehicle, (a) is a side view explaining a measurement range and a measurement state, (b) is a top view. カメラを説明する図で、(a)は斜視図、(b)は水平方向の撮影範囲を示す図、(c)は分割撮影した原画像の合成状態を説明する図である。It is a figure explaining a camera, (a) is a perspective view, (b) is a figure which shows the imaging | photography range of a horizontal direction, (c) is a figure explaining the synthetic | combination state of the original image image | photographed separately. 原画像の幾何補正を説明する図で、(a)はレンズの主点位置の変更に伴って単写真に生じる誤差を説明する図、(b)は幾何補正のイメージ図、(c)はレンズの主点位置の変更に伴って立体写真に生じる誤差を説明する図である。FIG. 6 is a diagram for explaining geometric correction of an original image, in which (a) is a diagram for explaining an error that occurs in a single photograph due to a change in the principal point position of the lens, (b) is an image diagram of geometric correction, and (c) is an image of the lens. It is a figure explaining the error which arises in a three-dimensional photograph with the change of a principal point position. 全天頂方向の撮影画像からの写真地図の生成作業を説明する図で、(a)は全天頂方向の撮影画像を示す図、(b)はブロック調整の仕組みを説明する図である。It is a figure explaining the production | generation work of the photographic map from the picked-up image of a zenith direction, (a) is a figure which shows the picked-up image of a zenith direction, (b) is a figure explaining the mechanism of a block adjustment. 全天頂方向の撮影画像からの写真地図の生成作業を説明する図で、(a)は全天頂方向の撮影画像におけるパスポイントの抽出状態を説明する図、(b)は撮影画像から抽出され、道路脇の景色をほぼ正面から捉えた画像を示す図である。It is a figure explaining the production | generation work of the photograph map from the picked-up image of all zenith directions, (a) is a figure explaining the extraction state of the pass point in the picked-up image of all zenith directions, (b) is extracted from the picked-up image, It is a figure which shows the image which caught the scenery by the side of a road from the front almost. 全天頂方向の撮影画像からの写真地図の生成作業を説明する図で、(a)は水平方向の平行投影モザイク画像を示す図、(b)は垂直方向の平行投影モザイク画像を示す図、(c)は3次元モデルを垂直方向から示したイメージ図である。It is a figure explaining the production | generation work of the photographic map from the picked-up image of all the zenith directions, (a) is a figure which shows the parallel projection mosaic image of a horizontal direction, (b) is a figure which shows the parallel projection mosaic image of a vertical direction, c) is an image diagram showing the three-dimensional model from the vertical direction. 全天頂方向の撮影画像からの写真地図の生成作業を説明する図で、垂直方向の平行投影モザイク画像に水平方向の平行投影モザイク画像を貼り付けた状態を示す図である。It is a figure explaining the production | generation work of the photographic map from the picked-up image of all the zenith directions, and is a figure which shows the state which affixed the parallel projection mosaic image of the horizontal direction on the parallel projection mosaic image of the vertical direction. 全天頂方向の撮影画像からの写真地図の生成作業を説明する図で、(a)は交差点の支線をほぼ正面から捉えた画像を示す図、(b)は補間画像の生成イメージ図である。It is a figure explaining the production | generation work of the photographic map from the picked-up image of all the zenith directions, (a) is a figure which shows the image which caught the branch line of the intersection from the substantially front, (b) is the production | generation image figure of an interpolation image. 全天頂方向の撮影画像からの写真地図の生成作業を説明する図で、完成した写真地図を示す図である。It is a figure explaining the production | generation work of the photographic map from the picked-up image of all the zenith directions, and is a figure which shows the completed photographic map.

図1ないし図10に本発明の実施の形態を示す。図2(a)は地図作成対象の道路での計測作業の概要を示すもので、計測作業は、路面1上で計測車両20を走行させて、すなわちモービルマッピングによりなされる。上記計測車両20には、モービルマッピング用計測装置Aが搭載される。   1 to 10 show an embodiment of the present invention. FIG. 2A shows an outline of the measurement work on the map creation target road. The measurement work is performed by running the measurement vehicle 20 on the road surface 1, that is, by mobile mapping. The measurement vehicle 20 is equipped with a mobile mapping measurement device A.

このモービルマッピング用計測装置Aは、図2(a)および(b)に示すように、GNSS受信機21と、IMU22と、レーザ測距装置23と、カメラ11と、これらが取り付けられる架台24とを有するとともに、オドメータ25を有する。図2(b)に示すように、上記架台24は計測車両20のルーフ上に設置され、上記オドメータ25は、車輪20aの回転角等を計測可能に計測車両20内に搭載される。また架台24上には、上述のGNSS受信機21の3台のアンテナ21aが離隔配置されるとともに、IMU22やカメラ11が平面視中央部分に配置され、さらに、レーザ測距装置23が車両前方および後方寄りに合計2台配置される。これによりレーザ測距装置23は、計測車両20周りのほぼ全周囲に渡って、路面1から適宜の地上高に至るまでの高さ範囲で測距可能にされる。なお、レーザ測距装置23として上記のものに代えて単体で全周囲を計測可能なものを使用することも可能である。   As shown in FIGS. 2A and 2B, the mobile mapping measuring device A includes a GNSS receiver 21, an IMU 22, a laser distance measuring device 23, a camera 11, and a gantry 24 to which these are attached. And an odometer 25. As shown in FIG. 2B, the gantry 24 is installed on the roof of the measurement vehicle 20, and the odometer 25 is mounted in the measurement vehicle 20 so as to be able to measure the rotation angle of the wheels 20a. Further, on the gantry 24, the three antennas 21a of the GNSS receiver 21 described above are spaced apart, the IMU 22 and the camera 11 are disposed in the center portion in plan view, and the laser distance measuring device 23 is disposed in front of the vehicle and A total of two units are arranged on the rear side. As a result, the laser distance measuring device 23 can measure a distance in a height range from the road surface 1 to an appropriate ground height over almost the entire circumference of the measurement vehicle 20. In addition, it is also possible to use a laser distance measuring device 23 that can measure the entire circumference alone instead of the above one.

また、上記カメラ11は、図2(a)、図3(a)および(b)に示すように、全天頂方向、すなわち全周囲に加えて天頂方向をも撮影可能な全方位カメラ11(低高度域撮影カメラ11Aと高高度域撮影カメラ11Bの一体型)であり、スタンド24aにより計測車両20上方の見通しのよい位置に支持される。この全方位カメラ11は、周囲方向(低高度域)を5分割に分割撮影するとともに、さらに天頂方向(高高度域)への撮影を加えた合計6分割により全天頂方向を同時に分割撮影する。周囲方向の隣接する分割撮影範囲同士や、これら周囲方向の各撮影範囲と天頂方向の撮影範囲とは、境界部分において適宜のオーバーラップ率で重合する。以上のカメラ11は、魚眼レンズ14を用いることにより画角を非常に広くされ、これにより上述した天頂から路面1に至るまでの高さ範囲を撮影可能にされる。なお、図3において二点鎖線は分割撮影される個々の撮影範囲を示す線、36Aは魚眼レンズ12の主点である。   In addition, as shown in FIGS. 2A, 3A, and 3B, the camera 11 is an omnidirectional camera 11 (low-level camera) that can capture the zenith direction, that is, the zenith direction in addition to the entire circumference. The altitude range shooting camera 11A and the high altitude range shooting camera 11B are integrated) and are supported by the stand 24a at a position where the line of sight is good above the measuring vehicle 20. The omnidirectional camera 11 divides and shoots the surrounding direction (low altitude region) into five parts, and further shoots all zenith directions at the same time by a total of six parts including photographing in the zenith direction (high altitude region). The adjacent divided photographing ranges in the peripheral direction, and the respective photographing ranges in the peripheral direction and the photographing range in the zenith direction overlap with each other at an appropriate overlap rate. The above-described camera 11 has a very wide angle of view by using the fish-eye lens 14, thereby enabling photographing of the height range from the zenith to the road surface 1 described above. In FIG. 3, a two-dot chain line is a line indicating individual imaging ranges to be divided and 36 A is a principal point of the fisheye lens 12.

以上の計測車両20による道路周りの計測作業は、計測車両20の路面1上での走行に伴って所定距離間隔等で繰り返しカメラ11等の各種計測装置を駆動させ、得られた撮影画像3等を計測車両20に搭載した図外の記憶装置に記録してなされる。これにより、道路長に沿って天頂方向を含む全方位が道路側から連続撮影されるとともに、同様にほぼ全周囲が連続してレーザ測距され、さらに、撮影・レーザ測距時の各々における計測車両20の位置・姿勢情報が記録される。なお、地図の精度を高めるために、計測前に地上基準点を道路脇に適宜設定するなどし、これを路面1等とともに撮影、レーザ測距しておくのが望ましい。   The measurement work around the road by the measurement vehicle 20 described above is performed by repeatedly driving various measurement devices such as the camera 11 at predetermined distance intervals and the like as the measurement vehicle 20 travels on the road surface 1 and the obtained captured image 3 and the like. Is recorded in a storage device (not shown) mounted on the measurement vehicle 20. As a result, all directions including the zenith direction along the road length are continuously photographed from the road side. Similarly, almost all circumferences are continuously laser-ranged, and further, measurement is performed at the time of photographing and laser ranging. The position / posture information of the vehicle 20 is recorded. In order to increase the accuracy of the map, it is desirable to appropriately set a ground reference point on the side of the road before the measurement, and to photograph this with the road surface 1 and the like and perform laser distance measurement.

以上の計測作業により得られた計測結果を使用してなされる地図作成処理を以下に説明する。理解を容易にするために、以下においては加工処理途上の画像等を順次図示しながら説明を進めるが、実際にはこのような画像が都度生成されることなく、計測結果に対する演算のみで処理が行われる。また、以下の地図作成処理は、以下に示す手順が記述されたプログラムが動作するコンピュータによって自動処理が可能であり、このような地図作成装置Bとして構成されたコンピュータのブロック図を図1に示す。   The map creation process performed using the measurement result obtained by the above measurement operation will be described below. In order to facilitate understanding, the following description will be given while sequentially illustrating images and the like that are in the process of processing. However, in actuality, such an image is not generated each time, and processing is performed only by calculation on the measurement result. Done. Further, the following map creation process can be automatically performed by a computer that operates a program in which the following procedure is described. A block diagram of a computer configured as such a map creation apparatus B is shown in FIG. .

地図作成装置Bは、上述の計測結果が入力される入力部26と、入力された計測結果に対する演算により地図を生成する演算部27と、生成された地図を図外のディスプレイ等に出力する出力部28とを有する。上記入力部26は、上述したカメラ11の分割撮影画像(原画像12)が入力される撮影画像入力部29と、GNSS受信機21、IMU22、およびオドメータ25に基づく位置・方位情報が入力される撮影位置・方位情報入力部30と、レーザ測距データ、すなわち計測対象の3次元位置・形状を特定可能なデータが入力されるレーザデータ入力部31とを有する。なお、上記撮影位置・方位情報入力部30には、計測車両20におけるカメラ11やレーザ測距装置23の取付位置、取付姿勢も入力され、これにより上述した計測車両20の位置・姿勢と合わせてカメラ11やレーザ測距装置23による撮影位置・方位が詳細に特定可能にされる。   The map creation apparatus B includes an input unit 26 to which the above-described measurement results are input, a calculation unit 27 that generates a map by calculation on the input measurement results, and an output that outputs the generated map to a display outside the figure. Part 28. The input unit 26 receives position / orientation information based on the captured image input unit 29 to which the above-described divided captured image (original image 12) of the camera 11 is input, the GNSS receiver 21, the IMU 22, and the odometer 25. An imaging position / orientation information input unit 30 and laser distance measurement data, that is, a laser data input unit 31 to which data capable of specifying a three-dimensional position / shape of a measurement target are input. The shooting position / orientation information input unit 30 also receives the mounting position and mounting posture of the camera 11 and the laser distance measuring device 23 in the measuring vehicle 20, and thereby matches the position / posture of the measuring vehicle 20 described above. The shooting position / orientation by the camera 11 or the laser distance measuring device 23 can be specified in detail.

以上のようにして入力部26へのデータ入力が完了すると、次に、入力されたデータに基づき、上述した演算部27による地図データ生成処理が開始される。演算部27は、上述のように全方位を6分割に分割撮影した分割撮影画像12から全方位撮影画像(撮影画像3)を生成する広画角画像生成部13と、全方位撮影画像3から地図の構成パーツとなる個別のモザイク画像を生成する個別画像生成部8と、個別のモザイク画像同士をつなぎ合わせる展開画像生成部10と、この展開画像生成部10により得られた画像における交差点15に相当する箇所に調整処理を加える交差点調整部17とを有する。   When the data input to the input unit 26 is completed as described above, the map data generation process by the arithmetic unit 27 described above is then started based on the input data. The computing unit 27 generates the omnidirectional captured image (captured image 3) from the divided captured image 12 obtained by dividing the omnidirectional image into 6 parts as described above, and the omnidirectional captured image 3. At the intersection 15 in the image obtained by the developed image generating unit 10, the individual image generating unit 8 that generates individual mosaic images that are constituent parts of the map, the developed image generating unit 10 that joins the individual mosaic images together. And an intersection adjustment unit 17 that applies adjustment processing to the corresponding portion.

上記広画角画像生成部13は、同時撮影された分割撮影画像12、12、・・同士を合成して単一の全方位撮影画像3を生成するもので、撮影位置・方位情報に基づき各分割撮影画像12をブロック調整して接合する。より具体的には、補正部32により各分割撮影画像12に幾何補正やレンズ歪みの補正が加えられ、また、タイポイント抽出部33により例えばエピポーラ線を用いるなどして分割撮影画像12、12同士の対応画素が検出され、さらに、車両位置姿勢解析部34により各分割撮影画像12の撮影位置、方位情報が求められた上、広角結合部35により空中三角測量や前方交会法を利用して分割撮影画像12、12、・・の相互標定、絶対標定、およびモザイク処理がなされる。   The wide-angle image generation unit 13 generates a single omnidirectional photographic image 3 by combining the divided photographic images 12, 12,... Taken at the same time. The divided captured images 12 are joined after block adjustment. More specifically, geometric correction and lens distortion correction are applied to each divided photographed image 12 by the correcting unit 32, and the divided photographed images 12, 12 are connected to each other by using, for example, epipolar lines by the tie point extracting unit 33. The corresponding position is detected, and the vehicle position / orientation analysis unit 34 obtains the shooting position and orientation information of each of the divided shot images 12, and the wide-angle coupling unit 35 uses the aerial triangulation or the forward intersection method to perform the division. The relative orientation, absolute orientation, and mosaic processing of the captured images 12, 12,.

図4(a)および(b)は、周囲方向の分割撮影画像12への幾何補正による厳密処理を説明するもので、分割撮影画像12のレンズの主点36Aと、全方位画像における仮想レンズの主点36Bとのずれαにより生じる誤差も幾何補正される。同図において37は分割撮影画像12の画像面を仮想的に表現した線、38はその投影面を仮想的に表現した線である。なお、レンズ主点の変更に伴う画像処理は、後述する個別画像生成部8におけるように3次元モデル5を利用してすることも可能である。   FIGS. 4A and 4B illustrate strict processing by geometric correction to the circumferentially divided captured image 12, and the principal point 36A of the lens of the divided captured image 12 and the virtual lens in the omnidirectional image. An error caused by the deviation α from the principal point 36B is also geometrically corrected. In the figure, 37 is a line that virtually represents the image plane of the divided photographed image 12, and 38 is a line that virtually represents the projection plane. Note that the image processing accompanying the change of the lens principal point can also be performed using the three-dimensional model 5 as in the individual image generation unit 8 described later.

また、図3(c)は幾何補正後の各分割撮影画像12をブロック調整した状態、言い換えれば、全方位撮影画像3における各分割撮影画像12の組み合わせ配置を示すもので、この全方位撮影画像3は、計測車両20の周囲方向に相当する紙面横方向が長尺になっている。同図において38Aは、天頂方向の分割撮影画像12が占める領域を、38Bは周囲方向の各々の分割撮影画像12が占める領域を示す。以上の広画角画像生成部13により得られた全方位撮影画像3を図5(a)に例示する。同図において、39は白線、40は建物、41は建物であり、画像右側寄りの奥に延びる路面1が計測車両20の前方を、画像中央部分が計測車両20の左側を、画像左側寄りの奥に延びる路面1が計測車両20の後方を表している。   FIG. 3C shows a state in which each divided photographed image 12 after geometric correction is block-adjusted, in other words, shows a combined arrangement of the respective divided photographed images 12 in the omnidirectional photographed image 3, and this omnidirectional photographed image. 3, the horizontal direction of the paper surface corresponding to the peripheral direction of the measurement vehicle 20 is long. In the figure, reference numeral 38A denotes an area occupied by the divided photographed image 12 in the zenith direction, and reference numeral 38B denotes an area occupied by each divided photographed image 12 in the peripheral direction. FIG. 5A illustrates the omnidirectional image 3 obtained by the wide-angle image generation unit 13 described above. In the figure, 39 is a white line, 40 is a building, and 41 is a building. The road surface 1 extending in the back of the right side of the image is the front of the measuring vehicle 20, the central part of the image is the left side of the measuring vehicle 20, and the left side of the image. The road surface 1 extending in the back represents the rear of the measurement vehicle 20.

以上のように全方位撮影画像3が完成したら、個別画像生成部8による個別のモザイク画像の生成が開始される。後述するように展開図近似の地図を生成するために、個別モザイク画像は、道路の垂直撮影方向のモザイク画像(垂直撮影方向のモザイク画像6)と、道路両脇の景色2、2についての一組の水平撮影方向のモザイク画像(水平撮影方向のモザイク画像7)からなり、個別画像生成部8は、計測車両20の走行方向に連続して得られた上述の全方位撮影画像3の複数を合成し、平行投影変換処理により撮影方向を仮想的に変更してこれらの画像を生成する。   When the omnidirectional captured image 3 is completed as described above, generation of individual mosaic images by the individual image generation unit 8 is started. As will be described later, in order to generate a map that approximates a development view, the individual mosaic images are obtained with respect to the mosaic image in the vertical shooting direction of the road (the mosaic image 6 in the vertical shooting direction) and the scenery 2 and 2 on both sides of the road. It consists of a set of mosaic images in the horizontal shooting direction (mosaic image 7 in the horizontal shooting direction), and the individual image generation unit 8 obtains a plurality of the above-described omnidirectional shooting images 3 obtained continuously in the traveling direction of the measurement vehicle 20. These images are generated by virtually changing the shooting direction by parallel projection conversion processing.

全方位撮影画像3同士の接合は、図5(b)に示すように、撮影位置・方位情報に基づき、空中三角測量により各全方位撮影画像3をブロック調整して接合する。ブロック調整には具体的にはバンドル法が利用され、これに先立って各全方位撮影画像3にパスポイント4が設定される。図6(a)はパスポイント抽出部42によるパスポイント4の設定状態を示すものであり、この実施の形態においては、画像のスケール変化や回転に強いHarris法によりパスポイント4が抽出される。なお、パスポイント4の抽出は、例えばshift法などの他の手法によることも可能である。また、上述した広画角画像生成部13と同様に、補正部43により幾何補正等の補正処理がなされる。   As shown in FIG. 5B, the omnidirectional photographed images 3 are joined by block adjustment of the omnidirectional photographed images 3 by aerial triangulation based on the photographing position / orientation information. Specifically, the bundle method is used for block adjustment, and prior to this, a pass point 4 is set for each omnidirectional image 3. FIG. 6A shows the setting state of the pass point 4 by the pass point extracting unit 42. In this embodiment, the pass point 4 is extracted by the Harris method that is resistant to image scale change and rotation. It should be noted that the extraction of the pass point 4 can be performed by another method such as a shift method. Further, similarly to the wide-angle image generation unit 13 described above, correction processing such as geometric correction is performed by the correction unit 43.

図6(b)はブロック調整過程の一例を示すもので、全方位撮影画像3から計測車両20の側方、すなわち道路脇の景色2を捉えた画像を抽出したものであり、同種の画像同士を接合することにより道路長に沿って長尺のモザイク画像を生成することができる。同図に示す二点鎖線は、天頂方向の分割撮影画像領域38A(高高度域撮影カメラ11Bの撮影範囲)と周囲方向の分割撮影画像領域38B(低高度域撮影カメラ11Aの撮影範囲)との境界を示すイメージであり、上述のように天頂領域を撮影することにより、道路脇の高層ビル18の比較的高高度域をモザイク画像に反映させることが可能になる。   FIG. 6B shows an example of the block adjustment process, in which an image capturing the landscape 2 on the side of the measurement vehicle 20, that is, the roadside, is extracted from the omnidirectional image 3. By joining, a long mosaic image can be generated along the road length. The alternate long and two short dashes line shown in FIG. 3 indicates that the divided shooting image area 38A in the zenith direction (the shooting range of the high altitude shooting camera 11B) and the divided shooting image area 38B in the peripheral direction (the shooting range of the low altitude shooting camera 11A). By capturing the zenith area as described above, it is possible to reflect the relatively high altitude area of the high-rise building 18 on the roadside in the mosaic image.

全方位撮影画像3のブロック調整は、上述した広画角画像生成部13の車両位置姿勢解析部34により得られた撮影位置、方位情報を利用してなされ、パノラマ結合部44により撮影位置、方位情報と撮影画像3のパスポイント4、さらには、上述した地上基準点を必要に応じて利用してバンドル法の同時調整によるブロック調整がなされ、接合、モザイク処理がなされる。   The block adjustment of the omnidirectional image 3 is performed by using the shooting position and azimuth information obtained by the vehicle position and orientation analysis unit 34 of the wide-angle image generation unit 13 described above. Block adjustment by simultaneous adjustment of the bundle method is performed by using the information and the pass point 4 of the photographed image 3 and the above-described ground reference point as necessary, and joint and mosaic processing are performed.

また、個別画像生成部8による平行投影変換処理は、3次元モデル5であるDSM(数値表層モデル)を利用してなされる。このため平行投影変換処理に先立ち、個別画像生成部8の数値表層モデル生成部45では、レーザ測距データと撮影位置・方位情報を利用してTIN(不整三角網モデル)等からなるDSM5が生成される。平行投影変換処理を行う平行投影変換部46は、このDSM5に上述したモザイク画像を投影し、上述のように、撮影方向を垂直・水平方向に仮想的に変更する、すなわち投影画像の画素を撮影方向の変更に応じた位置に移動させることにより、垂直・水平撮影方向のモザイク画像6、7のそれぞれを生成する。図7(a)は水平撮影方向のモザイク画像7のイメージを、図7(b)は垂直撮影方向のモザイク画像6、すなわちオルソ画像のイメージを示す。なお、上記数値表層モデル生成部45は、レーザ測距装置23による測距範囲外である天頂方向周辺に関しては、全方位撮影画像3、3同士のステレオマッチングにより3次元位置・形状を特定し、これをDSM5の生成に利用する。   The parallel projection conversion process by the individual image generation unit 8 is performed using a DSM (numerical surface layer model) which is a three-dimensional model 5. Therefore, prior to the parallel projection conversion process, the numerical surface layer model generation unit 45 of the individual image generation unit 8 generates a DSM 5 composed of TIN (irregular triangular network model) or the like using laser distance measurement data and shooting position / orientation information. Is done. The parallel projection conversion unit 46 that performs parallel projection conversion processing projects the above-described mosaic image onto the DSM 5 and virtually changes the imaging direction to the vertical and horizontal directions as described above, that is, captures the pixels of the projection image. Each of the mosaic images 6 and 7 in the vertical and horizontal shooting directions is generated by moving to a position corresponding to the change in direction. 7A shows an image of the mosaic image 7 in the horizontal shooting direction, and FIG. 7B shows an image of the mosaic image 6 in the vertical shooting direction, that is, an ortho image. The numerical surface layer model generation unit 45 specifies the three-dimensional position and shape by stereo matching of the omnidirectional images 3 and 3 with respect to the zenith direction periphery that is outside the distance measurement range by the laser distance measuring device 23, This is used to generate DSM5.

このようにして垂直・水平撮影方向のモザイク画像6、7が完成したら、次に、展開画像生成部10によるモザイク画像6、7同士のつなぎ合わせ処理が開始される。展開画像生成部10は、垂直方向のモザイク画像6における道路領域の両側方に、道路両脇の水平方向のモザイク画像7、7を同一平面上につなぎ合わせるようにして貼り付ける。すなわち、現実においては垂直方向のモザイク画像6における路面1領域の側縁から立ち上がるような立体的位置関係にある水平方向のモザイク画像7について、仮想的に道路外側に倒し込むようにして展開図近似の写真地図9を生成する。つなぎ合わせに際しては、各モザイク画像6、7が備える位置座標を利用することにより、道路長方向にモザイク画像6、7同士が精密に位置合わせされ、また、道路左右両脇の景色2、2を示すモザイク画像7、7と道路領域のモザイク画像6とがそれぞれの左右方向の位置関係を合わせられる。   When the mosaic images 6 and 7 in the vertical and horizontal shooting directions are completed in this way, the processing for joining the mosaic images 6 and 7 by the developed image generation unit 10 is started. The developed image generator 10 pastes the horizontal mosaic images 7 and 7 on both sides of the road on both sides of the road area in the vertical mosaic image 6 so as to be connected on the same plane. In other words, in reality, the horizontal mosaic image 7 that has a three-dimensional positional relationship that rises from the side edge of the road surface 1 region in the vertical mosaic image 6 is a photograph that approximates the development view by virtually falling down to the outside of the road. A map 9 is generated. At the time of joining, the mosaic images 6 and 7 are precisely aligned in the road length direction by using the position coordinates of the mosaic images 6 and 7, and the scenery 2 and 2 on both sides of the road are The displayed mosaic images 7 and 7 and the mosaic image 6 of the road area are matched in the positional relationship in the left-right direction.

図8は以上のようにして得られた展開図近似の写真画像9を示す。この図に示すように、この写真画像9においては、正射投影の路面1の両側方に、水平方向に投影した道路脇の景色2、2が平面方向の位置関係を残しつつ並ぶことから、地理を感覚的に把握しやすく、また、全体がコンパクトにまとまっているために一覧性にも優れる。しかしながら、交差点15に関しては、支線47が上り坂でないと水平方向のモザイク画像7においてはほぼ線として表れるに過ぎないことから、見分けがしにくいものにもなる。   FIG. 8 shows a photographic image 9 approximated to a developed view obtained as described above. As shown in this figure, in this photographic image 9, the roadside scenery 2 and 2 projected in the horizontal direction are arranged on both sides of the orthographic projection road surface 1 while leaving the positional relationship in the plane direction. It is easy to grasp the geography sensuously, and the list is excellent because the whole is compact. However, regarding the intersection 15, if the branch line 47 is not uphill, it will only appear as a line in the horizontal mosaic image 7, and therefore it will be difficult to distinguish.

上記交差点調整部17は、このような見分けづらさを改善するもので、支線47によって空白のように欠けてしまった画像領域に支線47の存在を分かりやすく描写した補間画像16を貼り付ける。交差点調整部17の交差点抽出部48は、上述した3次元モデル5の正射投影を示す図7(c)に示すように、3次元モデル5から路面1両脇に位置する建物40表面によって構成される仮想的な面49を抽出し、この面49の周縁同士の間に存在する隙間により交差点15、言い換えれば支線47の存在やその位置を特定する。建物40表面からの面49の抽出に際して支線47と推測される程度の幅寸法の空隙がないことを条件とすることにより、建物40、40同士の比較的狭い隙間が支線47として誤抽出されるのを防止するのが可能になる。   The intersection adjusting unit 17 improves the difficulty of distinguishing the image, and pastes an interpolated image 16 in which the existence of the branch line 47 is clearly depicted in an image region that is missing like a blank by the branch line 47. The intersection extraction unit 48 of the intersection adjustment unit 17 is constituted by the surface of the building 40 located on both sides of the road surface 1 from the three-dimensional model 5 as shown in FIG. 7C showing the orthographic projection of the three-dimensional model 5 described above. The virtual surface 49 is extracted, and the presence of the intersection 15, in other words, the presence of the branch line 47 and its position are specified by the gap existing between the peripheral edges of the surface 49. When extracting the surface 49 from the surface of the building 40, a relatively narrow gap between the buildings 40 and 40 is erroneously extracted as the branch line 47 on condition that there is no gap having a width dimension that is estimated to be the branch line 47. Can be prevented.

また、交差点調整部17の補間画像生成部50は、上述した補間画像16を生成するもので、この実施の形態においては、上述のように全方位撮影画像3から抽出可能な計測車両20の側方を捉えた画像、すなわち側方画像に基づいて補間画像16を生成する。補間画像16の生成は、上述のように特定された支線47の位置を利用し、側方画像の対応する画像領域を特定した上で、これを切り出してなされる。この切り出しは、撮影画像3がある程度鮮明であると思われる長さに限ってなされる。図9(a)はこの切り出し作業を描写したもので、二点鎖線が切り出し領域である。   In addition, the interpolation image generation unit 50 of the intersection adjustment unit 17 generates the above-described interpolation image 16. In this embodiment, the measurement vehicle 20 side that can be extracted from the omnidirectional image 3 as described above. An interpolated image 16 is generated based on an image capturing the direction, that is, a side image. The interpolated image 16 is generated by using the position of the branch line 47 specified as described above, specifying the corresponding image area of the side image, and then cutting it out. This cutout is limited to a length that the captured image 3 is considered to be clear to some extent. FIG. 9A depicts this cut-out operation, and a two-dot chain line is a cut-out region.

また、以上のようにして切り出された画像は、一般に、支線47の長手方向に対応する寸法が短くならざるを得ないことから、補間画像生成部50は、図9(b)に示すように、この実施の形態においてはアフィン変換を利用することにより、目立ちやすい大きさ、形状への画像変形処理をすれる。   In addition, since the image cut out as described above generally has to be shortened in the dimension corresponding to the longitudinal direction of the branch line 47, the interpolated image generation unit 50 is configured as shown in FIG. 9B. In this embodiment, image transformation processing into a size and shape that is conspicuous can be performed by using affine transformation.

最後に、画像貼付部51は、得られた補間画像16を上述のようにして特定された支線47の位置に応じて、水平方向のモザイク画像7に貼り付ける。図10は以上の処理により完成した地図を示すもので、2点鎖線は補間画像16の周縁を表す。   Finally, the image pasting unit 51 pastes the obtained interpolation image 16 on the horizontal mosaic image 7 according to the position of the branch line 47 specified as described above. FIG. 10 shows a map completed by the above processing. A two-dot chain line represents the periphery of the interpolation image 16.

したがって例えば、この道路沿いを歩行あるいは車両を運転して移動している際には、自身の周囲の景色2、2と、この写真地図9、より望ましくは水平方向のモザイク画像7、7とを見比べれば、自位置を容易に特定できるし、また、道路に沿って自身が実際に移動しているときの地図上での移動との対応付けも簡単になる。特に支線47の存在が分かりやすいことから、例えば、実際に歩いている途中で支線47を越えたかどうかといった現況との比較も簡単である。さらに、垂直方向のモザイク画像6、すなわち道路に沿って地図を見進めていくことにより、実地では目視の困難なやや遠距離にある道路沿いの施設や、横断歩道、パーキングメータの駐車枠などの路面1に描かれる道路標示の存在も事前に容易に把握できる。   Therefore, for example, when walking along this road or driving a vehicle, the surrounding scenery 2, 2 and this photographic map 9, more preferably horizontal mosaic images 7, 7 are displayed. If compared, it is possible to easily identify the own position, and it is also easy to associate with the movement on the map when the person is actually moving along the road. In particular, since the presence of the branch line 47 is easy to understand, it is easy to compare with the current situation, for example, whether or not the branch line 47 has been crossed while actually walking. Furthermore, by looking forward at the map along the vertical mosaic image 6, ie, along the road, facilities such as pedestrian crossings, parking frames for parking meters, etc. The presence of road markings drawn on the road surface 1 can be easily grasped in advance.

なお、以上のおいては地図として単なる写真地図9を作成する場合を示したが、使い勝手をより高めるために、ビル名、交差点15名、道路名、道路の制限速度などを写真地図9上に重ねて表示した地図にすることも可能である。また、以上においては分割撮影画像12を個別に幾何補正した上で、その複数を接合して全方位撮影画像3を生成する場合を示したが、図4(c)に示すように、分割撮影画像12の接合時にずれβの解消を含む幾何補正をも同時計算して全方位撮影画像3を生成しても足りる。   In the above, the case where a simple photographic map 9 is created as a map has been shown. However, in order to improve usability, the building name, 15 intersections, road names, road speed limits, etc. are displayed on the photographic map 9. It is also possible to make a map displayed in an overlapping manner. In the above description, the case where the divided photographed image 12 is individually geometrically corrected and the plural images are joined to generate the omnidirectional photographed image 3 has been described. However, as shown in FIG. It is also sufficient to generate the omnidirectional image 3 by simultaneously calculating geometric correction including elimination of the shift β when the images 12 are joined.

1 路面
2 景色
3 撮影画像
4 パスポイント
5 3次元モデル
6 垂直撮影方向のモザイク画像
7 水平撮影方向のモザイク画像
8 個別画像生成部
9 写真地図
10 展開画像生成部
11 カメラ
11A 低高度域撮影カメラ
11B 高高度域撮影カメラ
12 原画像
13 広画角画像生成部
14 魚眼レンズ
15 交差点
16 補間画像
17 交差点調整部
18 高層建築物
DESCRIPTION OF SYMBOLS 1 Road surface 2 Scenery 3 Photographed image 4 Pass point 5 Three-dimensional model 6 Mosaic image in the vertical photographing direction 7 Mosaic image in the horizontal photographing direction 8 Individual image generating unit 9 Photo map 10 Expanded image generating unit 11 Camera 11A Low altitude region photographing camera 11B High-altitude photography camera 12 Original image 13 Wide-angle image generation unit 14 Fisheye lens 15 Intersection 16 Interpolated image 17 Intersection adjustment unit 18 High-rise building

Claims (2)

道路の路面および道路両脇を道路長に沿って連続撮影した撮影画像、および撮影位置・方位情報を用いて道路沿いの地図を作成する地図作成装置であって、
同一撮影位置から道路の路面および道路両脇を分割撮影するカメラにより同時撮影された原画像同士を撮影位置・方位情報を用いて接合した撮影画像を生成し、前記道路の路面に対し垂直方向に撮影したモザイク画像、および前記道路の道路長に対し道路両脇の水平方向に撮影したモザイク画像を生成する個別画像生成部と、
前記垂直撮影方向のモザイク画像の道路の両脇に応じた位置に当該位置を下端とする水平撮影方向のモザイク画像を同一平面上につなぎ合わせて展開図近似の写真地図を作成する展開画像生成部と、
前記撮影画像または前記原画像から前記道路の交差点を抽出し、前記撮影画像または前記原画像における前記交差点の支線撮影領域から補間画像を生成し、補間画像を前記垂直撮影方向のモザイク画像の支線対応位置につなぎ合わせる交差点調整部を有する地図作成装置。
A map creation device that creates a map along a road using captured images obtained by continuously shooting the road surface and both sides of the road along the road length, and shooting position / azimuth information,
A photographed image is generated by joining the original images simultaneously photographed by a camera that shoots the road surface and both sides of the road from the same photographing position using the photographing position / orientation information, and is perpendicular to the road surface of the road. An individual image generation unit that generates a captured mosaic image and a mosaic image captured in the horizontal direction on both sides of the road with respect to the road length of the road ;
A developed image generation unit that creates a photographic map that approximates a developed view by connecting mosaic images in the horizontal shooting direction with the position at the lower end on the same plane at positions corresponding to both sides of the road of the mosaic image in the vertical shooting direction. When,
The intersection of the road is extracted from the photographed image or the original image, an interpolation image is generated from the branch photographing region of the intersection in the photographed image or the original image, and the interpolation image corresponds to the branch line of the mosaic image in the vertical photographing direction. A map creation device having an intersection adjustment unit that connects to a position .
道路の路面および道路両脇の景色を道路長に沿って連続撮影した撮影画像、および撮影位置・方位情報を用いて道路沿いの地図を作成する地図作成方法であって、
同一撮影位置から道路の路面および道路両脇を分割撮影するカメラにより同時撮影された原画像同士を撮影位置・方位情報を用いて接合した撮影画像を生成し、前記道路の路面に対し垂直方向に撮影したモザイク画像、および前記道路の道路長に対し道路両脇の水平方向に撮影したモザイク画像を生成するステップと、
前記垂直撮影方向のモザイク画像の道路の両脇に応じた位置に当該位置を下端とする水平撮影方向のモザイク画像を同一平面上につなぎ合わせて展開図近似の写真地図を作成するステップと、
前記撮影画像または前記原画像から前記道路の交差点を抽出し、前記撮影画像または前記原画像における前記交差点の支線撮影領域から補間画像を生成し、補間画像を前記垂直撮影方向のモザイク画像の支線対応位置につなぎ合わせるステップとを有する地図作成方法。
A map creation method for creating a map along a road using a photographed image obtained by continuously photographing the road surface and scenery on both sides of the road along the road length, and photographing position / direction information,
A photographed image is generated by joining the original images simultaneously photographed by a camera that shoots the road surface and both sides of the road from the same photographing position using the photographing position / orientation information, and is perpendicular to the road surface of the road. Generating a captured mosaic image and a mosaic image captured in the horizontal direction on both sides of the road with respect to the road length of the road;
Creating a photographic map approximating a developed view by connecting the mosaic images in the horizontal shooting direction on the same plane at the positions corresponding to both sides of the road of the mosaic image in the vertical shooting direction on the same plane;
The intersection of the road is extracted from the photographed image or the original image, an interpolation image is generated from a branch photographing region of the intersection in the photographed image or the original image, and the interpolation image corresponds to the branch line of the mosaic image in the vertical photographing direction. A mapping method comprising the steps of stitching to a location .
JP2015121433A 2015-06-16 2015-06-16 Map creation apparatus and map creation method Active JP6616967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015121433A JP6616967B2 (en) 2015-06-16 2015-06-16 Map creation apparatus and map creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015121433A JP6616967B2 (en) 2015-06-16 2015-06-16 Map creation apparatus and map creation method

Publications (2)

Publication Number Publication Date
JP2017010082A JP2017010082A (en) 2017-01-12
JP6616967B2 true JP6616967B2 (en) 2019-12-04

Family

ID=57763544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015121433A Active JP6616967B2 (en) 2015-06-16 2015-06-16 Map creation apparatus and map creation method

Country Status (1)

Country Link
JP (1) JP6616967B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018191989A1 (en) * 2017-04-22 2018-10-25 深圳市大疆灵眸科技有限公司 Capture control method and apparatus
WO2019181101A1 (en) * 2018-03-19 2019-09-26 ソニー株式会社 Image processing device and image processing method
JP6837211B2 (en) * 2018-04-11 2021-03-03 パナソニックIpマネジメント株式会社 Image processing device and image processing method
JP7189029B2 (en) * 2019-01-08 2022-12-13 朝日航洋株式会社 Elevation drawing method
KR102117276B1 (en) * 2019-12-10 2020-06-01 (주)태영정보시스템 Improvement of seam line extraction method using DSM data for mosaic processing of aerial photographs, satellite images, and drones
CN111445544A (en) * 2020-02-24 2020-07-24 东莞职业技术学院 Map drawing method based on route live detection
WO2022186354A1 (en) * 2021-03-03 2022-09-09 株式会社Preferred Networks Information processing device and autonomous mobile robot
CN113516770A (en) * 2021-04-14 2021-10-19 孙继雄 Method for synthesizing road design drawing and aerial photography real-scene special effect

Also Published As

Publication number Publication date
JP2017010082A (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6616967B2 (en) Map creation apparatus and map creation method
CN107356230B (en) Digital mapping method and system based on live-action three-dimensional model
KR101754599B1 (en) System and Method for Extracting Automatically 3D Object Based on Drone Photograph Image
KR101265667B1 (en) Device for 3d image composition for visualizing image of vehicle around and method therefor
WO2018163898A1 (en) Free viewpoint movement display device
KR101314120B1 (en) Three-dimensional urban modeling apparatus and three-dimensional urban modeling method
JP5134784B2 (en) Aerial photogrammetry
JP2009177251A (en) Generation method of orthophoto image and photographing device
JP2005268847A (en) Image generating apparatus, image generating method, and image generating program
CA2907047A1 (en) Method for generating a panoramic image
JP6820561B2 (en) Image processing device, display device, navigation system, image processing method and program
CN109883433B (en) Vehicle positioning method in structured environment based on 360-degree panoramic view
JP2018205264A (en) Image processor, method for processing image, and image processing program
JP6910454B2 (en) Methods and systems for generating composite top-view images of roads
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP3808833B2 (en) Aerial photogrammetry
JP4852006B2 (en) Spatial information database generation device and spatial information database generation program
JP2004265396A (en) Image forming system and image forming method
JP6110780B2 (en) Additional information display system
CN108195359B (en) Method and system for acquiring spatial data
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
CN113984019A (en) Measurement system, measurement method, and measurement program
CN112802109A (en) Method for generating automobile aerial view panoramic image
JP4299010B2 (en) Method for obtaining texture image of 3D geographic shape model
JP2009229182A (en) Feature-on-image measurement method, display method, and measurement apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R150 Certificate of patent or registration of utility model

Ref document number: 6616967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250