JP4511147B2 - 3D shape generator - Google Patents

3D shape generator Download PDF

Info

Publication number
JP4511147B2
JP4511147B2 JP2003344837A JP2003344837A JP4511147B2 JP 4511147 B2 JP4511147 B2 JP 4511147B2 JP 2003344837 A JP2003344837 A JP 2003344837A JP 2003344837 A JP2003344837 A JP 2003344837A JP 4511147 B2 JP4511147 B2 JP 4511147B2
Authority
JP
Japan
Prior art keywords
camera
image
unit
dimensional
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003344837A
Other languages
Japanese (ja)
Other versions
JP2005115420A (en
Inventor
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE LABORATORIES, LTD.
Original Assignee
IWANE LABORATORIES, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE LABORATORIES, LTD. filed Critical IWANE LABORATORIES, LTD.
Priority to JP2003344837A priority Critical patent/JP4511147B2/en
Publication of JP2005115420A publication Critical patent/JP2005115420A/en
Application granted granted Critical
Publication of JP4511147B2 publication Critical patent/JP4511147B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Description

本発明は、カメラで得られる動画又は連続静止画の映像に基づいて、対象物の三次元形状を求め、三次元地図を生成する三次元形状生成装置に関する。
特に、本発明は、高価な機器や膨大な手間と費用などを必要とすることなく、簡易かつ高精度に対象物の三次元形状を求めて三次元地図を生成することができる三次元形状生成装置に関する。
The present invention relates to a three-dimensional shape generation apparatus that obtains a three-dimensional shape of an object based on a moving image or a continuous still image obtained by a camera and generates a three-dimensional map.
In particular, the present invention is capable of generating a three-dimensional shape that can easily and accurately determine a three-dimensional shape of an object without requiring expensive equipment or enormous effort and cost. Relates to the device.

カーナビゲーション装置などにおいては、対象物を三次元的に表示する三次元地図の生成技術が利用されている。三次元地図では、例えば道路や建物などの対象物について高さ方向を含む立体的な三次元情報が表示されるため、対象物を容易かつ正確に把握することができ、二次元地図では得られない有用な地図情報が得られるようになる。
従来の三次元地図生成の技術としては、航空機からレーザーなどで地表を測量し、地表の三次元データを取得して、地上から撮影した視差による三次元データと組み合わせて詳細部分を計測し、それから3DCG(コンピュータグラフィックス)を生成し、さらに地上から撮影した対象物のテクスチャーを切り取って3DCGに貼り付ける等の処理によって生成していた(特許文献1−3参照。)。
In a car navigation apparatus or the like, a 3D map generation technique for displaying an object three-dimensionally is used. In a 3D map, for example, three-dimensional 3D information including the height direction is displayed for an object such as a road or a building, so that the object can be easily and accurately grasped. There will be no useful map information.
Conventional three-dimensional map generation technology includes surveying the ground surface from an aircraft with a laser, etc., acquiring three-dimensional data on the ground surface, measuring the detailed parts in combination with three-dimensional data based on parallax photographed from the ground, and then 3DCG (computer graphics) is generated, and further, the texture of an object photographed from the ground is cut out and pasted on 3DCG (see Patent Documents 1-3).

特開2000−066583号公報JP 2000-066583 A 特開2002−098538号公報JP 2002-098538 A 特開2003−114614号公報JP 2003-114614 A

上記のような従来の三次元地図の技術では、高価な機器を必要とし、しかも、膨大な手間と費用をかけなければ三次元地図を作成できないという問題があった。
ここで、通常の安価なカメラで撮影される映像であっても、映像は三次元情報を含んでおり、そこから三次元地図の生成に必要となる三次元情報を抽出することは可能であり、また、二台のカメラで撮影した視差から三次元情報を抽出することも可能であった。従って、通常のカメラを車両などに搭載して移動しながら対象物を撮影し、そこから三次元情報を抽出して三次元地図を生成することは、理論上は可能である。
The conventional three-dimensional map technology as described above has a problem that an expensive device is required and a three-dimensional map cannot be created without enormous effort and cost.
Here, even if the video is shot with a normal inexpensive camera, the video contains 3D information, and it is possible to extract 3D information necessary for generating a 3D map from the video. Also, it was possible to extract three-dimensional information from parallax photographed by two cameras. Therefore, it is theoretically possible to shoot an object while moving a normal camera mounted on a vehicle or the like, extract 3D information therefrom, and generate a 3D map.

しかしながら、単に通常のカメラで映像を撮影しただけでは、撮影するカメラが移動するために、揺れ等の外乱を受け、座標がぶれ、回転し、位置として安定な映像を取得,抽出できず、三次元情報を高精度に抽出することはできない。
特に、カメラ位置と視点角度は、カメラを搭載した車両等の移動につれて刻々変化するので、その三次元位置を精度良く計測できなければならない。また、カメラの3軸方向の移動を正確に抽出できなければ、精度の良い三次元地図を生成することはできない。
また、二台のカメラで撮影した視差からの三次元抽出では精度に限界があり、誤差を縮小する何等かの技術,手段が必要となる。
However, simply taking a picture with a normal camera moves the camera to shoot, so it is subject to disturbances such as shaking, the coordinates are shaken, rotated, and stable images cannot be acquired and extracted as positions. The original information cannot be extracted with high accuracy.
In particular, since the camera position and the viewpoint angle change every moment as the vehicle or the like equipped with the camera moves, it is necessary to accurately measure the three-dimensional position. In addition, if the movement of the camera in the three-axis directions cannot be extracted accurately, a highly accurate three-dimensional map cannot be generated.
In addition, three-dimensional extraction from parallax photographed by two cameras is limited in accuracy, and some technique and means for reducing the error are required.

そこで、本願発明者は、鋭意研究の結果、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、さらに、各フレーム間で特徴点を自動追跡し、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることにより、安価なカメラであっても、精度の良い三次元データを抽出し、高精度な三次元地図を生成し得ることに想到した。
すなわち、本発明は、従来の技術が有する問題を解決するために提案されたものであり、高価な機器を必要とせず、安価なカメラで、しかも原理的には一台のカメラで、車両に積載して周辺状況を撮影し、あるいは人がカメラを手に持って周囲を撮影し、その映像を解析して、そこから三次元情報を抽出して、画像処理技術により三次元形状を生成し、三次元地図を生成することができる三次元形状生成装置の提供を目的とする。
Therefore, as a result of earnest research, the inventor of the present application automatically detects a sufficient number of feature points from a plurality of frame images of a moving image, further automatically tracks feature points between frames, and overlaps many feature points. By calculating and obtaining the camera position and rotation angle with high accuracy, it was conceived that even an inexpensive camera can extract highly accurate 3D data and generate a highly accurate 3D map.
That is, the present invention has been proposed in order to solve the problems of the prior art, and does not require expensive equipment, and is an inexpensive camera and, in principle, a single camera for a vehicle. Take a picture of the surroundings by loading it, or take a picture of the surroundings with a person holding the camera, analyze the video, extract 3D information from it, and generate a 3D shape using image processing technology An object of the present invention is to provide a three-dimensional shape generation apparatus capable of generating a three-dimensional map.

上記目的を達成するため、本発明の三次元形状生成装置は移動体に備えられた動画又は連続静止画を得るカメラからの映像を取得する画像取得部と、前記画像取得部で取得された画像を一時記録する画像記録部と、前記画像記録部から読み出された画像データから、各フレームで対応関係にある点又は小領域の三次元位置と、カメラの三次元位置及びカメラの3軸回転を複数のフレームで重複演算し、誤差の分布が最小になるように統計処理してカメラベクトルを求めるベクトル検出部と、前記ベクトル検出部で求められたカメラの三次元位置と3軸回転のカメラベクトルの各データを付加した全フレーム画像を記録するカメラベクトル付加画像記録部と、各フレーム画像及び各フレーム単位で得られたカメラベクトルに基づき、複数のフレーム画像から得られる多数の視差、又は複数のフレーム画像から得られる多数のオプティカルフローの平均値を用いて、画像内対象物の微少面各点について重複演算し、対象物の三次元形状を生成する多重視差演算部と、前記多重視差演算部における対象物の三次元形状の生成を連続的に繰り返して、三次元形状を形成する三次元形状生成部と、を備える構成としてある。 To achieve the above object, the three-dimensional shape generation apparatus of the present invention includes an image acquisition unit that acquires an image from the camera to obtain a video or continuous still images provided to the moving body acquired by the image acquisition unit An image recording unit for temporarily recording an image, a three-dimensional position of a point or a small area corresponding to each frame from the image data read from the image recording unit, a three-dimensional position of the camera, and three axes of the camera A vector detection unit that calculates a camera vector by performing statistical processing so that the error distribution is minimized, and a three-dimensional rotation of the camera determined by the vector detection unit and a three-axis rotation Based on a camera vector additional image recording unit that records all frame images to which camera vector data is added, and each frame image and the camera vector obtained for each frame, a plurality of frames are recorded. Using a large number of parallaxes obtained from a frame image or an average value of a number of optical flows obtained from a plurality of frame images, an overlap calculation is performed for each point on the minute surface of the object in the image, and the three-dimensional shape of the object is obtained. The multiple parallax calculation unit to be generated and the three-dimensional shape generation unit that continuously generates the three-dimensional shape of the object in the multiple parallax calculation unit to form a three-dimensional shape.

また、本発明の三次元形状生成装置は移動体に備えられた動画又は連続静止画を得るカメラからの映像を取得する画像取得部と、前記画像取得部で取得された画像を一時記録する画像記録部と、前記画像記録部から読み出された画像データから、各フレームで対応関係にある点又は小領域の三次元位置と、カメラの三次元位置及びカメラの3軸回転を複数のフレームで重複演算し、誤差の分布が最小になるように統計処理してカメラベクトルを求めるベクトル検出部と、前記ベクトル検出部で求めたカメラベクトルから、元画像を補正するための補正信号を生成する補正信号生成部と、前記補正信号で補正された正規化画像を記録する正規化画像変換部と、各フレームでのカメラの三次元位置と、前記補正信号で補正された複数の正規化映像に基づき、複数のフレーム画像から得られる多数の視差、又は複数のフレーム画像から得られる多数のオプティカルフローの平均値を用いて、画像内対象物の微少面各点について重複演算し、対象物の三次元形状を生成する三次元形状生成部と、を備える構成としてある。 Further, the three-dimensional shape generation apparatus of the present invention includes an image acquisition unit that acquires an image from the camera to obtain a video or continuous still images provided to the moving body is temporarily recorded to the image acquired by the image acquisition unit From the image recording unit and the image data read out from the image recording unit, a three-dimensional position of a point or small area corresponding to each frame, a three-dimensional position of the camera, and a three-axis rotation of the camera are divided into a plurality of frames. And a vector detection unit that obtains a camera vector by performing statistical processing so that the error distribution is minimized, and a correction signal for correcting the original image is generated from the camera vector obtained by the vector detection unit. A correction signal generation unit, a normalized image conversion unit that records a normalized image corrected by the correction signal, a three-dimensional position of the camera in each frame, and a plurality of normalized images corrected by the correction signal. Based on a plurality of parallaxes obtained from a plurality of frame images, or an average value of a plurality of optical flows obtained from a plurality of frame images, and performing an overlap calculation on each point of the minute surface of the object in the image. And a three-dimensional shape generation unit that generates a three-dimensional shape.

また、本発明の三次元形状生成装置は前記ベクトル検出部が、前記画像記録部から読み出された画像データにより、画像中に特徴点となるべき点又は小領域画像を自動抽出して自動指定する特徴点抽出部と、前記自動指定された特徴点の各フレーム間での対応関係を求める特徴点対応処理部と、前記対応関係が求められた特徴点の三次元位置座標及びカメラ位置を演算で求める特徴点・カメラ位置演算部と、前記特徴点の三次元位置を複数演算し、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をするとともに、誤差の大きい特徴点を検出してそれを削除し、他の特徴点に基づく再演算をし、全体の誤差を最小化する誤差最小化部と、を備える構成としてある。 Further, the three-dimensional shape generation apparatus of the present invention, the vector detecting section, the the image data read from the image recording unit, it should become a feature point in an image or a small area image is automatically extracted automatically A feature point extraction unit to be designated, a feature point correspondence processing unit for obtaining a correspondence relationship between the frames of the automatically designated feature points, and a three-dimensional position coordinate and a camera position of the feature point for which the correspondence relationship has been obtained. A feature point / camera position calculation unit to be obtained by calculation and a plurality of three-dimensional positions of the feature points are calculated, statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized, and a feature having a large error An error minimizing unit that detects a point, deletes it, performs recalculation based on another feature point, and minimizes the entire error is provided.

また、本発明の三次元形状生成装置は前記ベクトル検出部が、画像内の映像的に特徴がある特徴点を自動検出し、各フレーム画像内で当該特徴点の対応点を求め、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、所定の値にnとmを設定して単位演算を繰り返し、カメラから画像内の特徴点までの距離により特徴点を複数段に分類して、フレーム間隔mを、カメラから特徴点までの距離が遠いほど大きくなるように設定し、mによる特徴点の分類を複数オーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行し、演算を連続的に進行させ、nの進行とmの各段階で、同一特徴点について複数回重複演算して、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整することにより統合し、距離演算を行い、誤差の分布が大きい特徴点を削除し、再演算することにより、各特徴点及びカメラ位置での演算の精度を上げるように構成してある。 Further, the three-dimensional shape generation apparatus of the present invention, the vector detecting section, the image to the feature points are characterized in an image automatically detects obtains the corresponding point of the feature point in each frame image, the camera vector Focusing on the n-th and n + m-th frame images Fn and Fn + m used for the calculation, the unit calculation is repeated by setting n and m to predetermined values, and the distance from the camera to the feature point in the image The feature points are classified into a plurality of stages, and the frame interval m is set so as to increase as the distance from the camera to the feature points increases. N is continuously advanced with the progress of the image, the calculation is continuously advanced, and the same feature point is repeatedly calculated several times at each stage of n and m. Position error is Integration by scale adjustment to minimize, perform distance calculation, delete feature points with large error distribution, and recalculate to improve the accuracy of calculation at each feature point and camera position It is configured.

また、本発明の三次元形状生成装置は前記三次元形状生成部が、既に得られているカメラベクトルに基づき、フレーム画像内の小領域を移動しながら演算を繰り返して、画像内のすべての小領域について多数の視差を抽出し、その視差による重複演算により誤差の少ない三次元形状を生成する多重視差三次元形状生成部と、多重視差三次元形状生成部で生成された三次元形状を、カメラと同一の座標系に統合して三次元地図を出力する多重視差三次元形状出力部と、を備える構成としてある。 Further, the three-dimensional shape generation apparatus of the present invention, the three-dimensional shape generation section, based on the camera vector already obtained, by repeating the operation while moving the small region in the frame image, the image of all Multiple parallax three-dimensional shape generation unit that extracts a large number of parallaxes for a small area and generates a three-dimensional shape with less error by overlapping calculation based on the parallax, and a three-dimensional shape generated by the multiple parallax three-dimensional shape generation unit And a multi-parallax three-dimensional shape output unit that outputs a three-dimensional map by integrating them in the same coordinate system as the camera.

また、本発明の三次元形状生成装置は前記三次元形状生成部が、前記画像取得部で取得された映像を、所望の対象物の面に垂直になるカメラ視点からの映像に平面変換する指定方向平面変換処理部と、平面変換された映像により、ある領域内の映像のオプティカルフローを演算し、所望の目的平面のオプティカルフローを抽出する目的平面オプティカルフローの抽出指定部と、前記目的平面以外のオプティカルフローを排除する目的以外面排除部と、目的平面を、形状を持つ平面として抽出し、その平面に三次元座標を与える平面形状及び座標取得部と、前記ある領域を移動しながら演算を繰り返して、領域内の所望の対象物のすべてについて、平面構成による三次元形状を生成する平面構成三次元形状生成部と、それらの平面構成による三次元形状を三次元地図として出力する平面再構成三次元形状出力部と、を備える構成としてある。 Further, the three-dimensional shape generation apparatus of the present invention, the three-dimensional shape generation unit, an image acquired by the image acquisition unit, a planar converted to images from the camera viewpoint to be perpendicular to the plane of the desired object A specified direction plane conversion processing unit, a target plane optical flow extraction specifying unit that calculates an optical flow of a video in a certain area by using the plane-converted video and extracts an optical flow of a desired target plane, and the target plane A non-objective surface exclusion unit that excludes optical flows other than the above, a target plane is extracted as a plane having a shape, and a plane shape and coordinate acquisition unit that gives three-dimensional coordinates to the plane, and calculation while moving the certain area Is repeated, and for all desired objects in the region, a three-dimensional shape generating unit for generating a three-dimensional shape based on the plane configuration, and those plane configurations A planar reconfigurable three-dimensional shape output unit for outputting the dimension shape as a three-dimensional map, it is constituted with a.

また、本発明の三次元形状生成装置は前記ベクトル検出部が、移動するカメラのベクトルを検出するとともに、カメラとは別に、移動する移動物体の移動ベクトルを、前記カメラベクトルと同じ方法により検出することで、移動するカメラからの移動物体のベクトルを検出しカメラの移動ベクトルと移動物体の移動ベクトルとのベクトル加算により、移動物体の静止座標形に対する姿勢を三次元ベクトルとして検出するように構成してある。 Further, the three-dimensional shape generation apparatus of the present invention is detected, the vector detecting unit detects a vector of the moving camera, the camera separately from the movement vector of the moving object moving, in the same manner as the camera vector Configured to detect the vector of the moving object from the moving camera and detect the posture of the moving object with respect to the static coordinate form as a three-dimensional vector by adding the vector of the moving vector of the camera and the moving vector of the moving object. It is.

また、本発明の三次元形状生成装置は前記移動体に備えられるカメラとは別に又はそれを兼ねて、同じ移動体に備えられる複数のカメラからなり、視野が重複するように設定した視野重複カメラ部と、前記視野重複カメラ部で取得される同時刻の複数の画像を関連づけて記録する視野重複画像記録部と、前記視野重複した同時刻の複数の画像から演算で求められる、単位時刻における固有の座標系からなる三次元画像を生成する連続三次元画像生成部と、前記連続三次元画像生成部で得られた三次元画像を、前記ベクトル検出部から得られた移動するカメラのカメラベクトルと結合し、移動カメラ系と共通の座標系に変換して統合する座標統合部と、統合された座標系で対象物及び周囲の三次元形状を生成する統合三次元形状生成部と、を備えた構成としてある。 Further, the three-dimensional shape generation apparatus of the present invention is composed of a plurality of cameras provided in the same moving body separately from or serving as the camera provided in the moving body, and overlapped visual fields set so that the visual fields overlap. A unit of time obtained by calculation from a camera, a field-of-view overlap image recording unit that records a plurality of images at the same time acquired by the field-of-view overlap camera, and a plurality of images at the same time that overlap the field of view. A continuous three-dimensional image generation unit that generates a three-dimensional image having a unique coordinate system, and a camera vector of the moving camera obtained from the vector detection unit by using the three-dimensional image obtained by the continuous three-dimensional image generation unit. And a coordinate integration unit that converts and integrates the coordinate system into a common coordinate system with the moving camera system, and an integrated 3D shape generation unit that generates an object and a surrounding 3D shape in the integrated coordinate system, E was there as a constituent.

さらに、本発明の三次元形状生成装置は前記移動体に備えられるカメラとして複数のカメラを備え、近距離の詳細データを必要とする部分を主に撮影する近距離部分詳細画像取得部と、前記複数のカメラで取得される、視野が一部重複するように設定された同時刻の複数の画像を関連して呼び出し可能な形で記録する並列画像記録部と、前記視野の重複する画像から視差を検出し、近距離部分の詳細な三次元形状を生成する近距離部分三次元形状生成部と、前記視野の重複する画像から視差を検出し、前記カメラを備えた移動体以外の他の移動物体を検出する他の移動物体検出部と、前記視野の重複する画像の視差データから、前記他の移動物体の視差データを排除する他の移動物体排除部と、前記三次元形状生成部と、前記近距離部分三次元形状生成部とが重複する部分の対象物の三次元形状から、視差による実測長でスケールを校正して、それぞれの座標系を統合する座標校正統合部と、統合されたデータを記録する統合座標記録部と、それら統合されたデータを表示する総合画像表示部と、を備える構成としてある。 Furthermore, the three-dimensional shape generation apparatus of the present invention comprises a plurality of cameras as a camera provided in the movable body, a short-range partial detailed image acquiring unit for mainly capturing a portion that requires a short distance of detailed data, A parallel image recording unit that records a plurality of images at the same time set in such a manner that the fields of view are overlapped, acquired in a plurality of cameras, in a form that can be recalled in association with each other, and an image with overlapping fields of view A short-distance partial three-dimensional shape generation unit that detects parallax and generates a detailed three-dimensional shape of the short-distance portion, and detects parallax from the overlapping images of the field of view, and other than the moving body including the camera Another moving object detection unit that detects a moving object, another moving object exclusion unit that excludes the parallax data of the other moving object from the parallax data of the images with overlapping fields of view, and the three-dimensional shape generation unit, , The short distance part three Coordinate calibration integration unit that calibrates the scale with the measured length by parallax from the three-dimensional shape of the target object that overlaps the original shape generation unit, and integrates each coordinate system, and integration that records the integrated data The coordinate recording unit and a general image display unit that displays the integrated data are provided.

そして、本発明の三次元地図生成装置は、本発明に係る三次元形状生成装置を備え、対象物の三次元形状を連続的に広範囲に生成することにより、三次元地図を生成するように構成してある。 The 3D map generation apparatus of the present invention includes the 3D shape generation apparatus according to the present invention, and is configured to generate a 3D map by continuously generating a wide range of 3D shapes of objects. It is.

以上のような本発明の三次元形状生成装置によれば、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることができる。従って、通常の安価なカメラであっても、人がカメラをもって移動しながら撮影し、あるいはカメラを積載した移動する車両等から周囲画像を撮影し、その映像を分析してカメラ軌跡を三次元で求めることができる。
そして、その三次元カメラ位置を基準として、カメラ映像内の平面部分を多重視差やオプティカルフロー等から抽出し、平面をテクスチャー付きで抽出し、平面の三次元形状を再構成することで対象物の三次元形状を表現し、それを連続して実施することで三次元地図を生成することができる。
According to the three-dimensional shape generation apparatus of the present invention as described above, a sufficient number of feature points are automatically detected from a plurality of frame images of a moving image, and a large number of feature points are automatically tracked between frames. It is possible to calculate the camera position and the rotation angle with high accuracy by performing overlap calculation on the feature points. Therefore, even if it is a normal inexpensive camera, a person takes a picture while moving with the camera, or takes a surrounding image from a moving vehicle carrying a camera, etc. Can be sought.
Then, using the 3D camera position as a reference, the plane part in the camera image is extracted from multiple parallax, optical flow, etc., the plane is extracted with texture, and the 3D shape of the plane is reconstructed. A three-dimensional map can be generated by expressing a three-dimensional shape and continuously executing the three-dimensional shape.

これにより、従来技術のような高価な機器や膨大な手間と費用を必要とすることなく、安価かつ高精度に三次元地図を生成することができる。
なお、本発明は、移動するカメラによって得られる映像のみでなく、並列に設置した二台のカメラによる視差からの情報を併用することも勿論可能である。
例えば、移動するカメラで取得される映像によるだけでなく、並列に設置したカメラから取得された三次元画像と本発明を組み合わせることにより、固定されたカメラで取得された時間的に連続した三次元画像を、本発明によるカメラベクトルにより三次元的に統合し、一つの座標系に統合して表示することができる。
This makes it possible to generate a three-dimensional map at low cost and high accuracy without requiring expensive equipment as in the prior art and enormous effort and expense.
In the present invention, not only images obtained by moving cameras but also information from parallax from two cameras installed in parallel can be used in combination.
For example, not only by images acquired by moving cameras, but also by combining 3D images acquired from cameras installed in parallel with the present invention, temporally continuous 3D acquired by a fixed camera Images can be three-dimensionally integrated by the camera vector according to the present invention and displayed in a single coordinate system.

以下、本発明に係る三次元形状生成装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の三次元形状生成装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算等を行わせる。このように、本発明の三次元形状生成装置における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現されるようになっている。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Hereinafter, a preferred embodiment of a three-dimensional shape generation apparatus according to the present invention will be described with reference to the drawings.
Here, the following three-dimensional shape generation apparatus of the present invention is realized by processing, means, and functions executed by a computer in accordance with instructions of a program (software). The program sends commands to each component of the computer, and performs predetermined processing and functions as shown below, such as automatic extraction of feature points, automatic tracking of extracted feature points, calculation of three-dimensional coordinates of feature points, camera Perform vector operations. Thus, each process and means in the three-dimensional shape generation apparatus of the present invention are realized by specific means in which a program and a computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.

[第一実施形態]
まず、図1〜図12を参照して、本発明に係る三次元形状生成装置の第一実施形態について説明する。
図1は、本発明の第一実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
同図に示す本実施形態に係る三次元形状生成装置10は、所望の対象物についての三次元情報を生成するために、例えば、移動する車両に積載したカメラ、(原理的には一台のカメラでよい)を用い、その移動による座標の変化を精度良く抽出するようにしてある。
カメラ座標を精度良く抽出するには、画像内の映像的な特徴点を検出し、その移動を追跡する技術を用いる。特徴点の検出を自動化し、追跡も自動化することで、手作業による作業を大幅に省略することができる。
[First embodiment]
First, with reference to FIGS. 1-12, 1st embodiment of the three-dimensional shape production | generation apparatus which concerns on this invention is described.
FIG. 1 is a block diagram showing a schematic configuration of a three-dimensional shape generation apparatus according to the first embodiment of the present invention.
The three-dimensional shape generation apparatus 10 according to the present embodiment shown in the figure includes, for example, a camera mounted on a moving vehicle (in principle, one unit) to generate three-dimensional information about a desired object. The change in coordinates due to the movement is accurately extracted.
In order to accurately extract the camera coordinates, a technique for detecting video feature points in an image and tracking the movement thereof is used. By automating the detection of feature points and automating tracking, manual work can be greatly omitted.

ここで、画像内の特徴点からカメラ位置を求めるには、例えば、同時に6〜7点以上の特徴点があるように、特徴点を画像内で追跡する。そして、それらの特徴点に対してエピポーラ幾何学を用い、カメラ位置を演算により求めることができるが、6〜7点程度の特徴点では、得られるカメラ位置の精度は不十分なものとなる。
そこで、本実施形態では、抽出,追跡する特徴点の数を十分に多くし、また、十分なフレーム数を用いることで多重視差を取得し、有り余る特徴点とフレーム数を得るようにしてある。有り余る特徴点と有り余るフレーム数による多重視差を用い、統計処理を施して、重複する演算を繰り返し、カメラ位置の誤差分布を求め、そこから統計処理により、精度の高いカメラ位置を三次元座標として求めるようにする。このようにすることで、各フレームのカメラ位置は高精度で求められる。カメラ位置が高精度で求められれば、その後は、視差から三次元座標を求める技術で、画像内の全画素についての三次元座標が得られる。
Here, in order to obtain the camera position from the feature points in the image, for example, the feature points are tracked in the image so that there are 6 to 7 or more feature points at the same time. Then, the epipolar geometry is used for these feature points, and the camera position can be obtained by calculation. However, with about 6 to 7 feature points, the accuracy of the obtained camera position is insufficient.
Therefore, in the present embodiment, the number of feature points to be extracted and tracked is sufficiently increased, and multiple parallaxes are acquired by using a sufficient number of frames, so that excess feature points and the number of frames are obtained. . Using multiple parallaxes with surplus feature points and surplus number of frames, statistical processing is performed, repeated calculation is repeated, error distribution of camera position is obtained, and statistical processing is used to obtain highly accurate camera position as 3D coordinates Try to ask. In this way, the camera position of each frame can be obtained with high accuracy. If the camera position is obtained with high accuracy, then the three-dimensional coordinates for all the pixels in the image can be obtained by a technique for obtaining the three-dimensional coordinates from the parallax.

具体的には、図1に示すように、三次元形状生成装置10は、画像取得部11と、画像記録部12と、ベクトル検出部13と、カメラベクトル付加画像記録部14と、多重視差演算部15と、三次元形状生成部16を備えている。
画像取得部11は、例えば、車両などの移動体に積載されたカメラや、人が手に持って移動するカメラによって撮影される動画若しくは連続静止画の映像を取得する。なお、カメラが備えられる移動体(移動物体)としては、移動する人,自動車,船舶,航空機,ロボット,移動する機械等が含まれる。
画像記録部12は、画像取得部11で取得した画像を一時記録する。
カメラベクトル検出部13は、画像記録部12から読み出された画像データより、各フレームで対応関係にある点の、若しくは対応関係にある小領域の三次元位置、及びカメラの三次元位置とカメラの3軸回転等を複数のフレームで重複演算し、誤差の分布が最小になるように統計処理して精度良く求める。
このベクトル検出部13については、図3以下を参照しつつ後に詳述する。
Specifically, as illustrated in FIG. 1, the three-dimensional shape generation apparatus 10 includes an image acquisition unit 11, an image recording unit 12, a vector detection unit 13, a camera vector addition image recording unit 14, and multiple parallaxes. A calculation unit 15 and a three-dimensional shape generation unit 16 are provided.
The image acquisition unit 11 acquires, for example, a moving image or a continuous still image captured by a camera loaded on a moving body such as a vehicle or a camera that a person moves with a hand. The moving body (moving object) provided with the camera includes a moving person, an automobile, a ship, an aircraft, a robot, a moving machine, and the like.
The image recording unit 12 temporarily records the image acquired by the image acquisition unit 11.
From the image data read out from the image recording unit 12, the camera vector detection unit 13 has a point corresponding to each frame or a three-dimensional position of a small region corresponding to each frame, and a three-dimensional position of the camera and the camera. The three-axis rotation and the like are overlapped in a plurality of frames, and statistical processing is performed so as to minimize the error distribution to obtain with high accuracy.
The vector detection unit 13 will be described in detail later with reference to FIG.

カメラベクトル付加画像記録部14は、ベクトル検出部13で得られたカメラの三次元位置と3軸回転のカメラベクトルの各データを付加した全フレーム画像を記録する。
多重視差演算部15は、各フレーム単位で得られたカメラベクトルと、各フレーム画像とから、複数のフレーム画像から得られる十分に多くの視差、若しくは複数のフレーム画像から得られる十分に多くのオプティカルフローの平均値を用いて、画像内対象物の微少面各点について重複演算し、対象物の三次元形状を生成する。
三次元形状生成部16は、多重視差演算部15で行われる対象物の形状の生成を連続的に繰り返して、三次元形状を形成する。
The camera vector additional image recording unit 14 records all frame images to which the data of the camera three-dimensional position and the three-axis rotation camera vector obtained by the vector detection unit 13 are added.
The multiple parallax calculation unit 15 has a sufficiently large number of parallaxes obtained from a plurality of frame images or a sufficiently large number of frames obtained from a plurality of frame images from a camera vector obtained in units of each frame and each frame image. Using the average value of the optical flow, overlap calculation is performed for each point on the minute surface of the object in the image to generate a three-dimensional shape of the object.
The three-dimensional shape generation unit 16 continuously repeats the generation of the shape of the object performed by the multiple parallax calculation unit 15 to form a three-dimensional shape.

以上のような構成からなる三次元形状生成装置10では、車載カメラ等によって画像を取得し、フレーム間で対応関係にある十分に多くの点を用い、カメラベクトルを精度良く演算で求める。原理的には6点乃至7点の特徴点があれば三次元座標は求まるが、本実施形態では、例えば、100点程度の十分に多くの点を用いることで、解の分布を求め、その分布から統計処理により各ベクトルを求め、結果としてカメラベクトルを求める。
このようにして求められたカメラの三次元位置とカメラの3軸回転から、それを各フレーム画像にデータとして付加し、複数のフレーム画像から得られる複数の視差、即ち多重視差と、既に取得しているカメラの三次元位置から、対象物の三次元形状を演算で求めることができる。このようにして、対象物の三次元形状を取得できる。
In the three-dimensional shape generation apparatus 10 configured as described above, an image is acquired by an in-vehicle camera or the like, and a camera vector is obtained with high accuracy by using a sufficiently large number of points that have a correspondence relationship between frames. In principle, if there are 6 to 7 feature points, the 3D coordinates can be obtained, but in this embodiment, for example, by using a sufficiently large number of points such as about 100 points, the distribution of the solution is obtained. Each vector is obtained from the distribution by statistical processing, and a camera vector is obtained as a result.
From the three-dimensional position of the camera thus obtained and the three-axis rotation of the camera, it is added as data to each frame image, and a plurality of parallaxes obtained from a plurality of frame images, that is, multiple parallaxes, have already been acquired. The three-dimensional shape of the object can be obtained by calculation from the three-dimensional position of the camera. In this way, the three-dimensional shape of the object can be acquired.

以上のような三次元形状生成装置10によれば、車載カメラだけでなく、例えば、人が手に持ってカメラを自由に振り回して、対象物を撮影し、撮影後にその映像からカメラベクトルを演算で求め、カメラベクトルから、撮影した対象物の三次元形状を求めることができる。
そして、以上の処理を繰り返すことで、広範囲の三次元形状、即ち三次元地図が生成されることになる。
図2に、本実施形態で生成される三次元形状(三次元地図)の表示例を示す。
According to the three-dimensional shape generation apparatus 10 as described above, not only the in-vehicle camera but also, for example, a person can freely hold the camera in his / her hand to photograph the object, and calculate the camera vector from the image after photographing. And the three-dimensional shape of the photographed object can be obtained from the camera vector.
Then, by repeating the above processing, a wide range of three-dimensional shapes, that is, three-dimensional maps are generated.
FIG. 2 shows a display example of a three-dimensional shape (three-dimensional map) generated in the present embodiment.

次に、図1で示した三次元形状生成装置10のベクトル検出部13の詳細について説明する。
図3は、本発明の第一実施形態に係るベクトル検出部20(図1に示すベクトル検出部13)の概略構成を示すブロック図である。
同図に示すように、ベクトル検出部20は、特徴点抽出部21と、特徴点対応処理部22と、特徴点・カメラ位置演算部23と、誤差最小化部24を備えている。
Next, details of the vector detection unit 13 of the three-dimensional shape generation apparatus 10 shown in FIG. 1 will be described.
FIG. 3 is a block diagram showing a schematic configuration of the vector detection unit 20 (vector detection unit 13 shown in FIG. 1) according to the first embodiment of the present invention.
As shown in the figure, the vector detection unit 20 includes a feature point extraction unit 21, a feature point correspondence processing unit 22, a feature point / camera position calculation unit 23, and an error minimization unit 24.

特徴点抽出部21は、三次元形状生成装置10の画像記録部12から読み出された画像データにより、記録した画像の中に、特徴点となるべき小領域画像を自動抽出して自動指定する。
特徴点対応処理部22は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
特徴点・カメラ位置演算部23は、対応関係が求められた特徴点の三次元位置座標を求めるとともに、特徴点の三次元位置から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部24は、複数の特徴点の演算により、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をし、さらに誤差の大きい特徴点を検出して、それを削除し、再演算をすることで、全体の誤差を最小化する。これにより、複数のカメラベクトルの解の分布が最小になるように統計処理された誤差の最小化処理を施したカメラ位置方向が自動的に決定される。
The feature point extraction unit 21 automatically extracts and automatically designates a small region image to be a feature point in the recorded image based on the image data read from the image recording unit 12 of the three-dimensional shape generation apparatus 10. .
The feature point correspondence processing unit 22 automatically obtains the correspondence relationship by automatically tracking the feature points automatically extracted in each frame image between the frames.
The feature point / camera position computing unit 23 obtains the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained, and automatically obtains a camera vector corresponding to each frame image from the three-dimensional position of the feature point.
The error minimizing unit 24 performs statistical processing so that the distribution of the position of each feature point and the camera position is minimized by calculating a plurality of feature points, detects a feature point having a larger error, and deletes it. Then, by recalculation, the overall error is minimized. Thereby, the camera position direction subjected to the error minimization process statistically processed so as to minimize the distribution of the solutions of the plurality of camera vectors is automatically determined.

複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するには幾つかの方法があるが、図3に示す本実施形態のベクトル検出部20では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
There are several methods for detecting a camera vector from feature points of a plurality of images (moving images or continuous still images), but the vector detection unit 20 of the present embodiment shown in FIG. By automatically extracting a number of feature points and automatically tracking them, a three-dimensional vector and a three-axis rotation vector of the camera are obtained by epipolar geometry.
By taking a sufficient number of feature points, camera vector information is duplicated, and an error can be minimized from the duplicated information to obtain a more accurate camera vector.

ここで、カメラベクトルとは、カメラの持つ自由度のベクトルをいう。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のベクトル検出部20によるカメラベクトルの検出は、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
Here, the camera vector refers to a vector of degrees of freedom possessed by the camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
As described above, the detection of the camera vector by the vector detection unit 20 of the present embodiment is such that the camera takes six degrees of freedom for each frame and determines six different degrees of freedom for each frame. is there.

以下、ベクトル検出部20における具体的なカメラベクトルの検出方法について、図4以下を参照しつつ説明する。
まず、特徴点抽出部21で、適切にサンプリングしたフレーム画像中に、特徴点となるべき点又は小領域画像を自動抽出し、特徴点対応処理部22で、複数のフレーム画像間で特徴点の対応関係を自動的に求める。具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図4〜図6に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図6に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図7に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図7の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a specific camera vector detection method in the vector detection unit 20 will be described with reference to FIG.
First, a feature point extraction unit 21 automatically extracts a point or a small area image to be a feature point from a frame image appropriately sampled, and a feature point correspondence processing unit 22 extracts feature points between a plurality of frame images. The correspondence is automatically obtained. Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. Examples of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 6).
Here, for feature point extraction, as shown in FIG. 7, it is desirable to specify and extract a sufficiently large number of feature points in each image (see circles in FIG. 7). For example, about 100 feature points are extracted. Extract points.

続いて、特徴点・カメラ位置演算部23で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、特徴点・カメラ位置演算部23は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
Subsequently, the feature point / camera position calculation unit 23 calculates the three-dimensional coordinates of the extracted feature points, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the feature point / camera position calculation unit 23 includes a sufficient number of feature positions existing between successive frames, a position vector between moving cameras, a three-axis rotation vector of the camera, and each camera. In this embodiment, for example, the camera motion is solved by solving the epipolar equation from the epipolar geometry of the 360-degree all-round image. (Camera position and camera rotation) are calculated.

図6に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
なお、図6は、ベクトル検出部20における処理を理解し易くするために、1台または複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のベクトル検出部20では、必ずしもメルカトール図法による展開画像である必要はない。
Images 1 and 2 shown in FIG. 6 are images obtained by performing Mercator expansion of 360-degree all-round images. When latitude φ and light θ are assumed, points on image 1 are (θ1, φ1) and points on image 2 are ( θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). When the camera movement vector is t and the camera rotation matrix is R, z1 T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.
In FIG. 6, in order to make the processing in the vector detection unit 20 easier to understand, a 360-degree spherical image obtained by combining images taken by one or a plurality of cameras is developed by Mercator projection, which is a map projection. However, the actual vector detection unit 20 does not necessarily have to be a developed image by the Mercator projection.

次に、誤差最小化部24では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt 法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, the error minimizing unit 24 calculates a plurality of vectors based on each feature point according to a plurality of calculation equations based on the plurality of camera positions and the number of feature points corresponding to each frame, Statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, for multiple camera positions, camera rotations, and multiple feature points, the least square method is estimated using the Levenberg-Marquardt method, and the errors are converged to obtain the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.

図8〜図10に、ベクトル検出部20により得られる特徴点の三次元座標とカメラベクトルの例を示す。図8〜図10は、本実施形態のベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図8では、図6の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトルが示されている。
図9及び図10は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
8 to 10 show examples of three-dimensional coordinates of feature points and camera vectors obtained by the vector detection unit 20. 8 to 10 are explanatory diagrams illustrating the vector detection method of the present embodiment, and are diagrams illustrating the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. .
FIG. 8 shows the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 6 and the camera vector that moves between the images 1 and 2.
9 and 10 show a sufficiently large number of feature points, the positions of the feature points obtained from the frame image, and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.

ここで、ベクトル検出部における演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図11に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、ベクトル検出部は、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, in the calculation in the vector detection unit, as shown in FIG. 11, in order to obtain more accurate feature points and camera position three-dimensional information at a high speed, a plurality of feature points are selected according to the distance from the camera to the feature points. Is set to repeat multiple operations.
Specifically, the vector detection unit automatically detects feature points that are characteristic in video in the image, and obtains corresponding points of the feature points in each frame image. Focusing on the n + m-th two frame images Fn and Fn + m, unit calculation is performed, and unit calculation with n and m appropriately set is repeated.
m is the frame interval, and the feature points are classified into a plurality of stages according to the distance from the camera to the feature point in the image. The distance from the camera to the feature point is set so that m becomes larger. It is set so that m is smaller as the distance to is shorter. This is because the change in position between images is less as the distance from the camera to the feature point is longer.

そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point in each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between each frame sampled every m frames (frames are dropped). However, in m frames (minimum unit frames) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.

m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with the Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. The scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
Accordingly, it is possible to speed up the arithmetic processing by combining simple arithmetic operations while obtaining a highly accurate camera vector having no error.

ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
Here, there are various simple calculation methods depending on the accuracy. For example, when (1) many feature points of 100 or more are used in high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same as the feature points and camera positions, innumerable triangles are established there, and equations for that number are established. By reducing the number of equations, it can be simplified.
In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.

そして、このように求められたカメラベクトルは、生成された三次元地図中に表示することができる。
例えば、図12に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。そして、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。
And the camera vector calculated | required in this way can be displayed in the produced | generated three-dimensional map.
For example, as shown in FIG. 12, the image from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined to match the target plane. A combined image is generated and displayed in the same coordinate system. Then, the camera position and the camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted.

以上説明したように、本実施形態に係る三次元形状生成装置によれば、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることができる。従って、通常の安価なカメラであっても、人がカメラをもって移動しながら撮影し、あるいはカメラを積載した移動する車両等から周囲画像を撮影し、その映像を分析してカメラ軌跡を三次元で求めることができる。
そして、その三次元カメラ位置を基準として、カメラ映像内の平面部分を多重視差やオプティカルフロー等から抽出し、平面をテクスチャー付きで抽出し、平面の三次元形状を再構成することで対象物の三次元形状を表現し、それを連続して実施することで三次元地図を生成することができる。
As described above, according to the 3D shape generation apparatus according to the present embodiment, a sufficient number of feature points are automatically detected from a plurality of frame images of a moving image, and feature points are automatically tracked between frames. Thus, it is possible to calculate the camera position and the rotation angle with high accuracy by performing overlap calculation on a large number of feature points. Therefore, even if it is a normal inexpensive camera, a person takes a picture while moving with the camera, or takes a surrounding image from a moving vehicle carrying a camera, etc. Can be sought.
Then, using the 3D camera position as a reference, the plane part in the camera image is extracted from multiple parallax, optical flow, etc., the plane is extracted with texture, and the 3D shape of the plane is reconstructed. A three-dimensional map can be generated by expressing a three-dimensional shape and continuously executing the three-dimensional shape.

これにより、従来技術のような高価な機器や膨大な手間と費用を必要とすることなく、安価かつ高精度に三次元地図を生成することができる。
なお、本実施形態に係る三次元形状生成装置は、移動するカメラによって得られる映像のみでなく、並列に設置した二台のカメラによる視差からの情報を併用することも勿論可能である。例えば、移動するカメラで取得される映像によるだけでなく、並列に設置したカメラから取得された三次元画像と本実施形態を組み合わせることにより、固定されたカメラで取得された時間的に連続した三次元画像を、本実施形態によるカメラベクトルにより三次元的に統合し、一つの座標系に統合して表示することができる。
This makes it possible to generate a three-dimensional map at low cost and high accuracy without requiring expensive equipment as in the prior art and enormous effort and expense.
Note that the 3D shape generation apparatus according to this embodiment can use not only images obtained by a moving camera but also information from parallax from two cameras installed in parallel. For example, by combining this embodiment with a 3D image acquired from a camera installed in parallel as well as a video acquired with a moving camera, a temporally continuous tertiary acquired with a fixed camera The original image can be three-dimensionally integrated by the camera vector according to the present embodiment, and can be integrated and displayed in one coordinate system.

[第二実施形態]
次に、本発明に係る三次元形状生成装置の第二実施形態について、図13を参照しつつ説明する。
図13は、本発明の第二実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
同図に示す本実施形態の三次元形状生成装置10は、図1に示した第一実施形態の三次元形状生成装置10におけるカメラベクトル付加画像記録部14と多重視差演算部15を省略し、補正信号生成部17と正規化画像変換部18を備えた構成となっている。
なお、画像取得部11,画像記録部12,ベクトル検出部13については、第一実施形態と同様になっている。
[Second Embodiment]
Next, a second embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIG.
FIG. 13 is a block diagram showing a schematic configuration of a three-dimensional shape generation apparatus according to the second embodiment of the present invention.
The three-dimensional shape generation apparatus 10 of this embodiment shown in the figure omits the camera vector additional image recording unit 14 and the multiple parallax calculation unit 15 in the three-dimensional shape generation apparatus 10 of the first embodiment shown in FIG. The correction signal generation unit 17 and the normalized image conversion unit 18 are provided.
The image acquisition unit 11, the image recording unit 12, and the vector detection unit 13 are the same as those in the first embodiment.

補正信号生成部17は、ベクトル検出部13で得られた結果から、元画像の揺れ等を補正する為の補正信号を生成する。
正規化画像変換部18は、補正信号生成部17で生成された補正信号によって、補正された揺れ等の無い正規化画像を変換,記録する。
そして、三次元形状生成部16では、各フレームでのカメラの三次元位置と、揺れが補正された複数の正規化映像とから、複数のフレーム画像から得られる十分に多くの視差、若しくは複数のフレーム画像から得られる十分に多くのオプティカルフローの平均値を用いて、画像内対象物の微少面各点について重複演算し、
対象物の三次元形状を生成する。
このように、図2に示す三次元形状生成装置10では、ベクトル検出部13で求められたカメラベクトルに基づいて画像の揺れを補正してから、三次元形状の生成を行うようにしてあり、より高精度な三次元地図の生成が可能となる。
The correction signal generation unit 17 generates a correction signal for correcting a shake or the like of the original image from the result obtained by the vector detection unit 13.
The normalized image conversion unit 18 converts and records a normalized image free from shaking and the like by the correction signal generated by the correction signal generation unit 17.
Then, the three-dimensional shape generation unit 16 has a sufficiently large number of parallaxes obtained from a plurality of frame images, or a plurality of plural images obtained from a three-dimensional position of the camera in each frame and a plurality of normalized images corrected for shaking. Using the average value of a sufficiently large number of optical flows obtained from the frame image, overlap calculation is performed for each point on the minute surface of the object in the image,
Generate a three-dimensional shape of the object.
As described above, in the three-dimensional shape generation apparatus 10 shown in FIG. 2, the three-dimensional shape is generated after correcting the shake of the image based on the camera vector obtained by the vector detection unit 13. A more accurate three-dimensional map can be generated.

[第三実施形態]
次に、本発明に係る三次元形状生成装置の第三実施形態について、図14を参照しつつ説明する。
図14は、本発明の第三実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
同図に示す本実施形態は、図1に示した三次元形状生成装置10の他の実施形態であり、三次元形状生成部16として視差方式を採用している。
具体的には、本実施形態の三次元形状生成部16は、多重視差三次元形状生成部16−1と、多重視差三次元形状出力部16−2を備えている。
[Third embodiment]
Next, a third embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIG.
FIG. 14 is a block diagram showing a schematic configuration of a three-dimensional shape generation apparatus according to the third embodiment of the present invention.
The present embodiment shown in the figure is another embodiment of the three-dimensional shape generation apparatus 10 shown in FIG. 1, and employs a parallax method as the three-dimensional shape generation unit 16.
Specifically, the three-dimensional shape generation unit 16 of the present embodiment includes a multi-parallax three-dimensional shape generation unit 16-1 and a multi-parallax three-dimensional shape output unit 16-2.

多重視差三次元形状生成部16−1は、既に得られているカメラベクトルと、小領域を移動しながら得られる画像情報に基づいて、演算を繰り返して、すべての小領域について十分に多くの視差を抽出し、それによる重複演算により誤差の少ない三次元形状を生成する。
多重視差三次元形状出力部16−2は、多重視差三次元形状生成部16−1で得られた三次元形状を、カメラと同一の座標系に統合して、三次元地図を出力する。
人が手持ちで撮影した映像や、カメラを積載し走行する車両から撮影して取得した画像において、カメラ位置と回転が確定すれば、対象の三次元形状を取得できる。
そこで、本実施形態の三次元形状生成部16のように、複数のフレームに共通する対象物の視差を求めれば、そのフレームの数以上の多重視差が得られる。
これにより、重複演算が可能となり、対象物の誤差のない三次元形状を得ることができ、より高精度な三次元地図を生成することができるようになる。
The multi-parallax three-dimensional shape generation unit 16-1 repeats the calculation based on the already obtained camera vector and the image information obtained while moving the small area, and has a sufficiently large number for all the small areas. The parallax is extracted, and a three-dimensional shape with less error is generated by the overlap calculation.
The multi-parallax three-dimensional shape output unit 16-2 integrates the three-dimensional shape obtained by the multi-parallax three-dimensional shape generation unit 16-1 into the same coordinate system as the camera, and outputs a three-dimensional map. .
The target 3D shape can be acquired if the camera position and rotation are determined in an image captured by a human hand or an image acquired by capturing from a vehicle carrying a camera.
Therefore, if the parallax of an object common to a plurality of frames is obtained as in the three-dimensional shape generation unit 16 of the present embodiment, multiple parallaxes equal to or greater than the number of frames can be obtained.
As a result, it is possible to perform an overlap calculation, to obtain a three-dimensional shape without an error of the object, and to generate a more accurate three-dimensional map.

[第四実施形態]
次に、本発明に係る三次元形状生成装置の第四実施形態について、図15〜図16を参照しつつ説明する。
図15は、本発明の第四実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
同図に示す本実施形態は、図1に示した三次元形状生成装置10の他の実施形態であり、三次元形状生成部16としてオプティカルフロー(Opt.F.)方式を採用している。
具体的には、本実施形態の三次元形状生成部16は、指定方向平面変換処理部16aと、オプティカルフロー演算部16bと、目的平面オプティカルフローの抽出指定部16cと、目的以外面排除部16dと、平面形状及び平面座標取得部16eと、三次元形状生成部16fと、平面再構成三次元形状出力部16gとを備えている。
[Fourth embodiment]
Next, a fourth embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIGS.
FIG. 15 is a block diagram showing a schematic configuration of a three-dimensional shape generation apparatus according to the fourth embodiment of the present invention.
The present embodiment shown in the figure is another embodiment of the three-dimensional shape generation apparatus 10 shown in FIG. 1 and adopts an optical flow (Opt. F.) system as the three-dimensional shape generation unit 16.
Specifically, the three-dimensional shape generation unit 16 of the present embodiment includes a designated direction plane conversion processing unit 16a, an optical flow calculation unit 16b, a target plane optical flow extraction designation unit 16c, and a non-purpose surface exclusion unit 16d. A plane shape and plane coordinate acquisition unit 16e, a 3D shape generation unit 16f, and a plane reconstruction 3D shape output unit 16g.

指定方向平面変換処理部16aは、画像取得部11(図1参照)で取得される映像を、ある対象物の面に垂直になるカメラ視点からの映像に平面変換する。
オプティカルフロー演算部16bは、ある領域内におけるオプティカルフローを演算により求める。
目的平面オプティカルフローの抽出指定部16cは、ある領域内でお求められたオプティカルフローに基づき、所望の目的平面のオプティカルフローを抽出する。
目的以外面排除部16dは、オプティカルフローが抽出された目的平面以外のオプティカルフローを排除する。
平面形状及び座標取得部16eは、目的平面を、形状を持つ平面として抽出し、その平面に三次元座標を与える。
三次元形状生成部16fは、ある領域を移動しながら、演算を繰り返して、すべての領域について抽出し、平面構成による三次元形状を生成する。
平面再構成三次元地図出力部16gは、三次元形状生成部16fで生成された平面構成による三次元地図を出力する。
The designated direction plane conversion processing unit 16a converts the image acquired by the image acquisition unit 11 (see FIG. 1) into an image from a camera viewpoint perpendicular to the surface of a certain object.
The optical flow calculation unit 16b calculates an optical flow in a certain area by calculation.
The target plane optical flow extraction designation unit 16c extracts an optical flow of a desired target plane based on the optical flow obtained in a certain region.
The non-target surface exclusion unit 16d excludes an optical flow other than the target plane from which the optical flow is extracted.
The plane shape and coordinate acquisition unit 16e extracts the target plane as a plane having a shape and gives three-dimensional coordinates to the plane.
The three-dimensional shape generation unit 16f repeats the calculation while moving a certain region, extracts all the regions, and generates a three-dimensional shape having a planar configuration.
The plane reconstructed 3D map output unit 16g outputs a 3D map having a plane configuration generated by the 3D shape generation unit 16f.

図16は、本実施形態の三次元生成部16でオプティカルフローによって抽出される対象物の平面のイメージ図である。同図に示すように、カメラの標準位置から各対象物が属する平面の垂直距離をDとすると、複数の並行平面群としてすべての平面を分離、抽出することができる。このとき、同図に示す街路樹のように、曲面状の対象物については、一つの対象物であっても一つの平面には乗らない点や面を有する曲面状の対象物については、曲面を複数の平面の集まりとして扱い、基準となる平面(同図では街路樹面(1))からの距離を与えることで、その平面に属する一つの対象物の情報として捉えることができる。
このようにして、カメラ位置と方向を検出することにより、複数画像のカメラ位置から対象物の位置を特定することができ、平面展開画像から三次元地図を再構成できる。従って、車載カメラ等で撮影するだけで走行した範囲の領域についての三次元地図を自動的に生成することができるようになる。
FIG. 16 is an image diagram of a plane of the object extracted by the optical flow in the three-dimensional generation unit 16 of the present embodiment. As shown in the figure, if the vertical distance of the plane to which each object belongs from the standard position of the camera is D, all planes can be separated and extracted as a plurality of parallel plane groups. At this time, as with the roadside tree shown in the figure, for a curved object, even for a single object, even if it is a curved object having points or faces that do not ride on one plane, Is treated as a collection of a plurality of planes, and given a distance from the reference plane (street tree plane (1) in the figure), it can be grasped as information on one object belonging to that plane.
In this manner, by detecting the camera position and direction, the position of the object can be specified from the camera positions of a plurality of images, and a three-dimensional map can be reconstructed from the planar development image. Therefore, it is possible to automatically generate a three-dimensional map for a region in the traveled range simply by photographing with an in-vehicle camera or the like.

このように、本実施形態の三次元形状生成部16では、視差による地図生成によらない三次元地図生成の方法として、オプティカルフロー方式を採用している。
カメラで取得された映像を平面変換することにより、平面変換した画像から平面のオプティカルフローを演算することができる。カメラの移動方向に対して並行な平面は同一のオプティカルフローを持つという法則から、同一平面上の画素のみを抽出することができる。
これにより、本発明の三次元形状生成装置10により高精度で求められるカメラ位置から平面変換処理を行い、正確な平面を求めること、すなわち、同一オプティカルフローを持つ目的の平面を定義することができ、その定義平面に平面のテクスチャーを貼り付けることができるようになる。
さらに、同様の方法を繰り返し、次々と平面を定義し、テクスチャーが貼り付けられた平面を三次元的に再構成することで、データ量としては相当に少ない三次元地図を生成することが可能となる。
As described above, the three-dimensional shape generation unit 16 of the present embodiment employs an optical flow method as a method of generating a three-dimensional map that does not depend on map generation based on parallax.
By performing plane conversion on the video acquired by the camera, it is possible to calculate a plane optical flow from the plane-converted image. From the rule that planes parallel to the moving direction of the camera have the same optical flow, only pixels on the same plane can be extracted.
Thereby, plane conversion processing can be performed from the camera position obtained with high accuracy by the three-dimensional shape generation apparatus 10 of the present invention to obtain an accurate plane, that is, a target plane having the same optical flow can be defined. Then, it becomes possible to paste the texture of the plane on the definition plane.
Furthermore, by repeating the same method, defining planes one after another, and reconstructing planes with textures attached three-dimensionally, it is possible to generate a three-dimensional map with a considerably small amount of data. Become.

[第五実施形態]
次に、本発明に係る三次元形状生成装置の第五実施形態について、図17を参照しつつ説明する。
図17は、本発明の第五実施形態に係る三次元形状生成装置における移動物体のベクトル検出方法を概念的に示す説明図である。
同図に示すように、本実施形態では、図1に示した三次元形状生成装置10におけるベクトル検出と同じ方法で、移動物体の移動ベクトルを検出するようにしてある。
[Fifth embodiment]
Next, a fifth embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIG.
FIG. 17 is an explanatory diagram conceptually showing a moving object vector detection method in the three-dimensional shape generation apparatus according to the fifth embodiment of the present invention.
As shown in the figure, in this embodiment, the movement vector of the moving object is detected by the same method as the vector detection in the three-dimensional shape generation apparatus 10 shown in FIG.

具体的には、本実施形態の三次元形状生成装置10は、上述した各実施形態における場合と同様に、移動するカメラのベクトルを検出する。
次に、カメラとは別に、移動する移動物体(例えば、走行する他の車両)の移動ベクトルを、カメラの移動ベクトルを検出するのと同じ方法で検出することにより、移動するカメラからの移動物体のベクトルを検出する。
そして、カメラの移動ベクトルと移動物体の移動ベクトルとのベクトル加算により、移動物体の静止座標形に対する姿勢を三次元ベクトルとして検出するようにしてある。
Specifically, the three-dimensional shape generation apparatus 10 of the present embodiment detects a moving camera vector as in the above-described embodiments.
Next, apart from the camera, the moving object from the moving camera is detected by detecting the moving vector of the moving moving object (for example, another traveling vehicle) in the same way as detecting the moving vector of the camera. The vector of is detected.
Then, the posture of the moving object with respect to the stationary coordinate form is detected as a three-dimensional vector by adding the vector of the moving vector of the camera and the moving vector of the moving object.

運動は相対的であるから、カメラが動いても、対象物が動いても同じ方法が適用でき、カメラのベクトルと、カメラから見た移動物体の見かけ上のベクトルとの加算により、移動物体の移動ベクトルの相対値を検出できる。
これによって、例えば、移動物体中に既知の長さを見つけて、絶対長に変換することができる。また、複数のカメラからの視差により、絶対長を計測して、あるいは、長さが既知の物体にふれている部分から、例えば路面に接している車両であれば、その路面から絶対長を得て、移動物体の絶対長を取得することができる。
このようにして、本実施形態では、移動物体の絶対長を求めることができるようになる。
Since the motion is relative, the same method can be applied regardless of whether the camera moves or the object moves.By adding the camera vector and the apparent vector of the moving object viewed from the camera, The relative value of the movement vector can be detected.
Thereby, for example, a known length in a moving object can be found and converted to an absolute length. In addition, the absolute length is obtained from the road surface if the absolute length is measured by parallax from a plurality of cameras, or if the vehicle is in contact with the road surface, for example, from a part touching an object of known length. Thus, the absolute length of the moving object can be acquired.
In this way, in the present embodiment, the absolute length of the moving object can be obtained.

[第六実施形態]
次に、本発明に係る三次元形状生成装置の第六実施形態について、図18及び図19を参照しつつ説明する。
図18は、本発明の第六実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
図19は、本実施形態に係る三次元形状生成装置に備えられる視野重複カメラと広角カメラを固定して設けた場合の具体例を模式的に示す斜視図である。
[Sixth embodiment]
Next, a sixth embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIGS.
FIG. 18 is a block diagram showing a schematic configuration of a three-dimensional shape generation apparatus according to the sixth embodiment of the present invention.
FIG. 19 is a perspective view schematically showing a specific example in a case where a field-of-view overlap camera and a wide-angle camera provided in the three-dimensional shape generation apparatus according to the present embodiment are fixedly provided.

これらの図に示す本実施形態は、図1に示した三次元形状生成装置10の他の実施形態であり、視野の重複する複数の画像を取得し、その視野重複画像に基づいて、複数の三次元形状を統合できるようになっている。
従来から、複数のカメラによる重複する画像から、時間的に連続する三次元画像を得る手段が知られている。しかし、時々刻々得られる三次元画像は、それぞれが独立した座標であるため、そのままでは、フレームが異なる画像の間で関係付けることができない。
そこで、本実施形態では、時間軸方向の連続する画像により、特徴点追跡法によりカメラベクトルを求めて、時間的に連続するカメラベクトルを得ることで、先に取得された一部分の三次元画像を共通の座標で統一的に表現し、三次元全体像を生成できるようにした。
The present embodiment shown in these drawings is another embodiment of the three-dimensional shape generation apparatus 10 shown in FIG. 1, and acquires a plurality of images with overlapping fields of view, 3D shapes can be integrated.
Conventionally, means for obtaining a temporally continuous three-dimensional image from overlapping images obtained by a plurality of cameras is known. However, since the three-dimensional images obtained from time to time are independent coordinates, it is not possible to relate images with different frames as they are.
Therefore, in the present embodiment, a camera vector is obtained by a feature point tracking method using continuous images in the time axis direction, and a temporally continuous camera vector is obtained. It is possible to generate a three-dimensional whole image by uniformly expressing the common coordinates.

具体的には、本実施形態の三次元形状生成装置30は、視野重複カメラ部31と、視野重複画像記録部32と、連続三次元画像生成部33と、移動カメラ座標系画像変換部34と、座標校正統合部35と、統合三次元形状生成部36とを備えた構成となっている。
視野重複カメラ部31は、移動物体に積載したカメラとは別に、若しくはそれを兼ねて、同じ移動物体に積載し、複数のカメラから成り、視野が重複するように設定したカメラである。
視野重複画像記録部32は、視野重複カメラ部から取得した、同時刻の画像を関連づけて、記録する。
連続三次元画像生成部33は、視野重複した同時刻の複数の画像から演算で求められる、単位時刻における固有の座標系からなる三次元画像を生成する。
なお、視野重複カメラ部31と、視野重複画像記録部32と、連続三次元画像生成部33は、ステレオビジョンカメラ(図19(a),(b)に示すカメラ1)のような、視野重複画像を取得できるカメラによって構成することができる。
Specifically, the three-dimensional shape generation apparatus 30 of the present embodiment includes a field-of-view overlap camera unit 31, a field-of-view overlap image recording unit 32, a continuous three-dimensional image generation unit 33, and a moving camera coordinate system image conversion unit 34. The coordinate calibration integration unit 35 and the integrated three-dimensional shape generation unit 36 are provided.
The field-of-view overlap camera unit 31 is a camera that is stacked on the same moving object separately from or in addition to the camera loaded on the moving object, and is configured with a plurality of cameras so that the fields of view overlap.
The field-of-view overlap image recording unit 32 records the images of the same time acquired from the field-of-view overlap camera unit in association with each other.
The continuous three-dimensional image generation unit 33 generates a three-dimensional image composed of a unique coordinate system at a unit time, which is obtained by calculation from a plurality of images at the same time with overlapping visual fields.
Note that the field-of-view overlap camera unit 31, the field-of-view overlap image recording unit 32, and the continuous three-dimensional image generation unit 33 are field-of-view overlap as in a stereo vision camera (camera 1 shown in FIGS. 19A and 19B). It can be configured by a camera that can acquire an image.

移動カメラ座標系画像変換部34及び座標統合部35は、連続三次元画像生成部33で得られた三次元画像を、ベクトル抽出部13(図1参照)から得られた移動カメラのカメラベクトルと結合し、移動カメラ系と共通の座標系に変換して統合する。
ここで、本実施形態では、ベクトル抽出部13で移動ベクトルが抽出されるカメラは、例えば360度の全周画像のような広範囲の映像が撮影できる広角カメラ2(図19(a),(b)に示すカメラ2)とする。
統合三次元形状生成部36は、座標統合部35で統合された座標系で、対象物及び周囲の三次元形状を生成する。
以上のような構成により、重複するカメラから取得された各時刻単位の三次元画像を統合し、単一座標系で結合して三次元全体像を表示することができる。
The moving camera coordinate system image conversion unit 34 and the coordinate integration unit 35 use the three-dimensional image obtained by the continuous three-dimensional image generation unit 33 as the camera vector of the moving camera obtained from the vector extraction unit 13 (see FIG. 1). Combine, convert to a common coordinate system with the moving camera system, and integrate.
Here, in the present embodiment, the camera from which the movement vector is extracted by the vector extraction unit 13 is, for example, a wide-angle camera 2 (FIGS. 19A and 19B) that can capture a wide range of images such as a 360-degree all-round image. The camera 2) shown in FIG.
The integrated three-dimensional shape generation unit 36 is a coordinate system integrated by the coordinate integration unit 35 and generates a target object and a surrounding three-dimensional shape.
With the configuration as described above, it is possible to integrate three-dimensional images of each time unit acquired from overlapping cameras and combine them in a single coordinate system to display a three-dimensional whole image.

なお、視野重複させた近距離の三次元画像取得用のカメラとしては、例えば、カナダPGR社製「デジクロップス」を用いることができ(図19(a),(b)に示すカメラ1参照)、このような公知の視野重複カメラによって近距離の三次元画像を取得する。
また、カメラベクトル取得用のカメラとしては、360度全周映像のような広範囲映像を撮影できるカメラ、例えば、カナダPGR社製「レディ・バグ」を用いることができ(図19(a),(b)に示すカメラ2参照)、また、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラなどを用いることもできる。
As a camera for acquiring a short-distance three-dimensional image with overlapping fields of view, for example, “DIGICROPS” manufactured by PGR of Canada can be used (see camera 1 shown in FIGS. 19A and 19B). A three-dimensional image at a short distance is acquired by such a known field-of-view overlap camera.
Further, as a camera for obtaining a camera vector, a camera capable of shooting a wide-range video such as a 360-degree all-round video, for example, “Lady Bug” manufactured by PGR Canada (FIG. 19A, ( It is also possible to use a camera with a wide-angle lens or fisheye lens, a moving camera, a fixed camera, a camera with a plurality of cameras fixed, a camera that can rotate around 360 degrees, and the like.

そして、このような広角カメラと視野重複カメラの位置関係を固定することで、360度カメラ等の広角カメラで得られたカメラベクトルを、視野重複カメラの持つカメラベクトルと同じとし、時刻毎の三次元画像に反映して、三次元画像を統一した画像に統合することができる。図19(a),(b)に示す例では、視野重複のカメラ1と360度用のカメラ2を、固定台3に固定してある。
このようにして、本実施形態では、移動物体であっても同一座標に統合できることになる。
なお、カメラベクトルにより、それぞれの固有の座標系は共通する特徴点を共有するかたちで統合されるが、この場合は特徴点に限らず、画像全体を特徴点と見なして、全体の形状が一致するように統合することも可能である。
And by fixing the positional relationship between such a wide-angle camera and a field-of-view overlap camera, the camera vector obtained by a wide-angle camera such as a 360-degree camera is the same as the camera vector of the field-of-view overlap camera, Reflecting the original image, the three-dimensional image can be integrated into a unified image. In the example shown in FIGS. 19A and 19B, the camera 1 with overlapping fields of view and the camera 2 for 360 degrees are fixed to the fixed base 3.
Thus, in this embodiment, even a moving object can be integrated into the same coordinates.
Each unique coordinate system is integrated by sharing a common feature point depending on the camera vector, but in this case, not only the feature point but also the entire image is regarded as a feature point and the overall shape matches. It is also possible to integrate.

以下、本実施形態に係る三次元形状装置30の、より具体的な実施例として、連続してステレオビジョンを得ることができるカメラと、全周囲画像を撮影することが出来るカメラの組み合わせにより、三次元形状を得る実施例について説明する。
まず、図19(a),(b)に示すように、ステレオビジョンカメラ1を、全周囲カメラ2と一体化して固定台3で固定し、相互の位置関係が変わらないように車両の屋根等に積載する。
カメラベクトルを抽出するには、視野が広いことが望ましい。そこで360度全周囲撮影可能なカメラ2を選択する。
なお、ステレオビジョンカメラ1は、カナダPGR社製「デジクロップス(Degiclops)」を、また、全周囲カメラ2としては、同じくカナダPGR社製「レディ・バグ(LadyBug)」を用いるものとする。
Hereinafter, as a more specific example of the three-dimensional shape apparatus 30 according to the present embodiment, a combination of a camera capable of continuously obtaining stereo vision and a camera capable of capturing all-around images, An embodiment for obtaining the original shape will be described.
First, as shown in FIGS. 19 (a) and 19 (b), the stereo vision camera 1 is integrated with the omnidirectional camera 2 and fixed by the fixed base 3, and the vehicle roof or the like so that the mutual positional relationship does not change. To load.
In order to extract a camera vector, it is desirable that the field of view is wide. Therefore, the camera 2 that can shoot all around 360 degrees is selected.
The stereo vision camera 1 uses “Degiclops” manufactured by PGR, Canada, and the all-around camera 2 uses “LadyBug” manufactured by Canada PGR.

図19(a),(b)に示すように、ステレオビジョンカメラ1と全周囲カメラ2を固定台3の上に固定し、車両の屋根に取り付ける。カメラ取り付け位置と車両形状の三次元位置関係は前もって計測しておく必要があるが、一度計測すればカメラを移動しない限り、カメラ位置を計測することで、車両位置を決定することができる。
また、ステレオビジョンカメラ1と全周囲カメラ2の位置関係が固定されているので、それぞれのカメラは、車両と一体化して同じように回転し、進行し、揺れを受けることになる。
なお、図19(a)ではステレオビジョンカメラ1は一つだけ搭載されているが、図19(b)では、複数のステレオビジョンカメラ1を搭載するようにしてある。このように、複数のステレオビジョンカメラ1を備えることによって、同時に広範囲の三次元形状を取得できるので、本発明の画像処理の効率を、より向上させることができる。
As shown in FIGS. 19A and 19B, the stereo vision camera 1 and the omnidirectional camera 2 are fixed on the fixed base 3 and attached to the roof of the vehicle. The three-dimensional positional relationship between the camera mounting position and the vehicle shape needs to be measured in advance, but once measured, the vehicle position can be determined by measuring the camera position unless the camera is moved.
Moreover, since the positional relationship between the stereo vision camera 1 and the omnidirectional camera 2 is fixed, each camera is integrated with the vehicle, rotates in the same way, travels, and receives a shake.
In FIG. 19A, only one stereo vision camera 1 is mounted, but in FIG. 19B, a plurality of stereo vision cameras 1 are mounted. Thus, by providing a plurality of stereo vision cameras 1, a wide range of three-dimensional shapes can be acquired simultaneously, so that the efficiency of the image processing of the present invention can be further improved.

このように車両に搭載されたカメラでは、まず、ステレオビジョンカメラ1では、連続三次元画像生成部33(図18参照)により、連続した三次元画像が得られる。ただ、各フレーム間の画像の位置関係は何ら関係が無く、そのままでは結合できない。
三次元的にマッチングすれば結合できるようにも考えられるが、それだけでは次第に誤差が累積し、フレームが進むにつれて画像は正常に結合されない。
In the camera mounted on the vehicle in this way, first, in the stereo vision camera 1, a continuous 3D image is obtained by the continuous 3D image generation unit 33 (see FIG. 18). However, the positional relationship of the images between the frames has no relationship and cannot be combined as they are.
It can be considered that the images can be combined if they are matched three-dimensionally. However, if they are used alone, errors gradually accumulate, and images are not normally combined as the frame advances.

そこで、他のカメラである全周囲カメラ2により映像を取得して、ベクトル抽出部13(図18参照)でカメラベクトルを抽出することにより、カメラベクトルに基づいてカメラの姿勢をフィードバックさせ、カメラの姿勢を正しく整合して、それを画像に反映させる。
また、カメラベクトルからカメラの移動距離も取得できるので、カメラベクトルのデータから各フレームのカメラ位置と回転を三次元的に演算で求められるので、得られた3軸回転量と三次元位置を、それぞれのステレオビジョンカメラからの各フレームの映像に反映することで、各フレームのステレオ画像を移動カメラ座標系画像変換部34(図18参照)で共通の座標で表現することが可能となる。それらは共通の座標系であるので、そのまま座標統合部35(図18参照)で合成することができる
Therefore, an image is acquired by the omnidirectional camera 2 which is another camera, and the camera vector is extracted by the vector extraction unit 13 (see FIG. 18), so that the posture of the camera is fed back based on the camera vector. Correctly align the posture and reflect it in the image.
Moreover, since the moving distance of the camera can also be obtained from the camera vector, the camera position and rotation of each frame can be obtained by three-dimensional calculation from the camera vector data, and thus the obtained three-axis rotation amount and three-dimensional position are obtained. By reflecting the image of each frame from each stereo vision camera, the stereo image of each frame can be expressed by common coordinates in the moving camera coordinate system image conversion unit 34 (see FIG. 18). Since they are a common coordinate system, they can be synthesized directly by the coordinate integration unit 35 (see FIG. 18).

以上のように共通の座標系で画像を合成した上で、結合部位の微調整として三次元マッチングを施すことは十分意味のあることである。
このようにすることで、統合三次元形状生成部36(図18参照)で、三次元形状を連続的に取得でき、また、それを三次元地図とすることができる。
なお、本実施例では、ステレオビジョンを得るカメラと、カメラベクトルを得るカメラを別々としたが、共通のカメラとすることも当然可能である。
As described above, it is meaningful to perform three-dimensional matching as a fine adjustment of the binding site after synthesizing images in a common coordinate system.
By doing in this way, the integrated three-dimensional shape generation unit 36 (see FIG. 18) can continuously acquire a three-dimensional shape, and can also make it a three-dimensional map.
In this embodiment, the camera that obtains stereo vision and the camera that obtains the camera vector are separated, but it is naturally possible to use a common camera.

[第七実施形態]
次に、本発明に係る三次元形状生成装置の第七実施形態について、図20を参照しつつ説明する。
図20は、本発明の第七実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
同図に示す本実施形態は、図1に示した三次元形状生成装置10の他の実施形態であり、カメラを搭載した車両が通る路面の凹凸を検出して、三次元地図を校正する手段を備えている。
具体的には、本実施形態に係る三次元形状生成装置40は、近距離部分詳細画像取得部41と、並列画像記録部42と、近距離部分三次元計測部43と、他の移動物体検出部44と、他の移動物体排除部45と、座標結合部46と、結合座標記録部47と、総合画像表示部48とを備えている。
[Seventh embodiment]
Next, a seventh embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIG.
FIG. 20 is a block diagram showing a schematic configuration of a three-dimensional shape generation apparatus according to the seventh embodiment of the present invention.
The present embodiment shown in the figure is another embodiment of the three-dimensional shape generation apparatus 10 shown in FIG. 1, and means for calibrating a three-dimensional map by detecting unevenness of a road surface on which a vehicle equipped with a camera passes. It has.
Specifically, the three-dimensional shape generation apparatus 40 according to the present embodiment includes a short-distance partial detail image acquisition unit 41, a parallel image recording unit 42, a short-distance partial three-dimensional measurement unit 43, and other moving object detection. A unit 44, another moving object exclusion unit 45, a coordinate coupling unit 46, a coupled coordinate recording unit 47, and an overall image display unit 48.

近距離部分詳細画像取得部41は、移動物体に積載したカメラとして、複数台のカメラを積載し、特に近距離の詳細データを必要とする部分を主に撮影する手段である。
並列画像記録部42は、移動物体積載カメラによる視野が一部重複するように設定された、同時刻の画像を関連して呼び出し可能な形で記録する。
近距離部分三次元形状生成部43は、視野の重複する画像から視差を検出し、近距離部分の詳細な三次元形状を生成する。
他の移動物体検出部44は、視野の重複する画像から視差を検出し、カメラを積載した移動物体以外の、他の移動体を検出する。
The short-distance portion detailed image acquisition unit 41 is a unit that mainly mounts a plurality of cameras as cameras loaded on a moving object and shoots mainly a portion that requires detailed data of a short distance.
The parallel image recording unit 42 records the images at the same time set so that the fields of view by the moving object loading camera partially overlap in a form that can be recalled.
The short-distance partial three-dimensional shape generation unit 43 detects parallax from images with overlapping fields of view, and generates a detailed three-dimensional shape of the short-distance portion.
The other moving object detection unit 44 detects parallax from images with overlapping fields of view, and detects other moving objects other than the moving object loaded with the camera.

他の移動物体排除部45は、視野の重複する画像の視差データから、他の移動物体の視差データを排除する。
座標結合部46は、上述した各実施形態で示した三次元形状生成部16と、近距離部分三次元形状生成部43とにおいて重複する部分の対象物の三次元形状から、視差による実測長でスケールを校正して、それぞれの座標系を統合する。
統合座標記録部47は、統合されたデータを記録する。
総合画像表示部48は、統合座標記録部47で統合されたデータを表示する。
The other moving object exclusion unit 45 excludes the parallax data of other moving objects from the parallax data of images with overlapping fields of view.
The coordinate combining unit 46 calculates the measured length by parallax from the three-dimensional shape of the overlapping object in the three-dimensional shape generation unit 16 and the short-distance partial three-dimensional shape generation unit 43 shown in the above-described embodiments. Calibrate the scale and integrate each coordinate system.
The integrated coordinate recording unit 47 records the integrated data.
The comprehensive image display unit 48 displays the data integrated by the integrated coordinate recording unit 47.

カメラを搭載した車両が通過する路面の凹凸を精度良く計測しようとする場合、例えば二台のカメラで路面を撮影し、視差を検出して路面の凹凸を検出することができる。しかし、それだけでは、カメラ間のベースラインの制限から、近距離の精度は取れるが、遠距離の精度は取れない。
そこで、本実施形態では、超近距離計測のみ、二台のカメラによる視差によって画像処理で近距離の三次元形状生成を精度良く行い、全体座標と統合することで、三次元形状及び三次元地図を生成するようにしてある。これによって、時車両以外の移動体を検出して、画像から移動体を排除することで、計算精度を向上させることができる。
When it is intended to accurately measure the unevenness of the road surface on which the vehicle equipped with the camera passes, the road surface unevenness can be detected by photographing the road surface with two cameras and detecting parallax. However, by itself, the accuracy of short distance can be obtained due to the limitation of the baseline between cameras, but the accuracy of long distance cannot be obtained.
Therefore, in this embodiment, only in the ultra-short distance measurement, the near-distance 3D shape generation is accurately performed by the image processing based on the parallax by the two cameras, and integrated with the overall coordinates, so that the 3D shape and the 3D map are obtained. Is generated. Accordingly, it is possible to improve the calculation accuracy by detecting a moving body other than the hourly vehicle and excluding the moving body from the image.

なお、本実施形態の三次元形状生成装置40は、上述した第六実施形態で示した三次元形状生成装置30(図18参照)と組み合わせて統合して実施することができる。
すなわち、本実施形態に係る三次元形状生成装置40は、一つのカメラによる基本実施形態だけに限られず、第六実施形態で示したような複数のカメラ(ステレオビジョンカメラ、広角カメラ等を含む)による視差を併用したシステムとしても実施可能である。
In addition, the three-dimensional shape generation apparatus 40 of this embodiment can be implemented in combination with the three-dimensional shape generation apparatus 30 (see FIG. 18) shown in the sixth embodiment described above.
That is, the three-dimensional shape generation apparatus 40 according to this embodiment is not limited to the basic embodiment using a single camera, but includes a plurality of cameras (including a stereo vision camera, a wide-angle camera, etc.) as shown in the sixth embodiment. It can also be implemented as a system using parallax due to the above.

[第八実施形態]
さらに、本発明に係る三次元形状生成装置の第八実施形態について、図21を参照しつつ説明する。
図21は、本発明の第八実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。
同図に示す本実施形態は、上述した第一乃至第七実施形態に係る三次元形状生成装置を、適宜組み合わせて実施できるようにしたものである。
[Eighth embodiment]
Furthermore, an eighth embodiment of the three-dimensional shape generation apparatus according to the present invention will be described with reference to FIG.
FIG. 21 is a block diagram showing a schematic configuration of the three-dimensional shape generation apparatus according to the eighth embodiment of the present invention.
This embodiment shown in the figure is configured to be implemented by appropriately combining the three-dimensional shape generation apparatuses according to the first to seventh embodiments described above.

具体的には、本実施形態に係る三次元形状生成装置100は、図21に示すように、映像取得部101と、ベクトル検出部102と、重複演算部103と、補正信号生成部104と、正規化画像変換部105と、指定方向平面変換処理部106と、Opt.F.演算部107と、目的平面Opt.F.の抽出指定部108と、平面形状及び座標演算部109と、面以外処理部110と、統合出力部111と、平面再構成三次元地図出力部112が、任意に選択により組み合わせられて実施できるようになっている。
各構成部分の具体的な内容は、上述した各実施形態で示した通りである。
このような本実施形態の三次元形状生成装置100によれば、対象物の三次元形状を連続的に、広範囲に生成することで、三次元地図を生成することができる三次元地図生成装置を実現することができる。本発明においては、三次元形状生成を限定した対象物に対してではなく、広範囲に連続して実行すれば三次元地図が得られるようになっている。
Specifically, as illustrated in FIG. 21, the three-dimensional shape generation apparatus 100 according to the present embodiment includes a video acquisition unit 101, a vector detection unit 102, an overlap calculation unit 103, a correction signal generation unit 104, Normalized image conversion unit 105, designated direction plane conversion processing unit 106, Opt. F. The calculation unit 107 and the target plane Opt. F. The extraction designation unit 108, the plane shape and coordinate calculation unit 109, the non-surface processing unit 110, the integrated output unit 111, and the plane reconstruction three-dimensional map output unit 112 can be arbitrarily combined and implemented. It has become.
The specific contents of each component are as shown in the above-described embodiments.
According to the 3D shape generation apparatus 100 of this embodiment as described above, a 3D map generation apparatus that can generate a 3D map by continuously generating a 3D shape of an object over a wide range is provided. Can be realized. In the present invention, a three-dimensional map can be obtained if the three-dimensional shape generation is not performed on a limited object but is executed continuously over a wide range.

以上、本発明の三次元形状生成装置について、好ましい実施形態を示して説明したが、本発明に係る三次元形状生成装置は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。   The three-dimensional shape generation apparatus of the present invention has been described with reference to the preferred embodiment, but the three-dimensional shape generation apparatus according to the present invention is not limited to the above-described embodiment, and the scope of the present invention. Needless to say, various modifications can be made.

本発明は、例えば、カーナビゲーション装置に備えられる三次元地図を生成するために好適な三次元形状生成装置として利用することができる。   The present invention can be used as, for example, a three-dimensional shape generation device suitable for generating a three-dimensional map provided in a car navigation device.

本発明の第一実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係る三次元形状生成装置で生成される三次元形状(三次元地図)の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of the three-dimensional shape (three-dimensional map) produced | generated with the three-dimensional shape production | generation apparatus which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るベクトル検出部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the vector detection part which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るベクトル検出部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the specific detection method of the camera vector in the vector detection part which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るベクトル検出部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the specific detection method of the camera vector in the vector detection part which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るベクトル検出部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the specific detection method of the camera vector in the vector detection part which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るベクトル検出部によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。It is explanatory drawing which shows the designation | designated aspect of the desirable feature point in the detection method of the camera vector by the vector detection part which concerns on 1st embodiment of this invention. 本発明の第一実施形態に係るベクトル検出部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the vector detection part which concerns on 1st embodiment of this invention, and a camera vector. 本発明の第一実施形態に係るベクトル検出部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the vector detection part which concerns on 1st embodiment of this invention, and a camera vector. 本発明の第一実施形態に係るベクトル検出部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate of the feature point obtained by the vector detection part which concerns on 1st embodiment of this invention, and a camera vector. 本発明の第一実施形態に係るベクトル検出部において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。In the vector detection part which concerns on 1st embodiment of this invention, it is explanatory drawing which shows the case where a some feature point is set according to the distance of a feature point from a camera, and a some calculation is repeated. 本発明の第一実施形態に係るベクトル検出部で求められたカメラベクトルの軌跡を生成された三次元地図中に表示した場合の図である。It is a figure at the time of displaying the locus | trajectory of the camera vector calculated | required in the vector detection part which concerns on 1st embodiment of this invention in the produced | generated three-dimensional map. 本発明の第二実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 2nd embodiment of this invention. 本発明の第三実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 3rd embodiment of this invention. 本発明の第四実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 4th embodiment of this invention. 本発明の第四実施形態の三次元生成部でオプティカルフローによって抽出される対象物の平面のイメージ図である。It is an image figure of the plane of the target object extracted by optical flow in the three-dimensional generation part of a 4th embodiment of the present invention. 本発明の第五実施形態に係る三次元形状生成装置における移動物体のベクトル検出方法を概念的に示す説明図である。It is explanatory drawing which shows notionally the vector detection method of the moving object in the three-dimensional shape production | generation apparatus which concerns on 5th embodiment of this invention. 本発明の第六実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 6th embodiment of this invention. 本発明の第六実施形態に係る三次元形状生成装置に備えられる視野重複カメラと広角カメラを固定して設けた場合の具体例を模式的に示す斜視図である。It is a perspective view which shows typically the specific example at the time of fixing and providing the visual field overlap camera and wide-angle camera with which the three-dimensional shape production | generation apparatus which concerns on 6th embodiment of this invention is equipped. 本発明の第七実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 7th embodiment of this invention. 本発明の第八実施形態に係る三次元形状生成装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the three-dimensional shape production | generation apparatus which concerns on 8th embodiment of this invention.

符号の説明Explanation of symbols

10 三次元形状生成装置
11 画像取得部
12 画像記録部
13 ベクトル検出部
14 カメラベクトル付加画像記録部
15 多重視差演算部
16 三次元形状生成部
17 補正信号生成部
18 正規化画像変換部
20 ベクトル検出部
21 特徴点抽出部
22 特徴点対応処理部
23 特徴点・カメラ位置演算部
24 誤差最小化部
DESCRIPTION OF SYMBOLS 10 3D shape production | generation apparatus 11 Image acquisition part 12 Image recording part 13 Vector detection part 14 Camera vector addition image recording part 15 Multiple parallax calculation part 16 3D shape generation part 17 Correction signal generation part 18 Normalization image conversion part 20 Vector Detection unit 21 Feature point extraction unit 22 Feature point correspondence processing unit 23 Feature point / camera position calculation unit 24 Error minimization unit

Claims (9)

移動体に備えられた動画又は連続静止画を得るカメラからの映像を取得する画像取得部と、
前記画像取得部で取得された画像を一時記録する画像記録部と、
前記画像記録部から読み出された画像データから、各フレームで対応関係にある点又は小領域の三次元位置と、カメラの三次元位置及びカメラの3軸回転を複数のフレームで重複演算し、誤差の分布が最小になるように統計処理してカメラベクトルを求めるベクトル検出部と、
前記ベクトル検出部で求められたカメラの三次元位置と3軸回転のカメラベクトルの各データを付加した全フレーム画像を記録するカメラベクトル付加画像記録部と、
各フレーム画像及び各フレーム単位で得られたカメラベクトルに基づき、複数のフレーム画像から得られる多数の視差、又は複数のフレーム画像から得られる多数のオプティカルフローの平均値を用いて、画像内対象物の微少面各点について重複演算し、対象物の三次元形状を生成する多重視差演算部と、
前記多重視差演算部における対象物の三次元形状の生成を連続的に繰り返して、三次元形状を形成する三次元形状生成部と、を備え、
前記ベクトル検出部は、
画像内の映像的に特徴がある特徴点を自動検出し、各フレーム画像内で当該特徴点の対応点を求め、
カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、所定の値にnとmを設定して単位演算を繰り返し、
カメラから画像内の特徴点までの距離により特徴点を複数段に分類して、フレーム間隔mを、カメラから特徴点までの距離が遠いほど大きくなるように設定し、
mによる特徴点の分類を複数オーバーラップさせながら、複数段階のmを設定し、
画像の進行とともにnが連続的に進行し、演算を連続的に進行させ、nの進行とmの各段階で、同一特徴点について複数回重複演算して、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整することにより統合し、距離演算を行い、
誤差の分布が大きい特徴点を削除し、再演算することにより、
各特徴点及びカメラ位置での演算の精度を上げることを特徴とする三次元形状生成装置。
An image acquisition unit that acquires a video from a camera that obtains a moving image or a continuous still image provided in the moving body;
An image recording unit for temporarily recording the image acquired by the image acquisition unit;
From the image data read out from the image recording unit, a three-dimensional position of a point or a small area corresponding to each frame, a three-dimensional position of the camera and a three-axis rotation of the camera are overlapped in a plurality of frames, A vector detection unit that calculates a camera vector by performing statistical processing so that an error distribution is minimized;
A camera vector-added image recording unit that records all frame images to which the data of the camera three-dimensional position and the three-axis rotation camera vector obtained by the vector detection unit are added;
Based on each frame image and the camera vector obtained for each frame, using a large number of parallaxes obtained from a plurality of frame images or an average value of a plurality of optical flows obtained from a plurality of frame images, A multiple parallax calculation unit that performs overlap calculation for each point of the micro surface and generates a three-dimensional shape of the object;
A three-dimensional shape generation unit that continuously generates the three-dimensional shape of the object in the multiple parallax calculation unit to form a three-dimensional shape , and
The vector detection unit
Automatically detect feature points with image features in the image, find corresponding points in each frame image,
Focusing on the n-th and n + m-th frame images Fn and Fn + m used for camera vector calculation, unit calculation is performed, n and m are set to predetermined values, and unit calculation is repeated.
The feature points are classified into multiple stages according to the distance from the camera to the feature point in the image, and the frame interval m is set so as to increase as the distance from the camera to the feature point increases.
Set multiple levels of m while overlapping multiple classification of feature points by m,
As the image progresses, n continuously advances, the calculation is continuously advanced, and at each stage of n and m, the same feature point is repeatedly calculated several times, and the error of each feature point and camera position is calculated. Integrate by adjusting the scale to the minimum, perform distance calculation,
By deleting feature points with large error distribution and recalculation,
Three-dimensional shape generation apparatus characterized by resulting in higher accuracy of calculation at each feature point and the camera position.
移動体に備えられた動画又は連続静止画を得るカメラからの映像を取得する画像取得部と、
前記画像取得部で取得された画像を一時記録する画像記録部と、
前記画像記録部から読み出された画像データから、各フレームで対応関係にある点又は小領域の三次元位置と、カメラの三次元位置及びカメラの3軸回転を複数のフレームで重複演算し、誤差の分布が最小になるように統計処理してカメラベクトルを求めるベクトル検出部と、
前記ベクトル検出部で求めたカメラベクトルから、元画像を補正するための補正信号を生成する補正信号生成部と、
前記補正信号で補正された正規化画像を記録する正規化画像変換部と、
各フレームでのカメラの三次元位置と、前記補正信号で補正された複数の正規化映像に基づき、複数のフレーム画像から得られる多数の視差、又は複数のフレーム画像から得られる多数のオプティカルフローの平均値を用いて、画像内対象物の微少面各点について重複演算し、対象物の三次元形状を生成する三次元形状生成部と、を備え、
前記ベクトル検出部は、
画像内の映像的に特徴がある特徴点を自動検出し、各フレーム画像内で当該特徴点の対応点を求め、
カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、所定の値にnとmを設定して単位演算を繰り返し、
カメラから画像内の特徴点までの距離により特徴点を複数段に分類して、フレーム間隔mを、カメラから特徴点までの距離が遠いほど大きくなるように設定し、
mによる特徴点の分類を複数オーバーラップさせながら、複数段階のmを設定し、
画像の進行とともにnが連続的に進行し、演算を連続的に進行させ、nの進行とmの各段階で、同一特徴点について複数回重複演算して、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整することにより統合し、距離演算を行い、
誤差の分布が大きい特徴点を削除し、再演算することにより、
各特徴点及びカメラ位置での演算の精度を上げることを特徴とする三次元形状生成装置。
An image acquisition unit that acquires a video from a camera that obtains a moving image or a continuous still image provided in the moving body;
An image recording unit for temporarily recording the image acquired by the image acquisition unit;
From the image data read out from the image recording unit, a three-dimensional position of a point or a small area corresponding to each frame, a three-dimensional position of the camera and a three-axis rotation of the camera are overlapped in a plurality of frames, A vector detection unit that calculates a camera vector by performing statistical processing so that an error distribution is minimized;
A correction signal generation unit for generating a correction signal for correcting the original image from the camera vector obtained by the vector detection unit;
A normalized image conversion unit that records the normalized image corrected by the correction signal;
Based on the three-dimensional position of the camera in each frame and a plurality of normalized images corrected by the correction signal, a number of parallaxes obtained from a plurality of frame images or a number of optical flows obtained from a plurality of frame images A three-dimensional shape generation unit that performs an overlap calculation on each minute surface of the target object in the image using the average value and generates a three-dimensional shape of the target object ,
The vector detection unit
Automatically detect feature points with image features in the image, find corresponding points in each frame image,
Focusing on the n-th and n + m-th frame images Fn and Fn + m used for camera vector calculation, unit calculation is performed, n and m are set to predetermined values, and unit calculation is repeated.
The feature points are classified into multiple stages according to the distance from the camera to the feature point in the image, and the frame interval m is set so as to increase as the distance from the camera to the feature point increases.
Set multiple levels of m while overlapping multiple classification of feature points by m,
As the image progresses, n continuously advances, the calculation is continuously advanced, and at each stage of n and m, the same feature point is repeatedly calculated several times, and the error of each feature point and camera position is calculated. Integrate by adjusting the scale to the minimum, perform distance calculation,
By deleting feature points with large error distribution and recalculation,
Three-dimensional shape generation apparatus characterized by resulting in higher accuracy of calculation at each feature point and the camera position.
前記ベクトル検出部は、
前記画像記録部から読み出された画像データにより、画像中に特徴点となるべき点又は小領域画像を自動抽出して自動指定する特徴点抽出部と、
前記自動指定された特徴点の各フレーム間での対応関係を求める特徴点対応処理部と、
前記対応関係が求められた特徴点の三次元位置座標及びカメラ位置を演算で求める特徴点・カメラ位置演算部と、
前記特徴点の三次元位置を複数演算し、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をするとともに、誤差の大きい特徴点を検出してそれを削除し、他の特徴点に基づく再演算をし、全体の誤差を最小化する誤差最小化部と、
を備える請求項1又は2記載の三次元形状生成装置。
The vector detection unit
A feature point extraction unit that automatically extracts and designates a point or a small area image that should be a feature point in the image, based on the image data read from the image recording unit;
A feature point correspondence processing unit for obtaining a correspondence relationship between the frames of the automatically designated feature points;
A feature point / camera position calculation unit for calculating a three-dimensional position coordinate and a camera position of the feature point for which the correspondence relationship is obtained;
A plurality of three-dimensional positions of the feature points are calculated, statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized, the feature point having a large error is detected and deleted, An error minimizing unit that performs recalculation based on feature points and minimizes the overall error;
A three-dimensional shape generation apparatus according to claim 1 or 2.
前記三次元形状生成部は、
既に得られているカメラベクトルに基づき、
フレーム画像内の小領域を移動しながら演算を繰り返して、画像内のすべての小領域について多数の視差を抽出し、その視差による重複演算により誤差の少ない三次元形状を生成する多重視差三次元形状生成部と、
多重視差三次元形状生成部で生成された三次元形状を、カメラと同一の座標系に統合して三次元地図を出力する多重視差三次元形状出力部と、
を備える請求項1乃至3いずれか1項に記載の三次元形状生成装置。
The three-dimensional shape generation unit
Based on the already obtained camera vector,
Multiple parallax 3D that repeats the operation while moving the small area in the frame image, extracts a large number of parallaxes for all the small areas in the image, and generates a three-dimensional shape with less error by overlapping calculation by the parallax A shape generation unit;
A multi-parallax three-dimensional shape output unit that outputs the three-dimensional map by integrating the three-dimensional shape generated by the multi-parallax three-dimensional shape generation unit into the same coordinate system as the camera;
A three-dimensional shape generation apparatus according to any one of claims 1 to 3.
前記三次元形状生成部は、
前記画像取得部で取得された映像を、所望の対象物の面に垂直になるカメラ視点からの映像に平面変換する指定方向平面変換処理部と、
平面変換された映像により、ある領域内の映像のオプティカルフローを演算し、所望の目的平面のオプティカルフローを抽出する目的平面オプティカルフローの抽出指定部と、
前記目的平面以外のオプティカルフローを排除する目的以外面排除部と、
目的平面を、形状を持つ平面として抽出し、その平面に三次元座標を与える平面形状及び座標取得部と、
前記ある領域を移動しながら演算を繰り返して、領域内の所望の対象物のすべてについて、平面構成による三次元形状を生成する平面構成三次元形状生成部と、
それらの平面構成による三次元形状を三次元地図として出力する平面再構成三次元形状出力部と、
を備える請求項1乃至4いずれか1項に記載の三次元形状生成装置。
The three-dimensional shape generation unit
A designated direction plane conversion processing unit that plane-converts the video acquired by the image acquisition unit into a video from a camera viewpoint perpendicular to the surface of a desired object;
A target plane optical flow extraction specifying unit that calculates an optical flow of a desired target plane by calculating the optical flow of a video in a certain area from the plane-converted video,
A non-purpose surface excluding portion that excludes an optical flow other than the target surface;
A plane shape and coordinate acquisition unit that extracts a target plane as a plane having a shape and gives three-dimensional coordinates to the plane;
A plane configuration three-dimensional shape generation unit that generates a three-dimensional shape based on a plane configuration for all desired objects in the region by repeating the calculation while moving the certain region,
A plane reconstructed three-dimensional shape output unit that outputs a three-dimensional shape according to those planar configurations as a three-dimensional map;
A three-dimensional shape generation apparatus according to any one of claims 1 to 4.
前記ベクトル検出部は、
移動するカメラのベクトルを検出するとともに、カメラとは別に、移動する移動物体の移動ベクトルを、前記カメラベクトルと同じ方法により検出することで、移動するカメラからの移動物体のベクトルを検出し
カメラの移動ベクトルと移動物体の移動ベクトルとのベクトル加算により、移動物体の静止座標形に対する姿勢を三次元ベクトルとして検出する請求項1乃至5いずれか1項に記載の三次元形状生成装置。
The vector detection unit
In addition to detecting the vector of the moving camera, the vector of the moving object from the moving camera is detected by detecting the moving vector of the moving moving object separately from the camera by the same method as the camera vector. The three-dimensional shape generation apparatus according to any one of claims 1 to 5, wherein a posture of a moving object with respect to a stationary coordinate form is detected as a three-dimensional vector by adding a vector of the movement vector and the movement vector of the moving object.
前記移動体に備えられるカメラとは別に又はそれを兼ねて、同じ移動体に備えられる複数のカメラからなり、視野が重複するように設定した視野重複カメラ部と、
前記視野重複カメラ部で取得される同時刻の複数の画像を関連づけて記録する視野重複画像記録部と、
前記視野重複した同時刻の複数の画像から演算で求められる、単位時刻における固有の座標系からなる三次元画像を生成する連続三次元画像生成部と、
前記連続三次元画像生成部で得られた三次元画像を、前記ベクトル検出部から得られた移動するカメラのカメラベクトルと結合し、移動カメラ系と共通の座標系に変換して統合する座標統合部と、
統合された座標系で対象物及び周囲の三次元形状を生成する統合三次元形状生成部と、
を備えた請求項1乃至6いずれか1項に記載の三次元形状生成装置。
In addition to or in addition to the camera provided in the moving body, a plurality of cameras provided in the same moving body, and a field-of-view overlap camera unit set so that the fields of view overlap,
A field-of-view overlap image recording unit that records a plurality of images of the same time acquired by the field-of-view overlap camera unit in association with each other;
A continuous three-dimensional image generation unit that generates a three-dimensional image consisting of a unique coordinate system at a unit time, which is obtained by calculation from a plurality of images at the same time with overlapping fields of view;
Coordinate integration that combines the three-dimensional image obtained by the continuous three-dimensional image generation unit with the camera vector of the moving camera obtained from the vector detection unit, and converts and integrates it into a common coordinate system with the moving camera system And
An integrated 3D shape generation unit that generates an object and surrounding 3D shape in an integrated coordinate system;
A three-dimensional shape generation apparatus according to claim 1, comprising:
前記移動体に備えられるカメラとして複数のカメラを備え、近距離の詳細データを必要とする部分を主に撮影する近距離部分詳細画像取得部と、
前記複数のカメラで取得される、視野が一部重複するように設定された同時刻の複数の画像を関連して呼び出し可能な形で記録する並列画像記録部と、
前記視野の重複する画像から視差を検出し、近距離部分の詳細な三次元形状を生成する近距離部分三次元形状生成部と、
前記視野の重複する画像から視差を検出し、前記カメラを備えた移動体以外の他の移動物体を検出する他の移動物体検出部と、
前記視野の重複する画像の視差データから、前記他の移動物体の視差データを排除する他の移動物体排除部と、
前記三次元形状生成部と、前記近距離部分三次元形状生成部とが重複する部分の対象物の三次元形状から、視差による実測長でスケールを校正して、それぞれの座標系を統合する座標校正統合部と、
統合されたデータを記録する統合座標記録部と、
それら統合されたデータを表示する総合画像表示部と、
を備える請求項1乃至7いずれか1項に記載の三次元形状生成装置。
A short-distance portion detailed image acquisition unit that includes a plurality of cameras as cameras provided in the moving body, and mainly shoots a portion that requires short-distance detailed data;
A parallel image recording unit that records a plurality of images acquired by the plurality of cameras at the same time set so that the fields of view partially overlap in a callable form,
Detecting a parallax from the overlapping images of the visual field and generating a detailed three-dimensional shape of the short-distance portion;
Other moving object detection units for detecting parallax from images with overlapping fields of view and detecting other moving objects other than the moving object provided with the camera;
Another moving object exclusion unit that excludes the parallax data of the other moving object from the parallax data of the images with overlapping fields of view;
Coordinates that integrate the respective coordinate systems by calibrating the scale with the measured length based on the parallax from the three-dimensional shape of the object in which the three-dimensional shape generating unit and the short-distance partial three-dimensional shape generating unit overlap The calibration integration unit,
An integrated coordinate recording unit for recording the integrated data;
A comprehensive image display unit for displaying the integrated data;
The three-dimensional shape generation apparatus according to claim 1, comprising:
請求項1乃至8いずれか1項に記載の三次元形状生成装置を備え、対象物の三次元形状を連続的に広範囲に生成することにより、三次元地図を生成することを特徴とする三次元地図生成装置。 A three-dimensional map comprising the three-dimensional shape generation device according to any one of claims 1 to 8, wherein a three-dimensional map is generated by continuously generating a wide range of three-dimensional shapes of an object. Map generator.
JP2003344837A 2003-10-02 2003-10-02 3D shape generator Expired - Lifetime JP4511147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003344837A JP4511147B2 (en) 2003-10-02 2003-10-02 3D shape generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003344837A JP4511147B2 (en) 2003-10-02 2003-10-02 3D shape generator

Publications (2)

Publication Number Publication Date
JP2005115420A JP2005115420A (en) 2005-04-28
JP4511147B2 true JP4511147B2 (en) 2010-07-28

Family

ID=34538338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003344837A Expired - Lifetime JP4511147B2 (en) 2003-10-02 2003-10-02 3D shape generator

Country Status (1)

Country Link
JP (1) JP4511147B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220170122A (en) * 2021-06-22 2022-12-29 인천대학교 산학협력단 System for monitoring of structural and method ithereof

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4545093B2 (en) * 2003-10-29 2010-09-15 株式会社岩根研究所 3D automatic surveying device
JP4773794B2 (en) * 2005-10-19 2011-09-14 株式会社岩根研究所 New and old video coordinate integration device
JP5087264B2 (en) * 2005-12-08 2012-12-05 株式会社トプコン Image processing apparatus and method
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
JP4874693B2 (en) * 2006-04-06 2012-02-15 株式会社トプコン Image processing apparatus and processing method thereof
JP5362189B2 (en) * 2006-05-10 2013-12-11 株式会社トプコン Image processing apparatus and processing method thereof
JP4813263B2 (en) * 2006-06-05 2011-11-09 株式会社トプコン Image processing apparatus and processing method thereof
JP4809134B2 (en) * 2006-06-05 2011-11-09 株式会社トプコン Image processing apparatus and processing method thereof
JP5184830B2 (en) * 2007-07-06 2013-04-17 株式会社トプコン Position measuring apparatus and position measuring method
JP5160643B2 (en) * 2007-07-12 2013-03-13 トムソン ライセンシング System and method for recognizing 3D object from 2D image
KR100890224B1 (en) * 2007-07-20 2009-03-25 연세대학교 산학협력단 Method of reconstructing a 3d scene and apparatus for performing the same
KR100908084B1 (en) * 2007-11-14 2009-07-16 주식회사 영구아트 Recording medium recording method of 3-dimensional coordinates of subject and program for executing the method in computer
JP5100360B2 (en) * 2007-12-21 2012-12-19 株式会社トプコン Image processing device
JP5056436B2 (en) * 2008-01-24 2012-10-24 株式会社豊田中央研究所 3D map generation apparatus and program
JP5107154B2 (en) 2008-06-23 2012-12-26 アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ Motion estimation device
JP5353199B2 (en) * 2008-11-20 2013-11-27 富士通株式会社 Map information collection system
JP5432545B2 (en) * 2009-02-25 2014-03-05 株式会社トプコン Object detection device
CN102598681A (en) * 2009-06-30 2012-07-18 萨博股份公司 A method and an arrangement for estimating 3D models in a street environment
JP2011194043A (en) 2010-03-19 2011-10-06 Brother Industries Ltd Sewing machine
JP2011194042A (en) 2010-03-19 2011-10-06 Brother Industries Ltd Sewing machine
JP2012118666A (en) * 2010-11-30 2012-06-21 Iwane Laboratories Ltd Three-dimensional map automatic generation device
JP5844454B2 (en) * 2012-03-26 2016-01-20 三菱電機株式会社 Camera calibration method, camera calibration program, and camera calibration apparatus
JP5775965B2 (en) * 2012-03-30 2015-09-09 株式会社日立製作所 Stereo camera system and moving body
FR2998400B1 (en) * 2012-11-21 2016-01-15 Thales Sa METHOD FOR 3D RECONSTRUCTION AND PANORAMIC 3D MOSQUERY OF A SCENE
KR101711964B1 (en) * 2015-07-14 2017-03-13 서울대학교산학협력단 Free space map construction method, free space map construction system, foreground/background extraction method using the free space map, and foreground/background extraction system using the free space map
JP2017208038A (en) * 2016-05-20 2017-11-24 株式会社リコー Image processing apparatus, image processing method, image processing system and program
JP6446005B2 (en) * 2016-08-19 2018-12-26 株式会社カナン・ジオリサーチ Underground exploration equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268179A (en) * 1999-01-14 2000-09-29 Oojisu Soken:Kk Three-dimensional shape information obtaining method and device, two-dimensional picture obtaining method and device and record medium
JP2001028049A (en) * 1999-05-11 2001-01-30 Nippon Telegr & Teleph Corp <Ntt> Method and device for three-dimensional shape acquisition, and computer-readable recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268179A (en) * 1999-01-14 2000-09-29 Oojisu Soken:Kk Three-dimensional shape information obtaining method and device, two-dimensional picture obtaining method and device and record medium
JP2001028049A (en) * 1999-05-11 2001-01-30 Nippon Telegr & Teleph Corp <Ntt> Method and device for three-dimensional shape acquisition, and computer-readable recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220170122A (en) * 2021-06-22 2022-12-29 인천대학교 산학협력단 System for monitoring of structural and method ithereof
KR102563346B1 (en) * 2021-06-22 2023-08-02 인천대학교 산학협력단 System for monitoring of structural and method ithereof

Also Published As

Publication number Publication date
JP2005115420A (en) 2005-04-28

Similar Documents

Publication Publication Date Title
JP4511147B2 (en) 3D shape generator
WO2018163898A1 (en) Free viewpoint movement display device
JP4355535B2 (en) 360 degree image conversion processing device
US20170310892A1 (en) Method of 3d panoramic mosaicing of a scene
WO2019127347A1 (en) Three-dimensional mapping method, apparatus and system, cloud platform, electronic device, and computer program product
EP3228984B1 (en) Surveying system
US9171225B2 (en) Device, method, and recording medium for detecting and removing mistracked points in visual odometry systems
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
JP4980617B2 (en) 2D drawing and video composition display device
JP2012118666A (en) Three-dimensional map automatic generation device
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP2013187862A (en) Image data processing device, image data processing method, and program for image data processing
CN111429523B (en) Remote calibration method in 3D modeling
JPWO2005038402A1 (en) Navigation device
JP4446041B2 (en) Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device
JP2006258486A (en) Device and method for measuring coordinate
JP4272966B2 (en) 3DCG synthesizer
US20230351625A1 (en) A method for measuring the topography of an environment
CN111445528B (en) Multi-camera common calibration method in 3D modeling
JP4545093B2 (en) 3D automatic surveying device
JP4773794B2 (en) New and old video coordinate integration device
JP6723533B2 (en) Driving simulator
Blaser et al. Centimetre-Accuracy in Forests and Urban Canyons–Combining a High-Performance Image-Based Mobile Mapping Backpack with New Georeferencing Methods
Schön et al. Integrated navigation of cameras for augmented reality
KR102225321B1 (en) System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090716

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100506

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4511147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160514

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term