JP2005332177A - Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program - Google Patents

Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program Download PDF

Info

Publication number
JP2005332177A
JP2005332177A JP2004149512A JP2004149512A JP2005332177A JP 2005332177 A JP2005332177 A JP 2005332177A JP 2004149512 A JP2004149512 A JP 2004149512A JP 2004149512 A JP2004149512 A JP 2004149512A JP 2005332177 A JP2005332177 A JP 2005332177A
Authority
JP
Japan
Prior art keywords
point
still image
orientation
subject
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004149512A
Other languages
Japanese (ja)
Inventor
Etsuji Kitagawa
悦司 北川
Shigenori Tanaka
成典 田中
Hitoshi Furuta
均 古田
Toshiyuki Sugimachi
敏之 杉町
Yoshitaka Minami
佳孝 南
Kazuki Nonaka
一希 野中
Daisuke Goami
大祐 其阿彌
Yoshito Nishida
義人 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fukui Computer KK
Kansai Informatics Institute Co Ltd
Original Assignee
Fukui Computer KK
Kansai Informatics Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fukui Computer KK, Kansai Informatics Institute Co Ltd filed Critical Fukui Computer KK
Priority to JP2004149512A priority Critical patent/JP2005332177A/en
Publication of JP2005332177A publication Critical patent/JP2005332177A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To automate the setting work of corresponding orienting points in a paired stereo picture. <P>SOLUTION: An object being a three-dimensional model is photographed in a moving picture while changing a photographing position. The orienting point is automatically set on the object on a first frame with the photographed moving picture data. The automatic set is done by extracting a feature point on the object by edge detection, for example. The set orienting point is tracked on each frame constituting the moving picture data to set the orienting point on each frame. Now, two frames are selected as the paired stereo picture from the orienting point-set frames; conducting photogrammetric analysis. Finally, the three-dimensional model of the object is generated by using three-dimensional information obtained from a result of the photogrammetric analysis. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、3次元情報処理装置、3次元情報処理方法、及び3次元情報処理プログラムに関し、例えば、写真測量技術を用いて動画データから被写体の3次元モデルを生成するものに関する。   The present invention relates to a three-dimensional information processing apparatus, a three-dimensional information processing method, and a three-dimensional information processing program. For example, the present invention relates to one that generates a three-dimensional model of a subject from moving image data using photogrammetry technology.

写真測量の理論は、古くから研究されており、その成果は土木の分野などで広く利用されている。
写真測量は、被写体を異なる角度から撮影した2枚のステレオペア画像から、被写体の3次元情報を算出する技術である。
The theory of photogrammetry has been studied for a long time, and the results are widely used in the field of civil engineering.
Photogrammetry is a technique for calculating three-dimensional information of a subject from two stereo pair images obtained by photographing the subject from different angles.

以下、図14を用いて、写真測量の概要を説明する。
写真測量では、図14(a)に示したように、被写体100をカメラ102によって、異なる2方向から撮影する。
これによって、図14(b)に示したような、被写体を左側から撮影した左画像と右側から撮影した右画像からなるステレオペア画像が得られる。
Hereinafter, the outline of the photogrammetry will be described with reference to FIG.
In photogrammetry, the subject 100 is photographed from two different directions by the camera 102 as shown in FIG.
As a result, as shown in FIG. 14B, a stereo pair image including a left image obtained by photographing the subject from the left side and a right image obtained by photographing from the right side is obtained.

このようにして得られたステレオペア画像を用いて、作業者は左右画像で対応する点(以下、標定点)を認定する。図では、左画像の標定点H1と右画像の標定点H1が対応すると認定し、以下同様に、他の標定点の対応関係を認定していく。なお、左画像の標定点H5と右画像の標定点H8は、被写体の死角となり対応する標定点がない。
次に、作業者は、左画像と右画像に平面座標系を設定し、左右画像で対応する標定点の、左画像での座標値と右画像での座標値を計測していく。
Using the stereo pair image thus obtained, the operator recognizes corresponding points (hereinafter referred to as orientation points) in the left and right images. In the figure, it is recognized that the orientation point H1 of the left image and the orientation point H1 of the right image correspond to each other, and similarly, the correspondence relationship of other orientation points is recognized. The left image orientation point H5 and the right image orientation point H8 are blind spots of the subject and have no corresponding orientation points.
Next, the operator sets a plane coordinate system for the left image and the right image, and measures the coordinate values in the left image and the coordinate values in the right image of the corresponding orientation points in the left and right images.

そして、これら計測値に写真測量理論(内部標定、相互標定、絶対標定などからなる)を適用することにより、これら標定点の3次元座標値を計算することができる。
また、対応する標定点のなかった標定点H5や標定点H8も、写っている画像での2次元座標値に写真測量の結果得られたパラメータを適用して3次元座標値を算出することができる。
これら算出された3次元座標値を用いて、図14(c)に示したような、被写体100の3次元モデル100aを生成することができる。
Then, by applying photogrammetry theory (consisting of internal orientation, mutual orientation, absolute orientation, etc.) to these measurement values, the three-dimensional coordinate values of these orientation points can be calculated.
In addition, the control point H5 and the control point H8 that do not have a corresponding control point can be calculated by applying the parameters obtained as a result of the photogrammetry to the two-dimensional coordinate values in the captured image. it can.
Using these calculated three-dimensional coordinate values, a three-dimensional model 100a of the subject 100 as shown in FIG. 14C can be generated.

ところで、写真測量を行うには、高度な熟練技能が必要であるが、近年普及のめざましいデジタルカメラを用いて、被写体のデジタル画像を撮影し、これをコンピュータで情報処理することにより、被写体の3次元モデルを生成する技術も開発されている。この技術は、次の特許文献に記述されている。   By the way, in order to perform photogrammetry, a high level of skill is required, but a digital image of a subject is taken using a digital camera that has recently become widespread, and this is processed by a computer to process 3 of the subject. A technique for generating a dimensional model has also been developed. This technique is described in the following patent document.

特開2002−31527号公報JP 2002-31527 A

この技術では、熟練技能者と同程度の結果を得ることができるアルゴリズムがプログラム化されており、熟練技能を持たない一般のユーザでも高い精度で容易に写真測量を行うことができる。   In this technique, an algorithm capable of obtaining a result comparable to that of a skilled technician is programmed, and even a general user who does not have a skilled skill can easily perform photogrammetry with high accuracy.

上記の技術では、ほとんどの処理は自動化されたが、左右画像の対応する標定点を認定する作業は依然ユーザが手作業で行っていた。
つまり、左画像の標定点と右画像の標定点を対応付ける作業は、ユーザがコンピュータに1つずつ入力する必要があった。
また、標定点の数が少ない場合は手入力を行うことも可能であるが、例えば、複雑な形状の被写体の3次元モデルを生成する場合や、街の風景を撮影して街の3次元モデルをコンピュータグラフィック化する場合のように、多くの標定点を設定する場合は、手入力が困難であった。
In the above technique, most of the processes are automated, but the work of identifying the corresponding orientation points of the left and right images is still performed manually by the user.
That is, the work for associating the orientation points of the left image with the orientation points of the right image requires the user to input one by one into the computer.
In addition, when the number of control points is small, it is possible to perform manual input. For example, when generating a three-dimensional model of a subject having a complicated shape, or shooting a city landscape to capture a three-dimensional model of the city When many control points are set as in the case of computer graphics, manual input is difficult.

そこで、本発明の目的は、対応する標定点の設定作業を自動化することである。   Accordingly, an object of the present invention is to automate the work of setting the corresponding ground control points.

本発明は、前記目的を達成するために、請求項1に記載の発明では、撮影位置を変化させながら被写体を撮影した動画データを取得する動画データ取得手段と、前記取得した動画データから、前記被写体に標定点が設定された第1の静止画像を取得する第1の静止画像取得手段と、前記設定された標定点の移動を前記動画データを用いて追跡することにより、前記設定された標定点に対応する標定点を有する第2の静止画像を取得する対応画像取得手段と、前記第1の静止画像上での標定点の2次元座標値と、前記第2の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出する3次元座標値算出手段と、を具備したことを特徴とする3次元情報処理装置を提供する。
請求項2に記載の発明では、動画データから静止画像を取得し、前記静止画像で前記被写体上に標定点を設定する標定点設定手段を具備し、前記第1の静止画像取得手段は、前記標定点を設定した静止画像か、又は、前記動画データを用いて前記静止画像から標定点が追跡された静止画像を第1の静止画像として取得することを特徴とする請求項1に記載の3次元情報処理装置を提供する。
請求項3に記載の発明では、前記第1の静止画像、又は第2の静止画像の標定点のうち、少なくとも2点の平面位置の実測値、および少なくとも3点の高さの実測値が既知である基準点の指定を受け付ける基準点受付手段と、前記受け付けた基準点の実測値の入力を受け付ける実測値入力手段と、を具備し、前記3次元座標値算出手段は、前記基準点の実測値を用いて実寸大の3次元座標値を算出することを特徴とする請求項1、又は請求項2に記載の3次元情報処理装置を提供する。
請求項4に記載の発明では、被写体に設定された標定点を追跡することにより前記動画データから対応する標定点を有する2つの静止画像を取得する静止画像取得手段と、前記取得した2つの静止画像から当該標定点を用いて算出される当該被写体の3次元座標値の精度評価する評価手段と、を具備し、前記第1の静止画像取得手段と前記対応画像取得手段は、前記評価手段で所定の精度を有すると評価された静止画像を取得することを特徴とする請求項1、請求項2、又は請求項3に記載の3次元情報処理装置を提供する。
請求項5に記載の発明では、前記第2の静止画像が有する少なくとも3つの標定点と重複するように、前記第2の静止画像で新たに標定点を設定する標定点再設定手段を具備し、前記対応画像取得手段は、前記再設定した標定点の移動を前記動画データで追跡することにより、前記再設定した標定点を有する第3の静止画像と第4の静止画像を取得し、前記3次元座標値算出手段は、前記第3の静止画像上での標定点の2次元座標値と、前記第4の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出し、前記第1の静止画像と前記第2の静止画像から算出された3次元座標軸と、前記第3の静止画像と前記第4の静止画像から算出された3次元座標軸と、が一致するように、前記重複して発生させた標定点の座標値を用いて座標変換を行う座標変換手段を具備したことを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載の3次元情報処理装置を提供する。
請求項6に記載の発明では、動画データ取得手段と、第1の静止画像取得手段と、対応画像取得手段と、3次元座標値算出手段と、を備えたコンピュータにおいて、前記動画データ取得手段によって、撮影位置を変化させながら被写体を撮影した動画データを取得する動画データ取得ステップと、前記第1の静止画像取得手段によって、前記取得した動画データから、前記被写体に標定点が設定された第1の静止画像を取得する第1の静止画像取得ステップと、前記対応画像取得手段によって、前記設定された標定点の移動を前記動画データを用いて追跡することにより、前記設定された標定点に対応する標定点を有する第2の静止画像を取得する対応画像取得ステップと、前記3次元座標値算出手段によって、前記第1の静止画像上での標定点の2次元座標値と、前記第2の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出する3次元座標値算出ステップと、から構成されたことを特徴とする3次元情報処理方法を提供する。
請求項7に記載の発明では、撮影位置を変化させながら被写体を撮影した動画データを取得する動画データ取得機能と、前記取得した動画データから、前記被写体に標定点が設定された第1の静止画像を取得する第1の静止画像取得機能と、前記設定された標定点の移動を前記動画データを用いて追跡することにより、前記設定された標定点に対応する標定点を有する第2の静止画像を取得する対応画像取得機能と、前記第1の静止画像上での標定点の2次元座標値と、前記第2の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出する3次元座標値算出機能と、をコンピュータで実現する3次元情報処理プログラムを提供する。
In order to achieve the above object, according to the first aspect of the present invention, in the first aspect of the present invention, from the acquired moving image data, moving image data acquiring means for acquiring moving image data obtained by shooting a subject while changing the shooting position, A first still image acquisition unit that acquires a first still image in which an orientation point is set on a subject and tracking the movement of the established orientation point using the moving image data, thereby setting the set orientation point. Corresponding image acquisition means for acquiring a second still image having a control point corresponding to a fixed point, a two-dimensional coordinate value of the control point on the first still image, and a standard on the second still image There is provided a three-dimensional information processing apparatus comprising: a three-dimensional coordinate value calculating means for calculating a three-dimensional coordinate value of a ground control point on the subject from a two-dimensional coordinate value of a fixed point.
In the invention according to claim 2, the image processing apparatus further includes a control point setting unit that acquires a still image from the moving image data, and sets a control point on the subject with the still image, wherein the first still image acquisition unit includes the first still image acquisition unit, 3. The still image in which an orientation point is set, or a still image in which an orientation point is tracked from the still image by using the moving image data is acquired as a first still image. A dimensional information processing apparatus is provided.
In the invention according to claim 3, the measured values of at least two plane positions and the measured values of the height of at least three points are known among the orientation points of the first still image or the second still image. A reference point receiving unit that receives designation of a reference point, and an actual value input unit that receives an input of an actual measurement value of the received reference point, and the three-dimensional coordinate value calculation unit includes an actual measurement of the reference point. 3. The three-dimensional information processing apparatus according to claim 1, wherein an actual size three-dimensional coordinate value is calculated using the value.
In the invention according to claim 4, still image acquisition means for acquiring two still images having corresponding control points from the moving image data by tracking a control point set for a subject, and the two acquired still images Evaluation means for evaluating the accuracy of the three-dimensional coordinate value of the subject calculated from the orientation point from the image, wherein the first still image acquisition means and the corresponding image acquisition means are the evaluation means. The three-dimensional information processing apparatus according to claim 1, 2 or 3, wherein a still image evaluated to have a predetermined accuracy is acquired.
The invention according to claim 5 further comprises a control point resetting means for newly setting a control point in the second still image so as to overlap with at least three control points of the second still image. The corresponding image acquisition means acquires the third still image and the fourth still image having the resetting control point by tracking the movement of the resetting control point with the moving image data, The three-dimensional coordinate value calculation means is configured to obtain a control point on the subject from the two-dimensional coordinate value of the control point on the third still image and the two-dimensional coordinate value of the control point on the fourth still image. The three-dimensional coordinate value is calculated, the three-dimensional coordinate axis calculated from the first still image and the second still image, and the three-dimensional calculated from the third still image and the fourth still image. The overlapping orientation generated so that the coordinate axes coincide with each other. Providing a three-dimensional information processing apparatus according to any one of claims of claims 1, characterized by comprising a coordinate transforming means for performing coordinate conversion to claim 4 with reference to the coordinate values.
According to a sixth aspect of the present invention, in a computer comprising moving image data acquisition means, first still image acquisition means, corresponding image acquisition means, and three-dimensional coordinate value calculation means, the moving image data acquisition means A moving image data acquisition step of acquiring moving image data obtained by shooting the subject while changing the shooting position; and a first control point set for the subject from the acquired moving image data by the first still image acquisition means. The first still image acquisition step of acquiring a still image of the image, and the corresponding image acquisition means tracks the movement of the set orientation point using the moving image data, thereby corresponding to the set orientation point. A corresponding image acquisition step for acquiring a second still image having a control point to be detected, and a three-dimensional coordinate value calculation means for detecting a target on the first still image. A three-dimensional coordinate value calculating step for calculating a three-dimensional coordinate value of the orientation point on the subject from the two-dimensional coordinate value of the point and the two-dimensional coordinate value of the orientation point on the second still image; A three-dimensional information processing method is provided.
According to the seventh aspect of the present invention, a moving image data acquisition function for acquiring moving image data obtained by photographing a subject while changing a photographing position, and a first stationary point in which a ground control point is set for the subject from the acquired moving image data. A first still image acquisition function for acquiring an image, and a second still image having a control point corresponding to the set control point by tracking the movement of the set control point using the moving image data. From the corresponding image acquisition function for acquiring an image, the two-dimensional coordinate value of the orientation point on the first still image, and the two-dimensional coordinate value of the orientation point on the second still image, A three-dimensional information processing program for realizing a three-dimensional coordinate value calculation function for calculating a three-dimensional coordinate value of an orientation point by a computer is provided.

本発明によると、被写体を撮影した動画から自動的に3次元モデルを生成することができる。   According to the present invention, a three-dimensional model can be automatically generated from a moving image obtained by photographing a subject.

(実施の形態の概要)
3次元モデルの対象となる被写体を撮影位置を変化させながら動画撮影する。
このようにして撮影された動画データにおいて、標定点追跡の始点となるフレームで被写体上に標定点を自動設定する。この自動設定は、例えば、エッジ検出などで被写体上の特徴点を抽出するなどして行う。
設定した標定点を動画データを構成する各フレームで追跡し、各フレーム上での標定点を設定していく。
そして、これら標定点が設定されたフレームから2つのフレームをステレオペア画像として選択し、写真測量解析を行う。更に、写真測量解析の結果得られた3次元情報を用いて被写体の3次元モデルを生成する。
(Outline of the embodiment)
A moving subject is photographed while changing the photographing position of a subject to be a target of the three-dimensional model.
In the moving image data photographed in this way, a control point is automatically set on the subject in a frame that is a starting point for tracking a control point. This automatic setting is performed, for example, by extracting feature points on the subject by edge detection or the like.
The set orientation point is tracked in each frame constituting the moving image data, and the orientation point on each frame is set.
Then, two frames are selected as a stereo pair image from the frames in which these control points are set, and photogrammetric analysis is performed. Further, a three-dimensional model of the subject is generated using the three-dimensional information obtained as a result of the photogrammetry analysis.

以下、図1を用いて、本実施の形態によって3次元モデルを生成する手順の概要を説明する。
図1(a)は、ビデオカメラ3を用いて被写体2を撮影する方法を説明するための図である。
ビデオカメラ3は、被写体を動画撮影する装置である。本実施の形態では、ビデオカメラ3として市販のデジタルビデオカメラを用いた。
Hereinafter, an outline of a procedure for generating a three-dimensional model according to the present embodiment will be described with reference to FIG.
FIG. 1A is a diagram for explaining a method of photographing the subject 2 using the video camera 3.
The video camera 3 is a device that takes a moving image of a subject. In the present embodiment, a commercially available digital video camera is used as the video camera 3.

デジタルビデオカメラは、CCD(Charge Coupled Device)素子を配列した受光面を備えており、この受光面に被写体を投影して、映像をデジタルデータに変換する。そして、投影画像の経時変化を動画データとして磁気テープや光磁気ディスクなどの記憶媒体に記録する。   The digital video camera includes a light receiving surface on which CCD (Charge Coupled Device) elements are arranged, and projects a subject on the light receiving surface to convert an image into digital data. Then, the temporal change of the projected image is recorded as moving image data on a storage medium such as a magnetic tape or a magneto-optical disk.

なお、ビデオカメラ3としてアナログ式のものを用いたり、ビデオカメラ3の代わりに8ミリカメラなどのフィルム媒体に映像を記録するものを用いることも可能である。この場合は、後ほど撮影された映像をデジタルデータに変換すれば良い。   It is also possible to use an analog type as the video camera 3 or to record video on a film medium such as an 8 mm camera instead of the video camera 3. In this case, the video imaged later may be converted into digital data.

被写体2は、3次元モデルの生成対象物であり、何らかの立体構造を有する物体である。被写体2は、3次元モデルの生成目的(測量、コンピュータグラフィックスの作成)により多岐に渡る。
ユーザは、以上のように構成されたビデオカメラ3を用いて、図1(a)に示したように、被写体2の周囲を移動しながら被写体2を撮影する。
The subject 2 is a generation target of the three-dimensional model, and is an object having a certain three-dimensional structure. The subject 2 varies depending on the purpose of generating the three-dimensional model (surveying, creation of computer graphics).
Using the video camera 3 configured as described above, the user captures the subject 2 while moving around the subject 2 as shown in FIG.

次に、3次元情報処理装置(構成は後述)が、このようにして撮影された動画データを読み込み、以下のようにして被写体の3次元モデルを生成する。
動画データは、被写体2を方向を変化させながら撮影した一連のフレーム(静止画像)から構成されており、3次元情報処理装置は、この中からフレームAを選択する。フレームAとしては、例えば、動画データを構成する最初のフレームを採用することができる。
Next, the three-dimensional information processing apparatus (configuration will be described later) reads the moving image data shot in this way, and generates a three-dimensional model of the subject as follows.
The moving image data is composed of a series of frames (still images) taken while changing the direction of the subject 2, and the three-dimensional information processing apparatus selects the frame A therefrom. As the frame A, for example, the first frame constituting the moving image data can be adopted.

そして、3次元情報処理装置は、エッジ検出などの画像処理を用いてフレームAから被写体2を抽出し、例えば、被写体2の角や嶺など、特徴を有する特徴点(H1〜H7)を抽出し、これを標定点として設定(登録)する。
3次元情報処理装置は、フレームAに隣接するフレームでこれら標定点を追跡し、更にこの追跡を隣接するフレームで繰り返すことにより、フレームBでの標定点を特定する。
フレームAからフレームBまでの各フレームでは、標定点が追跡により対応付けて設定されているため、3次元情報処理装置は、フレームAからフレームBまでのうちから2枚のフレームをステレオペア画像として選択する。
そして、3次元情報処理装置は、この2枚のステレオペア画像(例えば、フレームAとフレームB)に写っている標定点を用いて写真測量処理を行う。
この処理により、各標定点の3次元座標値が算出され、3次元情報処理装置は、これらの座標値を用いて被写体2の3次元モデル5aを生成する。
Then, the three-dimensional information processing apparatus extracts the subject 2 from the frame A using image processing such as edge detection, and extracts feature points (H1 to H7) having features such as corners and wrinkles of the subject 2, for example. This is set (registered) as an orientation point.
The three-dimensional information processing apparatus tracks the orientation points in the frame adjacent to the frame A, and further repeats the tracking in the adjacent frames to identify the orientation point in the frame B.
In each frame from frame A to frame B, the orientation points are set in association with each other by tracking, so that the three-dimensional information processing apparatus uses two frames from frame A to frame B as stereo pair images. select.
Then, the three-dimensional information processing apparatus performs photogrammetry using the orientation points shown in the two stereo pair images (for example, frame A and frame B).
By this process, the three-dimensional coordinate value of each orientation point is calculated, and the three-dimensional information processing apparatus generates a three-dimensional model 5a of the subject 2 using these coordinate values.

3次元情報処理装置は、更に標定点の追跡を続け、フレームCにて標定点を特定する。そして、同様にフレームBとフレームCなどをステレオペア画像として採用し、3次元モデル5bを生成する。
3次元情報処理装置は、以上の処理を繰り返して複数の3次元モデルを生成した後、これらを連結して3次元モデル6を生成する。連結は、3次元モデル中に共通の標定点が少なくとも3点(実用的には4点)あれば行うことができる。
これによって、ビデオカメラ3が撮影した範囲を網羅する3次元モデルを生成することができる。
The three-dimensional information processing apparatus further continues the tracking of the orientation point and specifies the orientation point in the frame C. Similarly, the frame B and the frame C are adopted as the stereo pair image to generate the three-dimensional model 5b.
The three-dimensional information processing apparatus repeats the above processing to generate a plurality of three-dimensional models, and then connects these to generate a three-dimensional model 6. The connection can be performed if there are at least three common control points in the three-dimensional model (practically four points).
Thus, a three-dimensional model that covers the range captured by the video camera 3 can be generated.

(実施の形態の詳細)
図2は、3次元情報処理装置1の機能的構成を示したブロック図である。
3次元情報処理装置1は、例えば、パーソナルコンピュータで3次元情報処理プログラムを実行することにより実現することができる。
(Details of the embodiment)
FIG. 2 is a block diagram showing a functional configuration of the three-dimensional information processing apparatus 1.
The three-dimensional information processing apparatus 1 can be realized, for example, by executing a three-dimensional information processing program on a personal computer.

3次元情報処理装置1は、動画データを取得する動画データ取得部61、動画データから写真測量に必要な標定点情報を取得する動画データ処理部62、標定点情報を保持する標定点情報保持部66、保持された標定点情報を用いて写真測量解析を行い3次元モデルを生成する3次元モデル生成部67、生成された複数の3次元モデルを連結する3次元モデル連結部68などから構成されている。
以下、これらの構成要素の機能について説明する。
The three-dimensional information processing apparatus 1 includes a moving image data acquisition unit 61 that acquires moving image data, a moving image data processing unit 62 that acquires control point information necessary for photogrammetry from the moving image data, and a control point information storage unit that stores control point information. 66, a three-dimensional model generation unit 67 that generates a three-dimensional model by performing photogrammetric analysis using the stored control point information, a three-dimensional model connection unit 68 that connects a plurality of generated three-dimensional models, and the like. ing.
Hereinafter, functions of these components will be described.

動画データ取得部61は、動画データ取得手段を構成し、例えば、ビデオカメラから動画データの転送を受けたり、磁気テープ、光磁気ディスク、ハードディスクなどの記憶媒体に記憶された動画データを読み取ったり、あるいはインターネットなどのネットワークを介して送信されてきた動画データを受信するなどして動画データを取得する。
動画データは、フレームと呼ばれる静止画像を時系列的に取得できるように構成されており、隣接する静止画像を参照することにより、刻々と変化する被写体の動きを捕らえることができる。
The moving image data acquisition unit 61 constitutes moving image data acquisition means, for example, receiving transfer of moving image data from a video camera, reading moving image data stored in a storage medium such as a magnetic tape, a magneto-optical disk, a hard disk, Alternatively, moving image data is acquired by receiving moving image data transmitted via a network such as the Internet.
The moving image data is configured so that still images called frames can be acquired in time series, and by referring to adjacent still images, it is possible to capture the movement of the subject that changes every moment.

動画データ処理部62は、動画データ取得部61から動画データを受け取り、これからフレームを取得して時系列に沿って配列する。
そして、標定点設定部63、基準点指定部64、標定点追跡部65の各機能部を用いて、フレームに対し、標定点の設定、標定点の追跡、ステレオペア画像として組にするフレームの選択、ステレオペア画像からの標定点情報の取得などの処理を行う。
The moving image data processing unit 62 receives moving image data from the moving image data acquisition unit 61, acquires frames from this, and arranges them in time series.
The control point setting unit 63, the reference point specifying unit 64, and the control point tracking unit 65 are used to set a control point, track a reference point, and set a pair of frames as a stereo pair image. Processing such as selection and acquisition of ground control point information from the stereo pair image is performed.

標定点設定部63は、標定点追跡の起点となる起点フレームで被写体に標定点を設定する。また、追跡の過程で、標定点が被写体の陰になり順次消失するが、消失が30%程度に達した段階で再度標定点を発生させる。
なお、写真測量では、一般に左右画像で被写体が60%以上重なって写っていることが必要とされているが、本実施の形態では、余裕を持って重複が70%を下回った時点で再度標定点を発生させる。
標定点設定部63は、動画データから静止画像(フレーム)を取得し、静止画像上で被写体に標定点を設定する標定点設定手段を構成してる。
The control point setting unit 63 sets a control point for the subject in the start point frame that is the start point of the control point tracking. Also, during the tracking process, the orientation point is behind the subject and disappears in sequence, but the orientation point is generated again when the disappearance reaches about 30%.
In photogrammetry, it is generally necessary that the left and right images have the subject overlapped by 60% or more. However, in this embodiment, when the overlap falls below 70% with a margin, the standardization is performed again. Generate a fixed point.
The control point setting unit 63 constitutes a control point setting unit that acquires a still image (frame) from moving image data and sets a control point for a subject on the still image.

ここで、図3を用いて標定点設定部63が標定点を設定する手順について説明する。
標定点設定部63は、図3(a)に示したように、フレーム上で被写体10をエッジ検出する。
そして、被写体10を背景から抽出するために、ラベリング処理による画像抽出を行う。ラベリング処理とは、画像の画素の色情報を元に画素のグループ化を行うものである。
Here, the procedure in which the orientation point setting unit 63 sets the orientation point will be described with reference to FIG.
The ground control point setting unit 63 detects the edge of the subject 10 on the frame as shown in FIG.
Then, in order to extract the subject 10 from the background, image extraction by labeling processing is performed. The labeling process is a process for grouping pixels based on color information of pixels of an image.

標定点設定部63は、抽出した被写体10の外側に、各辺と被写体10との最短距離(画素数を単位とすることができる)がAとなるように矩形領域11を設定する(図3(b))。Aはユーザが指定可能な距離であり、被写体の大きさなどから適当な値を選択する。矩形領域11に含まれる部分が標定点設定、及び追跡の対象となる。
ここで矩形領域11に距離Aの余裕を持たせたのは、背景画像によるエッジの乱れを考慮したものであり、被写体が必ず矩形領域11に含まれるようにするためである。
The control point setting unit 63 sets the rectangular area 11 outside the extracted subject 10 so that the shortest distance between each side and the subject 10 (the number of pixels can be set as a unit) is A (FIG. 3). (B)). A is a distance that can be specified by the user, and an appropriate value is selected from the size of the subject. A portion included in the rectangular area 11 is a target for setting and tracking a control point.
Here, the reason why the rectangular area 11 has a margin of the distance A is that the disturbance of the edge due to the background image is taken into consideration, so that the subject is always included in the rectangular area 11.

標定点設定部63は、矩形領域11を設定した後、図3(c)に示したように1辺の長さがtとなるメッシュを矩形領域11内に発生させる。tは、ユーザが設定可能な長さであり、被写体の大きさや、測量精度などから適当な値を選択する。メッシュは、標定点を他のフレームに渡って追跡するのに用いる。
また、メッシュが矩形領域11をはみ出る場合は、何れを優先しても良いが、ここでは、メッシュを優先することにする。
After setting the rectangular area 11, the orientation point setting unit 63 generates a mesh having a side t of t in the rectangular area 11 as shown in FIG. t is a length that can be set by the user, and an appropriate value is selected from the size of the subject and the surveying accuracy. The mesh is used to track the ground control points across other frames.
In addition, when the mesh protrudes from the rectangular area 11, whichever may be prioritized, here, the mesh is prioritized.

標定点設定部63は、メッシュを発生させた後、画像処理にて被写体の特徴点(角部や嶺部など)を検出し、これを標定点に設定する。
図3(d)は、被写体10の特徴点に標定点H1〜H7が設定されたところを示している。なお、メッシュは図示していない。
そして、標定点設定部63は、各特徴点に位置するメッシュの濃淡情報を追跡用のテンプレート(後述)として登録する。
After generating the mesh, the orientation point setting unit 63 detects feature points (such as corners and buttocks) of the subject by image processing, and sets them as orientation points.
FIG. 3D shows the location of the orientation points H <b> 1 to H <b> 7 at the feature points of the subject 10. The mesh is not shown.
Then, the orientation point setting unit 63 registers the shade information of the mesh located at each feature point as a tracking template (described later).

基準点指定部64(図2)は、ユーザからの基準点指定を受け付ける機能部である。
写真測量では、3次元モデルの縮尺を決定するために、被写体上に、少なくとも垂直方向の座標値が2つ、水平方向の座標値が3つ既知である点を指定する必要がある。そのため、3次元座標値がわかっている3点を基準点として指定すれば良いが、実用的には4点指定する。
基準点を用いずとも写真測量は可能であるが、標定点のみで基準点を用いない場合は、被写体と相似な3次元モデルが得られる。
The reference point specifying unit 64 (FIG. 2) is a functional unit that receives a reference point specification from the user.
In photogrammetry, in order to determine the scale of the three-dimensional model, it is necessary to designate on the subject a point where at least two coordinate values in the vertical direction and three coordinate values in the horizontal direction are known. For this reason, three points whose three-dimensional coordinate values are known may be designated as reference points, but four points are practically designated.
Photogrammetry is possible without using a reference point, but when a reference point is not used with only a ground control point, a three-dimensional model similar to the subject can be obtained.

基準点指定部64は、標定点設定部63が設定した標定点と共に被写体10をディスプレイなどに表示し、ユーザに基準点として使用する標定点を選択させる。
図3(d)では、標定点H1、H2、H4、H5が基準点として指定されており、それぞれの標定点は、基準点K1、K2、K4、K5を兼ねている。このように、基準点は、このように標定点に設定しても良いし、あるいは、標定点以外の点を指定しても良い。
基準点指定部64は、ユーザに基準点を指定させると共に、その実空間での座標値を入力させる。
The reference point designating unit 64 displays the subject 10 together with the orientation point set by the orientation point setting unit 63 on a display or the like, and allows the user to select the orientation point used as the reference point.
In FIG. 3D, orientation points H1, H2, H4, and H5 are designated as reference points, and each orientation point also serves as the reference points K1, K2, K4, and K5. As described above, the reference point may be set as the orientation point as described above, or a point other than the orientation point may be designated.
The reference point specifying unit 64 allows the user to specify a reference point and input coordinate values in the real space.

例えば、被写体10が1辺200ミリの直方体であった場合、H1からH2方向にx軸、H1からH4方向にy軸、H1からH5方向に−z軸と想定し、それぞれの座標値をK1(0、0、0)、K2(200、0、0)、K4(0、200、0)、K5(0、0、−200)などと入力する。
以上は一例であって、基準点と座標軸の選択は、設定しやすいものを選択することができる。
For example, when the subject 10 is a rectangular parallelepiped having a side of 200 mm, it is assumed that the x axis is in the H1 to H2 direction, the y axis is in the H1 to H4 direction, and the −z axis is in the H1 to H5 direction. (0, 0, 0), K2 (200, 0, 0), K4 (0, 200, 0), K5 (0, 0, -200), etc. are input.
The above is an example, and the reference point and the coordinate axis can be selected easily.

このように、基準点指定部64は、少なくとも2点の平面位置の実測値、および少なくとも3点の高さの実測値が既知である基準点の指定を受け付ける基準点受付手段と、これら受け付けた基準点の実測値の入力を受け付ける実測値入力手段を備えている。
そして、基準点は、ステレオペア画像の左右画像(第1の静止画像、第2の静止画像)まで追跡され、このため、第1の静止画像又は第2の静止画像での基準点の指定を受け付けている。
In this way, the reference point designating unit 64 receives reference point designation means for accepting designation of reference points for which measured values of at least two plane positions and measured values of heights of at least three points are known. Measured value input means for receiving input of measured values of the reference points is provided.
Then, the reference point is traced to the left and right images (first still image and second still image) of the stereo pair image. For this reason, the reference point is designated in the first still image or the second still image. Accepted.

標定点追跡部65(図2)は、動画データから写真測量解析に必要な情報を抽出する機能部であり、(1)標定点・基準点の追跡、(2)ステレオペア画像の選択、(3)標定点・基準点の再設定、(4)標定点情報の抽出、などを行う機能を有している。
以下、これらの機能について説明する。
The control point tracking unit 65 (FIG. 2) is a functional unit that extracts information necessary for photogrammetry analysis from moving image data. (1) Tracking of control points and reference points, (2) Selection of stereo pair images, ( 3) It has a function of resetting control points and reference points, and (4) extracting control point information.
Hereinafter, these functions will be described.

(1)標定点・基準点の追跡
標定点追跡部65は、標定点設定部63と基準点指定部64によって設定された標定点と基準点を、起点フレームに隣接する複数のフレームに渡って追跡する。
動画データを用いて、フレーム上の点の移動を追跡する技術は、各種実用化されており、例えば、メッシュの濃淡情報のテンプレートを用いたマッチングを用いる方法やオプティカルフローに代表される画素のベクトル情報から追跡を行う方法などがある。
何れの技術を用いても良いが、本実施の形態では、濃淡情報のテンプレートを用いて標定点・基準点の追跡を行うことにする。
(1) Tracking of control points / reference points The control point tracking unit 65 uses the control points and reference points set by the control point setting unit 63 and the reference point specifying unit 64 over a plurality of frames adjacent to the start point frame. Chase.
Various techniques for tracking the movement of points on a frame using moving image data have been put into practical use. For example, a method using matching using a template of mesh shading information and a vector of pixels represented by an optical flow There is a method of tracking from information.
Any technique may be used, but in the present embodiment, tracking of the orientation point / reference point is performed using a template of shading information.

図4は、標定点を濃淡情報のテンプレートを用いて追跡する方法を説明するための図である。
図に示したように、標定点設定部63によって、起点フレームで設定した標定点の周囲のメッシュの濃淡情報から追跡用のテンプレートが作成される。
このテンプレートでは、標定点とその周囲のメッシュの濃淡分布が記録されており、標定点追跡部65は、このテンプレートを起点フレームに隣接する次のフレームのメッシュでマッチングする。
FIG. 4 is a diagram for explaining a method of tracking a ground control point using a template of light and shade information.
As shown in the figure, the orientation point setting unit 63 creates a tracking template from the shade information of the mesh around the orientation point set in the starting frame.
In this template, the gray scale distribution of the orientation point and the surrounding mesh is recorded, and the orientation point tracking unit 65 matches this template with the mesh of the next frame adjacent to the starting frame.

隣接するフレームでは、被写体の移動量は小さいため、追跡元の標定点が存在したメッシュの近辺に、テンプレートと同様の濃淡分布を有する領域が存在すると考えられる。
このようにして、隣接するフレームでテンプレートをマッチングすることにより、このフレーム上での標定点の写っているメッシュを特定することができる。
標定点追跡部65は、このようにして、隣接するフレームで標定点の位置を特定し、更にこの処理を更に隣接するフレームに繰り返し適用することにより、起点フレームで設定された標定点を複数のフレームに渡って追跡することができる。
In adjacent frames, since the amount of movement of the subject is small, it is considered that there is an area having a light and shade distribution similar to that of the template in the vicinity of the mesh where the tracking control point is present.
In this way, by matching templates with adjacent frames, it is possible to specify a mesh in which the orientation point is shown on this frame.
In this way, the orientation point tracking unit 65 identifies the location of the orientation point in the adjacent frame, and further repeatedly applies this processing to the adjacent frame, so that the orientation point set in the origin frame is plural. Can be tracked across frames.

なお、1つのメッシュの中に複数の異なる濃淡の画素が存在する場合は、これらを平均した値をこのメッシュの濃淡とすることができる。
また、濃淡情報の他に色情報やその他の情報を用いて追跡用のテンプレートを構成することもできる。
このように標定点追跡部65は、標定点を追跡する追跡手段を備えている。
In addition, when there are a plurality of different shades of pixels in one mesh, the average of these can be used as the shade of this mesh.
Further, a tracking template can be configured using color information and other information in addition to the grayscale information.
As described above, the orientation point tracking unit 65 includes tracking means for tracking the orientation point.

(2)ステレオペア画像の選択
各フレームに渡って、標定点・基準点が追跡されているため、任意の2つのフレームを選択してステレオペア画像として組み合わせても、両フレーム上の標定点・基準点を対応させることができる。
そのため、動画データからステレオペア画像を構成するためのフレーム2枚を任意に選択することができる。
(2) Selection of stereo pair images Since the orientation points and reference points are tracked over each frame, even if two arbitrary frames are selected and combined as a stereo pair image, the orientation points and reference points on both frames are selected. A reference point can be made to correspond.
Therefore, it is possible to arbitrarily select two frames for constituting a stereo pair image from moving image data.

標定点追跡部65が、ステレオペア画像として組にするフレームを選択する基準は、各種のものが考えられるが、ここでは、一例として縦視差を用いてフレームの組から算出される3次元情報の精度を評価し、精度の高くなるフレームの組をステレオペア画像として選択する。
より詳細には、写真測量の理論によると、ステレオペア画像において、各標定点は縦視差という値を持つ。そこで縦視差の精度評価のための適当な値αを設定し、各標定点の縦視差の平均値がα未満となるフレームを選択することにする。
αは、標定点追跡部65で予め設定しておいても良いし、またユーザが設定できるように構成しても良い。
Various standards can be considered as the reference point tracking unit 65 for selecting a frame to be paired as a stereo pair image, but here, as an example, three-dimensional information calculated from a frame pair using vertical parallax is considered. The accuracy is evaluated, and a set of frames with high accuracy is selected as a stereo pair image.
More specifically, according to the theory of photogrammetry, each orientation point has a value called vertical parallax in a stereo pair image. Therefore, an appropriate value α for evaluating the accuracy of vertical parallax is set, and a frame in which the average value of vertical parallax at each orientation point is less than α is selected.
α may be set in advance by the orientation point tracking unit 65 or may be configured to be set by the user.

なお、この選択方法は一例であって、この他に、縦視差がα以上となる標定点がある設定値Nを越えない場合に選択するように構成したり、あるいは、標定点の消失割合が測量精度を低下させない程度であるフレームを選択するなど、他の評価基準を用いてフレームを選択するように構成することができる。   This selection method is an example, and in addition to this, it may be configured to select when the orientation point at which the vertical parallax is α or more does not exceed a certain set value N, or the disappearance ratio of the orientation point is The frame can be configured to be selected using other evaluation criteria, such as selecting a frame that does not deteriorate the surveying accuracy.

図5を用いてフレームの選択方法の一例を説明する。
この例では、i番目のフレームを起点として、β+1枚の連続するフレームから2枚のフレームを選択する場合について説明する。
i番目のフレームは、標定点追跡の起点となるフレームであり、このフレームで標定点が設定(又は再設定)され、更に追跡用のテンプレートが作成される。
βは、ユーザが設定できる値で、被写体や動画の撮影状況に応じて設定することができる。
An example of a frame selection method will be described with reference to FIG.
In this example, a case will be described in which two frames are selected from β + 1 consecutive frames starting from the i-th frame.
The i-th frame is a frame that is a starting point for the orientation point tracking. The orientation point is set (or reset) in this frame, and a tracking template is created.
β is a value that can be set by the user, and can be set according to the subject and the shooting situation of the moving image.

図5(a)に示したように、標定点追跡部65は、まず、i+1番目フレームで標定点を追跡する。
そして、i+1番目のフレームとi番目のフレームでの縦視差を計算し、αと比較する。
縦視差がα未満の場合は、i+1番目のフレームとi番目のフレームをステレオペア画像として選択する。
As shown in FIG. 5A, the orientation point tracking unit 65 first tracks the orientation point in the (i + 1) th frame.
Then, the vertical parallax at the (i + 1) th frame and the i-th frame is calculated and compared with α.
When the vertical parallax is less than α, the i + 1-th frame and the i-th frame are selected as a stereo pair image.

縦視差がα以上であった場合、標定点追跡部65は、図5(b)に示したように、更にi+2番目のフレームでi+1番目のフレーム上の標定点を追跡する。
そして、i+2番目のフレームとi+1番目のフレームでの縦視差を計算し、αと比較する。
縦視差がα未満の場合は、i+1番目のフレームとi番目のフレームをステレオペア画像として選択する。
When the vertical parallax is equal to or greater than α, the orientation point tracking unit 65 further tracks the orientation point on the (i + 1) th frame in the i + 2th frame, as illustrated in FIG.
Then, the vertical parallax at the i + 2 frame and the i + 1 frame is calculated and compared with α.
When the vertical parallax is less than α, the i + 1-th frame and the i-th frame are selected as a stereo pair image.

縦視差がα以上であった場合、標定点追跡部65は、更に、i+2番目のフレームとi番目のフレームで縦視差を判定する。
縦視差がα未満であった場合、標定点追跡部65は、i+2番目のフレームとi場面のフレームをステレオペア画像として選択する。
When the vertical parallax is equal to or greater than α, the orientation point tracking unit 65 further determines the vertical parallax from the i + 2th frame and the i-th frame.
When the vertical parallax is less than α, the orientation point tracking unit 65 selects the i + 2th frame and the frame of the i scene as a stereo pair image.

標定点追跡部65は、同様の処理を繰り返し、図5(c)に示したように、i+k番目のフレームで標定点を追跡し、i+k−1番目のフレーム、i+k−2番目のフレーム、…と縦視差がα未満となる組み合わせを探索する。
標定点追跡部65は、この処理を縦視差がα未満となるフレームの組み合わせが見つかるか、又はkがβに達するまでステレオペア画像の組み合わせを探索する。
The orientation point tracking unit 65 repeats the same processing, and as shown in FIG. 5C, tracks the orientation point in the i + k-th frame, the i + k-1th frame, the i + k-2th frame,. And a combination in which the vertical parallax is less than α is searched.
The orientation point tracking unit 65 searches for a combination of stereo pair images until a combination of frames in which the vertical parallax is less than α is found or k reaches β.

i番目のフレームからi+β番目のフレームでステレオペア画像の組み合わせを得た場合、又はkがβに達した場合、標定点設定部63がi+β番目のフレームで再度メッシュを発生させて標定点を設定する。そして、標定点追跡部65は、このフレームを新たなi番目のフレームとおき、次のβ枚のフレームに対して同様に選択を試みる。動画データ処理部62は、この動作を動画データの終わりまで繰り返し、複数組のステレオペア画像を選択する。
以上の処理は、後ほど図12のフローチャートを用いて説明する。
When a stereo pair image combination is obtained from the i-th frame to the i + β-th frame, or when k reaches β, the orientation point setting unit 63 generates a mesh again in the i + β-th frame and sets the orientation point. To do. Then, the orientation point tracking unit 65 places this frame as a new i-th frame, and similarly attempts to select the next β frames. The moving image data processing unit 62 repeats this operation until the end of the moving image data, and selects a plurality of sets of stereo pair images.
The above processing will be described later with reference to the flowchart of FIG.

このように、標定点追跡部65は、動画データから、被写体に標定点が設定された第1の静止画像(上の例ではフレーム番号が小さい方のフレーム)を取得する第1の静止画像取得手段と、これら標定点の移動を動画データを用いて追跡することにより、第1の静止画像で設定された標定点に対応する標定点を有する第2の静止画像(上の例ではフレームが大きい方のフレーム)を取得する対応画像取得手段を備えている。   In this manner, the orientation point tracking unit 65 obtains the first still image from which the orientation point is set for the subject (the frame with the smaller frame number in the above example) from the moving image data. The second still image having a control point corresponding to the control point set in the first still image (in the above example, the frame is large) by tracking means and movement of these control points using moving image data Corresponding image acquisition means for acquiring the other frame).

また、標定点追跡部65は、被写体に設定された標定点を追跡することにより動画データから対応する標定点を有する2つの静止画像を取得する静止画像取得手段と、これら2つの静止画像から当該標定点を用いて算出される当該被写体の3次元座標値の精度評価する評価手段と、備え、評価手段で所定の精度を有すると評価された静止画像をステレオペア画像として取得している。   In addition, the orientation point tracking unit 65 obtains two still images having corresponding orientation points from the moving image data by tracking the orientation points set for the subject, and based on these two still images, An evaluation unit that evaluates the accuracy of the three-dimensional coordinate value of the subject calculated using the orientation point is provided, and a still image evaluated as having a predetermined accuracy by the evaluation unit is acquired as a stereo pair image.

(3)標定点・基準点の再設定
本実施の形態では、撮影位置を変えながら被写体をビデオ撮影するため、フレームが進むにつれて標定点が被写体の陰になり、徐々に消失してくる。また、被写体の陰になって隠れていた特徴点が新たに現れる。
そのため、標定点追跡部65は、標定点の追跡を行うと共に標定点の消失割合を監視し、標定点が30%消失したフレームで、標定点設定部63に再び標定点の再設定を行わせる。また、必要がある場合は、ユーザに基準点の再設定を行わせる。
(3) Resetting of the control point / reference point In this embodiment, since the subject is video-recorded while changing the shooting position, the control point becomes a shadow of the subject and gradually disappears as the frame advances. In addition, feature points that are hidden behind the subject appear newly.
Therefore, the orientation point tracking unit 65 tracks the orientation point and monitors the disappearance ratio of the orientation point, and causes the orientation point setting unit 63 to reset the orientation point again in a frame in which the orientation point has disappeared by 30%. . If necessary, the user is allowed to reset the reference point.

この場合、標定点設定部63は、標定点追跡部65から指定されたフレームで、被写体を矩形領域で囲った後、再度メッシュを発生させる。そして、被写体上に標定点を設定し、追跡用のテンプレートを生成する。
このように標定点の再設定を行う場合、標定点設定部63は、前段階で追跡されている標定点を少なくとも3点(実用的には4点)含むように標定点を設定する。このように、標定点設定部63は、標定点再設定手段を構成している。
In this case, the orientation point setting unit 63 generates a mesh again after enclosing the subject with a rectangular area in the frame specified by the orientation point tracking unit 65. Then, an orientation point is set on the subject, and a tracking template is generated.
When resetting the control points in this way, the control point setting unit 63 sets the control points so as to include at least three control points (practically four points) tracked in the previous stage. Thus, the control point setting unit 63 constitutes a control point resetting unit.

そして、標定点追跡部65は、標定点を再設定したフレームにおいて、前段階で追跡されていた標定点のうち少なくとも3点(実用的には4点)を新たな基準点として指定する。
前段階で追跡されている標定点の座標値は、前段階での基準点により算出されるため、これら標定点を基準点とすることができる。
Then, the orientation point tracking unit 65 designates at least 3 (practically 4 points) of orientation points tracked in the previous stage as new reference points in the frame where the orientation points are reset.
Since the coordinate values of the orientation points tracked in the previous stage are calculated from the reference points in the previous stage, these orientation points can be used as the reference points.

なお、標定点の消失以外に、標定点を再設定する場合もある。以下、これらの例について説明する。
このような場合として、例えば、フレームが進むにつれて、新たな被写体が現れた場合がある。
In addition to the disappearance of the orientation point, the orientation point may be reset. Hereinafter, these examples will be described.
As such a case, for example, a new subject may appear as the frame advances.

図6(a)に示したように、被写体15に矩形領域15aを設定し、標定点を追跡していたところ、他の被写体16が出現したとする。
この場合、動画データ処理部62は、被写体16を抽出する。そして、被写体15と同様に、被写体16の周囲に矩形領域16aを設定し(図6(b))、メッシュを発生させる。そして、被写体16上に標定点を設定し、これを追跡する。被写体16の写真測量処理には、被写体15の基準点を利用することができる。
また、被写体15の標定点を用いて、被写体16に基準点を設定することもできる。
As shown in FIG. 6A, when a rectangular area 15a is set on the subject 15 and the orientation point is tracked, another subject 16 appears.
In this case, the moving image data processing unit 62 extracts the subject 16. Then, similarly to the subject 15, a rectangular area 16a is set around the subject 16 (FIG. 6B), and a mesh is generated. Then, an orientation point is set on the subject 16 and is tracked. The reference point of the subject 15 can be used for the photogrammetry processing of the subject 16.
Also, a reference point can be set for the subject 16 using the orientation point of the subject 15.

更に、標定点を再設定する場合として、追跡の過程で重要な標定点を見失う場合がある。
例えば、図7(a)に示したように、被写体20で、領域22、23にあった標定点が追跡過程で消失したとする。
この場合、動画データ処理部62は、図7(b)に示したように、被写体20の周囲に矩形領域20aを発生させる。そして、矩形領域20a内にメッシュを発生させて標定点を再設定する。これによって、消失した標定点を再度設定することができる。
Further, as a case of resetting the orientation point, an important orientation point may be lost in the tracking process.
For example, as shown in FIG. 7A, it is assumed that the orientation points in the regions 22 and 23 disappear in the tracking process in the subject 20.
In this case, the moving image data processing unit 62 generates a rectangular area 20a around the subject 20, as shown in FIG. Then, a mesh is generated in the rectangular area 20a to reset the orientation point. Thereby, the lost orientation point can be set again.

(4)標定点情報の抽出
標定点追跡部65は、動画データから選択したフレームをステレオペア画像とし、標定点情報を抽出する。
この処理は、左画像として選択したフレームと右画像として選択したフレームで、対応する標定点の座標値を計測していくことにより行われる。
標定点の座標値を計測する座標系は、フレーム上で設定された2次元座標系であり、例えば、フレームの左下を原点として、水平方向にx軸、鉛直方向にy軸を設定することができる。
計測単位は、画素数(ピクセル数)を用い、ビデオカメラの受光部の画素サイズを用いて、後ほどミリ単位に変換する。これは、受光面の縦横寸法と画素の縦横数がわかれば可能である。
(4) Extraction of ground control point information The ground control point tracking unit 65 uses the frame selected from the moving image data as a stereo pair image, and extracts ground control point information.
This process is performed by measuring the coordinate values of the corresponding orientation points in the frame selected as the left image and the frame selected as the right image.
The coordinate system for measuring the coordinate value of the orientation point is a two-dimensional coordinate system set on the frame. For example, the x axis in the horizontal direction and the y axis in the vertical direction can be set with the lower left corner of the frame as the origin. it can.
The number of pixels (number of pixels) is used as the measurement unit, and the pixel size of the light receiving unit of the video camera is used later, and is converted into millimeter units later. This is possible if the vertical and horizontal dimensions of the light receiving surface and the vertical and horizontal numbers of pixels are known.

図8は、標定点追跡部65が抽出した標定点情報の一例を示した表である。
図8では、i番目のフレームをF(i)などと表している。図8に示したように、標定点情報は、ステレオペア画像ごとに取得される。
例えば、ステレオペア番号1で特定されるステレオペア画像は、左画像としてF(20)が選択され、右画像としてF(56)が選択されている。
FIG. 8 is a table showing an example of the control point information extracted by the control point tracking unit 65.
In FIG. 8, the i-th frame is represented as F (i) or the like. As shown in FIG. 8, the control point information is acquired for each stereo pair image.
For example, in the stereo pair image specified by the stereo pair number 1, F (20) is selected as the left image and F (56) is selected as the right image.

そして、標定点H1の左画像での座標値は(282、333)であり、右画像での座標値は(526、623)となっている。以下、同様に標定点H303まで、左画像での座標値と右画像での座標値が計測されている。
ただし、F(56)では、標定点H4とH303が消失している。また、標定点H2は、基準点K2として設定されている。
And the coordinate value in the left image of the orientation point H1 is (282, 333), and the coordinate value in the right image is (526, 623). Similarly, the coordinate value in the left image and the coordinate value in the right image are measured up to the orientation point H303.
However, the orientation points H4 and H303 disappear in F (56). The orientation point H2 is set as the reference point K2.

ステレオペア番号2で特定されるステレオペア画像では、左画像としてF(105)が選択され、右画像としてF(132)が選択されている。
そして、標定点H1〜H303の座標値が計測されている。なお、消失した標定点の座標値は、空欄となっている。
以下、同様にステレオペア画像番号3、4、…で特定されるステレオペア画像に対して、標定点の座標値が計測される。
標定情報としては、これら左右画像での標定点の座標値の他に、標定点を再設定した場合に、再設定前後で重複している標定点がわかるようになっており、再設定前後での空間的接続関係がわかるようになっている。
In the stereo pair image specified by the stereo pair number 2, F (105) is selected as the left image, and F (132) is selected as the right image.
Then, the coordinate values of the orientation points H1 to H303 are measured. In addition, the coordinate value of the lost orientation point is blank.
Similarly, the coordinate values of the orientation points are measured for the stereo pair images specified by the stereo pair image numbers 3, 4,.
As orientation information, in addition to the coordinate values of orientation points in these left and right images, when orientation points are reset, the orientation points that are duplicated before and after resetting can be identified. The spatial connection relationship of can be understood.

図2に戻り、動画データ処理部62は、以上のように各ステレオペア画像で計測した計測値を標定点情報として標定点情報保持部66に出力する。標定点情報保持部66は、これを記憶して保持する。
これにより、標定点情報保持部66には、複数のステレオペア画像に関する標定点情報が蓄積される。
Returning to FIG. 2, the moving image data processing unit 62 outputs the measurement values measured in each stereo pair image as described above to the orientation point information holding unit 66 as orientation point information. The control point information holding unit 66 stores and holds this.
Thereby, the control point information regarding the plurality of stereo pair images is accumulated in the control point information holding unit 66.

3次元モデル生成部67は、標定点情報保持部66に記憶されている標定点情報を用いて、各ステレオペア画像ごとに写真測量解析を行い、各ステレオペア画像ごとに3次元モデルを生成する。
ここで、図9のフローチャートを用いて写真測量処理の手順を説明する。この処理は、ステレオペア画像ごとに行うものである。
The three-dimensional model generation unit 67 performs photogrammetry analysis for each stereo pair image using the control point information stored in the control point information holding unit 66, and generates a three-dimensional model for each stereo pair image. .
Here, the procedure of the photogrammetry processing will be described with reference to the flowchart of FIG. This process is performed for each stereo pair image.

3次元モデル生成部67は、動画データ処理部62で生成された複数のステレオペア画像のうち、1つを選択し、そのステレオペア画像の標定点情報を標定点情報保持部66から取得する(ステレオペア画像305)。
次に、3次元モデル生成部67は、取得した標定点情報を内部標定する(ステップ310)。
内部標定とは、被写体がビデオカメラの受光面に投影される際の歪を修正したりなどして、後の内部標定で使用する座標値に変換する処理である。ピクセル単位からミリ単位への変換も内部標定で行われる。
The three-dimensional model generation unit 67 selects one of the plurality of stereo pair images generated by the moving image data processing unit 62 and acquires the control point information of the stereo pair image from the control point information holding unit 66 ( Stereo pair image 305).
Next, the three-dimensional model generation unit 67 internalizes the acquired orientation point information (step 310).
Internal orientation is a process of converting a coordinate value to be used in later internal orientation, for example, by correcting distortion when a subject is projected onto a light receiving surface of a video camera. Conversion from pixel units to millimeters is also done with internal orientation.

3次元モデル生成部67は、標定点の座標値を内部評定した後、これを相互評定する(ステップ315)。
相互標定とは、ステレオペア画像間の相対的な傾きや位置の関係を求める作業である。相互標定により被写体と相似な3次元モデルを得ることができる。
The three-dimensional model generation unit 67 internally evaluates the coordinate values of the orientation points, and then mutually evaluates them (step 315).
The relative orientation is an operation for obtaining a relative inclination or positional relationship between stereo pair images. A three-dimensional model similar to the subject can be obtained by relative orientation.

次に、3次元モデル生成部67は、相互標定の結果を用いて絶対標定を行う(ステップ320)。
絶対標定とは、ステレオペア画像中の基準点を用いて相互標定で求めた被写体と相似な立体モデルの縮尺などを求める作業であり、外部標定と呼ばれることもある。
絶対標定により、各標定点の実空間での座標値を求めることができる。また、何れか一方のフレームで消失した標定点でも、絶対標定結果を用いて他方のフレームでの座標値から実空間での座標値を算出することが可能である。
Next, the three-dimensional model generation unit 67 performs absolute orientation using the result of mutual orientation (step 320).
Absolute orientation is an operation for obtaining a scale of a three-dimensional model similar to a subject obtained by mutual orientation using a reference point in a stereo pair image, and is sometimes called external orientation.
By the absolute orientation, the coordinate value in the real space of each orientation point can be obtained. In addition, even in the orientation point disappeared in any one of the frames, it is possible to calculate the coordinate value in the real space from the coordinate value in the other frame using the absolute orientation result.

絶対標定により、各標定点の実空間での座標値がわかるため、これにより、被写体と実寸大の3次元モデルを生成することができる。
例えば、算出された標定点を線分で結んで表示すると、被写体のワイヤーフレームモデルが得られる。また、標定点を用いて面を張ると被写体のサーフィスモデルが得られる。
以上のようにして、3次元モデル生成部67は、各ステレオペア画像ごとに3次元モデルを生成する。
このように3次元モデル生成部67は、ステレオペア画像を構成する第1の静止画像上での標定点の2次元座標値と、第2の静止画像上での標定点の2次元座標値から、被写体上の標定点の3次元座標値を算出する3次元座標値算出手段を備えている。
Since the absolute orientation determines the coordinate value of each orientation point in real space, it is possible to generate a three-dimensional model of the subject and the actual size.
For example, when the calculated control points are connected by line segments and displayed, a wire frame model of the subject can be obtained. A surface model of the subject can be obtained by extending the surface using the orientation points.
As described above, the three-dimensional model generation unit 67 generates a three-dimensional model for each stereo pair image.
As described above, the three-dimensional model generation unit 67 uses the two-dimensional coordinate value of the orientation point on the first still image constituting the stereo pair image and the two-dimensional coordinate value of the orientation point on the second still image. 3D coordinate value calculating means for calculating the 3D coordinate value of the orientation point on the subject is provided.

図2に戻り、3次元モデル連結部68は、3次元モデル生成部67によって生成された3次元モデルを連結する機能部である。
1組のステレオペア画像から生成された3次元モデルでは、被写体の死角となる部分が欠損したものとなる。
そのため、被写体を他の方向から撮影したステレオペア画像による3次元モデルを連結していくことにより、死角となっていた部分の3次元モデルを生成することができる。
Returning to FIG. 2, the 3D model connecting unit 68 is a functional unit that connects the 3D models generated by the 3D model generating unit 67.
In the three-dimensional model generated from one set of stereo pair images, the part that becomes the blind spot of the subject is lost.
Therefore, by connecting a three-dimensional model based on a stereo pair image obtained by photographing the subject from another direction, it is possible to generate a three-dimensional model of a part that has become a blind spot.

2つの3次元モデルを連結する場合、両者に共通する共通点が3つ以上(実用的には4つ)必要である。この共通点は、両3次元モデルに共通の標定点や基準点を用いることができる。
これら共通点を用いることにより、両3次元モデルの空間座標軸の相対的な位置関係や回転角度関係がわかる。そのため、これらの関係を用いて両3次元モデルの空間座標軸が一致するように座標変換を行い、両3次元モデルを連結することができる。
When two three-dimensional models are connected, at least three common points (practically four) are required in common. As the common point, a common orientation point or reference point common to both three-dimensional models can be used.
By using these common points, the relative positional relationship and rotational angle relationship between the spatial coordinate axes of both three-dimensional models can be known. Therefore, it is possible to connect the three-dimensional models by performing coordinate transformation using these relationships so that the spatial coordinate axes of the three-dimensional models coincide.

本実施の形態は、フレームで標定点を追跡するため両3次元モデルで3つの共通点を見いだすことができる。即ち、あるステレオペア画像から生成した3次元モデル(モデル1)と、そのステレオペア画像より後に追跡したステレオペア画像から生成した3次元モデル(モデル2)を考えた場合、モデル2を構成する標定点は、モデル1も有しているからである(標定点を再設定しない場合)。   In this embodiment, since the orientation point is tracked by the frame, three common points can be found in both three-dimensional models. That is, when a three-dimensional model (model 1) generated from a certain stereo pair image and a three-dimensional model (model 2) generated from a stereo pair image tracked after that stereo pair image are considered, This is because the fixed point also has the model 1 (when the control point is not reset).

また、標定点を再設定した場合も、前段階での標定点と4つ重複するように新規の標定点を発生させるため、再設定前のステレオペア画像から生成した3次元モデルと再設定後のステレオペア画像から生成した3次元モデルを、この重複して発生させた標定点を用いて連結することができる。   In addition, even if the control point is reset, in order to generate a new control point so that it overlaps with the control point in the previous stage, the three-dimensional model generated from the stereo pair image before resetting and after resetting The three-dimensional model generated from the stereo pair images can be connected using the orientation points generated in duplicate.

ここで、図10を用いて、3次元モデルの連結を説明する。
3次元モデル25aは、あるステレオペア画像を用いて生成したものである。 被写体は、四角柱上のオブジェクトであり、3次元モデル25aでは、被写体を構成する面のうち、上面である面M1と側面である面M2が生成されている。
Here, the connection of the three-dimensional model will be described with reference to FIG.
The three-dimensional model 25a is generated using a certain stereo pair image. The subject is an object on a quadrangular prism, and in the three-dimensional model 25a, a surface M1 that is an upper surface and a surface M2 that is a side surface are generated among the surfaces constituting the subject.

3次元モデル25bは、別のステレオペア画像を用いて生成したものである。3次元モデル25bでは、被写体を構成する面のうち、側面である面M1と面M3が生成されている。
ここで、両3次元モデルが、共通点K1〜K4を共有しているとすると、共通点を用いて両3次元モデルの空間座標を一致させ、3次元モデル25cが得られる。
The three-dimensional model 25b is generated using another stereo pair image. In the three-dimensional model 25b, a surface M1 and a surface M3 which are side surfaces among the surfaces constituting the subject are generated.
Here, assuming that both three-dimensional models share common points K1 to K4, the three-dimensional model 25c is obtained by matching the spatial coordinates of both three-dimensional models using the common points.

3次元モデル25cでは、被写体を構成する面のうち、M1〜M3が形成されており、3次元モデル25aで死角となり生成されなかった面M3が形成される。
更に、他の方角から(周囲・上部など)撮影したステレオペア画像による3次元モデルを連結していくことにより、被写体の全方位を構成することができる。
In the three-dimensional model 25c, among the surfaces constituting the subject, M1 to M3 are formed, and a surface M3 that is not generated due to a blind spot in the three-dimensional model 25a is formed.
Furthermore, by connecting a three-dimensional model based on stereo pair images taken from other directions (periphery, upper part, etc.), the omnidirectional object can be configured.

このように、3次元モデル連結部68は、1のステレオペア画像(第1の静止画像、第2の静止画像)から生成された3次元モデル25aと、他のステレオペア画像(第3の静止画像、第4の静止画像)から生成された3次元モデル25bを3次元座標軸が一致するように座標変換を行う座標変換手段を備えている。
また、1のステレオペア画像と他のステレオペア画像は、同じ標定点を追跡したものであっても良いし(即ち、第1の静止画像〜第4の静止画像まで同じ標定点を追跡したもの)、あるいは、再発生させたもの(例えば、第1の静止画像と第2の静止画像を取得した後、標定点を再発生させて第3の静止画像と第4の静止画像を取得した場合)でもよい。後者の場合は、共通点を用いて座標変換を行う。
As described above, the three-dimensional model connection unit 68 includes the three-dimensional model 25a generated from one stereo pair image (first still image and second still image) and another stereo pair image (third still image). A coordinate conversion unit is provided for performing coordinate conversion so that the three-dimensional coordinate axes of the three-dimensional model 25b generated from the image and the fourth still image match.
Further, one stereo pair image and another stereo pair image may be obtained by tracking the same orientation point (that is, the same orientation point being tracked from the first still image to the fourth still image). ) Or regenerated (for example, after acquiring the first still image and the second still image, and then regenerating the orientation point to acquire the third still image and the fourth still image) ) In the latter case, coordinate conversion is performed using a common point.

また、動画データ中に複数の被写体が存在する場合にもこれらを連結することができる。
例えば、図11(a)に示したように、フレームAに被写体31、32が撮影され、フレームBに被写体32、33が撮影され、フレームCに被写体33、34が撮影されている場合を考える。
被写体31、32、33、34に、それぞれ座標系31a、32a、33a、34aを設定する。
Also, when there are a plurality of subjects in the moving image data, they can be linked.
For example, as shown in FIG. 11A, consider a case where subjects 31, 32 are photographed in frame A, subjects 32, 33 are photographed in frame B, and subjects 33, 34 are photographed in frame C. .
Coordinate systems 31a, 32a, 33a, and 34a are set for the subjects 31, 32, 33, and 34, respectively.

座標系31aと座標系32aの位置関係はフレームAによりわかり、座標系33aと座標系34aの位置関係はフレームCによりわかる。
そして、フレーム32aとフレーム33aの位置関係は、フレームBによりわかるため、座標系31a〜座標系34aの位置関係が全てわかる。
そのため、図11(b)に示したように、被写体31〜被写体34の相対的な位置関係を含めて、各被写体の3次元モデルを生成することができる。
これにより、例えば、車から建造物が建ち並ぶ街並みを動画撮影し、これを用いて街並みをコンピュータグラフィックス化することが可能となる。
The positional relationship between the coordinate system 31a and the coordinate system 32a is known from the frame A, and the positional relationship between the coordinate system 33a and the coordinate system 34a is known from the frame C.
Since the positional relationship between the frame 32a and the frame 33a is known from the frame B, all the positional relationships between the coordinate system 31a to the coordinate system 34a are known.
Therefore, as shown in FIG. 11B, a three-dimensional model of each subject can be generated including the relative positional relationship between the subjects 31 to 34.
Thereby, for example, it is possible to take a moving image of a cityscape where buildings are built from cars, and use this to convert the cityscape into computer graphics.

次に、図12のフローチャートを用いて、3次元モデルの生成手順について説明する。
以下の処理は、3次元情報処理装置1が備えたCPU(Central Processing Unit)が3次元情報処理プログラムに従って行うものである。
なお、i番目のフレームをF(i)などと表すことにする。
Next, a procedure for generating a three-dimensional model will be described with reference to the flowchart of FIG.
The following processing is performed by a CPU (Central Processing Unit) included in the three-dimensional information processing apparatus 1 according to the three-dimensional information processing program.
Note that the i-th frame is represented as F (i) or the like.

まず、動画データ処理部62は、動画データを取得する。そして、カウンタiを1に設定し、F(i)=F(1)、即ち最初のフレームに対して初期処理を行う(ステップ5)。
カウンタiは、図5に示したiであって、動画データ処理部62は、i番目〜i+β番目のフレームからステレオペア画像を構成するフレームを選択することになる。
初期処理は、標定点設定部63がF(1)に撮影されている被写体上にメッシュを発生させて標定点を設定し、更に、基準点指定部64によってユーザから基準点の指定を受け付けることにより行われる。
First, the moving image data processing unit 62 acquires moving image data. Then, the counter i is set to 1, and F (i) = F (1), that is, initial processing is performed on the first frame (step 5).
The counter i is i shown in FIG. 5, and the moving image data processing unit 62 selects a frame constituting the stereo pair image from the i-th to i + β-th frames.
In the initial processing, the control point setting unit 63 sets a control point by generating a mesh on the subject photographed at F (1), and further receives a specification of the reference point from the user by the reference point specifying unit 64. Is done.

以上のようにして初期処理を終えると、標定点追跡部65が標定点の追跡を開始する。
標定点追跡部65は、まずカウンタkを1に設定する(ステレオペア画像10)。カウンタkは、図5に示したkであって、標定点を追跡するフレームをカウントするパラメータである。
標定点追跡部65は、カウンタkを設定した後、追跡技術を用いてF(i+k)において標定点を取得する(ステップ15)。
When the initial process is completed as described above, the orientation point tracking unit 65 starts tracking the orientation points.
The orientation point tracking unit 65 first sets the counter k to 1 (stereo pair image 10). The counter k is k shown in FIG. 5 and is a parameter for counting frames for tracking the orientation points.
After setting the counter k, the orientation point tracking unit 65 acquires an orientation point at F (i + k) using the tracking technique (step 15).

次に、標定点追跡部65は、F(i+k)で標定点が30%以上消失したか否かを判断する(ステップ20)。
30%以上消失していない場合は(ステップ20;N)、標定点追跡部65は、更に、基準点が4個未満であるか否かを判断する(ステップ25)。
基準点が消失してしまい、4個未満となった場合は(ステップ25;Y)、基準点を再指定する(ステップ30)。この指定は基準点指定部64がユーザから指定を受け付けることにより行う。
Next, the orientation point tracking unit 65 determines whether or not the orientation point has disappeared by 30% or more at F (i + k) (step 20).
If 30% or more has not disappeared (step 20; N), the orientation point tracking unit 65 further determines whether or not there are less than four reference points (step 25).
When the reference points disappear and become less than 4 (step 25; Y), the reference points are designated again (step 30). This designation is performed when the reference point designation unit 64 receives designation from the user.

基準点が4個以上ある場合(ステップ25;N)、又は基準点を指定した後(ステップ30)、標定点追跡部65は、カウンタjを1に設定する(ステップ35)。
そして、標定点追跡部65は、F(i+k−j)とF(i+k)の縦視差がα未満か否かを判断する(ステップ40)。
縦視差がα未満である場合(ステップ40;Y)、標定点追跡部65は、この2つのフレームをステレオペア画像の組として採用し、F(i+k−j)とF(i+k)の標定点情報を標定点情報保持部66に保持させる(ステップ85)。
When there are four or more reference points (step 25; N), or after specifying a reference point (step 30), the orientation point tracking unit 65 sets the counter j to 1 (step 35).
Then, the orientation point tracking unit 65 determines whether the vertical parallax between F (i + k−j) and F (i + k) is less than α (step 40).
When the vertical parallax is less than α (step 40; Y), the orientation point tracking unit 65 adopts these two frames as a pair of stereo pair images, and orientation points of F (i + k−j) and F (i + k). The information is held in the orientation point information holding unit 66 (step 85).

縦視差がα以上であった場合(ステップ40;N)、標定点追跡部65は、この2つの組み合わせをステレオペア画像として採用せず、更に、jがkより小さいか否かを判断する(ステップ45)。
jがkより小さい場合(ステップ45;Y)、標定点追跡部65は、jに1を加え(ステップ50)、ステップ40に戻る。
If the vertical parallax is greater than or equal to α (step 40; N), the orientation point tracking unit 65 does not adopt the two combinations as a stereo pair image, and further determines whether j is smaller than k ( Step 45).
When j is smaller than k (step 45; Y), the orientation point tracking unit 65 adds 1 to j (step 50) and returns to step 40.

jがk以上となる場合(jに1をインクリメントした結果kと等しくなる場合)(ステップ45;N)、標定点追跡部65は、更にkがβより小さいか否かを判断する(ステップ55)。
kがβより小さい場合(ステップ55;Y)、標定点追跡部65は、kに1を加えてステップ15に戻る。
When j is greater than or equal to k (when j is equal to 1 as a result of incrementing 1) (step 45; N), the orientation point tracking unit 65 further determines whether k is smaller than β (step 55). ).
When k is smaller than β (step 55; Y), the orientation point tracking unit 65 adds 1 to k and returns to step 15.

kがβ以上となる場合(kに1をインクリメントした結果βと等しくなる場合)(ステップ55;N)、標定点追跡部65は、標定点追跡部65はiにβを加算する。
そして、標定点追跡部65は、iとフレームの最大数Gとの大小関係を確認し、iがGより小さい場合は(ステップ65;Y)、ステップ10に戻り、iがG以上となる場合は(ステップ65;N)、標定点情報の取得処理を終了する。
When k is equal to or larger than β (when it is equal to β as a result of incrementing 1 to k) (step 55; N), the orientation point tracking unit 65 adds β to i.
And the control point tracking part 65 confirms the magnitude relationship between i and the maximum number G of frames, and when i is smaller than G (step 65; Y), it returns to step 10 and i becomes G or more. (Step 65; N), the control process for obtaining the control point information is terminated.

そして、3次元モデル生成部67が標定点情報保持部66に保持されている標定点情報を用いてステレオペア画像ごとに3次元モデルを生成し(ステップ70)、3次元モデル連結部68が生成された3次元モデルを連結して出力する(ステップ75)。   Then, the 3D model generation unit 67 generates a 3D model for each stereo pair image using the orientation point information held in the orientation point information holding unit 66 (step 70), and the 3D model connection unit 68 generates The obtained three-dimensional models are connected and output (step 75).

一方、追跡が進むと標定点の消失が多くなってくる。そのため、標定点が30%以上消失した場合は(ステップ20;N)、再度標定点を設定する必要があるため、F(i+k)にて被写体に矩形領域を設定し、メッシュを発生させる(ステップ100)。   On the other hand, as tracking progresses, the disappearance of ground control points increases. For this reason, if the orientation point disappears by 30% or more (step 20; N), it is necessary to set the orientation point again, so a rectangular area is set on the subject by F (i + k) and a mesh is generated (step) 100).

そして、標定点追跡部65は、再設定させた標定点のうち再設定前の標定点と重複しているものを基準点とする。
次に、標定点追跡部65は、基準点が4個未満となったか否かを確認し(ステップ105)、4個未満となった場合は(ステップ105;Y)、基準点指定部64によりユーザからの基準点指定を受け付ける(ステップ110)。
And the control point tracking part 65 uses the thing which overlaps with the control point before resetting among the resetting control points as a reference point.
Next, the orientation point tracking unit 65 checks whether or not the number of reference points is less than 4 (step 105), and if it is less than 4 (step 105; Y), the reference point specifying unit 64 A reference point designation from the user is accepted (step 110).

基準点が4個以上ある場合(ステップ105;N)、又は基準点の指定を受け付けた後、標定点追跡部65は、iをi+kに設定し(ステップ115)、ステップ60に移行する。   When there are four or more reference points (step 105; N), or after receiving the designation of the reference point, the orientation point tracking unit 65 sets i to i + k (step 115), and proceeds to step 60.

図13は、3次元情報処理装置1のハードウェア的な構成を示したブロック図である。3次元情報処理装置1は、例えば、パーソナルコンピュータを用いて構成することができる。   FIG. 13 is a block diagram illustrating a hardware configuration of the three-dimensional information processing apparatus 1. The three-dimensional information processing apparatus 1 can be configured using, for example, a personal computer.

3次元情報処理装置1は、制御部76にバスライン77を介して入力部82、出力部83、通信制御部84、記憶部85、記憶媒体駆動部88、入出力インターフェース(I/F)89などを接続して構成されている。バスライン77は、CPU78と他の装置との信号の伝送を行う伝送線である。
制御部76は、CPU78、ROM(Read Only Memory)80、RAM(Random Access Memory)81などから構成されている。
The three-dimensional information processing apparatus 1 includes an input unit 82, an output unit 83, a communication control unit 84, a storage unit 85, a storage medium drive unit 88, and an input / output interface (I / F) 89 via a bus line 77. Etc. are connected. The bus line 77 is a transmission line for transmitting signals between the CPU 78 and other devices.
The control unit 76 includes a CPU 78, a ROM (Read Only Memory) 80, a RAM (Random Access Memory) 81, and the like.

CPU78は、3次元情報処理プログラムを実行し、動画データからの静止画像の取得、標定点の設定、ステレオペア画像の選択、写真測量、3次元モデルに生成及び連結といった一連の3次元情報処理を行う。   The CPU 78 executes a three-dimensional information processing program, and performs a series of three-dimensional information processing such as acquisition of still images from moving image data, setting of control points, selection of stereo pair images, photogrammetry, and generation and connection to a three-dimensional model. Do.

ROM80は、CPU78が各種演算や制御を行うための各種プログラム、データ、パラメータなどを格納したリードオンリーメモリである。CPU78は、ROM80からプログラムやデータ、パラメータなどを読み込むことができる。   The ROM 80 is a read-only memory that stores various programs, data, parameters, and the like for the CPU 78 to perform various calculations and controls. The CPU 78 can read programs, data, parameters, and the like from the ROM 80.

RAM81は、CPU78にワーキングメモリとして使用されるランダムアクセスメモリを提供する。CPU78は、RAM81にプログラムやデータなどを書き込んだり消去したりすることができる。本実施の形態では、RAM81は、CPU78が3次元情報処理プログラムを実行する際の一時的な記憶装置として利用される。   The RAM 81 provides a random access memory used as a working memory to the CPU 78. The CPU 78 can write and erase programs and data in the RAM 81. In the present embodiment, the RAM 81 is used as a temporary storage device when the CPU 78 executes a three-dimensional information processing program.

入力部82は、例えばキーボード、マウス、ジョイスティックなどの入力装置から構成されている。
キーボードは、3次元情報処理装置1に対して文字や数字などの情報を入力するための装置である。
キーボードは、カナや英文字などを入力するためのキーや数字を入力するためのテンキー、各種機能キー、カーソルキー及びその他のキーによって構成されている。
The input unit 82 includes an input device such as a keyboard, a mouse, and a joystick.
The keyboard is a device for inputting information such as characters and numbers to the three-dimensional information processing apparatus 1.
The keyboard includes keys for inputting kana and English characters, numeric keys for inputting numbers, various function keys, cursor keys, and other keys.

キーボードにより、3次元情報処理装置1に対してテキストデータを入力する他、各種のコマンドを入力することができる。キーボードから基準点の実測値を入力することができる。
マウスは、ポインティングデバイスである。3次元情報処理装置1がGUI(Graphical User Interface)を用いて操作可能な場合、表示装置上に表示されたフレームで標定点やその他の点をクリックすることにより、基準点を指定することができる。
In addition to inputting text data to the three-dimensional information processing apparatus 1, various commands can be input using the keyboard. The measured value of the reference point can be input from the keyboard.
A mouse is a pointing device. When the three-dimensional information processing apparatus 1 can be operated using a GUI (Graphical User Interface), a reference point can be specified by clicking a ground point or other point on the frame displayed on the display device. .

出力部83は、例えば表示装置、印刷装置などから構成されている。
表示装置は、例えばCRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイなどのディスプレイ装置で構成され、画像情報や文字情報などを画面上に提示するための装置である。
表示装置は、動画データから取得したフレームを表示したり、生成した3次元モデルを表示することができる。
The output unit 83 includes, for example, a display device and a printing device.
The display device is configured by a display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or a plasma display, and is a device for presenting image information, character information, and the like on a screen.
The display device can display a frame acquired from moving image data or display a generated three-dimensional model.

印刷装置は、紙などの印刷媒体に情報を印刷する装置である。印刷装置は、例えば、インクジェットプリンタ、レーザプリンタ、熱転写プリンタ、ドットプリンタなどの各種プリンタ装置によって構成されている。フレームや標定点情報、3次元モデルなどを印刷することができる。   The printing apparatus is an apparatus that prints information on a print medium such as paper. The printing apparatus includes various printer apparatuses such as an ink jet printer, a laser printer, a thermal transfer printer, and a dot printer. Frames, orientation point information, 3D models, etc. can be printed.

通信制御部84は、通信回線を介してインターネットなどのネットワークに接続するための装置であって、モデム、ターミナルアダプタ、その他の装置によって構成されている。
動画データをネットワーク経由で取得する場合は、通信制御部を介してサーバ装置からこれを受信する。
The communication control unit 84 is a device for connecting to a network such as the Internet via a communication line, and includes a modem, a terminal adapter, and other devices.
When moving image data is acquired via a network, it is received from the server device via the communication control unit.

記憶部85は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータを読み書きするための駆動装置によって構成されている。当該記憶媒体として主にハードディスクが使用されるが、その他に、例えば、光磁気ディスク、磁気ディスク、半導体メモリなどの他の読み書き可能な記憶媒体によって構成することも可能である。   The storage unit 85 includes a readable / writable storage medium and a drive device for reading / writing programs and data from / to the storage medium. A hard disk is mainly used as the storage medium, but it can also be configured by other readable / writable storage media such as a magneto-optical disk, a magnetic disk, and a semiconductor memory.

記憶部85には、プログラム格納部86とデータ格納部87が形成されている。
プログラム格納部86には、3次元情報処理プログラムや、3次元情報処理装置1を動作させる上で基本的な機能を実現するOS(Operating System)などが記憶されている。
CPU78が、プログラム格納部86から3次元情報処理プログラムを読み出して実行することにより、図2に示したような構成要素がソフトウェア的に形成される。
データ格納部85は、動画データや、この動画データから生成された3次元モデルが記憶される他、標定点情報保持部66が形成されて標定点情報も記憶する。
In the storage unit 85, a program storage unit 86 and a data storage unit 87 are formed.
The program storage unit 86 stores a three-dimensional information processing program, an OS (Operating System) that realizes basic functions for operating the three-dimensional information processing apparatus 1, and the like.
The CPU 78 reads out and executes the three-dimensional information processing program from the program storage unit 86, whereby the components as shown in FIG.
The data storage unit 85 stores moving image data and a three-dimensional model generated from the moving image data, and also forms a control point information holding unit 66 and stores control point information.

記憶媒体駆動部88は、着脱可能な記憶媒体を駆動してデータの読み書きを行うための駆動装置である。着脱可能な記憶媒体としては、例えば、光磁気ディスク、磁気ディスク、磁気テープ、半導体メモリ、データをパンチした紙テープ、CD−ROMなどがある。なお、CD−ROMや紙テープは、読み込みのみ可能である。
記憶媒体駆動部88を駆動することにより、記憶媒体に格納されている動画データを読み込んだり、生成した3次元モデルを記憶媒体に書き込んだりすることができる。
The storage medium driving unit 88 is a driving device for driving a removable storage medium to read / write data. Examples of the removable storage medium include a magneto-optical disk, a magnetic disk, a magnetic tape, a semiconductor memory, a paper tape punched with data, and a CD-ROM. Note that CD-ROMs and paper tapes can only be read.
By driving the storage medium drive unit 88, moving image data stored in the storage medium can be read, and the generated three-dimensional model can be written in the storage medium.

入出力インターフェース89は、例えば、シリアルインターフェースやその他の規格のインターフェースにより構成されている。入出力インターフェース89は、外部機器を3次元情報処理装置1に接続するためのインターフェースである。本実施の形態ではデジタルビデオカメラに接続して、当該カメラから動画データを読み込むのに使用することができる。   The input / output interface 89 is constituted by, for example, a serial interface or another standard interface. The input / output interface 89 is an interface for connecting an external device to the three-dimensional information processing apparatus 1. In this embodiment, it can be used to connect to a digital video camera and read moving image data from the camera.

以上では、パーソナルコンピュータなどを用いて3次元情報処理装置1を構成したが、これに限定せず、例えば、デジタルビデオカメラに組み込むことも可能である。
デジタルビデオカメラはCPUや記憶媒体、及び液状画面や入力キーなどを備えており、3次元情報処理プログラムをデジタルビデオカメラに組み込んで使用することも可能である。
また、標定点の追跡は、動画データにおいて時間が経過する方向に追跡しても良いし、時間をさかのぼる方向に追跡しても良い。
In the above, the three-dimensional information processing apparatus 1 is configured using a personal computer or the like. However, the present invention is not limited to this, and can be incorporated into, for example, a digital video camera.
The digital video camera includes a CPU, a storage medium, a liquid screen, input keys, and the like, and a three-dimensional information processing program can be used by being incorporated in the digital video camera.
The orientation point may be tracked in the direction in which time passes in the moving image data, or may be tracked in the direction of going back in time.

以上に説明した本実施の形態では、次のような効果を得ることができる。
(1)被写体をビデオカメラで撮影し、その動画データから被写体の3次元モデルを生成することができる。
(2)画像処理技術を用いて被写体に標定点を自動的に設定することができる。
(3)追跡技術を用いて標定点を動画データで追跡することにより、対応する標定点を有するステレオペア画像を動画データから取得することができる。
(4)動画データから複数のステレオペア画像を取得して複数の3次元モデルを生成することができ、共通点を用いてこれらを連結することができる。
(5)移動に伴い被写体上の標定点が消失した場合に、新たに標定点を自動設定することができる。
(6)標定点を再設定する際に、自動設定前の標定点と少なくとも3つ重複するように標定点を設定することにより、空間的情報の連続性を自動設定前後で保つことができる。
In the present embodiment described above, the following effects can be obtained.
(1) A subject can be photographed with a video camera, and a three-dimensional model of the subject can be generated from the moving image data.
(2) An orientation point can be automatically set for a subject using an image processing technique.
(3) By tracking a control point with moving image data using tracking technology, a stereo pair image having a corresponding control point can be acquired from the moving image data.
(4) A plurality of stereo pair images can be acquired from moving image data to generate a plurality of three-dimensional models, and these can be connected using a common point.
(5) A new orientation point can be automatically set when the orientation point on the subject disappears due to movement.
(6) When resetting the control points, the continuity of the spatial information can be maintained before and after the automatic setting by setting the control points so that at least three of the control points before automatic setting overlap.

3次元モデルを生成する手順の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the procedure which produces | generates a three-dimensional model. 3次元情報処理装置の機能的構成を示したブロック図である。It is the block diagram which showed the functional structure of the three-dimensional information processing apparatus. 標定点設定部が標定点を設定する手順を説明するための図である。It is a figure for demonstrating the procedure in which an orientation point setting part sets an orientation point. 標定点を追跡方法を説明するための図である。It is a figure for demonstrating the tracking method of an orientation point. ステレオペア画像を構成するフレームを選択する方法を説明するための図である。It is a figure for demonstrating the method to select the flame | frame which comprises a stereo pair image. 標定点を再設定する場合を説明するための図である。It is a figure for demonstrating the case where an orientation point is reset. 標定点を再設定する他の場合を説明するための図である。It is a figure for demonstrating the other case where a control point is reset. 標定点追跡部が抽出した標定点情報の一例を示した表である。It is the table | surface which showed an example of the control point information which the control point tracking part extracted. 写真測量処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of a photogrammetry process. 3次元モデルの連結を説明するための図である。It is a figure for demonstrating the connection of a three-dimensional model. 複数の3次元モデルを連結する場合を説明するための図である。It is a figure for demonstrating the case where a some 3D model is connected. 3次元モデルの生成手順について説明するためのフローチャートである。It is a flowchart for demonstrating the production | generation procedure of a three-dimensional model. 3次元情報処理装置のハードウェア的な構成を示したブロック図である。It is the block diagram which showed the hardware-like structure of the three-dimensional information processing apparatus. 写真測量を説明するための図である。It is a figure for demonstrating photogrammetry.

符号の説明Explanation of symbols

1 3次元情報処理装置
2 被写体
3 ビデオカメラ
6 3次元モデル
1 3D information processing device 2 Subject 3 Video camera 6 3D model

Claims (7)

撮影位置を変化させながら被写体を撮影した動画データを取得する動画データ取得手段と、
前記取得した動画データから、前記被写体に標定点が設定された第1の静止画像を取得する第1の静止画像取得手段と、
前記設定された標定点の移動を前記動画データを用いて追跡することにより、前記設定された標定点に対応する標定点を有する第2の静止画像を取得する対応画像取得手段と、
前記第1の静止画像上での標定点の2次元座標値と、前記第2の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出する3次元座標値算出手段と、
を具備したことを特徴とする3次元情報処理装置。
Moving image data acquisition means for acquiring moving image data of a subject while changing the shooting position;
First still image acquisition means for acquiring, from the acquired moving image data, a first still image in which an orientation point is set for the subject;
Corresponding image acquisition means for acquiring a second still image having a control point corresponding to the set control point by tracking the movement of the set control point using the moving image data;
From the two-dimensional coordinate value of the orientation point on the first still image and the two-dimensional coordinate value of the orientation point on the second still image, the three-dimensional coordinate value of the orientation point on the subject is calculated. Three-dimensional coordinate value calculating means;
A three-dimensional information processing apparatus comprising:
動画データから静止画像を取得し、前記静止画像で前記被写体上に標定点を設定する標定点設定手段を具備し、
前記第1の静止画像取得手段は、前記標定点を設定した静止画像か、又は、前記動画データを用いて前記静止画像から標定点が追跡された静止画像を第1の静止画像として取得することを特徴とする請求項1に記載の3次元情報処理装置。
Comprising a control point setting means for acquiring a still image from moving image data and setting a control point on the subject in the still image;
The first still image acquisition unit acquires a still image in which the orientation point is set or a still image in which the orientation point is tracked from the still image using the moving image data as the first still image. The three-dimensional information processing apparatus according to claim 1.
前記第1の静止画像、又は第2の静止画像の標定点のうち、少なくとも2点の平面位置の実測値、および少なくとも3点の高さの実測値が既知である基準点の指定を受け付ける基準点受付手段と、
前記受け付けた基準点の実測値の入力を受け付ける実測値入力手段と、
を具備し、
前記3次元座標値算出手段は、前記基準点の実測値を用いて実寸大の3次元座標値を算出することを特徴とする請求項1、又は請求項2に記載の3次元情報処理装置。
Criteria for accepting designation of reference points whose measured values of at least two plane positions and measured values of heights of at least three points are known among the orientation points of the first still image or the second still image. Point acceptance means;
An actual value input means for receiving an input of an actual value of the received reference point;
Comprising
3. The three-dimensional information processing apparatus according to claim 1, wherein the three-dimensional coordinate value calculation unit calculates an actual size three-dimensional coordinate value by using an actual measurement value of the reference point.
被写体に設定された標定点を追跡することにより前記動画データから対応する標定点を有する2つの静止画像を取得する静止画像取得手段と、
前記取得した2つの静止画像から当該標定点を用いて算出される当該被写体の3次元座標値の精度評価する評価手段と、
を具備し、
前記第1の静止画像取得手段と前記対応画像取得手段は、前記評価手段で所定の精度を有すると評価された静止画像を取得することを特徴とする請求項1、請求項2、又は請求項3に記載の3次元情報処理装置。
Still image acquisition means for acquiring two still images having corresponding control points from the moving image data by tracking the control points set on the subject;
Evaluation means for evaluating the accuracy of the three-dimensional coordinate value of the subject calculated from the obtained two still images using the orientation point;
Comprising
The said 1st still image acquisition means and the said corresponding | compatible image acquisition means acquire the still image evaluated as having a predetermined precision by the said evaluation means, The claim 2, The claim 2, or Claim characterized by the above-mentioned. 3. The three-dimensional information processing apparatus according to 3.
前記第2の静止画像が有する少なくとも3つの標定点と重複するように、前記第2の静止画像で新たに標定点を設定する標定点再設定手段を具備し、
前記対応画像取得手段は、前記再設定した標定点の移動を前記動画データで追跡することにより、前記再設定した標定点を有する第3の静止画像と第4の静止画像を取得し、
前記3次元座標値算出手段は、前記第3の静止画像上での標定点の2次元座標値と、前記第4の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出し、
前記第1の静止画像と前記第2の静止画像から算出された3次元座標軸と、前記第3の静止画像と前記第4の静止画像から算出された3次元座標軸と、が一致するように、前記重複して発生させた標定点の座標値を用いて座標変換を行う座標変換手段を具備したことを特徴とする請求項1から請求項4までのうちの何れか1の請求項に記載の3次元情報処理装置。
Comprising a control point resetting means for newly setting a control point in the second still image so as to overlap with at least three control points of the second still image,
The corresponding image acquisition means acquires the third still image and the fourth still image having the resetting point by tracking the movement of the resetting point with the moving image data,
The three-dimensional coordinate value calculation means calculates a standard on the subject from the two-dimensional coordinate value of the orientation point on the third still image and the two-dimensional coordinate value of the orientation point on the fourth still image. Calculate the three-dimensional coordinate value of the fixed point,
The three-dimensional coordinate axis calculated from the first still image and the second still image matches the three-dimensional coordinate axis calculated from the third still image and the fourth still image. 5. The coordinate conversion unit according to claim 1, further comprising coordinate conversion means for performing coordinate conversion using the coordinate values of the orientation points generated in duplicate. 6. 3D information processing device.
動画データ取得手段と、第1の静止画像取得手段と、対応画像取得手段と、3次元座標値算出手段と、を備えたコンピュータにおいて、
前記動画データ取得手段によって、撮影位置を変化させながら被写体を撮影した動画データを取得する動画データ取得ステップと、
前記第1の静止画像取得手段によって、前記取得した動画データから、前記被写体に標定点が設定された第1の静止画像を取得する第1の静止画像取得ステップと、
前記対応画像取得手段によって、前記設定された標定点の移動を前記動画データを用いて追跡することにより、前記設定された標定点に対応する標定点を有する第2の静止画像を取得する対応画像取得ステップと、
前記3次元座標値算出手段によって、前記第1の静止画像上での標定点の2次元座標値と、前記第2の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出する3次元座標値算出ステップと、
から構成されたことを特徴とする3次元情報処理方法。
In a computer comprising moving image data acquisition means, first still image acquisition means, corresponding image acquisition means, and three-dimensional coordinate value calculation means,
A moving image data acquisition step of acquiring moving image data obtained by shooting the subject while changing the shooting position by the moving image data acquisition means;
A first still image acquisition step of acquiring, from the acquired moving image data, a first still image in which an orientation point is set for the subject by the first still image acquisition means;
Corresponding image for acquiring a second still image having a control point corresponding to the set control point by tracking the movement of the set control point using the moving image data by the corresponding image acquisition means. An acquisition step;
From the two-dimensional coordinate value of the orientation point on the first still image and the two-dimensional coordinate value of the orientation point on the second still image by the three-dimensional coordinate value calculation means, a standard on the subject is obtained. A three-dimensional coordinate value calculating step for calculating a three-dimensional coordinate value of the fixed point;
A three-dimensional information processing method characterized by comprising:
撮影位置を変化させながら被写体を撮影した動画データを取得する動画データ取得機能と、
前記取得した動画データから、前記被写体に標定点が設定された第1の静止画像を取得する第1の静止画像取得機能と、
前記設定された標定点の移動を前記動画データを用いて追跡することにより、前記設定された標定点に対応する標定点を有する第2の静止画像を取得する対応画像取得機能と、
前記第1の静止画像上での標定点の2次元座標値と、前記第2の静止画像上での標定点の2次元座標値から、前記被写体上の標定点の3次元座標値を算出する3次元座標値算出機能と、
をコンピュータで実現する3次元情報処理プログラム。
A video data acquisition function that acquires video data of a subject while changing the shooting position;
A first still image acquisition function for acquiring, from the acquired moving image data, a first still image in which an orientation point is set for the subject;
A corresponding image acquisition function for acquiring a second still image having a control point corresponding to the set control point by tracking the movement of the set control point using the moving image data;
From the two-dimensional coordinate value of the orientation point on the first still image and the two-dimensional coordinate value of the orientation point on the second still image, the three-dimensional coordinate value of the orientation point on the subject is calculated. A three-dimensional coordinate value calculation function;
A three-dimensional information processing program that implements
JP2004149512A 2004-05-19 2004-05-19 Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program Pending JP2005332177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004149512A JP2005332177A (en) 2004-05-19 2004-05-19 Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004149512A JP2005332177A (en) 2004-05-19 2004-05-19 Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program

Publications (1)

Publication Number Publication Date
JP2005332177A true JP2005332177A (en) 2005-12-02

Family

ID=35486801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004149512A Pending JP2005332177A (en) 2004-05-19 2004-05-19 Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program

Country Status (1)

Country Link
JP (1) JP2005332177A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010376A (en) * 2004-06-23 2006-01-12 Topcon Corp Correlation method of stereo image and three-dimensional data generation device
JP2007183256A (en) * 2005-12-08 2007-07-19 Topcon Corp Image processing device and method therefor
JP2007278844A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and its processing method
JP2009014629A (en) * 2007-07-06 2009-01-22 Topcon Corp Position measuring apparatus and position measuring method
JP2009014628A (en) * 2007-07-06 2009-01-22 Topcon Corp Position measuring apparatus and position measuring method
EP2073172A2 (en) 2007-12-21 2009-06-24 Kabushiki Kaisha TOPCON Image processing apparatus
CN102737406A (en) * 2011-04-06 2012-10-17 卡西欧计算机株式会社 Three-dimensional modeling apparatus and method
US8989518B2 (en) 2006-06-23 2015-03-24 Canon Kabushiki Kaisha Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
JP2015118101A (en) * 2015-02-02 2015-06-25 キヤノン株式会社 Information processing device and method and program
JP2015524969A (en) * 2012-07-11 2015-08-27 レイセオン カンパニー Point cloud construction with unfixed camera
JP2017527785A (en) * 2014-07-07 2017-09-21 ヴィート エヌブイ Method and system for photogrammetric processing of images
CN109934931A (en) * 2017-12-19 2019-06-25 阿里巴巴集团控股有限公司 Acquisition image, the method and device for establishing target object identification model

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62131381A (en) * 1985-12-03 1987-06-13 Nippon Telegr & Teleph Corp <Ntt> Extraction processing method for three-dimensional position information
JPH0935061A (en) * 1995-07-19 1997-02-07 Agency Of Ind Science & Technol Image processing method
JPH0979820A (en) * 1995-09-18 1997-03-28 Toshiba Corp Restoring device of object shape and camera visual point movement and restoring method of object shape and camera visual point movement
JP2002109518A (en) * 2000-10-02 2002-04-12 Mitsutoyo Corp Three-dimensional shape restoring method and system therefor
JP2002245438A (en) * 2001-02-20 2002-08-30 Shigenori Tanaka Device, method and program for supporting preparation of three-dimensional computer graphics

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62131381A (en) * 1985-12-03 1987-06-13 Nippon Telegr & Teleph Corp <Ntt> Extraction processing method for three-dimensional position information
JPH0935061A (en) * 1995-07-19 1997-02-07 Agency Of Ind Science & Technol Image processing method
JPH0979820A (en) * 1995-09-18 1997-03-28 Toshiba Corp Restoring device of object shape and camera visual point movement and restoring method of object shape and camera visual point movement
JP2002109518A (en) * 2000-10-02 2002-04-12 Mitsutoyo Corp Three-dimensional shape restoring method and system therefor
JP2002245438A (en) * 2001-02-20 2002-08-30 Shigenori Tanaka Device, method and program for supporting preparation of three-dimensional computer graphics

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4488804B2 (en) * 2004-06-23 2010-06-23 株式会社トプコン Stereo image association method and three-dimensional data creation apparatus
JP2006010376A (en) * 2004-06-23 2006-01-12 Topcon Corp Correlation method of stereo image and three-dimensional data generation device
JP2007183256A (en) * 2005-12-08 2007-07-19 Topcon Corp Image processing device and method therefor
JP2007278844A (en) * 2006-04-06 2007-10-25 Topcon Corp Image processing apparatus and its processing method
US8989518B2 (en) 2006-06-23 2015-03-24 Canon Kabushiki Kaisha Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
JP2009014628A (en) * 2007-07-06 2009-01-22 Topcon Corp Position measuring apparatus and position measuring method
JP2009014629A (en) * 2007-07-06 2009-01-22 Topcon Corp Position measuring apparatus and position measuring method
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
EP2073172A2 (en) 2007-12-21 2009-06-24 Kabushiki Kaisha TOPCON Image processing apparatus
US7860302B2 (en) 2007-12-21 2010-12-28 Kabushiki Kaisha Topcon Image processing apparatus
CN102737406A (en) * 2011-04-06 2012-10-17 卡西欧计算机株式会社 Three-dimensional modeling apparatus and method
JP2012221128A (en) * 2011-04-06 2012-11-12 Casio Comput Co Ltd Three-dimensional modeling device, three-dimensional modeling method and program
US8928736B2 (en) 2011-04-06 2015-01-06 Casio Computer Co., Ltd. Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP2015524969A (en) * 2012-07-11 2015-08-27 レイセオン カンパニー Point cloud construction with unfixed camera
JP2017527785A (en) * 2014-07-07 2017-09-21 ヴィート エヌブイ Method and system for photogrammetric processing of images
US10497139B2 (en) 2014-07-07 2019-12-03 Vito Nv Method and system for photogrammetric processing of images
JP2015118101A (en) * 2015-02-02 2015-06-25 キヤノン株式会社 Information processing device and method and program
CN109934931A (en) * 2017-12-19 2019-06-25 阿里巴巴集团控股有限公司 Acquisition image, the method and device for establishing target object identification model

Similar Documents

Publication Publication Date Title
JP6417702B2 (en) Image processing apparatus, image processing method, and image processing program
US10410089B2 (en) Training assistance using synthetic images
JP5093053B2 (en) Electronic camera
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
CN107484428B (en) Method for displaying objects
JP6089722B2 (en) Image processing apparatus, image processing method, and image processing program
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
US20040246229A1 (en) Information display system, information processing apparatus, pointing apparatus, and pointer cursor display method in information display system
EP3239931A1 (en) Image processing apparatus and image processing method
WO2018235163A1 (en) Calibration device, calibration chart, chart pattern generation device, and calibration method
CN111046725B (en) Spatial positioning method based on face recognition and point cloud fusion of surveillance video
JPH0887594A (en) Provision method of perfect and distortionless computer display of image
JP2006285788A (en) Mixed reality information generation device and method
JP2005326247A (en) Calibrator, calibration method, and calibration program
EP3296952A1 (en) Method and device for blurring a virtual object in a video
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
JP4242529B2 (en) Related information presentation device and related information presentation method
JP2019045991A (en) Generation device, generation method and program
JP2016212784A (en) Image processing apparatus and image processing method
CN111986086B (en) Three-dimensional image optimization generation method and system
CN107330980A (en) A kind of virtual furnishings arrangement system based on no marks thing
CN114913308A (en) Camera tracking method, device, equipment and storage medium
US6618497B1 (en) Photogrammetric image processing apparatus and method
CN106780474B (en) Kinect-based real-time depth map and color map registration and optimization method
JP2005267257A (en) Handwritten information input system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20061206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413