JP5363878B2 - Stereo image photographing apparatus and method thereof - Google Patents

Stereo image photographing apparatus and method thereof Download PDF

Info

Publication number
JP5363878B2
JP5363878B2 JP2009133378A JP2009133378A JP5363878B2 JP 5363878 B2 JP5363878 B2 JP 5363878B2 JP 2009133378 A JP2009133378 A JP 2009133378A JP 2009133378 A JP2009133378 A JP 2009133378A JP 5363878 B2 JP5363878 B2 JP 5363878B2
Authority
JP
Japan
Prior art keywords
image
previous
live
overlapping
overlapping area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009133378A
Other languages
Japanese (ja)
Other versions
JP2010283466A5 (en
JP2010283466A (en
Inventor
伸夫 高地
悟 新村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2009133378A priority Critical patent/JP5363878B2/en
Priority to KR1020117031677A priority patent/KR20120036908A/en
Priority to PCT/JP2010/058885 priority patent/WO2010140513A1/en
Publication of JP2010283466A publication Critical patent/JP2010283466A/en
Publication of JP2010283466A5 publication Critical patent/JP2010283466A5/ja
Application granted granted Critical
Publication of JP5363878B2 publication Critical patent/JP5363878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

Provided is a stereo image photographing device by which an overlapping area of a previously photographed image and a currently photographed image can be appropriately determined. The stereo image photographing device (1) sequentially photographs a measurement target (2) by a single camera so that the photographs overlap; wherein the stereo image photographing device (1) is provided with a photographing unit (3) which continually acquires live images (25) of the measurement target (2) corresponding to the positional movement of the camera, and photographs the measurement target (2) at an appropriate time to acquire a photographed image which is a still image; an overlapping area setting unit (6) which sets an overlapping area (23) between a previously photographed image (21) and the live image (25) on the previously photographed image (21) which is a photographed image previously photographed by the photographing unit (3); and a display unit (4) which displays the previously photographed image (21) and the live image (25) by overlapping the images at the overlapping area (23) set by the overlapping area setting unit (6), displays the previously photographed image (21) so as to extend from the overlapping area (23) in the direction opposite to the moving direction of the photographing unit (3), and displays the live image (25) so as to extend from the overlapping area (23) in the same direction as the moving direction of the photographing unit (3).

Description

本発明はステレオ画像撮影装置及びその方法に関する。詳しくは、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法に関する。   The present invention relates to a stereo image photographing apparatus and a method thereof. More specifically, the present invention relates to a stereo image capturing apparatus and method for appropriately determining an overlapping area between a previously captured image and a current captured image.

測定対象物の全体像を把握し、三次元モデル画像に再現するには、複数の撮影位置から撮影した撮影画像を連結していく必要がある。このように撮影者が移動しながら撮影した複数の撮影画像から撮影装置または対象物の三次元座標を測定するには、2枚以上の各撮影画像上で相互に対応する特徴点(対象物上の同一点を表す)を求め、これを追跡する必要がある。この場合、三次元計測に不適切な特徴点が撮影画像に混入し得るので、撮影画像における特徴点の適否を判定しながら、その撮影装置の撮影位置、姿勢又は対象物の位置座標を精度良く計測できる画像処理装置が提案されている。(特許文献1参照)   In order to grasp the whole image of the measurement object and reproduce it as a three-dimensional model image, it is necessary to link the photographed images taken from a plurality of photographing positions. In order to measure the three-dimensional coordinates of the photographing apparatus or the object from the plurality of photographed images taken by the photographer in this way, the feature points (on the object) corresponding to each other on each of the two or more photographed images. Represents the same point) and needs to be tracked. In this case, since feature points inappropriate for three-dimensional measurement can be mixed in the captured image, it is possible to accurately determine the capturing position, orientation, or position coordinates of the target object of the capturing apparatus while determining the suitability of the feature points in the captured image. An image processing apparatus capable of measurement has been proposed. (See Patent Document 1)

特開2007−183256号公報(図1〜図11、段落0021〜0065)JP 2007-183256 A (FIGS. 1 to 11, paragraphs 0021 to 0065)

単カメラを用いて移動しながら撮影を行い、測定対象物の三次元計測を行う場合や測定対象物の周囲360度にわたって撮影画像を連結した全周囲画像を作成する場合に、多数の方向からかつ画像を重複させながら撮影を行い、画像を連続的に接続して行く必要がある。しかしながら、撮影画像間の重複の程度を少なくすると、三次元計測や全周囲画像の作成に必要な画像の重複状態が不明になったり、撮りこぼしが生じたりする等により、効率が悪くなるという問題があった。他方、撮影画像間の重複の程度を多くすると、画像処理や作業の手間が多くなり、やはり結果的に効率が悪くなるという問題があった。このため、単カメラを用いて移動しながら撮影を行う場合に、前回撮影された撮影画像である前回撮影画像と今回撮影される予定の撮影画像である今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法が求められていた。   When taking a picture while moving using a single camera and performing three-dimensional measurement of the measurement object, or when creating an all-around image in which the photographed image is linked over 360 degrees around the measurement object, It is necessary to shoot while overlapping images and connect the images continuously. However, if the degree of overlap between the captured images is reduced, the efficiency of the image deteriorates due to the fact that the overlapping state of the images necessary for 3D measurement and creation of all-around images is unclear, or shooting is lost. was there. On the other hand, if the degree of overlap between the captured images is increased, there is a problem that the amount of time and labor for image processing and work increases, and as a result, the efficiency is deteriorated. For this reason, when shooting using a single camera while moving, the overlapping area between the previous shot image that is the previous shot image and the current shot image that is scheduled to be shot this time is appropriately determined. There has been a need for a stereo image capturing apparatus and a method thereof.

本発明は、上記問題点に鑑みてなされたものであり、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供することを目的とする。   The present invention has been made in view of the above problems, and a stereo image photographing apparatus capable of appropriately determining an overlapping region between a previous photographed image and a current photographed image when photographing while moving using a single camera. And an object thereof.

上記課題を解決するために、本発明の第1の態様のステレオ画像撮影装置1は、例えば図1(画像については図2参照)に示すように、測定対象物2を単カメラにより重複させながら順次撮影するステレオ画像撮影装置1において、カメラの位置移動に伴い測定対象物2のライブ画像25を随時取得し、適時に測定対象物2を撮影して静止画像である撮影画像を取得する撮影部3と、撮影部3で前回撮影された撮影画像である前回撮影画像21に、ライブ画像25との重複領域23を設定する重複領域設定部6と、前回撮影画像21とライブ画像25とを重複領域設定部6で設定された重複領域23で重ねて表示し、前回撮影画像21を重複領域23から撮影部3の移動方向と反対側に延長して表示し、ライブ画像25を重複領域23から撮影部3の移動方向と同じ側に延長して表示する表示部4とを備える。   In order to solve the above-described problem, the stereo image capturing apparatus 1 according to the first aspect of the present invention, for example, as shown in FIG. 1 (see FIG. 2 for images), overlaps the measurement object 2 with a single camera. In the stereo image capturing apparatus 1 that sequentially captures, a capturing unit that acquires the live image 25 of the measurement object 2 as needed with the movement of the camera, captures the measurement object 2 in a timely manner, and acquires a captured image that is a still image. 3, the overlap area setting section 6 that sets the overlap area 23 with the live image 25 in the previous captured image 21 that is the captured image previously captured by the capturing section 3, and the previously captured image 21 and the live image 25 are overlapped. The overlapping area 23 set by the area setting unit 6 is displayed in an overlapping manner, the previous captured image 21 is displayed by extending from the overlapping area 23 in the direction opposite to the moving direction of the imaging unit 3, and the live image 25 is displayed from the overlapping area 23. Shoot Extend on the same side as the direction of movement of the part 3 and a display unit 4 for displaying.

ここにおいて、ステレオ画像撮影装置とは、通常は1対のカメラを備え測定対象物を重複撮影する撮影装置をいうが、本発明では、移動しながら単カメラで撮影するので、測定対象物を重複させながら順次撮影していく撮影装置をいうものとする。また、ライブ画像25とは、ビデオカメラやデジタルカメラ等連続的に画像を取得し表示できるカメラを用いて、現在位置で取得される画像をいい、カメラの移動に伴い動的に変化する。典型的にはライブ画像25はテンポラリメモリに上書きされて、表示部4に転送される。また、ライブ画像25は適当なフレーム間隔又は時間間隔でサンプリングされ、メモリに所定期間(一時的に)保存され、画像処理する場合に使用される。また、シャッター操作により現在位置でのライブ画像25が今回撮影予定の撮影画像である今回撮影画像22として取得される。したがって、表示部4の表示エリア26において、ライブ画像25における重複領域(ライブ画像重複領域25a)の画像が、前回撮影画像21における重複領域23の画像と大略一致した時に撮影を行えば、予定した今回撮影画像22を得ることができる。また、重複領域23の設定は、前回撮影画像21について重複割合と重複方向が設定される。重複割合は、例えば%で設定され、任意の値に設定できる。重複方向は、典型的には、左側、右側、上側、下側のいずれかに設定される。左上側、左下側、右上側、右下側に設定しても良いが、この場合、重複割合は左右方向の割合と上下方向の割合が設定される。また、重複は典型的には半透明画像を重ね合わせるが、半透明画像の透明度(濃度)を任意に選択可能である。例えば3画像を重複させる場合には、濃度を薄く設定すると、3画像の重複部分が濃くなり、区別し易くなる。また、例えば撮影部3の移動方向が右側であれば、前回撮影画像21を重複領域23から撮影部3の移動方向と反対側に延長して表示するとは、前回撮影画像21を重複領域23及びその左側に表示することを意味し、ライブ画像25を重複領域23から撮影部3の移動方向と同じ側に延長して表示するとは、ライブ画像25を重複領域23及びその右側に表示することを意味する。また、大略一致するとは、完全に一致しなくてもマージン内で一致すれば良いとの意味である。重複領域をマージンを持たせて設定すれば、マージン内で一致すれば問題ないからである。例えば、三次元計測用には重複割合を50%強に設定すれば良いので、重複割合を60%に設定すれば、±5%のずれは問題ないし、±10%弱まで許容可能である。そして、マージン内でずれが生じても、次の撮影で意図的に逆方向にずらして撮影することにより充分挽回可能である。勿論、できるだけ一致させることが画像処理の均一性を保つ上で好ましく、例えば±3%以内とすることが好ましい。   Here, the stereo image photographing device refers to a photographing device that normally includes a pair of cameras and shoots a measurement object in an overlapping manner. However, in the present invention, since a single camera is photographed while moving, the measurement object is overlapped. An imaging apparatus that sequentially captures images while performing the above. The live image 25 is an image acquired at the current position using a camera such as a video camera or a digital camera that can acquire and display images continuously, and dynamically changes as the camera moves. Typically, the live image 25 is overwritten in the temporary memory and transferred to the display unit 4. The live image 25 is sampled at an appropriate frame interval or time interval, stored in a memory for a predetermined period (temporarily), and used for image processing. Further, the live image 25 at the current position is acquired as the current captured image 22 which is a captured image scheduled to be captured this time by the shutter operation. Therefore, in the display area 26 of the display unit 4, if the image of the overlapping area (live image overlapping area 25 a) in the live image 25 is approximately coincident with the image of the overlapping area 23 in the previous captured image 21, it is planned. The captured image 22 can be obtained this time. The overlap area 23 is set by setting the overlap ratio and the overlap direction for the previously captured image 21. The overlap ratio is set, for example, in% and can be set to an arbitrary value. The overlapping direction is typically set to one of left side, right side, upper side, and lower side. Although the upper left side, the lower left side, the upper right side, and the lower right side may be set, in this case, the overlapping ratio is set as a horizontal ratio and a vertical ratio. In addition, the overlap typically overlaps a semi-transparent image, but the transparency (density) of the semi-transparent image can be arbitrarily selected. For example, when three images are overlapped, if the density is set low, the overlapping portion of the three images becomes dark and easy to distinguish. For example, if the moving direction of the photographing unit 3 is on the right side, displaying the previous captured image 21 from the overlapping region 23 and the overlapping region 23 and displaying the previous captured image 21 extending from the overlapping region 23 to the opposite side to the moving direction of the photographing unit 3. This means that the live image 25 is displayed on the left side and extended from the overlap region 23 to the same side as the moving direction of the photographing unit 3 to display the live image 25 on the overlap region 23 and the right side thereof. means. The term “approximately coincidence” means that it is sufficient that they coincide within the margin even if they do not coincide completely. This is because if the overlapping area is set with a margin, there is no problem if the overlapping areas match. For example, since the overlap ratio may be set to a little over 50% for three-dimensional measurement, if the overlap ratio is set to 60%, a deviation of ± 5% is not a problem, and a tolerance of slightly less than ± 10% is acceptable. Even if a deviation occurs within the margin, it can be sufficiently recovered by intentionally shifting the image in the reverse direction in the next image capturing. Of course, it is preferable to match as much as possible in order to maintain the uniformity of the image processing, for example, within ± 3%.

本態様のように構成すると、表示部4の表示エリア26に、ライブ画像25を前回撮影画像21の重複領域23に重ねて表示でき、カメラが今回撮影画像22を撮影するのに適切な撮影位置に有るか否かをビジュアルに判定できる。これにより、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像21と今回撮影画像22との重複領域23を適切に定められるステレオ画像撮影装置1を提供できる。   With this configuration, the live image 25 can be displayed in the display area 26 of the display unit 4 so as to overlap the overlap region 23 of the previous captured image 21, and the appropriate shooting position for the camera to capture the current captured image 22. You can visually determine whether or not Thereby, in the case of shooting while moving using a single camera, it is possible to provide the stereo image shooting device 1 in which the overlapping area 23 between the previous shot image 21 and the current shot image 22 can be appropriately determined.

また、本発明の第2の態様のステレオ画像撮影装置1は、第1の態様において、例えば図2に示すように、表示部4は、撮影画像及びライブ画像25に枠を付して表示する。
ここにおいて、撮影画像には、前回撮影画像21の他に、前々回撮影画像、初回撮影画像等が含まれる。本態様のように構成すると、撮影画像及びライブ画像25の範囲を明確に表示できる。
In the first aspect, the stereo image photographing device 1 according to the second aspect of the present invention displays the photographed image and the live image 25 with a frame in the first aspect, for example, as shown in FIG. .
In this case, the captured image includes, in addition to the previous captured image 21, a previously captured image, an initial captured image, and the like. If comprised like this aspect, the range of a picked-up image and the live image 25 can be displayed clearly.

また、本発明の第3の態様のステレオ画像撮影装置1は、第1又は第2の態様において、重複領域設定部6は、重複領域23を前回撮影画像21の50ないし70%に設定する。
ここにおいて、重複割合は、パノラマ画像、全周囲画像のような連続画像を作成する場合には例えば10%以上が好ましいが、測定対象物2の三次元形状を測定するには例えば50〜70%が好ましく、55〜65%がより好ましい。また、状況に応じて任意の値に設定可能である。本態様のように構成すると、測定対象物の全ての撮影領域を重複撮影でき、測定対象物2の三次元形状の測定が可能になる。
In the stereo image capturing device 1 according to the third aspect of the present invention, in the first or second aspect, the overlapping area setting unit 6 sets the overlapping area 23 to 50 to 70% of the previous captured image 21.
Here, the overlap ratio is preferably, for example, 10% or more when creating a continuous image such as a panoramic image or an all-around image, but for measuring the three-dimensional shape of the measurement object 2, for example, 50 to 70%. Is preferable, and 55 to 65% is more preferable. Moreover, it can be set to any value depending on the situation. If comprised like this aspect, all the imaging | photography areas of a measurement target object can be imaged redundantly, and the measurement of the three-dimensional shape of the measurement target object 2 will be attained.

また、本発明の第4の態様のステレオ画像撮影装置1は、第1ないし第3のいずれかの態様において、例えば図1に示すように、前回撮影画像21及びライブ画像25における測定対象物2の特徴点を抽出する特徴点抽出部7と、特徴点抽出部7で抽出された特徴点の前回撮影画像21とライブ画像25における画面位置から、撮影部3の移動方向を求めるカメラ移動方向判定部8とを備え、重複領域設定部6は、カメラ移動方向判定部8で判定された移動方向と同じ側に、前回撮影画像21に重複領域23を設定する。
このように構成すると、センサ等の装備を追加しなくても、重複領域の方向を正確に設定できる。
Moreover, the stereo image photographing device 1 of the fourth aspect of the present invention is the measurement object 2 in the previous photographed image 21 and the live image 25 in any of the first to third aspects, for example, as shown in FIG. The feature point extracting unit 7 for extracting the feature points of the camera, and the camera moving direction determination for obtaining the moving direction of the photographing unit 3 from the screen positions of the feature points extracted by the feature point extracting unit 7 in the previous captured image 21 and the live image 25 The overlapping region setting unit 6 sets the overlapping region 23 in the previous captured image 21 on the same side as the moving direction determined by the camera moving direction determining unit 8.
If comprised in this way, the direction of an overlap area can be set correctly, without adding equipment, such as a sensor.

また、本発明の第5の態様のステレオ画像撮影装置1Bは、第1ないし第3のいずれかの態様において、例えば図19に示すように、GPS又は慣性センサを有し、撮影部3の移動方向を検出する移動方向検出部15を備え、重複領域設定部6は移動方向検出部15で検出された移動方向と同じ側に、前回撮影画像21に重複領域23を設定する。
このように構成すると、GPS又は慣性センサを利用して、重複領域の方向を迅速かつ正確に設定できる。
Further, the stereo image photographing device 1B according to the fifth aspect of the present invention has a GPS or an inertial sensor as shown in FIG. 19 in any of the first to third aspects, and moves the photographing unit 3. A moving direction detecting unit 15 that detects a direction is provided, and the overlapping region setting unit 6 sets the overlapping region 23 in the previous captured image 21 on the same side as the moving direction detected by the moving direction detecting unit 15.
If comprised in this way, the direction of an overlap area | region can be set rapidly and correctly using GPS or an inertial sensor.

また、本発明の第6の態様のステレオ画像撮影装置1Cは、第1ないし第3のいずれかの態様において、例えば図21に示すように、撮影部3の移動方向を予め入力可能であり、重複領域設定部6は入力された移動方向と同じ側に、前回撮影画像21に重複領域23を設定する。
このように構成すると、状況に応じて撮影者の判断により重複領域を臨機応変に設定できる。
Further, the stereo image photographing device 1C according to the sixth aspect of the present invention can input in advance the moving direction of the photographing unit 3 in any one of the first to third aspects, for example, as shown in FIG. The overlapping area setting unit 6 sets the overlapping area 23 in the previous captured image 21 on the same side as the input moving direction.
If comprised in this way, an overlapping area | region can be set flexibly according to a photographer's judgment according to a condition.

また、本発明の第7の態様のステレオ画像撮影装置1Aは、第1ないし第6のいずれかの態様において、例えば図10に示すように、前回撮影画像21及びライブ画像25における測定対象物2の特徴点を抽出する特徴点抽出部7と、特徴点抽出部7により抽出された特徴点を用いて撮影部3のカメラの位置と傾きを求める標定部12と、標定部12で求められたカメラの位置と傾きを用いて、前回撮影画像21及びライブ画像25に偏位修正処理を施して、偏位修正画像を形成する偏位修正画像形成部13とを備え、表示部4は、偏位修正画像形成部13で形成された偏位修正画像を表示する。   Further, the stereo image photographing device 1A according to the seventh aspect of the present invention is the measurement object 2 in the previous photographed image 21 and the live image 25 as shown in FIG. 10, for example, in any of the first to sixth aspects. Obtained by the feature point extracting unit 7 for extracting the feature points of the camera, the orientation unit 12 for obtaining the position and inclination of the camera of the photographing unit 3 using the feature points extracted by the feature point extracting unit 7, and the orientation unit 12. The display unit 4 includes a displacement correction image forming unit 13 that performs a displacement correction process on the previously captured image 21 and the live image 25 using the position and tilt of the camera to form a displacement correction image. The displacement correction image formed by the displacement correction image forming unit 13 is displayed.

ここにおいて、偏位修正処理とは、標定で求められたカメラの撮影位置と傾きを用いて、測定対象物2に対して撮影画像をステレオ法の幾何学が成立するように、被写体に対して並行にかつエピポーララインが左右の水平ライン上に一致するように画像を修正する処理である(図12参照)。したがって左右画像の倍率や傾き等の歪が補正され、倍率や高さの位置が同一となる。本態様のように構成すると、偏位修正画像を作成することにより、立体視可能な態様で前回撮影画像21とライブ画像25とを重ねて表示でき、重複した場合にほぼ一致した画像を得られる。   Here, the deviation correction processing is performed on the subject so that the stereo image geometry is established with respect to the measurement object 2 using the photographing position and inclination of the camera obtained by the orientation. This is a process of correcting the image so that the epipolar line coincides with the left and right horizontal lines in parallel (see FIG. 12). Therefore, distortions such as magnification and inclination of the left and right images are corrected, and the positions of the magnification and height are the same. When configured as in this aspect, by creating a deviation correction image, the previously captured image 21 and the live image 25 can be displayed in a superimposed manner in a stereoscopically viewable manner, and an image that is almost the same can be obtained when overlapping. .

また、本発明の第8の態様のステレオ画像撮影装置1は、第1ないし第7のいずれか態様において、例えば図8に示すように、重複領域設定部6が前々回撮影された撮影画像である前々回撮影画像27に設定した重複領域を前々回画像重複領域27a、前回撮影画像21に設定した重複領域を前回画像重複領域21aとし、表示部4は、前々回撮影画像27と前回撮影画像21とを前々回画像重複領域27aで重ねて表示し、前々回撮影画像27を前々回画像重複領域27aから撮影部3の移動方向と反対側に延長して表示し、前回撮影画像21を前々回画像重複領域27aから撮影部3の移動方向と同じ側に延長して表示し、前回撮影画像21とライブ画像25とを前回画像重複領域21aで重ねて表示し、前回撮影画像21を前回画像重複領域21aから撮影部3の移動方向と反対側に延長して表示し、ライブ画像25を前回画像重複領域21aから撮影部3の移動方向と同じ側に延長して表示する。   In addition, the stereo image photographing device 1 according to the eighth aspect of the present invention is a photographed image obtained by the overlapping region setting unit 6 previously photographed as shown in FIG. 8, for example, in any of the first to seventh aspects. The overlap area set in the previous shot image 27 is the previous image overlap area 27a, the overlap area set in the previous shot image 21 is the previous image overlap area 21a, and the display unit 4 rotates the previous shot image 27 and the previous shot image 21 in advance. The image overlap area 27a is displayed in an overlapping manner, the previous image captured image 27 is displayed extending from the image overlap area 27a to the side opposite to the moving direction of the image capturing unit 3, and the previous image image 21 is displayed from the image overlap area 27a before the image capture area. 3 is extended and displayed on the same side as the moving direction 3, the previous captured image 21 and the live image 25 are superimposed on the previous image overlap area 21 a, and the previous captured image 21 is displayed on the previous image overlap. Displays to extend from the region 21a on the side opposite to the moving direction of the imaging unit 3, and displays the extend on the same side as the moving direction of the imaging unit 3 live images 25 from the previous image overlap region 21a.

ここにおいて、前々回画像重複領域27aは、前回撮影時に、重複領域設定部6により前々回撮影画像27に既に設定されている。また、撮影部3の移動方向は前回撮影画像21の撮影位置からライブ画像25の撮影位置への移動方向をいい、典型的には前回撮影画像21と前々回撮影画像27の撮影位置から前回撮影画像21の撮影位置への移動方向と一致する。一致しない時は撮影者の移動方向を修正してから撮影すれば良い。また、例えば撮影部3の移動方向が右側であれば、前回撮影画像21を前回画像重複領域21aから撮影部3の移動方向と反対側に延長して表示するとは、前回撮影画像21を前回画像重複領域21a及びその左側に表示することを意味し、ライブ画像25を前回画像重複領域21aから撮影部3の移動方向と同じ側に延長して表示するとは、ライブ画像25を前回画像重複領域21a及びその右側に表示することを意味する。本態様のように構成すると、前々回撮影画像27、前回撮影画像21及びライブ画像25を表示エリア26に重ねて表示でき、三重に重複されたタイ領域29を確認できる。また、大略重なるようにとは、完全に一致しなくてもマージン内で一致すれば良いとの意味である。例えば、前々回画像重複領域27aについてライブ画像25と重複するためのマージンを持たせて設定すれば、マージン内で一致すれば問題ないからである。例えば、三次元計測用には重複領域があれば良いので、重複割合を20%に設定すれば、±5%のずれは問題ないし、±20%弱まで許容可能である。そして、マージン内でずれが生じても、次の撮影で意図的に逆方向にずらして撮影することにより充分挽回可能である。勿論、できるだけ一致させることが画像処理の均一性を保つ上で好ましく、例えば±3%以内とすることが好ましい。   In this case, the previous-second-time image overlap area 27a is already set in the previous-time-shot image 27 by the overlap area setting unit 6 at the time of the previous shooting. The moving direction of the photographing unit 3 refers to the moving direction from the photographing position of the previous photographed image 21 to the photographing position of the live image 25, and typically the previous photographed image from the photographing position of the last photographed image 21 and the last photographed image 27. This corresponds to the moving direction to the photographing position 21. If they do not match, it is sufficient to shoot after correcting the movement direction of the photographer. For example, if the moving direction of the photographing unit 3 is on the right side, displaying the previous captured image 21 from the previous image overlapping area 21a to the opposite side to the moving direction of the photographing unit 3 is displayed as the previous captured image 21. This means that the live image 25 is displayed on the overlap area 21a and the left side thereof, and the live image 25 is extended from the previous image overlap area 21a to the same side as the moving direction of the photographing unit 3 and displayed. And on the right side. When configured in this manner, the previously captured image 27, the previous captured image 21, and the live image 25 can be displayed in an overlapped manner on the display area 26, and the tie region 29 that is tripled can be confirmed. Also, “overlapping” means that they do not have to be completely matched, but need only be matched within the margin. For example, if the image overlap area 27a is set with a margin for overlapping with the live image 25, the image overlap area 27a is not problematic as long as it matches within the margin. For example, since it is sufficient if there is an overlap area for three-dimensional measurement, if the overlap ratio is set to 20%, a deviation of ± 5% is not a problem, and a tolerance of ± 20% is acceptable. Even if a deviation occurs within the margin, it can be sufficiently recovered by intentionally shifting the image in the reverse direction in the next image capturing. Of course, it is preferable to match as much as possible in order to maintain the uniformity of the image processing, for example, within ± 3%.

また、本発明の第9の態様のステレオ画像撮影装置1は、第8の態様において、例えば図8に示すように、重複領域設定部6は、前々回画像重複領域27aと前回画像重複領域21aが少なくとも一部で重複するように前々回画像重複領域27aと前回画像重複領域21aを設定する。
このように構成すると、これによって、測定対象物2の全ての撮影領域を重複撮影でき、測定対象物2の三次元形状の測定が可能になる。
Further, in the eighth aspect of the stereo image capturing device 1 of the ninth aspect of the present invention, as shown in FIG. 8, for example, the overlap area setting unit 6 includes the image overlap area 27a and the previous image overlap area 21a. The image overlap area 27a and the previous image overlap area 21a are set the previous time so as to overlap at least partially.
If comprised in this way, by this, all the imaging regions of the measuring object 2 can be imaged, and the three-dimensional shape of the measuring object 2 can be measured.

また、本発明の第10の態様のステレオ画像撮影装置1Aは、第1ないし第9のいずれかの態様において、例えば図10及び図16に示すように、前回撮影画像21及びライブ画像25における測定対象物2の特徴点を抽出する特徴点抽出部7と、特徴点抽出部7が、ライブ画像25から抽出した測定対象物2の特徴点と初回に撮影された撮影画像である初回撮影画像28から抽出した測定対象物2の特徴点とのステレオマッチングを行なう対応点探索部8aを備え、ステレオマッチングにより、ライブ画像25と初回撮影画像28の間に重複領域が見出された場合に、重複領域設定部6は、重複領域を初回撮影画像28に一周画像重複領域28cとして設定し、表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。
このように構成すると、初回撮影画像28が表示された場合に、今回又は次回の撮影において、撮影が一巡することが解る。
Further, the stereo image photographing device 1A according to the tenth aspect of the present invention, in any of the first to ninth aspects, measures the previous photographed image 21 and the live image 25 as shown in FIGS. 10 and 16, for example. The feature point extraction unit 7 that extracts the feature points of the target object 2, and the feature point extraction unit 7 extracts the feature points of the measurement target object 2 extracted from the live image 25 and the first shot image 28 that is a first shot image. The corresponding point search unit 8a that performs stereo matching with the feature point of the measurement object 2 extracted from the image, and when an overlapping region is found between the live image 25 and the first captured image 28 by stereo matching, The area setting unit 6 sets the overlapping area in the first shot image 28 as the one-round image overlapping area 28c, and the display unit 4 sets the first shot image 28 and the live image 25 to the one-round image overlapping area 28c. Cascade to display.
With this configuration, it can be seen that when the first shot image 28 is displayed, shooting is completed in the current or next shooting.

また、本発明の第11の態様のステレオ画像撮影装置1Aは、第1ないし第9のいずれかの態様において、例えば図10及び図16に示すように、前回撮影画像21及びライブ画像25における測定対象物2の特徴点を抽出する特徴点抽出部7と、特徴点抽出部7により抽出されたライブ画像25及び初回に撮影された撮影画像である初回撮影画像28における測定対象物2の特徴点の画面位置からそれぞれの撮影位置の三次元座標を求める三次元座標演算部14を備え、ライブ画像25及び初回撮影画像28における撮影位置の三次元座標により、ライブ画像25と初回撮影画像28の間に重複領域が見出された場合に、重複領域設定6部は、初回撮影画像28に重複領域を一周画像重複領域28cとして設定し、表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。
このように構成すると、初回撮影画像28が表示された場合に、今回又は次回の撮影において、撮影が一巡することが解る。
Further, the stereo image photographing device 1A according to the eleventh aspect of the present invention, in any one of the first to ninth aspects, measures the previous photographed image 21 and the live image 25 as shown in FIGS. 10 and 16, for example. The feature point extraction unit 7 that extracts the feature points of the target object 2, the live image 25 extracted by the feature point extraction unit 7, and the feature points of the measurement target object 2 in the first captured image 28 that is the first captured image The three-dimensional coordinate calculation unit 14 for obtaining the three-dimensional coordinates of the respective photographing positions from the screen positions of the live image 25 and the first-captured image 28 based on the three-dimensional coordinates of the photographing position in the first-captured image 28. When the overlapping area is found in the first captured image 28, the overlapping area setting 6 sets the overlapping area as the one-round image overlapping area 28c, and the display unit 4 And 28 and live images 25 displayed superimposed in round image overlap region 28c.
With this configuration, it can be seen that when the first shot image 28 is displayed, shooting is completed in the current or next shooting.

また、本発明の第12の態様のステレオ画像撮影装置1Bは、第5の態様において、例えば図19に示すように、GPS又は慣性センサで検出されたライブ画像25と初回に撮影された撮影画像である初回撮影画像28における撮影位置より、ライブ画像25と初回撮影画像28の間に重複領域が見出された場合に、重複領域設定部6は、初回撮影画像28に重複領域を一周画像重複領域28cとして設定し、表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。
ここにおいて、一周したとは、同じ方向に移動して今回の撮影により予定した全ての方向からの撮影が完了する位置に到達したことを意味する。例えば、12方向からの撮影を予定していた場合、12番目の撮影位置に到達したことを意味する。本態様のように構成すると、初回撮影画像28が表示された場合に、今回又は次回の撮影において、撮影が一巡することが解る。
Further, the stereo image photographing device 1B of the twelfth aspect of the present invention, in the fifth aspect, as shown in FIG. 19, for example, a live image 25 detected by a GPS or an inertial sensor and a photographed image photographed for the first time. When an overlap area is found between the live image 25 and the first shot image 28 from the shooting position in the first shot image 28, the overlap area setting unit 6 overlaps the first shot image 28 with the overlap area. The area 28c is set, and the display unit 4 displays the first shot image 28 and the live image 25 so as to overlap each other in the round image overlap area 28c.
Here, “turning once” means moving to the same direction and reaching a position where shooting from all directions planned by the current shooting is completed. For example, when shooting from 12 directions is scheduled, this means that the 12th shooting position has been reached. When configured in this manner, it can be seen that when the first shot image 28 is displayed, shooting is completed in the current or next shooting.

また、本発明の第13の態様のステレオ画像撮影装置1Cは、第6の態様において、例えば図21に示すように、撮影者が一周した際に、一周したことを入力可能であり、撮影者が一周したことを入力した場合に、重複領域設定部6は、初回に撮影された撮影画像である初回撮影画像28に一周画像重複領域28cを設定し、表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。
このように構成すると、初回撮影画像28が表示された場合に、今回又は次回の撮影において、撮影が一巡することが解る。
Further, in the sixth aspect, the stereo image photographing device 1C according to the thirteenth aspect of the present invention can input the fact that the photographer has made one round as shown in FIG. 21, for example, as shown in FIG. Is input, the overlap region setting unit 6 sets the one-round image overlap region 28c in the first shot image 28 which is the first shot image, and the display unit 4 The live image 25 and the live image 25 are displayed so as to overlap each other in the round image overlap area 28c.
With this configuration, it can be seen that when the first shot image 28 is displayed, shooting is completed in the current or next shooting.

また、本発明の第14の態様のステレオ画像撮影装置1Aは、第1ないし第9のいずれかの態様において、例えば図10及び図18に示すように、前回撮影画像21及びライブ画像25における測定対象物2の特徴点を抽出する特徴点抽出部7と、特徴点抽出部7により抽出された特徴点を用いて撮影部3のカメラの位置と傾きを求める標定部12と、標定部12で求められたカメラの位置と傾きを用いて、特徴点の三次元座標を求める三次元座標演算部14とを備え、重複領域設定部6は、三次元座標演算部14で求められた特徴点の三次元座標を用いて、前回撮影画像21とライブ画像25との重複領域を、前回撮影画像21に前回側重複領域21cとして、ライブ画像25にライブ側重複領域25cとして設定し、表示部4は、前回撮影画像21とライブ画像25とを、前回側重複領域21cとライブ側重複領域25cで測定対象物2の同じ部分が大略重なるよう、かつ両者共枠を付して全体が表示エリア26に含まれるように表示する。   In addition, the stereo image capturing device 1A according to the fourteenth aspect of the present invention, in any one of the first to ninth aspects, measures the previous captured image 21 and the live image 25 as shown in FIGS. 10 and 18, for example. A feature point extraction unit 7 that extracts feature points of the object 2, a location unit 12 that obtains the position and inclination of the camera of the photographing unit 3 using the feature points extracted by the feature point extraction unit 7, and a location unit 12 A three-dimensional coordinate calculation unit 14 for obtaining the three-dimensional coordinates of the feature points using the obtained camera position and tilt, and the overlapping area setting unit 6 includes the feature points obtained by the three-dimensional coordinate calculation unit 14. Using the three-dimensional coordinates, the overlap area between the previous captured image 21 and the live image 25 is set as the previous overlap area 21c in the previous captured image 21 and the live overlap area 25c in the live image 25, and the display unit 4 , Last time The image 21 and the live image 25 are included in the display area 26 so that the same portion of the measurement object 2 substantially overlaps in the previous overlap region 21c and the live overlap region 25c, and both are attached with a frame. To display.

ここにおいて、例えば前回側重複領域21c及びライブ側重複領域25cは重複する最外部の特徴点を繋ぎ、これに近似する四角形で表現しても良い。本態様のように構成すると、ライブ側重複領域25cにおける測定対象物2の画像をより正確に表示できる。また、重複領域23とライブ側重複領域25cの位置を比較することにより、撮影すべきか否かを判断できる。ずれが大きいときには重複領域23にライブ側重複領域25cを近づけるように移動し、両領域を合せて撮影すれば良い。また、ライブ側重複領域25cの位置に応じて、すなわち撮影方向に応じて、前回撮影画像21とライブ画像25及びこれらの枠の位置が変更されて表示される。   Here, for example, the previous overlap region 21c and the live overlap region 25c may be represented by a quadrangle that approximates and overlaps the overlapping outermost feature points. If comprised like this aspect, the image of the measuring object 2 in the live side overlapping area 25c can be displayed more accurately. Further, by comparing the positions of the overlapping area 23 and the live side overlapping area 25c, it can be determined whether or not to shoot. When the deviation is large, the live side overlapping area 25c may be moved closer to the overlapping area 23, and both areas may be photographed together. Further, according to the position of the live-side overlap area 25c, that is, according to the shooting direction, the previous shot image 21, the live image 25, and the positions of these frames are changed and displayed.

上記課題を解決するために、本発明の第15の態様のステレオ画像撮影方法は、例えば図7に示すように、測定対象物2を単カメラにより重複させながら順次撮影するステレオ画像撮影方法において、適時に測定対象物2を撮影して静止画像である撮影画像を取得する撮影工程(S110)と、カメラの位置移動に伴い測定対象物2のライブ画像を随時取得するライブ画像取得工程(S140)と、前回撮影された撮影画像である前回撮影画像21に、ライブ画像25との重複領域23を設定する重複領域設定工程(S130及びS180)と、前回撮影画像21とライブ画像25とを重複領域設定工程(S130及びS180)で設定された重複領域23で重ねて表示し、前回撮影画像21を重複領域23から撮影部3の移動方向と反対側に延長して表示し、ライブ画像25を重複領域23から撮影部3の移動方向と同じ側に延長して表示する表示工程(S190)とを備える。   In order to solve the above-described problem, a stereo image capturing method according to a fifteenth aspect of the present invention is a stereo image capturing method for sequentially capturing an object to be measured 2 with a single camera as shown in FIG. A photographing step (S110) for photographing the measurement object 2 in a timely manner to obtain a photographed image that is a still image, and a live image obtaining step (S140) for obtaining a live image of the measurement object 2 at any time as the camera moves. And an overlapping area setting step (S130 and S180) for setting an overlapping area 23 with the live image 25 on the previous captured image 21 that is the previously captured image, and an overlapping area between the previously captured image 21 and the live image 25. The overlapping area 23 set in the setting step (S130 and S180) is displayed in an overlapping manner, and the previous captured image 21 is displayed on the side opposite to the moving direction of the imaging unit 3 from the overlapping area 23. Extended to display, and a display step (S190) of displaying extend on the same side as the moving direction of the imaging unit 3 live images 25 from the overlap region 23.

本態様のように構成すると、表示部4の表示エリア26に、ライブ画像25を前回撮影画像21の重複領域23に重ねて表示でき、カメラが今回撮影予定画像22を撮影するのに適切な撮影位置に有るか否かをビジュアルに判定できる。これにより、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像21と今回撮影画像22との重複領域23を適切に定められるステレオ画像撮影方法を提供できる。   When configured in this manner, the live image 25 can be displayed in the display area 26 of the display unit 4 so as to be superimposed on the overlapping area 23 of the previous captured image 21, so that the camera can capture images suitable for capturing the current scheduled image 22. You can visually determine whether or not you are in position. Thus, when shooting is performed while moving using a single camera, it is possible to provide a stereo image shooting method in which an overlapping region 23 between the previous shot image 21 and the current shot image 22 can be appropriately determined.

本発明によれば、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, when image | photographing, moving using a single camera, the stereo image imaging device and its method which can define appropriately the duplication area | region of the last captured image and this captured image can be provided.

実施例1に係るステレオ画像撮影装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of a stereo image capturing device according to Embodiment 1. FIG. 表示エリアにおける重複領域を説明するための図である。It is a figure for demonstrating the duplication area | region in a display area. 前回撮影画像にライブ画像を重複して表示する例(その1)を示す図である。It is a figure which shows the example (the 1) which overlaps and displays a live image on the last picked-up image. 前回撮影画像にライブ画像を重複して表示する例(その2)を示す図である。It is a figure which shows the example (the 2) which overlaps and displays a live image on the last picked-up image. ステレオ画像における特徴点と対応点の例を示す図である。It is a figure which shows the example of the feature point and corresponding point in a stereo image. 対応点探索を説明するための図である。It is a figure for demonstrating corresponding point search. 実施例1に係る画像撮影の処理フロー例を示す図である。FIG. 5 is a diagram illustrating an example of a processing flow of image capturing according to the first embodiment. 前々回撮影画像及び前回撮影画像にライブ画像を重複して表示する例を示す図である。It is a figure which shows the example which displays a live image overlappingly on the last time photographed image and the last photographed image. 実施例2に係る画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing according to a second embodiment. 実施例3に係るステレオ画像撮影装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a stereo image capturing apparatus according to a third embodiment. 相互標定を説明するための図である。It is a figure for demonstrating mutual orientation. 偏位修正画像を説明するための図である。It is a figure for demonstrating a deviation correction image. 撮影画像と表示画像の倍率を説明するための図である。It is a figure for demonstrating the magnification of a picked-up image and a display image. ステレオ法を説明するため図である。It is a figure for demonstrating the stereo method. 実施例3に係る画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing according to a third embodiment. 初回撮影画像にライブ画像を重複して表示する例を示す図である。It is a figure which shows the example which overlaps and displays a live image on a first picked-up image. 実施例4に係る画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing according to a fourth embodiment. 撮影方向に応じて前回撮影画像とライブ画像及びこれらの枠の位置が変更されて表示される例を示す図である。It is a figure which shows the example displayed by changing the position of the last picked-up image, a live image, and these frames according to the imaging direction. 実施例6に係るステレオ画像撮影装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a stereo image photographing device according to Embodiment 6. 実施例6に係る画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing according to a sixth embodiment. 実施例7に係るステレオ画像撮影装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a stereo image capturing device according to Embodiment 7. 実施例7に係る画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing according to a seventh embodiment.

以下、図面を参照して、本発明の実施の形態について説明する。尚、各図において、互いに同一又は相当する部分には同一符号を付し、重複した説明は省略する。   Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.

実施例1では、表示部の表示エリアに前回撮影画像とライブ画像とを重複して表示する例で、カメラ移動方向判定部で撮影部の移動方向を求め、重複領域設定部はカメラ移動方向判定部で判定された移動方向と同じ側に重複領域を設定する例を説明する。   The first embodiment is an example in which the previously captured image and the live image are overlapped and displayed in the display area of the display unit. The camera moving direction determining unit obtains the moving direction of the photographing unit, and the overlapping region setting unit determines the camera moving direction. An example in which an overlapping area is set on the same side as the movement direction determined by the section will be described.

[装置構成]
図1は本発明の実施例1に係るステレオ画像撮影装置1の構成例を示すブロック図である。ステレオ画像撮影装置1は、カメラの位置移動に伴い測定対象物2のライブ画像を随時取得し、適時に測定対象物2を撮影して静止画像である撮影画像を取得する撮影部3、撮影画像及び画像処理した画像等を表示する表示部4、操作者がデータや指示等を入力する入力部9、撮影画像、ライブ画像及び画像処理した画像等を記憶する記憶部5、撮影部3で前回撮影された撮影画像である前回撮影画像に、ライブ画像との重複領域を設定する重複領域設定部6、撮影画像及びライブ画像から特徴点を抽出する特徴点抽出部7、特徴点抽出部7で抽出された特徴点の前回撮影画像とライブ画像における画面位置から、撮影部3の移動方向を求めるカメラ移動方向判定部8、ステレオ画像撮影装置1及びそれを構成する各部を制御する制御部10を備える。また、重複領域設定部6、特徴点抽出部7、カメラ移動方向判定部8、制御部10はパーソナルコンピュータ(PC)16内に構成される。これらの各部は、デジタルカメラ内の処理部に構成されても良いが、本実施例ではPC16内に構成するものとする。
[Device configuration]
FIG. 1 is a block diagram showing a configuration example of a stereo image photographing apparatus 1 according to the first embodiment of the present invention. The stereo image photographing device 1 obtains a live image of the measurement object 2 as needed as the camera moves, captures the measurement object 2 in a timely manner, and obtains a still image as a still image. And the display unit 4 for displaying the image processed image, the input unit 9 for the operator to input data and instructions, the storage unit 5 for storing the captured image, the live image, the image processed image, etc. An overlapping area setting unit 6 that sets an overlapping area with a live image on a previous captured image that is a captured image, a feature point extracting unit 7 that extracts feature points from the captured image and the live image, and a feature point extracting unit 7 From the screen position of the extracted feature point in the previous captured image and the live image, the camera movement direction determination unit 8 that determines the moving direction of the photographing unit 3, the stereo image photographing device 1, and the control unit 10 that controls each of the components. Provided. Further, the overlapping area setting unit 6, the feature point extraction unit 7, the camera movement direction determination unit 8, and the control unit 10 are configured in a personal computer (PC) 16. Each of these units may be configured as a processing unit in the digital camera, but in the present embodiment, it is configured in the PC 16.

本実施例に係るステレオ画像撮影装置1は、測定対象物2の全周囲撮影を行う等、多数の撮影画像を連結して測定対象物2の全体像を得るのに適している。また、測定対象物2の全体にわたって重複撮影を行ない、三次元計測するための撮影画像を得るのに適している。なお、画像については図2を参照されたい。
撮影部3は、単カメラ、例えばビデオカメラやデジタルカメラで構成される。撮影者は、撮影部3としての単カメラを用いて、例えば測定対象物2の周りを移動しながら、重複領域を設けて順次撮影する。測定対象物2の周囲360度にわたって連結した全周囲画像を得るためには、隣り合う撮影画像間に少しずつ重複領域を設けて撮影すれば良いが、三次元計測するには、重複領域を共有する2つの撮影画像をステレオ画像として、その重複領域から特徴点を抽出し、これらの特徴点の三次元座標を求めるため、測定対象物2の撮影領域全体にわたり重複して撮影することが必要である。
The stereo image photographing apparatus 1 according to the present embodiment is suitable for obtaining a whole image of the measurement object 2 by connecting a large number of photographed images, for example, photographing the entire circumference of the measurement object 2. In addition, it is suitable for obtaining a photographed image for performing three-dimensional measurement by performing duplicate photographing over the entire measurement object 2. Refer to FIG. 2 for images.
The photographing unit 3 is composed of a single camera such as a video camera or a digital camera. The photographer uses a single camera as the photographing unit 3 to sequentially capture images while providing an overlapping region while moving around the measurement object 2, for example. In order to obtain an all-around image connected 360 degrees around the object 2 to be measured, it is only necessary to provide an overlap region between adjacent photographed images, but for three-dimensional measurement, the overlap region is shared. In order to extract the feature points from the overlapping areas and to obtain the three-dimensional coordinates of these feature points, it is necessary to capture the entire shooting area of the measurement object 2 in duplicate. is there.

表示部4は、例えば、液晶ディスプレイ等のディスプレイを有する。少なくとも、測定対象物2の前回撮影画像21とライブ画像25とを重ねて表示エリア26に表示する。表示エリア26には撮影範囲より広い範囲を表示でき、シャッター操作により撮影される範囲はライブ画像25として表示されている範囲である。表示部4は、その他、前々回撮影画像、偏位修正画像等の画像処理した画像等を表示しても良い。また、音声表示する場合にはスピーカを有する。
入力部9は、例えばマウスやキーボードを有し、操作者がデータ及び指示を入力するために使用される。
The display unit 4 includes a display such as a liquid crystal display, for example. At least the previously captured image 21 and the live image 25 of the measurement object 2 are displayed in the display area 26 so as to overlap each other. The display area 26 can display a range wider than the shooting range, and the range shot by the shutter operation is the range displayed as the live image 25. In addition, the display unit 4 may display an image that has been subjected to image processing, such as a previously captured image and a displacement corrected image. In addition, a speaker is provided for voice display.
The input unit 9 includes, for example, a mouse and a keyboard, and is used for an operator to input data and instructions.

記憶部5は、例えばハードディスクで構成され、データベースとして使用される。撮影画像を記憶する撮影画像記憶部51、ライブ画像25を記憶するライブ画像記憶部52、偏位修正画像等の画像処理した画像を記憶する処理画像記憶部53、測定対象物2の特徴点や撮影位置の位置座標を記憶する位置座標記憶部54を有する。ビデオカメラではシャッター操作により通常は撮影画像を外部のメモリに記憶するが、内部メモリがあればそこに記憶される。デジタルカメラではシャッター操作により撮影画像を内部メモリに記憶する。また、撮影者が移動しながらビデオカメラ又はデジタルカメラで撮影されたライブ画像は常時ライブ画像記憶部52のテンポラリメモリに上書きされて、表示部4に転送される。また、ライブ画像から移動方向を判定するには画像処理を要する。このため、ライブ画像は適当なフレーム間隔又は時間間隔でサンプリングされ、ライブ画像記憶部52のメモリに所定期間(一時的に)保存される。所定期間は例えば移動方向を判定するのに充分な時間であれば良い。したがって、ライブ画像記憶部52はテンポラリメモリとサンプリングされたライブ画像を記憶するメモリを有する。記憶部5としてカメラの内部メモリを用いても良いが、PC16のハードディスクを用いる方が高速、多様な処理に適しているので好ましい。本実施例では、外部メモリを用いるカメラでは撮影画像を記憶部5に直接記憶し、内部メモリを用いるカメラでは撮影画像を記憶部5に転送するものとする。   The storage unit 5 is composed of, for example, a hard disk and is used as a database. A captured image storage unit 51 that stores the captured image, a live image storage unit 52 that stores the live image 25, a processed image storage unit 53 that stores an image-processed image such as a displacement corrected image, and a feature point of the measurement object 2 A position coordinate storage unit 54 that stores the position coordinates of the photographing position is provided. In a video camera, a photographed image is usually stored in an external memory by a shutter operation, but if there is an internal memory, it is stored there. In a digital camera, a photographed image is stored in an internal memory by a shutter operation. In addition, live images taken by the video camera or digital camera while the photographer moves are always overwritten in the temporary memory of the live image storage unit 52 and transferred to the display unit 4. Further, image processing is required to determine the moving direction from the live image. Therefore, the live image is sampled at an appropriate frame interval or time interval, and stored in the memory of the live image storage unit 52 for a predetermined period (temporarily). The predetermined period may be a time sufficient for determining the moving direction, for example. Therefore, the live image storage unit 52 has a temporary memory and a memory for storing the sampled live image. Although the internal memory of the camera may be used as the storage unit 5, it is preferable to use the hard disk of the PC 16 because it is suitable for various processes at high speed. In this embodiment, a camera using an external memory stores a captured image directly in the storage unit 5, and a camera using an internal memory transfers the captured image to the storage unit 5.

[重複領域設定部]
重複領域設定部6は、撮影部3で前回撮影された撮影画像である前回撮影画像21にライブ画像25との重複領域23を設定する。この重複領域23は前回撮影画像21と今回撮影予定の撮影画像である今回撮影画像22とを重ねて撮影する領域でもある。表示部4の表示エリア26において、ライブ画像25おける重複領域であるライブ画像重複領域25aの画像が、前回撮影画像21における重複領域23の画像と大略一致した時に撮影を行えば、予定した今回撮影画像22を得ることができる。重複領域設定部6では、重複領域23について重複割合と重複方向を設定する。重複方向に関して、本実施例では、カメラ移動方向判定部8で判定された移動方向と同じ側に重複領域23を設定する。例えば、撮影者が撮影部3を所持して、測定対象物2の周りを右回りに移動した場合には、前回撮影画像21について右側に重複領域23が設定され、表示される。なお、表示エリア26には撮影範囲より広い範囲を表示でき、シャッター操作により撮影される範囲はライブ画像25として表示されている範囲である。したがって、ライブ画像25おける重複領域であるライブ画像重複領域25aの画像が、前回撮影画像21における重複領域23の画像と一致しない時に撮影を行えば、予定した今回撮影画像22とずれた撮影画像が得られる。ところで、大略一致するとは、完全に一致しなくてもマージン内で一致すれば良いとの意味である。重複領域をマージンを持たせて設定すれば、マージン内で一致すれば問題ないからである。例えば、三次元計測用には重複割合を50%強に設定すれば良いので、重複割合を60%に設定すれば、±5%のずれは問題ないし、±10%弱まで許容可能である。そして、マージン内でずれが生じても、次の撮影で意図的に逆方向にずらして撮影することにより充分挽回可能である。勿論、できるだけ一致させることが画像処理の均一性を保つ上で好ましく、例えば±3%以内とすることが好ましい。また、状況に応じて重複割合を任意に設定できる。例えば、測定対象物2の観察を細かく行ないたい時、特徴点の追跡を細かく行いたい時には90%に設定し、測定対象物2の観察を粗く行なっても良い時、特徴点の追跡を粗く行なっても良い時には55%に設定する等である。
[Overlapping area setting section]
The overlapping area setting unit 6 sets the overlapping area 23 with the live image 25 in the previous captured image 21 that is the captured image previously captured by the capturing unit 3. This overlapping area 23 is also an area in which the previously captured image 21 and the current captured image 22 which is the captured image scheduled to be captured this time are overlapped and captured. In the display area 26 of the display unit 4, if shooting is performed when the image of the live image overlap area 25 a that is an overlap area in the live image 25 substantially coincides with the image of the overlap area 23 in the previous shot image 21, the scheduled current shooting is performed. An image 22 can be obtained. The overlapping area setting unit 6 sets the overlapping ratio and the overlapping direction for the overlapping area 23. With respect to the overlapping direction, in this embodiment, the overlapping area 23 is set on the same side as the moving direction determined by the camera moving direction determination unit 8. For example, when the photographer has the photographing unit 3 and moves clockwise around the measurement object 2, the overlapping region 23 is set and displayed on the right side of the previous photographed image 21. The display area 26 can display a range wider than the shooting range, and the range shot by the shutter operation is the range displayed as the live image 25. Therefore, if shooting is performed when the image of the live image overlapping area 25a, which is the overlapping area in the live image 25, does not match the image of the overlapping area 23 in the previous captured image 21, a captured image that deviates from the scheduled current captured image 22 is obtained. can get. By the way, “matching roughly” means that it is sufficient that they match within the margin even if they do not match completely. This is because if the overlapping area is set with a margin, there is no problem if the overlapping areas match. For example, since the overlap ratio may be set to a little over 50% for three-dimensional measurement, if the overlap ratio is set to 60%, a deviation of ± 5% is not a problem, and a tolerance of slightly less than ± 10% is acceptable. Even if a deviation occurs within the margin, it can be sufficiently recovered by intentionally shifting the image in the reverse direction in the next image capturing. Of course, it is preferable to match as much as possible in order to maintain the uniformity of the image processing, for example, within ± 3%. In addition, the overlap ratio can be arbitrarily set according to the situation. For example, when it is desired to finely observe the measurement object 2 or to finely track the feature point, it is set to 90%. When the measurement object 2 may be coarsely observed, the feature point is coarsely tracked. For example, it may be set to 55%.

図2は表示エリアにおける重複領域を説明するための図である。図2(a)はデジタルカメラの表示部4に、図2(b)は平面に、表示エリア26における重複状況を示す。撮影部3としてのデジタルカメラに付属する表示部4の表示エリア26(図2(a)において外側の太い実線枠で囲まれた領域)に、測定対象物2としての自動車が表示されている。内側の実線枠内が前回撮影画像21であり、表示エリア26の左側、ここでは左端の近くに配置され、破線枠内がライブ画像25であり、表示エリア26の右側、ここでは右端の近くに配置されている。すなわち、撮影部3の移動方向が右方向の場合である。表示エリア26の中央に内側の実線枠内かつ破線枠内の部分があり、前回撮影画像21とライブ画像25との重複領域(オーバーラップ領域)23となっている。この重複領域23は前回撮影画像21と今回撮影予定の撮影画像である今回撮影画像22とを重ねて撮影する領域でもある。重複割合は約60%である。前回撮影画像21とライブ画像25とが重複領域23で重ねて表示され、前回撮影画像21は重複領域23から左側(撮影部3の移動方向と反対側)に延長して表示され、ライブ画像25は重複領域23から右側(撮影部3の移動方向と同じ側)に延長して表示されている。前回撮影画像21において、延長して表示されている部分を延長領域24、ライブ画像25において、重複領域23にある部分がライブ画像重複領域25a、延長して表示されている部分がライブ画像延長領域25bである。ライブ画像重複領域25aにおける測定対象物2の画像が、重複領域23における測定対象物2の画像と大略一致した時に撮影を行えば、予定した今回撮影画像22を得ることができる。   FIG. 2 is a diagram for explaining an overlapping area in the display area. FIG. 2A shows the overlapping state in the display area 26, and FIG. A car as the measurement object 2 is displayed in a display area 26 (a region surrounded by a thick solid line frame on the outside in FIG. 2A) of the display unit 4 attached to the digital camera as the photographing unit 3. The inside solid line frame is the previous photographed image 21, which is arranged on the left side of the display area 26, here near the left end, and the broken line frame is the live image 25, on the right side of the display area 26, here near the right end. Has been placed. That is, this is a case where the moving direction of the photographing unit 3 is the right direction. In the center of the display area 26, there is a portion within the inner solid line frame and within the broken line frame, which is an overlapping region (overlap region) 23 between the previous captured image 21 and the live image 25. This overlapping area 23 is also an area in which the previously captured image 21 and the current captured image 22 which is the captured image scheduled to be captured this time are overlapped and captured. The overlap ratio is about 60%. The previously captured image 21 and the live image 25 are displayed so as to overlap each other in the overlapping area 23, and the previous captured image 21 is displayed extending from the overlapping area 23 to the left (opposite to the moving direction of the capturing unit 3). Is displayed extending from the overlapping area 23 to the right side (the same side as the moving direction of the photographing unit 3). In the previous captured image 21, the extended portion is the extended region 24, and in the live image 25, the portion in the overlapping region 23 is the live image overlapping region 25a, and the extended portion is the live image extended region. 25b. If shooting is performed when the image of the measurement object 2 in the live image overlap area 25a substantially coincides with the image of the measurement object 2 in the overlap area 23, the scheduled current captured image 22 can be obtained.

図3に前回撮影画像にライブ画像を重複して表示する例(その1)を示す。測定対象物2は自動車である。図3(a)に前回撮影画像21を、図3(b)に今回撮影予定の今回撮影画像22を、図3(c)にライブ画像25を、図3(d)に、前回撮影画像21にライブ画像25を重複した画像を示す。なお、画像の符号については図2を参照されたい。図3(a)において、前回撮影画像21について破線の右側半分強に重複領域23が設定され、左側半分弱が延長領域24である。図3(b)の今回撮影画像22及び図3(c)のライブ画像25では、左側半分強が前回撮影画像21に設定された重複領域23に重なる部分である。すなわち、ライブ画像25では左側半分強がライブ画像重複領域25a、右側半分弱がライブ画像延長領域25bである。図3(d)では、左側2/3強に前回撮影画像が、右側2/3強にライブ画像が配置され、中央1/3強の重複領域23において、前回撮影画像21とライブ画像25が重複表示されている。図では、ライブ画像25が点線で囲まれた方で、前回撮影画像21に比してやや上側にずれて表示されている。カメラの位置とアングルを調整して、重複領域23において、前回撮影画像21とライブ画像25における測定対象物2の同じ部分が大略重なる時に撮影を行えば、予定した今回撮影画像22を得ることができる。   FIG. 3 shows an example (part 1) in which a live image is displayed in an overlapping manner with a previously captured image. The measurement object 2 is an automobile. FIG. 3A shows the previously captured image 21, FIG. 3B shows the current captured image 22 scheduled to be captured this time, FIG. 3C shows the live image 25, and FIG. 3D shows the previously captured image 21. Shows an image in which the live image 25 is overlapped. Refer to FIG. 2 for image codes. In FIG. 3A, the overlap region 23 is set to the right half of the broken line in the previous photographed image 21, and the left half is the extension region 24. In the current captured image 22 in FIG. 3B and the live image 25 in FIG. 3C, the left half is a portion that overlaps the overlapping region 23 set in the previous captured image 21. That is, in the live image 25, the left half is the live image overlap area 25a, and the right half is the live image extension area 25b. In FIG. 3D, the previous captured image is arranged on the left 2/3 slightly, the live image is disposed on the right 2/3, and the previously captured image 21 and the live image 25 are displayed in the overlap area 23 of the center 1/3 slightly. Duplicate display. In the figure, the live image 25 is surrounded by a dotted line and is displayed slightly shifted upward from the previously captured image 21. If the position and angle of the camera are adjusted and shooting is performed when the same portion of the measurement object 2 in the previous captured image 21 and the live image 25 substantially overlaps in the overlapping region 23, the scheduled current captured image 22 can be obtained. it can.

図4に前回撮影画像にライブ画像を重複して表示する例(その2)を示す。測定対象物2は自動車である。図3では前回撮影画像21とライブ画像25を左右に並べて表示する例を示したが、図4では前回撮影画像21とライブ画像25を上下に並べて表示する例を示す。図では、ライブ画像25は点線で囲まれた方で、下側に示されている。中央の矢印の範囲が重複領域23である。ライブ画像25はやや右側にずれて表示されている。図3の場合と同様に、カメラの位置とアングルを調整して、重複領域23において、前回撮影画像21とライブ画像25における測定対象物2の同じ部分が大略重なる時に撮影を行えば、予定した今回撮影画像22を得ることができる。   FIG. 4 shows an example (part 2) in which a live image is displayed in an overlapping manner with a previously captured image. The measurement object 2 is an automobile. FIG. 3 shows an example in which the previous captured image 21 and the live image 25 are displayed side by side, but FIG. 4 shows an example in which the previous captured image 21 and the live image 25 are displayed side by side. In the figure, the live image 25 is shown on the lower side in a direction surrounded by a dotted line. The range of the center arrow is the overlapping region 23. The live image 25 is displayed slightly shifted to the right side. As in the case of FIG. 3, if the position and angle of the camera are adjusted and shooting is performed when the same portion of the measurement object 2 in the previous captured image 21 and the live image 25 substantially overlaps in the overlapping region 23, the scheduled operation is performed. The captured image 22 can be obtained this time.

[特徴点抽出部]
特徴点抽出部7は、撮影画像から特徴点を抽出する。特徴点には、例えば測定対象物2の中心位置、重心位置、コーナー位置、他と異なる特徴を有する位置、測定対象物2に貼付された又は投影された標識などがある。特徴点抽出には特徴抽出オペレータが使用される。ここではモラベック(MORAVEC)オペレータを用いる例を説明する。
[Feature point extraction unit]
The feature point extraction unit 7 extracts feature points from the captured image. The feature points include, for example, the center position, the center of gravity position, the corner position of the measurement object 2, a position having a different characteristic from others, and a sign affixed or projected on the measurement object 2. A feature extraction operator is used for feature point extraction. Here, an example in which a Moravec operator is used will be described.

MORAVECオペレータは、汎用の特徴抽出器として古くから使用されている。MORAVECオペレータは、例えば、ある注目画素の周囲3×3画素をマスクとし、マスクが注目画素の周囲4方向に各1画素移動した際の濃度差分(方向濃度差分)の最小値をその注目画素の特徴量とする。処理が単純で高速であること、比較的容易にハード化が可能なことなどが特徴である。なお、高速処理を行うためには、画像の数倍のメモリが必要となる。ここではモラベックオペレータによる特徴点抽出を説明したが、他のオペレータ、例えばハリスオペレータやその他のもの、特徴点を検出できるものならなんでもよい。   The MORAVEC operator has long been used as a general-purpose feature extractor. The MORAVEC operator uses, for example, a 3 × 3 pixel around a certain target pixel as a mask, and sets the minimum value of the density difference (direction density difference) when the mask moves one pixel in each of the four directions around the target pixel. The feature value. It is characterized by simple and high-speed processing and relatively easy hardware. In order to perform high-speed processing, a memory several times as large as an image is required. Although the feature point extraction by the Moravec operator has been described here, other operators, for example, the Harris operator and others, and anything that can detect feature points may be used.

[カメラ移動方向判定部]
カメラ移動方向判定部8は、特徴点抽出部7で抽出された特徴点の前回撮影画像21とライブ画像25における画面位置から、又はライブ画像25間における画面位置の変化から、撮影部3の移動方向を求める。すなわち、前回撮影画像21とライブ画像25をステレオ画像として、前回撮影画像の特徴点とライブ画像の特徴点とを対応付け、ライブ画像25の特徴点の前回撮影画像21の特徴点に対する移動ベクトルを求め、重複領域内で平均化し、平均移動ベクトルと反対方向を撮影部3の移動方向として求めることができる。特徴点の対応付け(対応点探索)は対応点探索部8aで行う。また、ライブ画像の特徴点を追跡し、ライブ画像間の特徴点の変化から平均移動ベクトルを求め、同じ方向への移動が所定回数(例えば3回以上)続いた時に、移動方向を求めても良い。なお、所定回数は1回でも良く、特徴点の追跡を省略しても良い。なお、予定の撮影位置から行き過ぎた位置でシャッター操作しライブ画像を撮影してしまった場合には、撮影者が破棄信号を入力することにより、今回撮影画像を破棄可能とするのが好ましい。その後、撮影者が前回撮影画像の撮影位置に戻って移動するのが、カメラ移動方向判定部8の判定を確実にする上で好適である。
[Camera moving direction determination unit]
The camera movement direction determination unit 8 moves the photographing unit 3 from the screen position of the feature point extracted by the feature point extraction unit 7 in the previous captured image 21 and the live image 25 or from the change in the screen position between the live images 25. Find the direction. That is, using the previously captured image 21 and the live image 25 as a stereo image, the feature points of the previously captured image are associated with the feature points of the live image, and the movement vector of the feature point of the live image 25 with respect to the feature point of the previously captured image 21 is obtained. It can be obtained and averaged in the overlapping area, and the direction opposite to the average movement vector can be obtained as the moving direction of the photographing unit 3. Correspondence of feature points (corresponding point search) is performed by the corresponding point search unit 8a. It is also possible to track a feature point of a live image, obtain an average movement vector from changes in feature points between live images, and obtain a moving direction when movement in the same direction has continued a predetermined number of times (for example, three times or more). good. Note that the predetermined number of times may be one time, and tracking of feature points may be omitted. When a live image is shot by operating the shutter at a position that is too far from the planned shooting position, it is preferable that the photographed image can be discarded by inputting a discard signal by the photographer. After that, it is preferable for the photographer to move back to the shooting position of the previous captured image in order to ensure the determination by the camera movement direction determination unit 8.

図5はステレオ画像における特徴点と対応点の例を示す図である。図5(a)は左画像から抽出された特徴点、図5(b)は右画像から抽出された特徴点、図5(c)は対応付けされた特徴点を示す。左画像と右画像はステレオペアを構成し、左右に僅かにずれた位置で撮影されている。左画像及び右画像において、測定対象物2としての自動車に付された多数の点の位置が特徴点として抽出された点の位置である。対応点探索によりこれらの特徴点の大部分が対応付けられ、図5(c)において三次元座標空間(ここでは透視図を使用)に表示されている。これらの特徴点には特徴点番号が付され、三次元位置座標及び左右画像における位置座標が位置座標記憶部54に記憶される。   FIG. 5 is a diagram illustrating an example of feature points and corresponding points in a stereo image. FIG. 5A shows feature points extracted from the left image, FIG. 5B shows feature points extracted from the right image, and FIG. 5C shows associated feature points. The left image and the right image form a stereo pair, and are photographed at a position slightly shifted left and right. In the left image and the right image, the positions of many points attached to the automobile as the measurement object 2 are the positions of the points extracted as feature points. Most of these feature points are associated by the corresponding point search, and are displayed in a three-dimensional coordinate space (here, a perspective view is used) in FIG. These feature points are assigned feature point numbers, and the three-dimensional position coordinates and the position coordinates in the left and right images are stored in the position coordinate storage unit 54.

図6はステレオ画像間の特徴点を対応付ける対応点探索を説明するための図である。対応付けには相互相関処理を使用する。図6に示すようにN×N画素のテンプレート画像を、それより大きいM×M画素の入力画像内の探索範囲(M−N+1)上で動かし、次式のC(a,b)が最大になるようなテンプレート画像の左上位置(a,b)を求めて、テンプレート画像に対し探索されたとみなす。左右画像の場合には、例えば左画像上にN×N画素のテンプレート画像を設定し、右画像上にM×M画素の探索領域を設定し、この操作を各画像上での位置について行えばよい。 FIG. 6 is a diagram for explaining a corresponding point search for associating feature points between stereo images. Cross-correlation processing is used for the association. As shown in FIG. 6, the template image of N 1 × N 1 pixel is moved on the search range (M 1 −N 1 +1) 2 in the input image of M 1 × M 1 pixel larger than that, and the following C The upper left position (a, b) of the template image that maximizes (a, b) is obtained, and it is considered that the template image has been searched. In the case of left and right images, for example, a template image of N 1 × N 1 pixel is set on the left image, a search region of M 1 × M 1 pixel is set on the right image, and this operation is performed on each image. What is necessary is just to do about a position.

[相互相関処理]
ここでは、対応点探索に関し、正規化相互相関処理について説明したが、他の手法、例えば、残差逐次検定法(SSDA)などを用いてもよい。
[Correlation processing]
Here, the normalized cross-correlation processing has been described with respect to the corresponding point search, but other methods, for example, a residual sequential test method (SSDA) may be used.

制御部10は、内臓メモリに制御プログラムを有し、ステレオ画像撮影装置1及びこれを構成する各部を制御し、信号及びデータの流れを制御し、ステレオ画像撮影装置としての機能を実行させる。   The control unit 10 has a control program in the built-in memory, controls the stereo image capturing device 1 and each unit constituting the same, controls the flow of signals and data, and executes functions as a stereo image capturing device.

図7に本実施例に係る画像撮影の処理フロー例を示す。表示エリアに前回撮影画像とライブ画像を重複して表示する例を説明する。
まず、撮影部3のシャッター操作により、測定対象物2を撮影する(撮影工程:S110)。撮影された撮影画像は撮影画像記憶部51に記憶される。次に、撮影画像を表示部4の表示エリア26に表示し(撮影画像表示工程:S120)、重複領域設定部6において、撮影工程で撮影され、撮影画像表示工程で表示されている前回撮影画像21に重複割合の設定を行なう(重複割合設定工程:S130)。重複領域23の設定は重複割合と重複方向について行なう。重複領域設定工程は重複割合設定工程(S130)と後述する重複方向設定工程(S180)からなる。ここではまず、重複割合の設定を行なうが、重複方向については仮設定を行なう。例えば入力部9からキーボードを用いて「右(側)」、「60(%)」と入力すると、撮影画像表示工程(S120)で表示エリア26に表示された前回撮影画像21において、重複領域23が枠で囲まれて表示される。撮影者が例えばマウスで表示画面の確認ボタンをクリックすると、重複割合が設定され、重複方向が仮設定される。重複方向は後の重複方向設定工程(S180)で本設定される。次に、ライブ画像を取得する(ライブ画像取得工程:S140)。ライブ画像は常時ライブ画像記憶部52のテンポラリメモリに上書きされ、表示部4に転送される。また、適当なフレーム間隔又は時間間隔でサンプリングされ、ライブ画像記憶部52に所定期間(一時的に)保存される。例えば重複割合が「60(%)」と設定され、重複方向が「右(側)」と仮設定されている場合には、前回撮影画像21の60%が重複領域23となり、表示エリア26において前回撮影画像21は重複領域23から左側に延長して表示され(すなわち、重複領域及びその左側に表示され)、ライブ画像は重複領域から右側に延長して表示される(すなわち、重複領域及びその右側に表示される)。また、例えば重複方向の仮設定を省略し、重複方向が本設定されるまで、ライブ画像25を表示エリア26の中央に表示しても良い。
FIG. 7 shows an example of a processing flow of image capturing according to the present embodiment. An example in which the previously captured image and the live image are displayed in the display area in an overlapping manner will be described.
First, the measurement object 2 is imaged by the shutter operation of the imaging unit 3 (imaging process: S110). The captured image is stored in the captured image storage unit 51. Next, the captured image is displayed in the display area 26 of the display unit 4 (captured image display step: S120), and the overlapped region setting unit 6 captures the previous captured image that was captured in the capturing step and displayed in the captured image display step. An overlap ratio is set in 21 (overlap ratio setting step: S130). The overlap area 23 is set for the overlap ratio and the overlap direction. The overlapping area setting process includes an overlapping ratio setting process (S130) and an overlapping direction setting process (S180) described later. Here, the overlap ratio is set first, but the overlap direction is set temporarily. For example, when “right (side)” and “60 (%)” are input from the input unit 9 using the keyboard, the overlap area 23 in the previous captured image 21 displayed in the display area 26 in the captured image display step (S120). Is displayed surrounded by a frame. When the photographer clicks a confirmation button on the display screen with a mouse, for example, the overlap ratio is set, and the overlap direction is temporarily set. The overlapping direction is set in the subsequent overlapping direction setting step (S180). Next, a live image is acquired (live image acquisition step: S140). The live image is always overwritten in the temporary memory of the live image storage unit 52 and transferred to the display unit 4. In addition, sampling is performed at an appropriate frame interval or time interval and stored in the live image storage unit 52 for a predetermined period (temporarily). For example, when the overlapping ratio is set to “60 (%)” and the overlapping direction is temporarily set to “right (side)”, 60% of the previous captured image 21 becomes the overlapping area 23 and is displayed in the display area 26. The previous captured image 21 is displayed extending from the overlapping area 23 to the left side (ie, the overlapping area and the left side thereof), and the live image is displayed extending from the overlapping area to the right side (ie, the overlapping area and its area). On the right). Further, for example, the temporary setting of the overlapping direction may be omitted, and the live image 25 may be displayed in the center of the display area 26 until the overlapping direction is finally set.

次に、前回撮影画像21及びライブ画像25から特徴点を抽出する(特徴点抽出工程:S150)。ライブ画像25については、適当なフレーム間隔又は時間間隔でサンプリングされた画像のうち、例えば前回撮影画像21の撮影から所定時間(例えば3sec)経過後の画像を選択して特徴点を抽出する。前回撮影画像21及びライブ画像25をステレオ画像として、重複し合う特徴点について対応点探索部8aにて対応付けを行う。カメラ移動方向判定部8は、前回撮影画像21の特徴点に対するライブ画像25の対応点(対応点探索部8aにより対応付けられた特徴点)の平均移動ベクトルから、平均移動ベクトルと反対方向を撮影部3の移動方向として求めることができる。次にライブ画像25について特徴点の追跡を行なう(特徴点追跡工程:S160)。例えば前回撮影画像21の撮影から3sec後のライブ画像の他に6sec後のライブ画像と9sec後のライブ画像を選択する。3sec後のライブ画像の特徴点に対し6sec後のライブ画像の対応点を探索して、平均移動ベクトルを求める。また、6sec後のライブ画像の特徴点に対し9sec後のライブ画像の対応点を探索して、平均移動ベクトルを求める。このようにしてライブ画像の特徴点を追跡できる。なお、状況に応じて追跡の時間間隔を任意に設定できる。例えば、特徴点の追跡を細かく行いたい時には1secに設定し、特徴点の追跡を粗く行なっても良い時には5secに設定する等である。次に、カメラ移動方向判定部8は特徴点抽出部7で抽出された特徴点の前回撮影画像21とライブ画像25における画面位置から、又はライブ画像間における画面位置の変化から撮影部3の移動方向を求める(移動方向判定工程:S170)。例えば、前回撮影画像21とライブ画像25から求めた平均移動ベクトルの方向と反対方向を撮影部3の移動方向として求めることができる。また、ライブ画像間の特徴点を追跡し、平均移動ベクトルの方向が、同じ方向(例えば左方向)に例えば3回以上続けば、平均移動ベクトルの方向と反対方向を撮影部3の移動方向として求めても良い。 Next, feature points are extracted from the previous captured image 21 and live image 25 (feature point extraction step: S150). For the live image 25, for example, an image after a predetermined time (for example, 3 sec) has elapsed since the last captured image 21 was captured from images sampled at an appropriate frame interval or time interval, and feature points are extracted. Using the previously captured image 21 and the live image 25 as a stereo image, the corresponding point search unit 8a associates the overlapping feature points. The camera movement direction determination unit 8 captures a direction opposite to the average movement vector from the average movement vector of the corresponding point of the live image 25 with respect to the feature point of the previously captured image 21 (the feature point associated with the corresponding point search unit 8a). It can be obtained as the moving direction of the part 3. Next, feature points are tracked for the live image 25 (feature point tracking step: S160). For example, a live image after 6 sec and a live image after 9 sec are selected in addition to the live image after 3 sec since the last captured image 21 was captured. The corresponding point of the live image after 6 sec is searched for the feature point of the live image after 3 sec, and the average movement vector is obtained. Further, the corresponding point of the live image after 9 sec is searched for the feature point of the live image after 6 sec, and the average movement vector is obtained. In this way, the feature points of the live image can be tracked. The tracking time interval can be arbitrarily set according to the situation. For example, 1 sec is set when it is desired to track feature points finely, and 5 sec is set when the feature points may be tracked coarsely. Next, the camera movement direction determination unit 8 moves the photographing unit 3 from the screen position of the feature point extracted by the feature point extraction unit 7 in the previous captured image 21 and the live image 25 or from the change in the screen position between live images. A direction is obtained (moving direction determination step: S170). For example, a direction opposite to the direction of the average movement vector obtained from the previous photographed image 21 and live image 25 can be obtained as the movement direction of the photographing unit 3. Further, if the feature points between the live images are tracked and the direction of the average movement vector continues in the same direction (for example, the left direction) for example three times or more, the direction opposite to the direction of the average movement vector is set as the movement direction of the photographing unit 3. You may ask.

次に、重複領域設定部6は、重複方向を本設定する(重複方向設定工程:S180)。重複領域設定部6は、カメラ移動方向判定部8で判定された移動方向と同じ側に、前回撮影画像21にライブ画像25との重複領域23を設定する。例えば、撮影部3の移動方向が右方向と判定された場合には、前回撮影画像21について右側に重複領域23を設定する。次に、表示部4は、表示エリア26に前回撮影画像21とライブ画像25を重複して表示する(表示工程:S190)。例えば重複領域が「右(側)」、「60(%)」と本設定された場合には、前回撮影画像の60%が重複領域23となり、表示エリア26において前回撮影画像21は重複領域23から撮影部3の移動方向と反対側である左側に延長して表示され、ライブ画像25は重複領域23から撮影部3の移動方向と同じ側である右側に表示される。   Next, the overlapping area setting unit 6 performs the main setting of the overlapping direction (overlapping direction setting step: S180). The overlapping area setting unit 6 sets an overlapping area 23 with the live image 25 in the previous captured image 21 on the same side as the movement direction determined by the camera movement direction determination unit 8. For example, when it is determined that the moving direction of the photographing unit 3 is the right direction, the overlapping region 23 is set on the right side of the previous photographed image 21. Next, the display unit 4 displays the previously captured image 21 and the live image 25 in the display area 26 in an overlapping manner (display process: S190). For example, when the overlap area is set to “right (side)” and “60 (%)”, 60% of the previous captured image becomes the overlap area 23, and the previous captured image 21 in the display area 26 is the overlap area 23. The live image 25 is displayed on the right side which is the same side as the moving direction of the photographing unit 3 from the overlapping area 23.

次に、撮影者は表示エリア26における前回撮影画像21とライブ画像25との重複状況を監視し、撮影位置及びカメラアングルが適切か否かを判断する(カメラ位置判定工程:S210)。重複領域23において、前回撮影画像21とライブ画像25における測定対象物2の同じ部分が大略重なる時に撮影を行えば、予定した今回撮影画像22を得ることができる。重複領域23において、前回撮影画像21とライブ画像25にずれがある場合(S210でNO)には、撮影位置やカメラアングルを調整し、ライブ画像取得工程(S140)〜画像表示工程(S190)を繰り返す。前回撮影画像21とライブ画像25における測定対象物2の同じ部分が大略重なる場合(S210でYES)には、撮影枚数が予め予定した枚数に達したか否かを判定する(撮影終了判定工程:S220)。例えば、撮影予定枚数を制御部10に予め登録しておき、撮影の度に撮影枚数が計数され、制御部10は計数された撮影枚数を登録された撮影予定枚数と比較して、計数された撮影枚数<撮影予定枚数のとき(S220でNO)は、撮影工程(S110)〜カメラ位置判定工程(S210)を繰り返す。計数された撮影枚数≧撮影予定枚数のとき(S220でYES)は、画像撮影の処理フローを終了する。なお、撮影予定枚数の登録をしない場合には撮影終了判定工程(S220)で、撮影者が終了するか否かを判断する。   Next, the photographer monitors whether or not the previously captured image 21 and the live image 25 overlap in the display area 26, and determines whether or not the shooting position and the camera angle are appropriate (camera position determination step: S210). If an image is taken when the same portion of the measurement object 2 in the previous captured image 21 and the live image 25 substantially overlaps in the overlapping area 23, the scheduled current captured image 22 can be obtained. If there is a difference between the previously captured image 21 and the live image 25 in the overlapping area 23 (NO in S210), the shooting position and the camera angle are adjusted, and the live image acquisition process (S140) to the image display process (S190) are performed. repeat. When the same portion of the measurement object 2 in the previous captured image 21 and the live image 25 substantially overlaps (YES in S210), it is determined whether or not the number of captured images has reached a predetermined number (photographing end determination step: S220). For example, the scheduled number of shots is registered in the control unit 10 in advance, and the number of shots is counted for each shot, and the control unit 10 compares the counted number of shots with the registered scheduled number of shots. When the number of shots <the number of shots to be shot (NO in S220), the shooting step (S110) to the camera position determination step (S210) are repeated. When the counted number of shots ≧ the scheduled number of shots (YES in S220), the image shooting process flow ends. If the scheduled number of shots is not registered, it is determined in the shooting end determination step (S220) whether the photographer ends.

以上説明したように、本実施例によれば、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。   As described above, according to the present embodiment, in the case of shooting while moving using a single camera, a stereo image shooting apparatus and method for appropriately determining an overlapping area between a previous shot image and a current shot image Can provide.

実施例1では、表示部の表示エリアに前回撮影画像とライブ画像とを重複して表示する例を説明したが、実施例2では、表示部の表示エリアに前々回撮影画像、前回撮影画像とライブ画像とを重複して表示する例を説明する。ステレオ画像撮影装置1の構成は実施例1と同様である。実施例1と異なる点を主に説明する。   In the first embodiment, an example in which the previously captured image and the live image are displayed in the display area of the display unit in an overlapping manner has been described. However, in the second embodiment, the previously captured image, the previously captured image and the live image are displayed in the display area of the display unit. An example in which images are displayed in duplicate will be described. The configuration of the stereo image photographing device 1 is the same as that of the first embodiment. Differences from the first embodiment will be mainly described.

図8に前々回撮影画像及び前回撮影画像にライブ画像を重複して表示する例を示す。図8(a)はデジタルカメラ3の表示部4に、図8(b)は平面に、カメラ表示エリア26を示す。デジタルカメラ3の表示部4の表示エリア26(図8(a)において外側の実線枠で囲まれた領域)に、測定対象物2としての自動車が表示されている。内側の実線枠内が前々回撮影画像27であり、表示エリア26の左側、ここでは左端の近くに配置され、一点鎖線枠内が前回撮影画像21であり、表示エリア26の中央に配置され、破線枠内がライブ画像25であり、表示エリア26の右側、ここでは右端の近くに配置されている。すなわち、撮影部3の移動方向が右方向の場合である。内側の実線枠内かつ一点鎖線枠内の部分が前々回撮影画像27と前回撮影画像21との重複領域(オーバーラップ領域)となっており、前々回撮影画像27に設定された前々回画像重複領域27aである。一点鎖線枠内かつ破線枠内の部分が前回撮影画像21とライブ画像25との重複領域(オーバーラップ領域)となっており、前回撮影画像21に設定された前回画像重複領域21aである。これらの重複領域の重複割合は約60%である。前々回撮影画像27の前々回画像重複領域27aから左側(撮影部3の移動方向と反対側)に延長する部分が前々回画像延長領域27b、また、前回撮影画像21の前回画像重複領域21aから左側(撮影部3の移動方向と反対側)に延長する部分が前回画像延長領域21b、ライブ画像25の前回画像重複領域21aと重なる部分がライブ画像重複領域25a、ライブ画像重複領域25aから右側に延長する部分がライブ画像延長領域25bである。   FIG. 8 shows an example in which a live image is displayed in an overlapped manner on the last-time photographed image and the previous photographed image. 8A shows the display unit 4 of the digital camera 3, and FIG. 8B shows the camera display area 26 on a plane. A car as the measurement object 2 is displayed in the display area 26 of the display unit 4 of the digital camera 3 (a region surrounded by an outer solid line frame in FIG. 8A). The inner solid line frame is the image 27 taken two times before and is arranged on the left side of the display area 26, here, near the left end, and the one-dot chain line frame is the previous photographed image 21, arranged in the center of the display area 26, and broken line The inside of the frame is a live image 25, which is arranged on the right side of the display area 26, here near the right end. That is, this is a case where the moving direction of the photographing unit 3 is the right direction. The inner solid line frame and the portion within the alternate long and short dash line frame form an overlapping area (overlap area) between the previous captured image 27 and the previous captured image 21, and the previous image repeated area 27 a set as the previous captured image 27. is there. The portion within the one-dot chain line frame and within the broken line frame is an overlapping region (overlap region) between the previous captured image 21 and the live image 25, and is the previous image overlapping region 21 a set to the previous captured image 21. The overlapping ratio of these overlapping areas is about 60%. The portion extending from the previous image overlap area 27a to the left side (opposite to the moving direction of the image capturing unit 3) of the previous image shot image 27 is the previous image extension area 27b and the left side of the previous image image 21 from the previous image overlap area 21a (shooting). The part extending in the direction opposite to the moving direction of the part 3) is the previous image extension area 21b, the part overlapping the previous image overlap area 21a of the live image 25 is the live image overlap area 25a, and the part extending rightward from the live image overlap area 25a. Is the live image extension area 25b.

また、内側の実線枠内かつ破線枠内の部分が前々回撮影画像27、前回撮影画像21とライブ画像25との三重の重複領域(オーバーラップ領域)となっており、タイ領域29である。タイ領域29の重複割合は約20%である。このように、ライブ画像25と前々回撮影画像27とを重複させることにより、測定対象物2の全撮影領域を重複撮影でき、測定対象物2の全撮影領域の三次元座標を求めることができる。ライブ画像25おけるライブ画像重複領域25aの画像が、前回撮影画像21おける前回画像重複領域21aの画像と大略一致した時に撮影を行えば、予定した今回撮影画像22を得ることができる。又は、タイ領域29における前々回撮影画像27とライブ画像25における測定対象物2の同一部分が大略重なる時に撮影を行えば、予定した今回撮影画像22を得ることができる。大略一致するとは、完全に一致しなくてもマージン内で一致すれば良いとの意味である。例えば、前々回画像重複領域27aについてライブ画像25と重複するためのマージンを持たせて設定すれば、マージン内で一致すれば問題ないからである。例えば、三次元計測用には前々回撮影画像27とライブ画像25とに重複領域があれば良いので、その重複割合を20%に設定すれば、±5%のずれは問題ないし、±20%弱まで許容可能である。そして、マージン内でずれが生じても、次の撮影で意図的に逆方向にずらして撮影することにより充分挽回可能である。勿論、できるだけ一致させることが画像処理の均一性を保つ上で好ましく、例えば±3%以内とすることが好ましい。なお、各重複領域の色、透明度を変えると各重複領域を区別し易くなる。特に、タイ領域29については、ハッチング等により区別し易くすることが好ましい。また、各画像の透明度を薄くすると、タイ領域29が他の部分より濃くなり、区別し易くなる。   Further, a portion within the inner solid line frame and the broken line frame is a triple overlap region (overlap region) of the previously captured image 27, the previous captured image 21 and the live image 25, and is a tie region 29. The overlapping ratio of the tie area 29 is about 20%. In this way, by overlapping the live image 25 and the previous captured image 27, it is possible to overlap the entire imaging region of the measurement object 2, and to obtain the three-dimensional coordinates of the entire imaging region of the measurement object 2. If shooting is performed when the image of the live image overlapping area 25a in the live image 25 substantially matches the image of the previous image overlapping area 21a in the previous captured image 21, the scheduled current captured image 22 can be obtained. Alternatively, if the photographing is performed when the same portion of the measurement object 2 in the tie region 29 and the measurement object 2 in the live image 25 substantially overlap each other, the planned current photographing image 22 can be obtained. The term “substantially match” means that it is only necessary to match within the margin even if they do not match completely. For example, if the image overlap area 27a is set with a margin for overlapping with the live image 25, the image overlap area 27a is not problematic as long as it matches within the margin. For example, since it is sufficient for the three-dimensional measurement to have an overlap area between the previously captured image 27 and the live image 25, if the overlap ratio is set to 20%, there is no problem with a deviation of ± 5%, and a little less than ± 20% Is acceptable. Even if a deviation occurs within the margin, it can be sufficiently recovered by intentionally shifting the image in the reverse direction in the next image capturing. Of course, it is preferable to match as much as possible in order to maintain the uniformity of the image processing, for example, within ± 3%. Note that it is easy to distinguish each overlapping area by changing the color and transparency of each overlapping area. In particular, it is preferable that the tie region 29 is easily distinguished by hatching or the like. Further, when the transparency of each image is reduced, the tie area 29 becomes darker than the other portions, and it becomes easy to distinguish.

図9に実施例2に係る画像撮影の処理フロー例を示す。本実施例では、表示エリア26に前々回撮影画像27、前回撮影画像21とライブ画像25を重複して表示する例を説明する。実施例1(図7参照)の画像表示工程(190)では、前回撮影画像21とライブ画像25とを表示するのに対して、実施例2では画像表示工程(192)において、前々回撮影画像27、前回撮影画像21とライブ画像25とを表示する点が異なる。したがって、ライブ画像25を前々回撮影画像27及び前回撮影画像21と重複させて見ることができる。特にタイ領域29での重複を確認して撮影画像を得ることができる。その他の処理フローは実施例1と同様であり、本実施例によれば、実施例1と同様に単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。   FIG. 9 shows an example of a processing flow of image capturing according to the second embodiment. In the present embodiment, an example will be described in which the previously captured image 27, the previously captured image 21 and the live image 25 are displayed in the display area 26 in an overlapping manner. In the image display process (190) of the first embodiment (see FIG. 7), the previous captured image 21 and the live image 25 are displayed. In contrast, in the second embodiment, the previously captured image 27 is displayed in the image display process (192). The difference is that the previously captured image 21 and the live image 25 are displayed. Therefore, the live image 25 can be viewed overlapping the previous captured image 27 and the previous captured image 21. In particular, it is possible to confirm the overlap in the tie area 29 and obtain a photographed image. Other processing flows are the same as those in the first embodiment, and according to this embodiment, when shooting is performed using a single camera as in the first embodiment, the previous captured image and the current captured image overlap. It is possible to provide a stereo image capturing apparatus and a method thereof in which a region can be appropriately determined.

実施例3では、実施例1に三次元位置測定機能を追加し、偏位修正画像の作成、測定対象物の特徴点の三次元位置座標、カメラの撮影位置が測定可能であり、偏位修正画像を用いて表示される画像の倍率を補正する例を説明する。実施例1と異なる点を主に説明する。   In the third embodiment, a three-dimensional position measurement function is added to the first embodiment, and a displacement correction image can be created, the three-dimensional position coordinates of the feature point of the measurement object, and the shooting position of the camera can be measured. An example of correcting the magnification of an image displayed using an image will be described. Differences from the first embodiment will be mainly described.

図10は本発明の実施例3に係るステレオ画像撮影装置1Aの構成例を示すブロック図である。ステレオ画像撮影装置1Aは、実施例1の構成(図1参照)に、三次元位置測定部11が追加されている。三次元位置測定部11は、特徴点抽出部7により抽出された特徴点を用いて撮影部3のカメラの位置と傾きを求める標定部12、標定部12で求められたカメラの位置と傾きを用いて、前回撮影画像及びライブ画像に偏位修正処理を施して、偏位修正画像を形成する偏位修正画像形成部13、標定部12で求められたカメラの位置と傾きを用いて、測定対象物2の特徴点及び撮影位置の三次元位置座標を演算する三次元座標演算部14を有する。   FIG. 10 is a block diagram illustrating a configuration example of a stereo image photographing device 1A according to the third embodiment of the present invention. In the stereo image photographing device 1A, a three-dimensional position measurement unit 11 is added to the configuration of the first embodiment (see FIG. 1). The three-dimensional position measurement unit 11 uses the feature points extracted by the feature point extraction unit 7 to determine the camera position and inclination of the photographing unit 3, and the camera position and inclination obtained by the orientation unit 12. Using the position and inclination of the camera obtained by the displacement correction image forming unit 13 and the orientation unit 12 for performing the displacement correction processing on the previously captured image and the live image to form the displacement correction image. It has a three-dimensional coordinate calculation unit 14 that calculates the three-dimensional position coordinates of the feature point of the object 2 and the shooting position.

[外部標定要素の算出:相互標定]
次に、左右画像の対応付けられた点から、相互標定法によってカメラの位置、傾きを求める方法について説明する。相互標定は標定部12にて行なわれる。
モデル画像とは、2枚以上の撮影画像から被写体が撮影されたときの状態に再現されたとき得られる立体像のことをいう。相対的に相似なモデル画像を形成することを、相互標定という。すなわち、相互標定とは、撮影画像の対応する2本の光束が交会するように、左右それぞれのカメラの投影中心の位置および傾きを定めるものである。
[Calculation of external orientation elements: mutual orientation]
Next, a method for obtaining the position and tilt of the camera by the relative orientation method from the points where the left and right images are associated will be described. The relative orientation is performed by the orientation unit 12.
A model image refers to a three-dimensional image obtained when a subject is reproduced from two or more photographed images. Forming relatively similar model images is called relative orientation. That is, the relative orientation determines the position and inclination of the projection center of each of the left and right cameras so that the two corresponding light beams of the captured image meet.

図11は相互標定を説明するための図である。次に,各モデル画像の標定計算の詳細について説明する。この計算により、左右それぞれのカメラの位置(三次元座標と三軸の傾き)が求められる。
以下の共面条件式によりこれらのカメラの位置に係るパラメータを求める。
FIG. 11 is a diagram for explaining relative orientation. Next, the details of the orientation calculation of each model image will be described. By this calculation, the positions of the left and right cameras (three-dimensional coordinates and three-axis tilt) are obtained.
The parameters relating to the positions of these cameras are obtained by the following coplanar conditional expression.

モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合左側のカメラのX軸の回転角ωは0なので、考慮する必要ない。 The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ω 2. In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, it is not necessary to consider.

このような条件にすると、(式1)の共面条件式は(式2)のようになり、この式を解けば各パラメータが求まる。
Under such a condition, the coplanar conditional expression of (Expression 1) becomes as shown in (Expression 2), and each parameter can be obtained by solving this expression.

ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(式3)、(式4)が成り立つ。
Here, between the model coordinate system XYZ and the camera coordinate system xyz, the following coordinate transformation relational expressions (formula 3) and (formula 4) hold.

これらの式を用いて、次の手順により、未知パラメータを求める。
(a)未知パラメータの初期近似値は通常0とする。
(b)共面条件式(式2)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を(式3)、(式4)により求め、観測方程式をたてる。
(c)最小二乗法をあてはめ、近似値に対する補正量を求める。
(d)近似値を補正する。
(e)補正された近似値を用いて、(b)〜(d)までの操作を収束するまで繰り返す。
未知パラメータ(κ,φ,κ,φ,ω)を求めることにより、カメラの位置と傾きが求まる。
相互標定法によってカメラの位置が求まれば、ステレオ法によって対象空間点上の三次元座標、すなわち特徴点の三次元座標を求めることが可能となる。
Using these equations, unknown parameters are obtained by the following procedure.
(A) The initial approximate value of the unknown parameter is normally 0.
(B) The coplanar conditional expression (Expression 2) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by (Expression 3) and (Expression 4), and an observation equation is established.
(C) A least square method is applied to obtain a correction amount for the approximate value.
(D) Correct the approximate value.
(E) Using the corrected approximate value, the operations (b) to (d) are repeated until convergence.
By obtaining unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ), the position and tilt of the camera can be obtained.
If the position of the camera is obtained by the relative orientation method, it is possible to obtain the three-dimensional coordinates on the object space point, that is, the three-dimensional coordinates of the feature points by the stereo method.

[DLT法]
また、標定に代えて、測定対象物2の周囲にターゲットを配置し、DLT法を使用して撮影位置の座標を求めることもできる。例えば、三次元座標演算部14でかかる演算が行なわれる。
DLT法は、写真座標と被写体の三次元座標(対象点座標)との関係を三次の射影変換式で近似したものである。
[DLT method]
Further, instead of the orientation, a target can be arranged around the measurement object 2 and the coordinates of the photographing position can be obtained using the DLT method. For example, the calculation is performed by the three-dimensional coordinate calculation unit 14.
The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates (target point coordinates) of the subject using a cubic projective transformation equation.

DLT法の基本式は(式5)となる。
(式5)に対し、分母を消去すると、次の線形式を導き出せる。
更に、(式6)を変形すると、以下の式となる。
The basic formula of the DLT method is (Formula 5).
If the denominator is deleted from (Equation 5), the following line form can be derived.
Further, when (Expression 6) is modified, the following expression is obtained.

(式7)を直接、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。したがって、位置座標が既知の6点について(式7)を解くことにより、被写体の写真座標(x,y)と被写体の三次元座標(対象点座標)(X,Y,Z)との関係が求まり、写真座標(x,y)と対象点座標(X,Y,Z)を結ぶ直線の収束点にあたる撮影位置の位置座標(0,0,0)を求めることができる。この場合、撮影位置は、対象点座標に対して(−X,−Y,−Z)の位置になる。 If (Expression 7) is solved directly using the least square method, 11 unknown variables L 1 to L 11 that determine the relationship between the photograph coordinates and the object point coordinates can be acquired. Therefore, by solving (Equation 7) for six points whose position coordinates are known, the relationship between the photographic coordinates (x, y) of the subject and the three-dimensional coordinates (target point coordinates) (X, Y, Z) of the subject is obtained. Thus, the position coordinates (0, 0, 0) of the photographing position corresponding to the convergence point of the straight line connecting the photograph coordinates (x, y) and the target point coordinates (X, Y, Z) can be obtained. In this case, the shooting position is a position (−X, −Y, −Z) with respect to the target point coordinates.

図12は偏位修正画像を説明するための図である。図12(a)は偏位修正画像を立体的に説明する図、図12(b)は平面的に説明する図である。偏位修正処理は偏位修正画像形成部13で行なわれる。偏位修正処理とは、標定で求められたカメラの撮影位置と傾きを用いて、測定対象物2に対して撮影画像をステレオ法の幾何学が成立するように、被写体に対して並行にかつエピポーララインが左右の水平ライン上に一致するように画像を修正する処理である。したがって左右画像の倍率や傾き等の歪が補正され、倍率や高さの位置が同一となる。図12(a)において、ステレオ画像の左画像と右画像を撮影するカメラ3の撮影位置をそれぞれ、O、O、測定対象物2の計測点の位置をPとする。三次元位置座標の原点をOとし、三次元座標軸をX,Y,Z軸とする。撮影位置O及びOで撮影した撮影画像は、撮影距離、カメラアングルにばらつきが生じることから、細い実線の四角形で示すように画像の倍率、傾きに歪が生じる。これらの撮影画像を偏位修正処理により、太い実線の四角形で示すようにカメラの正面から見た等倍率の画像に修正する。図12(b)では、上部に示すように、左画像である前回撮影画像と右画像であるライブ画像に倍率、傾きに歪が生じている。これを偏位修正処理により、下部に示すように、左画像である前回撮影画像21と右画像であるライブ画像25について、エピポーララインが左右の水平ライン上に一致するように修正され、倍率、傾きが揃っている。 FIG. 12 is a diagram for explaining a deviation corrected image. FIG. 12A is a diagram for explaining the displacement correction image three-dimensionally, and FIG. 12B is a diagram for explaining the plan. The displacement correction process is performed by the displacement correction image forming unit 13. The deviation correction process is performed in parallel to the subject so that the stereo image geometry is established for the measurement object 2 using the shooting position and tilt of the camera obtained by the orientation. This is a process of correcting the image so that the epipolar line matches the left and right horizontal lines. Therefore, distortions such as magnification and inclination of the left and right images are corrected, and the positions of the magnification and height are the same. In FIG. 12A, the shooting positions of the camera 3 for shooting the left image and the right image of the stereo image are O 1 and O 2 , and the position of the measurement point of the measurement object 2 is P, respectively. The origin of the three-dimensional position coordinates and O 1, the three-dimensional coordinate axes X, Y, and Z axis. Since the shot images taken at the shooting positions O 1 and O 2 vary in the shooting distance and the camera angle, the magnification and inclination of the image are distorted as shown by the thin solid squares. These captured images are corrected to an image with the same magnification as viewed from the front of the camera, as shown by a thick solid square, by a deviation correction process. In FIG. 12B, as shown in the upper part, the magnification and the inclination are distorted in the previous captured image that is the left image and the live image that is the right image. As shown in the lower part of this, the epipolar line is corrected by the displacement correction process so that the epipolar line coincides with the left and right horizontal lines for the previously captured image 21 that is the left image and the live image 25 that is the right image. The tilt is aligned.

偏位修正処理では、相互標定で得られた内部標定要素(パラメータ)を用い、射影変換の関係式から傾斜した撮影画像をモデル座標(偏位修正画像座標)系のX、Y平面上(鉛直写真)に投影する。次に、偏位修正に係る関係式を示す。左画像について、モデル座標を(X1,Y1)、撮影画像面内の位置座標を(XC1,YC1)、右画像について、モデル座標を(X2,Y2)、撮影画像面内の位置座標を(XC2,YC2)、撮影位置O,Oでの撮影画像におけるカメラの焦点距離をC1,C2、左画像に係る変換パラメータをm11〜m33、右画像に係る変換パラメータをn11〜n33とすると、変換式は(式8)、(式9)で表される。これにより偏位修正処理が行なわれる。 In the displacement correction process, an internal orientation element (parameter) obtained by mutual orientation is used, and a photographed image tilted from the relational expression of the projective transformation is displayed on the X and Y planes of the model coordinate (deviation corrected image coordinate) system (vertical). Project to the photo. Next, a relational expression related to deviation correction is shown. For the left image, the model coordinates are (X1, Y1), the position coordinates in the captured image plane are (X C1 , Y C1 ), for the right image, the model coordinates are (X2, Y2), and the position coordinates in the captured image plane are (X C2 , Y C2 ), C1 and C2 are the focal lengths of the cameras in the captured images at the capturing positions O 1 and O 2 , m11 to m33 are conversion parameters related to the left image, and n11 to n33 are conversion parameters related to the right image. Then, the conversion expressions are expressed by (Expression 8) and (Expression 9). Thereby, the displacement correction process is performed.

図13は撮影画像と表示画像の倍率を説明するための図である。図13(a)は前々回撮影画像27、前回撮影画像21及びライブ画像25の倍率が異なることを示す図、図13(b)は表示エリア26において、前々回撮影画像27、前回撮影画像21及びライブ画像25が同じ大きさの範囲に表示されることを示す図である。測定対象物2は撮影位置の変更に応じて倍率及び傾きに差異が生じるので、3つの画像を当倍率の画像で表すと、図13(a)に示すように、画像の寸法に差異が生じている(図では倍率のみが異なる例を示す)。しかるに、表示エリア26においては、図13(b)に示すように、前々回撮影画像27、前回撮影画像21及びライブ画像25が同じ大きさの範囲に表示される。また、図13(a)における前々回撮影画像27と前回撮影画像21との重複領域27o及び前回撮影画像21とライブ画像25との重複領域21oは、表示エリア26では、図13(b)に示すように前々回画像重複領域27aと前回画像重複領域21aに表示される。したがって、各重複領域21a,27aにおいて各画像の倍率が異なり、タイ領域29では3つの画像の倍率が異なって表示される。また、測定対象物2を見る角度が異なる時は、各重複領域21a,27a及びタイ領域29において画像に傾きが生じる。そこで、前々回撮影画像27、前回撮影画像21及びライブ画像25に偏位修正処理を施し、偏位修正画像に修正すれば、それぞれ、倍率が等しく正面から見た画像に修正される。これにより、重複領域21a,27a及びタイ領域29においては、2つ又は3つの画像における測定対象物2の同一部分を殆ど一致するように重ねて表示することができる。なお、完全に一致しないのは見る方向により特徴点の位置関係が多少変化するからである。これにより、重複領域21a又はタイ領域29で前回撮影画像21とライブ画像25とを良く一致させることができ、今回撮影画像22の撮影をより的確に行なうことができる。   FIG. 13 is a diagram for explaining the magnification of the captured image and the display image. FIG. 13A is a diagram showing that the magnifications of the last-time photographed image 27, the previous-time photographed image 21, and the live image 25 are different, and FIG. It is a figure which shows that the image 25 is displayed on the range of the same magnitude | size. Since the measurement object 2 has a difference in magnification and inclination according to the change of the photographing position, when the three images are represented by images of this magnification, a difference occurs in the dimensions of the images as shown in FIG. (The figure shows an example in which only the magnification is different). However, in the display area 26, as shown in FIG. 13B, the last-time photographed image 27, the last-time photographed image 21, and the live image 25 are displayed in the same size range. In addition, the overlapping area 27o between the last-time captured image 27 and the previous captured image 21 and the overlapping area 21o between the previous captured image 21 and the live image 25 in FIG. 13A are shown in FIG. Thus, the image overlap area 27a and the previous image overlap area 21a are displayed two times before. Accordingly, the magnification of each image is different in each of the overlapping areas 21a and 27a, and the magnification of the three images is displayed differently in the tie area 29. Further, when the angle at which the measurement object 2 is viewed is different, the image is inclined in each of the overlapping regions 21 a and 27 a and the tie region 29. Therefore, if a deviation correction process is performed on the last-time photographed image 27, the previous photographed image 21, and the live image 25 to correct the deviation-corrected image, the images have the same magnification and are viewed from the front. Thereby, in the overlapping areas 21a and 27a and the tie area 29, the same part of the measuring object 2 in the two or three images can be displayed so as to be almost coincident with each other. Note that the reason why they do not completely match is that the positional relationship between the feature points changes somewhat depending on the viewing direction. As a result, the previous captured image 21 and the live image 25 can be matched well in the overlapping region 21a or the tie region 29, and the current captured image 22 can be captured more accurately.

〔ステレオ法〕
図14はステレオ法を説明するための図である。測定対象物2の各特徴点の三次元位置座標はステレオ法の原理を用いて測定することができる。三次元位置座標の演算は三次元座標演算部14で行なわれる。したがって、測定対象物2の全撮影領域を重複撮影することにより、その三次元形状を求めることができる。簡単のために、同じカメラで2つの撮影位置(O,O)から撮影し、それぞれの光軸は平行でカメラレンズの主点からCCD面までの距離cが等しく、CCDは光軸に直角に置かれているものとする。2つの光軸間距離(基線長)をBとする。
物体上の点P(x、y、z)と撮影位置Oでの撮影画面(本実施例では前回撮影画像の画面)上の点P(x、y)、撮影位置Oでの撮影画面(本実施例ではライブ画像の画面)上の点P(x、y)の座標の間には、以下のような関係がある。
=cx/z −−−(式10)
=y=cy/z −−−(式11)
−x=cB/z −−−(式12)
但し、全体の座標系(x、y、z)の原点を撮影位置Oでのレンズ主点にとるものとする。
(式12)よりzを求め、これを用いて(式10)、(式11)よりx、yが求められる。
[Stereo method]
FIG. 14 is a diagram for explaining the stereo method. The three-dimensional position coordinates of each feature point of the measurement object 2 can be measured using the principle of the stereo method. The calculation of the three-dimensional position coordinates is performed by the three-dimensional coordinate calculation unit 14. Therefore, the three-dimensional shape can be obtained by overlappingly shooting the entire shooting region of the measurement object 2. For simplicity, the same camera is used to shoot from two shooting positions (O 1 , O 2 ), the optical axes are parallel, the distance c from the camera lens principal point to the CCD surface is equal, and the CCD is on the optical axis. Assume that it is placed at a right angle. Let B be the distance between the two optical axes (baseline length).
Point on the object P (x, y, z) and imaging screen (screen of the previous captured image in this embodiment) of the photographing position O 1 point on P 1 (x 1, y 1 ), the photographing position O 2 There is the following relationship between the coordinates of the point P 2 (x 2 , y 2 ) on the shooting screen (live image screen in this embodiment).
x 1 = cx / z --- (Equation 10)
y 1 = y 2 = cy / z --- (Formula 11)
x 2 −x 1 = cB / z −−− (Formula 12)
However, it is assumed to take the entire coordinate system (x, y, z) the origin of the lens principal point of the photographing position O 1.
Z is obtained from (Equation 12), and x and y are obtained from (Equation 10) and (Equation 11) using this.

また、各特徴点の三次元座標が求まれば、前回撮影画像や前々回撮影画像を任意の方向、例えばライブ画像25の現在位置や今回撮影画像22の撮影予定位置から見た画像に変換して表現可能である。また、三次元モデル画像、オルソ画像、全周囲画像を形成できる。求められた三次元座標から三次元画像空間に特徴点を配置し構築すれば三次元モデル画像、平面図に並行投影にて投影すればオルソ画像、中心投影のまま平面上に各モデル画像を投影し連続的に配列していけば全周囲画像となる。また、三次元モデル画像は透視図や投影図等で任意の方向から表現できる。   Further, when the three-dimensional coordinates of each feature point are obtained, the previous captured image or the last captured image is converted into an image viewed from an arbitrary direction, for example, the current position of the live image 25 or the planned shooting position of the current captured image 22. It can be expressed. In addition, a three-dimensional model image, an ortho image, and an all-around image can be formed. If feature points are arranged and constructed in the three-dimensional image space from the obtained three-dimensional coordinates, a three-dimensional model image is projected. If projected onto a plan view in parallel projection, an ortho image is projected. If it is arranged continuously, it becomes an all-around image. In addition, the three-dimensional model image can be expressed from an arbitrary direction using a perspective view or a projection view.

図15に、実施例3に係る画像撮影の処理フロー例を示す。偏位修正画像を用いて表示される画像の倍率を補正する例である。実施例1の処理フロー例(図7参照)に比して、重複方向設定工程(S180)の後に標定工程(S182)と偏位修正画像形成工程(S184)が追加されている。すなわち、標定部12において、特徴点抽出部6により抽出された特徴点を用いて撮影部3のカメラの位置と傾きを求め、偏位修正画像形成部13において、標定部12で求められたカメラの位置と傾きを用いて、前回撮影画像21及びライブ画像25に偏位修正処理を施して、偏位修正画像を形成する。表示部4にて、偏位修正画像を用いて前回撮影画像21及びライブ画像25を重複表示することにより、前回撮影画像21及びライブ画像25における測定対象物2の同一部分を殆ど一致するように重ねて表示することができる。殆ど一致するとは、見る方向により画面上の対称点の位置が多少変化するからである。これにより、今回撮影画像22の撮影をより的確に行なうことができる。前々回撮影画像27、前回撮影画像21及びライブ画像25を重複表示する場合も、タイ領域29において3つの画像における測定対象物2の同一部分を殆ど一致するように重ねて表示することができ、今回撮影画像の撮影をより的確に行なうことができる。その他の処理フローは実施例1又は実施例2の処理フローと同様である。   FIG. 15 illustrates an example of a processing flow of image capturing according to the third embodiment. It is an example which correct | amends the magnification of the image displayed using a deviation correction image. Compared to the processing flow example of Embodiment 1 (see FIG. 7), the orientation step (S182) and the displacement correction image forming step (S184) are added after the overlapping direction setting step (S180). That is, the orientation unit 12 obtains the position and inclination of the camera of the photographing unit 3 using the feature points extracted by the feature point extraction unit 6, and the displacement-required image forming unit 13 obtains the camera obtained by the orientation unit 12. Using the position and inclination of the above, a displacement correction process is performed on the previously captured image 21 and the live image 25 to form a displacement correction image. In the display unit 4, the previous captured image 21 and the live image 25 are displayed in an overlapping manner using the displacement correction image, so that the same portion of the measurement object 2 in the previous captured image 21 and the live image 25 almost matches. It can be displayed overlaid. The almost coincidence is because the position of the symmetry point on the screen slightly changes depending on the viewing direction. As a result, the current captured image 22 can be captured more accurately. Even in the case where the previously captured image 27, the previously captured image 21 and the live image 25 are displayed in an overlapping manner, the same portion of the measurement object 2 in the three images can be displayed in the tie region 29 so as to almost coincide with each other. The captured image can be captured more accurately. Other processing flows are the same as those in the first or second embodiment.

以上説明したように、本実施例によれば、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。また、偏位修正画像を作成することにより、立体視可能な態様で前回撮影画像21とライブ画像25とを重ねて表示でき、撮影予定位置では重複領域23で殆ど一致した画像を得ることが可能である。   As described above, according to the present embodiment, in the case of shooting while moving using a single camera, a stereo image shooting apparatus and method for appropriately determining an overlapping area between a previous shot image and a current shot image Can provide. In addition, by creating a displacement corrected image, the previously captured image 21 and the live image 25 can be displayed in an overlapping manner in a stereoscopically viewable manner, and an image that is almost the same in the overlapping region 23 can be obtained at the planned shooting position. It is.

実施例4では、実施例3に加えて、撮影が一巡した場合(測定対象物の周りを一周した場合)に表示エリアに初回に撮影された撮影画像である初回撮影画像を表示する例を説明する。実施例3と異なる点を主に説明する。装置構成は実施例3(図10参照)と同様である。   In the fourth embodiment, in addition to the third embodiment, an example will be described in which the first shot image that is the first shot image is displayed in the display area when the shooting is completed (when the circumference of the measurement object is made a round). To do. Differences from the third embodiment will be mainly described. The apparatus configuration is the same as that of the third embodiment (see FIG. 10).

図16に、初回撮影画像にライブ画像を重複して表示する例を示す。図16(a)に一巡する1つ前の表示エリアを、図16(b)に一巡した場合の表示エリアを示す。対応点探索部8aは初回撮影画像28とライブ画像25とのステレオマッチング(特徴点の対応付け)を行なう。ステレオマッチングにより、初回撮影画像28とライブ画像25とに相関が得られ、重複領域が見出された場合に、前回撮影画像21とライブ画像25が表示される表示エリア26の中に初回撮影画像28を表示することが可能になる。重複領域が見出された場合、図16(a)に示すように、前回撮影画像21及びライブ画像と共に、初回撮影画像28のうち、ライブ画像25との重複領域である一周画像重複領域28cの部分が表示され、それ以外の部分は表示エリア26外になる。前回撮影画像21では前回画像重複領域21aと前回画像延長領域21bがライブ画像25の枠により分けて表示され、ライブ画像25ではライブ画像重複領域25aとライブ画像延長領域25bが前回撮影画像21の枠により分けて表示される。図16(b)に示すように、次の撮影時に一巡した場合の表示エリア26が示され、初回撮影画像28の一周画像重複領域28cが前回撮影画像21と部分的に重なり、少なくとも初回画像重複領域28aの一部が表示エリア26内に表示可能になる。このように、一周画像重複領域28cが前回撮影画像21と部分的に重なり、前回撮影画像21、初回撮影画像28及びライブ画像25の三重重複領域が形成されることによって、撮影が一巡したことが解る。また、ステレオマッチングは撮影画像とライブ画像をそのまま用いることも可能であるが、撮影画像とライブ画像の偏位修正画像を用いて行なえば、高精度に対応点を検出でき、より正確にステレオマッチングを行なうことができる。   FIG. 16 shows an example in which a live image is displayed in an overlapped manner with the first shot image. FIG. 16A shows the previous display area that makes a round, and FIG. 16B shows the display area that makes a round. The corresponding point search unit 8a performs stereo matching (corresponding to feature points) between the first shot image 28 and the live image 25. When the first captured image 28 and the live image 25 are correlated by stereo matching and an overlapping area is found, the first captured image 21 is displayed in the display area 26 where the previously captured image 21 and the live image 25 are displayed. 28 can be displayed. When an overlapping area is found, as shown in FIG. 16A, together with the previous captured image 21 and the live image, of the first captured image 28, the one-round image overlapping area 28c that is the overlapping area with the live image 25 is displayed. The part is displayed, and the other part is outside the display area 26. In the previous captured image 21, the previous image overlap area 21a and the previous image extension area 21b are displayed separately by the frame of the live image 25. In the live image 25, the live image overlap area 25a and the live image extension area 25b are the frame of the previous captured image 21. Are displayed separately. As shown in FIG. 16 (b), a display area 26 is shown when one round is taken during the next shooting, and a round image overlapping area 28c of the first shot image 28 partially overlaps with the previous shot image 21, and at least the first image overlap. A part of the area 28 a can be displayed in the display area 26. In this way, the rounded image overlap region 28c partially overlaps with the previous captured image 21, and the triple overlap region of the previous captured image 21, the initial captured image 28, and the live image 25 is formed, and thus the shooting has been completed. I understand. In stereo matching, the captured image and the live image can be used as they are, but if the deviation correction image of the captured image and the live image is used, corresponding points can be detected with high accuracy, and stereo matching can be performed more accurately. Can be performed.

図17に、本実施例に係る画像撮影の処理フロー例を示す。撮影が一巡した場合に表示エリア26に初回撮影画像28を表示する例である。実施例3の処理フロー例(図15参照)に比して、偏位修正画像形成工程(S184)の後にステレオマッチング工程(S186)が追加され、画像表示工程(S190)の代わりに画像表示工程(S194)が行なわれる。画像表示工程(S194)では、画像表示工程(S190)に比して、初回撮影画像28とライブ画像25とに重複領域が見出された場合に、前回撮影画像21とライブ画像25に加えて少なくとも初回撮影画像28の一部が表示エリア26に表示される。なお、特徴点抽出工程(S150)では、特徴点抽出部6において、初回の撮影後に初回撮影画像28の特徴点の抽出が行なわれている。ステレオマッチング工程(S186)では、初回撮影画像28とライブ画像25とについてステレオマッチングが行なわれる。これにより、初回撮影画像28とライブ画像25との重複領域(一周画像重複領域28c)を求めることができる。画像表示工程(S194)では、ステレオマッチング工程(S186)で初回撮影画像28とライブ画像25とに重複領域が見出された場合に、前回撮影画像21とライブ画像25に加えて少なくとも初回撮影画像28の一部が表示エリア26に表示される。これにより、今回撮影画像22の撮影時に、初回撮影画像28との重複を確認して撮影することができる。そして、初回撮影画像28の重複領域(初回画像重複領域28a)に前回撮影画像21が一部重複した状態(前回撮影画像21、初回撮影画像28及びライブ画像25の三重重複領域が存在する状態)で今回撮影画像22を撮影すれば、測定対象物2を全周囲に亘って重複撮影ができ、三次元座標を得ることができる。その他の処理フローは実施例3の処理フロー例と同様である。   FIG. 17 shows an example of a processing flow of image capturing according to the present embodiment. In this example, the first shot image 28 is displayed in the display area 26 when shooting is completed. Compared to the processing flow example (see FIG. 15) of the third embodiment, a stereo matching process (S186) is added after the displacement correction image forming process (S184), and an image display process is performed instead of the image display process (S190). (S194) is performed. In the image display step (S194), when an overlapping area is found in the first captured image 28 and the live image 25 as compared with the image display step (S190), in addition to the previous captured image 21 and the live image 25, At least a part of the first shot image 28 is displayed in the display area 26. In the feature point extraction step (S150), the feature point extraction unit 6 extracts feature points of the first shot image 28 after the first shooting. In the stereo matching step (S186), stereo matching is performed on the first shot image 28 and the live image 25. Thereby, it is possible to obtain an overlapping area (one-round image overlapping area 28 c) between the first shot image 28 and the live image 25. In the image display step (S194), when an overlapping area is found in the first shot image 28 and the live image 25 in the stereo matching step (S186), at least the first shot image is added to the previous shot image 21 and the live image 25. A part of 28 is displayed in the display area 26. Thereby, at the time of photographing of the current photographed image 22, it is possible to photograph while confirming the overlap with the first photographed image 28. Then, a state in which the previous captured image 21 partially overlaps the overlapping region (initial image overlapping region 28a) of the first captured image 28 (a state in which a triple overlapping region of the previously captured image 21, the first captured image 28, and the live image 25 exists). Thus, if the photographed image 22 is photographed this time, the measurement object 2 can be photographed over the entire circumference, and three-dimensional coordinates can be obtained. Other processing flows are the same as the processing flow example of the third embodiment.

また、ステレオマッチングで重複領域を見出す代わりに撮影位置の演算から重複領域を見出すこともできる。三次元座標演算部14は、例えばDLT法を用いて、特徴点抽出部7により抽出されたライブ画像25及び初回撮影画像28における測定対象物2の特徴点の画面位置からそれぞれの撮影位置の三次元座標を求める。ライブ画像25と初回撮影画像28における撮影位置より、ライブ画像25と初回撮影画像28の間に重複領域が見出された場合に、重複領域設定部6は、初回撮影画像28に重複領域を一周画像重複領域28cとして設定する。例えばライブ画像25における撮影位置と初回撮影画像28における撮影位置間の距離が、ライブ画像25における撮影位置と前々回撮影画像27における撮影位置間の距離以下になれば、ライブ画像と初回撮影画像28とは一部重複するので、重複領域が見出された場合に該当する。重複割合はライブ画像25における撮影位置と初回撮影画像28における撮影位置間の距離から演算される。表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。画像撮影の処理フローでは、ステレオマッチング工程(S186)に代えて撮影位置の演算が行われるが、その他の工程は同様である。   Further, instead of finding an overlapping area by stereo matching, it is also possible to find the overlapping area by calculating the photographing position. The three-dimensional coordinate calculation unit 14 uses, for example, a DLT method to calculate the tertiary of each shooting position from the screen position of the feature point of the measurement object 2 in the live image 25 and the first shot image 28 extracted by the feature point extraction unit 7. Find original coordinates. When an overlap area is found between the live image 25 and the first shot image 28 from the shooting positions in the live image 25 and the first shot image 28, the overlap area setting unit 6 goes around the overlap area in the first shot image 28. It is set as the image overlap area 28c. For example, if the distance between the shooting position in the live image 25 and the shooting position in the first shooting image 28 is equal to or less than the distance between the shooting position in the live image 25 and the shooting position in the previous shooting image 27, the live image and the first shooting image 28 Corresponds to a case where an overlapping region is found. The overlap ratio is calculated from the distance between the shooting position in the live image 25 and the shooting position in the first shot image 28. The display unit 4 displays the first shot image 28 and the live image 25 so as to overlap each other in the round image overlap area 28c. In the image shooting process flow, the shooting position is calculated instead of the stereo matching step (S186), but the other steps are the same.

本実施例によれば、実施例3と同様に、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。また、初回撮影画像を表示することにより、撮影が一巡したことがわかる。   According to the present embodiment, as in the third embodiment, in the case of shooting while moving using a single camera, a stereo image shooting apparatus capable of appropriately determining an overlapping area between the previous shot image and the current shot image and its Can provide a method. Moreover, it can be seen that the shooting is completed by displaying the first shot image.

実施例5では、実施例3に加えて、撮影方向に応じて前回撮影画像とライブ画像の位置と枠が変更されて表示される例を説明する。実施例3と異なる点を主に説明する。装置構成は実施例3(図10参照)と同様である。   In the fifth embodiment, in addition to the third embodiment, an example will be described in which the positions and frames of the previously captured image and the live image are changed and displayed according to the shooting direction. Differences from the third embodiment will be mainly described. The apparatus configuration is the same as that of the third embodiment (see FIG. 10).

図18に、撮影方向に応じて前回撮影画像とライブ画像及びこれらの枠の位置が変更されて表示される例を示す。前回撮影画像21とライブ画像25とのステレオマッチングを行なうことにより、前回撮影画像21とライブ画像25との重複領域の画像をより精度良く表現できる。この場合、重複領域設定部6において、前回撮影画像21とライブ画像25との重複領域23を、前回撮影画像21側に前回側重複領域21c、ライブ画像25側にライブ側重複領域25cとして設定し、表示部4において、前回側重複領域21cとライブ側重複領域25cで測定対象物2の同じ部分が大略重なるように表示する。このように表示すると、例えば、ライブ画像25が表示されるべく予定された位置に比して右下側にずれているときには、図18に示すように、右下側にずれて表示される。この場合、表示画像の倍率を調整すれば、前回撮影画像21とライブ画像25とを共に枠を付して全体が表示エリア26に含まれるように表示できる。これにより、ライブ側重複領域25cが重複領域23に対して右下側にずれていることがわかり、ライブ画像の位置を左上方向に移動し、ライブ側重複領域25cを重複領域23に合せて撮影すれば良い。その他の処理フローは実施例3の処理フロー例と同様である。また、前々回撮影画像27、前回撮影画像21、ライブ画像25の3つの画像を表示する場合に、前々回撮影画像27と前回撮影画像21とのステレオマッチングを行なうことにより、表示部4においてその重複領域も大略重なるように表示することも可能である。   FIG. 18 shows an example in which the previously captured image, the live image, and the positions of these frames are changed and displayed according to the shooting direction. By performing stereo matching between the previously captured image 21 and the live image 25, the image of the overlapping area between the previously captured image 21 and the live image 25 can be expressed with higher accuracy. In this case, the overlapping area setting unit 6 sets the overlapping area 23 between the previous captured image 21 and the live image 25 as the previous overlapping area 21c on the previous captured image 21 side and the live overlapping area 25c on the live image 25 side. In the display unit 4, the same part of the measurement object 2 is displayed so as to substantially overlap in the previous overlap area 21 c and the live overlap area 25 c. When displayed in this way, for example, when the live image 25 is shifted to the lower right side as compared with the position where the live image 25 is to be displayed, the live image 25 is displayed shifted to the lower right side as shown in FIG. In this case, if the magnification of the display image is adjusted, both the previously captured image 21 and the live image 25 can be displayed so as to be included in the display area 26 together with a frame. As a result, it can be seen that the live side overlap area 25c is shifted to the lower right side with respect to the overlap area 23, the position of the live image is moved in the upper left direction, and the live side overlap area 25c is photographed according to the overlap area 23. Just do it. Other processing flows are the same as the processing flow example of the third embodiment. Further, when three images of the last-time photographed image 27, the previous-time photographed image 21, and the live image 25 are displayed, the overlapping area is displayed on the display unit 4 by performing stereo matching between the last-time photographed image 27 and the last-time photographed image 21. It is also possible to display so as to substantially overlap.

本実施例によれば、実施例3と同様に、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。また、撮影方向に応じて前回撮影画像にライブ画像及びこれらの枠の位置が変更されて表示され、ライブ画像のずれの方向をビジュアルに把握できる。   According to the present embodiment, as in the third embodiment, in the case of shooting while moving using a single camera, a stereo image shooting apparatus capable of appropriately determining an overlapping area between the previous shot image and the current shot image and its Can provide a method. In addition, the live image and the positions of these frames are displayed in the previously captured image in accordance with the shooting direction, so that the direction of deviation of the live image can be visually grasped.

実施例6では、重複領域設定部は移動方向検出部で検出された移動方向と同じ側に重複領域を設定する例を説明する。実施例1と異なる点を主に説明する。   In the sixth embodiment, an example in which the overlapping area setting unit sets the overlapping area on the same side as the movement direction detected by the movement direction detection unit will be described. Differences from the first embodiment will be mainly described.

図19は、実施例6に係るステレオ画像撮影装置1Bの構成例を示すブロック図である。実施例1の構成(図1参照)に比して、特徴点抽出部7、カメラ移動方向判定部8が無く、これらに代えて移動方向検出部15が追加されている。移動方向検出部15はGPS(Global Positioning System:全地球測位システム)又は慣性センサを有し、撮影部3の移動方向を検出する。GPSは米国防省の人工衛星からの電波を利用して、自分の位置を測定するシステムで、3以上の衛星からの到着時間の差異から、緯度、経度を数十mの精度で測定でき、自動車のナビゲーション等に利用されている。相対的位置変化(移動方向)については、さらに高精度に測定できる。また、慣性センサとして圧電式、静電容量式等の加速度センサを利用できる。検出された加速度を2度積分することにより、位置変化を測定できる。重複領域設定部6は移動方向検出部15で検出された移動方向と同じ側に重複領域を設定する。その他の構成は実施例1と同様である。   FIG. 19 is a block diagram illustrating a configuration example of a stereo image capturing device 1B according to the sixth embodiment. Compared to the configuration of the first embodiment (see FIG. 1), the feature point extraction unit 7 and the camera movement direction determination unit 8 are not provided, and a movement direction detection unit 15 is added instead. The movement direction detection unit 15 includes a GPS (Global Positioning System) or an inertial sensor, and detects the movement direction of the imaging unit 3. GPS is a system that measures the position of a person using radio waves from the US Department of Defense artificial satellite, and can measure latitude and longitude with accuracy of several tens of meters from the difference in arrival time from three or more satellites. It is used for automobile navigation. The relative position change (moving direction) can be measured with higher accuracy. Also, an acceleration sensor such as a piezoelectric type or a capacitance type can be used as the inertial sensor. The position change can be measured by integrating the detected acceleration twice. The overlapping area setting unit 6 sets an overlapping area on the same side as the moving direction detected by the moving direction detecting unit 15. Other configurations are the same as those of the first embodiment.

図20に、実施例6に係る画像撮影の処理フロー例を示す。実施例1の処理フロー(図9参照)に比して、特徴点抽出工程(S150)〜カメラ移動方向判定工程(S170)が無く、これらに代えて移動方向検出工程(S152)が追加されている。移動方向検出工程(S152)では、GPSセンサ又は慣性センサを用いて、撮影部3の移動方向を検出する。重複方向設定工程(S180)では移動方向検出工程(S152)で検出された移動方向と同じ側に重複領域を設定する。その他の処理は実施例1と同様である。   FIG. 20 shows an example of a processing flow of image capturing according to the sixth embodiment. Compared to the processing flow of Embodiment 1 (see FIG. 9), there is no feature point extraction step (S150) to camera movement direction determination step (S170), and a movement direction detection step (S152) is added instead. Yes. In the moving direction detection step (S152), the moving direction of the photographing unit 3 is detected using a GPS sensor or an inertial sensor. In the overlapping direction setting step (S180), an overlapping region is set on the same side as the moving direction detected in the moving direction detection step (S152). Other processes are the same as those in the first embodiment.

また、撮影が一巡した場合(対象物の周りを一周した場合)に表示エリア26に初回撮影画像28を表示できる。GPS又は慣性センサで検出されたライブ画像25と初回撮影画像28における撮影位置より、ライブ画像25と初回撮影画像28の間に重複領域が見出された場合に、重複領域設定部6は、初回撮影画像28に重複領域を一周画像重複領域28cとして設定する。例えばライブ画像25における撮影位置と初回撮影画像28における撮影位置間の距離が、ライブ画像25における撮影位置と前々回撮影画像27における撮影位置間の距離以下になれば、ライブ画像と初回撮影画像28とは一部重複するので、重複領域が見出された場合に該当する。重複割合はライブ画像25における撮影位置と初回撮影画像28における撮影位置間の距離から演算される。表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。   In addition, the first shot image 28 can be displayed in the display area 26 when shooting is completed (when the object is circled around). When an overlap area is found between the live image 25 and the first shot image 28 from the shooting position in the live image 25 and the first shot image 28 detected by the GPS or the inertial sensor, the overlap area setting unit 6 An overlapping area is set as a round image overlapping area 28c in the captured image 28. For example, if the distance between the shooting position in the live image 25 and the shooting position in the first shooting image 28 is equal to or less than the distance between the shooting position in the live image 25 and the shooting position in the previous shooting image 27, the live image and the first shooting image 28 Corresponds to a case where an overlapping region is found. The overlap ratio is calculated from the distance between the shooting position in the live image 25 and the shooting position in the first shot image 28. The display unit 4 displays the first shot image 28 and the live image 25 so as to overlap each other in the round image overlap area 28c.

本実施例によれば、実施例1と同様に、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。   According to the present embodiment, as in the first embodiment, when shooting while moving using a single camera, a stereo image shooting apparatus capable of appropriately determining an overlapping area between the previous shot image and the current shot image and its Can provide a method.

実施例7では、重複領域設定部は入力された移動方向と同じ側に重複領域を設定する例を説明する。実施例1と異なる点を主に説明する。   In the seventh embodiment, an example in which the overlapping area setting unit sets the overlapping area on the same side as the input moving direction will be described. Differences from the first embodiment will be mainly described.

図21は、実施例7に係るステレオ画像撮影装置1Cの構成例を示すブロック図である。実施例1の構成(図1参照)に比して、特徴点抽出部7、カメラ移動方向判定部8が無くなっている。重複領域設定部6は、撮影者の入力により重複領域を設定する。重複領域設定部6において、前回撮影画像21に重複領域23の設定を行なう。重複領域23の設定は重複割合と重複方向について行なう。撮影部3の移動方向は予め入力可能であり、撮影者が入力した移動方向が重複方向として設定される。例えば入力部9からキーボードを用いて「右(側)」(移動方向)、「60(%)」(重複割合)と入力すると、前回撮影画像21に重複領域23が枠で囲まれて表示される。撮影者が例えばマウスで表示画面の確認ボタンをクリックすると、重複割合と重複方向が定まり、前回撮影画像21に重複領域23が本設定される。その他の構成は実施例1と同様である。   FIG. 21 is a block diagram illustrating a configuration example of a stereo image capturing device 1 </ b> C according to the seventh embodiment. Compared to the configuration of the first embodiment (see FIG. 1), the feature point extraction unit 7 and the camera movement direction determination unit 8 are eliminated. The overlapping area setting unit 6 sets an overlapping area by an input from the photographer. In the overlapping area setting unit 6, the overlapping area 23 is set in the previous captured image 21. The overlap area 23 is set for the overlap ratio and the overlap direction. The moving direction of the imaging unit 3 can be input in advance, and the moving direction input by the photographer is set as the overlapping direction. For example, when “right (side)” (moving direction) and “60 (%)” (overlapping ratio) are input from the input unit 9 using a keyboard, the previously captured image 21 is displayed with an overlapping area 23 surrounded by a frame. The For example, when the photographer clicks the confirmation button on the display screen with the mouse, the overlapping ratio and the overlapping direction are determined, and the overlapping area 23 is set in the previous captured image 21. Other configurations are the same as those of the first embodiment.

図22に、実施例7に係る画像撮影の処理フロー例を示す。実施例1の処理フロー(図7参照)に比して、特徴点抽出工程(S150)〜カメラ移動方向判定工程(S170)が無く、また、重複割合設定工程(S130)及び重複方向設定工程(S180)に代えて重複領域設定工程(S132)がある。すなわち、重複領域設定工程(S132)では、撮影者の入力により重複割合と共に重複方向も本設定される。その他の処理は実施例1と同様である。   FIG. 22 shows an example of a processing flow of image capturing according to the seventh embodiment. Compared to the processing flow of the first embodiment (see FIG. 7), there is no feature point extraction step (S150) to camera movement direction determination step (S170), and an overlap ratio setting step (S130) and an overlap direction setting step ( In place of (S180), there is an overlapping area setting step (S132). In other words, in the overlapping area setting step (S132), the overlapping direction is set together with the overlapping ratio by the photographer's input. Other processes are the same as those in the first embodiment.

また、撮影が一巡した場合(対象物の周りを一周した場合)に表示エリア26に初回撮影画像28を表示できる。撮影者が一周した際に、一周したことを入力可能であり、撮影者が一周したことを入力した場合に、重複領域設定部6は、初回撮影画像28に一周画像重複領域28cを設定する。例えば一周画像重複領域28cは撮影者が入力した撮影部3の移動方向と反対側に、重複割合は初回画像重複領域28aと同じに設定される。ここで、一周したとは、同じ方向に移動して今回の撮影により予定した全ての方向からの撮影が完了する位置に到達したことを意味する。例えば、12方向からの撮影を予定していた場合、12番目の撮影位置に到達したことを意味する。表示部4は、初回撮影画像28とライブ画像25とを一周画像重複領域28cで重ねて表示する。   In addition, the first shot image 28 can be displayed in the display area 26 when shooting is completed (when the object is circled around). When the photographer makes a round, it is possible to input that it has made a round, and when the photographer has entered that it has made a round, the overlap area setting unit 6 sets the round image overlap area 28 c in the first shot image 28. For example, the round image overlapping area 28c is set on the side opposite to the moving direction of the photographing unit 3 input by the photographer, and the overlapping ratio is set to be the same as the initial image overlapping area 28a. Here, “turning once” means moving to the same direction and reaching a position where the shooting from all directions planned by the current shooting is completed. For example, when shooting from 12 directions is scheduled, this means that the 12th shooting position has been reached. The display unit 4 displays the first shot image 28 and the live image 25 so as to overlap each other in the round image overlap area 28c.

本実施例によれば、実施例1と同様に、単カメラを用いて移動しながら撮影を行う場合に、前回撮影画像と今回撮影画像との重複領域を適切に定められるステレオ画像撮影装置及びその方法を提供できる。   According to the present embodiment, as in the first embodiment, when shooting while moving using a single camera, a stereo image shooting apparatus capable of appropriately determining an overlapping area between the previous shot image and the current shot image and its Can provide a method.

また、本発明は、以上の実施例のフローチャート等に記載のステレオ画像撮影方法の発明、当該方法の発明をステレオ画像撮影装置に実行させるためのプログラムとしても実現可能である。プログラムはステレオ画像撮影装置の内蔵記憶部に蓄積して使用してもよく、外付けの記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。   The present invention can also be realized as a stereo image capturing method invention described in the flowcharts of the above-described embodiments, and a program for causing a stereo image capturing apparatus to execute the method invention. The program may be stored and used in a built-in storage unit of the stereo image photographing device, may be stored and used in an external storage device, or may be downloaded from the Internet and used. Moreover, it is realizable also as a recording medium which recorded the said program.

以上、本発明の実施の形態について説明したが、本発明は上記の実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施例に種々変更を加えられることは明白である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it is obvious that various modifications can be made to the embodiments without departing from the spirit of the present invention. .

例えば、実施例2で説明した、前々回撮影画像、前回撮影画像及びライブ画像の重複表示を実施例3ないし実施例7にも適用可能である。また、実施例3で説明した偏位修正画像の形成、実施例4で説明した初回撮影画像の表示、実施例5で説明した前回撮影画像とライブ画像及びこれらの枠の位置を変化させる表示を、実施例6又は実施例7にも適用可能である。また、画像処理フローは適宜変更可能である。例えば、実施例1ないし実施例5ではライブ画像取得前に重複割合を設定する例を説明したが、撮影前に予め設定することも可能である。また、実施例1ないし実施例5における特徴点追跡工程を省略可能である。また、各撮影位置で少し左右にずれた位置でステレオ画像を撮影しながら位置を移動し、他のステレオ画像と重複させながら撮影を行っても良い。また、移動方向が上下方向と左右方向の両方である場合に、重複領域を図18の撮影側重複領域のように設定し、表示しても良い。また、以上の実施例ではライブ画像を一時的に記憶する例を説明したが、ビデオ画像のように再生可能に記憶しても良い。その他、撮影枚数、重複割合等は適宜変更可能である。   For example, the overlapping display of the last-time photographed image, the previous photographed image, and the live image described in the second embodiment can be applied to the third to seventh embodiments. In addition, the deviation correction image described in the third embodiment, the first captured image described in the fourth embodiment, the previous captured image and the live image described in the fifth embodiment, and the display for changing the positions of these frames are displayed. This can also be applied to the sixth embodiment or the seventh embodiment. The image processing flow can be changed as appropriate. For example, in the first to fifth embodiments, the example in which the overlap ratio is set before the live image acquisition has been described. However, it may be set in advance before shooting. Further, the feature point tracking step in the first to fifth embodiments can be omitted. Alternatively, the position may be moved while photographing a stereo image at a position slightly shifted left and right at each photographing position, and photographing may be performed while overlapping with other stereo images. Further, when the moving direction is both the vertical direction and the horizontal direction, the overlapping area may be set and displayed as the photographing side overlapping area in FIG. In the above embodiment, the live image is temporarily stored. However, the live image may be stored so as to be reproducible like a video image. In addition, the number of shots, the overlapping ratio, and the like can be changed as appropriate.

本発明は、測定対象物の三次元計測のための撮影や全周囲画像の撮影に利用できる。   The present invention can be used for photographing for three-dimensional measurement of an object to be measured and photographing all-around images.

1,1A〜1C ステレオ画像撮影装置
2 測定対象物
3 撮影部
4 表示部
5 記憶部
6 重複領域設定部
7 特徴点抽出部
8 カメラ移動方向判定部
8a 対応点探索部
9 入力部
10 制御部
11 三次元位置測定部
12 標定部
13 偏位修正画像形成部
14 三次元座標演算部
15 移動方向検出部
16 パーソナルコンピュータ(PC)
21 前回撮影画像
21a 前回画像重複領域
21b 前回画像延長領域
21c 前回側重複領域
21o 前回撮影画像とライブ画像との重複領域
22 今回撮影画像
23 重複領域
24 延長領域
25 ライブ画像
25a ライブ画像重複領域
25b ライブ画像延長領域
25c ライブ側重複領域
26 表示エリア
27 前々回撮影画像
27a 前々回画像重複領域
27b 前々回画像延長領域
27o 前々回撮影画像と前回撮影画像との重複領域
28 初回撮影画像
28a 初回画像重複領域
28c 一周画像重複領域
29 タイ領域
51 撮影画像記憶部
52 ライブ画像記憶部
53 処理画像記憶部
54 位置座標記憶部
1, 1A to 1C Stereo image capturing device 2 Measurement object 3 Imaging unit 4 Display unit 5 Storage unit 6 Overlapping region setting unit 7 Feature point extraction unit 8 Camera movement direction determination unit 8a Corresponding point search unit 9 Input unit 10 Control unit 11 Three-dimensional position measurement unit 12 Orientation unit 13 Deviation correction image forming unit 14 Three-dimensional coordinate calculation unit 15 Movement direction detection unit 16 Personal computer (PC)
21 Previous shot image 21a Previous image overlap area 21b Previous image extension area 21c Previous side overlap area 21o Overlap area between previous shot image and live image 22 Current shot image 23 Overlap area 24 Extension area 25 Live image 25a Live image overlap area 25b Live Image extension area 25c Live-side overlap area 26 Display area 27 Previous-time captured image 27a Previous-time image overlap area 27b Previous-time image extension area 27o Overlapping area 28 between the previous-time captured image and the previous captured image 28 First-time captured image 28a Initial image-overlapped area 28c Region 29 Tie region 51 Captured image storage unit 52 Live image storage unit 53 Processed image storage unit 54 Position coordinate storage unit

Claims (18)

測定対象物を単カメラにより重複させながら順次撮影するステレオ画像撮影装置において;
カメラの位置移動に伴い前記測定対象物のライブ画像を随時取得し、適時に前記測定対象物を撮影して静止画像である撮影画像を取得する撮影部と;
前記撮影部で前回撮影された撮影画像である前回撮影画像に、前記ライブ画像との重複領域を設定する重複領域設定部と;
前記前回撮影画像と前記ライブ画像とを前記重複領域設定部で設定された重複領域で重ねて表示し、前記前回撮影画像を前記重複領域から前記撮影部の移動方向と反対側に延長して表示し、前記ライブ画像を前記重複領域から前記撮影部の移動方向と同じ側に延長して表示する表示部とを備え;
前記重複領域設定部は、前記前回撮影画像と前記ライブ画像との重複領域を前回画像重複領域として設定し、前記撮影部で前々回撮影された撮影画像である前々回撮影画像と前記前回撮影画像との重複領域を前々回画像重複領域として設定し、さらに前記ライブ画像と前記前々回撮影画像とを重複させることにより、前記測定対象物のいずれの撮影領域も重複して撮影されるように設定し;
前記表示部は、前記前回画像重複領域、前記前々回画像重複領域を表示すると共に、前記前々回撮影画像と前記前回撮影画像と前記ライブ画像との三重の重複領域であるタイ領域を表示する;
ステレオ画像撮影装置。
In a stereo image capturing device that sequentially captures a measurement object while overlapping with a single camera;
A photographing unit that obtains a live image of the measurement object at any time as the camera moves, and photographs the measurement object in a timely manner to obtain a photographed image that is a still image;
An overlapping area setting unit that sets an overlapping area with the live image in the previous captured image that is a captured image previously captured by the capturing unit;
The previous captured image and the live image are overlapped and displayed in the overlapping area set by the overlapping area setting unit, and the previous captured image is extended and displayed from the overlapping area to the opposite side of the moving direction of the imaging unit. And a display unit for displaying the live image extending from the overlapping region to the same side as the moving direction of the photographing unit;
The overlapping area setting unit sets an overlapping area between the previous captured image and the live image as a previous image overlapping area, and the previous captured image and the previous captured image, which are captured images previously captured by the capturing unit. An overlapping area is set as the previous image overlapping area, and further, the live image and the previous captured image are overlapped, so that any imaging area of the measurement object is overlapped and shot;
The display unit displays the previous image overlap region and the previous image overlap region, and also displays a tie region that is a triple overlap region of the previous image, the previous image, and the live image;
Stereo image capturing device.
前記重複領域設定部は、前記前回撮影画像における前記測定対象物のいずれの撮影領域も前記前回画像重複領域又は前記前々回画像重複領域に含まれるように設定する;
請求項1に記載のステレオ画像撮影装置。
The overlapping area setting unit sets so that any imaging area of the measurement object in the previous captured image is included in the previous image overlapping area or the previous image overlapping area;
The stereo image photographing device according to claim 1.
前記重複領域設定部は、前回撮影画像と前記ライブ画像との重複領域の重複割合を55〜90%に設定し、前記前々回撮影画像と前記前回撮影画像との重複領域の重複割合を55〜90%に設定する;
請求項1又は請求項2に記載のステレオ画像撮影装置。
The overlapping area setting unit sets the overlapping ratio of the overlapping area between the previous captured image and the live image to 55 to 90%, and sets the overlapping ratio of the overlapping area between the previous captured image and the previous captured image to 55 to 90%. Set to%;
The stereo image photographing device according to claim 1 or 2.
測定対象物を単カメラにより重複させながら順次撮影するステレオ画像撮影装置において;
カメラの位置移動に伴い前記測定対象物のライブ画像を随時取得し、適時に前記測定対象物を撮影して静止画像である撮影画像を取得する撮影部と;
前記撮影部で前回撮影された撮影画像である前回撮影画像に、前記ライブ画像との重複領域を設定する重複領域設定部と;
前記前回撮影画像と前記ライブ画像とを前記重複領域設定部で設定された重複領域で重ねて表示し、前記前回撮影画像を前記重複領域から前記撮影部の移動方向と反対側に延長して表示し、前記ライブ画像を前記重複領域から前記撮影部の移動方向と同じ側に延長して表示する表示部とを備え;
前記重複領域設定部は、前記前回撮影画像と前記ライブ画像との重複領域の重複割合を55〜90%に設定し、前記撮影部で前々回撮影された撮影画像である前々回撮影画像と前記前回撮影画像との重複領域の重複割合を55〜90%に設定し;
前記表示部は、前記前回撮影画像と前記ライブ画像との重複領域、前記前々回撮影画像と前記前回撮影画像との重複領域を表示すると共に、前記前々回撮影画像と前記前回撮影画像と前記ライブ画像との三重の重複領域であるタイ領域を表示する;
ステレオ画像撮影装置。
In a stereo image capturing device that sequentially captures a measurement object while overlapping with a single camera;
A photographing unit that obtains a live image of the measurement object at any time as the camera moves, and photographs the measurement object in a timely manner to obtain a photographed image that is a still image;
An overlapping area setting unit that sets an overlapping area with the live image in the previous captured image that is a captured image previously captured by the capturing unit;
The previous captured image and the live image are overlapped and displayed in the overlapping area set by the overlapping area setting unit, and the previous captured image is extended and displayed from the overlapping area to the opposite side of the moving direction of the imaging unit. And a display unit for displaying the live image extending from the overlapping region to the same side as the moving direction of the photographing unit;
The overlapping area setting unit sets an overlapping ratio of an overlapping area between the previous captured image and the live image to 55 to 90%, and the previously captured image and the previous captured image that are captured images previously captured by the capturing unit. Set the overlap ratio of the overlapping area with the image to 55-90%;
The display unit displays an overlapping region between the previous captured image and the live image, an overlapping region between the previous captured image and the previous captured image, and the previous captured image, the previous captured image, and the live image. Display a tie region that is a triple overlap region of
Stereo image capturing device.
前記重複領域設定部は、前記前回撮影画像について重複方向を左側又は右側に設定する、又は前記前回撮影画像について重複方向を上側又は下側に設定する;
請求項3又は請求項4に記載のステレオ画像撮影装置。
The overlapping region setting unit sets the overlapping direction to the left or right side for the previous captured image, or sets the overlapping direction to the upper or lower side for the previous captured image;
The stereo image photographing device according to claim 3 or 4.
前記表示部は、前記撮影画像及び前記ライブ画像に枠を付して表示する;
請求項1ないし請求項5に記載のステレオ画像撮影装置。
The display unit displays the captured image and the live image with a frame;
The stereo image photographing device according to claim 1.
前記前回撮影画像及び前記ライブ画像における前記測定対象物の特徴点を抽出する特徴点抽出部と;
前記特徴点抽出部で抽出された特徴点の前記前回撮影画像と前記ライブ画像における画面位置から、前記撮影部の移動方向を求めるカメラ移動方向判定部とを備え;
前記重複領域設定部は、前記カメラ移動方向判定部で判定された移動方向と同じ側に、前記前回撮影画像に前記重複領域を設定する;
請求項1ないし請求項6のいずれか1項に記載のステレオ画像撮影装置。
A feature point extraction unit that extracts feature points of the measurement object in the previous photographed image and the live image;
A camera movement direction determination unit that determines a movement direction of the photographing unit from the screen position of the feature point extracted by the feature point extraction unit in the previous captured image and the live image;
The overlapping area setting unit sets the overlapping area in the previously captured image on the same side as the movement direction determined by the camera movement direction determination unit;
The stereo image photographing device according to any one of claims 1 to 6.
GPS又は慣性センサを有し、前記撮影部の移動方向を検出する移動方向検出部を備え;
前記重複領域設定部は前記移動方向検出部で検出された移動方向と同じ側に、前記前回撮影画像に前記重複領域を設定する;
請求項1ないし請求項6のいずれか1項に記載のステレオ画像撮影装置。
A GPS or inertial sensor, and a movement direction detection unit that detects a movement direction of the imaging unit;
The overlapping area setting unit sets the overlapping area in the previous captured image on the same side as the moving direction detected by the moving direction detecting unit;
The stereo image photographing device according to any one of claims 1 to 6.
前記撮影部の移動方向を予め入力可能であり、前記重複領域設定部は入力された移動方向と同じ側に、前記前回撮影画像に前記重複領域を設定する;
請求項1ないし請求項6のいずれか1項に記載のステレオ画像撮影装置。
The moving direction of the photographing unit can be input in advance, and the overlapping region setting unit sets the overlapping region in the previous captured image on the same side as the input moving direction;
The stereo image photographing device according to any one of claims 1 to 6.
前記前回撮影画像及び前記ライブ画像における前記測定対象物の特徴点を抽出する特徴点抽出部と;
前記特徴点抽出部により抽出された特徴点を用いて前記カメラの位置と傾きを求める標定部と;
前記標定部で求められたカメラの位置と傾きを用いて、前記前回撮影画像及び前記ライブ画像に偏位修正処理を施して、偏位修正画像を形成する偏位修正画像形成部とを備え;
前記表示部は、前記偏位修正画像形成部で形成された偏位修正画像を表示する;
請求項1ないし請求項9のいずれか1項に記載のステレオ画像撮影装置。
A feature point extraction unit that extracts feature points of the measurement object in the previous photographed image and the live image;
An orientation unit that obtains the position and inclination of the camera using the feature points extracted by the feature point extraction unit;
A displacement correction image forming unit that forms a displacement correction image by performing a displacement correction process on the previously captured image and the live image using the camera position and tilt determined by the orientation unit;
The display unit displays the displacement correction image formed by the displacement correction image forming unit;
The stereo image photographing device according to any one of claims 1 to 9.
前記前回撮影画像及び前記ライブ画像における前記測定対象物の特徴点を抽出する特徴点抽出部と;
前記特徴点抽出部が、前記ライブ画像から抽出した前記測定対象物の特徴点と初回に撮影された撮影画像である初回撮影画像から抽出した前記測定対象物の特徴点とのステレオマッチングを行なう対応点探索部を備え;
前記ステレオマッチングにより、前記ライブ画像と前記初回撮影画像の間に重複領域が見出された場合に、前記重複領域設定部は、前記重複領域を前記初回撮影画像に一周画像重複領域として設定し、前記表示部は、前記初回撮影画像と前記ライブ画像とを前記一周画像重複領域で重ねて表示する;
請求項1ないし請求項10のいずれか1項に記載のステレオ画像撮影装置。
A feature point extraction unit that extracts feature points of the measurement object in the previous photographed image and the live image;
Correspondence in which the feature point extraction unit performs stereo matching between the feature point of the measurement object extracted from the live image and the feature point of the measurement object extracted from the first shot image that is a first shot image. A point search unit;
When an overlapping area is found between the live image and the first captured image by the stereo matching, the overlapping area setting unit sets the overlapping area as a round image overlapping area in the first captured image, The display unit displays the first shot image and the live image in an overlapping manner in the round image overlap region;
The stereo image photographing device according to any one of claims 1 to 10.
前記前回撮影画像及び前記ライブ画像における前記測定対象物の特徴点を抽出する特徴点抽出部と;
前記特徴点抽出部により抽出された前記ライブ画像及び初回に撮影された撮影画像である初回撮影画像における前記測定対象物の特徴点の画面位置からそれぞれの撮影位置の三次元座標を求める三次元座標演算部を備え;
前記ライブ画像及び前記初回撮影画像における撮影位置の三次元座標により、前記ライブ画像と前記初回撮影画像の間に重複領域が見出された場合に、前記重複領域設定部は、前記初回撮影画像に前記重複領域を一周画像重複領域として設定し、前記表示部は、前記初回撮影画像と前記ライブ画像とを前記一周画像重複領域で重ねて表示する;
請求項1ないし請求項10のいずれか1項に記載のステレオ画像撮影装置。
A feature point extraction unit that extracts feature points of the measurement object in the previous photographed image and the live image;
Three-dimensional coordinates for obtaining the three-dimensional coordinates of the respective shooting positions from the screen positions of the feature points of the measurement object in the first-shot image that is the first-time shot image and the live image extracted by the feature point extraction unit With an arithmetic unit;
When an overlapping area is found between the live image and the first shot image by the three-dimensional coordinates of the shooting position in the live image and the first shot image, the overlapping area setting unit adds the first shot image to the first shot image. The overlapping area is set as a one-round image overlapping area, and the display unit displays the first-shot image and the live image in an overlapping manner in the one-round image overlapping area;
The stereo image photographing device according to any one of claims 1 to 10.
前記GPS又は慣性センサで検出された前記ライブ画像と初回に撮影された撮影画像である初回撮影画像における撮影位置より、前記ライブ画像と前記初回撮影画像の間に重複領域が見出された場合に、前記重複領域設定部は、前記初回撮影画像に前記重複領域を一周画像重複領域として設定し、前記表示部は、前記初回撮影画像と前記ライブ画像とを前記一周画像重複領域で重ねて表示する;
請求項8に記載のステレオ画像撮影装置。
When an overlap area is found between the live image and the first captured image from the shooting position in the first captured image that is the first captured image and the live image detected by the GPS or inertial sensor. The overlapping area setting unit sets the overlapping area as a one-round image overlapping area on the first-shot image, and the display unit displays the first-shot image and the live image so as to overlap with the one-round image overlapping area. ;
The stereo image photographing device according to claim 8.
撮影者が一周した際に、一周したことを入力可能であり、前記撮影者が一周したことを入力した場合に、前記重複領域設定部は、初回に撮影された撮影画像である初回撮影画像に一周画像重複領域を設定し、前記表示部は、前記初回撮影画像と前記ライブ画像とを前記一周画像重複領域で重ねて表示する;
請求項9に記載のステレオ画像撮影装置。
When the photographer has made a round, it is possible to input that it has made a round, and when the photographer has entered that it has made a round, the overlapping area setting unit sets the first shot image that is the first shot image. A round image overlapping area is set, and the display unit displays the first shot image and the live image in an overlapping manner in the round image overlapping area;
The stereo image photographing device according to claim 9.
前記前回撮影画像及び前記ライブ画像における前記測定対象物の特徴点を抽出する特徴点抽出部と;
前記特徴点抽出部により抽出された特徴点を用いて前記撮影部のカメラの位置と傾きを求める標定部と、前記標定部で求められたカメラの位置と傾きを用いて、前記特徴点の三次元座標を求める三次元座標演算部とを備え;
前記重複領域設定部は、前記三次元座標演算部で求められた特徴点の三次元座標を用いて、前記前回撮影画像と前記ライブ画像との重複領域を、前記前回撮影画像に前回側重複領域として、前記ライブ画像にライブ側重複領域として設定し;
前記表示部は、前記前回撮影画像と前記ライブ画像とを、前記前回側重複領域と前記ライブ側重複領域で前記測定対象物の同じ部分が大略重なるよう、かつ両者共枠を付して全体が表示エリアに含まれるように表示する;
請求項1ないし請求項10のいずれか1項に記載のステレオ画像撮影装置。
A feature point extraction unit that extracts feature points of the measurement object in the previous photographed image and the live image;
Using the feature points extracted by the feature point extraction unit, an orientation unit that obtains the camera position and tilt of the photographing unit, and using the camera position and tilt obtained by the orientation unit, a tertiary of the feature points A three-dimensional coordinate calculation unit for obtaining original coordinates;
The overlapping region setting unit uses the three-dimensional coordinates of the feature points obtained by the three-dimensional coordinate calculation unit to convert an overlapping region between the previous captured image and the live image into the previous captured image. As a live side overlap area in the live image;
The display unit includes the previous photographed image and the live image so that the same portion of the measurement object substantially overlaps in the previous overlap region and the live overlap region, and both are attached with a frame. Display to be included in the display area;
The stereo image photographing device according to any one of claims 1 to 10.
測定対象物を単カメラにより重複させながら順次撮影するステレオ画像撮影方法において;
適時に前記測定対象物を撮影して静止画像である撮影画像を取得する撮影工程と;
カメラの位置移動に伴い前記測定対象物のライブ画像を随時取得するライブ画像取得工程と;
前回撮影された撮影画像である前回撮影画像に、前記ライブ画像との重複領域を設定する重複領域設定工程と;
前記前回撮影画像と前記ライブ画像とを前記重複領域設定工程で設定された重複領域で重ねて表示し、前記前回撮影画像を前記重複領域から撮影部の移動方向と反対側に延長して表示し、前記ライブ画像を前記重複領域から前記撮影部の移動方向と同じ側に延長して表示する表示工程とを備え;
前記重複領域設定工程は、前記前回撮影画像と前記ライブ画像との重複領域を前回画像重複領域として設定し、前記撮影工程で前々回撮影された撮影画像である前々回撮影画像と前記前回撮影画像との重複領域を前々回画像重複領域として設定し、さらに前記ライブ画像と前記前々回撮影画像とを重複させることにより、前記測定対象物のいずれの撮影領域も重複して撮影されるように設定し;
前記表示工程は、前記前回画像重複領域、前記前々回画像重複領域を表示すると共に、前記前々回撮影画像と前記前回撮影画像と前記ライブ画像との三重の重複領域であるタイ領域を表示する;
ステレオ画像撮影方法。
In a stereo image capturing method of sequentially capturing an object to be measured while overlapping with a single camera;
A photographing step of photographing the measurement object in a timely manner to obtain a photographed image that is a still image;
A live image acquisition step of acquiring a live image of the measurement object at any time as the camera moves;
An overlapping area setting step of setting an overlapping area with the live image in the previous captured image that is a previously captured image;
The previous captured image and the live image are displayed in an overlapping manner set in the overlapping region setting step, and the previous captured image is displayed extending from the overlapping region to the opposite side of the moving direction of the photographing unit. A display step of displaying the live image extending from the overlapping region to the same side as the moving direction of the photographing unit;
The overlap region setting step, the the previous captured image overlap region between the live image and set as the previous image overlap region, the second last captured image is the second last captured photographed image and the previous captured image in the imaging step An overlapping area is set as the previous image overlapping area, and further, the live image and the previous captured image are overlapped, so that any imaging area of the measurement object is overlapped and shot;
The display step displays the previous image overlap region and the previous image overlap region, and displays a tie region that is a triple overlap region of the previous image, the previous image, and the live image;
Stereo image shooting method.
前記重複領域設定工程は、前記前回撮影画像における前記測定対象物のいずれの撮影領域も前記前回画像重複領域又は前記前々回画像重複領域に含まれるように設定する;
請求項16に記載のステレオ画像撮影方法
The overlapping area setting step sets so that any imaging area of the measurement object in the previous captured image is included in the previous image overlapping area or the previous image overlapping area;
The stereo image photographing method according to claim 16.
測定対象物を単カメラにより重複させながら順次撮影するステレオ画像撮影方法において;
適時に前記測定対象物を撮影して静止画像である撮影画像を取得する撮影工程と;
カメラの位置移動に伴い前記測定対象物のライブ画像を随時取得するライブ画像取得工程と;
前回撮影された撮影画像である前回撮影画像に、前記ライブ画像との重複領域を設定する重複領域設定工程と;
前記前回撮影画像と前記ライブ画像とを前記重複領域設定工程で設定された重複領域で重ねて表示し、前記前回撮影画像を前記重複領域から撮影部の移動方向と反対側に延長して表示し、前記ライブ画像を前記重複領域から前記撮影部の移動方向と同じ側に延長して表示する表示工程とを備え;
前記重複領域設定工程は、前記前回撮影画像と前記ライブ画像との重複領域の重複割合を55〜90%に設定し、前記撮影工程で前々回撮影された撮影画像である前々回撮影画像と前記前回撮影画像との重複領域の重複割合を55〜90%に設定し;
前記表示工程は、前記前回撮影画像と前記ライブ画像との重複領域、前記前々回撮影画像と前記前回撮影画像との重複領域を表示すると共に、前記前々回撮影画像と前記前回撮影画像と前記ライブ画像との三重の重複領域であるタイ領域を表示する;
ステレオ画像撮影方法。
In a stereo image capturing method of sequentially capturing an object to be measured while overlapping with a single camera;
A photographing step of photographing the measurement object in a timely manner to obtain a photographed image that is a still image;
A live image acquisition step of acquiring a live image of the measurement object at any time as the camera moves;
An overlapping area setting step of setting an overlapping area with the live image in the previous captured image that is a previously captured image;
The previous captured image and the live image are displayed in an overlapping manner set in the overlapping region setting step, and the previous captured image is displayed extending from the overlapping region to the opposite side of the moving direction of the photographing unit. A display step of displaying the live image extending from the overlapping region to the same side as the moving direction of the photographing unit;
In the overlapping area setting step, the overlapping ratio of the overlapping area between the previous captured image and the live image is set to 55 to 90%, and the previous captured image and the previous captured image, which are captured images previously captured in the capturing process , are set. Set the overlap ratio of the overlapping area with the image to 55-90%;
The display step displays an overlapping area between the previous captured image and the live image, an overlapping area between the previous captured image and the previous captured image, and the previous captured image, the previous captured image, and the live image. Display a tie region that is a triple overlap region of
Stereo image shooting method.
JP2009133378A 2009-06-02 2009-06-02 Stereo image photographing apparatus and method thereof Active JP5363878B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009133378A JP5363878B2 (en) 2009-06-02 2009-06-02 Stereo image photographing apparatus and method thereof
KR1020117031677A KR20120036908A (en) 2009-06-02 2010-05-26 Stereo image photographing device and method therefor
PCT/JP2010/058885 WO2010140513A1 (en) 2009-06-02 2010-05-26 Stereo image photographing device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009133378A JP5363878B2 (en) 2009-06-02 2009-06-02 Stereo image photographing apparatus and method thereof

Publications (3)

Publication Number Publication Date
JP2010283466A JP2010283466A (en) 2010-12-16
JP2010283466A5 JP2010283466A5 (en) 2012-07-05
JP5363878B2 true JP5363878B2 (en) 2013-12-11

Family

ID=43297649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009133378A Active JP5363878B2 (en) 2009-06-02 2009-06-02 Stereo image photographing apparatus and method thereof

Country Status (3)

Country Link
JP (1) JP5363878B2 (en)
KR (1) KR20120036908A (en)
WO (1) WO2010140513A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104880905A (en) * 2015-05-13 2015-09-02 北京康得新三维科技有限责任公司 Device and method for tilt-shift stereoscopic photography

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI435593B (en) * 2010-12-30 2014-04-21 Altek Corp Method for capturing three-dimensional image
JP5954712B2 (en) * 2011-01-13 2016-07-20 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and program thereof
EP2980752B1 (en) * 2013-03-26 2018-12-19 Toppan Printing Co., Ltd. Image processing device, image processing system, image processing method, and image processing program
JP7180739B2 (en) * 2019-06-19 2022-11-30 株式会社リコー Information processing device, information processing system, information processing method and information processing program
CN111105351B (en) * 2019-12-13 2023-04-18 华中科技大学鄂州工业技术研究院 Video sequence image splicing method and device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3957888B2 (en) * 1997-08-20 2007-08-15 株式会社リコー Imaging apparatus and captured image composition method
JP4178657B2 (en) * 1999-04-12 2008-11-12 カシオ計算機株式会社 Panorama shooting method and imaging apparatus
JP2002090820A (en) * 2000-09-14 2002-03-27 Canon Inc Image processor, image processing system, method for control and storage medium
JP5087264B2 (en) 2005-12-08 2012-12-05 株式会社トプコン Image processing apparatus and method
JP4889351B2 (en) * 2006-04-06 2012-03-07 株式会社トプコン Image processing apparatus and processing method thereof
JP2008098754A (en) * 2006-10-06 2008-04-24 Olympus Imaging Corp Imaging apparatus, image reproducing device and display method for picked-up image
JP4577351B2 (en) 2007-11-29 2010-11-10 トヨタ自動車株式会社 Torque fluctuation absorber

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104880905A (en) * 2015-05-13 2015-09-02 北京康得新三维科技有限责任公司 Device and method for tilt-shift stereoscopic photography
CN104880905B (en) * 2015-05-13 2017-11-24 北京康得新三维科技有限责任公司 One kind moves axle stereoradiographic unit and method

Also Published As

Publication number Publication date
WO2010140513A1 (en) 2010-12-09
KR20120036908A (en) 2012-04-18
JP2010283466A (en) 2010-12-16

Similar Documents

Publication Publication Date Title
JP5100360B2 (en) Image processing device
JP4889351B2 (en) Image processing apparatus and processing method thereof
JP4851239B2 (en) Image processing apparatus and processing method thereof
US7489335B2 (en) Photographic apparatus with function of image correction and method thereof
JP4800163B2 (en) Position measuring apparatus and method
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
JP4979928B2 (en) Three-dimensional shape calculation device and three-dimensional shape calculation method
JP5363878B2 (en) Stereo image photographing apparatus and method thereof
JP2007327938A (en) Image processing device and method therefor
JP5027746B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
JP5715735B2 (en) Three-dimensional measurement method, apparatus and system, and image processing apparatus
KR19990028281A (en) Image Combination Method and System Using Parallax-based Technology
JP2010147635A (en) Imaging apparatus, imaging method, and program
JP2010219825A (en) Photographing device for three-dimensional measurement
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP4764896B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP4112077B2 (en) Image measurement processing method and apparatus, and recording medium recording image measurement processing program
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
JP4550081B2 (en) Image measurement method
JP5885974B2 (en) Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data
JP3696335B2 (en) Method for associating each measurement point of multiple images
JPH10320558A (en) Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium
JP3924576B2 (en) Three-dimensional measurement method and apparatus by photogrammetry
JP4359939B2 (en) Image measuring device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130906

R150 Certificate of patent or registration of utility model

Ref document number: 5363878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250