JP2010219825A - Photographing device for three-dimensional measurement - Google Patents

Photographing device for three-dimensional measurement Download PDF

Info

Publication number
JP2010219825A
JP2010219825A JP2009063658A JP2009063658A JP2010219825A JP 2010219825 A JP2010219825 A JP 2010219825A JP 2009063658 A JP2009063658 A JP 2009063658A JP 2009063658 A JP2009063658 A JP 2009063658A JP 2010219825 A JP2010219825 A JP 2010219825A
Authority
JP
Japan
Prior art keywords
image
shooting
unit
photographing
scheduled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009063658A
Other languages
Japanese (ja)
Inventor
Nobuo Kochi
高地伸夫
Hiroto Watanabe
渡邉広登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2009063658A priority Critical patent/JP2010219825A/en
Publication of JP2010219825A publication Critical patent/JP2010219825A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing device for three-dimensional measurement, which exactly guides a photographer to the next predetermined photographing position from the present position. <P>SOLUTION: The photographing device 1 for three-dimensional measurement includes a photographing section 2 that acquires a live image 11 by photographing a measurement object 8 while a photographer is moving and timely acquires a photographs image as a still image in a photographing device for three-dimensional measurement in which the measurement object 8 is overlapped and photographed in sequence by a single camera, a display section 3 that displays in the same screen the live image 11 at the present position of the photographing section 2 and the sample image 12 of a simulation object as a still image that is photographed at nearly identical relative positional relation with the next predetermined photographing position, a photographing position determination section 4 that compares the live image 11 at the present position with the sample image 12 in the photographing section 2 and determines the relative position of the photographing section 2 to the next predetermined photographing position, and a removing information noticing section 5 that prepares guide information and notices it to the display section so that the photographer can move to the next predetermined photographing position from the present position. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は三次元計測用画像撮影装置に関する。詳しくは、撮影者を現在位置から次回撮影予定位置へガイドする三次元計測用画像撮影装置に関する。   The present invention relates to an image photographing apparatus for three-dimensional measurement. More specifically, the present invention relates to a three-dimensional measurement image photographing apparatus that guides a photographer from a current position to a next photographing scheduled position.

測定対象物の全体像を把握し、三次元モデル画像に再現するには、複数の撮影位置から撮影した撮影画像を連結していく必要がある。このように撮影者が移動しながら撮影した複数の撮影画像から撮影装置または対象物の三次元座標を測定するには、2枚以上の各撮影画像上で相互に対応する特徴点(対象物上の同一点を表す)を求め、これを追跡する必要がある。この場合、三次元計測に不適切な特徴点が撮影画像に混入し得るので、撮影画像における特徴点の適否を判定しながら、その撮影装置の撮影位置、姿勢又は対象物の位置座標を精度良く計測できる画像処理装置が提案されている。(特許文献1参照)   In order to grasp the whole image of the measurement object and reproduce it as a three-dimensional model image, it is necessary to link the photographed images taken from a plurality of photographing positions. In order to measure the three-dimensional coordinates of the photographing apparatus or the object from the plurality of photographed images taken by the photographer in this way, the feature points (on the object) corresponding to each other on each of the two or more photographed images. Represents the same point) and needs to be tracked. In this case, since feature points inappropriate for three-dimensional measurement can be mixed in the captured image, it is possible to accurately determine the capturing position, orientation, or position coordinates of the target object of the capturing apparatus while determining the suitability of the feature points in the captured image. An image processing apparatus capable of measurement has been proposed. (See Patent Document 1)

特開2007−183256号公報(図1〜図11、段落0021〜0065)JP 2007-183256 A (FIGS. 1 to 11, paragraphs 0021 to 0065)

測定対象物の三次元モデル画像を正確かつ効率的に再現するには、測定対象物を撮影する複数の撮影位置を予め適正に配置しておく必要がある。そして予め定められた撮影予定位置に確実に移動して撮影する必要がある。しかしながら、実際に、移動中の撮影者が測定対象物とその周辺を見て、現在位置が撮影予定位置であるか否かを判断するのは困難であるという問題があった。特に、三次元モデル画像作成のための撮影に、未経験者や不慣れな者、さらに慣れた人でも、自動車、美術品、建造物、地形など測定対象物が大きい場合、その表面形状が複雑な場合、同様な繰り返し模様が現れる場合には、隣り合う画像間の重複範囲を適切に取りながら撮影することが困難であった。   In order to accurately and efficiently reproduce the three-dimensional model image of the measurement target, it is necessary to appropriately arrange a plurality of shooting positions for shooting the measurement target in advance. Then, it is necessary to reliably move to a predetermined shooting scheduled position for shooting. However, there is a problem that it is difficult for a moving photographer to actually determine whether or not the current position is a planned photographing position by looking at the measurement object and its surroundings. In particular, inexperienced people, inexperienced people, and even more accustomed to shooting for creating a 3D model image, when measuring objects such as automobiles, works of art, buildings, terrain are large, and the surface shape is complicated When a similar repetitive pattern appears, it is difficult to take a picture while appropriately taking an overlapping range between adjacent images.

本発明は、上記問題点に鑑みてなされたものであり、撮影者が次回撮影予定位置に的確に移動できるように、撮影者を現在位置から次回撮影予定位置へ的確にガイドする三次元計測用画像撮影装置を提供することを目的とする。   The present invention has been made in view of the above problems, and is for three-dimensional measurement that guides a photographer accurately from the current position to the next scheduled shooting position so that the photographer can accurately move to the next scheduled shooting position. An object is to provide an image photographing apparatus.

上記目的を達成するため、本発明の第1の態様の三次元計測用画像撮影装置1は、例えば、図1及び図4に示すように、測定対象物8を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において、撮影者が移動しながら測定対象物8を撮影することによりライブ画像11を取得し、適時に静止画像である撮影画像を取得する撮影部2と、撮影部2の現在位置でのライブ画像11と次回撮影予定位置と略同じ相対的位置関係で撮影された静止画像である模擬対象物の見本画像12とを同一画面内に表示する表示部3と、撮影部2の現在位置でのライブ画像11と見本画像12とを比較して、次回撮影予定位置に対する撮影部2の相対的位置を判定する撮影位置判定部4と、現在位置から次回撮影予定位置へ撮影者が移動するようにガイド情報を作成し表示部に報知させる移動情報報知部5とを備える。   In order to achieve the above object, the three-dimensional measurement image photographing apparatus 1 according to the first aspect of the present invention sequentially photographs, for example, as shown in FIGS. In the three-dimensional measurement image photographing apparatus, a photographing unit 2 that obtains a live image 11 by photographing a measurement object 8 while a photographer moves, and obtains a photographed image that is a still image in a timely manner, and a photographing unit A display unit 3 for displaying a live image 11 at the current position 2 and a sample image 12 of a simulated object, which is a still image photographed with substantially the same relative positional relationship as the next scheduled photographing position, on the same screen; The live image 11 at the current position of the unit 2 and the sample image 12 are compared, and the shooting position determination unit 4 that determines the relative position of the shooting unit 2 with respect to the next shooting scheduled position, from the current position to the next shooting scheduled position Photographer moves And a movement notification unit 5 which creates the guide information is notified to the display unit as.

ここにおいて、ライブ画像とは、例えば、現在の位置においてビデオカメラやデジタルカメラ等で取得された画像をいう。通常は、ビデオカメラやデジタルカメラを用いて撮影者が移動しながらファインダーやディスプレイ等に測定対象物をライブ画像として表示する。また、撮影画像とは、シャッター操作などにより撮影した静止画像をいう。また、模擬対象物の見本画像とは、測定対象物が自動車である場合には、典型的には、他の自動車について(形状が似ているほど好ましい)撮影予定位置と略同じ相対的位置関係(方向、距離)で既に撮影された撮影画像(静止画像)から選択された画像をいう。ただし、同じ型式の自動車や同一自動車で、ボケた部分や異物混入部分を修正したい、より高画質の撮影画像を得たい、条件を変えて撮影したい等の場合もあるので、模擬対象物は同じ型式の物や測定対象物を含むものとする。また、同じ相対的位置関係とは、撮影部と測定対象物との方向及び距離が、見本画像を撮影した撮影装置と模擬対象物との方向及び距離と等しいことを意味するが、測定対象物と模擬対象物の差異も考慮し、ここでは、方向、距離が同じに限られず、例えば差異が±10%以内であれば良い。また、同じ相対的位置関係で既に撮影された撮影画像には、撮影予定位置から撮影現場に設置された模擬対象物又は測定対象物を撮影した撮影画像を含むものとする。また、次回撮影予定位置は例えば、予め定められた撮影予定位置から予め定められた順序に従って決めても良く、現在位置から最短の撮影予定位置を選択しても良い。また、ガイド情報は方向及び距離をガイドするものでも良いが、距離に係るガイドは例えば「前へ」、「後へ」、「近くへ」、「遠くへ」と方向でも表現できるので、方向のみをガイドするものでも良い。
本態様のように構成すると、撮影者を現在位置から次回撮影予定位置へ的確にガイドする三次元計測用画像撮影装置を提供できる。
Here, the live image refers to an image acquired by a video camera or a digital camera at the current position, for example. Usually, a measurement object is displayed as a live image on a finder, a display or the like while a photographer moves using a video camera or a digital camera. A captured image refers to a still image captured by a shutter operation or the like. In addition, the sample image of the simulated target is typically the same relative positional relationship as the planned shooting position for other vehicles (preferably similar in shape) when the measurement target is a vehicle. An image selected from captured images (still images) already captured at (direction, distance). However, in the same type of car or the same car, there may be cases where you want to correct blurred parts or foreign-matter-contaminated parts, obtain higher-quality photographic images, or shoot under different conditions. It shall include model objects and objects to be measured. The same relative positional relationship means that the direction and distance between the photographing unit and the measurement object are equal to the direction and distance between the photographing apparatus that photographed the sample image and the simulated object. Considering the difference between the simulation object and the simulated object, the direction and the distance are not limited to the same, and the difference may be within ± 10%, for example. In addition, the photographed image that has already been photographed with the same relative positional relationship includes a photographed image obtained by photographing the simulated object or the measurement object installed at the photographing site from the planned photographing position. Further, the next scheduled shooting position may be determined according to a predetermined order from a predetermined shooting schedule position, or the shortest scheduled shooting position may be selected from the current position. In addition, the guide information may be information that guides the direction and distance, but the guide related to the distance can also be expressed in directions such as “forward”, “back”, “near”, and “far”, so only the direction. It may be a guide.
When configured in this manner, it is possible to provide a three-dimensional measurement image photographing apparatus that accurately guides the photographer from the current position to the next photographing scheduled position.

本発明の第2の態様の三次元計測用画像撮影装置1Aは、第1の態様の三次元計測用画像撮影装置において、例えば図6に示すように、撮影部2で取得された撮影画像における特徴点を抽出する特徴点抽出部21と、特徴点抽出部21で抽出した特徴点の撮影画像における画面位置から、撮影画像を撮影した撮影位置の二次元座標又は三次元座標を求める撮影位置測定部23と、求められた撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択する次回撮影予定位置選択部24とを備え、表示部3は、見本画像12として選択された次回撮影予定位置と略同じ相対的位置関係で撮影された模擬対象物の画像を表示する。   The three-dimensional measurement image photographing apparatus 1A according to the second aspect of the present invention is a three-dimensional measurement image photographing apparatus according to the first aspect, for example, in a photographed image acquired by the photographing unit 2, as shown in FIG. A feature point extracting unit 21 that extracts a feature point, and a shooting position measurement that obtains a two-dimensional coordinate or a three-dimensional coordinate of the shooting position at which the shot image is shot from the screen position of the shot image of the feature point extracted by the feature point extraction unit 21 The display unit 3 includes a unit 23 and a planned next shooting position selection unit 24 that selects a planned next shooting position from a plurality of planned shooting positions based on the obtained position coordinates of the shooting position. The image of the simulated object photographed with the same relative positional relationship as the next photographing scheduled position selected as is displayed.

ここにおいて、撮影位置の二次元座標又は三次元座標を求めるには、例えば、DLT(Direct Linear Transformation)法または相互標定が用いられる。また、多くの撮影画像、多くの特徴点を用いる程、位置座標の精度を高くできる。
本態様のように構成すると、撮影者の撮影位置の二次元座標又は三次元座標を求めるので、撮影予定位置との定量的な位置関係に基づいて、撮影者を次回撮影予定位置に的確にガイドできる。
Here, in order to obtain the two-dimensional coordinates or the three-dimensional coordinates of the photographing position, for example, a DLT (Direct Linear Transformation) method or a relative orientation is used. In addition, as the number of captured images and the number of feature points are used, the accuracy of position coordinates can be increased.
According to this configuration, since the two-dimensional coordinates or three-dimensional coordinates of the photographing position of the photographer are obtained, the photographer is accurately guided to the next photographing scheduled position based on the quantitative positional relationship with the planned photographing position. it can.

本発明の第3の態様の三次元計測用画像撮影装置1は、第1又は第2の態様の三次元計測用画像撮影装置において、例えば図4に示すように、ガイド情報は、撮影部2の測定対象物8に対する相対的移動方向又は次回撮影予定位置を示す表示である。   The three-dimensional measurement image photographing apparatus 1 according to the third aspect of the present invention is the three-dimensional measurement image photographing apparatus according to the first or second aspect. For example, as shown in FIG. It is a display which shows the relative moving direction with respect to the measurement object 8, or the next imaging | photography scheduled position.

ここにおいて、相対的移動方向を示す表示とは、例えば、表示画面に矢印を表示する、文字で「右に移動してください」と表示する、音声で「右に移動してください」とアナウンスする等である。また、次回撮影予定位置を示す表示とは、例えば、次回撮影予定位置番号が2であれば、表示画面の撮影予定位置近傍に表示された番号2を点滅表示する、文字で「2番に移動してください」と表示する、音声で「2番に移動してください」とアナウンスする等である。
本態様のように構成すると、ガイド情報の表示を用いて撮影者に次回撮影予定位置をわかり易く報知できる。
Here, the display indicating the relative movement direction is, for example, displaying an arrow on the display screen, displaying "Please move to the right" in text, and announcing "Please move to the right" in voice. Etc. In addition, for example, if the next shooting scheduled position number is 2, the number 2 displayed near the scheduled shooting position on the display screen is displayed blinking. Please display ", announce with voice" Please move to number 2 ", etc.
If comprised like this aspect, it can alert | report an imaging | photography next position to a photographer intelligibly using the display of guide information.

本発明の第4の態様の三次元計測用画像撮影装置1は、第1ないし第4のいずれかの態様の三次元計測用画像撮影装置において、例えば図8又は図9に示すように、自他識別可能な識別コードを有するマークCTの識別コードを識別するコード識別部22を備え、撮影部2は、撮影画像を測定対象物8と共に測定対象物8又はその周囲に存在する物に貼付された複数のマークCTを含むように撮影して取得し、特徴点抽出部21は、撮影画像からマークCTを特徴点として抽出し、コード識別部22は特徴点抽出部21で抽出されたマークCTの識別コードを識別する。   The three-dimensional measurement image photographing apparatus 1 according to the fourth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to fourth aspects, as shown in FIG. 8 or FIG. A code identification unit 22 for identifying an identification code of a mark CT having another identification code is provided, and the imaging unit 2 attaches a captured image together with the measurement object 8 to the measurement object 8 or an object existing around it. The feature point extraction unit 21 extracts the mark CT as a feature point from the photographed image, and the code identification unit 22 extracts the mark CT extracted by the feature point extraction unit 21. Identify the identification code.

ここにおいて、自他識別可能な識別コードを有するマークには、数字列、文字列、記号のように識別可能な符号を用いたコード、バーコード、2次元バーコード、カラーコードのようにパターン配置に識別性を持たせたコードが含まれる。このうち、実施例では主にカラーコードを使用する例を説明する。
このように構成すると、測定対象物又はその周囲に存在する物に自他識別可能な識別コードを有するマークを貼付することにより、撮影画像から撮影位置を正確に求めることができる。
Here, the mark having an identification code that can be identified by itself and others is arranged in a pattern such as a code, a barcode, a two-dimensional barcode, and a color code using an identification code such as a numeric string, a character string, and a symbol. Contains a code with distinctiveness. Of these, in the embodiment, an example in which a color code is mainly used will be described.
If comprised in this way, an imaging | photography position can be correctly calculated | required from a picked-up image by sticking the mark which has the identification code which can identify self-others to the measurement object or the thing which exists in the circumference | surroundings.

本発明によれば、撮影者を現在位置から次回撮影予定位置へ的確にガイドする三次元計測用画像撮影装置を提供できる。   According to the present invention, it is possible to provide an image photographing apparatus for three-dimensional measurement that accurately guides a photographer from a current position to a next photographing scheduled position.

実施例1に係る三次元計測用画像撮影装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a three-dimensional measurement image capturing apparatus according to Embodiment 1. FIG. 実施例1における表示画面の例を示す図(その1)である。FIG. 6 is a first diagram illustrating an example of a display screen according to the first embodiment. 実施例1における表示画面の例を示す図(その2)である。FIG. 6 is a second diagram illustrating an example of a display screen according to the first embodiment. 実施例1における表示画面の例を示す図(その3)である。FIG. 10 is a third diagram illustrating an exemplary display screen according to the first embodiment. 実施例1における画像撮影の処理フロー例を示す図である。FIG. 6 is a diagram illustrating an example of a processing flow of image shooting in the first embodiment. 実施例2に係る三次元計測用画像撮影装置の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a three-dimensional measurement image capturing apparatus according to a second embodiment. カラーコードターゲットの例を示す図である。It is a figure which shows the example of a color code target. 実施例2における表示画面の例を示す図(その1)である。FIG. 10 is a first diagram illustrating an example of a display screen according to the second embodiment. 実施例2における表示画面の例を示す図(その2)である。FIG. 12 is a second diagram illustrating an example of a display screen according to the second embodiment. レトロターゲットを用いた重心位置検出の説明図である。It is explanatory drawing of the gravity center position detection using a retro target. 対応点探索を説明するための図である。It is a figure for demonstrating corresponding point search. 相互標定を説明するための図である。It is a figure for demonstrating mutual orientation. 実施例2における画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing in the second embodiment.

以下、図面を参照して、本発明の実施の形態について説明する。尚、各図において、互いに同一又は相当する部分には同一符号を付し,重複した説明は省略する。   Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.

[三次元計測用画像撮影装置の構成]
図1は本発明の実施例1に係る三次元計測用画像撮影装置1の構成を示すブロック図である。三次元計測用画像撮影装置1は、撮影部2、表示部3、撮影位置判定部4、移動情報報知部5、画像記憶部6、制御部7を備える。撮影位置判定部4、移動情報報知部5、制御部7はパーソナルコンピュータ(PC)9内に設けられる。撮影部2は、例えばビデオカメラやデジタルカメラで構成され、撮影者が移動しながら現在位置で測定対象物8を撮影してライブ画像を取得し、ファインダーやディスプレイ等に表示させ、また、シャッター操作などにより静止画像である撮影画像を撮影して取得する。本実施例では、ビデオカメラ又はデジタルカメラでライブ画像を撮影し、かつ、静止画像を撮影するものとする。ビデオカメラではシャッター操作により通常は撮影画像を外部のメモリに記憶するが、内部メモリがあればそこに記憶される。デジタルカメラではシャッター操作により撮影画像を内部メモリに記憶する。画像記憶部6は、例えばハードディスクで構成されデータベースとして使用される。画像記憶部6は、撮影部2で撮影された撮影画像、撮影予定位置と略同じ相対的位置関係で予め撮影された模擬対象物の見本画像等を記憶する。画像記憶部6としてカメラの内部メモリを用いても良いが、PCのハードディスクを用いる方が高速、多様な処理に適しているので好ましい。本実施例では、外部メモリを用いるカメラでは撮影画像を画像記憶部6に直接記憶し、内部メモリを用いるカメラでは撮影画像を画像記憶部6に転送するものとする。同じ相対的位置関係とは、撮影部と測定対象物との方向及び距離が、見本画像を撮影した撮影装置と模擬対象物との方向及び距離と等しいことを意味する。また、各見本画像は撮影予定位置と対応付けて記憶される。また、次回撮影予定位置に対する撮影部2の相対的位置を判定するためのライブ画像もシャッター操作などにより取得され、画像記憶部6に記憶される。記憶された撮影画像と相対的位置を判定するためのライブ画像の区別は、例えば撮影者が図示しない入力キーから、撮影画像の場合は1を、ライブ画像の場合は2を入力して行なう。また、ビデオカメラ又はデジタルカメラで撮影されたライブ画像は常時画像記憶部6のテンポラリメモリに上書きされて、表示部3に転送される。表示部3は、例えば、液晶ディスプレイ等のディスプレイを有する。少なくとも、撮影部2の現在位置でのライブ画像と次回撮影予定位置で撮影された静止画像である模擬対象物の見本画像とを同一画面内に表示する。両画像を左右に又は上下に並べて表示するのが比較し易いので好適であるが、同一画面内に表示されれば比較できるのでそれでも良い。また、表示部3は音声ガイドをする場合にはスピーカを有する。
[Configuration of image photographing device for three-dimensional measurement]
FIG. 1 is a block diagram showing a configuration of a three-dimensional measurement image photographing apparatus 1 according to the first embodiment of the present invention. The three-dimensional measurement image photographing apparatus 1 includes a photographing unit 2, a display unit 3, a photographing position determination unit 4, a movement information notification unit 5, an image storage unit 6, and a control unit 7. The photographing position determination unit 4, the movement information notification unit 5, and the control unit 7 are provided in a personal computer (PC) 9. The photographing unit 2 is composed of, for example, a video camera or a digital camera, and captures a live image by photographing the measurement object 8 at the current position while the photographer moves, displays it on a viewfinder, a display, etc., and operates a shutter. For example, a captured image that is a still image is captured and acquired. In this embodiment, it is assumed that a live image is taken and a still image is taken with a video camera or a digital camera. In a video camera, a photographed image is usually stored in an external memory by a shutter operation, but if there is an internal memory, it is stored there. In a digital camera, a captured image is stored in an internal memory by a shutter operation. The image storage unit 6 is composed of, for example, a hard disk and used as a database. The image storage unit 6 stores a photographed image photographed by the photographing unit 2, a sample image of a simulated object photographed in advance with the same relative positional relationship as the planned photographing position, and the like. Although the internal memory of the camera may be used as the image storage unit 6, it is preferable to use a PC hard disk because it is suitable for various processing at high speed. In this embodiment, a camera using an external memory stores a captured image directly in the image storage unit 6, and a camera using an internal memory transfers the captured image to the image storage unit 6. The same relative positional relationship means that the direction and the distance between the imaging unit and the measurement object are equal to the direction and the distance between the imaging device that captured the sample image and the simulation object. Each sample image is stored in association with the scheduled shooting position. In addition, a live image for determining the relative position of the photographing unit 2 with respect to the next photographing scheduled position is also acquired by a shutter operation or the like and stored in the image storage unit 6. For example, the photographer inputs 1 for a photographed image and 2 for a live image from a stored live image for determining a relative position. In addition, a live image taken by a video camera or a digital camera is always overwritten in the temporary memory of the image storage unit 6 and transferred to the display unit 3. The display unit 3 includes a display such as a liquid crystal display, for example. At least a live image at the current position of the photographing unit 2 and a sample image of a simulated object that is a still image photographed at the next scheduled photographing position are displayed on the same screen. It is preferable to display both images side by side or side by side because they are easy to compare. However, if they are displayed on the same screen, they can be compared. In addition, the display unit 3 has a speaker when performing voice guidance.

図2〜図4に、表示部3に表示される表示画面の例を示す。左側にライブ画像11を右側に見本画像12を並べて表示する。模擬対象物の見本画像12とは、撮影対象物8が例えば自動車である場合には、他の自動車について(形状が似ているほど好ましい)撮影予定位置と略同じ相対的位置関係(方向、距離)で既に撮影された自動車の撮影画像(静止画像)から選択された画像をいう。表示部3は、画像記憶部6に記憶された見本画像のうち次回撮影予定位置に対応付けられた画像から選んで表示する。また、撮影対象物と撮影予定位置との位置関係を二次元的に表す撮影位置画像13を表示する。撮影位置画像13には、撮影対象物8の設置領域14が表示され、撮影予定位置には番号が付され(○内に1〜8の番号を付して示す)、各撮影予定位置(○内に1〜○内に8)から撮影対象物8を観察・撮影する方向が矢印で表されている。撮影者は撮影予定位置に付された番号順に撮影予定位置へ移動して、順次、撮影対象物8を撮影すれば良い。静止画像の撮影が行なわれ、撮影者が入力キーから1を入力すると、見本画像12は次の次回撮影予定位置の画像に変化する。また、移動中に現在位置を知るため、ライブ画像を取得する際には、撮影者が入力キーから2を入力する。   2 to 4 show examples of display screens displayed on the display unit 3. The live image 11 is displayed on the left side and the sample image 12 is displayed on the right side. The sample image 12 of the simulated object is, for example, when the imaging object 8 is an automobile, the relative positional relationship (direction, distance) that is substantially the same as the scheduled imaging position for other automobiles (the more similar the shape is). ) Refers to an image selected from a photographed image (still image) of a car that has already been photographed. The display unit 3 selects and displays the sample image stored in the image storage unit 6 from the images associated with the next shooting scheduled position. In addition, a shooting position image 13 that two-dimensionally represents the positional relationship between the shooting target and the planned shooting position is displayed. In the shooting position image 13, an installation area 14 of the shooting target object 8 is displayed, and the shooting scheduled positions are numbered (indicated by numbers 1 to 8 in circles), and each shooting planned position (◯ The direction in which the object 8 is observed and photographed from 8) within 1 to ○ is indicated by arrows. The photographer may move to the planned shooting position in the order of the numbers assigned to the planned shooting position and sequentially shoot the shooting target 8. When a still image is shot and the photographer inputs 1 from the input key, the sample image 12 changes to an image at the next scheduled shooting position. In order to know the current position during movement, the photographer inputs 2 from the input key when acquiring a live image.

図2の表示画面は撮影部2が撮影予定位置(○内に1)にある場合を示している。ライブ画像11及び見本画像12には前方から撮影された自動車が表示され、自動車の方向が略一致している。撮影位置画像13には次回撮影予定位置(○内に1)が例えば赤色で表示され、他の撮影予定位置(○内に2〜8)が例えば黒色で表示されている。図3の表示画面は撮影部2が撮影予定位置(○内に2)にある場合を示している。ライブ画像11及び見本画像12には右前方から撮影された自動車が表示され、自動車の方向が略一致している。撮影位置画像13には次回撮影予定位置(○内に2)が例えば赤色で表示され、他の撮影予定位置(○内に1,3〜8)が例えば黒色で表示されている。図4の表示画面は撮影部2が撮影予定位置(○内に1)と撮影予定位置(○内に8)の中間にある場合を示している。例えば撮影者が撮影予定位置(○内に1〜7)での撮影を終えて撮影予定位置(○内に8)に移動する時に行き過ぎた場合である。ライブ画像11には前方やや左方から撮影された自動車が表示され、見本画像12には左前方から撮影された自動車が表示され、撮影位置画像13には次回撮影予定位置(○内に8)が例えば赤色で表示され、他の撮影予定位置(○内に1〜7)が例えば黒色で表示されている。また、ライブ画像11には、「右に移動してください」との文字表示がされ、撮影者に次回撮影予定位置である撮影予定位置(○内に8)の方向に移動するようにガイド情報を報知している。なお、撮影位置画像13の撮影予定位置(○内に1)と撮影予定位置(○内に8)との間に撮影予定位置(○内に8)に向かう矢印を表示してガイドしても良い。撮影者がこのガイド情報に従って自動車8に対して右回りに移動すれば、次回撮影予定位置(○内に8)に到達でき、次回撮影予定位置(○内に8)に到達すると、ライブ画像11と見本画像12における自動車の方向が略一致するので、次回撮影予定位置(○内に8)に到達したことがわかる。なお、このとき、ライブ画像11又は撮影位置画像13に「OK」と到達したことを示す文字表示をしても良く、音声で「OK」とアナウンスしても良い。静止画の撮影が行なわれると、見本画像12は次の次回撮影予定位置に対応付けられた画像に変化する。全ての撮影予定位置(○内に1〜8)での撮影が行なわれれば、次回撮影予定位置に対応付けられた画像はなくなるので見本画像12は空白になる。この場合、見本画像12に「撮影完了」と文字表示をしても良く、音声で「撮影完了」とアナウンスしても良い。   The display screen of FIG. 2 shows the case where the photographing unit 2 is at the planned photographing position (1 in the circle). In the live image 11 and the sample image 12, a car photographed from the front is displayed, and the directions of the cars are substantially coincident. In the shooting position image 13, the next shooting scheduled position (1 in ○) is displayed in red, for example, and the other shooting planned positions (2 to 8 in ○) are displayed in black, for example. The display screen of FIG. 3 shows the case where the photographing unit 2 is at the planned photographing position (2 in the circle). In the live image 11 and the sample image 12, a car photographed from the right front is displayed, and the directions of the cars are substantially the same. In the shooting position image 13, the next scheduled shooting position (2 in circles) is displayed in red, for example, and the other scheduled shooting positions (1, 3 to 8 in circles) are displayed in black, for example. The display screen of FIG. 4 shows the case where the photographing unit 2 is in the middle of the planned photographing position (1 in circle) and the planned photographing position (8 in circle). For example, it is a case where the photographer has overtaken when moving to the scheduled shooting position (8 in the circle) after shooting at the planned shooting position (1 to 7 in the circle). The live image 11 shows a car taken from the front and slightly left, the sample image 12 shows the car taken from the front left, and the shooting position image 13 shows the next shooting position (8 in circle). Is displayed in red, for example, and other scheduled shooting positions (1 to 7 in a circle) are displayed in black, for example. In addition, the live image 11 is displayed with the text “Please move to the right”, and guide information is provided so that the photographer moves in the direction of the scheduled shooting position (8 in the circle) that is the next scheduled shooting position. Is informed. Note that an arrow toward the scheduled shooting position (8 in the circle) may be displayed and guided between the planned shooting position (1 in the circle) and the planned shooting position (8 in the circle) of the shooting position image 13. good. If the photographer moves clockwise with respect to the car 8 according to this guide information, the next shooting scheduled position (8 within ○) can be reached, and if the next shooting scheduled position (8 within ○) is reached, the live image 11 is reached. Since the direction of the vehicle in the sample image 12 is substantially the same, it can be seen that the next shooting position (8 in ○) has been reached. At this time, a character display indicating that “OK” has been reached may be displayed on the live image 11 or the shooting position image 13, or “OK” may be announced by voice. When a still image is shot, the sample image 12 changes to an image associated with the next scheduled shooting position. If shooting is performed at all scheduled shooting positions (1 to 8 in a circle), the image associated with the next scheduled shooting position disappears and the sample image 12 becomes blank. In this case, the sample image 12 may be displayed with a letter “shooting complete” or may be announced with a voice “shooting complete”.

撮影位置判定部4は、撮影部2すなわち撮影者の現在位置でのライブ画像11と見本画像12とを比較して、次回撮影予定位置に対する撮影部2の相対的位置を判定する。撮影位置判定部4はライブ画像11の自動車の方向を解析する。例えば、データベースに多くの見本画像12を撮影予定位置(○内に1〜8)と対応付けて蓄積し、これらの見本画像のパターン7からライブ画像11に比較的似たパターンを抽出してライブ画像11と比較する。例えば、撮影予定位置(○内に1)と撮影予定位置(○内に2)の両方のパターンに似ている場合には、撮影部2は撮影予定位置(○内に1)と撮影予定位置(○内に2)の中間に在ると判定し、その中で、撮影予定位置(○内に1)の見本画像により似ていれば、撮影予定位置(○内に1)により近い方にあり、撮影予定位置(○内に2)の見本画像により似ていれば、撮影予定位置(○内に2)により近い方にあると判定する。ライブ画像11のパターンと見本画像12のパターンの類似性は、例えばライブ画像11と見本画像12から特徴点を抽出し、対応する特徴点の画像間での距離を統計的に処理して求めても良い。また、撮影予定位置(○内に1〜8)以外の位置に対応付けられる見本画像(例えば撮影予定位置の中間と略同じ相対的位置関係で撮影された見本画像、斜め上方から撮影された見本画像等)も比較の対象として用いても良い。   The photographing position determination unit 4 compares the live image 11 at the current position of the photographing unit 2, that is, the photographer, with the sample image 12, and determines the relative position of the photographing unit 2 with respect to the next photographing scheduled position. The shooting position determination unit 4 analyzes the direction of the car in the live image 11. For example, a large number of sample images 12 are stored in the database in association with planned shooting positions (1 to 8 in the circles), and a pattern relatively similar to the live image 11 is extracted from the pattern 7 of these sample images. Compare with image 11. For example, if the pattern is similar to both the planned shooting position (1 in circle) and the planned shooting position (2 in circle), the shooting unit 2 determines the planned shooting position (1 in circle) and the planned shooting position. If it is determined that it is in the middle of (2 in ○) and it is more similar to the sample image at the planned shooting position (1 in ○), it is closer to the planned shooting position (1 in ○). If it is more similar to the sample image at the scheduled shooting position (2 in the circle), it is determined that it is closer to the planned shooting position (2 in the circle). The similarity between the pattern of the live image 11 and the pattern of the sample image 12 is obtained by, for example, extracting feature points from the live image 11 and the sample image 12 and statistically processing the distance between the corresponding feature points. Also good. In addition, sample images associated with positions other than the planned shooting positions (1 to 8 in the circle) (for example, sample images shot with the same relative positional relationship as the middle of the planned shooting positions, samples shot from diagonally above) Image etc.) may also be used as a comparison target.

撮影予定位置に対する撮影部2の相対的位置(方向、距離)は、撮影画像内の測定対象物の方向と寸法から判定される。例えば、画像記憶部6に多数の方向、距離から撮影された見本画像を、方向、距離と対応付けて蓄積しておき、取得したライブ画像11をこれらの見本画像と比較し、類似性の高い画像を抽出して、撮影予定位置に対する撮影部2の相対的位置を判定する。取得されたライブ画像に自動車が大きく写っているときは撮影部2は自動車の近くにあり、自動車が小さく写っているときは撮影部2は自動車の遠くにあると判定される。また、ライブ画像11を、撮影予定位置(○内に1)の方向から取得した場合は自動車の前方、撮影予定位置(○内に2)の方向から取得した場合は自動車の右前方、撮影予定位置(○内に3)の方向から取得した場合は自動車の右方、撮影予定位置(○内に4)の方向から取得した場合は自動車の右後方、撮影予定位置(○内に5)の方向から取得した場合は自動車の後方、撮影予定位置(○内に6)の方向から取得した場合は自動車の左後方、撮影予定位置(○内に7)の方向から取得した場合は自動車の左方、撮影予定位置(○内に8)の方向から取得した場合は自動車の左前方と判定される。また、これらの中間位置、例えば、撮影予定位置(○内に1)と撮影予定位置(○内に2)の中間から取得した場合は自動車の前方やや右側にあると判定される。   The relative position (direction, distance) of the photographing unit 2 with respect to the planned photographing position is determined from the direction and size of the measurement object in the photographed image. For example, sample images taken from a number of directions and distances are stored in the image storage unit 6 in association with directions and distances, and the obtained live image 11 is compared with these sample images and has high similarity. An image is extracted and the relative position of the photographing unit 2 with respect to the planned photographing position is determined. When the car is reflected in the acquired live image, the photographing unit 2 is near the car. When the car is small, the photographing part 2 is determined to be far from the car. Further, when the live image 11 is acquired from the direction of the planned shooting position (1 in circle), it is the front of the car, and when it is acquired from the direction of the planned shooting position (2 in circle), the right side of the car is scheduled to be shot. If acquired from the direction of the position (3 within ○), the right side of the car, if acquired from the direction of the planned shooting position (4 within ○), the right rear of the car, the planned shooting position (5 within ○) When acquired from the direction of the rear of the car if acquired from the direction, from the direction of the left side of the car when acquired from the direction of the planned shooting position (6 in circle), to the left of the car if acquired from the direction of the planned position of shooting (7 within ○) On the other hand, when it is acquired from the direction of the planned shooting position (8 in ○), it is determined as the left front of the automobile. In addition, when it is acquired from these intermediate positions, for example, between the planned shooting position (1 in ◯) and the planned shooting position (2 in ◯), it is determined to be slightly in front of the automobile.

移動情報報知部5は、撮影部2の現在位置から次回撮影予定位置へ撮影者が移動するようにガイド情報を作成し、表示部3に報知させる。移動情報報知部5は撮影位置判定部4による次回撮影予定位置に対する撮影部2の相対的位置を判定に基づいてガイド情報を報知する。例えば、撮影部2が撮影予定位置(○内に1)や撮影予定位置(○内に2)にある場合には、ガイド情報を作成しなくても良く、「OK」と作成しても良い。また、例えば、撮影予定位置(○内に1)と撮影予定位置(○内に8)の中間にあり、次回撮影予定位置が撮影予定位置(○内に8)の場合には、「右に移動してください」とのガイド情報を作成し、表示部3であるディスプレイに文字表示させたり、スピーカにアナウンスさせる。また、例えば、撮影予定位置(○内に1)と撮影予定位置(○内に2)の中間にあり、次回撮影予定位置が撮影予定位置(○内に2)の場合には、「左に移動してください」とのガイド情報を作成し、表示部3であるディスプレイに文字表示させたり、スピーカにアナウンスさせる。また、ガイド情報は方向及び距離をガイドするものでも良いが、距離に係るガイドは方向でも表現できるので、方向のみをガイドするものでも良い。さらに、測定対象物8を周囲から撮影する等、測定対象物8と各撮影予定位置(○内に1〜8)との距離が予め決められている(例えば5m)場合、遠方からの撮影で距離の影響が無視できる場合には、「右へ」、「左へ」等横方向へのガイドでも良い。   The movement information notification unit 5 creates guide information so that the photographer moves from the current position of the photographing unit 2 to the next photographing scheduled position and causes the display unit 3 to inform the guide information. The movement information notification unit 5 notifies the guide information based on the determination of the relative position of the photographing unit 2 with respect to the next photographing scheduled position by the photographing position determination unit 4. For example, when the photographing unit 2 is at the planned photographing position (1 in the circle) or the planned photographing position (2 in the circle), the guide information need not be created, and “OK” may be created. . Also, for example, when the planned shooting position (1 in ○) and the planned shooting position (8 in ○) are in the middle, and the next shooting planned position is the planned shooting position (8 in ○), “to the right “Please move” guide information is generated and displayed on the display, which is the display unit 3, or announced on the speaker. Also, for example, when the planned shooting position (1 in circle) and the planned shooting position (2 in circle) are in the middle, and the next shooting scheduled position is the planned shooting position (2 in circle), “to the left “Please move” guide information is generated and displayed on the display, which is the display unit 3, or announced on the speaker. Further, the guide information may be information that guides the direction and the distance, but the guide related to the distance can also be expressed by the direction, so that only the direction may be guided. Further, when the distance between the measurement object 8 and each planned shooting position (1 to 8 in the circle) is predetermined (for example, 5 m), such as when the measurement object 8 is photographed from the surroundings, photographing from a distant place is possible. When the influence of the distance can be ignored, a lateral guide such as “to the right” or “to the left” may be used.

制御部7は、内臓メモリに制御プログラムを有し、三次元計測用画像撮影装置1の各部を制御し、信号及びデータの流れを制御し、三次元計測用画像撮影装置としての機能を実行させる。特に、撮像部2から常時ライブ画像を取得して、表示部3に表示させ、静止画像の撮影毎に、撮影予定位置に付された番号順に次回撮影予定位置を判定し、画像記憶部6から次回撮影予定位置に対応付けられた画像から測定対象物8に似た模擬対象物の画像を選んで見本画像12として表示部3に表示させる。また、撮影位置判定部4に、ライブ画像11と見本画像12とを比較させ、次回撮影予定位置に対する撮影部2の相対的位置を判定させ、移動情報報知部5に、次回撮影予定位置へ撮影者が移動するようにガイド情報を作成させる。   The control unit 7 has a control program in the built-in memory, controls each part of the three-dimensional measurement image photographing apparatus 1, controls the flow of signals and data, and executes the function as the three-dimensional measurement image photographing apparatus. . In particular, a live image is always acquired from the imaging unit 2 and displayed on the display unit 3, and the next scheduled shooting position is determined in order of the number assigned to the planned shooting position for each still image shooting, from the image storage unit 6. An image of a simulated object similar to the measurement object 8 is selected from the images associated with the next shooting scheduled position and displayed on the display unit 3 as a sample image 12. Further, the shooting position determination unit 4 compares the live image 11 with the sample image 12 to determine the relative position of the shooting unit 2 with respect to the next shooting scheduled position, and the movement information notification unit 5 takes a shot at the next shooting scheduled position. Guide information is created so that a person moves.

図5に、本実施例における画像撮影の処理フロー例を示す。まず、制御部6に撮影予定位置(○内に1〜8)と撮影順番を設定する(S101)。ここでは撮影予定位置の番号順に撮影することとする。次に、表示部3にライブ画像と共に最初の次回撮影予定位置に対応付けられた見本画像を表示する(S102)。撮影者が、ライブ画像11と見本画像12を比較しながら、最初の次回撮影予定位置に到達したと判断して撮影画像を取得する(S103)。撮影が行なわれ、例えば撮影者が1を入力すると、見本画像は次の次回撮影予定位置に対応する画像に変化する(S104)。撮影者が、再度ライブ画像11と見本画像12を比較しながら、次回撮影予定位置に到達したと判断して撮影画像を取得する(S105)。このように、撮影予定位置の番号順に、画像表示と撮影を繰り返し、撮影者が、最後の次回撮影予定位置に到達したと判断して撮影画像を取得する(S106)。撮影予定位置での撮影が一巡したら、撮影者は、表示部3に撮影画像を表示させて解析し、適切な撮影予定位置で撮影されたか、画像にぶれや異物混入等の欠陥がないか解析し(S107)、不適切な画像があれば(S108でNO)、再度撮影予定位置を設定して(S101に戻る)、不足分の撮影画像を取得する。不適切な画像がなければ(S108でYES)、撮影を終了する。なお、解析の際に、撮影位置判定部4は撮影画像の自動車の方向を解析し、撮影位置画像13の撮影対象物の設置領域14内に自動車の方向(前方)を示す矢印を表示させても良い。   FIG. 5 shows an example of a processing flow of image shooting in the present embodiment. First, a scheduled shooting position (1 to 8 in a circle) and a shooting order are set in the control unit 6 (S101). Here, shooting is performed in the order of the number of the scheduled shooting position. Next, a sample image associated with the first next scheduled shooting position is displayed on the display unit 3 together with the live image (S102). The photographer compares the live image 11 with the sample image 12 and determines that the first next shooting scheduled position has been reached, and acquires the shot image (S103). When shooting is performed and, for example, the photographer inputs 1, the sample image changes to an image corresponding to the next scheduled shooting position (S104). While the photographer compares the live image 11 with the sample image 12 again, it is determined that the photographer has reached the next scheduled shooting position, and acquires a captured image (S105). In this way, the image display and shooting are repeated in the order of the number of the scheduled shooting position, and the photographer determines that the last scheduled shooting position has been reached and acquires the shot image (S106). When shooting at the scheduled shooting position is completed, the photographer displays the captured image on the display unit 3 and analyzes it, and analyzes whether the image was shot at an appropriate scheduled shooting position or whether the image is free from defects such as blurring and contamination. If there is an inappropriate image (NO in S108), the planned shooting position is set again (returning to S101), and a shortage of captured images is acquired. If there is no inappropriate image (YES in S108), the shooting is terminated. At the time of analysis, the shooting position determination unit 4 analyzes the direction of the car in the shot image, and displays an arrow indicating the direction (front) of the car in the installation area 14 of the shooting object in the shot position image 13. Also good.

以上説明したように、本実施例によれば、撮影者を現在位置から次回撮影予定位置へ的確にガイドする三次元計測用画像撮影装置を提供できる。   As described above, according to the present embodiment, it is possible to provide a three-dimensional measurement image photographing apparatus that accurately guides the photographer from the current position to the next photographing scheduled position.

実施例2では、測定対象物又はその周囲に存在する物に自他識別可能な識別コードを有するマークを貼付し、マークの位置座標を用いて撮影位置の位置座標を求め、求められた撮影位置の位置座標に基づいて次回撮影予定位置を自動的に選択する例を説明する。   In Example 2, a mark having an identification code that can be identified by itself is attached to an object to be measured or a surrounding object, a position coordinate of the shooting position is obtained using the position coordinates of the mark, and the obtained shooting position An example in which the next shooting scheduled position is automatically selected based on the position coordinates will be described.

図6は実施例2に係る三次元計測用画像撮影装置1の構成を示すブロック図である。図1の構成に特徴点抽出部21、コード識別部22、撮影位置測定部23、次回撮影予定位置選択部24が追加されている。これらはパーソナルコンピュータ(PC)9内に設けられる。特徴点抽出部21は、撮影部2で取得された撮影画像における特徴点を抽出する。コード識別部22はマークの識別コードを識別する。撮影位置測定部23は、特徴点抽出部21で抽出した特徴点の撮影画像における画面位置から、撮影画像を撮影した撮影位置の二次元座標又は三次元座標を求める。次回撮影予定位置選択部24は、求められた撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択する。また、撮影位置判定部4は、求められた撮影位置の位置座標に基づいて、次回撮影予定位置に対する撮影部の相対的位置を判定する。   FIG. 6 is a block diagram illustrating the configuration of the three-dimensional measurement image capturing apparatus 1 according to the second embodiment. A feature point extraction unit 21, a code identification unit 22, a shooting position measurement unit 23, and a next shooting scheduled position selection unit 24 are added to the configuration of FIG. These are provided in a personal computer (PC) 9. The feature point extraction unit 21 extracts feature points in the captured image acquired by the imaging unit 2. The code identification unit 22 identifies the identification code of the mark. The shooting position measurement unit 23 obtains two-dimensional coordinates or three-dimensional coordinates of the shooting position at which the shot image is shot from the screen position in the shot image of the feature point extracted by the feature point extraction unit 21. The next scheduled shooting position selection unit 24 selects the next scheduled shooting position from a plurality of planned shooting positions based on the obtained position coordinates of the shooting position. Further, the photographing position determination unit 4 determines the relative position of the photographing unit with respect to the next photographing scheduled position based on the obtained position coordinates of the photographing position.

特徴点抽出部21は、撮影部2で取得された複数の撮影画像における特徴点を抽出する。本実施例では測定対象物である自動車の周囲にカラーコードターゲットが貼り付けられており、カラーコードターゲットを特徴点として使用できる。   The feature point extraction unit 21 extracts feature points in a plurality of photographed images acquired by the photographing unit 2. In this embodiment, a color code target is affixed around an automobile that is a measurement object, and the color code target can be used as a feature point.

[カラーコードターゲット]
図7にカラーコードターゲットCTの例を示す。図7(a)はカラーコードの単位領域が3個、図7(b)は6個、図7(c)は9個のカラーコードターゲットである。図7(a)〜(c)のカラーコードターゲットCT(CT1〜CT3)は、位置検出用パターン(レトロターゲット部)P1、基準色パターン(基準色部)P2、カラーコードパターン(カラーコード部)P3、空パターン(白色部)P4で構成されている。
[Color code target]
FIG. 7 shows an example of the color code target CT. 7A shows three color code target areas, FIG. 7B shows six color code targets, and FIG. 7C shows nine color code targets. The color code target CT (CT1 to CT3) in FIGS. 7A to 7C includes a position detection pattern (retro target portion) P1, a reference color pattern (reference color portion) P2, and a color code pattern (color code portion). P3 and an empty pattern (white portion) P4.

レトロターゲット部P1は、ターゲット自体の検出用、その重心検出用、ターゲットの向き検出用、ターゲット領域検出用として使用する。   The retro target portion P1 is used for detecting the target itself, detecting its center of gravity, detecting the direction of the target, and detecting the target area.

基準色部P2は、照明やカメラ等の撮影条件による色のずれに対応するために、相対比較時の参照用、色ずれを補正するためのカラーキャリブレーション用として使用する。さらに、基準色部P2は、簡易な方法で作成されたカラーコードターゲットCTの色彩補正用として使用できる。例えば、色管理がなされていないカラープリンター(インクジェット・レーザー・昇華型等のプリンタ)で印刷したカラーコードターゲットCTを使用する場合は、使用プリンタ等で色彩に個体差が出るが、基準色部P2とカラーコード部P3の色を相対比較し補正することで、個体差の影響を押さえることができる。   The reference color portion P2 is used for reference at the time of relative comparison and for color calibration for correcting color misregistration in order to cope with color misregistration due to shooting conditions such as illumination and a camera. Furthermore, the reference color portion P2 can be used for color correction of the color code target CT created by a simple method. For example, when using a color code target CT printed by a color printer (inkjet, laser, sublimation type printer, etc.) where color management is not performed, individual differences appear in the color of the printer used, but the reference color portion P2 By comparing and correcting the color of the color code portion P3 relative to each other, the influence of individual differences can be suppressed.

カラーコード部P3は、その各単位領域への配色の組み合わせによってコードを表現する。コードに使用するコード色の数により表現可能なコード数が変化する。例えば、コード色数がnの場合、n×n×n通りのコードを表せる。信頼度を上げるため、他の単位領域に使用されている色を重複して使用しないという条件を課した場合でも、n×(n−1)×(n−2)通りのコードを表せる。そして、コード色数を増やせばコード数を増加できる。さらに、カラーコード部P3の単位領域の数とコード色数を等しくするという条件を課すと、全てのコード色がカラーコード部P3に使用されるため、基準色部P2との比較のみで無く、カラーコード部P3の各単位領域間で色を相対比較することにより、各単位領域の色彩を確認して識別コードを決定することができ、信頼性を上げることができる。さらに、各単位領域の面積を全て同じにする条件を追加すると、カラーコードターゲットCTを画像中から検出する際にも使用できる。これは、異なる識別コードをもつカラーコードターゲットCT間でも各色の占有する面積が同じになるため、カラーコード部全体からの検出光からはほぼ同様な分散値が得られるからである。また、単位領域間の境界は等間隔に繰り返され、明確な色彩差が検出されるので、このような検出光の繰り返しパターンからもターゲットCTを画像中から検出することが可能である。   The color code part P3 expresses a code by a combination of color schemes for each unit area. The number of codes that can be expressed varies depending on the number of code colors used for the code. For example, when the number of code colors is n, n × n × n codes can be represented. In order to increase the reliability, even when the condition that the colors used in other unit areas are not used redundantly, n × (n−1) × (n−2) codes can be expressed. If the number of code colors is increased, the number of codes can be increased. Furthermore, if the condition that the number of unit areas of the color code portion P3 is equal to the number of code colors is imposed, all the code colors are used for the color code portion P3. Therefore, not only the comparison with the reference color portion P2, By relatively comparing the colors between the unit areas of the color code part P3, the color of each unit area can be confirmed to determine the identification code, and the reliability can be improved. Furthermore, if a condition for making the area of each unit region all the same is added, the color code target CT can also be used for detection from the image. This is because the area occupied by each color is the same even between the color code targets CT having different identification codes, and thus almost the same dispersion value is obtained from the detection light from the entire color code portion. In addition, since the boundary between the unit areas is repeated at equal intervals and a clear color difference is detected, the target CT can be detected from the image from such a repeated pattern of detection light.

白色部P4は、カラーコードターゲットCTの向き検出用と色ずれのキャリブレーション用として使用する。ターゲットCTの四隅の内、一カ所だけレトロターゲットが配置されない箇所があり、これをターゲットCTの向き検出用に使用できる。このように白色部P4はレトロターゲットと異なるパターンであれば良い。したがって、白色部には目視でコードを確認するための番号などの文字列を印刷しても良く、また、バーコード等のコード領域としても使用しても良い。さらに、検出精度を上げるために、テンプレートマッチング用のテンプレートパターンとして使用することも可能である。   The white portion P4 is used for detecting the orientation of the color code target CT and for color misregistration calibration. Among the four corners of the target CT, there is a place where no retro target is arranged, and this can be used for detecting the direction of the target CT. Thus, the white part P4 should just be a pattern different from a retro target. Therefore, a character string such as a number for visually confirming the code may be printed on the white portion, or may be used as a code area such as a barcode. Further, in order to increase the detection accuracy, it can be used as a template pattern for template matching.

コード識別部22はカラーコードターゲットCTの識別コードを識別する。パターン配置とコード番号の対応関係を記録するカラーコードターゲット対応表を用いて、カラーコードターゲットCTのカラーコード部P3における色彩の配列から識別コードを判別し、カラーコードターゲットCTに番号を付与する。   The code identification unit 22 identifies the identification code of the color code target CT. Using the color code target correspondence table that records the correspondence between the pattern arrangement and the code number, the identification code is determined from the color arrangement in the color code portion P3 of the color code target CT, and a number is assigned to the color code target CT.

図8に表示部に表示される表示画面の例を示す。ライブ画像11には、測定対象物8である自動車の周囲にカラーコードターゲットCTが貼り付けられている。これは、撮影対象物8の周囲、もしくは撮影対象物8に配置されたカラーコードターゲットCTを自動的に抽出し、識別コードが識別されたカラーコードターゲットCTの位置から撮影位置測定部23で撮影部2の現在位置の二次元座標又は三次元座標を求め、次の次回撮影予定位置に対応する見本画像を自動的に表示するためである。撮影位置画像13において、撮影部2の現在位置が撮影予定位置(○内に6)と撮影予定位置(○内に7)の間に在ることが表示される。また、見本画像12には自動車を左後方から撮影した次回撮影予定位置(○内に6)の画像が表示され、移動情報報知部5により見本画像12の下に「右に移動してください」とのガイド情報が表示される。   FIG. 8 shows an example of a display screen displayed on the display unit. In the live image 11, the color code target CT is pasted around the automobile that is the measurement object 8. This is because the color code target CT arranged around or on the imaging object 8 is automatically extracted, and the imaging position measurement unit 23 captures the image from the position of the color code target CT where the identification code is identified. This is because the two-dimensional coordinates or the three-dimensional coordinates of the current position of the unit 2 are obtained, and a sample image corresponding to the next scheduled shooting position is automatically displayed. In the shooting position image 13, it is displayed that the current position of the shooting unit 2 is between the planned shooting position (6 in the circle) and the planned shooting position (7 in the circle). In addition, the sample image 12 displays an image of the next shooting scheduled position (6 in the circle) taken from the rear left side of the car, and the movement information notification unit 5 “moves to the right” below the sample image 12. Guide information is displayed.

図9に表示部に表示される表示画面の別の例を示す。図9はライブ画像の表示例で、土器の表面にカラーコードターゲットCT及びレトロターゲット(黒で縁どられた白丸の部分)が貼り付けられている。この場合も図8の自動車の場合と同様に、カラーコードターゲットCTを自動的に抽出し、識別コードが識別されたカラーコードターゲットCTの位置からからカメラの位置を求め、次の見本画像を自動的に表示するためである。レトロターゲットはそれ自身では識別性が無いが、周囲に貼り付けられたカラーコードターゲットCTとの位置関係から識別性が生じるので、撮影部2の現在位置の二次元座標又は三次元座標を求めるために使用できる。   FIG. 9 shows another example of the display screen displayed on the display unit. FIG. 9 shows a display example of a live image, in which a color code target CT and a retro target (a white circle framed in black) are pasted on the surface of the earthenware. In this case as well, as in the case of the automobile in FIG. 8, the color code target CT is automatically extracted, the camera position is obtained from the position of the color code target CT where the identification code is identified, and the next sample image is automatically obtained. This is because of the display. The retro target itself does not have discrimination, but discriminability arises from the positional relationship with the color code target CT pasted around it, so that the two-dimensional coordinates or the three-dimensional coordinates of the current position of the imaging unit 2 are obtained. Can be used for

カラーコードターゲットCTの位置はレトロターゲットP1を検出することにより求められる。カラーコードターゲットCT以外にレトロターゲットが貼付される場合、カラーコードターゲットCTに代えてレトロターゲットが貼付される場合も、マークの位置はレトロターゲットを検出することにより求められる。   The position of the color code target CT is obtained by detecting the retro target P1. When a retro target is affixed in addition to the color code target CT, the mark position can be obtained by detecting the retro target even when a retro target is affixed instead of the color code target CT.

図10はレトロターゲットを用いた重心位置検出の説明図である。本実施例ではレトロターゲットは2つの同心円で形成されている。図10(A1)は同心円のうち小円の内側である内円部204の明度が明るく、小円と大円との間に形成された円環状の部分である外円部206の明度が暗いレトロターゲット200、図10(A2)は(A1)のレトロターゲット200の直径方向の明度分布図、図10(B1)は内円部204の明度が暗く、外円部206の明度が明るいレトロターゲット200、図10(B2)は(B1)のレトロターゲット200の直径方向の明度分布図を示している。レトロターゲットが図10(A1)のように内円部204の明度が明るい場合は、測定対象物1の撮影画像において重心位置での反射光量が多く明るい部分になっているため、画像の光量分布が図10(A2)のようになり、光量分布の閾値Toからレトロターゲットの内円部204や中心位置を求めることが可能となる。本実施例のカラーコードターゲットCTでは、(A1)の場合、正方形の位置検出用パターンP1の中心部に小円に相当する円が一つ形成されていればよく、大円の外側は明るくても暗くてもよいが、暗くするのが良い。暗い場合は、実質的に一つの円(小円)が形成されているだけである。(B1)の場合は、大円の外側は明るくても暗くてもよいが、大円の外側が明るい場合は、実質的に明るい下地に暗い1つの円(小円)が形成されているだけである。   FIG. 10 is an explanatory diagram of center-of-gravity position detection using a retro target. In this embodiment, the retro target is formed by two concentric circles. In FIG. 10A1, the lightness of the inner circle portion 204 that is the inner side of the small circle among the concentric circles is bright, and the lightness of the outer circle portion 206 that is an annular portion formed between the small circle and the large circle is dark. The retro target 200, FIG. 10 (A2) is a brightness distribution diagram in the diameter direction of the retro target 200 of (A1), and FIG. 10 (B1) is a retro target in which the brightness of the inner circle portion 204 is dark and the brightness of the outer circle portion 206 is bright. 200 and FIG. 10 (B2) show the brightness distribution diagram in the diameter direction of the retro target 200 of (B1). When the brightness of the inner circle portion 204 is bright as shown in FIG. 10 (A1), the retro target has a bright portion with a large amount of reflected light at the center of gravity in the captured image of the measurement object 1, and thus the light amount distribution of the image. As shown in FIG. 10 (A2), the inner circle portion 204 and the center position of the retro target can be obtained from the threshold value To of the light amount distribution. In the color code target CT of the present embodiment, in the case of (A1), it is sufficient that one circle corresponding to a small circle is formed at the center of the square position detection pattern P1, and the outside of the great circle is bright. May be dark, but it should be dark. When it is dark, substantially only one circle (small circle) is formed. In the case of (B1), the outside of the great circle may be bright or dark, but when the outside of the great circle is bright, only one dark circle (small circle) is formed on the substantially bright base. It is.

ターゲットの存在範囲が決定されると、例えばモーメント法によって重心位置を算出する。例えば、図10(A1)に表記されたレトロターゲット200の平面座標を(x、y)とする。そして、レトロターゲット200の明度が、閾値To以上のx、y方向の点について、(式1)、(式2)を演算する。
xg={Σx*f(x、y)}/Σf(x、y) −−−−(式1)
yg={Σy*f(x、y)}/Σf(x、y) −−−−(式2)
(xg、yg):重心位置の座標、f(x、y):(x、y)座標上の光量
なお、図10(B1)に表記されたレトロターゲット200の場合は、明度が閾値To以下のx、y方向の点について、(式1)、(式2)を演算する。これにより、レトロターゲット200の重心位置が求まる。
When the target existence range is determined, the barycentric position is calculated by, for example, the moment method. For example, the plane coordinates of the retro target 200 shown in FIG. 10A1 are assumed to be (x, y). Then, (Expression 1) and (Expression 2) are calculated for points in the x and y directions where the brightness of the retro target 200 is greater than or equal to the threshold value To.
xg = {Σx * f (x, y)} / Σf (x, y) ---- (Equation 1)
yg = {Σy * f (x, y)} / Σf (x, y) ---- (Formula 2)
(Xg, yg): coordinates of the center of gravity position, f (x, y): light quantity on (x, y) coordinates In the case of the retro target 200 shown in FIG. (Expression 1) and (Expression 2) are calculated for the points in the x and y directions. Thereby, the position of the center of gravity of the retro target 200 is obtained.

カラーコードターゲット、レトロターゲットが用いられない場合、特徴点抽出部21は複数の撮影画像から特徴点を抽出する。特徴点には、例えば測定対象物8の中心位置、重心位置、コーナー位置、他と異なる特徴を有する位置、測定対象物8に貼付された又は投影された標識などがある。特徴点抽出には特徴抽出オペレータが使用される。ここではモラベック(MORAVEC)オペレータを用いる例を説明する。   When a color code target or a retro target is not used, the feature point extraction unit 21 extracts feature points from a plurality of captured images. The feature points include, for example, a center position, a gravity center position, a corner position of the measurement object 8, a position having a characteristic different from the others, a sign attached to or projected on the measurement object 8. A feature extraction operator is used for feature point extraction. Here, an example in which a Moravec operator is used will be described.

MORAVECオペレータは、汎用の特徴抽出器として古くから使用されている。MORAVECオペレータは、例えば、ある注目画素の周囲3×3画素をマスクとし、マスクが注目画素の周囲4方向に各1画素移動した際の濃度差分(方向濃度差分)の最小値をその注目画素の特徴量とする。処理が単純で高速であること、比較的容易にハード化が可能なことなどが特徴である。なお、高速処理を行うためには、画像の数倍のメモリが必要となる。ここではモラベックオペレータによる特徴点抽出を説明したが、他のオペレータ、例えばハリスオペレータやその他のもの、特徴点を検出できるものならなんでもよい。   The MORAVEC operator has long been used as a general-purpose feature extractor. The MORAVEC operator uses, for example, a 3 × 3 pixel around a certain target pixel as a mask, and sets the minimum value of the density difference (direction density difference) when the mask moves one pixel in each of the four directions around the target pixel. The feature value. It is characterized by simple and high-speed processing and relatively easy hardware. In order to perform high-speed processing, a memory several times as large as an image is required. Although the feature point extraction by the Moravec operator has been described here, other operators, for example, the Harris operator and others, and anything that can detect feature points may be used.

撮影位置測定部23は、特徴点抽出部21で抽出した特徴点の撮影画像における画面位置から、撮影画像を撮影した撮影位置の二次元座標又は三次元座標を求める。抽出されたターゲットの位置が既知の場合にはDLT法を使用して測定対象物8の特徴点及び撮影位置の二次元座標又は三次元座標を求めることができる。
[DLT法]
DLT法は、写真座標と被写体の三次元座標(対象点座標)との関係を三次の射影変換式で近似したものである。
DLT法の基本式は(式3−1)となる。
(式3−1)に対し、分母を消去すると、次の線形式を導き出せる。

更に、(式3−2)を変形すると、以下の式となる。
(式3−3)を直接、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。したがって、位置座標が既知の6点について(式3−3)を解くことにより、被写体の写真座標(x,y)と被写体の三次元座標(対象点座標)(X,Y,Z)との関係が求まり、写真座標(x,y)と対象点座標(X,Y,Z)を結ぶ直線の収束点にあたる撮影位置の位置座標(0,0,0)を求めることができる。この場合、撮影位置は、対象点座標に対して(−X,−Y,−Z)の位置になる。
The shooting position measurement unit 23 obtains two-dimensional coordinates or three-dimensional coordinates of the shooting position at which the shot image is shot from the screen position in the shot image of the feature point extracted by the feature point extraction unit 21. When the position of the extracted target is known, the two-dimensional coordinates or the three-dimensional coordinates of the feature point of the measurement object 8 and the imaging position can be obtained using the DLT method.
[DLT method]
The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates (target point coordinates) of the subject using a cubic projective transformation equation.
The basic expression of the DLT method is (Expression 3-1).
If the denominator is deleted from (Equation 3-1), the following linear form can be derived.

Furthermore, when (Formula 3-2) is modified, the following formula is obtained.
If (Expression 3-3) is solved directly using the least square method, 11 unknown variables L 1 to L 11 that determine the relationship between the photographic coordinates and the target point coordinates can be acquired. Therefore, by solving (Equation 3-3) for six points whose position coordinates are known, the photographic coordinates (x, y) of the subject and the three-dimensional coordinates (target point coordinates) (X, Y, Z) of the subject are obtained. The relationship is obtained, and the position coordinates (0, 0, 0) of the photographing position corresponding to the convergence point of the straight line connecting the photograph coordinates (x, y) and the target point coordinates (X, Y, Z) can be obtained. In this case, the shooting position is a position (−X, −Y, −Z) with respect to the target point coordinates.

ターゲットの位置が確定していない場合、特徴点の位置座標が不明な場合には、2枚以上の撮影画像における重複部分の特徴点を用いて、相互標定により測定対象物8の特徴点及び撮影位置の二次元座標又は三次元座標を求める。
まず、2枚の撮影画像をステレオ画像(一方を基準画像、他方を探索画像とする)とし、特徴点の対応付け(対応点探索)を行なう。相互相関処理により対応点探索を行なう。
When the position of the target is not fixed, or when the position coordinates of the feature point are unknown, the feature point of the measurement object 8 and the image are captured by mutual orientation using the feature points of the overlapping portions in two or more captured images. Find the 2D or 3D coordinates of the position.
First, two captured images are set as stereo images (one is a reference image and the other is a search image), and feature points are associated (corresponding points are searched). Corresponding point search is performed by cross-correlation processing.

[相互相関処理]
相互相関係数による方法
[Correlation processing]
Cross correlation coefficient method

図11は対応点探索を説明するための図である。図11に示すようにN×N画素のテンプレート画像を、それより大きいM×M画素の入力画像内の探索範囲(M−N+1)上で動かし、上式のC(a,b)が最大になるようなテンプレート画像の左上位置を求めて、テンプレート画像に対し探索されたとみなす。左右画像の場合には、例えば左画像上にN×N画素のテンプレート画像を設定し、右画像上にM×M画素の探索領域を設定し、この操作を各画像上での位置について行えばよい。
ここでは、対応点探索に関し、正規化相互相関処理について説明したが、他の手法、例えば、残差逐次検定法(SSDA)や、方向符号照合法(OCM)などを用いてもよい。
FIG. 11 is a diagram for explaining the corresponding point search. As shown in FIG. 11, the template image of N 1 × N 1 pixel is moved over the search range (M 1 −N 1 +1) 2 in the input image of M 1 × M 1 pixel larger than that, and C The upper left position of the template image in which (a, b) is maximized is obtained, and it is considered that the template image has been searched. In the case of left and right images, for example, a template image of N 1 × N 1 pixel is set on the left image, a search region of M 1 × M 1 pixel is set on the right image, and this operation is performed on each image. What is necessary is to do about the position.
Here, the normalized cross-correlation process has been described with respect to the corresponding point search, but other methods such as a residual sequential test method (SSDA), a direction code matching method (OCM), and the like may be used.

次に、左右画像の対応付けられた点から、撮影部2での撮影位置や、特徴点の三次元座標を求める。まず、相互標定法によってカメラの位置、傾きを求める方法について説明する。
[外部標定要素の算出:相互標定]
モデル画像とは、2枚以上の立体写真が撮影されたときの状態に再現されたとき得られる立体像のことをいう。相対的に相似なモデル画像を形成することを、相互標定という。すなわち、相互標定とは、立体写真の対応する2本の光束が交会するように、左右それぞれの投影中心の位置および傾きを定めるものである。
Next, the photographing position in the photographing unit 2 and the three-dimensional coordinates of the feature points are obtained from the points associated with the left and right images. First, a method for obtaining the camera position and tilt by the relative orientation method will be described.
[Calculation of external orientation elements: mutual orientation]
A model image refers to a stereoscopic image obtained when two or more stereoscopic photographs are reproduced as they were taken. Forming relatively similar model images is called relative orientation. That is, the relative orientation determines the positions and inclinations of the left and right projection centers so that two corresponding light beams of the stereoscopic photograph meet.

図12は相互標定を説明するための図である。次に,各モデル画像の標定計算の詳細について説明する。この計算により、左右それぞれのカメラの位置(三次元座標と三軸の傾き)が求められる。
以下の共面条件式によりそれらのパラメータを求める。
FIG. 12 is a diagram for explaining relative orientation. Next, the details of the orientation calculation of each model image will be described. By this calculation, the positions of the left and right cameras (three-dimensional coordinates and three-axis tilt) are obtained.
Those parameters are obtained by the following coplanar conditional expression.

モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合左側のカメラのX軸の回転角ωは0なので、考慮する必要ない。 The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ω 2. In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, it is not necessary to consider.

このような条件にすると、(式4)の共面条件式は(式5)のようになり、この式を解けば各パラメータが求まる。
Under such conditions, the coplanar conditional expression of (Equation 4) becomes (Equation 5), and each parameter can be obtained by solving this expression.

ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(式6)、(式7)が成り立つ。
Here, between the model coordinate system XYZ and the camera coordinate system xyz, the following coordinate transformation relational expressions (formula 6) and (formula 7) hold.

これらの式を用いて、次の手順により、未知パラメータを求める。
(a)未知パラメータの初期近似値は通常0とする。
(b)共面条件式(式5)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を(式6)、(式7)により求め、観測方程式をたてる。
(c)最小二乗法をあてはめ、近似値に対する補正量を求める。
(d)近似値を補正する。
(e)補正された近似値を用いて、(b)〜(e)までの操作を収束するまで繰り返す。
未知パラメータ(κ,φ,κ,φ,ω)を求めることにより、カメラの位置と傾きが求まる。
Using these equations, unknown parameters are obtained by the following procedure.
(A) The initial approximate value of the unknown parameter is normally 0.
(B) The coplanar conditional expression (Expression 5) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by (Expression 6) and (Expression 7), and the observation equation is established.
(C) A least square method is applied to obtain a correction amount for the approximate value.
(D) Correct the approximate value.
(E) Using the corrected approximate value, the operations (b) to (e) are repeated until convergence.
By obtaining unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ), the position and tilt of the camera can be obtained.

次回撮影予定位置選択部24は、求められた撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択する。次回撮影予定位置選択部24は、予め複数の撮影予定位置の位置座標と、当該撮影予定位置において撮影済か未撮影かを記憶した撮影予定位置表を有し、次回撮影予定位置選択部24は撮影予定位置表を参照して、例えば、求められた撮影位置と各撮影予定位置との距離(測定対象物が間に入る場合はこれを迂回した距離)を比較し、未撮影の撮影予定位置のうち求められた撮影位置と最短距離にある撮影予定位置を次回撮影予定位置として選択する。例えば図8の撮影位置画像13において、撮影部2の現在位置が撮影予定位置(○内に6)と撮影予定位置(○内に7)の間に在り、未撮影の撮影予定位置のうち撮影予定位置(○内に6)が位置座標が求められた撮影位置と最短距離にある場合は、見本画像12に撮影予定位置(○内に6)と略同じ相対的位置関係で撮影された画像が次回撮影予定位置の見本画像として表示される。もし、最短距離の撮影予定位置が2つある場合には、右回りか左回りのいずれかを優先させて選択させる。   The next scheduled shooting position selection unit 24 selects the next scheduled shooting position from a plurality of planned shooting positions based on the obtained position coordinates of the shooting position. The next shooting scheduled position selection unit 24 has a position coordinate of a plurality of shooting scheduled positions and a shooting scheduled position table that stores whether shooting has been performed or not shot at the shooting scheduled position. Referring to the scheduled shooting position table, for example, compare the distance between the obtained shooting position and each scheduled shooting position (the distance that bypasses the measured object if it is in between), and the unscheduled scheduled shooting position Of these, the scheduled shooting position that is the shortest distance from the obtained shooting position is selected as the next scheduled shooting position. For example, in the shooting position image 13 of FIG. 8, the current position of the shooting unit 2 is between the planned shooting position (6 within ○) and the planned shooting position (7 within ○), and shooting is performed among unscheduled shooting planned positions. When the planned position (6 in ○) is at the shortest distance from the shooting position for which the position coordinates are obtained, an image shot on the sample image 12 with the same relative positional relationship as the planned shooting position (6 in ○). Is displayed as a sample image of the next shooting position. If there are two planned shooting positions at the shortest distance, the selection is made with priority given to either clockwise or counterclockwise.

図13に画像撮影の処理フロー例を示す。
まず、測定対象物を選択し(S10)、測定対象物又はその周囲に存在する物にカラーコードターゲットを貼り付ける(S20)。撮影予定位置を予め定めておき、撮影を開始する(S30)。すなわち、表示部3にライブ画像11を表示し、撮影者は移動中の適当な位置で、例えばシャッターを操作し、入力キーから2を入力することにより、ライブ画像を取得する。次に、取得したライブ画像について特徴点抽出部21でカラーコードターゲットを検出し(S35)、コード識別部22でカラーコードターゲットの識別コードを識別する(S40)。撮影位置測定部23は、取得したライブ画像におけるカラーコードターゲットの位置とカラーコードターゲットが貼り付けられた位置座標から、撮影部2の現在位置の二次元座標又は三次元座標を計算して求める(S50)。次回撮影予定位置選択部24は、求められた撮影部2の現在位置の位置座標に基づいて次回撮影予定位置を求め(S55)、撮影位置判定部4は求められた撮影部2の現在位置の位置座標に基づいて次回撮影予定位置に対する撮影部2の相対的位置を判定する。移動情報報知部5は撮影位置判定部4の判定に添ってガイド情報を作成する。表示部3は、次回撮影予定位置と略同じ相対的位置関係で撮影された見本画像12を表示する(S60)。この際、表示部3の撮影位置画像13に現在位置を表示し、移動情報報知部5が作成したガイド情報を表示する。撮影者はガイド情報に従い、また、ライブ画像11と見本画像12を比較しながら次回撮影予定位置に到達し、例えばシャッターを操作し、入力キーから1を入力することにより、撮影画像を取得する(S70)。次に、取得された撮影画像について、カラーコードターゲットの検出(S35)から撮影画像の取得(S70)が順次繰り返される。もし、撮影画像の取得(S70)後に、撮影者が現在位置を知りたい時、ガイド情報を得たい時にはその位置でシャッターを操作し、入力キーから2を入力することにより、ライブ画像を取得する。この場合には、撮影画像取得の場合と次回撮影予定位置に対する撮影部2の相対的位置が異なるが、カラーコードターゲットの検出(S35)から撮影画像の取得(S70)が行なわれる。全ての撮影予定位置での撮影が行なわれたら(S80でYES)、撮影を終了する。
FIG. 13 shows an example of a processing flow of image capturing.
First, a measurement object is selected (S10), and a color code target is pasted on the measurement object or an object existing around it (S20). A scheduled shooting position is determined in advance, and shooting is started (S30). That is, the live image 11 is displayed on the display unit 3, and the photographer operates the shutter at an appropriate position during movement, for example, and inputs 2 from the input key to acquire the live image. Next, the feature point extraction unit 21 detects a color code target in the acquired live image (S35), and the code identification unit 22 identifies the identification code of the color code target (S40). The photographing position measurement unit 23 calculates and obtains the two-dimensional coordinates or the three-dimensional coordinates of the current position of the photographing unit 2 from the position of the color code target in the obtained live image and the position coordinates to which the color code target is pasted ( S50). The next shooting scheduled position selection unit 24 obtains the next shooting scheduled position based on the obtained position coordinates of the current position of the shooting unit 2 (S55), and the shooting position determination unit 4 determines the obtained current position of the shooting unit 2. Based on the position coordinates, the relative position of the photographing unit 2 with respect to the next photographing scheduled position is determined. The movement information notification unit 5 creates guide information in accordance with the determination of the shooting position determination unit 4. The display unit 3 displays the sample image 12 photographed with the same relative positional relationship as the next photographing scheduled position (S60). At this time, the current position is displayed on the shooting position image 13 of the display unit 3 and the guide information created by the movement information notification unit 5 is displayed. The photographer follows the guide information and arrives at the next shooting scheduled position while comparing the live image 11 and the sample image 12, and for example, operates the shutter and inputs 1 from the input key to acquire the shot image ( S70). Next, for the acquired captured image, the acquisition of the captured image (S70) is sequentially repeated from the detection of the color code target (S35). If the photographer wants to know the current position after obtaining the photographed image (S70) or wants to obtain guide information, the user operates the shutter at that position and inputs 2 from the input key to obtain the live image. . In this case, although the relative position of the photographing unit 2 with respect to the next photographing scheduled position is different from the case of photographing image acquisition, the photographing image acquisition (S70) is performed from the detection of the color code target (S35). When shooting has been performed at all scheduled shooting positions (YES in S80), shooting is terminated.

以上説明したように、本実施例によれば、撮影者を現在位置から次回撮影予定位置へ的確にガイドする三次元計測用画像撮影装置を提供できる。   As described above, according to the present embodiment, it is possible to provide a three-dimensional measurement image photographing apparatus that accurately guides the photographer from the current position to the next photographing scheduled position.

また、本発明は、以上の実施の形態のフローチャート等に記載の三次元計測用画像撮影方法の発明、当該方法の発明を三次元計測用画像撮影装置に実行させるためのプログラムとしても実現可能である。プログラムは三次元計測用画像撮影装置の内蔵記憶部に蓄積して使用してもよく、外付けの記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。   The present invention can also be realized as an invention of a three-dimensional measurement image photographing method described in the flowcharts of the above-described embodiments, and as a program for causing a three-dimensional measurement image photographing apparatus to execute the method invention. is there. The program may be stored and used in a built-in storage unit of the three-dimensional measurement image capturing apparatus, may be stored and used in an external storage device, or may be downloaded from the Internet and used. Moreover, it is realizable also as a recording medium which recorded the said program.

以上、本発明の実施の形態について説明したが、本発明は上記の実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施例に種々変更を加えられることは明白である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it is obvious that various modifications can be made to the embodiments without departing from the spirit of the present invention. .

例えば、以上の実施例では、ライブ画像と静止画像を同一のビデオカメラやデジタルカメラで取得する例を説明したが、例えば、各撮影予定位置において左右に少しずれた位置(例えば一歩動いた位置)から1回ずつ合計2回撮影し、一組のステレオ画像としても良い。このようにするとステレオカメラでの撮影に近くなり、カメラの標定や撮影位置の計測が容易になる。また、実施例2では、ライブ画像と撮影画像の撮影と撮影者のキー入力により、撮影位置測定部が撮影位置を求め、見本画像の次回撮影予定位置が変化する例を説明したが、次回撮影位置選択部24が次回撮影予定位置を選択した時に、自動的に見本画像の次回撮影予定位置が変化するようにしても良い。また、撮影予定位置数、ターゲットの配置、ガイド情報の文章等は適宜変更可能である。   For example, in the above embodiment, an example in which a live image and a still image are acquired by the same video camera or digital camera has been described. For example, a position slightly shifted left and right at each planned shooting position (for example, a position moved by one step) Then, a single set of stereo images may be taken. In this way, it is close to shooting with a stereo camera, and camera orientation and shooting position measurement are facilitated. Further, in the second embodiment, an example is described in which the shooting position measurement unit obtains the shooting position by capturing the live image and the shot image and the photographer's key input, and the next shooting position of the sample image is changed. When the position selection unit 24 selects the next shooting scheduled position, the next shooting scheduled position of the sample image may be automatically changed. In addition, the number of planned shooting positions, the arrangement of targets, the text of guide information, and the like can be changed as appropriate.

本発明は、三次元計測や三次元モデル画像作成のための撮影に利用できる。特に、未経験者や不慣れな者が撮影する場合に、また、慣れた人でも、測定対象物が大きい場合、表面形状が複雑な場合、同様な繰り返し模様が現れる場合等に、本発明を利用すると、隣り合う画像での撮影を適切な重複範囲で撮影することができる。   The present invention can be used for photographing for three-dimensional measurement and three-dimensional model image creation. In particular, when the inexperienced person or an unfamiliar person takes a picture, and even if an accustomed person takes a picture, the measurement object is large, the surface shape is complicated, the same repetitive pattern appears, etc. It is possible to shoot images with adjacent images in an appropriate overlapping range.

1,1A 三次元計測用画像撮影装置
2 撮影部
3 表示部
4 撮影位置判定部
5 移動情報報知部
6 画像記憶部
7 制御部
8 測定対象物
9 パーソナルコンピュータ(PC)
11 ライブ画像
12 見本画像
13 撮影位置画像
14 撮影対象物の設置領域
21 特徴点抽出部
22 コード識別部
23 撮影位置測定部
24 次回撮影位置選択部
200 レトロターゲット
204 内円部
206 外円部
CT カラーコードターゲットCT
P1 レトロターゲット部
P2 基準色部
P3 カラーコード部
P4 白色部
To 閾値
DESCRIPTION OF SYMBOLS 1,1A Three-dimensional measurement image imaging device 2 Imaging unit 3 Display unit 4 Imaging position determination unit 5 Movement information notification unit 6 Image storage unit 7 Control unit 8 Measurement object 9 Personal computer (PC)
DESCRIPTION OF SYMBOLS 11 Live image 12 Sample image 13 Shooting position image 14 Installation area | region 21 of a to-be-photographed object Feature point extraction part 22 Code identification part 23 Shooting position measurement part 24 Next shooting position selection part 200 Retro target 204 Inner circle part 206 Outer circle part CT Color Code target CT
P1 Retro target part P2 Reference color part P3 Color code part P4 White part To Threshold

Claims (4)

測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において;
撮影者が移動しながら測定対象物を撮影することによりライブ画像を取得し、適時に静止画像である撮影画像を取得する撮影部と;
前記撮影部の現在位置でのライブ画像と次回撮影予定位置と略同じ相対的位置関係で撮影された静止画像である模擬対象物の見本画像とを同一画面内に表示する表示部と;
前記撮影部の現在位置でのライブ画像と前記見本画像とを比較して、前記次回撮影予定位置に対する撮影部の相対的位置を判定する撮影位置判定部と;
前記現在位置から前記次回撮影予定位置へ撮影者が移動するようにガイド情報を作成し、前記表示部に報知させる移動情報報知部とを備える;
三次元計測用画像撮影装置。
In a three-dimensional measurement image capturing apparatus that sequentially captures an object to be measured while overlapping with a single camera;
An imaging unit that acquires a live image by capturing an object to be measured while the photographer moves and acquires a captured image that is a still image in a timely manner;
A display unit for displaying a live image at the current position of the shooting unit and a sample image of a simulated target object, which is a still image shot at substantially the same relative positional relationship as the next shooting scheduled position, on the same screen;
A shooting position determination unit that compares a live image at the current position of the shooting unit with the sample image and determines a relative position of the shooting unit with respect to the next shooting scheduled position;
A movement information notifying unit that creates guide information so that a photographer moves from the current position to the next scheduled shooting position and causes the display unit to notify the guide information;
An image capturing device for three-dimensional measurement.
前記撮影部で取得された複数の撮影画像における特徴点を抽出する特徴点抽出部と;
前記特徴点抽出部で抽出した特徴点の前記撮影画像における画面位置から、前記撮影画像を撮影した撮影位置の二次元座標又は三次元座標を求める撮影位置測定部と;
求められた前記撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択する次回撮影予定位置選択部とを備え;
前記表示部は、前記見本画像として前記選択された次回撮影予定位置と略同じ相対的位置関係で撮影された模擬対象物の画像を表示する;
請求項1に記載の三次元計測用画像撮影装置。
A feature point extraction unit that extracts feature points in a plurality of captured images acquired by the imaging unit;
A shooting position measuring unit for obtaining a two-dimensional coordinate or a three-dimensional coordinate of a shooting position at which the shot image is shot from a screen position in the shot image of the feature point extracted by the feature point extraction unit;
A planned next shooting position selection unit that selects a planned next shooting position from a plurality of planned shooting positions based on the obtained position coordinates of the shooting position;
The display unit displays, as the sample image, an image of a simulated object photographed with the same relative positional relationship as the selected next scheduled photographing position;
The three-dimensional measurement image capturing apparatus according to claim 1.
前記ガイド情報は、前記撮影部の前記測定対象物に対する相対的移動方向又は前記次回撮影予定位置を示す表示である;
請求項1又は請求項2に記載の三次元計測用画像撮影装置。
The guide information is a display indicating a relative movement direction of the imaging unit with respect to the measurement object or the next imaging scheduled position;
The image photographing device for three-dimensional measurement according to claim 1 or 2.
自他識別可能な識別コードを有するマークの前記識別コードを識別するコード識別部を備え;
前記撮影部は、前記撮影画像を前記測定対象物と共に前記測定対象物又はその周囲に存在する物に貼付された複数の前記マークを含むように撮影して取得し;
前記特徴点抽出部は、前記撮影画像から前記マークを特徴点として抽出し;
前記コード識別部は前記特徴点抽出部で抽出されたマークの前記識別コードを識別する;
請求項1ないし請求項3のいずれか1項に記載の三次元計測用画像撮影装置。
A code identification unit for identifying the identification code of a mark having an identification code that can identify itself and others;
The imaging unit captures and acquires the captured image so as to include a plurality of the marks attached to the measurement object or an object existing therearound together with the measurement object;
The feature point extraction unit extracts the mark as a feature point from the captured image;
The code identification unit identifies the identification code of the mark extracted by the feature point extraction unit;
The image photographing device for three-dimensional measurement according to any one of claims 1 to 3.
JP2009063658A 2009-03-16 2009-03-16 Photographing device for three-dimensional measurement Pending JP2010219825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009063658A JP2010219825A (en) 2009-03-16 2009-03-16 Photographing device for three-dimensional measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009063658A JP2010219825A (en) 2009-03-16 2009-03-16 Photographing device for three-dimensional measurement

Publications (1)

Publication Number Publication Date
JP2010219825A true JP2010219825A (en) 2010-09-30

Family

ID=42978179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009063658A Pending JP2010219825A (en) 2009-03-16 2009-03-16 Photographing device for three-dimensional measurement

Country Status (1)

Country Link
JP (1) JP2010219825A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239564A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Imaging apparatus, imaging control method, and program
WO2012002021A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Multi-viewpoint imaging control device, multi-viewpoint imaging control method and multi-viewpoint imaging control program
WO2012002017A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image capture device, program, and image capture method
CN102540690A (en) * 2010-11-22 2012-07-04 三星电子株式会社 Apparatus and method for generating three dimensional image in portable terminal
WO2012124287A1 (en) * 2011-03-14 2012-09-20 パナソニック株式会社 Image capture device, image capture method, and program
WO2012127714A1 (en) * 2011-03-24 2012-09-27 大日本スクリーン製造株式会社 Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program
US8933996B2 (en) 2010-06-30 2015-01-13 Fujifilm Corporation Multiple viewpoint imaging control device, multiple viewpoint imaging control method and computer readable medium
JP2015059914A (en) * 2013-09-20 2015-03-30 株式会社東芝 Apparatus and method for supporting measurement, and program
WO2015068470A1 (en) * 2013-11-06 2015-05-14 凸版印刷株式会社 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JP2016114719A (en) * 2014-12-12 2016-06-23 株式会社メイクソフトウェア Picture photography game unit and control program
WO2016105956A1 (en) * 2014-12-23 2016-06-30 Qualcomm Incorporated Visualization for viewing-guidance during dataset-generation
JP2017058688A (en) * 2016-10-25 2017-03-23 株式会社メイクソフトウェア Photo-taking game machine and control program
WO2018143153A1 (en) * 2017-02-03 2018-08-09 三井住友建設株式会社 Position measurement device and position measurement method
JP2020096254A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2021192304A (en) * 2017-07-14 2021-12-16 キヤノン株式会社 Information processing apparatus and method for controlling the same, and program
JP2022010248A (en) * 2017-03-31 2022-01-14 日本電気株式会社 Individual identification device, individual identification method, and program

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239564A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Imaging apparatus, imaging control method, and program
US8441518B2 (en) 2009-03-31 2013-05-14 Casio Computer Co., Ltd. Imaging apparatus, imaging control method, and recording medium
JP5539514B2 (en) * 2010-06-30 2014-07-02 富士フイルム株式会社 Imaging apparatus, program, and imaging method
WO2012002021A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Multi-viewpoint imaging control device, multi-viewpoint imaging control method and multi-viewpoint imaging control program
WO2012002017A1 (en) * 2010-06-30 2012-01-05 富士フイルム株式会社 Image capture device, program, and image capture method
JP4880096B1 (en) * 2010-06-30 2012-02-22 富士フイルム株式会社 Multi-view shooting control device, multi-view shooting control method, and multi-view shooting control program
US8933996B2 (en) 2010-06-30 2015-01-13 Fujifilm Corporation Multiple viewpoint imaging control device, multiple viewpoint imaging control method and computer readable medium
CN102540690A (en) * 2010-11-22 2012-07-04 三星电子株式会社 Apparatus and method for generating three dimensional image in portable terminal
WO2012124287A1 (en) * 2011-03-14 2012-09-20 パナソニック株式会社 Image capture device, image capture method, and program
JP2012189944A (en) * 2011-03-14 2012-10-04 Panasonic Corp Imaging device, imaging method, and program
WO2012127714A1 (en) * 2011-03-24 2012-09-27 大日本スクリーン製造株式会社 Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program
US20130342659A1 (en) * 2011-03-24 2013-12-26 Dainippon Sceen MFG. Co, LTD Three-dimensional position/attitude recognition apparatus, three-dimensional position/attitude recognition method, and three-dimensional position/attitude recognition program
JP2015059914A (en) * 2013-09-20 2015-03-30 株式会社東芝 Apparatus and method for supporting measurement, and program
US10347029B2 (en) 2013-11-06 2019-07-09 Toppan Printing Co., Ltd. Apparatus for measuring three dimensional shape, method for measuring three dimensional shape and three dimensional shape measurement program
WO2015068470A1 (en) * 2013-11-06 2015-05-14 凸版印刷株式会社 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JPWO2015068470A1 (en) * 2013-11-06 2017-03-09 凸版印刷株式会社 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2016114719A (en) * 2014-12-12 2016-06-23 株式会社メイクソフトウェア Picture photography game unit and control program
WO2016105956A1 (en) * 2014-12-23 2016-06-30 Qualcomm Incorporated Visualization for viewing-guidance during dataset-generation
CN107251542A (en) * 2014-12-23 2017-10-13 高通股份有限公司 The visualization instructed for the observation during data set is produced
US9998655B2 (en) 2014-12-23 2018-06-12 Quallcomm Incorporated Visualization for viewing-guidance during dataset-generation
JP2017058688A (en) * 2016-10-25 2017-03-23 株式会社メイクソフトウェア Photo-taking game machine and control program
JPWO2018143153A1 (en) * 2017-02-03 2020-01-09 三井住友建設株式会社 Position measuring device and position measuring method
WO2018143153A1 (en) * 2017-02-03 2018-08-09 三井住友建設株式会社 Position measurement device and position measurement method
US10977825B2 (en) 2017-02-03 2021-04-13 Sumitomo Mitsui Construction Co., Ltd. Position measurement device and position measurement method
JP2022010248A (en) * 2017-03-31 2022-01-14 日本電気株式会社 Individual identification device, individual identification method, and program
JP7318696B2 (en) 2017-03-31 2023-08-01 日本電気株式会社 Individual identification device, individual identification method and program
JP2021192304A (en) * 2017-07-14 2021-12-16 キヤノン株式会社 Information processing apparatus and method for controlling the same, and program
JP7238060B2 (en) 2017-07-14 2023-03-13 キヤノン株式会社 Information processing device, its control method, and program
JP2020096254A (en) * 2018-12-11 2020-06-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7183020B2 (en) 2018-12-11 2022-12-05 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP2010219825A (en) Photographing device for three-dimensional measurement
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
JP5002144B2 (en) Projection apparatus and system for three-dimensional measurement
JP4537557B2 (en) Information presentation system
US8330803B2 (en) Method and apparatus for 3D digitization of an object
JP5421624B2 (en) 3D measurement image capturing device
JP5051493B2 (en) 3D measurement marker and 3D measurement method using the same
JP7480882B2 (en) Information processing device, recognition assistance method, and computer program
JP2010256253A (en) Image capturing device for three-dimensional measurement and method therefor
JP2004318823A (en) Information display system, information processing apparatus, pointing device and pointer mark displaying method in information display system
JP2015128242A (en) Image projection device and calibration method of the same
JP4848166B2 (en) Projection apparatus and system for three-dimensional measurement
JP5111447B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
JP2007064627A (en) System for three-dimensional measurement and its method
JP2010256252A (en) Image capturing device for three-dimensional measurement and method therefor
WO2014045508A1 (en) Inspection device, inspection method, and inspection program
JP5695821B2 (en) Color code target, color code discrimination device, and color code discrimination method
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
JP5363878B2 (en) Stereo image photographing apparatus and method thereof
JP2005140547A (en) 3-dimensional measuring method, 3-dimensional measuring device and computer program
WO2005096130A1 (en) Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
WO2022052409A1 (en) Automatic control method and system for multi-camera filming
JP2006275984A (en) Method of measuring displacement of high-voltage tower
JP6936828B2 (en) Construction drawing creation support system
JP2006017632A (en) Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method