JP2010256253A - Image capturing device for three-dimensional measurement and method therefor - Google Patents

Image capturing device for three-dimensional measurement and method therefor Download PDF

Info

Publication number
JP2010256253A
JP2010256253A JP2009108522A JP2009108522A JP2010256253A JP 2010256253 A JP2010256253 A JP 2010256253A JP 2009108522 A JP2009108522 A JP 2009108522A JP 2009108522 A JP2009108522 A JP 2009108522A JP 2010256253 A JP2010256253 A JP 2010256253A
Authority
JP
Japan
Prior art keywords
shooting
image
unit
photographing
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009108522A
Other languages
Japanese (ja)
Other versions
JP2010256253A5 (en
Inventor
Nobuo Takachi
伸夫 高地
Takuya Moriyama
拓哉 森山
Hiroto Watanabe
広登 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2009108522A priority Critical patent/JP2010256253A/en
Publication of JP2010256253A publication Critical patent/JP2010256253A/en
Publication of JP2010256253A5 publication Critical patent/JP2010256253A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing device for three-dimensional measurement wherein the progress of image capturing can be recognized and the image capturing can be carried out efficiently without excess and lack. <P>SOLUTION: The image capturing device 1 for three-dimensional measurement that captures an image of an article 2 to be measured by using a single camera, includes: an image capturing part 3 for acquiring a captured image; a feature point extracting part 61 for extracting a feature point from the captured image; a capturing area separating part 81 for separating the captured image into capturing areas each surrounded by three or more of feature points; a capturing area image storing part 54 for storing the separated captured images; a three-dimensional position measuring part 7 for determining three-dimensional coordinates of the feature points; a capturing range image forming part 85 that writes the respective feature points on a capturing range image for representing the capturing range of the article 2 to be measured in three-dimensional space and that sections the capturing range image into capturing areas by connecting the feature points; an insufficiently captured area determining part 86 for determining presence or absence of an insufficiently captured area; and a display part 4 for displaying the capturing range image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は三次元計測用画像撮影装置及びその方法に関する。詳しくは、測定対象物を単カメラにより重複させながら順次撮影する際に、撮影の進捗状況を把握しながら撮影を進める三次元計測用画像撮影装置及びその方法に関する。   The present invention relates to an image photographing apparatus for three-dimensional measurement and a method thereof. More specifically, the present invention relates to a three-dimensional measurement image photographing apparatus and method for performing photographing while grasping the progress of photographing when sequentially photographing while measuring objects are overlapped by a single camera.

測定対象物の全体像を把握し、三次元モデル画像に再現するには、複数の撮影位置から撮影した撮影画像を連結していく必要がある。このように撮影者が移動しながら撮影した複数の撮影画像から撮影装置または対象物の三次元座標を測定するには、2枚以上の各撮影画像上で相互に対応する特徴点(対象物上の同一点を表す)を求め、これを追跡する必要がある。この場合、三次元計測に不適切な特徴点が撮影画像に混入し得るので、撮影画像における特徴点の適否を判定しながら、その撮影装置の撮影位置、姿勢又は対象物の位置座標を精度良く計測できる画像処理装置が提案されている。(特許文献1参照)   In order to grasp the whole image of the measurement object and reproduce it as a three-dimensional model image, it is necessary to link the photographed images taken from a plurality of photographing positions. In order to measure the three-dimensional coordinates of the photographing apparatus or the object from the plurality of photographed images taken by the photographer in this way, the feature points (on the object) corresponding to each other on each of the two or more photographed images. Represents the same point) and needs to be tracked. In this case, since feature points inappropriate for three-dimensional measurement can be mixed in the captured image, it is possible to accurately determine the capturing position, orientation, or position coordinates of the target object of the capturing apparatus while determining the suitability of the feature points in the captured image. An image processing apparatus capable of measurement has been proposed. (See Patent Document 1)

特開2007−183256号公報(図1〜図11、段落0021〜0065)JP 2007-183256 A (FIGS. 1 to 11, paragraphs 0021 to 0065)

単カメラを用いて移動しながら撮影を行い、測定対象物の三次元計測を行う場合に、多数の方向からかつ画像を重複させながら撮影を行い、画像を連続的に接続して行く必要がある。しかしながら、測定対象物の全周撮影を行う場合や、測定対象物が大きい場合・広い場合、形状が複雑な場合等には、撮影枚数が多数になり、三次元計測に必要な画像の重複状態が不明になったり、撮りこぼしが生じたりして、結果的に撮影画像に不足が生じ、解析ができない、再度現場に行き撮り直しする必要が生じる等、効率が悪くなるという問題があった。他方、撮影不足を補うために予め撮影枚数を多目にすると、解析時の画像処理や作業の手間が多くなり、やはり結果的に効率が悪くなるという問題があった。   When taking a picture while moving using a single camera and performing a three-dimensional measurement of an object to be measured, it is necessary to take pictures from many directions and overlap the images, and connect the images continuously. . However, when taking a full circumference of the measurement object, when the measurement object is large or wide, or when the shape is complicated, the number of images to be taken becomes large, and the image overlap required for 3D measurement As a result, there is a problem in that the efficiency of the image becomes poor. For example, there is a problem in that the image becomes unclear or the shooting is lost. On the other hand, if the number of shots is increased in advance to compensate for the lack of shooting, there has been a problem that the efficiency of image processing and work at the time of analysis increases, resulting in poor efficiency.

本発明は、上記問題点に鑑みてなされたものであり、単カメラを用いて移動しながら撮影を行う場合に、撮影の進捗状況を把握できれば、撮影を過不足なく効率的に行なうことが可能になる。すなわち、1回撮影すれば外観を捉えることができるが、三次元計測には2つの撮影画像に重複して撮影された特徴点を使用するため2回以上の撮影が必要である。また、撮影画像をパノラマ画像のように接続するためには、接続に使用される特徴点は3回以上撮影される必要がある。また、特徴点の撮影回数が多い程、当該特徴点の三次元計測の精度が向上する。そこで、撮影の途中において、撮影の重複状況や不足状況等の進捗状況を把握できるようにすることが望まれていた。   The present invention has been made in view of the above problems, and when shooting is performed while moving using a single camera, if the progress of shooting can be grasped, shooting can be performed efficiently without excess or deficiency. become. In other words, the appearance can be captured if the image is taken once, but since three-dimensional measurement uses feature points imaged twice in two photographed images, it is necessary to photograph two or more times. Further, in order to connect a captured image like a panoramic image, the feature points used for the connection need to be captured three or more times. In addition, the greater the number of times a feature point is shot, the more accurate the three-dimensional measurement of the feature point. Therefore, it has been desired to be able to grasp the progress status such as the overlapping status and the shortage status of the shooting during the shooting.

本発明は、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供することを目的とする。   An object of the present invention is to provide an image photographing apparatus for three-dimensional measurement capable of grasping the progress of photographing and efficiently performing photographing without excess or deficiency.

上記目的を達成するため、本発明の第1の態様の三次元計測用画像撮影装置1は、例えば図1に示すように、測定対象物2を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において、撮影者が複数の撮影位置から測定対象物2を撮影して撮影画像を取得する撮影部3と、撮影部3で取得された撮影画像における測定対象物2の特徴点を抽出する特徴点抽出部61と、撮影画像の測定対象物2の領域を特徴点抽出部61で抽出された3以上の特徴点で囲まれた領域(当該特徴点を含む)からなる撮影領域に区分する撮影領域区分部81と、特徴点抽出部61で抽出した特徴点の複数の撮影画像における画面位置から、特徴点の三次元座標を求める三次元位置測定部7と、測定対象物2の撮影範囲を三次元空間に表現する撮影範囲画像の座標空間に三次元位置測定部7で三次元座標が求められた各特徴点を書き込み、撮影範囲画像の座標空間に書き込まれた特徴点のうち、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画し、撮影範囲画像をワイヤフレーム画像として形成する撮影範囲画像形成部85と、撮影範囲画像に撮影不足領域が有るか否かを判定する撮影不足領域判定部86と、撮影範囲画像形成部85で形成された撮影範囲画像を表示する表示部4とを備える。   In order to achieve the above object, the three-dimensional measurement image photographing apparatus 1 according to the first aspect of the present invention, for example, as shown in FIG. In the image photographing apparatus, the photographer captures the measurement object 2 from a plurality of photographing positions and obtains the photographed image, and the feature points of the measurement object 2 in the photographed image obtained by the photographing unit 3. A feature point extraction unit 61 to be extracted and a photographing region composed of a region (including the feature point) surrounded by three or more feature points extracted by the feature point extraction unit 61 in the region of the measurement object 2 of the photographed image. An imaging area classifying unit 81 for classifying, a 3D position measuring unit 7 for obtaining 3D coordinates of feature points from screen positions in a plurality of captured images of feature points extracted by the feature point extracting unit 61, Representing the shooting range in 3D space Each feature point for which the three-dimensional position measurement unit 7 obtains the three-dimensional coordinate is written in the coordinate space of the shadow range image, and among the feature points written in the coordinate space of the shooting range image, three or more features surrounding the shooting region are written. A shooting range image forming unit 85 that connects points to divide each shooting region and forms a shooting range image as a wire frame image, and a shooting shortage region determination unit that determines whether or not the shooting range image has a shooting shortage region 86 and the display unit 4 for displaying the shooting range image formed by the shooting range image forming unit 85.

ここにおいて、撮影範囲画像とは、測定対象物2の撮影範囲を三次元空間に表現する画像である。撮影範囲画像は、最初は座標空間だけであるが、撮影範囲画像形成部85により各特徴点が書き込まれ、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画されることによりワイヤフレーム画像として形成され、必要に応じて、区画された撮影領域に撮影画像を当てはめる(貼り付ける)ことによりテクスチャ画像として形成される。また、撮影が進むにつれて、特徴点、撮影領域が追加され、ワイヤフレーム画像やテクスチャ画像として表現される範囲が増加していく。また、撮影領域は、ここでは3以上の特徴点に囲まれた領域である。必ずしも撮影画像の範囲(実際に撮影された範囲)に一致しなくても良く、例えば、この領域に焦点を当てて撮影したいというように、撮影の目標と成り得る領域であっても良い。撮影領域を撮影画像内の特徴点に囲まれた最大の多角形領域としても良いが、この場合は他の撮影画像と一部重複することが見出されたら、重複部分と非重複部分で撮影回数に差異が生じるので、重複部分と非重複部分に分割するのが良い。また、3つの特徴点に囲まれた小領域としても良いが、撮影領域数が多くなり、コンピュータの処理量が多くなるので、撮影回数が等しい複数の小領域を統合するのが良い。撮影画像の重複を見るためであれば、撮影画像全体の1/2〜1/10程度が好適、1/3〜1/5程度がより好適である。また、撮影画像における全ての撮影領域でカバーされる範囲が実際に撮影された範囲より狭くなり、これらの撮影領域外の部分が撮影されなかったとみなしても、確実に撮影された領域で撮影回数を計数していけば、重複を確実にする意味で安全サイドなので、必要な重複撮影を実行する上で問題はない。また、撮影領域画像記憶部54に記憶する撮影領域の部分は、その撮影領域が撮影されたいずれかの撮影画像から取得できるが、できるだけ当該撮影領域に垂直方向から撮影した撮影領域の部分を取得するのが、撮影範囲画像に当てはめる(貼り付ける)際の変形を少なくできるので好適である。また、三次元空間に表現される画像として、典型的には透視図、投影図からなる三次元モデル画像が挙げられるが、オルソ画像、全周囲画像も三次元空間を特定方向から見て表現される画像なので、三次元空間に表現される画像に含まれるものとする。また、ワイヤフレーム画像は測定対象物の三次元形状を線で表現した画像をいうが、線は必ずしも測定対象物の起伏に沿っておらず、例えば特徴点を直線で接続した画像を含むものとする。また、ワイヤフレーム画像を構成する特徴点は離散的に抽出されても良い。また、テクスチャ画像は測定対象物の表面の質感を表わすために撮影画像を貼り付けた画像をいうが、表面は必ずしも測定対象物の起伏に沿っておらず、例えば特徴点を直線で繋いで区画した面を含むものとする。また、テクスチャ画像を構成する面は曲折があっても良く、特徴点は離散的に抽出されても良い。   Here, the imaging range image is an image representing the imaging range of the measurement object 2 in a three-dimensional space. The shooting range image is initially only in the coordinate space, but each feature point is written by the shooting range image forming unit 85, and three or more feature points surrounding the shooting region are connected and partitioned for each shooting region. It is formed as a wire frame image and, if necessary, formed as a texture image by applying (pasting) the captured image to the partitioned imaging region. Further, as shooting progresses, feature points and shooting areas are added, and the range expressed as a wire frame image or texture image increases. In addition, the imaging area is an area surrounded by three or more feature points here. It is not always necessary to match the range of the captured image (the range actually captured). For example, it may be a region that can serve as a target for capturing, for example, focusing on this region. The shooting area may be the largest polygonal area surrounded by the feature points in the shot image, but in this case, if it is found that it partially overlaps with other shot images, the shot is taken with the overlapping part and non-overlapping part. Since there is a difference in the number of times, it is preferable to divide into overlapping parts and non-overlapping parts. A small area surrounded by three feature points may be used. However, since the number of shooting areas increases and the processing amount of the computer increases, it is preferable to integrate a plurality of small areas having the same number of shooting times. In order to see the overlap of the captured images, about 1/2 to 1/10 of the entire captured image is preferable, and about 1/3 to 1/5 is more preferable. In addition, even if it is considered that the area covered by all the shooting areas in the shot image is narrower than the actual shooting range and the part outside these shooting areas has not been shot, If this is counted, there is no problem in performing the necessary overlap photography because it is a safe side in the sense of ensuring duplication. The portion of the shooting area stored in the shooting area image storage unit 54 can be acquired from any shot image in which the shooting area was shot, but the portion of the shooting area shot from the direction perpendicular to the shooting area is acquired as much as possible. This is preferable because deformation at the time of applying (pasting) to the shooting range image can be reduced. In addition, as an image represented in the three-dimensional space, a three-dimensional model image composed of a perspective view and a projection diagram is typically cited, but an ortho image and an all-around image are also represented by viewing the three-dimensional space from a specific direction. It is assumed that the image is included in the image expressed in the three-dimensional space. A wire frame image refers to an image in which a three-dimensional shape of a measurement object is represented by a line, but the line does not necessarily follow the undulation of the measurement object, and includes, for example, an image in which feature points are connected by straight lines. Further, the feature points constituting the wire frame image may be extracted discretely. A texture image is an image in which a photographed image is pasted to represent the texture of the surface of the measurement object, but the surface does not necessarily follow the undulations of the measurement object. For example, the feature points are connected by straight lines. It shall include the finished surface. Further, the surface constituting the texture image may be bent, and the feature points may be extracted discretely.

本態様のように構成すると、単カメラを用いて移動しながら撮影を行う場合に、撮影範囲画像を用いて撮影範囲を視覚的に明示するので、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。   With this configuration, when shooting using a single camera while moving, the shooting range is visually indicated using the shooting range image, so the shooting progress can be grasped, and shooting is excessive or insufficient. It is possible to provide an image photographing apparatus for three-dimensional measurement that can be performed efficiently without any problems.

本発明の第2の態様の三次元計測用画像撮影装置は、第1の態様の三次元計測用画像撮影装置において、例えば図1に示すように、撮影画像を撮影領域に区分して記憶する撮影領域画像記憶部54を備え、撮影範囲画像形成部85は、撮影範囲画像に区画された撮影領域に、撮影領域画像記憶部54に記憶された各撮影領域の画像を、撮影領域を囲む3以上の特徴点の位置が合致するように当てはめてテクスチュア画像としての撮影範囲画像を形成する。   The three-dimensional measurement image photographing apparatus according to the second aspect of the present invention is the three-dimensional measurement image photographing apparatus according to the first aspect, for example, as shown in FIG. An imaging area image storage unit 54 is provided, and an imaging area image forming unit 85 surrounds the imaging area with images of each imaging area stored in the imaging area image storage unit 54 in the imaging area divided into the imaging area images. A shooting range image as a texture image is formed by applying the above feature points so that the positions match.

ここにおいて、撮影範囲画像に区画された撮影領域に撮影領域画像記憶部54に記憶された撮影領域の画像を当てはめるとは、撮影領域を囲む3以上の特徴点の特徴点番号が撮影領域画像記憶部54に記憶された撮影領域の画像と撮影範囲画像に区画された撮影領域とで合致するように、撮影領域画像記憶部54に記憶された撮影領域の画像を伸縮して、撮影範囲画像の当該撮影領域の位置に当てはめる(貼り付ける)ことをいう。例えば、撮影領域を囲む3以上の特徴点の全てが同一平面上にある場合は、二次元平面上で伸縮して貼り付ければ良い。全ての特徴点が同一平面上にない場合は、各3つの特徴点を選択して二次元平面上で伸縮して貼り付け、それを合成していくことにより撮影領域の画像を形成しても良い。本態様のように構成すると、撮影範囲画像に撮影画像を貼り付けるので、撮影範囲画像をテクスチュア画像として実物ライクに表現でき、撮影の過不足及び進捗状況をビジュアルに把握できる。   Here, when the image of the shooting area stored in the shooting area image storage unit 54 is applied to the shooting area divided into shooting range images, the feature point numbers of three or more feature points surrounding the shooting area are stored in the shooting area image storage. The image of the shooting area image stored in the shooting area image storage unit 54 is expanded and contracted so that the image of the shooting area stored in the section 54 matches the shooting area divided into the shooting range images. Applying (pasting) to the position of the imaging region. For example, when all of the three or more feature points surrounding the imaging area are on the same plane, they may be stretched and pasted on the two-dimensional plane. If all feature points are not on the same plane, select each of the three feature points, stretch and paste them on the two-dimensional plane, and combine them to form an image of the shooting area. good. If comprised like this aspect, since a picked-up image is affixed to a picking range image, a picking range image can be expressed like a texture image like a real thing, and the overshooting and the progress situation of photographing can be grasped visually.

本発明の第3の態様の三次元計測用画像撮影装置は、第1又は第2の態様の三次元計測用画像撮影装置において、例えば図16に示すように、撮影部3が新たな撮影画像を取得する都度、撮影範囲画像形成部85は新たな撮影範囲画像を形成し、表示部4は新たに形成された撮影範囲画像を表示する。
このように構成すると、撮影の進行中に撮影の進捗状況を撮影毎に、いわばオンラインに把握できる。
The three-dimensional measurement image photographing apparatus according to the third aspect of the present invention is the same as the first or second three-dimensional measurement image photographing apparatus, for example, as shown in FIG. Each time the image capturing range is acquired, the shooting range image forming unit 85 forms a new shooting range image, and the display unit 4 displays the newly formed shooting range image.
If comprised in this way, the progress of imaging | photography can be grasped | ascertained online so that it may be said for every imaging | photography during progress of imaging | photography.

本発明の第4の態様の三次元計測用画像撮影装置1Aは、第1又は第2の態様の三次元計測用画像撮影装置において、例えば図17に示すように、撮影部3が新たな撮影画像を所定枚数取得した後に、撮影範囲画像形成部85は新たな撮影範囲画像を形成し、表示部4は新たに形成された撮影範囲画像を表示する。
ここにおいて、所定枚数とは、例えば測定対象物を撮影する撮影回数を適当に選定し、選定した撮影回数に応じて、8回、16回等適当に定めることができる。また、例えば、撮影予定位置を予め定めておき、所定枚数を撮影予定位置数、その1/2、1/4等としても良い。本態様のように構成すると、画像処理を所定枚数毎にまとめて行えるので効率的である。
The three-dimensional measurement image photographing apparatus 1A according to the fourth aspect of the present invention is a three-dimensional measurement image photographing apparatus according to the first or second aspect. For example, as shown in FIG. After acquiring a predetermined number of images, the shooting range image forming unit 85 forms a new shooting range image, and the display unit 4 displays the newly formed shooting range image.
Here, the predetermined number can be appropriately determined, for example, by appropriately selecting the number of times of photographing the measurement object and depending on the selected number of times of photographing. Further, for example, the planned shooting position may be determined in advance, and the predetermined number may be set to the number of planned shooting positions, 1/2, 1/4, and the like. Constituting as in this aspect is efficient because image processing can be performed collectively for each predetermined number of sheets.

本発明の第5の態様の三次元計測用画像撮影装置1は、第1ないし第4のいずれかの態様の三次元計測用画像撮影装置において、例えば図1に示すように、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部83を備え、撮影不足領域判定部86は、領域撮影回数計数部83で計数された撮影回数に基づいて撮影範囲画像に撮影不足領域が有るか否かを判定する。
ここにおいて、撮影領域の撮影回数として、当該撮影領域を囲む全ての特徴点が抽出できた撮影回数を用いても良い。本態様のように構成すると、実際に撮影された回数で判定するので、判定が確実になる。
The three-dimensional measurement image photographing apparatus 1 according to the fifth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to fourth aspects. For example, as shown in FIG. , An area photographing number counting unit 83 that counts the number of photographing included in different photographed images is provided, and the insufficient photographing region determining unit 86 performs photographing in the photographing range image based on the number of photographings counted by the region photographing number counting unit 83. It is determined whether or not there is an area.
Here, as the number of times of photographing in the photographing region, the number of times of photographing in which all feature points surrounding the photographing region can be extracted may be used. When configured as in this aspect, the determination is made with certainty because the determination is made based on the actual number of times of photographing.

本発明の第6の態様の三次元計測用画像撮影装置1Dは、第1ないし第4のいずれかの態様の三次元計測用画像撮影装置において、例えば図28に示すように、三次元位置測定部7は、抽出された特徴点の複数の撮影画像における画面位置から、撮影位置の三次元座標を求め、予め定められた複数の撮影予定位置を記憶する撮影予定位置記憶部57と、三次元位置測定部7で求められた撮影位置と撮影予定位置記憶部57に記憶された複数の撮影予定位置とを比較して、複数の撮影予定位置から次回撮影予定位置を選択する次回撮影予定位置選択部92と、次回撮影予定位置に対する撮影位置の相対的位置を求める移動情報演算部91と、移動情報演算部91で求められた相対位置に基づいて撮影位置から次回撮影予定位置へ撮影者が移動するようにガイド情報を作成し、表示部4に報知させる移動情報報知部93とを備える。
このように構成すると、撮影予定位置を定めて撮影を行うので、計画的に撮影ができる。また、ガイド情報により撮影者を撮影予定位置にガイドするので、撮影予定位置で撮影できる確実性が高い。
The three-dimensional measurement image photographing apparatus 1D according to the sixth aspect of the present invention is a three-dimensional measurement image photographing apparatus according to any one of the first to fourth aspects. For example, as shown in FIG. The unit 7 obtains the three-dimensional coordinates of the shooting position from the screen positions of the extracted feature points in the plurality of shot images, and stores the scheduled shooting position storage unit 57 that stores a plurality of predetermined shooting scheduled positions. The next photographing scheduled position selection is performed in which the next photographing scheduled position is selected from the plurality of photographing scheduled positions by comparing the photographing position obtained by the position measuring unit 7 with the plurality of planned photographing positions stored in the planned photographing position storage unit 57. Unit 92, movement information calculation unit 91 for obtaining a relative position of the shooting position with respect to the next shooting scheduled position, and the photographer moves from the shooting position to the next shooting scheduled position based on the relative position obtained by movement information calculation unit 91. The As create guide information, and a movement information notification unit 93 for notifying the display unit 4.
If comprised in this way, since it image | photographs by setting an imaging | photography scheduled position, it can image | photograph systematically. In addition, since the photographer is guided to the planned shooting position by the guide information, the certainty that the shooting can be performed at the planned shooting position is high.

本発明の第7の態様の三次元計測用画像撮影装置1Eは、第6の態様の三次元計測用画像撮影装置において、例えば図40に示すように、撮影部3は、移動中の撮影者が現在位置で測定対象物2を撮影することによりライブ画像を取得し、三次元位置測定部7は、ライブ画像が取得された場合は、現在位置の三次元座標を求め、次回撮影予定位置選択部92は、三次元位置測定部7で位置座標が求められた現在位置と撮影予定位置記憶部57に記憶された複数の撮影予定位置とを比較して、複数の撮影予定位置から次回撮影予定位置を選択する。   The three-dimensional measurement image photographing apparatus 1E according to the seventh aspect of the present invention is the three-dimensional measurement image photographing apparatus according to the sixth aspect. For example, as shown in FIG. Captures a live image by photographing the measurement object 2 at the current position, and when the live image is obtained, the three-dimensional position measurement unit 7 obtains the three-dimensional coordinates of the current position and selects a next photographing scheduled position. The unit 92 compares the current position for which the position coordinates have been obtained by the three-dimensional position measurement unit 7 with the plurality of planned shooting positions stored in the planned shooting position storage unit 57, and schedules the next shooting from the plurality of planned shooting positions. Select a position.

ここにおいて、ライブ画像とは、移動中の撮影者が現在位置でビデオカメラやデジタルカメラ等で測定対象物2を撮影した画像をいう。通常は、ビデオカメラやデジタルカメラを用いて撮影者が移動しながらディスプレイ等に測定対象物をライブ画像として表示する。本態様のように構成すると、ライブ画像を見本画像と比較しながら撮影予定位置に移動できるので、撮影予定位置で撮影できる確実性が高い。   Here, the live image refers to an image obtained by the moving photographer photographing the measurement object 2 with a video camera, a digital camera, or the like at the current position. Usually, a measurement object is displayed as a live image on a display or the like while a photographer moves using a video camera or a digital camera. With this configuration, the live image can be moved to the planned shooting position while comparing the sample image with the sample image, so that the certainty that the shooting can be performed at the planned shooting position is high.

本発明の第8の態様の三次元計測用画像撮影装置1Dは、第6又は第7の態様の三次元計測用画像撮影装置において、例えば図28に示すように、撮影予定位置記憶部57は、三次元位置測定部7で位置座標が求められた撮影位置を既撮影位置として記憶し、次回撮影予定位置選択部92は、複数の撮影予定位置から撮影予定位置記憶部57に記憶された既撮影位置を除いて次回撮影予定位置を選択する。
このように構成すると、不要な重複撮影を防止できる。
The three-dimensional measurement image photographing device 1D according to the eighth aspect of the present invention is the three-dimensional measurement image photographing device according to the sixth or seventh aspect. For example, as shown in FIG. Then, the shooting position for which the position coordinate is obtained by the three-dimensional position measuring unit 7 is stored as the already-taken position, and the next scheduled shooting position selection unit 92 stores the existing shooting position stored in the scheduled shooting position storage unit 57 from the plurality of scheduled shooting positions. The next scheduled shooting position is selected excluding the shooting position.
If comprised in this way, unnecessary duplication photography can be prevented.

本発明の第9の態様の三次元計測用画像撮影装置1Dは、第8の態様の三次元計測用画像撮影装置において、例えば図29に示すように、撮影不足領域判定部86は、撮影予定位置記憶部57において全ての撮影予定位置が既撮影位置として記憶された場合に撮影不足領域が無いと判定する。
このように構成すると、予定された撮影位置での撮影を確実に完了でき、撮影不足領域が生じる確率が低い。
The three-dimensional measurement image photographing apparatus 1D according to the ninth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to the eighth aspect. For example, as shown in FIG. When all the planned shooting positions are stored as the already-captured positions in the position storage unit 57, it is determined that there is no insufficient shooting area.
With this configuration, it is possible to reliably complete shooting at a scheduled shooting position, and the probability of an insufficient shooting region is low.

本発明の第10の態様の三次元計測用画像撮影装置1Bは、第1ないし第4のいずれかの態様の三次元計測用画像撮影装置において、例えば図20に示すように、測定対象物2を模擬した模擬対象物に係る撮影範囲画像を記憶する見本画像記憶部56を備え、撮影不足領域判定部86は、測定対象物2に係る撮影範囲画像を模擬対象物に係る撮影範囲画像と比較することにより、撮影不足領域が有るか否かを判定する。   The three-dimensional measurement image photographing apparatus 1B according to the tenth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to fourth aspects, for example, as shown in FIG. A sample image storage unit 56 that stores a shooting range image related to the simulation target object that simulates the imaging object, and the shooting shortage area determination unit 86 compares the shooting range image related to the measurement target object 2 with the shooting range image related to the simulation target object. By doing so, it is determined whether or not there is an imaging insufficient region.

ここにおいて、模擬対象物とは、例えば、測定対象物が自動車である場合には、測定対象物に似た自動車又は自動車に似た模型をいう。形状が似ているほど好ましい。ただし、同じ型式の自動車や同一自動車で、ボケた部分や異物混入部分を修正したい、より高画質の撮影画像を得たい、条件を変えて撮影したい等の場合もあるので、模擬対象物は同じ型式の物や測定対象物自体を含むものとする。本態様のように構成すると、測定対象物に係る撮影範囲画像を模擬対象物に係る撮影範囲画像と比較することにより、自動的に撮影不足領域を検出できる。また、測定対象物に係る撮影範囲画像と模擬対象物に係る撮影範囲画像を表示部4に並べて表示し、撮影者が比較・確認できるようにしても良い。   Here, the simulated object refers to, for example, an automobile similar to the measurement object or a model similar to the automobile when the measurement object is an automobile. The more similar the shape, the better. However, in the same type of car or the same car, there may be cases where you want to correct blurred parts or foreign-matter-contaminated parts, obtain higher-quality photographic images, or shoot under different conditions. It shall include type objects and measurement objects themselves. If comprised like this aspect, an imaging | photography insufficient area | region can be automatically detected by comparing the imaging | photography range image which concerns on a measurement object with the imaging | photography range image which concerns on a simulation target object. Further, the photographing range image related to the measurement object and the photographing range image related to the simulation target object may be displayed side by side on the display unit 4 so that the photographer can compare and confirm.

本発明の第11の態様の三次元計測用画像撮影装置1は、第9又は第10の態様の三次元計測用画像撮影装置において、例えば図1に示すように、撮影不足領域判定部86の判定結果を表示部4に表示させる撮影不足情報報知部87を備える。
このように構成すると、判定結果の報知により、撮影者は撮影不足か否かを適時に知ることができる。
The three-dimensional measurement image photographing apparatus 1 of the eleventh aspect of the present invention is the three-dimensional measurement image photographing apparatus of the ninth or tenth aspect, for example, as shown in FIG. A shooting shortage information notifying unit 87 for displaying the determination result on the display unit 4 is provided.
With this configuration, the photographer can know in a timely manner whether or not shooting is insufficient by notifying the determination result.

本発明の第12の態様の三次元計測用画像撮影装置1Cは、第1ないし第11のいずれかの態様の三次元計測用画像撮影装置において、例えば図22に示すように、特徴点は自他識別可能な識別コードを有するマークを含み、特徴点抽出部61で抽出されたマークの識別コードを識別するコード識別部63を備える。   The three-dimensional measurement image photographing apparatus 1C according to the twelfth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to eleventh aspects. For example, as shown in FIG. A code identification unit 63 that includes a mark having an identification code that can be identified, and that identifies the identification code of the mark extracted by the feature point extraction unit 61 is provided.

ここにおいて、自他識別可能な識別コードを有するマークには、数字列、文字列、記号のように識別可能な符号を用いたコード、バーコード、2次元バーコード、カラーコードのようにパターン配置に識別性を持たせたコードが含まれる。このうち、実施例では主にカラーコードを使用する例を説明する。マークの配置は、例えば、測定対象物2の全容を把握できるように測定対象物2の表面にほぼ均等な間隔で配置することが好ましい。また、形状が複雑な部分や変化の大きい部分には詳細を把握しやすいように高密度に配置することが好ましい。
本態様のように構成すると、識別コードを利用して、特徴点抽出や対応点探索が容易になり、三次元位置計測が効率的になる。また、自他識別可能な識別コードを有するマークを用いるので、撮影画像の接続、マーク位置の三次元計測、三次元モデル画像の形成等の画像処理の自動化に有利である。
Here, the mark having an identification code that can be identified by itself and others is arranged in a pattern such as a code, a barcode, a two-dimensional barcode, and a color code using an identification code such as a numeric string, a character string, and a symbol. Contains a code with distinctiveness. Of these, in the embodiment, an example in which a color code is mainly used will be described. For example, the marks are preferably arranged on the surface of the measurement object 2 at substantially equal intervals so that the entire measurement object 2 can be grasped. In addition, it is preferable to arrange the parts at a high density so that the details can be easily grasped in a part having a complicated shape or a part having a large change.
If comprised like this aspect, feature point extraction and corresponding point search will become easy using an identification code, and three-dimensional position measurement will become efficient. In addition, since a mark having an identification code that can identify itself and others is used, it is advantageous for automating image processing such as connection of a photographed image, three-dimensional measurement of a mark position, and formation of a three-dimensional model image.

本発明の第13の態様の三次元計測用画像撮影装置1は、第1ないし第12のいずれかの態様の三次元計測用画像撮影装置において、例えば図25に示すように、撮影範囲画像は、測定対象物2の三次元モデル画像、オルソ画像又は測定対象物2を全周囲から中心点に向けて投影し連続的に配列した全周囲画像のいずれかである。   The three-dimensional measurement image photographing apparatus 1 according to the thirteenth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to twelfth aspects. For example, as shown in FIG. The measurement object 2 is any one of a three-dimensional model image, an ortho image, and an all-around image in which the measurement object 2 is projected from the entire periphery toward the center point and continuously arranged.

ここにおいて、三次元モデル画像とは、2枚以上の立体写真から被写体が撮影されたときの状態に再現されたとき得られる立体像のことをいう。求められた三次元座標から撮影範囲画像空間に特徴点を配置し構築すれば三次元モデル画像、平面図に並行投影にて投影すればオルソ画像、中心投影のまま平面上に投影し各モデル画像を投影し連続的に配列していけば全周囲画像となる。本態様のように構成すると、三次元モデル画像等を用いて、撮影範囲画像に既撮影範囲をビジュアルに表現でき、進捗状況を容易かつ正確に把握できる。   Here, the three-dimensional model image refers to a three-dimensional image obtained when the subject is reproduced from two or more three-dimensional photographs. If feature points are arranged and constructed in the shooting range image space from the obtained three-dimensional coordinates, a three-dimensional model image is created. If projected onto a plan view in parallel projection, an ortho image is projected. If the images are projected and arranged continuously, an all-around image is obtained. If comprised like this aspect, a 3D model image etc. can be used to express the already imaged range visually in the imaged range image, and the progress status can be grasped easily and accurately.

本発明の第14の態様の三次元計測用画像撮影装置は、第1ないし第13のいずれかの態様の三次元計測用画像撮影装置において、撮影部3及び表示部4を有する第1ユニットは三次元位置測定部7及び撮影範囲画像形成部85を有する第2ユニットから独立して移動可能に構成され、第1ユニットと第2ユニットとは、有線又は無線により通信可能に構成されている。
本態様のように構成すると、撮影者は負担が小さく敏速に行動できる。また、高性能・高速処理のコンピュータ処理に適する。
The three-dimensional measurement image photographing device according to the fourteenth aspect of the present invention is the three-dimensional measurement image photographing device according to any one of the first to thirteenth aspects, wherein the first unit having the photographing unit 3 and the display unit 4 is The second unit having the three-dimensional position measuring unit 7 and the photographing range image forming unit 85 is configured to be movable independently, and the first unit and the second unit are configured to be communicable by wire or wirelessly.
When configured in this manner, the photographer can act quickly with a small burden. Also suitable for high-performance, high-speed computer processing.

本発明の第15の態様の三次元計測用画像撮影方法は、例えば図16及び図17に示すように、測定対象物2を単カメラにより重複させながら順次撮影する三次元計測用画像撮影方法において、撮影者が複数の撮影位置から測定対象物2を撮影して撮影画像を取得する撮影工程(S100)と、撮影工程で取得された撮影画像における測定対象物2の特徴点を抽出する特徴点抽出工程(S120)と、特徴点抽出工程で求められた3以上の特徴点で囲まれた領域(当該特徴点を含む)からなる撮影領域に区分する撮影領域区分工程(S220)と、撮影画像を撮影領域に区分して記憶する撮影領域画像記憶工程(S225)と、特徴点抽出工程で抽出された特徴点の複数の撮影画像における画面位置から、特徴点の三次元座標を求める三次元位置測定工程(S140)と、測定対象物2の撮影範囲を三次元空間に表現する撮影範囲画像の座標空間に三次元位置演算工程で求められた各特徴点を書き込み、撮影範囲画像に撮影領域画像記憶工程で記憶された各撮影領域を、撮影領域を囲む3以上の特徴点の位置が合致するように結線して撮影領域毎に区画する撮影範囲画像形成工程(S240)と、撮影範囲画像に撮影不足領域が有るか否かを判定する撮影不足領域判定工程(S170)と、撮影範囲画像形成工程で形成された撮影範囲画像を表示する表示工程(S160)とを備える。   The three-dimensional measurement image photographing method according to the fifteenth aspect of the present invention is a three-dimensional measurement image photographing method in which, for example, as shown in FIGS. A photographing step (S100) in which the photographer photographs the measurement object 2 from a plurality of photographing positions to obtain a photographed image, and a feature point for extracting a feature point of the measurement object 2 in the photographed image obtained in the photographing process An extraction step (S120), an imaging region segmentation step (S220) for segmenting into an imaging region consisting of an area (including the feature points) surrounded by three or more feature points obtained in the feature point extraction step, and a captured image 3D to obtain 3D coordinates of feature points from the screen positions of a plurality of photographed images of feature points extracted in the feature point extraction step (S225). Each feature point obtained in the three-dimensional position calculation step is written in the coordinate space of the photographing range image representing the photographing range of the measurement object 2 in the three-dimensional space, and the photographing region is taken in the photographing range image. A shooting range image forming step (S240) in which each shooting region stored in the image storage step is connected so as to match the positions of three or more feature points surrounding the shooting region, and is divided for each shooting region, and a shooting range image Includes an undershooting region determination step (S170) for determining whether or not there is an undershooting region, and a display step (S160) for displaying the shooting range image formed in the shooting range image forming step.

本態様のように構成すると、単カメラを用いて移動しながら撮影を行う場合に、撮影範囲画像を用いて撮影範囲を視覚的に明示するので、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影方法を提供できる。   With this configuration, when shooting using a single camera while moving, the shooting range is visually indicated using the shooting range image, so the shooting progress can be grasped, and shooting is excessive or insufficient. It is possible to provide an image capturing method for three-dimensional measurement that can be performed efficiently and efficiently.

本発明によれば、単カメラを用いて移動しながら撮影を行う場合に、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる画像撮影装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, when imaging | photography while moving using a single camera, the imaging progress can be grasped | ascertained and the imaging | photography apparatus which can perform imaging | photography efficiently without excess and deficiency can be provided.

実施例1に係る三次元計測用画像撮影装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to Embodiment 1. FIG. 対応点探索を説明するための図である。It is a figure for demonstrating corresponding point search. 特徴点及び対応点の例を示す図である。It is a figure which shows the example of a feature point and a corresponding point. 相互標定を説明するための図である。It is a figure for demonstrating mutual orientation. ステレオ法を説明するため図である。It is a figure for demonstrating the stereo method. 撮影対象物である土器に特徴点としてのマークが貼付された撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image by which the mark as a feature point was stuck on the earthenware which is a picked-up object. 撮影範囲画像の座標空間に書き込まれた特徴点の位置の例を示す図である。It is a figure which shows the example of the position of the feature point written in the coordinate space of the imaging | photography range image. 撮影範囲画像における撮影領域の区画例を示す図である。It is a figure which shows the example of a division of the imaging region in an imaging range image. 撮影範囲画像における撮影領域を撮影回数で区別した例を示す図である。It is a figure which shows the example which distinguished the imaging | photography area | region in the imaging | photography range image with the frequency | count of imaging | photography. 撮影範囲画像に撮影領域が追加されていく例を示す図である。It is a figure which shows the example in which a photography area is added to a photography range image. 撮影範囲画像の完成例を示す図である。It is a figure which shows the completion example of an imaging | photography range image. 実施例1における撮影範囲画像に撮影画像を貼付表示した例を示す図である。6 is a diagram illustrating an example in which a captured image is pasted and displayed on an imaging range image in Embodiment 1. FIG. 撮影範囲画像がオルソ画像である例を示す図である。It is a figure which shows the example whose imaging | photography range image is an ortho image. 撮影範囲画像がワイヤフレーム画像である例を示す図である。It is a figure which shows the example whose imaging | photography range image is a wire frame image. 撮影範囲画像が全周画像である例を示す図である。It is a figure which shows the example whose imaging | photography range image is a perimeter image. 実施例1における画像撮影の処理フロー例を示す図である。FIG. 6 is a diagram illustrating an example of a processing flow of image shooting in the first embodiment. 実施例1における撮影範囲画像形成の処理フロー例を示す図である。FIG. 6 is a diagram illustrating an example of a processing flow of imaging range image formation in the first embodiment. 実施例2に係る三次元計測用画像撮影装置の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to Embodiment 2. FIG. 実施例2における画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing in the second embodiment. 実施例3に係る三次元計測用画像撮影装置の構成例を示すブロック図である。FIG. 9 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to a third embodiment. 実施例3における撮影範囲画像形成の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of imaging range image formation in the third embodiment. 実施例4に係る三次元計測用画像撮影装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to a fourth embodiment. カラーコードターゲットの例を示す図である。It is a figure which shows the example of a color code target. レトロターゲットを用いた重心位置検出の説明図である。It is explanatory drawing of the gravity center position detection using a retro target. 実施例4における撮影範囲画像の例を示す図である。FIG. 10 is a diagram illustrating an example of a shooting range image in the fourth embodiment. 実施例4における画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image shooting in the fourth embodiment. カラーコードターゲットとレトロターゲットとを共に識別性マークとして用いる例を示す図である。It is a figure which shows the example which uses both a color code target and a retro target as a distinguishability mark. 実施例6に係る三次元計測用画像撮影装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to a sixth embodiment. 実施例6における画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing in the sixth embodiment. 測定対象物と撮影予定位置との位置関係を示す図である。It is a figure which shows the positional relationship of a measurement object and an imaging | photography planned position. 撮影予定位置を撮影範囲画像に書き込んだ例(その1)を示す図である。It is a figure which shows the example (the 1) in which the imaging | photography planned position was written in the imaging | photography range image. 撮影予定位置を撮影範囲画像に書き込んだ例(その2)を示す図である。It is a figure which shows the example (the 2) which wrote in the imaging | photography range image the imaging | photography planned position. 撮影範囲画像に撮影位置を指示した例(その1)を示す図である。It is a figure which shows the example (the 1) which instruct | indicated the imaging position to the imaging | photography range image. 撮影範囲画像に撮影位置を指示した例(その2)を示す図である。It is a figure which shows the example (the 2) which instruct | indicated the imaging position to the imaging | photography range image. 撮影範囲画像に撮影領域を形成した例(その1)を示す図である。It is a figure which shows the example (the 1) which formed the imaging | photography area | region in the imaging | photography range image. 撮影範囲画像に撮影領域を形成した例(その2)を示す図である。It is a figure which shows the example (the 2) which formed the imaging | photography area | region in the imaging | photography range image. 撮影範囲画像に撮影領域を形成した例(その3)を示す図である。It is a figure which shows the example (the 3) which formed the imaging | photography area | region in the imaging | photography range image. 撮影範囲画像に撮影領域を貼付表示した例(その1)を示す図である。It is a figure which shows the example (the 1) which pasted and displayed the imaging | photography area | region on the imaging | photography range image. 撮影範囲画像に撮影画像を貼付表示した例(その2)を示す図である。It is a figure which shows the example (the 2) which stuck and displayed the picked-up image on the imaging | photography range image. 実施例7に係る三次元計測用画像撮影装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to a seventh embodiment. ライブ画像と見本画像の表示例(その1)を示す図である。It is a figure which shows the example of a display of a live image and a sample image (the 1). ライブ画像と見本画像の表示例(その2)を示す図である。It is a figure which shows the example of a display of the live image and a sample image (the 2). ライブ画像と見本画像の表示例(その3)を示す図である。It is a figure which shows the example of a display of a live image and a sample image (the 3). 実施例7における画像撮影の処理フロー例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow of image capturing in the seventh embodiment.

以下、図面を参照して、本発明の実施の形態について説明する。尚、各図において、互いに同一又は相当する部分には同一符号を付し,重複した説明は省略する。以下の実施例は、測定対象物を単カメラにより重複させながら順次撮影する際に、撮影の進捗状況を把握しながら撮影を進める三次元計測用画像撮影装置及び撮影方法に関する。   Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted. The following embodiments relate to a three-dimensional measurement image photographing apparatus and a photographing method for performing photographing while grasping the progress of photographing when sequentially photographing while measuring objects are overlapped by a single camera.

実施例1では、測定対象物の特徴点の三次元座標を求め、撮影画像を3以上の特徴点に囲まれた撮影領域に区分して、測定対象物の撮影範囲を三次元空間に表現する撮影範囲画像を形成する例を説明する。また、撮影の都度、新たな撮影範囲画像を形成し、表示する例を説明する。また、撮影不足領域の有無の判定は、撮影領域の撮影回数を計数し、所定の撮影回数に達していない撮影領域の有無により行なう例を説明する。   In the first embodiment, the three-dimensional coordinates of the feature point of the measurement object are obtained, the photographed image is divided into photographing regions surrounded by three or more feature points, and the photographing range of the measurement object is expressed in a three-dimensional space. An example of forming a shooting range image will be described. An example in which a new shooting range image is formed and displayed each time shooting is performed will be described. In addition, an example will be described in which the presence / absence of an undershooting area is determined by counting the number of times of shooting in the shooting area and the presence / absence of a shooting area that has not reached the predetermined number of times.

[装置構成]
図1は本発明の実施例1に係る三次元計測用画像撮影装置1の構成例を示すブロック図である。三次元計測用画像撮影装置1は、測定対象物2を撮影する撮影部3、撮影画像及び画像処理した画像等を表示する表示部4、操作者がデータや指示等を入力する入力部4A、撮影画像及び画像処理した画像、特徴点や撮影領域の位置や撮影回数等を記憶する記憶部5、撮影画像から特徴点を抽出する特徴抽出部6、測定対象物2の特徴点及び撮影位置の三次元座標を求める三次元位置測定部7、撮影画像を撮影領域に区分する、特徴点や撮影領域の撮影回数を計数する、撮影範囲画像を形成する、撮影不足領域の有無を判定する等の画像処理を行う画像処理部8、三次元計測用画像撮影装置1及びそれを構成する各部を制御する制御部10を備える。記憶部5は、撮影画像記憶部51、特徴点撮影回数記憶部52、領域撮影回数記憶部53、撮影領域画像記憶部54、特徴点位置関係記憶部55を有する。特徴抽出部6は、特徴点抽出部61を有する。三次元位置測定部7は、対応点探索部71、標定部72、三次元位置演算部73を有する。画像処理部8は、撮影領域区分部81、特徴点撮影回数計数部82、領域撮影回数計数部83、測定対象物境界抽出部84、撮影範囲画像形成部85、撮影不足領域判定部86、撮影不足情報報知部87を有する。なお、特徴抽出部6、三次元位置測定部7、画像処理部8、制御部10はパーソナルコンピュータ(PC)15内に構成される。
[Device configuration]
FIG. 1 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus 1 according to the first embodiment of the present invention. The three-dimensional measurement image photographing apparatus 1 includes a photographing unit 3 for photographing a measurement object 2, a display unit 4 for displaying a photographed image and an image processed image, an input unit 4A for an operator to input data, instructions, and the like. A storage unit 5 that stores a photographed image and an image processed image, a feature point, the position of a photographing region, the number of times of photographing, and the like, a feature extraction unit 6 that extracts a feature point from the photographed image, a feature point of the measurement object 2, and a photographing position Three-dimensional position measurement unit 7 for obtaining three-dimensional coordinates, dividing a photographed image into photographing regions, counting the number of photographing of feature points and photographing regions, forming a photographing range image, determining the presence or absence of a photographing insufficient region, etc. An image processing unit 8 that performs image processing, a three-dimensional measurement image capturing apparatus 1, and a control unit 10 that controls each unit constituting the image processing unit 8 are provided. The storage unit 5 includes a photographed image storage unit 51, a feature point photographing number storage unit 52, a region photographing number storage unit 53, a photographing region image storage unit 54, and a feature point position relationship storage unit 55. The feature extraction unit 6 includes a feature point extraction unit 61. The three-dimensional position measurement unit 7 includes a corresponding point search unit 71, an orientation unit 72, and a three-dimensional position calculation unit 73. The image processing unit 8 includes a shooting area sorting unit 81, a feature point shooting number counting unit 82, a region shooting number counting unit 83, a measurement object boundary extraction unit 84, a shooting range image forming unit 85, a shooting shortage region determination unit 86, and a shooting. A shortage information notification unit 87 is provided. The feature extraction unit 6, the three-dimensional position measurement unit 7, the image processing unit 8, and the control unit 10 are configured in a personal computer (PC) 15.

本実施例に係る三次元計測用画像撮影装置1は、測定対象物2の全周撮影を行う場合や、測定対象物2が大きい場合・広い場合、形状が複雑な場合等の撮影に適している。
撮影部3は、単カメラ、例えばビデオカメラやデジタルカメラで構成される。撮影者は、撮影部3としての単カメラを用いて、例えば測定対象物2の周りを移動しながら、重複撮影領域を設けて順次撮影する。三次元計測するには、重複撮影領域を共有する2つの撮影画像をステレオ画像として、その重複撮影領域から特徴点を抽出し、これらの特徴点の三次元座標を求めるため、重複して撮影することが必要である。ビデオカメラではシャッター操作により通常は撮影画像を外部のメモリに記憶するが、内部メモリがあればそこに記憶される。デジタルカメラではシャッター操作により撮影画像を内部メモリに記憶する。
表示部4は、例えば、液晶ディスプレイ等のディスプレイを有する。少なくとも、測定対象物2の撮影範囲画像を表示し、その中に特徴点や撮影領域を表示する。その他、撮影画像、画像処理した画像、オルソ画像、全周囲画像等を表示しても良い。また、音声表示する場合にはスピーカを有する。
入力部4Aは、例えばマウスやキーボードを有し、操作者がデータ及び指示を入力するために使用される。
The three-dimensional measurement image photographing apparatus 1 according to the present embodiment is suitable for photographing the entire circumference of the measurement object 2, when the measurement object 2 is large / wide, or when the shape is complicated. Yes.
The photographing unit 3 is composed of a single camera such as a video camera or a digital camera. The photographer uses a single camera as the photographing unit 3 to sequentially photograph while providing an overlapping photographing region while moving around the measurement object 2, for example. To perform three-dimensional measurement, two captured images that share an overlapping shooting area are used as stereo images, and feature points are extracted from the overlapping shooting area, and the three-dimensional coordinates of these feature points are obtained, so that shooting is performed in duplicate. It is necessary. In a video camera, a photographed image is usually stored in an external memory by a shutter operation, but if there is an internal memory, it is stored there. In a digital camera, a captured image is stored in an internal memory by a shutter operation.
The display unit 4 includes a display such as a liquid crystal display, for example. At least an imaging range image of the measurement object 2 is displayed, and feature points and imaging areas are displayed therein. In addition, a photographed image, an image processed image, an ortho image, an all-around image, and the like may be displayed. In addition, a speaker is provided for voice display.
The input unit 4A includes, for example, a mouse and a keyboard, and is used for an operator to input data and instructions.

記憶部5は、例えばハードディスクで構成され、データベースとして使用される。撮影画像及び画像処理した画像を記憶する撮影画像記憶部51、各特徴点について、撮影回数を特徴点番号と対応付けて記憶する特徴点撮影回数記憶部52、各撮影領域について、撮影回数を当該撮影領域を囲む特徴点の特徴点番号と対応付けて記憶する領域撮影回数記憶部53、撮影画像から各撮影領域の画像を抽出して記憶する撮影領域画像記憶部54、各特徴点について、特徴点番号を三次元位置座標及び各撮影画像中の位置座標と対応付けて記憶する特徴点位置関係記憶部55を有する。撮影画像記憶部51としてカメラの内部メモリを用いても良いが、PC15のハードディスクを用いる方が高速、多様な処理に適しているので好ましい。本実施例では、外部メモリを用いるカメラでは撮影画像を記憶部5に直接記憶し、内部メモリを用いるカメラでは撮影画像を記憶部5に転送するものとする。   The storage unit 5 is composed of, for example, a hard disk and is used as a database. A photographed image storage unit 51 that stores the photographed image and the image processed image, a feature point photographing number storage unit 52 that stores the number of photographings in association with a feature point number for each feature point, and the number of photographings for each photographing region An area shooting count storage unit 53 that stores the image in association with the feature point numbers of the feature points surrounding the shooting area, a shooting area image storage unit 54 that extracts and stores an image of each shooting area from the shot image, and features about each feature point A feature point position relationship storage unit 55 is provided that stores point numbers in association with three-dimensional position coordinates and position coordinates in each captured image. Although the internal memory of the camera may be used as the captured image storage unit 51, it is preferable to use the hard disk of the PC 15 because it is suitable for various processes at high speed. In this embodiment, a camera using an external memory stores a captured image directly in the storage unit 5, and a camera using an internal memory transfers the captured image to the storage unit 5.

[特徴抽出部]
特徴抽出部6は、撮影画像から特徴点を抽出する特徴点抽出部61を有する。特徴点抽出部61は複数の撮影画像から特徴点を抽出する。特徴点には、例えば測定対象物2の中心位置、重心位置、コーナー位置、他と異なる特徴を有する位置、測定対象物2に貼付された又は投影された標識などがある。特徴点抽出には特徴抽出オペレータが使用される。ここではモラベック(MORAVEC)オペレータを用いる例を説明する。
[Feature extraction unit]
The feature extraction unit 6 includes a feature point extraction unit 61 that extracts feature points from the captured image. The feature point extraction unit 61 extracts feature points from a plurality of captured images. The feature points include, for example, the center position, the center of gravity position, the corner position of the measurement object 2, a position having a different characteristic from others, and a sign affixed or projected on the measurement object 2. A feature extraction operator is used for feature point extraction. Here, an example in which a Moravec operator is used will be described.

MORAVECオペレータは、汎用の特徴抽出器として古くから使用されている。MORAVECオペレータは、例えば、ある注目画素の周囲3×3画素をマスクとし、マスクが注目画素の周囲4方向に各1画素移動した際の濃度差分(方向濃度差分)の最小値をその注目画素の特徴量とする。処理が単純で高速であること、比較的容易にハード化が可能なことなどが特徴である。なお、高速処理を行うためには、画像の数倍のメモリが必要となる。ここではモラベックオペレータによる特徴点抽出を説明したが、他のオペレータ、例えばハリスオペレータやその他のもの、特徴点を検出できるものならなんでもよい。   The MORAVEC operator has long been used as a general-purpose feature extractor. The MORAVEC operator uses, for example, a 3 × 3 pixel around a certain target pixel as a mask, and sets the minimum value of the density difference (direction density difference) when the mask moves one pixel in each of the four directions around the target pixel. The feature value. It is characterized by simple and high-speed processing and relatively easy hardware. In order to perform high-speed processing, a memory several times as large as an image is required. Although the feature point extraction by the Moravec operator has been described here, other operators, for example, the Harris operator and others, and anything that can detect feature points may be used.

[三次元位置測定部]
三次元位置測定部7は、特徴抽出部6で抽出された特徴点の撮影画像における画面位置から、撮影対象物2の特徴点の三次元位置座標を求める。三次元位置測定部7は、特徴点抽出部61で抽出された特徴点について、ステレオ画像で対応点を求める対応点探索部71、対応点探索部71で求められた対応点に基づいて、撮影部3におけるカメラの位置と傾きを求める標定を行なう標定部72、標定部72で求められたカメラの位置と傾きを用いて特徴点の三次元位置座標を求める三次元座標演算部73を有する。
[Three-dimensional position measurement unit]
The three-dimensional position measurement unit 7 obtains the three-dimensional position coordinates of the feature point of the photographing object 2 from the screen position in the photographed image of the feature point extracted by the feature extraction unit 6. The three-dimensional position measurement unit 7 captures the feature points extracted by the feature point extraction unit 61 based on the corresponding points obtained by the corresponding point search unit 71 and the corresponding points obtained by the corresponding point search unit 71. An orientation unit 72 that performs orientation for obtaining the position and inclination of the camera in the unit 3, and a 3D coordinate calculation unit 73 that obtains the 3D position coordinates of the feature points using the camera position and inclination obtained by the orientation unit 72.

三次元計測では、2枚以上の撮影画像における重複部分の特徴点を用いて、対応点探索、相互標定を行い、測定対象物2の特徴点の三次元座標を求める。まず、2枚の撮影画像をステレオ画像(一方を基準画像、他方を探索画像とする)とし、対応点探索部71にて特徴点の対応付け(対応点探索)を行なう。例えば、相互相関処理により対応点探索を行なう。ステレオ画像の選択は、例えば撮影の順序に添って、最後に撮影した既撮影画像と新たに撮影した撮影画像をステレオ画像とする。また、新たな撮影画像との重複領域が最も大きい既撮影画像と新たな撮影画像をステレオ画像としても良く、新たな撮影画像との共有特徴点数が最も多い既撮影画像と新たな撮影画像をステレオ画像としても良い。   In the three-dimensional measurement, the corresponding points are searched and the relative orientation is performed using the feature points of the overlapping portions in two or more photographed images, and the three-dimensional coordinates of the feature points of the measurement object 2 are obtained. First, two captured images are set as a stereo image (one is a reference image and the other is a search image), and the corresponding point search unit 71 associates feature points (corresponding point search). For example, corresponding point search is performed by cross-correlation processing. In the selection of the stereo image, for example, the last captured image and the newly captured image are taken as a stereo image in the order of shooting. In addition, the existing captured image having the largest overlapping area with the new captured image and the new captured image may be set as a stereo image, and the already captured image and the new captured image having the largest number of feature points shared with the new captured image are stereo. It is good as an image.

[相互相関処理]
相互相関係数による方法
[Correlation processing]
Cross correlation coefficient method

図2は対応点探索を説明するための図である。図2に示すようにN×N画素のテンプレート画像を、それより大きいM×M画素の入力画像内の探索範囲(M−N+1)上で動かし、上式のC(a,b)が最大になるようなテンプレート画像の左上位置を求めて、テンプレート画像に対し探索されたとみなす。左右画像の場合には、例えば左画像上にN×N画素のテンプレート画像を設定し、右画像上にM×M画素の探索領域を設定し、この操作を各画像上での位置について行えばよい。
ここでは、対応点探索に関し、正規化相互相関処理について説明したが、他の手法、例えば、残差逐次検定法(SSDA)などを用いてもよい。
FIG. 2 is a diagram for explaining the corresponding point search. As shown in FIG. 2, the template image of N 1 × N 1 pixel is moved over the search range (M 1 −N 1 +1) 2 in the input image of M 1 × M 1 pixel which is larger than the template image. The upper left position of the template image in which (a, b) is maximized is obtained, and it is considered that the template image has been searched. In the case of left and right images, for example, a template image of N 1 × N 1 pixel is set on the left image, a search region of M 1 × M 1 pixel is set on the right image, and this operation is performed on each image. What is necessary is to do about the position.
Here, the normalized cross-correlation processing has been described with respect to the corresponding point search, but other methods, for example, a residual sequential test method (SSDA) may be used.

図3に特徴点及び対応点の例を示す。図3(a)は左画像から抽出された特徴点、図3(b)は右画像から抽出された特徴点、図3(c)は対応付けされた特徴点を示す。左画像と右画像はステレオペアを構成し、左右に僅かにずれた位置で撮影されている。左画像及び右画像において、測定対象物2としての自動車に付された多数の点の位置が特徴点として抽出された点の位置である。対応点探索によりこれらの特徴点の大部分が対応付けられ、図3(c)において三次元座標空間(ここでは透視図を使用)に表示されている。これらの特徴点には特徴点番号が付され、三次元位置座標及び左右画像における位置座標が特徴点位置関係記憶部55に記憶される。   FIG. 3 shows examples of feature points and corresponding points. FIG. 3A shows feature points extracted from the left image, FIG. 3B shows feature points extracted from the right image, and FIG. 3C shows associated feature points. The left image and the right image form a stereo pair, and are photographed at a position slightly shifted left and right. In the left image and the right image, the positions of many points attached to the automobile as the measurement object 2 are the positions of the points extracted as feature points. Most of these feature points are associated by the corresponding point search, and are displayed in a three-dimensional coordinate space (here, a perspective view is used) in FIG. These feature points are assigned feature point numbers, and the three-dimensional position coordinates and the position coordinates in the left and right images are stored in the feature point position relationship storage unit 55.

[外部標定要素の算出:相互標定]
次に、左右画像の対応付けられた点から、相互標定法によってカメラの位置、傾きを求める方法について説明する。相互標定は標定部72にて行なう。
モデル画像とは、2枚以上の撮影画像から被写体が撮影されたときの状態に再現されたとき得られる立体像のことをいう。相対的に相似なモデル画像を形成することを、相互標定という。すなわち、相互標定とは、撮影画像の対応する2本の光束が交会するように、左右それぞれのカメラの投影中心の位置および傾きを定めるものである。
[Calculation of external orientation elements: mutual orientation]
Next, a method for obtaining the position and tilt of the camera by the relative orientation method from the points where the left and right images are associated will be described. The relative orientation is performed by the orientation unit 72.
A model image refers to a three-dimensional image obtained when a subject is reproduced from two or more photographed images. Forming relatively similar model images is called relative orientation. That is, the relative orientation determines the position and inclination of the projection center of each of the left and right cameras so that the two corresponding light beams of the captured image meet.

図4は相互標定を説明するための図である。次に,各モデル画像の標定計算の詳細について説明する。この計算により、左右それぞれのカメラの位置(三次元座標と三軸の傾き)が求められる。
以下の共面条件式によりこれらのカメラの位置に係るパラメータを求める。
FIG. 4 is a diagram for explaining relative orientation. Next, the details of the orientation calculation of each model image will be described. By this calculation, the positions of the left and right cameras (three-dimensional coordinates and three-axis tilt) are obtained.
The parameters relating to the positions of these cameras are obtained by the following coplanar conditional expression.

モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合左側のカメラのX軸の回転角ωは0なので、考慮する必要ない。 The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ω 2. In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, it is not necessary to consider.

このような条件にすると、(式1)の共面条件式は(式2)のようになり、この式を解けば各パラメータが求まる。
Under such a condition, the coplanar conditional expression of (Expression 1) becomes as shown in (Expression 2), and each parameter can be obtained by solving this expression.

ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(式3)、(式4)が成り立つ。
Here, between the model coordinate system XYZ and the camera coordinate system xyz, the following coordinate transformation relational expressions (formula 3) and (formula 4) hold.

これらの式を用いて、次の手順により、未知パラメータを求める。
(a)未知パラメータの初期近似値は通常0とする。
(b)共面条件式(式2)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を(式3)、(式4)により求め、観測方程式をたてる。
(c)最小二乗法をあてはめ、近似値に対する補正量を求める。
(d)近似値を補正する。
(e)補正された近似値を用いて、(b)〜(e)までの操作を収束するまで繰り返す。
未知パラメータ(κ,φ,κ,φ,ω)を求めることにより、カメラの位置と傾きが求まる。
相互標定法によってカメラの位置が求まれば、ステレオ法によって対象空間点上の三次元座標、すなわち特徴点の三次元座標を求めることが可能となる。
Using these equations, unknown parameters are obtained by the following procedure.
(A) The initial approximate value of the unknown parameter is normally 0.
(B) The coplanar conditional expression (Expression 2) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by (Expression 3) and (Expression 4), and an observation equation is established.
(C) A least square method is applied to obtain a correction amount for the approximate value.
(D) Correct the approximate value.
(E) Using the corrected approximate value, the operations (b) to (e) are repeated until convergence.
By obtaining unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ), the position and tilt of the camera can be obtained.
If the position of the camera is obtained by the relative orientation method, it is possible to obtain the three-dimensional coordinates on the object space point, that is, the three-dimensional coordinates of the feature points by the stereo method.

〔ステレオ法〕
図5はステレオ法を説明するための図である。
簡単のために、同じカメラを2台(C1,C2)使用し、それぞれの光軸は平行でカメラレンズの主点からCCD面までの距離cが等しく、CCDは光軸に直角に置かれているものとする。2つの光軸間距離(基線長)をBとする。

物体上の点P(x、y、z)とカメラC1,C2の撮影画面上の点P1(x1、y1)、P2(x2、y2)の座標の間には、以下のような関係がある。

x1=cx/z −−−(式5)
y1=y2=cy/z −−−(式6)
x2−x1=cB/z −−−(式7)

但し、全体の座標系(x、y、z)の原点をカメラC1のレンズ主点にとるものとする。
[Stereo method]
FIG. 5 is a diagram for explaining the stereo method.
For simplicity, two cameras (C1 and C2) are used, the optical axes are parallel, the distance c from the camera lens principal point to the CCD plane is equal, and the CCD is placed perpendicular to the optical axis. It shall be. Let B be the distance between the two optical axes (baseline length).

The following relationship exists between the coordinates of the point P (x, y, z) on the object and the coordinates of the points P1 (x1, y1) and P2 (x2, y2) on the photographing screens of the cameras C1 and C2. .

x1 = cx / z --- (Formula 5)
y1 = y2 = cy / z --- (Formula 6)
x2-x1 = cB / z --- (Formula 7)

However, the origin of the entire coordinate system (x, y, z) is taken as the lens principal point of the camera C1.

(式7)よりzを求め、これを用いて(式5)、(式6)よりx、yが求められる。
求められた特徴点の位置座標を撮影範囲画像にマッピングできれば、マッピングされた特徴点から撮影領域を囲む3以上の特徴点を選択して結線することにより、撮影範囲画像を区画し、撮影範囲画像をワイヤフレーム画像として形成することができる。
Z is obtained from (Equation 7), and x and y are obtained from (Equation 5) and (Equation 6) using this.
If the position coordinates of the obtained feature points can be mapped to the imaging range image, the imaging range image is partitioned by selecting and connecting three or more feature points surrounding the imaging area from the mapped feature points, and the imaging range image is obtained. Can be formed as a wire frame image.

また、各特徴点の三次元座標が求まれば、三次元モデル画像、オルソ画像、全周囲画像を形成できる。求められた三次元座標から撮影範囲画像空間に特徴点を配置し構築すれば三次元モデル画像、平面図に並行投影にて投影すればオルソ画像、中心投影のまま平面上に各モデル画像を投影し連続的に配列していけば全周囲画像となる。すなわち、撮影範囲画像を三次元モデル画像、オルソ画像、全周囲画像で表現できる。また、テクスチャ画像、ワイヤフレーム画像等で表現できる。また、三次元モデル画像は透視図や投影図等で任意の方向から表現できる。また、三次元座標を用いることにより撮影範囲画像の精度を向上できる。   If the three-dimensional coordinates of each feature point are obtained, a three-dimensional model image, an ortho image, and an all-around image can be formed. If feature points are arranged and constructed in the shooting range image space from the obtained three-dimensional coordinates, a three-dimensional model image is projected. If projected onto a plan view in parallel projection, an ortho image is projected. If it is arranged continuously, it becomes an all-around image. That is, the shooting range image can be expressed by a three-dimensional model image, an ortho image, and an all-around image. Further, it can be expressed by a texture image, a wire frame image, or the like. In addition, the three-dimensional model image can be expressed from an arbitrary direction using a perspective view or a projection view. Further, the accuracy of the shooting range image can be improved by using the three-dimensional coordinates.

[画像処理部]
図1に戻り、画像処理部8は、撮影画像について、測定対象物2の領域を3以上の特徴点で囲まれた領域(当該特徴点を含む)からなる撮影領域に区分して撮影領域番号を付与する撮影領域区分部81、各特徴点について、異なる撮影画像に含まれる撮影回数を計数する特徴点撮影回数計数部82、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部83、測定対象物2と背景の境界を抽出する測定対象物境界抽出部84、三次元位置測定部7で位置座標が測定された特徴点を撮影範囲画像に書き込み、撮影範囲画像の座標空間に書き込まれた特徴点のうち、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画し、撮影範囲画像をワイヤフレーム画像として形成する撮影範囲画像形成部85と、撮影範囲画像に撮影不足領域が有るか否かを判定する撮影不足領域判定部86と、撮影不足領域判定部86の判定結果を表示部4に表示させる撮影不足情報報知部87を有する。
[Image processing unit]
Returning to FIG. 1, the image processing unit 8 divides the region of the measurement object 2 into a shooting region composed of a region (including the feature point) surrounded by three or more feature points in the shot image. For each feature point, a feature point shooting number counting unit 82 for counting the number of shooting times included in a different shooting image, and a region for counting the number of shooting times included in a different shooting image for each shooting region. The feature point whose position coordinates are measured by the shooting number counting unit 83, the measurement object boundary extraction unit 84 for extracting the boundary between the measurement object 2 and the background, and the three-dimensional position measurement unit 7 is written in the shooting range image, A shooting range image forming unit 85 that connects three or more feature points that surround the shooting region among the feature points written in the coordinate space of each other to divide each shooting region and form a shooting range image as a wire frame image; An imaging missing area determination unit 86 determines whether the shadow area image capturing missing area there has a photographic missing information notification unit 87 for displaying the determination result of the photographing missing area determination unit 86 to the display unit 4.

撮影範囲画像とは、測定対象物2の撮影範囲を三次元空間に表現する画像である。撮影範囲画像は、最初は座標空間だけであるが、撮影範囲画像形成部85により各特徴点が書き込まれ、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画されることによりワイヤフレーム画像として形成され、必要に応じて、区画された撮影領域に撮影画像を当てはめる(貼り付ける)ことによりテクスチャ画像として形成される。また、撮影が進むにつれて、特徴点、撮影領域が追加され、ワイヤフレーム画像やテクスチャ画像として表現される範囲が増加していく。   The imaging range image is an image that represents the imaging range of the measurement object 2 in a three-dimensional space. The shooting range image is initially only in the coordinate space, but each feature point is written by the shooting range image forming unit 85, and three or more feature points surrounding the shooting region are connected and partitioned for each shooting region. It is formed as a wire frame image and, if necessary, formed as a texture image by applying (pasting) the captured image to the partitioned imaging region. Further, as shooting progresses, feature points and shooting areas are added, and the range expressed as a wire frame image or texture image increases.

撮影領域区分部81は、撮影画像において、測定対象物2の領域を撮影領域に区分する。3以上の特徴点を頂点とする多角形で測定対象物2の領域を多数の領域に区分することができる。本実施例では、撮影領域の重複状況を把握するのが目標なので、撮影画像の範囲に応じた大きさの撮影領域に区分するのが好ましい。撮影領域を細かく多数にすると画像処理に時間がかかり、撮影領域をあまり大きくすると撮影画像からはみだして撮影回数を計数できなくなるので、撮影画像の範囲に応じて適切な大きさの撮影領域に区分するのが好ましい。例えば、ほぼ一平面内にあり焦点が合う範囲を、面積に応じて1〜4分割する等である。撮影領域を撮影画像内(実際に撮影された範囲)の特徴点に囲まれた最大の多角形領域としても良いが、この場合は他の撮影画像と一部重複することが見出されたら、重複部分と非重複部分で撮影回数に差異が生じるので、重複部分と非重複部分に分割していくことが好ましい。また、3つの特徴点に囲まれた小領域としても良いが、撮影領域数が多くなり、コンピュータの処理量が多くなるので、撮影回数が等しい複数の小領域を統合していくことが好ましい。撮影画像の重複を見るためであれば、撮影画像全体の1/2〜1/10程度が好適、1/3〜1/5がより好適である。   The imaging area classification unit 81 classifies the area of the measuring object 2 into imaging areas in the captured image. The region of the measuring object 2 can be divided into a number of regions by a polygon having three or more feature points as vertices. In the present embodiment, since it is a goal to grasp the overlapping situation of the shooting areas, it is preferable to divide the shooting area into a size corresponding to the range of the shot image. If the number of shooting areas is increased, the image processing takes time, and if the shooting area is made too large, the number of shots cannot be counted out of the shot image. Therefore, the shooting area is appropriately sized according to the range of the shot image. Is preferred. For example, a range that is substantially in one plane and in focus is divided into 1 to 4 according to the area. The shooting area may be the maximum polygonal area surrounded by the feature points in the shot image (the range actually shot), but in this case, if it is found that some other shot images overlap, Since there is a difference in the number of times of photographing between the overlapping portion and the non-overlapping portion, it is preferable to divide into an overlapping portion and a non-overlapping portion. Although a small area surrounded by three feature points may be used, it is preferable to integrate a plurality of small areas having the same number of times of shooting because the number of shooting areas increases and the processing amount of the computer increases. In order to see the overlap of the captured images, about 1/2 to 1/10 of the entire captured image is preferable, and 1/3 to 1/5 is more preferable.

対象物境界抽出部84は撮影画像における測定対象物2と背景の境界を抽出する。撮影画像における測定対象物2と背景の境界については、境界及びその周辺からも特徴点が抽出される。これらの特徴点が測定対象物2と背景のどちらに属するかは、三次元計測された特徴点の座標の位置から判定可能である。すなわち、測定対象物2と背景との境界では三次元座標が断続的に変化する。このようにして測定対象物2と背景の境界を抽出することができる。なお、境界上の特徴点は通常は測定対象物2に属するので、これらの特徴点と測定対象物2側の特徴点を結線して撮影領域を形成できる。この場合、例えば自動車の屋根とボンネットとの距離差については、距離差が閾値内であり自動車と背景との境界ではないと判定しても良く、屋根とボンネットで別の撮影領域を形成することとし、焦点に近い一方を選択し、他方を再度撮影しても良い。また、測定対象物2と背景の色彩の差異からその境界を抽出することも可能である。例えば、対象物境界抽出部84に測定対象物2の色彩を認識させておき、これらと異なる色彩の部分を背景と判定するようにする。なお、背景を白・黒等の特定の色彩にしておくと、測定対象物2と背景の色彩の差異を抽出するのに好適である。この場合、背景は無模様単色とするのが好ましい。   The object boundary extraction unit 84 extracts the boundary between the measurement object 2 and the background in the captured image. For the boundary between the measurement object 2 and the background in the captured image, feature points are also extracted from the boundary and its surroundings. Whether these feature points belong to the measurement object 2 or the background can be determined from the coordinate positions of the feature points measured three-dimensionally. That is, the three-dimensional coordinate changes intermittently at the boundary between the measurement object 2 and the background. In this way, the boundary between the measurement object 2 and the background can be extracted. Note that the feature points on the boundary usually belong to the measurement object 2, so that these feature points and the feature points on the measurement object 2 side can be connected to form an imaging region. In this case, for example, regarding the distance difference between the roof of the car and the hood, it may be determined that the distance difference is within the threshold and not the boundary between the car and the background, and another imaging region is formed by the roof and the hood. It is also possible to select one close to the focus and photograph the other again. It is also possible to extract the boundary from the difference in color between the measurement object 2 and the background. For example, the object boundary extraction unit 84 is made to recognize the color of the measurement object 2, and a portion having a color different from these is determined as the background. If the background is set to a specific color such as white or black, it is preferable to extract the difference between the color of the measurement object 2 and the background. In this case, the background is preferably a single pattern.

特徴点撮影回数計数部82は、各特徴点について、異なる撮影画像に含まれる撮影回数を計数する。すなわち、撮影画像記憶部51に記憶された各撮影画像から当該特徴点を抽出し、抽出できた回数を当該特徴点の撮影回数とする。計数された撮影回数は、当該特徴点の特徴点番号と対応付けて特徴点撮影回数記憶部52に記憶する。撮影回数1回でも特徴点が抽出され、特徴点番号が付され、特徴点撮影回数記憶部52に記憶される。特徴点撮影回数記憶部52は、全ての特徴点について撮影回数を記憶する必要はなく、少なくとも、撮影領域を形成するに充分な数の特徴点を選択して記憶すれば良い。   The feature point photographing number counting unit 82 counts the number of photographing included in different photographed images for each feature point. That is, the feature point is extracted from each captured image stored in the captured image storage unit 51, and the number of times the feature point can be extracted is defined as the number of times the feature point is captured. The counted number of shootings is stored in the feature point shooting number storage unit 52 in association with the feature point number of the feature point. The feature points are extracted even if the number of times of shooting is one, and a feature point number is assigned and stored in the feature point shooting number storage unit 52. The feature point photographing number storage unit 52 does not need to store the number of photographing times for all feature points, and may select and store at least a sufficient number of feature points to form a photographing region.

領域撮影回数計数部83は、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する。すなわち、記憶部5に記憶された各撮影画像から当該撮影領域を囲む特徴点を抽出し、当該撮影領域を囲む全ての特徴点が抽出できた回数を当該撮影領域の撮影回数とする。これらの特徴点の1つでも欠けていれば、撮影領域全体が撮影されたことにならないので、計数されない。計数された撮影回数は、当該撮影領域を囲む特徴点の特徴点番号と対応付けて領域撮影回数記憶部53に記憶する。撮影回数が1回でも撮影領域が抽出され、撮影領域番号が付され、領域撮影回数記憶部53に記憶される。また、撮影画像における全ての撮影領域でカバーされる範囲が実際に撮影された範囲より狭くなり、これらの撮影領域外の部分が撮影されなかったとみなしても、確実に撮影された領域で撮影回数を計数していけば、重複を確実にする意味で安全サイドなので、必要な重複撮影を実行する上で問題はない。   The area photographing number counting unit 83 counts the number of photographing included in different photographed images for each photographing area. That is, feature points surrounding the shooting area are extracted from each captured image stored in the storage unit 5, and the number of times that all feature points surrounding the shooting area can be extracted is set as the number of shooting times of the shooting area. If even one of these feature points is missing, the entire imaging area has not been imaged and is not counted. The counted number of photographing is stored in the region photographing number storage unit 53 in association with the feature point number of the feature point surrounding the photographing region. Even if the number of times of shooting is one, a shooting region is extracted, and a shooting region number is assigned and stored in the region shooting number storage unit 53. In addition, even if it is considered that the area covered by all the shooting areas in the shot image is narrower than the actual shooting range and the part outside these shooting areas has not been shot, If this is counted, there is no problem in performing the necessary overlap photography because it is a safe side in the sense of ensuring duplication.

撮影範囲画像形成部85は、第1に、三次元位置測定部7で位置座標が測定された特徴点を撮影範囲画像の座標空間に書き込む。   First, the shooting range image forming unit 85 writes the feature points whose position coordinates are measured by the three-dimensional position measurement unit 7 in the coordinate space of the shooting range image.

図6に撮影対象物2である土器にマーク(カラーコードターゲット及びレトロターゲット)が貼付された撮影画像の例を示す。カラーコードターゲット(図23参照)及びレトロターゲットについては実施例4で後述するが、ここでは、特徴点として使用することとする。   FIG. 6 shows an example of a photographed image in which marks (color code target and retro target) are attached to the earthenware that is the photographing object 2. A color code target (see FIG. 23) and a retro target will be described later in Example 4, but are used here as feature points.

図7に撮影範囲画像の座標空間に書き込まれた特徴点の位置を示す。図7の特徴点の位置は図6のマークの位置を撮影範囲画像の座標空間に書き込んで表示したものである。撮影範囲画像の透視図の座標空間に特徴点の位置が正方形□で表示され、それぞれに対応する特徴点番号(1〜24)が表示されている。   FIG. 7 shows the positions of the feature points written in the coordinate space of the shooting range image. The position of the feature point in FIG. 7 is displayed by writing the position of the mark in FIG. 6 in the coordinate space of the shooting range image. The position of the feature point is displayed as a square □ in the coordinate space of the perspective view of the imaging range image, and the corresponding feature point number (1 to 24) is displayed.

撮影範囲画像形成部85は、第2に、撮影範囲画像の座標空間に書き込まれた特徴点のうち、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画し、撮影範囲画像をワイヤフレーム画像として形成する。すなわち、撮影範囲画像に書き込まれた特徴点には特徴点番号が対応付けられている。従って、撮影領域を囲む3以上の特徴点について、これらと特徴点番号が一致する撮影範囲画像の特徴点の位置座標を結線することにより多角形が形成され、それが撮影範囲画像における当該撮影領域に該当することになる。このようにして、撮影画像において区分された全ての撮影領域(車底等の見えない部分を除く)について、その撮影領域を囲む3以上の特徴点について、撮影範囲画像における同じ特徴点符号が付された特徴点の位置座標を結線して区画することにより、撮影範囲画像をワイヤフレーム画像として形成することができる。   Secondly, the shooting range image forming unit 85 connects three or more feature points surrounding the shooting area among the feature points written in the coordinate space of the shooting range image, and divides the shooting range image for each shooting area. Is formed as a wire frame image. That is, the feature point number is associated with the feature point written in the shooting range image. Therefore, a polygon is formed by connecting the position coordinates of the feature points of the photographing range image having the same feature point number as the three or more feature points surrounding the photographing region, and the polygon is formed in the photographing region image. It will fall under. In this way, for all the shooting areas (except for the invisible part such as the vehicle bottom) divided in the shot image, the same feature point codes in the shooting range image are attached to three or more feature points surrounding the shooting area. By capturing and segmenting the position coordinates of the feature points thus formed, the shooting range image can be formed as a wire frame image.

図8に撮影範囲画像における撮影領域の区画例を示す。透視図の座標空間に自動車の領域が複数の撮影領域に区分されている例である。これらの領域の多くは四角形であり、少なくとも3つの特徴点で囲まれた領域が1つの撮影領域として区分されている。   FIG. 8 shows an example of a section of the shooting area in the shooting range image. This is an example in which an automobile area is divided into a plurality of imaging areas in a coordinate space of a perspective view. Most of these areas are quadrangular, and an area surrounded by at least three feature points is divided as one imaging area.

図9に撮影範囲画像における撮影領域を撮影回数で区別した例を示す。撮影範囲画像をワイヤフレーム画像として形成している。透視図の座標空間に自動車の領域が複数の撮影領域に区分され、色分け表示されている例である。色分け(図では模様別)表示された領域が重複撮影領域、白色で表示された領域が単一撮影領域、黒色で表示された領域が未撮影領域である。このように、撮影領域を色分けすることにより、撮影不足領域をビジュアルに把握でき、撮影の効率化が促進される。本実施の形態によれば、重複して撮影されなければ、特徴点の三次元座標は定まらないので撮影範囲画像には重複撮影領域以外は表示されない。ただし、予め撮影領域とこれを囲む3以上の特徴点の位置を予測しておき、撮影範囲画像にこの予測値を入力しておけば、単一撮影領域及び未撮影領域を表示することが可能である。特徴点の三次元座標が測定された場合には予測値を測定値に置換する。この撮影範囲画像はかような場合の例である。   FIG. 9 shows an example in which the shooting area in the shooting range image is distinguished by the number of times of shooting. The imaging range image is formed as a wire frame image. This is an example in which an automobile area is divided into a plurality of shooting areas and displayed in different colors in the coordinate space of the perspective view. The area displayed by color coding (by pattern in the figure) is an overlapping shooting area, the area displayed in white is a single shooting area, and the area displayed in black is an unshooting area. In this way, by color-coding the shooting area, it is possible to visually grasp the shooting shortage area, and the efficiency of shooting is promoted. According to the present embodiment, the three-dimensional coordinates of the feature points are not determined unless they are photographed in duplicate, so that only the overlapping photographing areas are displayed in the photographing range image. However, it is possible to display a single shooting area and an unphotographed area by predicting the shooting area and the positions of three or more feature points surrounding it in advance and inputting the predicted value in the shooting range image. It is. When the three-dimensional coordinates of the feature points are measured, the predicted value is replaced with the measured value. This shooting range image is an example of such a case.

図10に撮影範囲画像に撮影領域が順次追加されていく例を示す。測定対象物2は自動車であり、撮影範囲画像は透視図でワイヤフレーム画像として示されている。撮影部3が新たな撮影画像を取得する都度、撮影範囲画像形成部85は新たな撮影範囲画像を形成し、表示部4は新たに形成された撮影範囲画像を表示する。このため、撮影が行なわれる度に、新たな撮影領域が形成され、撮影範囲画像に新たな撮影領域が追加されていく。撮影の進捗につれて、撮影範囲画像に撮影領域が順次追加されている。図10(a)では撮影領域Q1が形成され、図10(b)では撮影領域Q2が追加され、図10(c)では撮影領域Q3が追加され、図10(d)では撮影領域Q4が追加されている。   FIG. 10 shows an example in which shooting areas are sequentially added to the shooting range image. The measurement object 2 is an automobile, and the imaging range image is shown as a wire frame image in a perspective view. Each time the imaging unit 3 acquires a new captured image, the imaging range image forming unit 85 forms a new imaging range image, and the display unit 4 displays the newly formed imaging range image. For this reason, every time shooting is performed, a new shooting area is formed, and new shooting areas are added to the shooting range image. As the shooting progresses, shooting areas are sequentially added to the shooting range image. In FIG. 10A, a shooting area Q1 is formed, in FIG. 10B, a shooting area Q2 is added, in FIG. 10C, a shooting area Q3 is added, and in FIG. 10D, a shooting area Q4 is added. Has been.

図11に撮影範囲画像の完成例を示す。図10(d)の後に、更に幾つかの撮影領域(Q5等)が追加されて、撮影範囲画像が完成したものである。測定対象物2は自動車であり、撮影範囲画像は透視図でワイヤフレーム画像として示されている。このように、撮影範囲画像に測定対象物2の全ての撮影領域が示されることによって、撮影が完了したことが解る。なお、一方向から見た撮影範囲画像だけでは反対側が見えないので撮影の完了を判断できないが、反対側からの画像も表示可能であり、これにより撮影の完了を判断できる。   FIG. 11 shows a completed example of the shooting range image. After FIG. 10D, several shooting areas (Q5, etc.) are added to complete the shooting range image. The measurement object 2 is an automobile, and the imaging range image is shown as a wire frame image in a perspective view. Thus, it can be understood that the photographing is completed when all the photographing regions of the measurement object 2 are shown in the photographing range image. Note that although the opposite side cannot be seen only from the shooting range image viewed from one direction, it is not possible to determine the completion of shooting, but it is also possible to display an image from the opposite side, thereby determining the completion of shooting.

図12に撮影範囲画像に撮影画像を貼付表示した例を示す。撮影範囲画像は三次元モデル画像(テクスチャ画像)として示されている。透視図で表わされた撮影範囲画像の座標空間にワゴン車が表現され、区画された各撮影領域に撮影画像が当てはめ(貼り付け)られている。例えば、撮影領域画像記憶部54に、撮影画像から撮影領域の画像を抽出して記憶しておき、撮影範囲画像形成部85にて、撮影範囲画像の座標空間に三次元座標が測定された特徴点を書き込み、撮影領域画像記憶部54から各撮影領域の画像を抽出し、撮影範囲画像に書き込まれた特徴点の位置に、撮影領域を囲む3以上の特徴点の位置が合致するように各撮影領域の画像を伸縮させて貼り付けることによって、テクスチュア画像としての撮影範囲画像を形成する。表現されていない部分は未重複撮影領域である。これにより、撮影範囲画像を実物ライクに表現でき、撮影の進捗状況をビジュアルに把握できる。   FIG. 12 shows an example in which a photographic image is pasted and displayed on the photographic range image. The imaging range image is shown as a three-dimensional model image (texture image). A wagon car is represented in the coordinate space of the photographing range image represented by the perspective view, and the photographed image is applied (pasted) to each partitioned photographing region. For example, the image of the shooting area is extracted from the shot image and stored in the shooting area image storage unit 54, and the three-dimensional coordinates are measured in the coordinate space of the shooting range image by the shooting range image forming unit 85. A point is written, an image of each shooting area is extracted from the shooting area image storage unit 54, and each of the three or more feature points surrounding the shooting area matches the position of the feature point written in the shooting range image. A shooting range image as a texture image is formed by expanding and contracting the image of the shooting region. The portion not represented is a non-overlapping photographing region. Thereby, the shooting range image can be expressed like a real thing, and the shooting progress can be visually grasped.

図13に撮影範囲画像がオルソ画像である例を示す。図13(a)は撮影画像、図13(b)はこれらの撮影画像に基づいて撮影範囲画像としてのオルソ画像を形成した例を示す。オルソ画像は、三次元位置測定部7で求められた三次元座標から撮影範囲画像空間に特徴点を配置し、平面図に並行投影して形成される。重複撮影領域が実物ライクに表現されている。撮影が行なわれる毎に撮影領域が追加されていく。   FIG. 13 shows an example in which the shooting range image is an ortho image. FIG. 13A shows a photographed image, and FIG. 13B shows an example in which an ortho image as a photographing range image is formed based on these photographed images. The ortho image is formed by arranging feature points in the imaging range image space from the three-dimensional coordinates obtained by the three-dimensional position measuring unit 7 and projecting them in parallel on a plan view. The overlapping shooting area is expressed like a real thing. Each time shooting is performed, a shooting area is added.

図14に撮影範囲画像がワイヤフレーム画像である例を示す。撮影範囲画像としてのオルソ画像を撮影領域に区画し、各撮影領域を色分け(図では模様別)表示したものである。撮影が行なわれる毎に撮影領域が追加されていく。   FIG. 14 shows an example in which the shooting range image is a wire frame image. An ortho image as a photographing range image is divided into photographing regions, and each photographing region is displayed in a color-coded manner (by pattern in the drawing). Each time shooting is performed, a shooting area is added.

図15に撮影範囲画像が全周囲画像である例を示す。全周囲画像は、三次元位置測定部7で求められた三次元座標から撮影範囲画像空間に特徴点を配置し、周囲各方向から、中心投影(図14での中心点は(1.50,0.75))のまま平面上に各モデル画像を投影し連続的に配列していくことにより形成される。図15では、周囲7方向、高さ2方向からの画像を示す。全体(撮影が完了した状態)で、周囲12方向、高さ2方向からの画像となる。   FIG. 15 shows an example in which the shooting range image is an all-around image. In the all-around image, feature points are arranged in the imaging range image space from the three-dimensional coordinates obtained by the three-dimensional position measurement unit 7, and the center projection (center point in FIG. 14 is (1.50, It is formed by projecting each model image on a plane and arranging them continuously. FIG. 15 shows images from seven directions around and two directions in height. The entire image (in a state where shooting has been completed) is an image from 12 directions and 2 heights.

図1に戻り、撮影不足領域判定部86は、撮影範囲画像に撮影不足領域が有るか否かを判定する。本実施例では、領域撮影回数計数部83で計数された撮影回数に基づいて撮影範囲画像に撮影不足領域が有るか否かを判定する。撮影回数1回でも撮影領域は形成され、撮影領域番号が付与され、領域撮影回数記憶部53に記憶される。撮影回数1回の領域があれば撮影不足領域が有ることとなる。また、重複させながら撮影していくので、未撮影領域があれば、必ず撮影回数1回の領域が存在する。したがって、未撮影領域が撮影範囲画像に表現されなくても、領域撮影回数計数部83で計数された撮影回数に基づいて撮影範囲画像に撮影不足領域が有るか否かを判定できる。撮影不足領域が有るか否かの判定は、撮影の都度行なわれる。すなわち、撮影の都度、撮影範囲画像が新たに形成され、撮影不足領域が有るか否かの判定がされる。このように、本実施例では撮影不足領域判定部86が撮影不足領域の有無を判定するが、撮影者が撮影範囲画像を見て判定することも可能である。
撮影不足領域報知部87は、撮影不足領域判定部86の判定結果を表示部4に表示させる。表示部4に表示された判定結果を見て、撮影者は撮影不足か否かを撮影の都度知ることができる。
Returning to FIG. 1, the undershooting area determination unit 86 determines whether or not there is an undershooting area in the shooting range image. In the present embodiment, it is determined whether or not there is an undershooting region in the shooting range image based on the number of shootings counted by the region shooting number counting unit 83. Even if the number of times of photographing is one, a photographing region is formed, a photographing region number is given, and the number of photographing times is stored in the region photographing number storage unit 53. If there is an area where the number of times of shooting is one, there will be an insufficient shooting area. In addition, since images are taken while being overlapped, if there is an unphotographed area, there is always an area where the number of times of photography is one. Therefore, even if the unphotographed area is not represented in the photographing range image, it can be determined whether or not the photographing range image includes an insufficient photographing area based on the number of photographing counted by the region photographing number counting unit 83. The determination as to whether or not there is an insufficient photographing area is made every time photographing is performed. That is, every time shooting is performed, a shooting range image is newly formed, and it is determined whether or not there is a shooting shortage area. As described above, in this embodiment, the undershooting area determination unit 86 determines the presence or absence of an undershooting area, but it is also possible for the photographer to determine by looking at the shooting range image.
The undershooting area notifying unit 87 causes the display unit 4 to display the determination result of the undershooting area determining unit 86. By looking at the determination result displayed on the display unit 4, the photographer can know whether or not shooting is insufficient each time shooting is performed.

制御部10は、内臓メモリに制御プログラムを有し、三次元計測用画像撮影装置1及びこれを構成する各部を制御し、信号及びデータの流れを制御し、三次元計測用画像撮影装置としての機能を実行させる。   The control unit 10 has a control program in a built-in memory, and controls the three-dimensional measurement image photographing device 1 and each part constituting the three-dimensional measurement image photographing device 1, controls the flow of signals and data, and serves as a three-dimensional measurement image photographing device. Execute the function.

[処理フロー]
図16に画像撮影の処理フロー例を示す。撮影部が新たな撮影画像を取得する都度、新たな撮影範囲画像を形成し、表示する例を説明する。
まず、撮影部3により、測定対象物2を撮影する(撮影工程:S100)。撮影された撮影画像は撮影画像記憶部51に記憶される(撮影画像記憶工程:S105)。次に、特徴点を抽出する(特徴点抽出工程:S120)。すなわち、撮影された撮影画像から、特徴点抽出部61にて特徴点を抽出する。次いで複数の撮影画像から、重複し合う2つの撮影画像の特徴点について対応点探索部71にて対応付けを行う(対応点探索工程:S130)。2つの撮影画像は、例えば撮影の順序に添って、最後に撮影した既撮影画像と新たに撮影した撮影画像をステレオ画像とする。また、新たな撮影画像との重複領域が最も大きい既撮影画像と新たな撮影画像をステレオ画像として選択しても良く、新たな撮影画像との共有特徴点数が最も多い既撮影画像と新たな撮影画像をステレオ画像として選択しても良い。その際、既撮影画像を基準画像、新たな撮影画像を探索画像とする。次に、対応点探索部71で対応付けされた各特徴点の三次元座標を算出する(三次元座標算出工程:S140)。標定部72にて標定を行い、カメラの位置と傾きを求め、三次元位置演算部73にて各特徴点の三次元座標を算出する。なお、測定対象物境界抽出部84は、特徴点の三次元座標から測定対象物2と背景の境界を抽出する。次に、撮影範囲画像形成部85にて撮影範囲画像を形成する(撮影範囲画像形成工程:S150)。
[Processing flow]
FIG. 16 shows an example of a processing flow of image capturing. An example in which a new shooting range image is formed and displayed each time the shooting unit acquires a new shot image will be described.
First, the measurement object 2 is imaged by the imaging unit 3 (imaging process: S100). The captured image is stored in the captured image storage unit 51 (captured image storage step: S105). Next, feature points are extracted (feature point extraction step: S120). That is, feature points are extracted by the feature point extraction unit 61 from the captured image. Next, the corresponding point search unit 71 associates the feature points of two overlapping captured images from a plurality of captured images (corresponding point search step: S130). For the two captured images, for example, the last captured image and the newly captured image are taken as stereo images in the order of shooting. In addition, an already captured image having the largest overlapping area with a new captured image and a new captured image may be selected as a stereo image, and an already captured image having the largest number of feature points shared with the new captured image and a new captured image may be selected. The image may be selected as a stereo image. At this time, the already-captured image is set as a reference image, and a new captured image is set as a search image. Next, the three-dimensional coordinates of each feature point associated by the corresponding point search unit 71 are calculated (three-dimensional coordinate calculation step: S140). The orientation unit 72 performs orientation, obtains the position and tilt of the camera, and the three-dimensional position calculation unit 73 calculates the three-dimensional coordinates of each feature point. The measurement object boundary extraction unit 84 extracts the boundary between the measurement object 2 and the background from the three-dimensional coordinates of the feature points. Next, a shooting range image is formed by the shooting range image forming unit 85 (shooting range image forming step: S150).

図17に撮影範囲画像形成工程(S150)の処理フロー例を示す。まず、撮影領域区分部81にて、撮影画像における測定対象物2の領域を3以上のマークで囲まれた領域(当該特徴点を含む)からなる撮影領域に区分して、撮影領域番号を付与する(撮影領域区分工程:S220)。撮影領域に区分された撮影画像は撮影領域画像記憶部54に記憶される(撮影領域画像記憶工程:S225)。他方、特徴点撮影回数計数部82にて、各特徴点について異なる撮影画像に含まれる撮影回数を計数する。そして、領域撮影回数計数部83にて、各撮影領域について異なる撮影画像に含まれる撮影回数を計数する(領域撮影回数計数工程:S230)。例えば、各撮影領域を囲む全ての特徴点が撮影されている場合に当該撮影領域が撮影されているとして撮影回数を計数する。これらの特徴点の1つでも撮影されていなければ撮影領域全体が撮影されたことにならないので撮影回数として計数されない。そして、領域撮影回数記憶部53にて、計数された各撮影領域の撮影回数を、当該撮影領域を囲む特徴点の特徴点番号と対応付けて記憶する(領域撮影回数記憶工程:S235)。   FIG. 17 shows an example of a processing flow of the photographing range image forming step (S150). First, the imaging area classification unit 81 classifies the area of the measurement object 2 in the captured image into imaging areas consisting of areas (including the feature points) surrounded by three or more marks, and assigns imaging area numbers. (Shooting area dividing step: S220). The captured images divided into the imaging areas are stored in the imaging area image storage unit 54 (imaging area image storage step: S225). On the other hand, the feature point photographing number counting unit 82 counts the number of photographing included in different photographed images for each feature point. Then, the area imaging frequency counting unit 83 counts the imaging frequency included in different captured images for each imaging area (area imaging frequency counting step: S230). For example, when all the feature points surrounding each shooting area are shot, the number of shootings is counted assuming that the shooting area is shot. If even one of these feature points is not photographed, the entire photographing area is not photographed, and therefore is not counted as the number of photographing. Then, the area shooting count storage unit 53 stores the counted shooting count of each shooting area in association with the feature point numbers of the feature points surrounding the shooting area (area shooting count storage step: S235).

次に、撮影範囲画像形成部85にて、測定対象物2の撮影範囲を三次元空間に表現する撮影範囲画像の座標空間に三次元位置測定部7で求められた各特徴点を書き込み、撮影範囲画像の座標空間に書き込まれた特徴点のうち、撮影領域を囲む3以上の特徴点を結線して撮影領域毎に区画し、撮影範囲画像をワイヤフレーム画像として形成する(撮影範囲画像形成工程:S240)。すなわち、撮影領域区分部81で区分された撮影領域を囲む3以上の特徴点には特徴点番号が対応付けられており、これらと特徴点番号が一致する撮影範囲画像に書き込まれた特徴点を結線することにより多角形が形成され、それが撮影範囲画像における当該撮影領域に該当することになる。次に、撮影範囲画像における撮影領域を色分けする又は撮影領域に撮影画像を貼り付ける(S250)。撮影領域を色分けする場合、これらの撮影領域は典型的には重複撮影領域であり、重複撮影領域が撮影領域毎に色分けされる。これにより、重複撮影領域と未重複撮影領域を大別することができる。なお、予め撮影領域とこれを囲む3以上の特徴点の位置を予測しておき、撮影範囲画像にこの予測値を入力しておけば、単一撮影領域及び未撮影領域を表現することも可能である。また、撮影領域に撮影画像を貼り付ける場合、撮影領域画像記憶部54から各撮影領域の画像を抽出し、撮影範囲画像に区画された撮影領域に、撮影領域を囲む3以上の特徴点の位置が合致するように各撮影領域の画像を伸縮させて当てはめる(貼り付ける)。これにより、撮影範囲画像が三次元モデル画像(テクスチュア画像)として形成され、撮影範囲画像を実物ライクに表現でき、撮影の進捗状況をビジュアルに把握できる。また、撮影範囲画像から、並行投影によりオルソ画像を、中心投影により全周囲画像を形成しても良い。   Next, in the imaging range image forming unit 85, each feature point obtained by the three-dimensional position measuring unit 7 is written in the coordinate space of the imaging range image representing the imaging range of the measurement object 2 in the three-dimensional space, and imaging is performed. Of the feature points written in the coordinate space of the range image, three or more feature points surrounding the shooting region are connected and partitioned for each shooting region, and the shooting range image is formed as a wire frame image (shooting range image forming step). : S240). That is, the feature point numbers are associated with three or more feature points surrounding the shooting regions classified by the shooting region sorting unit 81, and the feature points written in the shooting range image having the same feature point numbers as these feature points. By connecting the lines, a polygon is formed, which corresponds to the shooting area in the shooting range image. Next, the shooting area in the shooting range image is color-coded or the shot image is pasted on the shooting area (S250). When the shooting areas are color-coded, these shooting areas are typically overlapping shooting areas, and the overlapping shooting areas are color-coded for each shooting area. Thereby, it is possible to broadly divide the overlapping shooting area and the non-overlapping shooting area. It is also possible to represent a single shooting area and an unphotographed area by previously predicting the position of the shooting area and three or more feature points surrounding it and inputting the predicted value in the shooting range image. It is. In addition, when pasting a shot image in the shooting area, the image of each shooting area is extracted from the shooting area image storage unit 54, and the positions of three or more feature points surrounding the shooting area in the shooting area divided into shooting range images. The image of each shooting area is stretched and applied (pasted) so as to match. Thereby, the shooting range image is formed as a three-dimensional model image (texture image), the shooting range image can be expressed like a real thing, and the progress of shooting can be visually grasped. Further, from the photographing range image, an ortho image may be formed by parallel projection and an all-around image may be formed by center projection.

ここで図16に戻る。表示部4にて、撮影範囲画像形成部85にて形成された撮影範囲画像を表示する(表示工程:S160)。撮影領域を色分け表示すること、又は、撮影領域に撮影画像を貼り付けた撮影範囲画像を表示することにより、撮影の進捗状況をビジュアルに把握できる。次に、撮影不足領域判定部86にて、撮影範囲画像に撮影不足領域が有るか否かを判定する(撮影不足領域判定工程:S170)。本実施例では、領域撮影回数計数部で計数された撮影回数に基づいて撮影範囲画像に撮影不足領域が有るか否かを判定する。そして、撮影不足領域報知部87にて、撮影不足領域判定部86の判定結果を表示部4に表示させる。撮影不足領域が有るか否かの判定は、撮影の都度行なわれる。すなわち、撮影の都度、撮影範囲画像が新たに形成され、撮影不足領域が有るか否かの判定がされる。撮影不足領域が有ると判定された場合には、撮影工程(S100)に戻り、撮影工程(S100)〜撮影不足領域判定工程(S170)の処理が繰り返される。撮影不足領域が無いと判定された場合には、画像撮影の処理フローが終了する。   Returning now to FIG. On the display unit 4, the shooting range image formed by the shooting range image forming unit 85 is displayed (display step: S160). By displaying the shooting area by color or by displaying a shooting range image with a shot image pasted in the shooting area, it is possible to visually grasp the shooting progress. Next, the undershooting area determination unit 86 determines whether or not there is an undershooting area in the shooting range image (undershooting area determination step: S170). In the present embodiment, it is determined whether or not there is an undershooting region in the shooting range image based on the number of shootings counted by the region shooting number counting unit. Then, the determination result of the insufficient photographing region determination unit 86 is displayed on the display unit 4 by the photographing insufficient region notification unit 87. The determination as to whether or not there is an insufficient photographing area is made every time photographing is performed. That is, every time shooting is performed, a shooting range image is newly formed, and it is determined whether or not there is a shooting shortage area. If it is determined that there is an insufficient photographing region, the process returns to the photographing step (S100), and the processing from the photographing step (S100) to the photographing insufficient region determination step (S170) is repeated. If it is determined that there is no undershooting area, the image shooting process flow ends.

本実施例によれば、単カメラを用いて移動しながら撮影を行う場合に、撮影範囲画像を用いて撮影範囲を視覚的に明示するので、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。   According to the present embodiment, when shooting while moving using a single camera, the shooting range is visually clearly shown using the shooting range image, so that the shooting progress can be grasped, and shooting is not excessive or insufficient. An image photographing apparatus for three-dimensional measurement that can be efficiently performed can be provided.

実施例1では、撮影の都度、新たな撮影範囲画像を形成し、表示する例を説明したが、実施例2では、所定回数撮影後にまとめて特徴点抽出、三次元座標演算、撮影範囲画像の形成を行い、表示し、撮影不足領域があればさらに撮影を行なう例を説明する。   In the first embodiment, an example is described in which a new shooting range image is formed and displayed each time shooting is performed. However, in the second embodiment, feature point extraction, three-dimensional coordinate calculation, and shooting range image collection are performed after shooting a predetermined number of times. An example will be described in which formation is performed and displayed, and if there is an undershooting area, further shooting is performed.

図18に実施例2に係る三次元計測用画像撮影装置1Aの構成例をブロック図で示す。実施例1の三次元計測用画像撮影装置の構成(図1参照)に撮影回数判定部31が追加される。撮影回数判定部31はPC15内に設けられ、図示しない撮影回数カウンタを有し、撮影回数カウンタで取得された撮影画像数を計数し、予定撮影回数に達したか否かを判定する。撮影回数カウンタには入力部4Aから予定撮影回数を設定できる。また、撮影回数カウンタが予定撮影回数に達した場合には、リセット信号を出力し、予定撮影回数をリセットすると共に、特徴抽出部6にリセット信号を送信する。また、表示部4に予定撮影回数に達した旨の表示がされ、撮影者は新たな撮影範囲画像が表示される迄撮影を行なわずに待機する。   FIG. 18 is a block diagram illustrating a configuration example of the three-dimensional measurement image capturing apparatus 1A according to the second embodiment. An imaging number determination unit 31 is added to the configuration (see FIG. 1) of the three-dimensional measurement image capturing apparatus according to the first embodiment. The number-of-shoots determination unit 31 is provided in the PC 15 and includes a number-of-shoots counter (not shown). The number of shots acquired by the number-of-shoots counter is counted to determine whether the planned number of shots has been reached. The scheduled number of times of shooting can be set to the number of times of shooting counter from the input unit 4A. Further, when the number of times of photographing reaches the number of times of scheduled photographing, a reset signal is output, the number of times of photographing is reset, and a reset signal is transmitted to the feature extraction unit 6. Further, the display unit 4 displays that the scheduled number of times of shooting has been reached, and the photographer waits without shooting until a new shooting range image is displayed.

図19に実施例2における画像撮影の処理フロー例を示す。実施例1における図16の撮影画像記憶工程(S105)と特徴点抽出工程(S120)の間に撮影回数判定工程(S110)が挿入される。撮影回数の判定は撮影回数カウンタからのリセット信号の出力の有無により行なわれる。特徴抽出部6ではリセット信号を受信すると、予定撮影回数に相当する枚数の撮影画像から特徴点の抽出を開始する。そして、特徴点抽出工程(S120)〜表示工程(S160)が行なわれる。対応点探索工程(S130)ではステレオ画像が選択される。例えば撮影の順序に添って、i番目とi−1番目(i≧2)の撮影画像をステレオ画像とする等である。また、i番目の撮影画像との重複領域が最も大きい1〜i−1番目のいずれかの撮影画像とi番目の撮影画像をステレオ画像としても良く、i番目の撮影画像との共有特徴点数が最も多い1〜i−1番目のいずれかの撮影画像とi番目の撮影画像をステレオ画像としても良い。   FIG. 19 shows an example of a processing flow of image shooting in the second embodiment. A shooting number determination step (S110) is inserted between the captured image storage step (S105) and the feature point extraction step (S120) in FIG. The number of shootings is determined based on whether or not a reset signal is output from the shooting number counter. When the feature extraction unit 6 receives the reset signal, the feature extraction unit 6 starts extracting feature points from a number of captured images corresponding to the scheduled number of times of capturing. Then, a feature point extraction step (S120) to a display step (S160) are performed. In the corresponding point search step (S130), a stereo image is selected. For example, the i-th and (i-1) -th (i.gtoreq.2) photographed images are made stereo images in the order of photographing. Also, any one of the 1st to (i-1) -th captured images having the largest overlapping area with the i-th captured image and the i-th captured image may be a stereo image, and the number of shared feature points with the i-th captured image is Any one of the 1st to i-1st photographed images and the i-th photographed image that are the most common may be stereo images.

実施例1の場合には1枚毎に進捗状況を把握できるので、確実性が高いが、実施例2では処理をまとめてできるので画像撮影処理全体の処理時間を短縮できる。その他の構成及び処理フローは実施例1と同様であり、実施例1と同様に、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。   In the case of the first embodiment, since the progress status can be grasped for each sheet, the certainty is high. However, in the second embodiment, since the processing can be performed collectively, the processing time of the entire image photographing process can be shortened. Other configurations and processing flow are the same as in the first embodiment, and as in the first embodiment, it is possible to provide a three-dimensional measurement image photographing apparatus that can grasp the progress of photographing and can efficiently perform photographing without excess or deficiency. .

実施例1及び実施例2では、特徴点の三次元座標を求め、撮影画像を撮影領域に区分して、撮影範囲画像を作成する例を説明したが、実施例3では、撮影領域に区分せずに、撮影画像から座標変換して撮影範囲画像を形成する例を説明する。また、撮影不足領域の有無の判定は、測定対象物を模擬した模擬対象物の撮影範囲画像を記憶し、測定対象物の撮影範囲画像と模擬対象物の撮影範囲画像を比較することにより行なう例を説明する。   In the first embodiment and the second embodiment, the example in which the three-dimensional coordinates of the feature points are obtained and the shot image is divided into shooting areas and the shooting range image is generated has been described. In the third embodiment, the shooting area image is divided. First, an example of forming a shooting range image by converting coordinates from the shot image will be described. Further, the determination of the presence / absence of an imaging insufficient region is performed by storing an imaging range image of a simulated object that simulates the measurement object, and comparing the imaging range image of the measurement object with the imaging range image of the simulation object Will be explained.

図20に実施例3に係る三次元計測用画像撮影装置1Bの構成例をブロック図で示す。実施例1の構成(図1参照)に比して、記憶部5では、特徴点位置関係記憶部55、見本画像記憶部56が追加され、特徴点撮影回数記憶部52、領域撮影回数記憶部53、撮影領域画像記憶部54が削除されている。また、画像処理部8では、画像座標変換部88が追加され、撮影領域区分部81、特徴点撮影回数計数部82、領域撮影回数計数部83が削除されている。特徴点位置関係記憶部55は、特徴抽出部6で抽出された特徴点について、特徴点番号を付し、三次元位置測定部7で求められた三次元座標と各撮影画像における画面上の位置とを対応付けて記憶する。見本画像記憶部56は、測定対象物2に類似する模擬対象物についての撮影範囲画像を記憶する。模擬対象物とは、測定対象物に似た対象物又は対象物の模型をいう。形状が似ているほど好ましい。ただし、同じ型式の対象物や同一の対象物で、ボケた部分や異物混入部分を修正したい、より高画質の撮影画像を得たい、条件を変えて撮影したい等の場合もあるので、模擬対象物は同じ型式の対象物や測定対象物自体を含むものとする。本実施例では、模擬対象物についての撮影範囲画像は、撮影不足領域判定部86において測定対象物に係る撮影範囲画像を模擬対象物に係る撮影範囲画像と比較することにより、撮影不足領域が有るか否かを判定するために用いられる。典型的には、模擬対象物についての特徴点の位置が三次元測定され、これらの特徴点を用いて撮影不足領域のない撮影範囲画像が形成されている。ただし、予め撮影領域とこれを囲む特徴点の位置を予測しておき、この予測値を用いて作成した撮影不足領域のない撮影範囲画像を記憶し、これを用いて比較しても良い。   FIG. 20 is a block diagram illustrating a configuration example of the three-dimensional measurement image capturing apparatus 1B according to the third embodiment. Compared to the configuration of the first embodiment (see FIG. 1), in the storage unit 5, a feature point position relationship storage unit 55 and a sample image storage unit 56 are added, a feature point shooting number storage unit 52, and a region shooting number storage unit. 53, the shooting area image storage unit 54 is deleted. Further, in the image processing unit 8, an image coordinate conversion unit 88 is added, and the imaging region sorting unit 81, the feature point imaging number counting unit 82, and the area imaging number counting unit 83 are deleted. The feature point position relationship storage unit 55 assigns feature point numbers to the feature points extracted by the feature extraction unit 6, the 3D coordinates obtained by the 3D position measurement unit 7, and the position on the screen in each captured image. Are stored in association with each other. The sample image storage unit 56 stores an imaging range image for a simulated object similar to the measurement object 2. The simulated object is an object similar to the measurement object or a model of the object. The more similar the shape, the better. However, there may be cases where you want to correct blurring or foreign matter contamination with the same type of object or the same object, to obtain a higher quality shot image, or to shoot under different conditions. The object includes the same type of object and the measurement object itself. In this embodiment, the imaging range image for the simulated object has an imaging insufficient area by comparing the imaging range image for the measurement object with the imaging range image for the simulated object in the imaging insufficient area determination unit 86. It is used to determine whether or not. Typically, the position of the feature point for the simulated object is three-dimensionally measured, and a shooting range image without an undershooting region is formed using these feature points. However, it is also possible to predict the shooting area and the positions of the feature points surrounding the shooting area in advance, store the shooting range image without the shooting shortage area created using this predicted value, and compare them using this.

また、画像座標変換部88はアフィン変換やヘルマート変換等の座標変換を行う。撮影範囲画像形成部5は、特徴点位置関係記憶部55に記憶された各特徴点の位置データ(三次元測定値、撮影画像の画面上の位置座標)に基づいて、撮影画像記憶部51に記憶された撮影画像を、当該撮影画像の各特徴点の位置が三次元計測された撮影範囲画像における各特徴点の位置に合致するように、撮影範囲画像に座標変換して当てはめる。これによりテクスチャ画像としての撮影範囲画像が形成される。座標変換には、画像座標変換部88を用いて、アフィン変換やヘルマート変換を使用して行なう。なお、図20には撮影回数判定部31が記載されているが、これは、実施例2のように撮影画像を所定枚数取得した後に撮影範囲画像を形成することも可能にするためである(省略しても良い)。   Further, the image coordinate conversion unit 88 performs coordinate conversion such as affine conversion and Helmart conversion. The shooting range image forming unit 5 stores the feature point position data (three-dimensional measurement values, position coordinates on the screen of the shot image) stored in the feature point position relationship storage unit 55 in the shot image storage unit 51. The stored photographed image is applied to the photographing range image after coordinate conversion so that the position of each feature point of the photographed image matches the position of each feature point in the photographing range image measured in three dimensions. Thereby, a photographing range image as a texture image is formed. The coordinate conversion is performed using the image coordinate conversion unit 88 using affine conversion or Helmat conversion. In FIG. 20, the number-of-shoots determination unit 31 is described. This is because a shooting range image can be formed after a predetermined number of shot images are acquired as in the second embodiment ( May be omitted).

図21に実施例3における撮影範囲画像形成の処理フロー例を示す。実施例1における処理フロー(図17参照)に比して、撮影範囲画像形成工程が異なる。この工程をS150Aで示す。まず、特徴点位置関係記憶部55にて、特徴抽出部6で抽出された特徴点について、特徴点番号を付し、三次元位置測定部7で求められた三次元座標と各撮影画像における画面上の位置とを対応付けて記憶する(特徴点位置関係記憶工程:S215)。測定対象物境界抽出部84は例えば各特徴点の三次元座標から測定対象物と背景との境界を抽出する。次に、撮影範囲画像形成部85において、座標変換により撮影範囲画像を形成する(撮影範囲画像形成工程:S250A)。すなわち、特徴点位置関係記憶部55に記憶された各特徴点の位置データ(三次元測定値、撮影画像の画面上の位置座標)に基づいて、撮影画像記憶部51に記憶された撮影画像を、当該撮影画像の各特徴点の位置が撮影範囲画像における各特徴点の位置に合致するように、撮影範囲画像に座標変換して当てはめることにより、撮影範囲画像をテクスチャ画像として形成する。また、撮影不足領域判定工程(S170)では、撮影不足領域判定部86において、測定対象物2に係る撮影範囲画像を模擬対象物に係る撮影範囲画像と比較することにより、撮影不足領域が有るか否かを判定する。すなわち、測定対象物2に類似する模擬対象物についての撮影範囲画像を予め見本画像記憶部56に記憶しておき、撮影不足領域判定部86は、測定対象物に係る撮影範囲画像を模擬対象物に係る撮影範囲画像と比較して、撮影不足領域が有るか否かを判定する。   FIG. 21 shows an example of a processing flow for forming a shooting range image in the third embodiment. Compared to the processing flow in the first embodiment (see FIG. 17), the photographing range image forming process is different. This process is indicated by S150A. First, feature point numbers are assigned to the feature points extracted by the feature extraction unit 6 in the feature point position relation storage unit 55, and the three-dimensional coordinates obtained by the three-dimensional position measurement unit 7 and the screen in each captured image are displayed. The upper position is stored in association with each other (feature point position relationship storage step: S215). For example, the measurement object boundary extraction unit 84 extracts the boundary between the measurement object and the background from the three-dimensional coordinates of each feature point. Next, the shooting range image forming unit 85 forms a shooting range image by coordinate conversion (shooting range image forming step: S250A). That is, the captured image stored in the captured image storage unit 51 is stored on the basis of the position data of each feature point stored in the feature point positional relationship storage unit 55 (three-dimensional measurement values, position coordinates on the screen of the captured image). The image capturing range image is formed as a texture image by applying coordinate conversion to the image capturing range image so that the position of each feature point of the image capturing image matches the position of each feature point in the image capturing range image. Further, in the undershooting area determination step (S170), the undershooting area determination unit 86 compares the shooting range image related to the measurement object 2 with the shooting range image related to the simulated object, so that there is an undershooting area. Determine whether or not. That is, a shooting range image of a simulation target similar to the measurement target 2 is stored in the sample image storage unit 56 in advance, and the shooting shortage region determination unit 86 stores the shooting range image related to the measurement target as the simulation target. It is determined whether or not there is an undershooting area as compared with the shooting range image according to.

実施例1に比して撮影領域に区分する処理、撮影画像を貼り付ける処理に代えて座標変換を行っているが、撮影領域を囲む3以上の特徴点と同じ特徴点を用いて座標変換するのであれば、ほぼ同様な撮影範囲画像を得ることができる。変換に用いる特徴点を選択すれば、撮影領域に区分しないのでテクスチャ画像を座標変換により直接得られるが、撮影領域毎に区画し、色分けした撮影範囲画像を表示することはできない。その他の構成及び処理フローは第1の実施の形態と同様であり、実施例1と同様に、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。   Compared to the first embodiment, the coordinate transformation is performed in place of the process of dividing the shooting area and the process of pasting the shot image. However, the coordinate conversion is performed using the same feature points as three or more feature points surrounding the shooting area. In this case, almost the same shooting range image can be obtained. If a feature point used for conversion is selected, a texture image can be obtained directly by coordinate conversion because it is not divided into shooting regions, but it is not possible to display shooting range images that are divided for each shooting region and color-coded. Other configurations and processing flow are the same as those of the first embodiment, and as in the case of the first embodiment, the image capturing apparatus for three-dimensional measurement that can grasp the progress of shooting and can efficiently perform shooting without excess or deficiency. Can provide.

以上の実施例では、測定対象物の特徴点を抽出して、三次元座標を求める例を説明したが、実施例4では、測定対象物に自他識別可能な識別コードを有するカラーコードターゲットを貼付けて特徴点として使用する例を説明する。   In the above embodiment, the example of obtaining the three-dimensional coordinates by extracting the feature points of the measurement object has been described. However, in the fourth embodiment, a color code target having an identification code that can be identified by the measurement object is used. An example of pasting and using as a feature point will be described.

図22に、実施例4に係る三次元計測用画像撮影装置1Cの構成例をブロック図で示す。実施例1の構成(図1参照)に比して、特徴抽出部6に、マーク抽出部62とコード識別部63が追加されている。マーク抽出部62は、撮影画像からカラーコードターゲットやレトロターゲット等のマークを特徴点として抽出する。コード識別部63は、マーク抽出部71で抽出されたマークの識別コードを識別し、識別コードをマークに付与される特徴点番号と対応付ける。また、三次元位置測定部7は、マーク抽出部62で抽出されたマークを特徴点として、他の特徴点と同様にマークの位置の三次元座標を求める。なお、実施例2のように撮影画像を所定枚数取得した後に撮影範囲画像を形成することが可能なように、撮影回数判定部31が追加され、実施例3のように座標変換が可能なように、記憶部5に、特徴点位置関係記憶部55、見本画像記憶部56が追加され、画像処理部8に、画像座標変換部88が追加されている(これらは省略しても良い)。   FIG. 22 is a block diagram illustrating a configuration example of the three-dimensional measurement image capturing apparatus 1C according to the fourth embodiment. Compared to the configuration of the first embodiment (see FIG. 1), a mark extraction unit 62 and a code identification unit 63 are added to the feature extraction unit 6. The mark extraction unit 62 extracts a mark such as a color code target or a retro target as a feature point from the photographed image. The code identification unit 63 identifies the identification code of the mark extracted by the mark extraction unit 71, and associates the identification code with the feature point number assigned to the mark. Further, the three-dimensional position measurement unit 7 uses the mark extracted by the mark extraction unit 62 as a feature point, and obtains a three-dimensional coordinate of the mark position in the same manner as other feature points. Note that a shooting number determination unit 31 is added so that a shooting range image can be formed after a predetermined number of shot images are acquired as in the second embodiment, and coordinate conversion can be performed as in the third embodiment. In addition, a feature point position relationship storage unit 55 and a sample image storage unit 56 are added to the storage unit 5, and an image coordinate conversion unit 88 is added to the image processing unit 8 (these may be omitted).

[カラーコードターゲット]
図23にカラーコードターゲットCTの例を示す。図23(a)はカラーコードの単位領域が3個、図23(b)は6個、図23(c)は9個のカラーコードターゲットである。図23(a)〜(c)のカラーコードターゲットCT(CT1〜CT3)は、位置検出用パターン(レトロターゲット部)P1、基準色パターン(基準色部)P2、カラーコードパターン(カラーコード部)P3、空パターン(白色部)P4で構成されている。
[Color code target]
FIG. 23 shows an example of the color code target CT. 23A shows three color code unit areas, FIG. 23B shows six color code targets, and FIG. 23C shows nine color code targets. The color code targets CT (CT1 to CT3) in FIGS. 23A to 23C include a position detection pattern (retro target portion) P1, a reference color pattern (reference color portion) P2, and a color code pattern (color code portion). P3 and an empty pattern (white portion) P4.

レトロターゲット部P1は、ターゲット自体の検出用、その重心検出用、ターゲットの向き検出用、ターゲット領域検出用として使用する。   The retro target portion P1 is used for detecting the target itself, detecting its center of gravity, detecting the direction of the target, and detecting the target area.

基準色部P2は、照明やカメラ等の撮影条件による色のずれに対応するために、相対比較時の参照用、色ずれを補正するためのカラーキャリブレーション用として使用する。さらに、基準色部P2は、簡易な方法で作成されたカラーコードターゲットCTの色彩補正用として使用できる。例えば、色管理がなされていないカラープリンター(インクジェット・レーザー・昇華型等のプリンタ)で印刷したカラーコードターゲットCTを使用する場合は、使用プリンタ等で色彩に個体差が出るが、基準色部P2とカラーコード部P3の色を相対比較し補正することで、個体差の影響を押さえることができる。   The reference color portion P2 is used for reference at the time of relative comparison and for color calibration for correcting color misregistration in order to cope with color misregistration due to shooting conditions such as illumination and a camera. Furthermore, the reference color portion P2 can be used for color correction of the color code target CT created by a simple method. For example, when using a color code target CT printed by a color printer (inkjet, laser, sublimation type printer, etc.) where color management is not performed, individual differences appear in the color of the printer used, but the reference color portion P2 By comparing and correcting the color of the color code portion P3 relative to each other, the influence of individual differences can be suppressed.

カラーコード部P3は、その各単位領域への配色の組み合わせによってコードを表現する。コードに使用するコード色の数により表現可能なコード数が変化する。例えば、コード色数がnの場合、n×n×n通りのコードを表せる。信頼度を上げるため、他の単位領域に使用されている色を重複して使用しないという条件を課した場合でも、n×(n−1)×(n−2)通りのコードを表せる。そして、コード色数を増やせばコード数を増加できる。さらに、カラーコード部P3の単位領域の数とコード色数を等しくするという条件を課すと、全てのコード色がカラーコード部P3に使用されるため、基準色部P2との比較のみで無く、カラーコード部P3の各単位領域間で色を相対比較することにより、各単位領域の色彩を確認して識別コードを決定することができ、信頼性を上げることができる。さらに、各単位領域の面積を全て同じにする条件を追加すると、カラーコードターゲットCTを画像中から検出する際にも使用できる。これは、異なる識別コードをもつカラーコードターゲットCT間でも各色の占有する面積が同じになるため、カラーコード部全体からの検出光からはほぼ同様な分散値が得られるからである。また、単位領域間の境界は等間隔に繰り返され、明確な色彩差が検出されるので、このような検出光の繰り返しパターンからもターゲットCTを画像中から検出することが可能である。   The color code part P3 expresses a code by a combination of color schemes for each unit area. The number of codes that can be expressed varies depending on the number of code colors used for the code. For example, when the number of code colors is n, n × n × n codes can be represented. In order to increase the reliability, even when the condition that the colors used in other unit areas are not used redundantly, n × (n−1) × (n−2) codes can be expressed. If the number of code colors is increased, the number of codes can be increased. Furthermore, if the condition that the number of unit areas of the color code portion P3 is equal to the number of code colors is imposed, all the code colors are used for the color code portion P3. Therefore, not only the comparison with the reference color portion P2, By relatively comparing the colors between the unit areas of the color code part P3, the color of each unit area can be confirmed to determine the identification code, and the reliability can be improved. Furthermore, if a condition for making the area of each unit region all the same is added, the color code target CT can also be used for detection from the image. This is because the area occupied by each color is the same even between the color code targets CT having different identification codes, and thus almost the same dispersion value is obtained from the detection light from the entire color code portion. In addition, since the boundary between the unit areas is repeated at equal intervals and a clear color difference is detected, the target CT can be detected from the image from such a repeated pattern of detection light.

白色部P4は、カラーコードターゲットCTの向き検出用と色ずれのキャリブレーション用として使用する。ターゲットCTの四隅の内、一カ所だけレトロターゲットが配置されない箇所があり、これをターゲットCTの向き検出用に使用できる。このように白色部P4はレトロターゲットと異なるパターンであれば良い。したがって、白色部には目視でコードを確認するための番号などの文字列を印刷しても良く、また、バーコード等のコード領域としても使用しても良い。さらに、検出精度を上げるために、テンプレートマッチング用のテンプレートパターンとして使用することも可能である。   The white portion P4 is used for detecting the orientation of the color code target CT and for color misregistration calibration. Among the four corners of the target CT, there is a place where no retro target is arranged, and this can be used for detecting the direction of the target CT. Thus, the white part P4 should just be a pattern different from a retro target. Therefore, a character string such as a number for visually confirming the code may be printed on the white portion, or may be used as a code area such as a barcode. Further, in order to increase the detection accuracy, it can be used as a template pattern for template matching.

マーク抽出部62は、撮影部3で取得された複数の撮影画像におけるマークを特徴点として抽出する。本実施例では測定対象物である自動車や土器に自他識別可能な識別コードを有するマークとしてのカラーコードターゲットが貼り付けられており、カラーコードターゲットを特徴点として使用できる。   The mark extraction unit 62 extracts marks in a plurality of captured images acquired by the imaging unit 3 as feature points. In this embodiment, a color code target as a mark having an identification code that can be identified by itself is attached to a car or earthenware that is a measurement object, and the color code target can be used as a feature point.

コード識別部63はカラーコードターゲットCTの識別コードを識別する。パターン配置とコード番号の対応関係を記録するカラーコードターゲット対応表を用いて、カラーコードターゲットCTのカラーコード部P3における色彩の配列から識別コードを判別し、カラーコードターゲットCTに番号を付与する。   The code identification unit 63 identifies the identification code of the color code target CT. Using the color code target correspondence table that records the correspondence between the pattern arrangement and the code number, the identification code is determined from the color arrangement in the color code portion P3 of the color code target CT, and a number is assigned to the color code target CT.

カラーコードターゲットCTの位置はレトロターゲットP1を検出することにより求められる。カラーコードターゲットCT以外にレトロターゲットが貼付される場合、カラーコードターゲットCTに代えてレトロターゲットが貼付される場合も、マークの位置はレトロターゲットを検出することにより求められる。   The position of the color code target CT is obtained by detecting the retro target P1. When a retro target is affixed in addition to the color code target CT, the mark position can be obtained by detecting the retro target even when a retro target is affixed instead of the color code target CT.

図24はレトロターゲットを用いた重心位置検出の説明図である。本実施例ではレトロターゲットは2つの同心円で形成されている。図24(A1)は同心円のうち小円の内側である内円部204の明度が明るく、小円と大円との間に形成された円環状の部分である外円部206の明度が暗いレトロターゲット200、図24(A2)は(A1)のレトロターゲット200の直径方向の明度分布図、図24(B1)は内円部204の明度が暗く、外円部206の明度が明るいレトロターゲット200、図24(B2)は(B1)のレトロターゲット200の直径方向の明度分布図を示している。レトロターゲットが図24(A1)のように内円部204の明度が明るい場合は、測定対象物1の撮影画像において重心位置での反射光量が多く明るい部分になっているため、画像の光量分布が図24(A2)のようになり、光量分布の閾値Toからレトロターゲットの内円部204や中心位置を求めることが可能となる。本実施例では、(A1)の場合、正方形の位置検出用パターンP1の中心部に小円に相当する円が一つ形成されていればよく、大円の外側は明るくても暗くてもよいが、暗くするのが良い。暗い場合は、実質的に一つの円(小円)が形成されているだけである。(B1)の場合は、大円の外側は明るくても暗くてもよいが、大円の外側が明るい場合は、実質的に明るい下地に暗い1つの円(小円)が形成されているだけである。   FIG. 24 is an explanatory diagram of center-of-gravity position detection using a retro target. In this embodiment, the retro target is formed by two concentric circles. In FIG. 24A1, the brightness of the inner circle portion 204 that is the inner side of the small circle among the concentric circles is bright, and the brightness of the outer circle portion 206 that is an annular portion formed between the small circle and the great circle is dark. The retro target 200, FIG. 24 (A2) is a brightness distribution diagram in the diameter direction of the retro target 200 of (A1), and FIG. 24 (B1) is a retro target in which the brightness of the inner circle portion 204 is dark and the brightness of the outer circle portion 206 is bright. 200 and FIG. 24 (B2) show the brightness distribution diagram in the diameter direction of the retro target 200 of (B1). When the brightness of the inner circle portion 204 is bright as shown in FIG. 24 (A1), the retro target has a bright portion with a large amount of reflected light at the center of gravity in the photographed image of the measurement object 1, and thus the light amount distribution of the image. As shown in FIG. 24A2, the inner circle portion 204 and the center position of the retro target can be obtained from the threshold value To of the light amount distribution. In this embodiment, in the case of (A1), it suffices if one circle corresponding to a small circle is formed at the center of the square position detection pattern P1, and the outside of the great circle may be bright or dark. However, it is better to make it dark. When it is dark, substantially only one circle (small circle) is formed. In the case of (B1), the outside of the great circle may be bright or dark, but when the outside of the great circle is bright, only one dark circle (small circle) is formed on the substantially bright base. It is.

ターゲットの存在範囲が決定されると、例えばモーメント法によって重心位置を算出する。例えば、図24(A1)に表記されたレトロターゲット200の平面座標を(x、y)とする。そして、レトロターゲット200の明度が、閾値To以上のx、y方向の点について、(式8)、(式9)を演算する。
xg={Σx*f(x、y)}/Σf(x、y) −−−−(式8)
yg={Σy*f(x、y)}/Σf(x、y) −−−−(式9)
(xg、yg):重心位置の座標、f(x、y):(x、y)座標上の光量
なお、図24(B1)に表記されたレトロターゲット200の場合は、明度が閾値To以下のx、y方向の点について、(式8)、(式9)を演算する。これにより、レトロターゲット200の重心位置が求まる。
When the target existence range is determined, the barycentric position is calculated by, for example, the moment method. For example, the plane coordinates of the retro target 200 shown in FIG. 24 (A1) are (x, y). Then, (Expression 8) and (Expression 9) are calculated for points in the x and y directions in which the brightness of the retro target 200 is greater than or equal to the threshold value To.
xg = {Σx * f (x, y)} / Σf (x, y) ---- (Equation 8)
yg = {Σy * f (x, y)} / Σf (x, y) −−−− (formula 9)
(Xg, yg): coordinates of the center of gravity position, f (x, y): light quantity on (x, y) coordinates In the case of the retro target 200 shown in FIG. (Expression 8) and (Expression 9) are calculated for the points in the x and y directions. Thereby, the position of the center of gravity of the retro target 200 is obtained.

図25に実施例4における撮影範囲画像の例を示す。図6に示すカラーコードターゲットが貼り付けられた土器を測定対象物2として、撮影画像から、カラーコードターゲットを抽出し、その三次元位置座標を求め、撮影範囲画像に撮影領域を区画し、各撮影領域に撮影画像を張り付けてテクスチャ画像としての撮影範囲画像を形成したものである。重複撮影領域がテクスチャ画像として表現され、未重複撮影領域は空間のままである。特徴点として、カラーコードターゲットにおけるレトロターゲットのみを用いても良いが、他のレトロターゲットや特徴点も用いると、精度の高い撮影範囲画像を得ることができる。図25には、土器の表面に特徴点としてのカラーコードターゲット(A1〜A8)及びレトロターゲット(T1〜T8)の位置が示されている。なお、1つのカラーコードターゲットは3つのレトロターゲットを有している。このように、撮影範囲画像をテクスチュア画像として実物ライクに表現すると、撮影の進捗状況をビジュアルに把握できる。なお、撮影領域に区分する代わりに座標変換により撮影範囲画像を形成しても良い。   FIG. 25 shows an example of the shooting range image in the fourth embodiment. The earthenware on which the color code target shown in FIG. 6 is pasted is used as the measurement object 2, and the color code target is extracted from the photographed image, its three-dimensional position coordinates are obtained, the photographing region is divided into the photographing range image, The captured image is pasted on the capturing area to form a capturing range image as a texture image. The overlapping shooting area is represented as a texture image, and the non-overlapping shooting area remains a space. As a feature point, only a retro target in a color code target may be used. However, if another retro target or a feature point is also used, a highly accurate shooting range image can be obtained. FIG. 25 shows the positions of color code targets (A1 to A8) and retro targets (T1 to T8) as feature points on the surface of the earthenware. One color code target has three retro targets. In this way, if the shooting range image is expressed as a texture image in a real-like manner, the progress of shooting can be visually grasped. Note that a shooting range image may be formed by coordinate conversion instead of dividing into shooting regions.

図26に実施例4における画像撮影の処理フロー例を示す。実施例1の処理フロー(図16参照)に比して、特徴点抽出工程(S120)に代わりカラーコードターゲット抽出工程(S120A)を有し、カラーコードターゲット抽出工程(S120A)と対応点探索工程(S130)の間にコード識別工程(S125)を有する。カラーコードターゲット抽出工程(S120A)では、マーク抽出部62にて、撮影部3で取得された複数の撮影画像におけるカラーコードターゲットを特徴点として抽出する。コード識別工程(S125)では、コード識別部63にてカラーコードターゲットCTの識別コードを識別する。パターン配置とコード番号の対応関係を記録するカラーコードターゲット対応表を用いて、カラーコードターゲットCTのカラーコード部P3における色彩の配列から識別コードを判別し、カラーコードターゲットCTに番号を付与する。特徴点として自他識別可能な識別コードを有するマークを使用することにより、識別コードを利用して、特徴点抽出や対応点探索が容易になり、三次元位置計測が効率的になる。その他の構成及び処理フローは実施例1と同様であり、実施例1と同様に、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。   FIG. 26 shows an example of a processing flow of image shooting in the fourth embodiment. Compared to the processing flow of Embodiment 1 (see FIG. 16), the color code target extraction step (S120A) is provided instead of the feature point extraction step (S120), and the color code target extraction step (S120A) and the corresponding point search step. There is a code identification step (S125) between (S130). In the color code target extraction step (S120A), the mark extraction unit 62 extracts color code targets in a plurality of photographed images acquired by the photographing unit 3 as feature points. In the code identification step (S125), the code identification unit 63 identifies the identification code of the color code target CT. Using the color code target correspondence table that records the correspondence between the pattern arrangement and the code number, the identification code is determined from the color arrangement in the color code portion P3 of the color code target CT, and a number is assigned to the color code target CT. By using a mark having an identification code that can identify itself as a feature point, feature point extraction and corresponding point search are facilitated using the identification code, and three-dimensional position measurement becomes efficient. Other configurations and processing flow are the same as in the first embodiment, and as in the first embodiment, it is possible to provide a three-dimensional measurement image photographing apparatus that can grasp the progress of photographing and can efficiently perform photographing without excess or deficiency. .

実施例4では、測定対象物に自他識別可能な識別コードを有するカラーコードターゲットを貼付けて特徴点として使用する例を説明したが、実施例5では、当該マーク自体では識別性がない非コードマークを、識別性マークとして利用する例を説明する。すなわち、それ自体識別性を持たないレトロターゲットでも、自他識別可能なコードを有するマークカラーコードターゲットとの配置関係により識別性を持たせることができる。   In the fourth embodiment, an example is described in which a color code target having an identification code that can be identified by another person is attached to a measurement object and used as a feature point. However, in the fifth embodiment, the mark itself is not discriminating. An example in which the mark is used as an identification mark will be described. That is, even a retro target that does not have its own distinguishability can be given distinctiveness by the arrangement relationship with a mark color code target having a code that can identify itself.

図27は、カラーコードターゲットとレトロターゲットとを共に識別性マークとして用いる例を示す図である。測定対象物2としての土器にカラーコードターゲット(A10〜A13)とレトロターゲット(T10,T11等)が貼付されている。例えば、レトロターゲットT10は、カラーコードターゲット(A10〜A12)が形成する三角形の中にあり、カラーコードターゲット(A10〜A12)に対してその位置関係が特定されれば、識別性が生じる。また、レトロターゲットT11は、カラーコードターゲット(A11〜A13)が形成する三角形の中にあり、カラーコードターゲット(A11〜A13)に対してその位置関係が特定されれば、識別性が生じる。例えば、特定のコードを有するマークからの方向と距離、特定のコードを有する3つのマークが形成する三角形への投影点(垂線の交点)と距離等により特定可能である。これを利用すると、非コードマークであるレトロターゲット(T10,T11等)を識別性マークとして利用できる。又は、この配置関係を三次元空間上に投影し、配置関係の合致性から非コードマークを識別してもよい。図示しない非コードマーク識別部は、マーク抽出部62で抽出された非コードマークについて他の自他識別可能なコードを有するマークとの配置関係から非コードマークを識別し、配置関係により識別性が生じた非コードマークに特徴点番号を付与する。これにより、多数のレトロターゲットを識別性マークとして利用できるので、少ないカラーコードターゲットでも、高精度の三次元計測が可能になる。   FIG. 27 is a diagram illustrating an example in which both a color code target and a retro target are used as distinguishability marks. Color code targets (A10 to A13) and retro targets (T10, T11, etc.) are affixed to the earthenware as the measurement object 2. For example, the retro target T10 is in a triangle formed by the color code targets (A10 to A12), and if the positional relationship is specified with respect to the color code targets (A10 to A12), discriminability occurs. Further, the retro target T11 is in a triangle formed by the color code targets (A11 to A13), and if the positional relationship is specified with respect to the color code targets (A11 to A13), discriminability occurs. For example, it can be specified by a direction and distance from a mark having a specific code, a projection point (intersection of perpendicular lines) and a distance on a triangle formed by three marks having a specific code, and the like. When this is used, a retro target (T10, T11, etc.) that is a non-code mark can be used as a distinguishability mark. Alternatively, this arrangement relationship may be projected onto a three-dimensional space, and non-code marks may be identified from the consistency of the arrangement relationship. A non-code mark identification unit (not shown) identifies a non-code mark from the arrangement relationship between the non-code mark extracted by the mark extraction unit 62 and a mark having another self-identifiable code, and the identification relationship is improved by the arrangement relationship. A feature point number is assigned to the generated non-code mark. As a result, a large number of retro targets can be used as discriminating marks, so that highly accurate three-dimensional measurement is possible even with a small number of color code targets.

以上の実施例では、撮影位置を特定していないが、実施例6では、撮影予定位置の座標を予め入力しておき、撮影予定位置で順次撮影を行なうと共に、撮影者を次回撮影予定位置へガイドする例を説明する。   In the above embodiment, the shooting position is not specified. However, in the sixth embodiment, the coordinates of the planned shooting position are input in advance, the shooting is sequentially performed at the planned shooting position, and the photographer is moved to the next shooting planned position. An example of guiding will be described.

図28に、実施例6に係る三次元計測用画像撮影装置1Dの構成例をブロック図で示す。実施例4の構成(図22参照)に比して、入力部4Aに撮影予定位置入力部41が追加され、記憶部5に撮影予定位置記憶部57が追加され、さらに、ガイド情報処理部9が追加され、撮影回数判定部31が追加されている。ガイド情報処理部9は、予め定められた撮影予定位置と撮影者の現在位置の情報を取得し、撮影者を撮影予定位置へガイドするための情報を作成するもので、移動情報演算部91、次回撮影予定位置選択部92、移動情報報知部93を有する。撮影予定位置入力部41は、予め定められた複数の撮影予定位置を入力し、撮影予定位置記憶部57は撮影予定位置入力部41から入力されたこれらの撮影予定位置を記憶する。撮影回数判定部31は撮影不足領域の有無を判定するために使用される。すなわち、撮影不足領域判定部86は、撮影予定位置記憶部57において全ての撮影予定位置が既撮影位置として記憶された場合(撮影回数が撮影予定位置に達した場合)に撮影不足領域が無いと判定する。なお、ガイド情報処理部9はパーソナルコンピュータ(PC)15内に構成される。   FIG. 28 is a block diagram illustrating a configuration example of the three-dimensional measurement image capturing apparatus 1D according to the sixth embodiment. Compared to the configuration of the fourth embodiment (see FIG. 22), a planned shooting position input unit 41 is added to the input unit 4A, a planned shooting position storage unit 57 is added to the storage unit 5, and the guide information processing unit 9 Is added, and a shooting number determination unit 31 is added. The guide information processing unit 9 acquires information on a predetermined scheduled shooting position and the current position of the photographer, and creates information for guiding the photographer to the planned shooting position. A next scheduled shooting position selection unit 92 and a movement information notification unit 93 are provided. The scheduled shooting position input unit 41 inputs a plurality of predetermined scheduled shooting positions, and the scheduled shooting position storage unit 57 stores these scheduled shooting positions input from the planned shooting position input unit 41. The number-of-shoots determination unit 31 is used to determine the presence / absence of an insufficient shooting region. In other words, the shooting shortage area determination unit 86 determines that there is no shooting shortage area when all the planned shooting positions are stored as the already shot positions in the planned shooting position storage unit 57 (when the number of shootings reaches the planned shooting position). judge. The guide information processing unit 9 is configured in a personal computer (PC) 15.

また、三次元位置測定部7は、三次元位置演算部73において、特徴抽出部6で抽出された特徴点の複数の撮影画像における画面位置から、特徴点の三次元座標と共に撮影位置(撮影部3の現在位置)の三次元座標を求める。特徴点としてカラーコードマーク等の自他識別可能な識別コードを有するマーク使用し、例えば、測定対象物としての自動車2等の周囲の地面等に配置しておく。抽出されたマーク(カラーコードターゲット、レトロターゲット等)の位置が既知の場合にはDLT法を使用して測定対象物2の特徴点及び撮影位置の三次元座標を求めることができる。   Also, the 3D position measurement unit 7 uses the 3D position calculation unit 73 from the screen positions in the plurality of captured images of the feature points extracted by the feature extraction unit 6 together with the 3D coordinates of the feature points as the shooting position (shooting unit). 3 present position) is obtained. A mark having a distinguishable identification code such as a color code mark is used as a feature point, and for example, it is arranged on the ground around the automobile 2 or the like as a measurement object. When the position of the extracted mark (color code target, retro target, etc.) is known, the DLT method can be used to obtain the three-dimensional coordinates of the feature point of the measurement object 2 and the shooting position.

[DLT法]
DLT法は、写真座標と被写体の三次元座標(特徴点座標)との関係を三次の射影変換式で近似したものである。
DLT法の基本式は(式10)となる。
[DLT method]
The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates (feature point coordinates) of the subject using a cubic projective transformation equation.
The basic expression of the DLT method is (Expression 10).

(式10)に対し、分母を消去すると、次の線形式を導き出せる。
If the denominator is deleted from (Equation 10), the following line form can be derived.

更に、(式11)を変形すると、以下の式となる。
Furthermore, when (Expression 11) is modified, the following expression is obtained.

(式12)を直接、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。したがって、位置座標が既知の6点について(式12)を解くことにより、被写体の写真座標(x,y)と被写体の三次元座標(特徴点座標)(X,Y,Z)との関係が求まり、写真座標(x,y)と特徴点座標(X,Y,Z)を結ぶ直線の収束点にあたる撮影位置の位置座標(0,0,0)を求めることができる。この場合、撮影位置は、特徴点座標に対して(−X,−Y,−Z)の位置になる。 When (Expression 12) is solved directly using the least square method, 11 unknown variables L 1 to L 11 that determine the relationship between the photographic coordinates and the target point coordinates can be acquired. Therefore, the relationship between the photographic coordinates (x, y) of the subject and the three-dimensional coordinates (feature point coordinates) (X, Y, Z) of the subject can be obtained by solving (Equation 12) for six points whose position coordinates are known. Thus, the position coordinates (0, 0, 0) of the photographing position corresponding to the convergence point of the straight line connecting the photograph coordinates (x, y) and the feature point coordinates (X, Y, Z) can be obtained. In this case, the photographing position is a position (−X, −Y, −Z) with respect to the feature point coordinates.

[テクスチャマッピング]
また、三次元位置測定部7は、三次元位置演算部73において、特徴点抽出部61で抽出された特徴点の複数の撮影画像における画面位置から、例えば、テクスチャマッピングにより、撮影位置(撮影部3の現在位置)の三次元座標を求める。
撮影範囲画像に書き込みする特徴点の位置として、テクスチャマッピングで求められた三次元座標を使用できる。このようにすると、撮影範囲画像の精度を向上できる。次に、写真に撮影した画像を空間座標(X、Y、Z)上に形成されるモデル画像上にテクスチャマッピングする方法について説明する。 画像上の各画素(ピクセル)の空間座標を計算する。この処理では、写真上の画像座標(x、y)を空間座標(X、Y、Z)に変換する。空間座標(X、Y、Z)は、三次元計測によって計算された値である。写真の画像座標(x、y)に対応する空間座標(X、Y、Z)は、以下の式で与えられる。このようにして、画像上の各ピクセルの濃度取得位置を求め、画像を三次元空間上にマッピングする。
[Texture mapping]
In addition, the 3D position measurement unit 7 uses, for example, texture mapping to capture the shooting position (shooting unit) from the screen positions in the plurality of shot images of the feature points extracted by the feature point extraction unit 61 in the 3D position calculation unit 73. 3 present position) is obtained.
The three-dimensional coordinates obtained by texture mapping can be used as the position of the feature point to be written in the shooting range image. In this way, the accuracy of the shooting range image can be improved. Next, a method for texture mapping an image photographed on a photograph onto a model image formed on spatial coordinates (X, Y, Z) will be described. The spatial coordinates of each pixel (pixel) on the image are calculated. In this processing, the image coordinates (x, y) on the photograph are converted into spatial coordinates (X, Y, Z). Spatial coordinates (X, Y, Z) are values calculated by three-dimensional measurement. Spatial coordinates (X, Y, Z) corresponding to image coordinates (x, y) of a photograph are given by the following equations. In this way, the density acquisition position of each pixel on the image is obtained, and the image is mapped on the three-dimensional space.

ここで、 (X、Y) :空間座標系での写真画像の左上の位置、 (ΔX、ΔY):空間座標系での1画素の大きさ、 (x、y) :写真画像の画像座標、 (X、Y、Z):空間画像座標 a,b,c,d:ある画像座標(x、y)を内挿する複数の基準点により形成される平面方程式の係数である。 Here, (X 0 , Y 0 ): Upper left position of the photographic image in the spatial coordinate system, (ΔX, ΔY): Size of one pixel in the spatial coordinate system, (x, y): Image of the photographic image Coordinates (X, Y, Z): Spatial image coordinates a, b, c, d: Coefficients of a plane equation formed by a plurality of reference points for interpolating a certain image coordinate (x, y).

この係数は、例えば、三角形内挿処理(Triangulated Irreguler Network,TIN)の平面の方程式の係数である。TINは、3次元座標を内挿する方法として三角形を構成単位とするメッシュを生成するもので、三角網とも呼ばれる。(TINについての詳細は、「伊理正夫、腰塚武志:計算幾何学と地理情報処理、pp127」、「Franz Aurenhammer,杉原厚吉訳:Voronoi図、一つの基本的な幾何データ構造に関する概論、ACM Computing Surveys, Vol.23,pp345−405」等を参照。)   This coefficient is, for example, a coefficient of a plane equation of triangle interpolation processing (Triangulated Irregular Network, TIN). TIN generates a mesh having triangular units as a method for interpolating three-dimensional coordinates, and is also called a triangular network. (For more information about TIN, see Masao Iri, Takeshi Koshizuka: Computational Geometry and Geographic Information Processing, pp 127, "Franz Aurenhammer, Atsuyoshi Sugihara: Voronoi Diagram, Introduction to One Basic Geometric Data Structure, ACM Computing (See “Surveys, Vol. 23, pp 345-405”).

撮影画像の特徴点を撮影範囲画像にマッピングできれば、撮影領域毎に区画した撮影範囲画像を形成できる。これにより、撮影領域について重複撮影領域、未重複撮影領域等をビジュアルに判別でき、撮影を効率化できる。また、各撮影領域に撮影画像を当てはめる(貼り付ける)ことにより、図25のよう三次元モデル画像(テクスチャ画像)を形成できる。また、三次元モデル画像からオルソ画像や全周囲画像を形成できる。これらにより、撮影範囲画像に既撮影範囲をビジュアルに表現でき、進捗状況を容易かつ正確に把握できる。   If the feature points of the photographic image can be mapped to the photographic range image, the photographic range image divided for each photographic region can be formed. As a result, it is possible to visually discriminate between the overlapping shooting area and the non-overlapping shooting area with respect to the shooting area, and to improve the shooting efficiency. In addition, by applying (pasting) a captured image to each imaging region, a three-dimensional model image (texture image) can be formed as shown in FIG. In addition, an ortho image and an all-around image can be formed from the three-dimensional model image. As a result, the existing shooting range can be visually represented in the shooting range image, and the progress status can be easily and accurately grasped.

移動情報演算部91は、三次元位置演算部73で求められた撮影位置(撮影部3の現在位置)の三次元座標と撮影予定位置記憶部57に記憶された撮影予定位置から、撮影予定位置に対する撮影位置の方向と距離を求める。次回撮影予定位置選択部92は、求められた撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択する。次回撮影予定位置選択部92は、複数の撮影予定位置の位置座標と、当該撮影予定位置において撮影済か未撮影かを記憶した撮影予定位置表を有し、撮影予定位置表を参照して、例えば、求められた撮影位置と各撮影予定位置との距離(測定対象物が間に入る場合はこれを迂回した距離)を比較し、未撮影の撮影予定位置のうち求められた撮影位置と最短距離にある撮影予定位置を次回撮影予定位置として選択する。移動情報報知部93は、撮影位置と次回撮影予定位置の位置情報から、撮影者にガイドする情報を作成し、表示部4に表示させる。撮影回数判定部31はPC15内に設けられ、図示しない撮影回数カウンタを有し、撮影回数カウンタで取得された撮影画像数を計数する。撮影回数カウンタには入力部4Aから予定撮影回数として撮影予定位置数を設定する。撮影不足領域判定部86は撮影回数判定部31を参照して、予定撮影回数に達したか否かを判定する。撮影予定位置記憶部57において全ての撮影予定位置が既撮影位置として記憶された時に、撮影回数カウンタの計数が予定撮影回数に達するので、予定撮影回数に達したか否かを判定できる。すなわち、撮影回数判定部31は、実施例2におけるものと構成は同じであるが、予定撮影回数として撮影予定位置数を使用する点、撮影後ではなく、ガイド情報表示後に判定を行なう点が異なる。なお、撮影回数判定部31は撮影予定位置記憶部57における既撮影位置を示すフラグを計数して、撮影予定位置記憶部57において全ての撮影予定位置が既撮影位置として記憶されたか否かを判定しても良い。   The movement information calculation unit 91 calculates the planned shooting position from the three-dimensional coordinates of the shooting position (current position of the shooting unit 3) obtained by the three-dimensional position calculation unit 73 and the planned shooting position stored in the planned shooting position storage unit 57. The direction and distance of the shooting position with respect to is obtained. The next scheduled shooting position selection unit 92 selects the next scheduled shooting position from a plurality of planned shooting positions based on the obtained position coordinates of the shooting position. The next scheduled shooting position selection unit 92 includes a position coordinate of a plurality of scheduled shooting positions and a scheduled shooting position table that stores whether shooting has been performed or not shot at the scheduled shooting position. With reference to the scheduled shooting position table, For example, the distance between the obtained shooting position and each scheduled shooting position (a distance that bypasses the measurement object when it is in between) is compared, and the calculated shooting position among the unscheduled shooting positions is the shortest The scheduled shooting position at a distance is selected as the next scheduled shooting position. The movement information notification unit 93 creates information to guide the photographer from the position information of the shooting position and the next shooting scheduled position, and displays the information on the display unit 4. The shooting number determination unit 31 is provided in the PC 15 and has a shooting number counter (not shown), and counts the number of shot images acquired by the shooting number counter. The number of scheduled shooting positions is set as the scheduled number of shots from the input unit 4A in the shooting number counter. The undershooting area determination unit 86 refers to the number-of-shoots determination unit 31 to determine whether or not the planned number of shots has been reached. When all the planned shooting positions are stored as the existing shooting positions in the planned shooting position storage unit 57, the count of the shooting number counter reaches the planned shooting number, so it can be determined whether or not the planned shooting number has been reached. That is, the number-of-shooting determination unit 31 has the same configuration as that in the second embodiment, but is different in that the number of planned shooting positions is used as the number of scheduled shootings and that the determination is performed after displaying guide information instead of after shooting. . The number-of-shoots determination unit 31 counts a flag indicating the already-captured position in the scheduled shooting position storage unit 57 and determines whether all the scheduled shooting positions are stored as the already-captured positions in the scheduled shooting position storage unit 57. You may do it.

図29に、実施例6における画像撮影の処理フロー例を示す。まず、撮影予定位置入力部41は、予め定められた複数の撮影予定位置を入力し(撮影予定位置入力工程:S400)、撮影予定位置記憶部57は撮影予定位置入力部41から入力されたこれらの撮影予定位置を記憶する(撮影予定位置記憶工程:S401)。次に、撮影部3により、測定対象物2を撮影する(撮影工程:S410)。撮影された撮影画像は撮影画像記憶部51に記憶される(撮影画像記憶工程:S415)。次に、特徴点を抽出する(特徴点抽出工程:S420)。次いで複数の撮影画像から、重複し合う2つの撮影画像の特徴点について対応点探索部71にて対応付けを行う(対応点探索工程:S430)。撮影工程(S410)〜対応点探索工程(S430)は実施例1(図16参照)の撮影工程(S100)〜対応点探索工程(S130)と同じである。次に、対応点探索部71で対応付けされた各特徴点の三次元座標を算出すると共に撮影位置の三次元座標を算出する(三次元座標算出工程:S440)。標定部72にて標定を行い、カメラの位置と傾きを求め、三次元位置演算部73にて各特徴点及び撮影位置の三次元座標を算出する。撮影位置の三次元座標が算出されたら、ガイド情報処理部9で撮影者へのガイド情報を作成する。まず、移動情報演算部91にて、三次元位置演算部73で求められた撮影位置(撮影部3の現在位置)の三次元座標と撮影予定位置記憶部57に記憶された撮影予定位置から、撮影予定位置に対する撮影位置の方向と距離を求める(移動方向算出工程:S450)。次に、次回撮影予定位置選択部92にて、求められた撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択する。次に、移動情報報知部93にて、撮影位置と次回撮影予定位置の位置情報から、撮影者を撮影位置から次回撮影予定位置へガイドするガイド情報を作成し、表示部4に表示させる(移動ガイド表示工程:S460)。次に、撮影回数判定部31にて撮影回数が予定撮影回数に達したか否かを判定する(撮影回数判定工程:S470)。撮影回数の判定は撮影回数カウンタからのリセット信号の出力の有無により行なわれる。リセット信号が出力されるまで、撮影工程(S400)〜移動ガイド表示工程(S460)が繰り返される。撮影範囲画像形成部85ではリセット信号を受信すると、予定撮影回数に相当する枚数の撮影画像から撮影範囲画像を形成する(撮影範囲画像形成工程:S480)。   FIG. 29 shows an example of a processing flow of image shooting in the sixth embodiment. First, the scheduled shooting position input unit 41 inputs a plurality of predetermined shooting scheduled positions (shooting scheduled position input step: S400), and the scheduled shooting position storage unit 57 inputs these from the scheduled shooting position input unit 41. Is stored (scheduled shooting position storage step: S401). Next, the measurement object 2 is imaged by the imaging unit 3 (imaging process: S410). The captured image is stored in the captured image storage unit 51 (captured image storage step: S415). Next, feature points are extracted (feature point extraction step: S420). Next, the corresponding point search unit 71 associates the feature points of two overlapping captured images from a plurality of captured images (corresponding point search step: S430). The shooting step (S410) to the corresponding point search step (S430) are the same as the shooting step (S100) to the corresponding point search step (S130) of the first embodiment (see FIG. 16). Next, the corresponding point search unit 71 calculates the three-dimensional coordinates of each feature point and calculates the three-dimensional coordinates of the shooting position (three-dimensional coordinate calculation step: S440). The orientation unit 72 performs orientation, obtains the position and tilt of the camera, and the 3D position calculation unit 73 calculates 3D coordinates of each feature point and imaging position. When the three-dimensional coordinates of the photographing position are calculated, guide information for the photographer is created by the guide information processing unit 9. First, in the movement information calculation unit 91, from the three-dimensional coordinates of the shooting position (current position of the shooting unit 3) obtained by the three-dimensional position calculation unit 73 and the planned shooting position stored in the planned shooting position storage unit 57, The direction and distance of the shooting position with respect to the planned shooting position are obtained (movement direction calculation step: S450). Next, the next scheduled shooting position selection unit 92 selects the next scheduled shooting position from a plurality of planned shooting positions based on the obtained position coordinates of the shooting position. Next, the movement information notification unit 93 creates guide information for guiding the photographer from the shooting position to the next scheduled shooting position based on the position information of the shooting position and the next scheduled shooting position, and displays the guide information on the display unit 4 (moving). Guide display step: S460). Next, it is determined whether or not the number of times of shooting has reached the scheduled number of times of shooting in the number of times of shooting determination unit 31 (shooting number determination step: S470). The number of shootings is determined based on whether or not a reset signal is output from the shooting number counter. The imaging process (S400) to the movement guide display process (S460) are repeated until the reset signal is output. When the reset signal is received, the shooting range image forming unit 85 forms a shooting range image from the number of shot images corresponding to the planned number of shots (shooting range image forming step: S480).

撮影範囲画像形成工程(S480)は実施例1の撮影範囲画像形成工程(S150)と同様である(図17参照)。次に、表示部4にて、撮影範囲画像形成部85にて形成された撮影範囲画像を表示する(表示工程:S490)。表示工程(S490)は実施例1の表示工程(S160)と同様である(図17参照)。次に、撮影不足領域判定部86にて、撮影範囲画像に撮影不足領域が有るか否かを判定する(撮影不足領域判定工程:S500)。本実施例では、撮影予定位置記憶部57において既に撮影された撮影予定位置を既撮影位置として記憶し、撮影予定位置記憶部57において全ての撮影予定位置が既撮影位置として記憶された場合に撮影不足領域が無いと判定する。そして、撮影不足領域報知部87にて、撮影不足領域判定部86の判定結果を表示部4に表示させる。撮影不足領域が有るか否かの判定は、撮影回数が撮影予定位置数に達し、撮影範囲画像が表示された時に行なわれる。撮影不足領域が有ると判定された場合には、撮影予定位置入力工程(S400)に戻り、撮影工程(S410)〜撮影不足領域判定工程(S500)の処理が繰り返される。この場合、撮影予定位置入力工程(S400)では、典型的には既撮影位置を除く撮影予定位置が入力される。ただし、既撮影位置での撮影画像にボケ等の品質不良が生じた場合には撮影予定位置として入力できる。撮影不足領域が無いと判定された場合には、画像撮影の処理フローが終了する。   The shooting range image forming step (S480) is the same as the shooting range image forming step (S150) of the first embodiment (see FIG. 17). Next, the imaging range image formed by the imaging range image forming unit 85 is displayed on the display unit 4 (display process: S490). The display step (S490) is the same as the display step (S160) of Example 1 (see FIG. 17). Next, the undershooting area determination unit 86 determines whether or not there is an undershooting area in the shooting range image (undershooting area determination step: S500). In the present embodiment, the scheduled shooting position already shot in the scheduled shooting position storage unit 57 is stored as a previously shot position, and shooting is performed when all scheduled shooting positions are stored in the scheduled shooting position storage unit 57. It is determined that there is no shortage area. Then, the determination result of the insufficient photographing region determination unit 86 is displayed on the display unit 4 by the photographing insufficient region notification unit 87. The determination as to whether or not there is an undershooting area is made when the number of shooting times reaches the number of planned shooting positions and the shooting range image is displayed. If it is determined that there is an undershooting area, the process returns to the scheduled shooting position input step (S400), and the processes from the shooting process (S410) to the undershooting area determination step (S500) are repeated. In this case, in the planned shooting position input step (S400), typically the planned shooting position excluding the existing shooting position is input. However, when a quality defect such as blurring occurs in the photographed image at the already photographed position, it can be input as the scheduled photographing position. If it is determined that there is no undershooting area, the image shooting process flow ends.

図30は測定対象物と撮影予定位置との位置関係を示す図である。撮影対象物2と撮影予定位置との位置関係を二次元的に表すもので、撮影位置画像13と称することとする。撮影位置画像13には、撮影対象物2の設置領域14が中心に、撮影予定位置がその周囲に表示されている。撮影予定位置には番号が付され(○内に1〜8の番号を付して示す)、各撮影予定位置(○内に1〜○内に8)から撮影対象物2を観察・撮影する方向が矢印で表されている。撮影者は撮影予定位置に付された番号順に撮影予定位置へ移動して、順次、撮影対象物2を撮影すれば良い。   FIG. 30 is a diagram showing the positional relationship between the measurement object and the planned shooting position. The positional relationship between the photographing object 2 and the planned photographing position is expressed two-dimensionally and will be referred to as a photographing position image 13. In the shooting position image 13, the planned shooting position is displayed around the installation area 14 of the shooting target 2. Numbers are assigned to the planned shooting positions (numbers 1 to 8 are shown in circles), and the object 2 is observed and photographed from each of the planned shooting positions (1 to 8 in the circles). The direction is represented by an arrow. The photographer may move to the scheduled shooting position in the order of the numbers assigned to the scheduled shooting position and sequentially shoot the shooting target object 2.

図31に撮影予定位置を撮影範囲画像に書き込んだ例(その1)を示す。撮影範囲画像としての平面図に撮影予定位置がプラスマーク+で示され、番号1001〜1032が付されている。抜けがある番号(1022,1024,1025,1029)は未入力の撮影予定位置であるが、今後入力される。測定対象物2は中心(0.150,0.125)に設置される予定であり、これを全周囲から取り囲むように撮影予定位置が配置されている。典型的には三次元座標(X,Y,Z)が入力されるが、平面的配置を見るには平面図が適している。   FIG. 31 shows an example (part 1) in which the planned shooting position is written in the shooting range image. The planned shooting position is indicated by a plus mark + in a plan view as a shooting range image, and numbers 1001 to 1032 are attached. Numbers with missing (1022, 1024, 1025, 1029) are uninput planned shooting positions, but will be input in the future. The measurement object 2 is scheduled to be placed at the center (0.150, 0.125), and the planned shooting position is arranged so as to surround the entire circumference. Typically, three-dimensional coordinates (X, Y, Z) are input, but a plan view is suitable for viewing the planar arrangement.

図32に撮影予定位置を撮影範囲画像に書き込んだ例(その2)を示す。撮影範囲画像としての透視図に撮影予定位置が四角形□で示され、番号が付されている。測定対象物2は中心(0,−1.500,0)に設置される予定であり、これを全周囲から取り囲むように、さらに斜め上方からも撮影するように撮影予定位置が配置されている。一般的には三次元座標(X,Y,Z)が入力される。立体的配置を見るには透視図が適している。   FIG. 32 shows an example (part 2) in which the planned shooting position is written in the shooting range image. In the perspective view as the imaging range image, the planned shooting position is indicated by a square □ and numbered. The measurement object 2 is scheduled to be installed at the center (0, -1.500, 0), and the scheduled shooting position is arranged so as to shoot from an obliquely upward direction so as to surround this from the entire periphery. . Generally, three-dimensional coordinates (X, Y, Z) are input. A perspective view is suitable for viewing the three-dimensional arrangement.

図33に撮影範囲画像に撮影予定位置を指示した例(その1)を示す。撮影範囲画像としての平面図に既撮影の撮影予定位置がプラスマーク+で示され、番号が付されている。未撮影の撮影予定位置はプラスマーク+も番号も付されていない。図では番号1003と1006の撮影予定位置が未撮影になっている。このうち、番号1003の撮影予定位置に矢印が表示され、次回撮影予定位置として指定され、撮影方向が矢印の方向で示されている。   FIG. 33 shows an example (part 1) in which the scheduled shooting position is indicated in the shooting range image. In the plan view as the photographing range image, the pre-photographed photographing position is indicated by a plus mark + and numbered. Unscheduled shooting scheduled positions are not marked with a plus mark + or a number. In the figure, the planned shooting positions with numbers 1003 and 1006 are not yet shot. Among these, an arrow is displayed at the planned shooting position number 1003, designated as the next shooting scheduled position, and the shooting direction is indicated by the direction of the arrow.

図34に撮影範囲画像に撮影予定位置を指示した例(その2)を示す。撮影範囲画像としての透視図に既撮影の撮影予定位置が四角形□で示され、番号が付されている。未撮影の撮影予定位置(図では1箇所)には四角形□も番号も付されていない。未撮影の撮影予定位置に矢印(図では太い矢印)が表示され、次回撮影予定位置として指定され、撮影方向が矢印の方向で示されている。   FIG. 34 shows an example (part 2) in which the scheduled shooting position is indicated in the shooting range image. In the perspective view as the imaging range image, the already-scheduled shooting scheduled position is indicated by a square □ and numbered. A square □ and a number are not attached to unscheduled shooting scheduled positions (one place in the figure). An arrow (thick arrow in the figure) is displayed at the unscheduled shooting scheduled position, designated as the next shooting scheduled position, and the shooting direction is indicated by the direction of the arrow.

図35に撮影範囲画像に撮影領域を形成した例(その1)を示す。撮影範囲画像としての平面図(ワイヤフレーム画像)に既撮影の撮影予定位置がプラスマーク+で示され、番号が付されている。未撮影の撮影予定位置はプラスマークも番号も付されていない。図では番号1006の撮影予定位置が未撮影になっている。また、測定対象物としての自動車2が撮影領域に区分けされ、未撮影領域が黒色(図では細かい網目模様)、単一撮影領域が白色、重複撮影領域が模様を付して示されている。本実施の形態によれば、重複して撮影されなければ、特徴点の三次元座標は定まらないので撮影範囲画像には重複撮影領域以外は表示されない。ただし、予め撮影領域とこれを囲む3以上の特徴点の位置を予測しておき、撮影範囲画像にこの予測値を入力しておけば、単一撮影領域及び未撮影領域を表示することが可能である。特徴点の三次元座標が測定された場合には予測値を測定値に置換する。この撮影範囲画像はかような場合の例である。   FIG. 35 shows an example (part 1) in which a shooting area is formed in a shooting range image. In a plan view (wire frame image) as an imaging range image, an already taken imaging scheduled position is indicated by a plus mark + and numbered. Unscheduled shooting positions are not marked with a plus mark or number. In the figure, the planned shooting position of number 1006 is not shot. In addition, the automobile 2 as the measurement object is divided into shooting areas, the non-shooting area is shown in black (in the figure, a fine mesh pattern), the single shooting area is white, and the overlapping shooting area is shown with a pattern. According to the present embodiment, the three-dimensional coordinates of the feature points are not determined unless they are photographed in duplicate, so that only the overlapping photographing areas are displayed in the photographing range image. However, it is possible to display a single shooting area and an unphotographed area by predicting the shooting area and the positions of three or more feature points surrounding it in advance and inputting the predicted value in the shooting range image. It is. When the three-dimensional coordinates of the feature points are measured, the predicted value is replaced with the measured value. This shooting range image is an example of such a case.

図36に撮影範囲画像に撮影領域を形成した例(その2)を示す。撮影範囲画像として透視図(ワイヤフレーム画像)に撮影予定位置が四角形□で示されている。測定対象物としての土器2が中心に設置され、土器2の撮影領域のうち、重複撮影領域が色分け(図では模様別)表示され、未重複撮影領域が表示されていない。図では矢印の方向から撮影する撮影予定位置が未撮影の位置(1箇所)になっており、この位置からの撮影が行なわれれば、土器2の全ての撮影領域が重複撮影領域となる。   FIG. 36 shows an example (part 2) in which a shooting area is formed in the shooting range image. In the perspective view (wire frame image) as the photographing range image, the photographing planned position is indicated by a square □. The earthenware 2 as a measurement object is installed at the center, and among the shooting areas of the earthenware 2, the overlapping shooting areas are displayed in different colors (by patterns in the drawing), and the non-overlapping shooting areas are not displayed. In the figure, the scheduled shooting position for shooting from the direction of the arrow is an unshooted position (one location). If shooting is performed from this position, all the shooting areas of the earthenware 2 become overlapping shooting areas.

図37に撮影範囲画像に撮影領域を形成した例(その3)を示す。図36の未撮影の撮影予定位置からの撮影が行なわれた後の透視図(ワイヤフレーム画像)である。土器2の撮影領域のうち、未重複撮影領域がなくなっている。   FIG. 37 shows an example (part 3) in which a shooting area is formed in the shooting range image. FIG. 37 is a perspective view (wire frame image) after shooting from an unshooted scheduled shooting position in FIG. 36 is performed. The non-overlapping imaging area is eliminated from the imaging area of the earthenware 2.

図38に撮影範囲画像に撮影領域を貼付表示した例(その1)を示す。撮影範囲画像としての透視図(三次元モデル画像、テクスチャ画像)に撮影予定位置が四角形□で示されている。測定対象物としての自動車2の既撮影領域に撮影画像が当てはめ(貼り付け)られている。このうち、単一撮影領域は暗く表示されている。また、未撮影領域には撮影画像が貼り付けられておらず、黒色で示されている。本実施例では、重複して撮影されなければ、特徴点の三次元座標は定まらないので撮影範囲画像には重複撮影領域以外は表示されない。ただし、予め撮影領域とこれを囲む3以上の特徴点の位置を予測しておき、撮影範囲画像にこの予測値を入力しておけば、単一撮影領域及び未撮影領域を表示することが可能である。特徴点の三次元座標が測定された場合には予測値を測定値に置換する。この撮影範囲画像はかような場合の例である。   FIG. 38 shows an example (part 1) in which a shooting area is pasted and displayed on a shooting range image. In the perspective view (three-dimensional model image, texture image) as the imaging range image, the imaging planned position is indicated by a square □. A photographed image is applied (pasted) to an already photographed area of the automobile 2 as a measurement object. Among these, the single photographing area is displayed darkly. In addition, a photographed image is not pasted in the unphotographed area and is shown in black. In this embodiment, if the images are not overlapped, the three-dimensional coordinates of the feature points are not determined, and therefore, only the overlapped region is not displayed in the capturing range image. However, it is possible to display a single shooting area and an unphotographed area by predicting the shooting area and the positions of three or more feature points surrounding it in advance and inputting the predicted value in the shooting range image. It is. When the three-dimensional coordinates of the feature points are measured, the predicted value is replaced with the measured value. This shooting range image is an example of such a case.

図39に撮影範囲画像に撮影領域を貼付表示した例(その2)を示す。撮影範囲画像としての透視図(三次元モデル画像、テクスチャ画像)に撮影予定位置が四角形□で示されている。図では矢印の方向から撮影する撮影予定位置が未撮影の位置(1箇所)になっている。測定対象物としての土器2の重複撮影領域に撮影画像が当てはめ(貼り付け)られている。未重複撮影領域には撮影画像が貼り付けられておらず、空間になっている。なお、土器の内側が灰色で表示されている。図では1つの撮影予定位置が未撮影の位置になっており、この位置からの撮影が行なわれれば、土器2の全ての撮影領域が重複撮影領域となる。   FIG. 39 shows an example (part 2) in which the shooting area is pasted and displayed on the shooting range image. In the perspective view (three-dimensional model image, texture image) as the imaging range image, the imaging planned position is indicated by a square □. In the figure, the planned shooting position for shooting from the direction of the arrow is an unshooted position (one place). The photographed image is applied (pasted) to the overlapping photographing region of the earthenware 2 as the measurement object. A photographed image is not pasted in the non-overlapping photographing region, and is a space. The inside of the pottery is displayed in gray. In the figure, one scheduled shooting position is an unshooted position, and if shooting is performed from this position, all the shooting areas of the earthenware 2 become overlapping shooting areas.

本実施例によれば、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影方法を提供できる。さらに、撮影予定位置を定め、撮影者を現在位置から次回撮影予定位置へガイドすることにより、撮影を計画的に実行できる。   According to the present embodiment, it is possible to provide a three-dimensional measurement image photographing method capable of grasping the progress of photographing and efficiently performing photographing without excess or deficiency. Furthermore, it is possible to plan the shooting by determining the planned shooting position and guiding the photographer from the current position to the next scheduled shooting position.

実施例6では、撮影予定位置の座標を予め入力しておき、撮影予定位置で順次撮影を行なうと共に、撮影者を次回撮影予定位置へガイドする例を説明したが、実施例7ではさらにライブ画像と見本画像を表示して、ガイドする例を説明する。   In the sixth embodiment, the coordinates of the scheduled shooting position are input in advance, and shooting is sequentially performed at the scheduled shooting position, and the photographer is guided to the next scheduled shooting position. In the seventh embodiment, a live image is further described. An example in which a sample image is displayed and guided will be described.

図40に実施例7に係る三次元計測用画像撮影装置の構成例をブロック図で示す。実施例6の構成(図28参照)に比して、記憶部5にライブ画像記憶部58が追加されている。撮影部3は、例えばビデオカメラやデジタルカメラで構成され、シャッター操作などにより静止画像である撮影画像を撮影して取得する。また、撮影者が移動しながらビデオカメラ又はデジタルカメラで撮影されたライブ画像は常時記憶部5のテンポラリメモリに上書きされて、表示部4に転送される。表示部4は、例えば、液晶ディスプレイ等のディスプレイやファインダーにライブ画像を表示する。また、撮影者が現在位置を知りたい場合には、シャッター操作により現在位置で測定対象物2を撮影してライブ画像を取得し、撮影位置の三次元位置測定やガイド情報処理に使用する。したがって、ライブ画像記憶部58はテンポラリメモリと現在位置のライブ画像を記憶するメモリを有する。現在位置のライブ画像を記憶するメモリには所定期間(一時的に)ライブ画像が保存される。所定期間は例えば次回撮影予定位置へのガイド情報が表示されるのに充分な時間であれば良い。なお、現在位置のライブ画像を記憶するメモリに保存されるライブ画像は単数でも複数でも良い。シャッター操作により取得する撮影画像とライブ画像の区別は、例えば撮影者が図示しない入力キーから、撮影画像の場合は1を、ライブ画像の場合は2を入力して行なう。また、記憶部5は、見本画像記憶部56に、撮影予定位置と略同じ相対的位置関係で予め撮影された模擬対象物の見本画像等を記憶する。同じ相対的位置関係とは、撮影部3と測定対象物2との方向及び距離が、見本画像を撮影した撮影装置と模擬対象物との方向及び距離と等しいことを意味する。また、各見本画像は撮影予定位置と対応付けて記憶される。表示部4は、少なくとも、撮影部3の現在位置でのライブ画像と次回撮影予定位置で撮影された模擬対象物の見本画像とを同一画面内に表示する。両画像を左右に又は上下に並べて表示するのが比較し易いので好適であるが、同一画面内に表示されれば比較できるのでそれでも良い。また、表示部4は音声ガイドをする場合にはスピーカを有する。   FIG. 40 is a block diagram illustrating a configuration example of the three-dimensional measurement image capturing apparatus according to the seventh embodiment. Compared to the configuration of the sixth embodiment (see FIG. 28), a live image storage unit 58 is added to the storage unit 5. The photographing unit 3 is configured by, for example, a video camera or a digital camera, and captures and acquires a photographed image that is a still image by a shutter operation or the like. In addition, live images taken by the video camera or digital camera while the photographer moves are always overwritten in the temporary memory of the storage unit 5 and transferred to the display unit 4. The display unit 4 displays a live image on a display such as a liquid crystal display or a viewfinder, for example. When the photographer wants to know the current position, a live image is obtained by photographing the measurement object 2 at the current position by a shutter operation, and is used for three-dimensional position measurement of the photographing position and guide information processing. Therefore, the live image storage unit 58 has a temporary memory and a memory for storing a live image at the current position. The live image is stored for a predetermined period (temporarily) in the memory that stores the live image at the current position. For example, the predetermined period may be a time sufficient to display guide information for the next scheduled shooting position. The live image stored in the memory for storing the live image at the current position may be single or plural. The photographed image acquired by the shutter operation is distinguished from the live image by inputting, for example, 1 for a photographed image and 2 for a live image from an input key (not shown) by the photographer. In addition, the storage unit 5 stores, in the sample image storage unit 56, a sample image of a simulated object that has been captured in advance with the same relative positional relationship as the planned shooting position. The same relative positional relationship means that the direction and the distance between the photographing unit 3 and the measurement object 2 are equal to the direction and the distance between the photographing apparatus that photographed the sample image and the simulated object. Each sample image is stored in association with the scheduled shooting position. The display unit 4 displays at least a live image at the current position of the photographing unit 3 and a sample image of the simulated object photographed at the next photographing scheduled position on the same screen. It is preferable to display both images side by side or side by side because they are easy to compare. However, if they are displayed on the same screen, they can be compared. In addition, the display unit 4 has a speaker when performing voice guidance.

図41〜図43に、ライブ画像と見本画像の表示例を示す。左側にライブ画像11を右側に見本画像12を並べて表示する。模擬対象物の見本画像12とは、撮影対象物2が例えば自動車である場合には、他の自動車について(形状が似ているほど好ましい)撮影予定位置と略同じ相対的位置関係(方向、距離)で既に撮影された自動車の撮影画像(静止画像)から選択された画像をいう。表示部4は、記憶部5の見本画像記憶部58に記憶された見本画像のうち次回撮影予定位置に対応付けられた画像から選んで表示する。また、撮影対象物と撮影予定位置との位置関係を二次元的に表す撮影位置画像13を表示する。撮影位置画像13には、撮影対象物2の設置領域14が表示され、撮影予定位置には番号が付され(○内に1〜8の番号を付して示す)、各撮影予定位置(○内に1〜○内に8)から撮影対象物2を観察・撮影する方向が矢印で表されている。撮影者は撮影予定位置に付された番号順に撮影予定位置へ移動して、順次、撮影対象物2を撮影すれば良い。シャッター操作により撮影が行なわれ、撮影者が入力キーから1を入力すると撮影画像が取得され、ガイド情報部9が次回撮影予定位置を選択し、見本画像12は次の次回撮影予定位置の画像に変化する。また、移動中に現在位置を知るため、ライブ画像を取得する際には、撮影者が入力キーから2を入力する。   41 to 43 show display examples of live images and sample images. The live image 11 is displayed on the left side and the sample image 12 is displayed on the right side. The sample image 12 of the simulated object is, for example, when the object to be imaged 2 is an automobile, the relative positional relationship (direction and distance) that is substantially the same as the planned imaging position for other automobiles (the more similar the shape is). ) Refers to an image selected from a photographed image (still image) of a car that has already been photographed. The display unit 4 selects and displays the sample images stored in the sample image storage unit 58 of the storage unit 5 from the images associated with the next shooting scheduled position. In addition, a shooting position image 13 that two-dimensionally represents the positional relationship between the shooting target and the planned shooting position is displayed. In the shooting position image 13, the installation area 14 of the shooting object 2 is displayed, the shooting scheduled positions are numbered (indicated by the numbers 1 to 8 in the circles), and the respective shooting planned positions (◯ The direction in which the object 2 is observed and photographed from 1) to 1) is indicated by arrows. The photographer may move to the scheduled shooting position in the order of the numbers assigned to the scheduled shooting position and sequentially shoot the shooting target object 2. Shooting is performed by the shutter operation, and when the photographer inputs 1 from the input key, a captured image is acquired, the guide information unit 9 selects the next scheduled shooting position, and the sample image 12 is an image of the next scheduled shooting position. Change. In order to know the current position during movement, the photographer inputs 2 from the input key when acquiring a live image.

図41の表示画面は撮影部3が撮影予定位置(○内に2)にある場合を示している。ライブ画像11及び見本画像12には右前方から撮影された自動車が表示され、自動車の方向が略一致している。撮影位置画像13には次回撮影予定位置(○内に2)が例えば赤色で表示され、他の撮影予定位置(○内に1,3〜8)が例えば黒色で表示されている。   The display screen in FIG. 41 shows a case where the photographing unit 3 is at the planned photographing position (2 within a circle). In the live image 11 and the sample image 12, a car photographed from the right front is displayed, and the directions of the cars are substantially the same. In the shooting position image 13, the next scheduled shooting position (2 in circles) is displayed in red, for example, and the other scheduled shooting positions (1, 3 to 8 in circles) are displayed in black, for example.

図42の表示画面は撮影部3が撮影予定位置(○内に1)と撮影予定位置(○内に8)の中間にある場合を示している。例えば撮影者が撮影予定位置(○内に1〜7)での撮影を終えて撮影予定位置(○内に8)に移動する時に行き過ぎた場合である。ライブ画像11には前方やや左方から撮影された自動車が表示され、見本画像12には左前方から撮影された自動車が表示され、撮影位置画像13には次回撮影予定位置(○内に8)が例えば赤色で表示され、他の撮影予定位置(○内に1〜7)が例えば黒色で表示されている。また、ライブ画像11には、「右に移動してください」との文字表示がされ、また、右方向への矢印が表示され、撮影者に次回撮影予定位置である撮影予定位置(○内に8)の方向に移動するようにガイド情報を報知している。また、撮影位置画像13の撮影予定位置(○内に1)と撮影予定位置(○内に8)との間に撮影予定位置(○内に8)に向かう矢印が表示され、撮影者に撮影予定位置(○内に8)の方向に移動するようにガイド情報を報知している。なお、ガイド情報は、上記文字表示と2つの矢印表示のいずれか1つを表示するものでも良く、音声で「右に移動してください」とアナウンスしても良い。撮影者がこのガイド情報に従って自動車8に対して右回りに移動すれば、次回撮影予定位置(○内に8)に到達できる。   The display screen of FIG. 42 shows a case where the photographing unit 3 is in the middle of the planned photographing position (1 in ○) and the planned photographing position (8 in ○). For example, it is a case where the photographer has overtaken when moving to the scheduled shooting position (8 in the circle) after shooting at the planned shooting position (1 to 7 in the circle). The live image 11 shows a car taken from the front and slightly left, the sample image 12 shows the car taken from the front left, and the shooting position image 13 shows the next shooting position (8 in circle). Is displayed in red, for example, and other scheduled shooting positions (1 to 7 in a circle) are displayed in black, for example. In addition, the live image 11 is displayed with a text “Please move to the right” and an arrow in the right direction is displayed. The guide information is notified so as to move in the direction of 8). In addition, an arrow directed to the planned shooting position (8 in ○) is displayed between the planned shooting position (1 in ○) and the planned shooting position (8 in ○) of the shooting position image 13, and the photographer takes a picture. The guide information is notified so as to move in the direction of the planned position (8 in the circle). Note that the guide information may display either one of the character display and the two arrow displays, and may announce “Please move to the right” by voice. If the photographer moves clockwise with respect to the car 8 in accordance with this guide information, the next scheduled shooting position (8 in ○) can be reached.

図43は次回撮影予定位置(○内に8)に到達した場合を示している。ライブ画像11と見本画像12における自動車の方向が略一致するので、次回撮影予定位置(○内に8)に到達したことがわかる。なお、図44には、ライブ画像11又は撮影位置画像13に「OK」と到達したことを示す文字表示がされている。ガイド情報は、上記2つのOK表示のいずれか1つを表示するものでも良く、音声で「OK」とアナウンスしても良い。撮影画像が取得されると、ガイド情報部9が次回撮影予定位置を選択し、見本画像12は次の次回撮影予定位置に対応付けられた画像に変化する。全ての撮影予定位置(○内に1〜8)での撮影が行なわれれば、次回撮影予定位置に対応付けられた画像はなくなるので見本画像12は空白になる。この場合、見本画像12に「撮影完了」と文字表示をしても良く、音声で「撮影完了」とアナウンスしても良い。   FIG. 43 shows the case where the next shooting scheduled position (8 in circle) is reached. Since the direction of the car in the live image 11 and the sample image 12 substantially coincides with each other, it can be seen that the next shooting scheduled position (8 in ○) has been reached. In FIG. 44, a character display indicating that “OK” has been reached in the live image 11 or the shooting position image 13 is displayed. The guide information may display one of the two OK displays, or may announce “OK” by voice. When the captured image is acquired, the guide information unit 9 selects the next scheduled shooting position, and the sample image 12 changes to an image associated with the next scheduled shooting position. If shooting is performed at all scheduled shooting positions (1 to 8 in a circle), the image associated with the next scheduled shooting position disappears and the sample image 12 becomes blank. In this case, the sample image 12 may be displayed with a letter “shooting complete” or may be announced with a voice “shooting complete”.

移動情報演算部91は、三次元位置演算部73で求められた撮影位置(撮影部3の現在位置)の三次元座標と撮影予定位置記憶部57に記憶された撮影予定位置から、撮影予定位置に対する撮影位置の方向と距離を求める。なお、移動情報演算部91は、撮影部3すなわち撮影者の現在位置でのライブ画像11と見本画像12とを比較して、次回撮影予定位置に対する撮影部3の移動方向を算出し、移動情報報知部93は移動情報演算部91が算出した移動方向を表示部4に表示させても良い。例えば、データベースに多くの見本画像12を撮影予定位置(○内に1〜8)と対応付けて蓄積し、これらの見本画像のパターンからライブ画像11に比較的似たパターンを抽出してライブ画像11と比較する。例えば、撮影予定位置(○内に1)と撮影予定位置(○内に2)の両方のパターンに似ている場合には、撮影部3は撮影予定位置(○内に1)と撮影予定位置(○内に2)の中間に在ると判定し、その中で、撮影予定位置(○内に1)の見本画像により似ていれば、撮影予定位置(○内に1)により近い方にあり、撮影予定位置(○内に2)の見本画像により似ていれば、撮影予定位置(○内に2)により近い方にあると判定する。ライブ画像11のパターンと見本画像12のパターンの類似性は、例えばライブ画像11と見本画像12から特徴点を抽出し、対応する特徴点の画像間での距離を統計的に処理して求めても良い。また、撮影予定位置(○内に1〜8)以外の位置に対応付けられる見本画像(例えば撮影予定位置の中間と略同じ相対的位置関係で撮影された見本画像、斜め上方から撮影された見本画像等)も比較の対象として用いても良い。   The movement information calculation unit 91 calculates the planned shooting position from the three-dimensional coordinates of the shooting position (current position of the shooting unit 3) obtained by the three-dimensional position calculation unit 73 and the planned shooting position stored in the planned shooting position storage unit 57. The direction and distance of the shooting position with respect to is obtained. The movement information calculation unit 91 compares the live image 11 and the sample image 12 at the current position of the photographing unit 3, that is, the photographer, calculates the moving direction of the photographing unit 3 with respect to the next scheduled photographing position, and moves information The notification unit 93 may display the movement direction calculated by the movement information calculation unit 91 on the display unit 4. For example, a large number of sample images 12 are stored in the database in association with the planned shooting positions (1 to 8 in the circles), and a pattern relatively similar to the live image 11 is extracted from the patterns of these sample images, and the live image is extracted. Compare with 11. For example, if the pattern is similar to both the planned shooting position (1 in ○) and the planned shooting position (2 in ○), the imaging unit 3 determines the planned shooting position (1 in ○) and the planned shooting position. If it is determined that it is in the middle of (2 in ○) and it is more similar to the sample image at the planned shooting position (1 in ○), it is closer to the planned shooting position (1 in ○). If it is more similar to the sample image at the scheduled shooting position (2 in the circle), it is determined that it is closer to the planned shooting position (2 in the circle). The similarity between the pattern of the live image 11 and the pattern of the sample image 12 is obtained by, for example, extracting feature points from the live image 11 and the sample image 12 and statistically processing the distance between the corresponding feature points. Also good. In addition, sample images associated with positions other than the planned shooting positions (1 to 8 in the circle) (for example, sample images shot with the same relative positional relationship as the middle of the planned shooting positions, samples shot from diagonally above) Image etc.) may also be used as a comparison target.

撮影予定位置に対する撮影部3の相対的位置(方向、距離)は、撮影画像内の測定対象物の方向と寸法から判定される。例えば、画像記憶部6に多数の方向、距離から撮影された見本画像を、方向、距離と対応付けて蓄積しておき、取得したライブ画像11をこれらの見本画像と比較し、類似性の高い画像を抽出して、撮影予定位置に対する撮影部3の相対的位置を判定する。取得されたライブ画像に自動車が大きく写っているときは撮影部3は自動車の近くにあり、自動車が小さく写っているときは撮影部3は自動車の遠くにあると判定される。また、ライブ画像11を、撮影予定位置(○内に1)の方向から取得した場合は自動車の前方、撮影予定位置(○内に2)の方向から取得した場合は自動車の右前方、撮影予定位置(○内に3)の方向から取得した場合は自動車の右方、撮影予定位置(○内に4)の方向から取得した場合は自動車の右後方、撮影予定位置(○内に5)の方向から取得した場合は自動車の後方、撮影予定位置(○内に6)の方向から取得した場合は自動車の左後方、撮影予定位置(○内に7)の方向から取得した場合は自動車の左方、撮影予定位置(○内に8)の方向から取得した場合は自動車の左前方と判定される。また、これらの中間位置、例えば、撮影予定位置(○内に1)と撮影予定位置(○内に2)の中間から取得した場合は自動車の前方やや右側にあると判定される。   The relative position (direction, distance) of the photographing unit 3 with respect to the planned photographing position is determined from the direction and size of the measurement object in the photographed image. For example, sample images taken from a number of directions and distances are stored in the image storage unit 6 in association with directions and distances, and the obtained live image 11 is compared with these sample images and has high similarity. The image is extracted, and the relative position of the photographing unit 3 with respect to the planned photographing position is determined. When the car is reflected in the acquired live image, the photographing unit 3 is near the car. When the car is small, it is determined that the photographing part 3 is far from the car. Further, when the live image 11 is acquired from the direction of the planned shooting position (1 in circle), it is the front of the car, and when it is acquired from the direction of the planned shooting position (2 in circle), the right side of the car is scheduled to be shot. If acquired from the direction of the position (3 within ○), the right side of the car, if acquired from the direction of the planned shooting position (4 within ○), the right rear of the car, the planned shooting position (5 within ○) When acquired from the direction of the rear of the car if acquired from the direction, from the direction of the left side of the car when acquired from the direction of the planned shooting position (6 in circle), to the left of the car if acquired from the direction of the planned position of shooting (7 within ○) On the other hand, when it is acquired from the direction of the planned shooting position (8 in ○), it is determined as the left front of the automobile. In addition, when it is acquired from these intermediate positions, for example, between the planned shooting position (1 in ◯) and the planned shooting position (2 in ◯), it is determined to be slightly in front of the automobile.

移動情報報知部93は、撮影部3の現在位置から次回撮影予定位置へ撮影者が移動するようにガイド情報を作成し、表示部4に報知させる。移動情報報知部93は移動情報演算部91による次回撮影予定位置に対する撮影部3の相対的位置を判定に基づいてガイド情報を報知する。例えば、撮影部3が撮影予定位置(○内に1)や撮影予定位置(○内に2)にある場合には、ガイド情報を作成しなくても良く、「OK」と作成しても良い。また、例えば、撮影予定位置(○内に1)と撮影予定位置(○内に8)の中間にあり、次回撮影予定位置が撮影予定位置(○内に8)の場合には、「右に移動してください」とのガイド情報を作成し、表示部4であるディスプレイに文字表示させたり、スピーカにアナウンスさせる。また、例えば、撮影予定位置(○内に1)と撮影予定位置(○内に2)の中間にあり、次回撮影予定位置が撮影予定位置(○内に2)の場合には、「左に移動してください」とのガイド情報を作成し、表示部4であるディスプレイに文字表示させたり、スピーカにアナウンスさせる。また、ガイド情報は方向及び距離をガイドするものでも良いが、距離に係るガイドは方向でも表現できるので、方向のみをガイドするものでも良い。さらに、測定対象物2を周囲から撮影する等、測定対象物2と各撮影予定位置(○内に1〜8)との距離が予め決められている(例えば5m)場合、遠方からの撮影で距離の影響が無視できる場合には、「右へ」、「左へ」等横方向へのガイドでも良い。   The movement information notification unit 93 creates guide information so that the photographer moves from the current position of the photographing unit 3 to the next scheduled photographing position, and causes the display unit 4 to notify the user. The movement information notification unit 93 notifies the guide information based on the determination of the relative position of the imaging unit 3 with respect to the next imaging scheduled position by the movement information calculation unit 91. For example, when the photographing unit 3 is at the planned photographing position (1 in ○) or the planned photographing position (2 in ○), the guide information need not be created, and “OK” may be created. . Also, for example, when the planned shooting position (1 in ○) and the planned shooting position (8 in ○) are in the middle, and the next shooting planned position is the planned shooting position (8 in ○), “to the right “Please move” guide information is created and displayed on the display, which is the display unit 4, or announced on the speaker. Also, for example, when the planned shooting position (1 in circle) and the planned shooting position (2 in circle) are in the middle, and the next shooting scheduled position is the planned shooting position (2 in circle), “to the left “Please move” guide information is created and displayed on the display, which is the display unit 4, or announced on the speaker. Further, the guide information may be information that guides the direction and the distance, but the guide related to the distance can also be expressed by the direction, so that only the direction may be guided. Further, when the distance between the measurement object 2 and each scheduled shooting position (1 to 8 in the circle) is predetermined (for example, 5 m), such as when the measurement object 2 is photographed from the surroundings, photographing from a distant place is possible. When the influence of the distance can be ignored, a lateral guide such as “to the right” or “to the left” may be used.

図44に、本実施例における画像撮影の処理フロー例を示す。実施例6の処理フロー(図29参照)に比して、撮影予定位置入力工程(S400)と撮影工程(S410)の間にライブ画像表示工程(S405)が挿入されている。すなわち、ライブ画像を表示部4に表示する。その際に、表示部4にライブ画像と共に最初の次回撮影予定位置に対応付けられた見本画像を表示する。撮影者が、ライブ画像11と見本画像12を比較しながら、最初の次回撮影予定位置に到達したと判断すると、シャッター操作により撮影画像を取得する(S410)。撮影工程(S410)〜三次元座標算出工程(S440)は実施例6と同様である。移動方向算出工程(S450)では、移動情報演算部91にて、三次元位置演算部73で求められた撮影位置(ライブ画像から取得された撮影者の現在位置)の三次元座標と撮影予定位置記憶部57に記憶された撮影予定位置から、撮影予定位置に対する撮影位置の方向と距離を求める。移動ガイド表示工程(S460)では、撮影者にガイドする情報を作成し、表示部4に表示させる。まず、次回撮影予定位置選択部92にて、求められた撮影位置の位置座標に基づいて、複数の撮影予定位置の中から次回撮影予定位置を選択し、次に、移動情報報知部93にて、撮影位置と次回撮影予定位置の位置情報から、撮影者を撮影位置から次回撮影予定位置へガイドするガイド情報を作成し、表示部4のライブ画像及び見本画像を含む画面にガイド情報が表示される。   FIG. 44 shows an example of a processing flow of image shooting in the present embodiment. Compared with the processing flow of the sixth embodiment (see FIG. 29), a live image display step (S405) is inserted between the scheduled shooting position input step (S400) and the shooting step (S410). That is, the live image is displayed on the display unit 4. At that time, a sample image associated with the first scheduled shooting position is displayed together with the live image on the display unit 4. If the photographer determines that the first next scheduled shooting position has been reached while comparing the live image 11 and the sample image 12, the photographed image is acquired by a shutter operation (S410). The photographing step (S410) to the three-dimensional coordinate calculation step (S440) are the same as in the sixth embodiment. In the movement direction calculation step (S450), the movement information calculation unit 91 uses the three-dimensional coordinates of the shooting position (the photographer's current position acquired from the live image) obtained by the three-dimensional position calculation unit 73 and the planned shooting position. From the planned shooting position stored in the storage unit 57, the direction and distance of the shooting position with respect to the planned shooting position are obtained. In the movement guide display step (S460), information for guiding the photographer is created and displayed on the display unit 4. First, the next shooting scheduled position selection unit 92 selects the next shooting scheduled position from a plurality of shooting scheduled positions based on the obtained position coordinates of the shooting position, and then the movement information notification unit 93 Guide information for guiding the photographer from the shooting position to the next shooting scheduled position is created from the position information of the shooting position and the next shooting scheduled position, and the guide information is displayed on the screen including the live image and the sample image on the display unit 4. The

移動ガイド表示工程(S460)の次に撮影回数判定工程(S470)に進む。撮影回数判定工程(S470)以後の工程は、撮影回数判定工程(S470)からの戻り先が撮影工程(S410)の代わりにライブ画像表示工程(S405)である点を除いて実施例6と同様である。   After the movement guide display step (S460), the process proceeds to the photographing number determination step (S470). The steps after the shooting number determination step (S470) are the same as those in the sixth embodiment except that the return destination from the shooting number determination step (S470) is the live image display step (S405) instead of the shooting step (S410). It is.

本実施例によれば、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影方法を提供できる。さらに、ライブ画像を用いて、撮影者を現在位置から次回撮影予定位置へ的確にガイドできる。   According to the present embodiment, it is possible to provide a three-dimensional measurement image photographing method capable of grasping the progress of photographing and efficiently performing photographing without excess or deficiency. Furthermore, it is possible to accurately guide the photographer from the current position to the next scheduled shooting position using the live image.

実施例8では、三次元計測用画像撮影装置が複数のユニットに分離でき、各ユニット間で有線又は無線により通信可能に構成される例を説明する。
例えば、第1ユニットは撮影部3及び表示部4を有し、第2ユニットはPC15、入力部4A,記憶部5を有するものとする。第1ユニットは第2ユニットから独立して移動可能に構成される。第1ユニットは携帯可能であり、撮影者は第1ユニットを携帯して、移動しながら撮影を行なうことができ、負担が小さく敏速に行動できる。第2ユニットはPC15内に三次元位置測定部7及び画像処理部8(撮影範囲画像形成部85を含む)を有し、演算処理、画像処理が可能である。PC15をオフィス等に設置することにより、高性能・高速処理のコンピュータ処理に適する。前記第1ユニットと前記第2ユニットとは、有線又は無線により通信可能に構成され、通信を介してデータやコマンドを送受信して、画像撮影処理ができる。その他の構成及び処理フローは以上の実施例と同様である。
In the eighth embodiment, an example will be described in which the three-dimensional measurement image capturing apparatus can be separated into a plurality of units and can communicate with each other by wire or wirelessly.
For example, the first unit includes the photographing unit 3 and the display unit 4, and the second unit includes the PC 15, the input unit 4A, and the storage unit 5. The first unit is configured to be movable independently of the second unit. The first unit is portable, and the photographer can carry the first unit and take a picture while moving, and can act quickly with little burden. The second unit includes a three-dimensional position measurement unit 7 and an image processing unit 8 (including a shooting range image forming unit 85) in the PC 15, and can perform arithmetic processing and image processing. By installing the PC 15 in an office or the like, it is suitable for high-performance and high-speed computer processing. The first unit and the second unit are configured to be communicable by wire or wirelessly, and can perform image photographing processing by transmitting and receiving data and commands via communication. Other configurations and processing flow are the same as those in the above-described embodiment.

また、本発明は、以上の実施の形態のフローチャート等に記載の三次元計測用画像撮影方法の発明、当該方法の発明を三次元計測用画像撮影装置に実行させるためのプログラムとしても実現可能である。プログラムは三次元計測用画像撮影装置の内蔵記憶部に蓄積して使用してもよく、外付けの記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。   The present invention can also be realized as an invention of a three-dimensional measurement image photographing method described in the flowcharts of the above-described embodiments, and as a program for causing a three-dimensional measurement image photographing apparatus to execute the method invention. is there. The program may be stored and used in a built-in storage unit of the three-dimensional measurement image capturing apparatus, may be stored and used in an external storage device, or may be downloaded from the Internet and used. Moreover, it is realizable also as a recording medium which recorded the said program.

以上説明したように、本発明によれば、単カメラを用いて移動しながら撮影を行う場合に、撮影の進捗状況を把握でき、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。   As described above, according to the present invention, when taking a picture while moving using a single camera, it is possible to grasp the progress of the picture taking, and to perform the picture taking for efficient and efficient photography. Equipment can be provided.

以上、本発明の実施の形態について説明したが、本発明は上記の実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施例に種々変更を加えられることは明白である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it is obvious that various modifications can be made to the embodiments without departing from the spirit of the present invention. .

例えば、以上の実施例では、撮影範囲画像の形成を撮影毎に又は所定枚数撮影毎に行なう、撮影範囲画像の形成を撮影領域に区画して行う又は撮影画像の特徴点を座標変換して行う、撮影領域に区画して行う場合に撮影領域を色分け表示する又は撮影画像を貼付けて表示する等の例を説明したが、これらの選択肢を自由に選択可能である。また、特徴点として自他識別可能な識別コードを有するマークを使用する、撮影予定位置を定めガイドを行なう、撮影予定位置を定める場合にライブ画像を利用する等の選択肢も自由に選択可能である。また、撮影不足領域の判定について、撮影領域の撮影回数を用いる、撮影予定位置数を用いる、模擬対象物に係る撮影範囲画像を用いる例を説明したが、これらのいずれを用いても良く、2以上を用い補完するようにしても良い。また、撮影領域の大きさはそれを囲むマークの組み合わせを変えることで自由に変更可能である。例えば、撮影回数を3回に統一したい場合には、撮影画像全体の約1/3になるように選択し、撮影画像が約1/3ずつ変化するように移動しながら撮影する等である。また、任意の撮影位置で一歩ずらした一対の位置で撮影するようにすれば常にステレオ画像に近い画像を得ることができ、標定や三次元計測に利用し易い。また、撮影範囲画像はテクスチャ画像、ワイヤフレーム画像の他に、鳥瞰図などで表現しても良い。また、三次元座標空間として、透視図を使用する例を説明したが、投影図を用いても良い。また、以上の実施例では、撮影不足領域の有無の判断を撮影不足領域判定部86にて自動的に行う例を説明したが、撮影者が行なっても良い。その他、撮影の所定枚数、使用する特徴点数やマーク数、撮影予定位置数等は適宜変更可能である。   For example, in the above-described embodiments, the shooting range image is formed for each shooting or for each predetermined number of shots, the shooting range image is formed by dividing the shooting range image, or the feature points of the shot image are converted into coordinates. In the case of dividing into shooting areas, the example of displaying the shooting areas in different colors or displaying the shot images by pasting them has been described. However, these options can be freely selected. Also, it is possible to freely select options such as using a mark having an identification code that can identify each other as a feature point, determining a planned shooting position, performing a guide, and using a live image when determining a planned shooting position. . In addition, the example of using the imaging range image related to the simulation target object using the imaging frequency of the imaging area, using the scheduled imaging position number, or the imaging range image for the imaging insufficient area has been described. You may make it complement using the above. In addition, the size of the shooting area can be freely changed by changing the combination of marks surrounding it. For example, when it is desired to unify the number of times of photographing to three, the photographed image is selected so as to be about 1/3 of the whole photographed image, and the photographed image is photographed while moving so as to change by about 1/3. Further, if shooting is performed at a pair of positions shifted by one step at an arbitrary shooting position, an image close to a stereo image can always be obtained, and it is easy to use for orientation and three-dimensional measurement. In addition to the texture image and the wire frame image, the shooting range image may be represented by a bird's eye view or the like. Moreover, although the example which uses a perspective view as 3D coordinate space was demonstrated, you may use a projection view. In the above embodiment, an example in which the determination of the presence / absence of an undershooting area is automatically performed by the undershooting area determination unit 86 has been described. In addition, the predetermined number of shots, the number of feature points and marks used, the number of planned shooting positions, and the like can be changed as appropriate.

本発明は、撮影の進捗状況を把握しながら撮影を進める三次元計測等に利用できる。   The present invention can be used for three-dimensional measurement or the like that advances photographing while grasping the progress of photographing.

1,1A〜1E 三次元計測用画像撮影装置
2 測定対象物
3 撮影部
4 表示部
4A 入力部
5 記憶部
6 特徴抽出部
7 三次元位置測定部
8 画像処理部
9 ガイド情報処理部
10 制御部
11 ライブ画像
12 見本画像
13 撮影位置画像
14 撮影対象物の設置領域
15 パーソナルコンピュータ(PC)
31 撮影回数判定部
41 撮影予定位置入力部
51 撮影画像記憶部
52 特徴点撮影回数記憶部
53 領域撮影回数記憶部
54 撮影領域画像記憶部
55 特徴点位置関係記憶部
56 見本画像記憶部
57 撮影予定位置記憶部
58 ライブ画像記憶部
61 特徴点抽出部
62 マーク抽出部
63 コード識別部
71 対応点探索部
72 標定部
73 三次元位置演算部
81 撮影領域区分部
82 特徴点撮影回数計数部
83 領域撮影回数計数部
84 測定対象物境界抽出部
85 撮影範囲画像形成部
86 撮影不足領域判定部
87 撮影不足情報報知部
88 画像座標変換部
91 移動情報演算部
92 次回撮影予定位置選択部
93 移動情報報知部
200 レトロターゲット
204 内円部
206 外円部
A1〜A8,A10〜A13 カラーコードターゲット
CT カラーコードターゲット
P1 レトロターゲット部
P2 基準色部
P3 カラーコード部
P4 白色部
Q1〜Q5 撮影領域
T1〜T8,T10,T11 レトロターゲット
To 閾値

1, 1A to 1E 3D measurement image capturing device 2 Measurement object 3 Imaging unit 4 Display unit 4A Input unit 5 Storage unit 6 Feature extraction unit 7 3D position measurement unit 8 Image processing unit 9 Guide information processing unit 10 Control unit 11 Live Image 12 Sample Image 13 Shooting Position Image 14 Shooting Object Installation Area 15 Personal Computer (PC)
31 Shooting Count Determination Unit 41 Scheduled Shooting Position Input Unit 51 Shooting Image Storage Unit 52 Feature Point Shooting Count Storage Unit 53 Area Shooting Count Storage Unit 54 Shooting Area Image Storage Unit 55 Feature Point Position Relationship Storage Unit 56 Sample Image Storage Unit 57 Scheduled Shooting Position storage unit 58 Live image storage unit 61 Feature point extraction unit 62 Mark extraction unit 63 Code identification unit 71 Corresponding point search unit 72 Orientation unit 73 Three-dimensional position calculation unit 81 Shooting region segmentation unit 82 Feature point shooting number counting unit 83 Region shooting Number counting unit 84 Measuring object boundary extracting unit 85 Shooting range image forming unit 86 Shooting insufficient region determining unit 87 Shooting insufficient information notifying unit 88 Image coordinate converting unit 91 Moving information calculating unit 92 Next shooting scheduled position selecting unit 93 Moving information notifying unit 200 Retro target 204 Inner circle part 206 Outer circle part A1-A8, A10-A13 Color code target CT Color code De target P1 retro-target section P2 reference color section P3 color code section P4 white portion Q1~Q5 imaging area T1 to T8, T10, T11 retro-targets To threshold

Claims (15)

測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において;
撮影者が複数の撮影位置から前記測定対象物を撮影して撮影画像を取得する撮影部と;
前記撮影部で取得された撮影画像における前記測定対象物の特徴点を抽出する特徴点抽出部と;
前記撮影画像の測定対象物の領域を前記特徴点抽出部で抽出された3以上の特徴点で囲まれた領域(当該特徴点を含む)からなる撮影領域に区分する撮影領域区分部と;
前記特徴点抽出部で抽出された特徴点の複数の撮影画像における画面位置から、前記特徴点の三次元座標を求める三次元位置測定部と;
前記測定対象物の撮影範囲を三次元空間に表現する撮影範囲画像の座標空間に前記三次元位置測定部で三次元座標が求められた各特徴点を書き込み、前記撮影範囲画像の座標空間に書き込まれた特徴点のうち、前記撮影領域を囲む3以上の特徴点を結線して前記撮影領域毎に区画し、前記撮影範囲画像をワイヤフレーム画像として形成する撮影範囲画像形成部と;
前記撮影範囲画像に撮影不足領域が有るか否かを判定する撮影不足領域判定部と;
前記撮影範囲画像形成部で形成された撮影範囲画像を表示する表示部とを備える;
三次元計測用画像撮影装置。
In a three-dimensional measurement image capturing apparatus that sequentially captures an object to be measured while overlapping with a single camera;
A photographing unit in which a photographer photographs the measurement object from a plurality of photographing positions to obtain a photographed image;
A feature point extraction unit for extracting feature points of the measurement object in the captured image acquired by the imaging unit;
An imaging region classifying unit that classifies an area of the measurement object of the captured image into an imaging region composed of an area (including the feature point) surrounded by three or more feature points extracted by the feature point extraction unit;
A three-dimensional position measurement unit for obtaining three-dimensional coordinates of the feature points from screen positions in a plurality of captured images of the feature points extracted by the feature point extraction unit;
Each feature point for which the three-dimensional coordinate is obtained by the three-dimensional position measurement unit is written in the coordinate space of the photographing range image that represents the photographing range of the measurement object in the three-dimensional space, and is written in the coordinate space of the photographing range image. A shooting range image forming unit that connects three or more feature points surrounding the shooting region among the feature points thus obtained, and divides the shooting point image for each shooting region, and forms the shooting range image as a wire frame image;
An undershooting area determination unit that determines whether or not there is an undershooting area in the shooting range image;
A display unit for displaying a shooting range image formed by the shooting range image forming unit;
An image capturing device for three-dimensional measurement.
前記撮影画像を前記撮影領域に区分して記憶する撮影領域画像記憶部を備え;
前記撮影範囲画像形成部は、前記撮影範囲画像に区画された撮影領域に、前記撮影領域画像記憶部に記憶された各撮影領域の画像を、前記撮影領域を囲む3以上の特徴点の位置が合致するように当てはめて、撮影範囲画像をテクスチュア画像として形成する;
請求項1に記載の三次元計測用画像撮影装置。
A shooting area image storage unit for storing the shot images by dividing them into the shooting areas;
The shooting range image forming unit includes, in a shooting region divided into the shooting range images, images of the shooting regions stored in the shooting region image storage unit, and positions of three or more feature points surrounding the shooting region. Fit to match and form the image area image as a texture image;
The three-dimensional measurement image capturing apparatus according to claim 1.
前記撮影部が新たな撮影画像を取得する都度、前記撮影範囲画像形成部は新たな撮影範囲画像を形成し、前記表示部は新たに形成された撮影範囲画像を表示する;
請求項1又は請求項2に記載の三次元計測用画像撮影装置。
Each time the imaging unit acquires a new captured image, the imaging range image forming unit forms a new imaging range image, and the display unit displays the newly formed imaging range image;
The image photographing device for three-dimensional measurement according to claim 1 or 2.
前記撮影部が新たな撮影画像を所定枚数取得した後に、前記撮影範囲画像形成部は新たな撮影範囲画像を形成し、前記表示部は新たに形成された撮影範囲画像を表示する;
請求項1又は請求項2に記載の三次元計測用画像撮影装置。
After the imaging unit acquires a predetermined number of new captured images, the imaging range image forming unit forms a new imaging range image, and the display unit displays the newly formed imaging range image;
The image photographing device for three-dimensional measurement according to claim 1 or 2.
各前記撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部を備え;
前記撮影不足領域判定部は、前記領域撮影回数計数部で計数された撮影回数に基づいて前記撮影範囲画像に撮影不足領域が有るか否かを判定する;
請求項1ないし請求項4のいずれか1項に記載の三次元計測用画像撮影装置。
An area photographing number counting unit for counting the number of photographing included in different photographed images for each of the photographing regions;
The undershooting area determination unit determines whether or not the shooting range image includes an undershooting area based on the number of shootings counted by the area shooting number counting unit;
The three-dimensional measurement image photographing device according to any one of claims 1 to 4.
前記三次元位置測定部は、抽出された特徴点の複数の撮影画像における画面位置から、前記撮影位置の三次元座標を求め;
予め定められた複数の撮影予定位置を記憶する撮影予定位置記憶部と;
前記三次元位置測定部で求められた撮影位置と前記撮影予定位置記憶部に記憶された複数の撮影予定位置とを比較して、前記複数の撮影予定位置から次回撮影予定位置を選択する次回撮影予定位置選択部と;
前記次回撮影予定位置に対する撮影位置の相対的位置を求める移動情報演算部と;
前記移動情報演算部で求められた相対位置に基づいて前記撮影位置から前記次回撮影予定位置へ撮影者が移動するようにガイド情報を作成し、前記表示部に報知させる移動情報報知部とを備える;
請求項1ないし請求項4のいずれか1項に記載の三次元計測用画像撮影装置。
The three-dimensional position measurement unit obtains three-dimensional coordinates of the photographing position from screen positions in a plurality of photographed images of the extracted feature points;
A planned shooting position storage unit that stores a plurality of predetermined shooting planned positions;
The next shooting for selecting the next shooting scheduled position from the plurality of shooting planned positions by comparing the shooting position obtained by the three-dimensional position measuring unit with a plurality of shooting scheduled positions stored in the shooting planned position storage unit. A planned position selection unit;
A movement information calculation unit for obtaining a relative position of the photographing position with respect to the next photographing scheduled position;
A movement information notifying unit for creating guide information so that a photographer moves from the shooting position to the next shooting scheduled position based on the relative position obtained by the movement information calculating unit, and for notifying the display unit of the guide information; ;
The three-dimensional measurement image photographing device according to any one of claims 1 to 4.
前記撮影部は、移動中の撮影者が現在位置で測定対象物を撮影することによりライブ画像を取得し;
前記三次元位置測定部は、前記ライブ画像が取得された場合は、前記現在位置の三次元座標を求め、前記次回撮影予定位置選択部は、前記三次元位置測定部で位置座標が求められた現在位置と前記撮影予定位置記憶部に記憶された複数の撮影予定位置とを比較して、前記複数の撮影予定位置から次回撮影予定位置を選択する;
請求項6に記載の三次元計測用画像撮影装置。
The photographing unit acquires a live image by photographing a measurement object at a current position by a moving photographer;
The three-dimensional position measurement unit obtains the three-dimensional coordinates of the current position when the live image is acquired, and the next photographing scheduled position selection unit obtains the position coordinates by the three-dimensional position measurement unit. Comparing the current position with a plurality of planned shooting positions stored in the planned shooting position storage unit, and selecting a planned next shooting position from the plurality of planned shooting positions;
The three-dimensional measurement image photographing device according to claim 6.
前記撮影予定位置記憶部は、前記三次元位置測定部で位置座標が求められた撮影位置を既撮影位置として記憶し;
前記次回撮影予定位置選択部は、前記複数の撮影予定位置から前記撮影予定位置記憶部に記憶された既撮影位置を除いて次回撮影予定位置を選択する;
請求項6又は請求項7に記載の三次元計測用画像撮影装置。
The scheduled shooting position storage unit stores the shooting position for which the position coordinates have been obtained by the three-dimensional position measurement unit as an already shot position;
The next scheduled shooting position selection unit selects a scheduled next shooting position from the plurality of scheduled shooting positions by excluding the existing shooting position stored in the planned shooting position storage unit;
The three-dimensional measurement image photographing device according to claim 6 or 7.
前記撮影不足領域判定部は、前記撮影予定位置記憶部において全ての前記撮影予定位置が前記既撮影位置として記憶された場合に撮影不足領域が無いと判定する;
請求項8に記載の三次元計測用画像撮影装置。
The undershooting area determination unit determines that there is no undershooting area when all the planned shooting positions are stored as the already-captured positions in the planned shooting position storage unit;
The three-dimensional measurement image capturing device according to claim 8.
前記測定対象物を模擬した模擬対象物に係る撮影範囲画像を記憶する見本画像記憶部を備え;
前記撮影不足領域判定部は、前記測定対象物に係る撮影範囲画像を前記模擬対象物に係る撮影範囲画像と比較することにより、撮影不足領域が有るか否かを判定する;
請求項1ないし請求項4のいずれか1項に記載の三次元計測用画像撮影装置。
A sample image storage unit for storing an imaging range image related to the simulation target that simulates the measurement target;
The undershooting area determination unit determines whether or not there is an undershooting area by comparing the shooting range image related to the measurement object with the shooting range image related to the simulated object;
The three-dimensional measurement image photographing device according to any one of claims 1 to 4.
前記撮影不足領域判定部の判定結果を前記表示部に表示させる撮影不足情報報知部を備える;
請求項5、請求項9又は請求項10に記載の三次元計測用画像撮影装置。
An insufficient photographing information notifying unit for displaying the determination result of the insufficient photographing region determining unit on the display unit;
The image photographing device for three-dimensional measurement according to claim 5, claim 9 or claim 10.
前記特徴点は自他識別可能な識別コードを有するマークを含み;
前記特徴点抽出部で抽出されたマークの識別コードを識別するコード識別部を備える;
請求項1ないし請求項11のいずれか1項に記載の三次元計測用画像撮影装置。
The feature point includes a mark having an identification code that can identify itself and others;
A code identification unit for identifying an identification code of the mark extracted by the feature point extraction unit;
The three-dimensional measurement image photographing device according to claim 1.
前記撮影範囲画像は、前記測定対象物の三次元モデル画像、オルソ画像又は前記測定対象物を全周囲から中心点に向けて投影し連続的に配列した全周囲画像のいずれかである;
請求項1ないし請求項12のいずれか1項に記載の三次元計測用画像撮影装置。
The imaging range image is any one of a three-dimensional model image, an ortho image of the measurement object, or an all-around image in which the measurement object is projected continuously from the entire periphery toward the center point;
The three-dimensional measurement image photographing device according to claim 1.
前記撮影部及び前記表示部を有する第1ユニットは前記三次元位置測定部及び前記撮影範囲画像形成部を有する第2ユニットから独立して移動可能に構成され、前記第1ユニットと前記第2ユニットとは、有線又は無線により通信可能に構成されている;
請求項1ないし請求項13のいずれか1項に記載の三次元計測用画像撮影装置。
The first unit having the photographing unit and the display unit is configured to be movable independently of the second unit having the three-dimensional position measuring unit and the photographing range image forming unit, and the first unit and the second unit Is configured to be communicable by wire or wirelessly;
The three-dimensional measurement image photographing device according to claim 1.
測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影方法において;
撮影者が複数の撮影位置から前記測定対象物を撮影して撮影画像を取得する撮影工程と;
前記撮影工程で取得された撮影画像における前記測定対象物の特徴点を抽出する特徴点抽出工程と;
前記撮影画像の測定対象物の領域を前記特徴点抽出工程で抽出された3以上の特徴点で囲まれた領域(当該特徴点を含む)からなる撮影領域に区分する撮影領域区分工程と;
前記特徴点抽出工程で抽出された特徴点の複数の撮影画像における画面位置から、前記特徴点の三次元座標を求める三次元位置測定工程と;
前記測定対象物の撮影範囲を三次元空間に表現する撮影範囲画像の座標空間に前記三次元位置測定工程で求められた各特徴点を書き込み、前記撮影範囲画像の座標空間に書き込まれた特徴点のうち、前記撮影領域を囲む3以上の特徴点を結線して前記撮影領域毎に区画し、前記撮影範囲画像をワイヤフレーム画像として形成する撮影範囲画像形成工程と;
前記撮影範囲画像に撮影不足領域が有るか否かを判定する撮影不足領域判定工程と;
前記撮影範囲画像形成工程で形成された撮影範囲画像を表示する表示工程とを備える;
三次元計測用画像撮影方法。
In a three-dimensional measurement image capturing method of sequentially capturing an object to be measured while overlapping with a single camera;
A photographing step in which a photographer photographs the measurement object from a plurality of photographing positions to obtain a photographed image;
A feature point extraction step of extracting feature points of the measurement object in the captured image acquired in the imaging step;
A shooting region dividing step of dividing the region of the measurement object of the captured image into a shooting region composed of a region (including the feature point) surrounded by three or more feature points extracted in the feature point extraction step;
A three-dimensional position measurement step for obtaining three-dimensional coordinates of the feature points from screen positions in a plurality of captured images of the feature points extracted in the feature point extraction step;
Each feature point obtained in the three-dimensional position measurement step is written in the coordinate space of the shooting range image representing the shooting range of the measurement object in a three-dimensional space, and the feature point written in the coordinate space of the shooting range image A shooting range image forming step in which three or more feature points surrounding the shooting region are connected and partitioned for each shooting region, and the shooting range image is formed as a wire frame image;
An undershooting area determination step of determining whether or not there is an undershooting area in the shooting range image;
A display step of displaying the shooting range image formed in the shooting range image forming step;
An image capturing method for three-dimensional measurement.
JP2009108522A 2009-04-27 2009-04-27 Image capturing device for three-dimensional measurement and method therefor Pending JP2010256253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009108522A JP2010256253A (en) 2009-04-27 2009-04-27 Image capturing device for three-dimensional measurement and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009108522A JP2010256253A (en) 2009-04-27 2009-04-27 Image capturing device for three-dimensional measurement and method therefor

Publications (2)

Publication Number Publication Date
JP2010256253A true JP2010256253A (en) 2010-11-11
JP2010256253A5 JP2010256253A5 (en) 2012-06-14

Family

ID=43317325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009108522A Pending JP2010256253A (en) 2009-04-27 2009-04-27 Image capturing device for three-dimensional measurement and method therefor

Country Status (1)

Country Link
JP (1) JP2010256253A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015019270A (en) * 2013-07-11 2015-01-29 株式会社 日立産業制御ソリューションズ Camera system and control method and control program of the same
JP2015507860A (en) * 2011-12-07 2015-03-12 インテル コーポレイション Guide to image capture
JP2016038338A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 3d scanner, 3d scan method, computer program, and recording medium
CN106767399A (en) * 2016-11-11 2017-05-31 大连理工大学 The non-contact measurement method of the logistics measurement of cargo found range based on binocular stereo vision and dot laser
WO2018180551A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Image processing device, image processing method and program
JPWO2018180550A1 (en) * 2017-03-30 2020-02-06 富士フイルム株式会社 Image processing apparatus and image processing method
CN111127541A (en) * 2018-10-12 2020-05-08 杭州海康威视数字技术股份有限公司 Vehicle size determination method and device and storage medium
US10809053B2 (en) 2014-09-17 2020-10-20 Kabushiki Kaisha Toshiba Movement assisting device, movement assisting method, and computer program product
WO2020241331A1 (en) * 2019-05-31 2020-12-03 Bpm株式会社 Three-dimensional data management method for building and mobile terminal for implementing same
JPWO2019167150A1 (en) * 2018-02-27 2021-02-18 株式会社ニコン Image analysis device, analysis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method and program
WO2021200432A1 (en) * 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 Imaging instruction method, imaging method, imaging instruction device, and imaging device
CN113554710A (en) * 2020-04-24 2021-10-26 西门子(深圳)磁共振有限公司 Calibration method, system and storage medium of 3D camera in medical image system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023297A (en) * 1996-07-03 1998-01-23 Canon Inc Image input device
JPH10124704A (en) * 1996-08-30 1998-05-15 Sanyo Electric Co Ltd Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model
JP2002074347A (en) * 2000-08-31 2002-03-15 Minolta Co Ltd Information aquiring system
JP2005221243A (en) * 2004-02-03 2005-08-18 Fuji Xerox Co Ltd Three-dimensional shape measuring device and method
JP2006003280A (en) * 2004-06-18 2006-01-05 Topcon Corp Photographing device and photographing method
JP2007064627A (en) * 2005-08-01 2007-03-15 Topcon Corp System for three-dimensional measurement and its method
JP2007248156A (en) * 2006-03-14 2007-09-27 Topcon Corp Geographic data collecting device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1023297A (en) * 1996-07-03 1998-01-23 Canon Inc Image input device
JPH10124704A (en) * 1996-08-30 1998-05-15 Sanyo Electric Co Ltd Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model
JP2002074347A (en) * 2000-08-31 2002-03-15 Minolta Co Ltd Information aquiring system
JP2005221243A (en) * 2004-02-03 2005-08-18 Fuji Xerox Co Ltd Three-dimensional shape measuring device and method
JP2006003280A (en) * 2004-06-18 2006-01-05 Topcon Corp Photographing device and photographing method
JP2007064627A (en) * 2005-08-01 2007-03-15 Topcon Corp System for three-dimensional measurement and its method
JP2007248156A (en) * 2006-03-14 2007-09-27 Topcon Corp Geographic data collecting device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507860A (en) * 2011-12-07 2015-03-12 インテル コーポレイション Guide to image capture
US9716826B2 (en) 2011-12-07 2017-07-25 Intel Corporation Guided image capture
JP2015019270A (en) * 2013-07-11 2015-01-29 株式会社 日立産業制御ソリューションズ Camera system and control method and control program of the same
JP2016038338A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 3d scanner, 3d scan method, computer program, and recording medium
US10809053B2 (en) 2014-09-17 2020-10-20 Kabushiki Kaisha Toshiba Movement assisting device, movement assisting method, and computer program product
CN106767399A (en) * 2016-11-11 2017-05-31 大连理工大学 The non-contact measurement method of the logistics measurement of cargo found range based on binocular stereo vision and dot laser
WO2018180551A1 (en) * 2017-03-30 2018-10-04 富士フイルム株式会社 Image processing device, image processing method and program
JPWO2018180551A1 (en) * 2017-03-30 2019-11-21 富士フイルム株式会社 Image processing apparatus, image processing method, and program
JPWO2018180550A1 (en) * 2017-03-30 2020-02-06 富士フイルム株式会社 Image processing apparatus and image processing method
JPWO2019167150A1 (en) * 2018-02-27 2021-02-18 株式会社ニコン Image analysis device, analysis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method and program
JP7367668B2 (en) 2018-02-27 2023-10-24 株式会社ニコン Image analysis device, analysis device, shape measurement device, image analysis method, measurement condition determination method, shape measurement method and program
CN111127541A (en) * 2018-10-12 2020-05-08 杭州海康威视数字技术股份有限公司 Vehicle size determination method and device and storage medium
CN111127541B (en) * 2018-10-12 2024-02-27 杭州海康威视数字技术股份有限公司 Method and device for determining vehicle size and storage medium
WO2020241331A1 (en) * 2019-05-31 2020-12-03 Bpm株式会社 Three-dimensional data management method for building and mobile terminal for implementing same
WO2021200432A1 (en) * 2020-03-30 2021-10-07 パナソニックIpマネジメント株式会社 Imaging instruction method, imaging method, imaging instruction device, and imaging device
CN113554710A (en) * 2020-04-24 2021-10-26 西门子(深圳)磁共振有限公司 Calibration method, system and storage medium of 3D camera in medical image system

Similar Documents

Publication Publication Date Title
JP2010256253A (en) Image capturing device for three-dimensional measurement and method therefor
JP5421624B2 (en) 3D measurement image capturing device
US11657567B2 (en) Method for the automatic material classification and texture simulation for 3D models
JP2010256252A (en) Image capturing device for three-dimensional measurement and method therefor
JP2010219825A (en) Photographing device for three-dimensional measurement
US9396542B2 (en) Method of estimating imaging device parameters
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
JPWO2019189661A1 (en) Learning data set creation method and equipment
JP4868186B2 (en) Marker generation and marker detection system, method and program
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
JP5002144B2 (en) Projection apparatus and system for three-dimensional measurement
CN108200334B (en) Image shooting method and device, storage medium and electronic equipment
CN108053473A (en) A kind of processing method of interior three-dimensional modeling data
US20100007719A1 (en) Method and apparatus for 3D digitization of an object
WO2023093217A1 (en) Data labeling method and apparatus, and computer device, storage medium and program
JP4848166B2 (en) Projection apparatus and system for three-dimensional measurement
JP6736414B2 (en) Image processing apparatus, image processing method and program
US7711507B2 (en) Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium
JP2016170610A (en) Three-dimensional model processing device and camera calibration system
JP2010133752A (en) Shape measuring device and program
JP2007064836A (en) Algorithm for automating camera calibration
JP2010133751A (en) Shape measuring device and program
CN111340959B (en) Three-dimensional model seamless texture mapping method based on histogram matching
JP5363878B2 (en) Stereo image photographing apparatus and method thereof
JP2009216480A (en) Three-dimensional position and attitude measuring method and system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120427

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130917