WO2010107004A1 - 三次元計測用画像撮影装置及び方法 - Google Patents

三次元計測用画像撮影装置及び方法 Download PDF

Info

Publication number
WO2010107004A1
WO2010107004A1 PCT/JP2010/054365 JP2010054365W WO2010107004A1 WO 2010107004 A1 WO2010107004 A1 WO 2010107004A1 JP 2010054365 W JP2010054365 W JP 2010054365W WO 2010107004 A1 WO2010107004 A1 WO 2010107004A1
Authority
WO
WIPO (PCT)
Prior art keywords
mark
image
shooting
photographing
unit
Prior art date
Application number
PCT/JP2010/054365
Other languages
English (en)
French (fr)
Inventor
伸夫 高地
拓哉 森山
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to US13/256,543 priority Critical patent/US9182220B2/en
Priority to EP10753496A priority patent/EP2410290A1/en
Publication of WO2010107004A1 publication Critical patent/WO2010107004A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/52Combining or merging partially overlapping images to an overall image

Definitions

  • the present invention relates to an image photographing apparatus and method for three-dimensional measurement. Specifically, the present invention relates to a three-dimensional measurement image photographing apparatus and method for presenting the number of photographing of each part of a measurement object.
  • JP 2007-183256 A (FIGS. 1 to 11, paragraphs 0021 to 0065)
  • FIG. 25 shows an example when the measurement object is large or wide. This is an example of a soil volume with a width of several tens of meters. Marks with identification codes are placed everywhere in the soil volume, but because the object to be measured is large, there is a problem that the identification codes cannot be determined when shooting from a distance to cover a wide range. This is applicable when there are not enough captured images.
  • the present invention has been made in view of the above problems, and provides a three-dimensional measurement image photographing apparatus that can efficiently perform photographing without excess or deficiency when photographing while moving using a single camera. For the purpose. That is, even if the identification code of the mark is not particularly conscious, if the number of times the mark is photographed is known at the time of photographing, it is possible to prevent the camera from being missed. Although the appearance can be captured if the image is taken once, since three-dimensional measurement uses feature points imaged twice in two photographed images, it is necessary to photograph two or more times. In addition, in order to connect a captured image like a panoramic image, a feature point or mark used for connection needs to be captured three or more times. In addition, the greater the number of times a feature point is shot, the more accurate the three-dimensional measurement of the feature point.
  • the three-dimensional measurement image photographing apparatus 1 for example, as shown in FIG.
  • a photographing unit 3 that photographs a measurement object 2 to which a mark having an identification code that can identify itself and others is attached under a predetermined condition, and a mark is extracted from a photographed image photographed by the photographing unit 3
  • a mark extraction unit 71 for identifying the identification code of the mark extracted by the mark extraction unit 71
  • a code identification unit 72 for associating the identification code with a mark code assigned to the mark, and extraction at each position on the screen of the photographed image
  • a mark code is identified by the identified identification code, and an area of the measurement object 2 in the captured image is surrounded by three or more marks (mark mark identification)
  • the shooting area sorting unit 81 for dividing the shooting area into the shooting area including the mark
  • the area shooting number counting unit 83 for counting the number of shooting times included in different shot images for each shooting area
  • the mark data input unit 61 that inputs the position of the mark attached to 2 in association with the mark code, and the position of the mark input to the shooting range image are connected so that the mark code of the mark surrounding the shooting area matches. Then, the imaging range image forming unit 86 that applies the imaging area to the imaging range image, and the applied imaging area in the imaging range image are grouped into two or more groups. And a display unit 4 for displaying.
  • the mark having an identification code that can be identified by itself and others is arranged in a pattern such as a code, a barcode, a two-dimensional barcode, and a color code using an identification code such as a numeric string, a character string, and a symbol.
  • a code with distinctiveness.
  • the mark code is displayed with numbers, characters, symbols and combinations thereof, for example, “M20”.
  • the predetermined condition may relate to the arrangement of the marks. For example, it is preferable to arrange the measurement object 2 on the surface of the measurement object 2 at substantially equal intervals so that the entire measurement object 2 can be grasped.
  • the predetermined condition may be a condition that the position coordinates of the mark are designated in advance, or a condition that the number of marks having an identification code that can identify themselves is determined in advance. Further, the number of times of shooting in the shooting area may be counted as if there is a shooting area when all marks surrounding the shooting area exist in the shooting screen, for example.
  • the mark data input unit 61 uses an input device such as a keyboard when inputting a predesignated position. However, when inputting a measured three-dimensional position, the position coordinates stored in the storage unit 5 are used. Is automatically input.
  • the imaging area is an area surrounded by three or more marks with specified mark codes. It is not always necessary to match the range of the captured image (the range actually captured). For example, it may be a region that can serve as a target for capturing, for example, focusing on this region.
  • the shooting area may be the largest polygonal area surrounded by the marks in the shot image, but in this case, if it is found that it partially overlaps with other shot images, the number of shots will be taken at the overlapping and non-overlapping parts. Therefore, it is preferable to divide into overlapping parts and non-overlapping parts. A small area surrounded by three marks may be used.
  • a shooting area to a shooting range image means that a mark surrounding the shooting area is arranged at a coordinate position of the shooting range image and connected to divide the surface of the measuring object 2 in the shooting range image for each shooting area.
  • the shot image itself may be pasted as in the eighth mode, but in this mode, it is only necessary to classify and group. Since the display unit 4 has an image data editing function for determining the position and color of group display in addition to displaying an image, a part having this function may be provided in the PC.
  • an image photographing apparatus for three-dimensional measurement that can efficiently perform photographing without excess or deficiency when photographing while moving using a single camera. That is, since the number of times of photographing in each photographing region is clearly indicated, efficient photographing can be performed without excess or deficiency.
  • a mark having an identification code that can identify itself and others is used, it is advantageous for automation of image processing such as connection of a captured image, three-dimensional measurement of a mark position, and formation of a three-dimensional model image.
  • the three-dimensional measurement image photographing apparatus uses two or more groups as an overlapping photographing area group and a non-overlapping photographing area group in the three-dimensional measurement image photographing apparatus according to the first aspect. If comprised in this way, the overlapping imaging
  • the predetermined condition is that the number of marks having identification codes that can be identified by themselves is determined in advance.
  • a mark photographing number counting unit 82 for counting the number of photographing included in different photographed images is provided for each mark, and the photographing region grouping unit 85 is one or more marks with zero photographing number.
  • the enclosed shooting areas are grouped into unphotographed area groups. In this case, when the position coordinates of the mark are designated in advance, the positions of all the photographing areas are also determined, so that the unphotographed areas can be displayed.
  • the unphotographed area is displayed in groups by displaying the entire unphotographed area in black. . If comprised in this way, an already image
  • the three-dimensional measurement image photographing apparatus of the fourth aspect of the present invention is the three-dimensional measurement image photographing apparatus of the third aspect, wherein two or more groups are defined as an already-captured area group and an uncaptured area group, or 3 More than one shooting area group, two shooting area groups, a single shooting area group, and a non-shooting area group.
  • two or more groups are defined as an already-captured area group and an uncaptured area group, or 3 More than one shooting area group, two shooting area groups, a single shooting area group, and a non-shooting area group.
  • the three-dimensional measurement image photographing apparatus 1 according to the fifth aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to fourth aspects.
  • the shooting areas in the shooting range image are displayed in different colors corresponding to the groups.
  • any of lightness, saturation, and hue may be used, and lightness may be changed like blinking.
  • groups can be identified at a glance.
  • the three-dimensional measurement image photographing apparatus 1 is the three-dimensional measurement image photographing apparatus according to any one of the first to fifth aspects.
  • the predetermined condition is that the position coordinates of the mark are in advance. This is a condition that the mark is input, and the position of the mark input to the shooting range image is a position coordinate specified in advance. If comprised in this way, an imaging
  • the three-dimensional measurement image photographing apparatus 1A according to the seventh aspect of the present invention is a three-dimensional measurement image photographing apparatus according to any one of the first to fifth aspects.
  • FIG. Is provided with a three-dimensional position measuring unit 9 for obtaining the three-dimensional coordinates of the mark position from the screen position in the photographed image of the mark extracted in step 3.
  • the mark position input to the photographing range image is determined by the three-dimensional position measuring unit 9.
  • the obtained three-dimensional coordinates is determined by the three-dimensional position measuring unit 9.
  • a TIN Triangulated Irregular Network
  • a relative orientation is used as the number of captured images and the number of feature points.
  • the accuracy of position coordinates can be increased. If comprised like this aspect, since the three-dimensional coordinate of a to-be-photographed object is calculated
  • a three-dimensional measurement image photographing apparatus wherein the three-dimensional measurement image photographing apparatus according to any one of the first to seventh aspects extracts and stores an image of each photographing region from the photographed image.
  • An imaging area partial storage unit 54 is provided, and the imaging range image forming unit 86 extracts the image of each imaging area from the imaging area partial storage unit 54 and surrounds the imaging area at the mark position input to the imaging range image 3.
  • the image of each shooting area is stretched and pasted so that the positions of the above marks match.
  • the image of the shooting area stored in the shooting area partial storage unit 54 can be acquired from any shot image in which the shooting area was shot, but the image of the shooting area shot from the vertical direction to the shooting area as much as possible.
  • Acquiring is preferable because deformation at the time of pasting on the photographing range image can be reduced. According to this configuration, since the photographed image is pasted on the photographing range image, a real-like three-dimensional model image can be formed, and it is possible to visually determine whether photographing is over or under.
  • a three-dimensional measurement image photographing apparatus that extracts and stores images of respective photographing regions from a photographed image in the three-dimensional measurement image photographing apparatus according to any one of the first to eighth aspects. And a plurality of feature points in the vicinity of the boundary of the photographed image are extracted, and a boundary line is drawn in each photographing region including the feature points using the plurality of feature points.
  • the imaging range image forming unit 86 includes a boundary line drawn in each imaging area stored in the imaging area partial storage unit 54 to indicate the range of each captured image.
  • the camera photographing range is formed in the photographing range image, and the display unit 4 displays the camera photographing range in each photographed image on the photographing range image.
  • the camera shooting range is formed to indicate a range of one of the shot images (referred to as a first shot image).
  • the shooting area including the feature point is extracted from the second shooting image having the overlapping shooting area with the first shooting image. It is preferable to select a photographed image obtained by photographing the photographing region from the vertical direction as much as possible as the second photographed image.
  • the three-dimensional measurement image photographing device 1 is the three-dimensional measurement image photographing device according to any one of the first to ninth aspects.
  • the shooting area of another shot image overlaps a part of the shooting area
  • the shooting area of one shot image is divided into an overlapping part and a non-overlapping part as a new shooting area, and a new shooting area number Is granted.
  • the shooting area may be the largest polygonal area surrounded by marks in the shot image. In this case, if it is found that there is some overlap with other captured images, there will be a difference in the number of shots between the overlapped part and the non-overlapped part. It is preferable to continue.
  • the imaging area formed initially large can be reduced to an appropriate size, the imaging range image in which the imaging area is formed in the imaging range image is easy to see.
  • the three-dimensional measurement image photographing apparatus 1 of the eleventh aspect of the present invention is the three-dimensional measurement image photographing apparatus according to any one of the first to ninth aspects.
  • a plurality of shooting areas are integrated into one shooting area to form a new shooting area, and a new shooting area number is assigned.
  • the photographing area may be a small area surrounded by three marks. Since the number of shooting areas increases and the amount of processing of the computer increases, it is preferable to integrate a plurality of small areas with the same number of shootings and expand them to an appropriate size. If configured in this manner, the initially formed small imaging area can be enlarged to an appropriate size, so that it is easy to see the imaging range image in which the imaging area is formed in the imaging range image.
  • the three-dimensional measurement image photographing apparatus 1 is a self-contained three-dimensional measurement image photographing apparatus that sequentially photographs a measurement object 2 while overlapping with a single camera as shown in FIG.
  • An imaging unit 3 that images a measurement object 2 to which a mark having an identification code that can be identified is attached under a predetermined condition
  • a mark extraction unit 71 that extracts a mark from a captured image captured by the imaging unit 3
  • a mark A code identification unit 72 that identifies an identification code of a mark extracted by the extraction unit 71, associates the identification code with a mark code given to the mark, and mark photographing that counts the number of photographing included in a different photographed image for each mark
  • the number counting unit 82, the mark grouping unit 84 for grouping marks into two or more groups according to the number of times the mark has been shot, and the shooting range of the measurement object 2 are divided into two.
  • a mark data input unit 61 that inputs the position of the mark attached to the measurement object 2 in the coordinate space of the imaging range image to be expressed in the original or three-dimensional space in association with the mark code, and is input to the imaging range image
  • a display unit 4 for displaying the mark by grouping it into two or more groups.
  • the mark display indicates the mark position and the mark code, and either of them may be displayed as a group. Further, when the mark position and the mark code are integrated, the integrated ones are displayed in groups. When configured in this manner, the position of the mark and the number of times of shooting are displayed, so it is easy to plan which mark should be included in the future.
  • the three-dimensional measurement image photographing device of the thirteenth aspect of the present invention is the three-dimensional measurement image photographing device of the twelfth aspect, wherein two or more mark groups are three or more photographing mark groups, two photographing mark groups, One or less shooting mark groups are set, and the display unit 4 adds mark marks to the mark positions in the shooting range image, and displays the marks in different manners corresponding to the groups. When configured in this manner, the number of times the mark is photographed can be seen at a glance.
  • the predetermined condition is that the number of marks having an identification code that can identify themselves and others is previously determined.
  • the mark grouping unit 84 divides marks with a shooting count of 1 or more into an already shot mark group and marks with a shooting count of 0 into an unshot mark group, and the display unit 4 A mark code is attached to the position of the mark in the range image, and the mark is displayed in a different manner corresponding to the group.
  • the number of marks is determined in advance, it can be seen that the mark belongs to the unphotographed mark group when the mark is not yet photographed.
  • the positions of all the marks are also determined, so that the positions of unphotographed marks can be displayed. If the position coordinates are unknown, the positions of unphotographed marks that have not yet been photographed cannot be determined. In such a case, for example, the unphotographed marks are displayed in groups by listing the unphotographed marks. With this configuration, the position of the unphotographed mark is easy to understand.
  • the three-dimensional measurement image photographing device is the three-dimensional measurement image photographing device according to any one of the first to fourteenth aspects, wherein the code that can identify itself is a numeric string, a character string. , A symbol, a barcode, a two-dimensional barcode, and a color code. When configured as in this aspect, the code can be easily identified.
  • the three-dimensional measurement image photographing device of the sixteenth aspect of the present invention is the three-dimensional measurement image photographing device of any one of the first to fifteenth aspects.
  • the moving photographer captures the measurement object 2 at the current position to acquire a live image
  • the display unit 4 displays the already captured image and the live image on the same screen.
  • the live image refers to an image obtained by the moving photographer photographing the measurement object 2 with a video camera, a digital camera, or the like at the current position.
  • a measurement object is displayed as a live image on a finder, a display or the like while a photographer moves using a video camera or a digital camera.
  • the three-dimensional measurement image photographing device is the same as the twelfth aspect three-dimensional measurement image photographing device, as shown in FIG.
  • a live image is acquired by shooting the measurement object 2 at the current position, the mark shooting number counting unit 82 counts the number of shootings including the case of shooting at the current position as the number of shootings, and the mark grouping unit 84
  • the mark is grouped by the number of times the mark has been shot, and the display unit 4 displays the shooting range image and the live image on the same screen, and displays the mark by grouping by the number of times the mark has been shot. If comprised in this way, it can be judged easily whether it should image
  • the three-dimensional measurement image photographing apparatus is, for example, as shown in FIG. 24, in the three-dimensional measurement image photographing apparatus 1 that sequentially photographs the measurement object 2 while overlapping with a single camera.
  • An imaging unit 3 that captures a measurement object to which a mark having an identification code that can be distinguished from another and a non-code mark that is not identifiable by the mark is attached under predetermined conditions, and a captured image that is captured by the imaging unit 3
  • a mark extracting unit 71 that extracts a mark from the mark
  • a code identifying unit 72 that identifies the identification code of the mark extracted by the mark extracting unit 71, and associates the identification code with a mark code assigned to the mark
  • a mark extracting unit 71 The extracted non-code mark is identified from the arrangement relationship with the mark having another self-identifiable code, and a mark code is attached to the non-code mark.
  • the mark code is specified by the arrangement relationship between the non-code mark identifying unit and the mark extracted at each position on the screen of the captured image by the identified identification code or by a mark having another self-identifiable code.
  • a shooting area dividing unit 81 that divides the area of the measurement object 2 in the shot image into a shooting area composed of areas (including the mark) surrounded by three or more marks with specified mark codes, and each shooting area
  • An area shooting number counting unit 83 that counts the number of shooting times included in different shot images, a shooting area grouping unit 85 that groups shooting areas into two or more groups according to the number of shooting times of the shooting area, and a measurement target
  • the position of the mark affixed to the measuring object 2 in the coordinate space of the shooting range image for expressing the shooting range of the object 2 in a two-dimensional or three-dimensional space corresponds to the mark code.
  • the mark data input unit 61 to be input and the position of the mark input to the shooting range image are connected so that the mark codes of the marks surrounding the shooting range match, and the shooting range image is applied to the shooting range image.
  • the image forming apparatus includes a forming unit 86 and a display unit 4 that displays the imaged range that is applied to the imaged range image by grouping into two or more groups.
  • non-code mark for example, a retro target can be cited.
  • the arrangement relationship can be specified by, for example, a direction and distance from a mark having a specific code, a distance from a projection point (intersection of perpendicular lines) on a triangle formed by three marks having a specific code, and the like.
  • this arrangement relationship may be projected onto a three-dimensional space, and non-code marks may be identified from the consistency of the arrangement relationship. Since the non-code mark having such an arrangement relationship is unique, discriminability is generated. With this configuration, it is possible to reproduce a detailed three-dimensional model image and to perform a three-dimensional measurement by effectively using a large amount of non-code marks.
  • the three-dimensional measurement image photographing method is a three-dimensional measurement image photographing method in which, for example, as shown in FIG.
  • the mark code is specified by the identified identification code, and the area of the measuring object 2 in the captured image is surrounded by three or more marks with the specified mark code.
  • an imaging region grouping step for grouping the imaging regions into two or more groups, and measurement in the coordinate space of the imaging range image for expressing the imaging range of the measurement object 2 in a two-dimensional or three-dimensional space.
  • the mark data input step for inputting the position of the mark affixed to the object 2 in association with the mark code, and the mark code of the mark surrounding the shooting area match the position of the mark input to the shooting range image.
  • a shooting range image forming step (S345) for connecting the shooting area to the shooting range image by connecting, and in the shooting range image, the fitted shooting area is divided into two or more groups. And a grouping and displays display step (S350) to. It is invention of the method corresponding to the imaging device for three-dimensional measurement of Claim 1.
  • an image photographing apparatus for three-dimensional measurement that can perform photographing efficiently without excess or deficiency when photographing while moving using a single camera.
  • FIG. 1 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to Embodiment 1.
  • FIG. FIG. 6 is a diagram (part 1) illustrating an example of a mark position input in a coordinate space of a two-dimensional imaging range image. It is a figure which shows the example of the picked-up image in which the mark was stuck on the earthenware which is a photographing target object. It is a figure which shows the example of the position of the mark input into the coordinate space of a three-dimensional imaging
  • FIG. 10 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus according to a fourth embodiment. It is a figure for demonstrating corresponding point search. It is a figure for demonstrating mutual orientation. It is a figure for demonstrating the stereo method.
  • FIG. 10 is a diagram (part 1) illustrating an example in which a captured image and a live image are displayed on the same screen. It is FIG. (2) which shows the example which displays an already imaged image and a live image on the same screen. It is FIG. (1) which shows the example which displays an already imaged image.
  • FIG. 13 is a diagram (No. 3) illustrating an example in which an already captured image and a live image are displayed on the same screen.
  • FIG. 14 is a diagram (No. 4) illustrating an example in which an already captured image and a live image are displayed on the same screen. It is a figure which shows the example which uses both a color code target and a retro target as a distinguishability mark. It is a figure which shows the example when a measurement target object is large and wide.
  • FIG. 1 is a block diagram illustrating a configuration example of a three-dimensional measurement image capturing apparatus 1 according to the first embodiment of the present invention.
  • the three-dimensional measurement image photographing apparatus 1 includes a photographing unit 3 for photographing a measurement object 2, a photographed image and an image processed image, a display unit 4 for displaying a position of a mark or a photographing region, the number of times of photographing, and the like.
  • Storage unit 5 for storing the processed image, the position of the mark or shooting area, the number of times of shooting, the input unit 6 for inputting the position data of the mark, the feature extraction unit 7 for extracting feature points and marks from the shot image, the shot image
  • An image processing unit 8 that performs image processing such as dividing a mark into a shooting region, counting the number of times the mark or shooting region has been shot, grouping the mark or shooting region, and forming a shooting range image, and shooting an image for three-dimensional measurement
  • the apparatus 1 and the control part 10 which controls each part which comprises it are provided.
  • the storage unit 5 includes a photographed image storage unit 51, a mark photographing number storage unit 52, a region photographing number storage unit 53, and a photographing region partial storage unit 54.
  • the input unit 6 has a mark data input unit 61.
  • the feature extraction unit 7 includes a mark extraction unit 71 and a code identification unit 72.
  • the image processing unit 8 includes a shooting region sorting unit 81, a mark shooting number counting unit 82, a region shooting number counting unit 83, a mark grouping unit 84, a shooting region grouping unit 85, and a shooting range image forming unit 86.
  • the three-dimensional measurement image photographing apparatus 1 is suitable for photographing the entire circumference of the measurement object 2, when the measurement object 2 is large / wide, or when the shape is complicated. Yes.
  • the photographer uses the single camera as the photographing unit 3 to sequentially capture images while providing an overlapping photographing region while moving around the measurement object 2.
  • To perform three-dimensional measurement two captured images that share an overlapping shooting area are used as stereo images, and feature points are extracted from the overlapping shooting area, and the three-dimensional coordinates of these feature points are obtained, so that shooting is performed in duplicate. It is necessary.
  • the measurement object 2 is affixed with a mark having an identification code that can be identified by itself at a predetermined location (coordinates are designated in advance) and used as a feature point. Since the mark is discriminating, it does not require the trouble of searching for the corresponding point in the stereo image, and the three-dimensional measurement becomes efficient. Furthermore, since the shooting range can be determined using the mark as a mark, the shooting efficiency is improved.
  • the photographing unit 3 is composed of a single camera such as a video camera or a digital camera.
  • a moving photographer captures a live image by photographing the measurement object 2 with a video camera or digital camera at the current position, and displays it on a viewfinder, a display, or the like.
  • a captured image that is a still image is captured and acquired by a shutter operation or the like.
  • a photographed image is usually stored in an external memory by a shutter operation, but if there is an internal memory, it is stored there.
  • a digital camera a captured image is stored in an internal memory by a shutter operation.
  • the measurement object 2 is photographed so as to include at least three marks in order to obtain a photographing region.
  • the imaging region is obtained by dividing the region of the measurement object into a region (including the mark) surrounded by three or more marks.
  • the display unit 4 has a display such as a liquid crystal display, for example. At least the shooting range image of the measurement object 2 is displayed, and the mark, the position of the shooting area, the number of times of shooting, and the like are displayed therein. At that time, the imaging region of the measurement object 2 is displayed by being grouped into two or more groups. In addition, a captured image, an image processed image, an ortho image, a panoramic image, and the like may be displayed. In addition, a speaker is provided for voice display. Since the display unit 4 has an image data editing function for determining the position and color of group display in addition to displaying an image, a part having this function may be provided in the PC.
  • the storage unit 5 is composed of, for example, a hard disk and used as a database.
  • a photographed image storage unit 51 that stores the photographed image and the image processed image
  • a mark photographing number storage unit 52 that stores the number of photographing in association with a mark code for each mark, and the number of photographing for each photographing region in the photographing region
  • An area photographing number storage unit 53 that stores the mark codes of the surrounding marks in association with each other
  • a photographing region partial storage unit 54 that extracts and stores images of each photographing area from the photographed images.
  • the internal memory of the camera may be used as the storage unit 5, it is preferable to use the hard disk of the PC 15 because it is suitable for various processes at high speed.
  • a camera using an external memory stores a captured image directly in the storage unit 5, and a camera using an internal memory transfers the captured image to the storage unit 5.
  • the input unit 6 includes, for example, a mouse and a keyboard, and is used by an operator to input data and instructions.
  • a mark data input unit 61 is provided for inputting the position of the mark attached to the measurement object in the coordinate space of the two-dimensional or three-dimensional imaging range image of the measurement object 2 in association with the mark code. In this embodiment, the position coordinates designated in advance are input as the mark position of the shooting range image.
  • Fig. 2 shows an example of the mark position input in the coordinate space of the two-dimensional imaging range image.
  • the measurement object 2 is photographed from multiple directions so as to be duplicated and coupled from the surroundings, and mapped in a developed view.
  • a mark code (1 in ⁇ to 15 in ⁇ ) corresponding to the mark position is displayed in the coordinate space of the plan view. This is an example in which the mark position and the mark code are integrated.
  • FIG. 3 shows an example of a photographed image in which a mark (color code target) is attached to the earthenware that is the photographing object 2
  • FIG. 4 shows the position of the mark input in the coordinate space of the three-dimensional photographing range image.
  • the mark positions in FIG. 4 are the positions of the marks in FIG. 3 displayed in the coordinate space of the three-dimensional imaging range image.
  • the positions of the marks are displayed as squares ⁇ in the coordinate space of the perspective view of the imaging range image, and the corresponding mark codes (1 to 24) are displayed. This is an example in which the mark position and the mark code are displayed separately.
  • the feature extraction unit 7 extracts feature points and marks from the captured image.
  • a mark extraction unit 71 that extracts a mark from a captured image captured by the imaging unit, a code identification unit 72 that identifies the identification code of the mark extracted by the mark extraction unit 71, and associates the identification code with a mark code assigned to the mark.
  • the mark extraction unit 71 extracts feature points including marks in a plurality of captured images acquired by the imaging unit 3.
  • a color code target as a mark having an identification code that can be identified by itself is attached to a car or earthenware that is a measurement object, and the color code target can be used as a feature point.
  • FIG. 5 shows an example of the color code target CT.
  • FIG. 5A shows three color code unit areas
  • FIG. 5B shows six color code targets
  • FIG. 5C shows nine color code targets.
  • the color code targets CT (CT1 to CT3) in FIGS. 5A to 5C include a position detection pattern (retro target portion) P1, a reference color pattern (reference color portion) P2, and a color code pattern (color code portion). P3 and an empty pattern (white portion) P4.
  • the retro target portion P1 is used for detecting the target itself, detecting its center of gravity, detecting the target orientation, and detecting the target area.
  • the standard color portion P2 is used for reference at the time of relative comparison and for color calibration for correcting color misregistration in order to cope with color misregistration due to shooting conditions such as illumination and camera. Furthermore, the reference color portion P2 can be used for color correction of the color code target CT created by a simple method. For example, when using a color code target CT printed by a color printer (inkjet, laser, sublimation type printer, etc.) where color management is not performed, individual differences appear in the color of the printer used, but the reference color portion P2 By comparing and correcting the color of the color code portion P3 relative to each other, the influence of individual differences can be suppressed.
  • a color printer inkjet, laser, sublimation type printer, etc.
  • the color code part P3 expresses a code by a combination of color schemes for each unit area.
  • the number of codes that can be expressed varies depending on the number of code colors used for the code. For example, when the number of code colors is n, n ⁇ n ⁇ n codes can be represented. In order to increase the reliability, even when the condition that the colors used in other unit areas are not used redundantly, n ⁇ (n ⁇ 1) ⁇ (n ⁇ 2) codes can be expressed. If the number of code colors is increased, the number of codes can be increased. Furthermore, if the condition that the number of unit areas of the color code portion P3 is equal to the number of code colors is imposed, all the code colors are used for the color code portion P3.
  • the color code target CT can also be used for detection from the image. This is because the area occupied by each color is the same even between the color code targets CT having different identification codes, and thus almost the same dispersion value is obtained from the detection light from the entire color code portion.
  • the target CT can be detected from the image from such a repeated pattern of detection light.
  • the white part P4 is used for detecting the orientation of the color code target CT and for color misalignment calibration. Among the four corners of the target CT, there is a place where no retro target is arranged, and this can be used for detecting the direction of the target CT. Thus, the white part P4 should just be a pattern different from a retro target. Therefore, a character string such as a number for visually confirming the code may be printed on the white portion, and it may be used as a code area such as a barcode. Furthermore, in order to increase the detection accuracy, it can be used as a template pattern for template matching.
  • the code identification unit 72 identifies the identification code of the color code target CT. Using the color code target correspondence table that records the correspondence between the pattern arrangement and the code number, the identification code is determined from the color arrangement in the color code portion P3 of the color code target CT, and a number is assigned to the color code target CT.
  • the position of the color code target CT is obtained by detecting the retro target P1.
  • the mark position can be obtained by detecting the retro target even when a retro target is affixed instead of the color code target CT.
  • FIG. 6 is an explanatory diagram of center of gravity detection using a retro target.
  • the retro target is formed by two concentric circles.
  • FIG. 6A1 the brightness of the inner circle portion 204 that is the inner side of the small circle among the concentric circles is bright, and the brightness of the outer circle portion 206 that is an annular portion formed between the small circle and the great circle is dark.
  • the retro target 200, FIG. 6 (A2) is a brightness distribution diagram in the diameter direction of the retro target 200 of (A1)
  • FIG. 6 (B1) is a retro target in which the brightness of the inner circle portion 204 is dark and the brightness of the outer circle portion 206 is bright.
  • 200 and FIG. 6 (B2) show a lightness distribution diagram in the diameter direction of the retro target 200 of (B1).
  • the amount of reflected light at the center of gravity position in the captured image of the measurement object 1 is a bright portion, and thus the light amount distribution of the image.
  • FIG. 6A2 it is possible to obtain the inner circle portion 204 and the center position of the retro target from the threshold value To of the light amount distribution.
  • the inner circle portion 204 and the center position of the retro target from the threshold value To of the light amount distribution.
  • the outside of the great circle may be bright or dark.
  • it is dark substantially only one circle (small circle) is formed.
  • the outside of the great circle may be bright or dark, but when the outside of the great circle is bright, only one dark circle (small circle) is formed on the substantially bright base. It is.
  • the barycentric position is calculated by, for example, the moment method. For example, assume that the plane coordinates of the retro target 200 shown in FIG. 6A1 are (x, y). Then, (Expression 1) and (Expression 2) are calculated for points in the x and y directions where the brightness of the retro target 200 is greater than or equal to the threshold value To.
  • the mark extraction unit 71 extracts feature points from a plurality of captured images.
  • the feature points include, for example, the center position, the center of gravity position, the corner position of the measurement object 2, a position having a different characteristic from others, and a sign affixed or projected on the measurement object 2.
  • a feature extraction operator is used for feature point extraction.
  • a Moravec operator is used for feature point extraction.
  • the MORAVEC operator has long been used as a general-purpose feature extractor.
  • the MORAVEC operator uses, for example, a 3 ⁇ 3 pixel around a certain target pixel as a mask, and sets the minimum value of the density difference (direction density difference) when the mask moves one pixel in each of the four directions around the target pixel.
  • the feature value It is characterized by simple and high-speed processing and relatively easy hardware. In order to perform high-speed processing, a memory several times as large as an image is required.
  • the Harris operator has been described here, other operators, for example, the Harris operator and others, and anything that can detect feature points may be used.
  • the image processing unit 8 assigns a shooting region number to the captured image by dividing the region of the measurement object 2 into a shooting region including a region (including the mark) surrounded by three or more marks.
  • a shooting area dividing unit 81 that performs counting, a mark shooting number counting unit 82 that counts the number of shootings included in different captured images for each mark, and an area shooting number counting unit that counts the number of shootings included in different captured images for each shooting area 83, a mark grouping unit 84 that groups marks into two or more groups according to the number of times the mark is shot, and a shooting area grouping that groups shooting areas into two or more groups according to the number of times the shooting area is shot 85, connecting the positions of the marks input to the shooting range image so that the mark codes of the marks surrounding the shooting range match, Having a photographing range image forming unit 86 fitting Te.
  • the imaging area classification unit 81 classifies the area of the measurement object 2 into imaging areas in the captured image.
  • the area of the measuring object 2 can be divided into a number of areas by a polygon having three or more marks as vertices.
  • Image processing takes time if the number of shooting areas is increased to a large number, and if the shooting area is too large, the number of shots cannot be counted out of the shot image. Is preferred. For example, a range that is substantially in one plane and in focus is divided into 1 to 4 according to the area.
  • the shooting area may be the largest polygonal area surrounded by the mark in the shot image (the area actually shot), but in this case, if it is found that it partially overlaps with other shot images Since there is a difference in the number of times of shooting between the part and the non-overlapping part, it is divided into the overlapping part and the non-overlapping part.
  • a small area surrounded by three marks may be used, but since the number of shooting areas increases and the processing amount of the computer increases, a plurality of small areas having the same number of shooting times are integrated. In order to see the overlap of the captured images, about 1/2 to 1/10 of the entire captured image is preferable, and 1/3 to 1/5 is more preferable.
  • FIG. 7 shows an example of forming a shooting area in a two-dimensional shooting range image.
  • an area including six marks of mark codes (1 in ⁇ ) to (6 in ⁇ ) to (6 in ⁇ ) that is, surrounded by six marks of mark codes (1 in ⁇ ) to (6 in ⁇ ).
  • the region is divided as one photographing region.
  • an area including six marks of mark codes (4 in ⁇ ) to (9 in ⁇ ) that is, an area surrounded by six marks of mark codes (4 in ⁇ ) to (9 in ⁇ )
  • an area including six marks of mark marks (13 within a circle) to (18 within a circle) is classified as one imaging region.
  • FIG. 8 shows an example of forming a shooting area in a three-dimensional shooting range image. This is an example in which an automobile area is divided into a plurality of imaging areas in a coordinate space of a perspective view. Many of these areas are quadrangular, and an area surrounded by at least three marks is divided as one imaging area.
  • the mark photographing number counting unit 82 counts the number of photographing included in different photographed images for each mark. That is, the mark is extracted from each captured image stored in the storage unit, and the number of times the mark can be extracted is set as the number of times the mark is captured. The counted number of photographing is stored in the mark photographing number storage unit 52 in association with the mark code of the mark.
  • the area photographing number counting unit 83 counts the number of photographing included in different photographed images for each photographing area. That is, a mark surrounding the shooting area is extracted from each captured image stored in the storage unit 5, and the number of times that all the marks surrounding the shooting area can be extracted is set as the number of shooting times of the shooting area.
  • the entire imaging area has not been imaged and is not counted.
  • the counted number of photographing is stored in the region photographing number storage unit 53 in association with the mark code of the mark surrounding the photographing region.
  • the area covered by all the shooting areas in the shot image is narrower than the actual shooting range and the part outside these shooting areas has not been shot, If this is counted, there is no problem in performing the necessary overlap photography because it is a safe side in the sense of ensuring duplication.
  • the mark grouping unit 84 groups the marks into two or more groups according to the number of times the mark has been shot. For example, three or more shooting mark groups, two shooting mark groups, one shooting mark group, and an unshot mark group are grouped. Further, it is possible to divide into an overlapping shooting mark group and a non-overlapping shooting mark group, and an already shot shooting group and an unshot shooting mark group.
  • the grouped group is stored in the mark photographing number storage unit 52 in association with the mark code of the mark, for example.
  • the shooting area grouping unit 85 groups the shooting areas into two or more groups according to the number of shooting times of the shooting area. For example, it is grouped into three or more shooting area groups, two shooting area groups, a single shooting area group, and an unshooting area group.
  • the grouped group is stored in the area photographing number storage unit 53 in association with, for example, a mark code of a mark surrounding the photographing area.
  • the photographing range image forming unit 86 connects the positions of the marks input to the photographing range image so that the mark codes of the marks surrounding the photographing region match, and applies the photographing region to the photographing range image.
  • a mark code is associated with the mark position input to the shooting range image. Therefore, a polygon is formed by connecting three or more marks with mark codes surrounding the shooting area, and this corresponds to the shooting area in the shooting range image. In this way, by connecting three or more marks surrounding the imaging area and applying the imaging area to all the imaging areas (excluding invisible parts such as the vehicle bottom) divided about the area of the imaging object 2.
  • a shooting range image in which the area of the shooting target object 2 in the shooting range image is divided into shooting areas can be formed. Note that the marks input to the shooting range image and the formed shooting areas are displayed on the display unit 4 in groups of two or more.
  • FIG. 9 shows a display example of mark grouping in the two-dimensional imaging range image. This is an example in which the marks in FIG. 2 are displayed in groups. However, the number of marks increases from 15 to 18.
  • FIG. 9A shows a display example of mark grouping
  • FIG. 9B shows a state in which photographed images overlap.
  • mark codes corresponding to the mark positions (1 in circles to 18 in circles) are assigned. The mark codes are displayed in different colors. Red (added with R) indicates a single shooting mark, green (added with G) indicates a two shooting mark, and blue (added with B) indicates a three shooting mark.
  • FIG. 9 shows a display example of mark grouping in the two-dimensional imaging range image. This is an example in which the marks in FIG. 2 are displayed in groups. However, the number of marks increases from 15 to 18.
  • FIG. 9A shows a display example of mark grouping
  • FIG. 9B shows a state in which photographed images overlap.
  • mark codes corresponding to the mark positions (1 in circles to 18 in circles) are
  • 9C shows a mark (10, 11 in a circle) that is originally overlapped, but is not overlapped originally, although it is in a place where three shots should be overlapped in the captured image.
  • a mark that is a single shooting mark (12 in a circle) and a mark that has not been shot (19 in a circle) (0 is added) are shown.
  • FIG. 10 shows an example of mark grouping display in the three-dimensional imaging range image.
  • FIG. 5 is an example in which the marks of FIGS. 3 and 4 are displayed in groups. The position of the mark is displayed as a square ⁇ in the coordinate space of the perspective view, and the corresponding mark code (1 to 24) is displayed. Among these, squares ⁇ are displayed large in marks (mark symbols 1 to 6) of non-overlapping shooting groups (one or less shooting mark groups).
  • FIG. 11 shows an example of grouping display of shooting areas in a three-dimensional shooting range image. This is an example in which an automobile area is divided into a plurality of shooting areas and displayed in different colors in the coordinate space of the perspective view.
  • An area displayed in color (with a pattern in FIG. 11) is an overlapping imaging area, an area displayed in white is a single imaging area, and an area displayed in black is an unimagined area. In this way, by color-coding the shooting area, it is possible to visually grasp the shooting shortage area, and the efficiency of shooting is promoted.
  • the image of the shooting area is extracted from the shot image and stored in the shooting area partial storage unit 54, and the image of each shooting area is stored in the shooting range image forming unit 86 from the shooting area partial storage unit 54.
  • Visualize the shooting range image by extracting and pasting the images of each shooting area so that the positions of three or more marks surrounding the shooting area match the mark positions input to the shooting range image. it can.
  • FIG. 12 shows an example in which the captured image is pasted and displayed on the two-dimensional imaging range image.
  • a mark code corresponding to the mark position (1 in ⁇ to 18 in ⁇ ) is assigned.
  • the mark codes are displayed in different colors. Red (marked with R) indicates a single shooting mark, and black (not marked) indicates a double shooting mark.
  • the area surrounded by the mark code (1 in ⁇ to 6 in ⁇ ) is left blank and is an unphotographed area.
  • Mark code (4 in ⁇ to 6 in ⁇ ) ... (inside ⁇ 16 to ⁇ , the area surrounded by 18) is a photographed area pasted with a photographed image. Further, the photographed image pasted on the photographing range image is the right half of the photographed image photographed from the front with the three marks on the left side as the center line in each region.
  • FIG. 13 shows an example in which a photographed image is pasted and displayed on the three-dimensional photographing range image.
  • the position of the retro target portion of the color code target is displayed as a square ⁇ in the coordinate space of the perspective view, and mark codes (A1 to A8) corresponding to the color code target are displayed.
  • the position of a single retro target is indicated by a circle ⁇ , and mark codes (T1 to T8) corresponding to the single retro target are displayed.
  • a photographed image is pasted in the already photographed area, and there is no photographed image in the unphotographed area, and the space is displayed as it is. *
  • control unit 10 has a control program in the built-in memory, controls the three-dimensional measurement image capturing apparatus 1 and each of the components, controls the flow of signals and data, and performs three-dimensional measurement.
  • a function as an image photographing device is executed.
  • the mark extraction unit 71 extracts a mark from the photographed image
  • the code identification unit 72 identifies the extracted identification code of the mark
  • the photographing region classification unit 81 sets the region of the measurement object 2 as the photographing region for the photographed image.
  • the mark shooting number counting unit 82 counts the number of shootings for each mark
  • the area shooting number counting unit 83 counts the number of shootings for each shooting region
  • the mark grouping unit 83 sets 2 marks according to the number of shootings.
  • the shooting area grouping unit 84 groups the shooting areas into two or more groups according to the number of shooting times, and the shooting range image forming unit 86 sets the position of the mark input to the shooting range image. Are connected so that the mark codes of the marks surrounding the shooting area match, and the shooting area image is applied to the shooting range image.
  • the feature extraction unit 7, the image processing unit 8, and the control unit 10 are configured in the PC 15.
  • FIG. 14 shows an example of a processing flow of image capturing.
  • FIG. 14A shows an example in which the shooting areas are grouped and displayed.
  • a mark arrangement relationship is input (mark data input step: S300).
  • the number of identification codes that can be identified by themselves and the code number are input so that the photographed identification codes can be identified.
  • the mark can be identified, the three-dimensional position of the mark can be measured as described in the fourth and fifth embodiments. Therefore, it is only necessary to input the position coordinates measured as the coordinates of the shooting range image, and it is not necessary to specify the mark position in advance. In this embodiment, an example in which the measurement of the three-dimensional position is not performed will be described.
  • the mark position to be input to the coordinates of the shooting range image is designated in advance. Even if the designated coordinates and the position of the pasted mark do not exactly match, it is sufficient because accurate coordinates can be obtained later by texture mapping or three-dimensional position measurement.
  • a mark is affixed to a predetermined location of the measurement object 2, and the mark data input unit 61 indicates the number of identification codes that can be identified by the user and the code number together with the position of the affixed mark as a mark code. Input in association with.
  • a position coordinate designated in advance as a mark position is input.
  • a mark having an identification code that can be identified by itself or the like, a color code target is used here.
  • the measurement object 2 with the mark attached is imaged by the imaging unit 3 (imaging process: S320).
  • the mark code is extracted (S330). That is, the mark extraction unit 71 extracts a mark from the photographed captured image (mark extraction step), the code identification unit 72 identifies the mark identification code, and the identification code is assigned to the mark code. Correlate (code identification process).
  • non-overlapping imaging regions are extracted (S340). That is, the imaging area classification unit 81 classifies the area of the measurement object 2 in the captured image into imaging areas composed of areas (including the marks) surrounded by three or more marks, and assigns imaging area numbers. (Photographing area classification process).
  • the area imaging frequency counting unit 83 counts the imaging frequency included in different captured images for each imaging area (area imaging frequency counting step). For example, when all the marks surrounding each shooting area are shot, the number of shootings is counted assuming that the shooting area is shot. Further, the area shooting count storage unit 53 stores the counted shooting count of each shooting area in association with the mark code of the mark surrounding the shooting area (area shooting count storage step). Further, the shooting area grouping unit 85 groups the shooting areas into two or more groups according to the number of shooting times of the shooting area (shooting area grouping step). Thereby, for example, a non-overlapping imaging region can be extracted by grouping the non-overlapping imaging region and the overlapping imaging region. Further, it is possible to determine whether or not there is an unphotographed area by determining whether or not all the input identification codes and code numbers have been photographed.
  • a shooting range image is formed (S345). That is, the shooting range image forming unit 86 connects the positions of the marks input to the shooting range image so that the mark codes of the marks surrounding the shooting range match, and fits the shooting range to the shooting range image. Then, an imaging range image is formed (imaging range image forming step). A mark code and a position are determined for the mark input to the shooting range image, and a mark code is specified for the mark surrounding the shooting area. Therefore, the shooting area can be applied by connecting the position coordinates of three or more marks surrounding the shooting area in the shooting range image so that the mark codes match.
  • an image of each shooting area is extracted from the shot image and stored in the shooting area partial storage unit 54, and an image of each shooting area is extracted from the shooting area partial storage unit 54 by the shooting range image forming unit 86. If the image of each shooting area is stretched and pasted so that the positions of three or more marks surrounding the shooting area match the mark position input to the range image, the shot image is pasted to the shooting area.
  • a shooting range image is formed, and a sense of reality is generated.
  • the photographing range image may include not only the outline of the photographing region but also the actual photographed image.
  • the photographing areas defined in the photographing range image are grouped into two or more groups and displayed (display process: S350). For example, the overlapping shooting area and the non-overlapping shooting area are displayed in groups.
  • the control unit 10 determines whether or not a non-overlapping shooting area exists (S360). If it exists (Yes in S360), the process returns to the shooting step (S320), and repeats from shooting to display. If it does not exist (No in S360), the photographing process is terminated.
  • the grouping of marks will be described later, but it is needless to say that the grouped marks may be included in the photographing range image here.
  • FIG. 14B shows an example in which marks are displayed in groups.
  • the process from the mark data input process (S300) to the code identification process is the same as in FIG. Next, non-overlapping marks are extracted (S340A). That is, the mark photographing number counting unit 82 counts the number of photographing included in different photographed images for each mark (mark photographing number counting step). Further, the mark photographing number storage unit 52 stores the counted photographing number of each mark in association with the mark code (mark photographing number storage step). Further, the mark grouping unit 84 groups the marks into two or more groups according to the number of times the mark has been shot (mark grouping step). As a result, for example, non-overlapping marks can be extracted by grouping non-overlapping shooting marks and overlapping shooting marks.
  • an imaging range image is formed based on the position of a mark having an identification code that can identify itself and others in the captured image (S345A).
  • the mark position coordinates measured three-dimensionally can be used.
  • a mark position designated in advance is input. That is, the mark position input to the shooting range image is mapped.
  • the display unit 4 attaches a mark code to the mark position in the shooting range image, and displays the mark divided into two or more groups (display process: S350A). For example, overlapping shooting marks and non-overlapping shooting mark areas are displayed in groups.
  • the subsequent determination as to whether or not there are non-overlapping shooting marks (S360) and the repetition loop are the same as in the case of FIG.
  • the photographing range image here indicates at least the position of a mark having an identification code that can identify itself and others. Furthermore, an actual captured image may be added, or the outline of the imaging region included in the imaging range may be added.
  • an image photographing apparatus for three-dimensional measurement that can perform photographing efficiently without excess or deficiency when photographing while moving using a single camera. That is, since the number of times of photographing in each photographing region is clearly indicated, efficient photographing can be performed without excess or deficiency. Since a mark having an identification code that can identify itself and others is used, it is advantageous for automating image processing such as connection of captured images, three-dimensional measurement of mark data, and formation of texture images.
  • the shooting area is grouped according to the number of times of shooting.
  • the shooting area is grouped according to the number of times of shooting.
  • the function of the mark shooting number storage unit 52 is included in the area shooting number storage unit 53
  • the function of the mark shooting number counting unit 82 is included in the area shooting number counting unit 83.
  • the mark photographing number storage unit 52 and the mark photographing number counting unit 82 can be omitted. Since the grouping is performed by the shooting area grouping unit 85 for the shooting areas, the mark grouping unit 84 can be omitted.
  • the processing flow of image shooting is shown in FIG.
  • an imaging range image in which the imaging areas as shown in FIG. 11 are grouped.
  • Tertiary images that can be displayed visually such as overlapping shooting regions and non-overlapping shooting regions, and when shooting is performed while moving using a single camera, as in the first embodiment, shooting can be performed efficiently without excess or deficiency.
  • An original measurement image capturing apparatus can be provided.
  • the captured image storage unit 51, the mark shooting number storage unit 52, the mark shooting number counting unit 82, and the mark grouping unit 84 may be provided. Since this is not necessary, the area shooting number storage unit 53, the shooting area partial storage unit 54, the shooting area sorting unit 81, the area shooting number counting unit 83, the shooting area grouping unit 85, and the shooting range image forming unit 86 can be omitted. .
  • the processing flow of image shooting is shown in FIG.
  • a shooting range image in which marks as shown in FIG. 10 are grouped can be displayed.
  • the mark can be visually displayed such as an overlapping shooting area and a non-overlapping shooting area, and in the same way as in the first embodiment, when shooting while moving using a single camera, it is possible to efficiently perform shooting without excess or deficiency.
  • An image capturing device for measurement can be provided.
  • the number of identification codes and the code numbers that can be identified by each other and the code number are input, and the position of the mark that is input to the shooting range image has been described as an example.
  • a three-dimensional position measurement unit is provided, and the mark position input to the imaging range image is a three-dimensional coordinate obtained by the three-dimensional position measurement unit.
  • the mark data input unit 61 automatically inputs the obtained three-dimensional position coordinates into the shooting range image.
  • FIG. 15 shows a block diagram of a configuration example of the three-dimensional measurement image capturing apparatus 1A according to the present embodiment.
  • a three-dimensional position measurement unit 9 is added to the configuration of the first embodiment and is used for image capturing processing.
  • the three-dimensional position measurement unit 9 obtains the three-dimensional position coordinates of the feature point including the mark of the object to be imaged 2 from the screen position in the captured image of the feature point including the mark extracted by the mark extraction unit 71.
  • the mark extraction unit 71 extracts feature points including marks from the captured image.
  • the three-dimensional position measurement unit 9 includes a corresponding point search unit 91 for obtaining a corresponding point in a stereo image for the feature point extracted by the mark extraction unit 71, and a photographing unit based on the corresponding point obtained by the corresponding point search unit 91.
  • 3 has an orientation unit 92 for obtaining the camera tilt, and a 3D coordinate measuring unit 93 for obtaining the 3D position coordinates of the feature points using the camera position obtained by the orientation unit 92.
  • the mark data input unit 61 acquires the position coordinates of the feature point including the mark measured three-dimensionally and automatically inputs it to the shooting range image.
  • the feature points of the measurement object 2 are obtained by mutual orientation using the feature points of the overlapping portions in two or more photographed images.
  • two captured images are set as stereo images (one is a reference image and the other is a search image), and corresponding points are associated (corresponding points) by a corresponding point search unit 91.
  • Corresponding point search is performed by cross-correlation processing.
  • FIG. 16 is a diagram for explaining the corresponding point search.
  • the template image of N 1 ⁇ N 1 pixel is moved over the search range (M 1 ⁇ N 1 +1) 2 in the input image of M 1 ⁇ M 1 pixel larger than that, and C
  • the upper left position of the template image in which (a, b) is maximized is obtained, and it is considered that the template image has been searched.
  • a template image of N 1 ⁇ N 1 pixel is set on the left image
  • a search region of M 1 ⁇ M 1 pixel is set on the right image, and this operation is performed on each image. What is necessary is just to do about a position.
  • the normalized cross-correlation processing has been described with respect to the corresponding point search, but other methods, for example, a residual sequential test method (SSDA) may be used.
  • SSDA residual sequential test method
  • a model image refers to a three-dimensional image obtained when a subject is reproduced from two or more three-dimensional photographs. Forming relatively similar model images is called relative orientation. That is, the relative orientation determines the position and inclination of the projection center of each of the left and right cameras so that two corresponding light beams of the stereoscopic photograph meet.
  • FIG. 17 is a diagram for explaining relative orientation. Next, the details of the orientation calculation of each model image will be described. By this calculation, the positions of the left and right cameras (three-dimensional coordinates and three-axis tilt) are obtained. The parameters relating to the positions of these cameras are obtained by the following coplanar conditional expression.
  • the origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis.
  • the base line length is taken as the unit length.
  • the parameters to be obtained at this time are the rotation angle ⁇ 1 of the left camera, the rotation angle ⁇ 1 of the Y axis, the rotation angle ⁇ 2 of the right camera, the rotation angle ⁇ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ⁇ 2.
  • the rotation angle ⁇ 1 of the X axis of the left camera is 0, so there is no need to consider it.
  • unknown parameters are obtained by the following procedure.
  • B) The coplanar conditional expression (Expression 4) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by (Expression 5) and (Expression 6), and an observation equation is established.
  • C) A least square method is applied to obtain a correction amount for the approximate value.
  • E Using the corrected approximate value, the operations from (b) to (e) are repeated until convergence.
  • FIG. 18 is a diagram for explaining the stereo method.
  • two cameras C1 and C2 are used, the optical axes are parallel, the distance c from the camera lens principal point to the CCD plane is equal, and the CCD is placed perpendicular to the optical axis. It shall be.
  • B be the distance between the two optical axes (baseline length). The following relationship exists between the coordinates of the point P (x, y, z) on the object and the coordinates of the points P1 (x1, y1) and P2 (x2, y2) on the photographing screens of the cameras C1 and C2. .
  • Z is obtained from (Equation 9), and x and y are obtained from (Equation 7) and (Equation 8) using this. If the obtained position coordinates of the mark can be mapped to the three-dimensional imaging range image, the imaging area can be applied by connecting the mapped marks, and an imaging range image as shown in FIG. 11 can be formed. Further, a visual image as shown in FIG. 13 can be formed by pasting an image of each photographing region.
  • a three-dimensional model image, an ortho image, and a panoramic image can be formed. If feature points are arranged and constructed in the 3D shooting range image space from the obtained 3D coordinates, the 3D model image is projected. If a model image is projected, it becomes a panoramic image. Further, the accuracy of the shooting range image can be improved by using the three-dimensional coordinates. With respect to the shooting area, it is possible to visually distinguish an overlapping shooting area, a non-overlapping shooting area, etc., and to improve the efficiency of shooting.
  • the position of the mark input to the shooting range image is the position coordinate obtained by the three-dimensional position measurement unit 9
  • the three-dimensional coordinate is obtained from the shot image. Will be explained.
  • the mark data input unit 61 automatically inputs the obtained three-dimensional position coordinates to the imaging range image.
  • the mark data input unit 61 can use the three-dimensional coordinates obtained by texture mapping as the position of the mark input to the shooting range image. In this way, the accuracy of the shooting range image can be improved.
  • a method for texture mapping an image photographed on a photograph onto a model image formed on spatial coordinates (X, Y, Z) will be described.
  • the spatial coordinates of each pixel (pixel) on the image are calculated.
  • the image coordinates (x, y) on the photograph are converted into spatial coordinates (X, Y, Z).
  • Spatial coordinates (X, Y, Z) are values calculated by three-dimensional measurement.
  • ( ⁇ X, ⁇ Y) the size of one pixel in the spatial coordinate system
  • (X, y) image coordinates of the photographic image
  • (X, Y, Z) spatial image coordinates
  • a, b, c, d coefficients of a plane equation formed by a plurality of reference points for interpolating a certain image coordinate (x, y).
  • This coefficient is, for example, a coefficient of a plane equation of triangle interpolation processing (Triangulated Irregular Network, TIN).
  • TIN generates a mesh having triangular units as a method for interpolating three-dimensional coordinates, and is also called a triangular network.
  • Masao Iri Takeshi Koshizuka: Computational Geometry and Geographic Information Processing, pp 127, "Franz Aurenhammer, Atsuyoshi Sugihara: Voronoi Diagram, Introduction to One Basic Geometric Data Structure, ACM Computing (See “Surveys, Vol. 23, pp 345-405”).
  • a photographic range image in which the photographic region is applied can be formed.
  • a visual image as shown in FIG. 13 can be formed by pasting pixels of each photographing region.
  • ortho images and panoramic images can be formed. With respect to the shooting area, it is possible to visually distinguish an overlapping shooting area, a non-overlapping shooting area, etc., and to improve the efficiency of shooting.
  • a camera shooting range indicating a region shot by a camera is further displayed on the shooting range image.
  • the camera shooting range is formed to indicate a range of one of the shot images (referred to as a first shot image).
  • the image processing unit includes a boundary line creating unit (not shown), and the boundary line creating unit extracts a plurality of feature points near the boundary of the first captured image and stores the captured region stored in the captured region partial storage unit 54. Of these, the image is plotted in the imaging region including these feature points.
  • the shooting area including these feature points is extracted from the second shooting image having the first shooting image and the overlapping shooting area. It is preferable to select a photographed image obtained by photographing the photographing region from the vertical direction as much as possible as the second photographed image.
  • the photographic image area forming unit 86 forms a camera photographic range by inputting these boundary lines at the same time when forming a photographic image in the photographic range image using these photographic areas. Since the boundary line is created based on the feature points of the first captured image, the camera shooting range is consequently slightly smaller than the actual shooting range, but it is safe to see the overlap state. There is no problem because it is on the side. Thereby, the display unit 4 can display the camera shooting range on the shooting range image.
  • the camera photographing area can be displayed with higher accuracy.
  • the camera shooting range By displaying the camera shooting range in this way, it is possible to grasp the shooting range of the actual camera, so it is easy to grasp the relationship between the shooting area and the shooting range of the camera.
  • the three-dimensional measurement image capturing apparatus further displays the live image 11 and the already captured image 12 on the same screen, and displays the mark when the current position is captured.
  • the live image refers to an image obtained by photographing a measurement object 8 using a video camera or a digital camera as the photographing unit 3 at a current position by a moving photographer.
  • the measurement object is displayed as a live image on a finder, a display, or the like as the display unit 4 while the photographer moves using a video camera or a digital camera.
  • the live image 11 is overwritten in a temporary memory (not shown) of the storage unit 5 and transferred to the display unit 4 for display.
  • a comparison mode is set by a shutter operation, a live image is acquired as a still image, and processing such as adding a mark code by the image processing unit 8 becomes possible.
  • the comparison mode the image-processed still image is displayed. If it is determined that the photographer can shoot at the position of the still image and an “OK” signal is input from the input key, for example, the still image is stored as a captured image in the captured image storage unit 51 and the comparison mode is changed to the normal mode. Return. If the photographer inputs a “No” signal, for example, from the input key, the still image is erased and the comparison mode returns to the normal mode.
  • 19 to 23 are diagrams in the comparison mode.
  • FIG. 19 shows an example (part 1) of displaying the already-captured image 12 and the live image 11 on the same screen.
  • FIG. 19A shows a display screen before shooting
  • FIG. 19B shows a display screen after shooting. Both images show an already shot image on the left side and a live image on the right side.
  • a mark color code target
  • a corresponding mark code (1 to 6 in a circle) is displayed thereon.
  • the mark codes are displayed in different colors according to the number of times of shooting, red (added with R) indicates a single shooting mark, green (added with G) indicates a two shooting mark, and blue (added with B) indicates a three shooting mark.
  • the number of shooting after shooting at the current position where the live image is acquired is shown.
  • the mark codes (1 to 6 in a circle) in the live image are all red (added with R), which indicates that a single image is taken when shooting at this position.
  • a live image is acquired as a captured image, and the acquired captured image is displayed as an already captured image as shown in FIG. Thereafter, the photographer moves and a mark with a mark code (3 to 8 in a circle) is displayed on the live image.
  • the mark code (3 to 6 in the circle) of the mark in the range where the already shot image and the live image overlap is green (G is added). Show.
  • the mark codes of other marks (1 to 2, 7 to 8 in the circles) are red (R is added), which indicates that a single shooting mark is obtained when shooting at this position.
  • FIG. 20 shows an example (part 2) in which the already-captured image 12 and the live image 11 are displayed on the same screen.
  • a live image is acquired as a captured image, and the acquired captured image is displayed as the captured image as illustrated in FIG.
  • the captured image in FIG. 19B is displayed as the captured image on the left side, and the captured image acquired from the live image in 19B is displayed as the center captured image.
  • the photographer moves, and a mark with a mark code (5 to 10 in a circle) is displayed on the live image on the right side.
  • the mark code (5-6 in the circle) of the mark in the range where the two already captured images and the live image overlap is blue (added with B). Show.
  • the mark codes (3 to 4, 7 to 8 in circles) of the marks that overlap the two images of the three images are green (G is added). It shows that it becomes a mark.
  • the mark code (marked with 1 to 2, 9 to 10) within the mark that is only one of the three images is red (added with R). Is shown.
  • FIG. 21 shows an example of displaying the already captured image 12. It is an example when it image
  • the left and center captured images in FIG. 21 are the same as the left and center captured images in FIG.
  • the captured image on the right side of FIG. 21 is a captured image acquired from the live image of FIG.
  • FIG. 22 shows an example (part 3) in which the already-captured image 12 and the live image 11 are displayed on the same screen.
  • FIG. 22A shows a display screen before shooting
  • FIG. 22B shows a display screen after shooting, both of which show an already shot image on the left side and a live image on the right side.
  • a mark color code target
  • the number of shootings is further displayed in different colors, with red (R added) taken once, green (G added) taken twice, and blue (B added) taken three times.
  • the number of shooting after shooting at the current position where the live image is acquired is shown.
  • the number of times of shooting in the live image is 1, which indicates that shooting at this position results in a single shooting mark.
  • a live image is acquired as a captured image, and the acquired captured image is displayed as an already captured image as illustrated in FIG. Thereafter, the photographer moves and another mark arrangement is displayed on the live image.
  • the number of times the mark is in the range where the already-captured image and the live image overlap is 2, indicating that if the image is captured at this position, a two-image capture mark is obtained.
  • the number of times of shooting of other marks is 1, indicating that shooting at this position results in a single shooting mark.
  • FIG. 23 shows an example (part 4) in which the already-captured image 12 and the live image 11 are displayed on the same screen.
  • a live image is acquired as a captured image, and the captured image acquired in the already captured image is displayed as illustrated in FIG.
  • the captured image in FIG. 22B is displayed as the captured image on the left side, and the captured image acquired from the live image in FIG. 22B is displayed as the center captured image.
  • the photographer moves and another mark arrangement is displayed on the live image on the right side.
  • the number of times the mark is in the range where the two already-photographed images and the live image overlap is three, indicating that if a photograph is taken at this position, a three-shot photograph mark is obtained.
  • FIG. 23B shows an example of displaying an already captured image. It is an example when it image
  • the left and center captured images in FIG. 23 (b) are the same as the left and center captured images in FIG. 23 (a).
  • the photographed image on the right side of FIG. 23B is a photographed image acquired from the live image of FIG.
  • the live image can be captured while comparing with the already captured image, and the number of times the mark has been captured is displayed, which is suitable for eliminating non-overlapping images.
  • FIG. 24 is a diagram illustrating an example in which both a color code target and a retro target are used as distinguishability marks.
  • Color code targets (A10 to A13) and retro targets (T10, T11, etc.) are affixed to the earthenware as the measurement object 2.
  • the retro target T10 is in a triangle formed by the color code targets (A10 to A12), and if the positional relationship is specified with respect to the color code targets (A10 to A12), distinctiveness is generated.
  • the retro target T11 is in a triangle formed by the color code targets (A11 to A13), and if the positional relationship with respect to the color code targets (A11 to A13) is specified, the distinguishability is generated. For example, it can be specified by a direction and distance from a mark having a specific code, a projection point (intersection of perpendicular lines) and a distance on a triangle formed by three marks having a specific code, and the like.
  • a retro target (T10, T11, etc.) that is a non-code mark can be used as a distinguishability mark.
  • this arrangement relationship may be projected onto a three-dimensional space, and non-code marks may be identified from the consistency of the arrangement relationship.
  • a non-code mark identification unit (not shown) identifies a non-code mark from the arrangement relationship of the non-code mark extracted by the mark extraction unit 71 with a mark having another self-identifiable code, and has a distinctiveness due to the arrangement relationship.
  • a mark code is given to the generated non-code mark.
  • the present invention can also be realized as an invention of a three-dimensional measurement image photographing method described in the flowcharts of the above-described embodiments, and as a program for causing a three-dimensional measurement image photographing apparatus to execute the method invention. is there.
  • the program may be stored and used in a built-in storage unit of the three-dimensional measurement image capturing apparatus, may be stored and used in an external storage device, or may be downloaded from the Internet and used.
  • it is realizable also as a recording medium which recorded the said program.
  • an image photographing apparatus for three-dimensional measurement that can perform photographing efficiently without excess or deficiency when photographing while moving using a single camera.
  • the number of times of photographing of the mark or the photographing region is displayed, the photographing range image is displayed in a two-dimensional or three-dimensional display, and the mark data to be input to the photographing range image is a predetermined value or measured.
  • a display image is a shooting range image or a live image
  • the number of shootings is the number of shootings or the number of shots after shooting, these options can be freely selected.
  • the shooting range image may be displayed so that it can be compared with the live image.
  • the shooting range image is linked with the live image, and the mark or shooting region corresponding to the live image of the shooting range image is displayed by the number of times after shooting. May show.
  • the size of the shooting area can be freely changed by changing the combination of marks surrounding it.
  • the photographed image is selected so as to be about 1/3 of the whole photographed image, and the photographed image is photographed while moving so as to change by about 1/3.
  • shooting is performed at a pair of positions shifted by one step at an arbitrary shooting position, an image close to a stereo image can always be obtained, and it is easy to use for orientation and three-dimensional measurement.
  • the display before shooting and the display after shooting may be switched when comparing the live image and the already shot image.
  • the imaging range image may be expressed by an ortho image, a panoramic image (including an image captured and connected from around the measurement object), a texture image, a wire frame image, a bird's eye view, and the like.
  • the display of the number of times of photographing, the way of grouping, the number of pasted marks, etc. can be changed as appropriate.
  • the present invention can be used for photographing for three-dimensional measurement when photographing the entire circumference of the measurement object, when the measurement object is large, or when the surface shape is complicated.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

 撮影を過不足なく効率的に行える三次元計測用画像撮影装置を提供する。 三次元計測用画像撮影装置(1)は、単カメラ(3)を用いて、撮影領域が重複し、かつ、測定対象物(2)に付された少なくとも1つのマークが常に含まれるように、測定対象物(2)を異なる位置から撮影し、各撮影画像からマークを抽出してマークの符号情報を判別し、抽出されたマークを用いて各撮影画像から撮影領域画像を抽出し、各撮影領域画像が全撮影画像に含まれる数を計数し、計数された数に応じて各撮影領域画像をグループ分けし、測定対象物(2)の撮影範囲を表現するための撮影範囲画像に符号情報を有するマークを配置し、撮影範囲画像に配置されたマークの位置及び符号情報と各撮影画像で抽出されたマークの位置及び符号情報が合致するように各撮影領域画像を撮影範囲画像に当てはめ、当てはめた各撮影領域画像をグループ毎に異なる態様で表示する。

Description

三次元計測用画像撮影装置及び方法
 本発明は三次元計測用画像撮影装置及び方法に関する。詳しくは、測定対象物各部の撮影回数を提示する三次元計測用画像撮影装置及び方法に関する。
 測定対象物の全体像を把握し、三次元モデル画像に再現するには、複数の撮影位置から撮影した撮影画像を連結していく必要がある。このように撮影者が移動しながら撮影した複数の撮影画像から撮影装置または対象物の三次元座標を測定するには、2枚以上の各撮影画像上で相互に対応する特徴点(対象物上の同一点を表す)を求め、これを追跡する必要がある。この場合、三次元計測に不適切な特徴点が撮影画像に混入し得るので、撮影画像における特徴点の適否を判定しながら、その撮影装置の撮影位置、姿勢又は対象物の位置座標を精度良く計測できる画像処理装置が提案されている。(特許文献1参照)
特開2007-183256号公報(図1~図11、段落0021~0065)
 単カメラを用いて移動しながら撮影を行い、測定対象物の三次元計測を行う場合に、多数の方向からかつ画像を重複させながら撮影を行い、画像を連続的に接続して行く必要がある。しかしながら、測定対象物の全周撮影を行う場合や、測定対象物が大きい場合・広い場合、形状が複雑な場合等には、撮影枚数が多数になり、三次元計測に必要な画像の重複状態が不明になったり、撮りこぼしが生じたりして、結果的に撮影画像に不足が生じ、解析ができない、再度現場に行き撮り直しする必要が生じる等、効率が悪くなるという問題があった。他方、撮影不足を補うために予め撮影枚数を多目にすると、解析時の画像処理や作業の手間が多くなり、やはり結果的に効率が悪くなるという問題があった。
 図25に測定対象物が大きい場合・広い場合の例を示す。これは幅数10mの土量の例である。土量の随所に識別コードを有するマークが配置されているが、測定対象物が大きいので、広い範囲をカバーしようとして遠くから撮影すると識別コードを判別できないという問題が生じており、これは結果的に撮影画像が不足する場合に該当する。
 本発明は、上記問題点に鑑みてなされたものであり、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供することを目的とする。すなわち、マークの識別コードを特に意識しなくても、撮影時にマークの撮影回数が分れば撮りこぼしを未然に防止できる。1回撮影すれば外観を捉えることができるが、三次元計測には2つの撮影画像に重複して撮影された特徴点を使用するため2回以上の撮影が必要である。また、撮影画像をパノラマ画像のように接続するためには、接続に使用される特徴点又はマークは3回以上撮影される必要がある。また、特徴点の撮影回数が多い程、当該特徴点の三次元計測の精度が向上する。
 上記目的を達成するため、本発明の第1の態様の三次元計測用画像撮影装置1は、例えば図1に示すように、測定対象物2を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置1において、自他識別可能な識別コードを有するマークが所定の条件で貼付された測定対象物2を撮影する撮影部3と、撮影部3で撮影された撮影画像からマークを抽出するマーク抽出部71と、マーク抽出部71で抽出されたマークの識別コードを識別し、識別コードをマークに付与されるマーク符号と対応付けるコード識別部72と、撮影画像の画面の各位置で抽出されたマークについて、識別された識別コードによりマーク符号を特定し、撮影画像における測定対象物2の領域をマーク符号が特定された3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分する撮影領域区分部81と、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部83と、撮影領域の撮影回数に応じて、撮影領域を2以上のグループにグループ分けする撮影領域グループ化部84と、測定対象物2の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に測定対象物2に貼付されたマークの位置をマーク符号と対応付けて入力するマークデータ入力部61と、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して撮影範囲画像に撮影領域を当てはめる撮影範囲画像形成部86と、撮影範囲画像において、当てはめられた撮影領域を2以上のグループにグループ分けして表示する表示部4とを備える。
 ここにおいて、自他識別可能な識別コードを有するマークには、数字列、文字列、記号のように識別可能な符号を用いたコード、バーコード、2次元バーコード、カラーコードのようにパターン配置に識別性を持たせたコードが含まれる。このうち、実施例では主にカラーコードを使用する例を説明する。また、マーク符号は、例えば「M20」のように、数字、文字、記号及びその組み合わせで表示される。また、所定の条件はマークの配置に関するものでも良い。例えば、測定対象物2の全容を把握できるように測定対象物2の表面にほぼ均等な間隔で配置することが好ましい。また、形状が複雑な部分や変化の大きい部分には詳細を把握しやすいように高密度に配置することが好ましい。また、所定の条件は、マークの位置座標は予め指定されているという条件でも良く、自他識別可能な識別コードを有するマークの数が予め定められているという条件でも良い。また、撮影領域の撮影回数は、例えば撮影画面内に撮影領域を囲む全てのマークが存在する場合に撮影領域があるとして計数しても良い。また、マークデータ入力部61は予め指定された位置を入力する場合は、キーボード等の入力機器を使用するが、計測された三次元位置を入力する場合は、記憶部5に記憶された位置座標を読み出し自動的に入力する。このため、マークデータ入力部6は一部パーソナルコンピュータ(PC)内に設けられる。また、撮影領域は、ここではマーク符号が特定された3以上のマークに囲まれた領域である。必ずしも撮影画像の範囲(実際に撮影された範囲)に一致しなくても良く、例えば、この領域に焦点を当てて撮影したいというように、撮影の目標と成り得る領域であっても良い。撮影領域を撮影画像内のマークに囲まれた最大の多角形領域としても良いが、この場合は他の撮影画像と一部重複することが見出されたら、重複部分と非重複部分で撮影回数に差異が生じるので、重複部分と非重複部分に分割するのが良い。また、3つのマークに囲まれた小領域としても良いが、撮影領域数が多くなり、コンピュータの処理量が多くなるので、撮影回数が等しい複数の小領域を統合するのが良い。撮影画像の重複を見るためであれば、撮影画像全体の1/2~1/10程度が好適、1/3~1/5程度がより好適である。また、撮影画像における全ての撮影領域でカバーされる範囲が実際に撮影された範囲より狭くなり、これらの撮影領域外の部分が撮影されなかったとみなしても、確実に撮影された領域で撮影回数を計数していけば、重複を確実にする意味で安全サイドなので、必要な重複撮影を実行する上で問題はない。また、撮影範囲画像に撮影領域を当てはめるとは、撮影領域を囲むマークを撮影範囲画像の座標位置に配置して結線し撮影範囲画像における測定対象物2の表面を撮影領域毎に区分することをいう。また、撮影範囲画像において、第8の態様のように撮影画像自体を貼り付けても良いが、本態様では区分し、グループ分けするだけで良い。また、表示部4は画像表示することに加えて、グループ表示の位置や色を決める等の画像データ編集機能を有するので、この機能を有する部分がPC内に設けられても良い。
 本態様のように構成すると、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。すなわち、各撮影領域の撮影回数を明示するので過不足なく効率的に撮影ができる。なお、自他識別可能な識別コードを有するマークを用いるので、撮影画像の接続、マーク位置の三次元計測、三次元モデル画像の形成等の画像処理の自動化に有利である。
 本発明の第2の態様の三次元計測用画像撮影装置は、第1の態様の三次元計測用画像撮影装置において、2以上のグループを重複撮影領域グループと未重複撮影領域グループとする。
 このように構成すると、三次元計測が可能である重複撮影領域とそれ以外の未重複撮影領域を容易に見分けられる。
 本発明の第3の態様の三次元計測用画像撮影装置は、第1の態様の三次元計測用画像撮影装置において、所定の条件は、自他識別可能な識別コードを有するマークの数が予め定められているという条件であり、各マークについて、異なる撮影画像に含まれる撮影回数を計数するマーク撮影回数計数部82を備え、撮影領域グループ化部85は、1以上の撮影回数0のマークで囲まれた撮影領域を未撮影領域グループにグループ分けする。
 ここにおいて、マークの位置座標が予め指定されている場合には全ての撮影領域の位置も定まるので未撮影領域の表示が可能である。位置座標が未知の場合には未だ撮影されていない未撮影領域の位置が定まらないので、このような場合には例えば、未撮影領域全体を黒色表示する等により、未撮影領域をグループ分け表示する。このように構成すると、既撮影領域と未撮影領域を容易に見分けられる。
 本発明の第4の態様の三次元計測用画像撮影装置は、第3の態様の三次元計測用画像撮影装置において、2以上のグループを既撮影領域グループと未撮影領域グループとする、又は3枚以上撮影領域グループ、2枚撮影領域グループ、単一撮影領域グループと未撮影領域グループとする。
 このように構成すると、各撮影領域の撮影回数を容易に見分けられ、過不足なく効率的な撮影を行なうのに有益である。
 本発明の第5の態様の三次元計測用画像撮影装置1は、第1ないし第4のいずれかの態様の三次元計測用画像撮影装置において、例えば図11に示すように、表示部4は、撮影範囲画像における各撮影領域をグループに対応して色分けして表示する。
 ここにおいて、色分けには、明度、彩度、色相のいずれを用いても良く、点滅のように明度を変化させるものでも良い。本態様のように構成すると、グループを一見して識別できる。
 本発明の第6の態様の三次元計測用画像撮影装置1は、第1ないし第5のいずれかの態様の三次元計測用画像撮影装置において、所定の条件は、前記マークの位置座標は予め指定されているという条件であり、撮影範囲画像に入力されるマークの位置は、予め指定された位置座標である。
 このように構成すると、三次元計測をしなくても撮影範囲画像を作成でき、撮影範囲画像から各撮影領域の撮影回数をビジュアルに把握できる。
 本発明の第7の態様の三次元計測用画像撮影装置1Aは、第1ないし第5のいずれかの態様の三次元計測用画像撮影装置において、例えば図15に示すように、マーク抽出部71で抽出されたマークの撮影画像における画面位置から、マークの位置の三次元座標を求める三次元位置測定部9を備え、撮影範囲画像に入力されるマークの位置は、三次元位置測定部9で求められた三次元座標である。
 ここにおいて、撮影位置の二次元座標又は三次元座標を求めるには、例えば、TIN(Triangulated Irreguler Network:三角形内挿処理)法または相互標定が用いられる。また、多くの撮影画像、多くの特徴点を用いる程、位置座標の精度を高くできる。
 本態様のように構成すると、撮影対象物の三次元座標を求めて入力するので、三次元モデル画像を正確に再現できる。また、撮影範囲画像から各撮影領域の撮影回数をビジュアルに把握できる。
 本発明の第8の態様の三次元計測用画像撮影装置は、第1ないし第7のいずれかの態様の三次元計測用画像撮影装置において、撮影画像から各撮影領域の画像を抽出して記憶する撮影領域部分記憶部54を備え、撮影範囲画像形成部86は、撮影領域部分記憶部54から各撮影領域の画像を抽出し、撮影範囲画像に入力されたマーク位置に、撮影領域を囲む3以上のマークの位置が合致するように各撮影領域の画像を伸縮させて貼り付ける。
 ここにおいて、撮影領域部分記憶部54に記憶する撮影領域の画像は、その撮影領域が撮影されたいずれかの撮影画像から取得できるが、できるだけ当該撮影領域に垂直方向から撮影した撮影領域の画像を取得するのが、撮影範囲画像に貼り付ける際の変形を少なくできるので好適である。本態様のように構成すると、撮影範囲画像に撮影画像を貼り付けるので、実物ライクの三次元モデル画像を形成でき、撮影の過不足をビジュアルに判定できる。
 本発明の第9の態様の三次元計測用画像撮影装置は、第1ないし第8のいずれかの態様の三次元計測用画像撮影装置において、撮影画像から各撮影領域の画像を抽出して記憶する撮影領域部分記憶部54と、撮影画像の境界付近にある複数の特徴点を抽出し、複数の特徴点を用いて特徴点を含む各撮影領域に境界線を引いて撮影領域部分記憶部54に記憶する境界線作成部を備え、撮影範囲画像形成部86は、撮影領域部分記憶部54に記憶された各撮影領域に引かれた境界線を用いて、各撮影画像の範囲を示すためのカメラ撮影範囲を撮影範囲画像に形成し、表示部4は、各撮影画像におけるカメラ撮影範囲を撮影範囲画像に表示する。
 ここにおいて、カメラ撮影範囲は、いずれかの撮影画像(第1の撮影画像とする)の範囲を示すために形成される。特徴点を含む撮影領域は第1の撮影画像と重複撮影領域を有する第2の撮影画像から抽出される。第2の撮影画像として当該撮影領域をできるだけ垂直方向から撮影した撮影画像を選択することが好ましい。本態様のように構成すると、実際のカメラでの撮影範囲を把握できるので、撮影領域とカメラの撮影範囲の関係を把握し易い。
 本発明の第10の態様の三次元計測用画像撮影装置1は、第1ないし第9のいずれかの態様の三次元計測用画像撮影装置において、撮影領域区分部81は、1つの撮影画像の撮影領域の一部に他の撮影画像の撮影領域が重複する場合には、1つの撮影画像の撮影領域を重複する部分と重複しない部分に区分して新たな撮影領域とし、新たな撮影領域番号を付与する。
 ここにおいて、例えば、撮影領域を撮影画像内のマークに囲まれた最大の多角形領域としても良い。この場合は他の撮影画像と一部重複することが見出されたら、重複部分と非重複部分で撮影回数に差異が生じるので、重複部分と非重複部分に分割して適切な大きさに縮小していくことが好ましい。本態様のように構成すると、最初大きく形成した撮影領域を適切な大きさに縮小できるので、撮影範囲画像に撮影領域を形成した撮影範囲画像が見易くなる。
 本発明の第11の態様の三次元計測用画像撮影装置1は、第1ないし第9のいずれかの態様の三次元計測用画像撮影装置において、撮影領域区分部81は、同じ撮影回数の複数の撮影領域が連続して存在する場合には、複数の撮影領域を1つの撮影領域に統合して新たな撮影領域とし、新たな撮影領域番号を付与する。
 ここにおいて、例えば撮影領域を3つのマークに囲まれた小領域としても良い。撮影領域数が多くなり、コンピュータの処理量が多くなるので、撮影回数が等しい複数の小領域を統合して適切な大きさに拡大していくことが好ましい。本態様のように構成すると、最初小さく形成した撮影領域を適切な大きさに拡大できるので、撮影範囲画像に撮影領域を形成した撮影範囲画像が見易くなる。
 本発明の第12の態様の三次元計測用画像撮影装置1は、例えば図1に示すように、測定対象物2を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において、自他識別可能な識別コードを有するマークが所定の条件で貼付された測定対象物2を撮影する撮影部3と、撮影部3で撮影された撮影画像からマークを抽出するマーク抽出部71と、マーク抽出部71で抽出されたマークの識別コードを識別し、識別コードをマークに付与されるマーク符号と対応付けるコード識別部72と、各マークについて、異なる撮影画像に含まれる撮影回数を計数するマーク撮影回数計数部82と、マークの撮影回数に応じて、マークを2以上のグループにグループ分けするマークグループ化部84と、測定対象物2の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に測定対象物2に貼付されたマークの位置をマーク符号と対応付けて入力するマークデータ入力部61と、撮影範囲画像に入力されたマークの位置にマーク符号を付して、マークを2以上のグループにグループ分けして表示する表示部4とを備える。
 ここにおいて、マークの表示は、マーク位置とマーク符号を示すものであり、どちらをグループ分けして表示しても良い。また、マーク位置とマーク符号が一体化されている場合には、一体化されたものをグループ分けして表示する。
 本態様のように構成すると、マークの位置及び撮影回数を表示するので、今後、どのマークを含むように撮影すべきか、計画し易い。
 本発明の第13の態様の三次元計測用画像撮影装置は、第12の態様の三次元計測用画像撮影装置において、2以上のマークグループを3枚以上撮影マークグループ、2枚撮影マークグループ、1枚以下撮影マークグループとし、表示部4は、撮影範囲画像におけるマークの位置にマーク符号を付して、マークをグループに対応して異なる態様で表示する。
 本態様のように構成すると、マークの撮影回数が一見して分かる。
 本発明の第14の態様の三次元計測用画像撮影装置は、第12の態様の三次元計測用画像撮影装置において、所定の条件は、自他識別可能な識別コードを有するマークの数が予め定められているという条件であり、マークグループ化部84は、撮影回数1以上のマークを既撮影マークグループに、撮影回数0のマークを未撮影マークグループにグループ分けし、表示部4は、撮影範囲画像におけるマークの位置にマーク符号を付して、マークをグループに対応して異なる態様で表示する。
 ここにおいて、マークの数が予め定められている場合にはマークが未撮影の場合には、未撮影マークグループに属することがわかる。また、マークの位置座標が予め指定されている場合には全てのマークの位置も定まるので未撮影マークの位置表示が可能である。位置座標が未知の場合には未だ撮影されていない未撮影マークの位置が定まらないので、このような場合には例えば、未撮影マークを列挙表示する等により、未撮影マークをグループ分け表示する。本態様のように構成すると、未撮影マークの位置がわかり易い。
 本発明の第15の態様の三次元計測用画像撮影装置は、第1ないし第14のいずれかの態様の三次元計測用画像撮影装置において、自他識別可能なコードは、数字列、文字列、記号、バーコード、2次元バーコード、カラーコードのいずれか一つである。
 本態様のように構成すると、コードの識別を容易にできる。
 本発明の第16の態様の三次元計測用画像撮影装置は、第1ないし第15のいずれかの態様の三次元計測用画像撮影装置において、例えば図19に示すように、撮影部3は、移動中の撮影者が現在位置で測定対象物2を撮影することによりライブ画像を取得し、表示部4は、既撮影画像とライブ画像とを同じ画面に表示する。
 ここにおいて、ライブ画像とは、移動中の撮影者が現在位置でビデオカメラやデジタルカメラ等で測定対象物2を撮影した画像をいう。通常は、ビデオカメラやデジタルカメラを用いて撮影者が移動しながらファインダーやディスプレイ等に測定対象物をライブ画像として表示する。本態様のように構成すると、既撮影画像とライブ画像とを比較することにより、次に撮影する位置に到着したかを判断し易い。また、撮影後のマーク撮影回数を示すことにより、次に撮影する位置をより一層判断し易くなる。
 本発明の第17の態様の三次元計測用画像撮影装置は、第12の態様の三次元計測用画像撮影装置において、例えば図22に示すように、撮影部3は、移動中の撮影者が現在位置で測定対象物2を撮影することによりライブ画像を取得し、マーク撮影回数計数部82は、撮影回数として現在位置で撮影した場合を含めた撮影回数を計数し、マークグループ化部84は、マークをマークの撮影回数毎にグループ分けし、表示部4は、撮影範囲画像とライブ画像とを同じ画面に表示し、マークをマークの撮影回数毎にグループ分けして表示する。
 このように構成すると、現在位置で撮影すべきか否かを容易に判断できる。
 本発明の第18の態様の三次元計測用画像撮影装置は、例えば図24に示すように、測定対象物2を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置1において、自他識別可能な識別コードを有するマーク、及び当該マーク自体では識別性がない非コードマークが所定の条件で貼付された測定対象物を撮影する撮影部3と、撮影部3で撮影された撮影画像からマークを抽出するマーク抽出部71と、マーク抽出部71で抽出されたマークの識別コードを識別し、識別コードをマークに付与されるマーク符号と対応付けるコード識別部72と、マーク抽出部71で抽出された非コードマークについて他の自他識別可能なコードを有するマークとの配置関係から非コードマークを識別し、非コードマークにマーク符号を付与する非コードマーク識別部と、撮影画像の画面の各位置で抽出されたマークについて、識別された識別コードにより又は他の自他識別可能なコードを有するマークとの配置関係によりマーク符号を特定し、撮影画像における測定対象物2の領域をマーク符号が特定された3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分する撮影領域区分部81と、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部83と、撮影領域の撮影回数に応じて、撮影領域を2以上のグループにグループ分けする撮影領域グループ化部85と、測定対象物2の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に測定対象物2に貼付されたマークの位置をマーク符号と対応付けて入力するマークデータ入力部61と、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して撮影範囲画像に撮影領域を当てはめる撮影範囲画像形成部86と、撮影範囲画像において、当てはめられた撮影領域を2以上のグループにグループ分けして表示する表示部4とを備える。
 ここにおいて、非コードマークとして、例えばレトロターゲットが挙げられる。また、配置関係は例えば、特定のコードを有するマークからの方向と距離、特定のコードを有する3つのマークが形成する三角形への投影点(垂線の交点)との距離等により特定可能である。又は、この配置関係を三次元空間上に投影し、配置関係の合致性から非コードマークを識別してもよい。このような配置関係を有する非コードマークは唯一となるので識別性を生じる。本態様のように構成すると、非コードマークを大量に、かつ有効に利用して、詳細な三次元モデル画像の再現、三次元計測ができる。
 本発明の第19の態様の三次元計測用画像撮影方法は、例えば図14に示すように、測定対象物2を単カメラにより重複させながら順次撮影する三次元計測用画像撮影方法において、自他識別可能な識別コードを有するマークが所定の条件で貼付された測定対象物を撮影する撮影工程(S320)と、撮影工程(S320)で撮影された撮影画像からマークを抽出するマーク抽出工程と、マーク抽出工程で抽出されたマークの識別コードを識別し、識別コードをマークに付与されるマーク符号と対応付けるコード識別工程(S330)と、撮影画像の画面の各位置で抽出されたマークについて、識別された識別コードによりマーク符号を特定し、撮影画像における測定対象物2の領域をマーク符号が特定された3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分して撮影領域区分工程と、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数工程と、撮影領域の撮影回数に応じて、撮影領域を2以上のグループにグループ分けする撮影領域グループ化工程(S340)と、測定対象物2の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に測定対象物2に貼付されたマークの位置をマーク符号と対応付けて入力するマークデータ入力工程と、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して撮影範囲画像に撮影領域を当てはめる撮影範囲画像形成工程(S345)と、撮影範囲画像において、当てはめられた撮影領域を2以上のグループにグループ分けして表示する表示工程(S350)とを備える。 
 請求項1の三次元計測用画像撮影装置に対応する方法の発明である。
 本発明によれば、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。
実施例1に係る三次元計測用画像撮影装置の構成例を示すブロック図である。 二次元撮影範囲画像の座標空間に入力されたマークの位置の例を示す図(その1)である。 撮影対象物である土器にマークが貼付された撮影画像の例を示す図である。 三次元撮影範囲画像の座標空間に入力されたマークの位置の例を示す図である。 カラーコードターゲットの例を示す図である。 レトロターゲットを用いた重心位置検出の説明図である。 二次元撮影範囲画像における撮影領域の形成例を示す図である。 三次元撮影範囲画像における撮影領域の形成例を示す図である。 二次元撮影範囲画像におけるマークのグループ分け表示例を示す図である。 三次元撮影範囲画像におけるマークのグループ分け表示例を示す図である。 三次元撮影範囲画像における撮影領域のグループ分け表示例を示す図である。 二次元撮影範囲画像に撮影画像を貼付表示した例を示す図である。 三次元撮影範囲画像に撮影画像を貼付表示した例を示す図である。 画像撮影の処理フロー例を示す図である。 実施例4に係る三次元計測用画像撮影装置の構成例を示すブロック図である。 対応点探索を説明するための図である。 相互標定を説明するための図である。 ステレオ法を説明するため図である。 既撮影画像とライブ画像を同一画面に表示する例を示す図(その1)である。 既撮影画像とライブ画像を同一画面に表示する例を示す図(その2)である。 既撮影画像を表示する例を示す図(その1)である。 既撮影画像とライブ画像を同一画面に表示する例を示す図(その3)である。 既撮影画像とライブ画像を同一画面に表示する例を示す図(その4)である。 カラーコードターゲットとレトロターゲットとを共に識別性マークとして用いる例を示す図である。 測定対象物が大きい場合・広い場合の例を示す図である。
 この出願は、日本国で2009年3月16日に出願された特願2009-063659号に基づいており、その内容は本出願の内容として、その一部を形成する。
 また、本発明は以下の詳細な説明によりさらに完全に理解できるであろう。本発明のさらなる応用範囲は、以下の詳細な説明により明らかとなろう。しかしながら、詳細な説明及び特定の実例は、本発明の望ましい実施の形態であり、説明の目的のためにのみ記載されているものである。この詳細な説明から、種々の変更、改変が、本発明の精神と範囲内で、当業者にとって明らかであるからである。
出願人は、記載された実施の形態のいずれをも公衆に献上する意図はなく、開示された改変、代替案のうち、特許請求の範囲内に文言上含まれないかもしれないものも、均等論下での発明の一部とする。
 以下、図面を参照して、本発明の実施の形態について説明する。尚、各図において、互いに同一又は相当する部分には同一符号を付し,重複した説明は省略する。
 実施例1では、マーク及び撮影領域をグループ分けして表示する例で、撮影範囲画像に入力されるマークの位置は予め指定された位置である例を説明する。
[三次元計測用画像撮影装置の構成]
 図1は本発明の実施例1に係る三次元計測用画像撮影装置1の構成例を示すブロック図である。三次元計測用画像撮影装置1は、測定対象物2を撮影する撮影部3、撮影画像及び画像処理した画像、マークや撮影領域の位置や撮影回数等を表示する表示部4、撮影画像及び画像処理した画像、マークや撮影領域の位置や撮影回数等を記憶する記憶部5、マークの位置データ等を入力する入力部6、撮影画像から特徴点及びマークを抽出する特徴抽出部7、撮影画像を撮影領域に区分する、マークや撮影領域の撮影回数を計数する、マークや撮影領域をグループ分けする、撮影範囲画像を形成する等の画像処理を行う画像処理部8、三次元計測用画像撮影装置1及びそれを構成する各部を制御する制御部10を備える。記憶部5は、撮影画像記憶部51、マーク撮影回数記憶部52、領域撮影回数記憶部53、撮影領域部分記憶部54を有する。入力部6はマークデータ入力部61を有する。特徴抽出部7は、マーク抽出部71、コード識別部72を有する。画像処理部8は、撮影領域区分部81、マーク撮影回数計数部82、領域撮影回数計数部83、マークグループ化部84、撮影領域グループ化部85、撮影範囲画像形成部86を有する。
 本実施例に係る三次元計測用画像撮影装置1は、測定対象物2の全周撮影を行う場合や、測定対象物2が大きい場合・広い場合、形状が複雑な場合等の撮影に適している。撮影者は、撮影部3としての単カメラを用いて、測定対象物2の周りを移動しながら、重複撮影領域を設けて順次撮影する。三次元計測するには、重複撮影領域を共有する2つの撮影画像をステレオ画像として、その重複撮影領域から特徴点を抽出し、これらの特徴点の三次元座標を求めるため、重複して撮影することが必要である。測定対象物2には、予め定められた箇所(座標が予め指定されている)に自他識別可能な識別コードを有するマークが貼付されており、特徴点として用いられる。マークは識別性を有するので、ステレオ画像において対応点を探索する手間を要せず、三次元計測が効率的になる。さらに、マークを目印にして撮影範囲を定められるので、撮影の効率が向上する。
 撮影部3は、単カメラ、例えばビデオカメラやデジタルカメラで構成される。移動中の撮影者が現在位置でビデオカメラやデジタルカメラで測定対象物2を撮影することによりライブ画像を取得し、ファインダーやディスプレイ等に表示する。また、シャッター操作などにより静止画像である撮影画像を撮影して取得する。ビデオカメラではシャッター操作により通常は撮影画像を外部のメモリに記憶するが、内部メモリがあればそこに記憶される。デジタルカメラではシャッター操作により撮影画像を内部メモリに記憶する。撮影の際に、撮影領域を得るために、少なくとも3個以上のマークを含むように測定対象物2を撮影する。ここで、撮影領域とは、測定対象物の領域を3以上のマークで囲まれた領域(当該マークを含む)に区分したものである。
 表示部4は、例えば、液晶ディスプレイ等のディスプレイを有する。少なくとも、測定対象物2の撮影範囲画像を表示し、その中にマークや撮影領域の位置や撮影回数等を表示する。その際に、測定対象物2の撮影領域を2以上のグループにグループ分けして表示する。その他、撮影画像、画像処理した画像、オルソ画像、パノラマ画像等を表示しても良い。また、音声表示する場合にはスピーカを有する。また、表示部4は画像表示することに加えて、グループ表示の位置や色を決める等の画像データ編集機能を有するので、この機能を有する部分がPC内に設けられても良い。
 記憶部5は、例えばハードディスクで構成されデータベースとして使用される。撮影画像及び画像処理した画像を記憶する撮影画像記憶部51、各マークについて、撮影回数をマーク符号と対応付けて記憶するマーク撮影回数記憶部52、各撮影領域について、撮影回数を当該撮影領域を囲むマークのマーク符号と対応付けて記憶する領域撮影回数記憶部53、撮影画像から各撮影領域の画像を抽出して記憶する撮影領域部分記憶部54を有する。記憶部5としてカメラの内部メモリを用いても良いが、PC15のハードディスクを用いる方が高速、多様な処理に適しているので好ましい。本実施例では、外部メモリを用いるカメラでは撮影画像を記憶部5に直接記憶し、内部メモリを用いるカメラでは撮影画像を記憶部5に転送するものとする。
 入力部6は、例えばマウスやキーボードを有し、操作者がデータ及び指示を入力するために使用される。測定対象物2の二次元又は三次元の撮影範囲画像の座標空間に測定対象物に貼付されたマークの位置をマーク符号と対応付けて入力するマークデータ入力部61を有する。撮影範囲画像のマークの位置は、本実施例では予め指定された位置座標を入力する。
 図2に二次元撮影範囲画像の座標空間に入力されたマークの位置の例を示す。例えば、測定対象物2を周囲から重複撮影し連結できるように多方向から撮影し、展開図にしてマッピングする例である。平面図の座標空間にマークの位置に対応するマーク符号(○内に1~○内に15)が表示されている。これは、マーク位置とマーク符号が一体化している例である。
 図3に撮影対象物2である土器にマーク(カラーコードターゲット)が貼付された撮影画像の例を、図4に三次元撮影範囲画像の座標空間に入力されたマークの位置を示す。図4のマークの位置は図3のマークの位置を三次元撮影範囲画像の座標空間に表示したものである。撮影範囲画像の透視図の座標空間にマークの位置が正方形□で表示され、それぞれに対応するマーク符号(1~24)が表示されている。これは、マーク位置とマーク符号を分けて表示している例である。
 特徴抽出部7は、撮影画像から特徴点及びマークを抽出する。撮影部で撮影された撮影画像からマークを抽出するマーク抽出部71、マーク抽出部71で抽出されたマークの識別コードを識別し、識別コードをマークに付与されるマーク符号と対応付けるコード識別部72を有する。
 マーク抽出部71は、撮影部3で取得された複数の撮影画像におけるマークを含む特徴点を抽出する。本実施例では測定対象物である自動車や土器に自他識別可能な識別コードを有するマークとしてのカラーコードターゲットが貼り付けられており、カラーコードターゲットを特徴点として使用できる。
[カラーコードターゲット]
 図5にカラーコードターゲットCTの例を示す。図5(a)はカラーコードの単位領域が3個、図5(b)は6個、図5(c)は9個のカラーコードターゲットである。図5(a)~(c)のカラーコードターゲットCT(CT1~CT3)は、位置検出用パターン(レトロターゲット部)P1、基準色パターン(基準色部)P2、カラーコードパターン(カラーコード部)P3、空パターン(白色部)P4で構成されている。
 レトロターゲット部P1は、ターゲット自体の検出用、その重心検出用、ターゲットの向き検出用、ターゲット領域検出用として使用する。
 基準色部P2は、照明やカメラ等の撮影条件による色のずれに対応するために、相対比較時の参照用、色ずれを補正するためのカラーキャリブレーション用として使用する。さらに、基準色部P2は、簡易な方法で作成されたカラーコードターゲットCTの色彩補正用として使用できる。例えば、色管理がなされていないカラープリンター(インクジェット・レーザー・昇華型等のプリンタ)で印刷したカラーコードターゲットCTを使用する場合は、使用プリンタ等で色彩に個体差が出るが、基準色部P2とカラーコード部P3の色を相対比較し補正することで、個体差の影響を押さえることができる。
 カラーコード部P3は、その各単位領域への配色の組み合わせによってコードを表現する。コードに使用するコード色の数により表現可能なコード数が変化する。例えば、コード色数がnの場合、n×n×n通りのコードを表せる。信頼度を上げるため、他の単位領域に使用されている色を重複して使用しないという条件を課した場合でも、n×(n-1)×(n-2)通りのコードを表せる。そして、コード色数を増やせばコード数を増加できる。さらに、カラーコード部P3の単位領域の数とコード色数を等しくするという条件を課すと、全てのコード色がカラーコード部P3に使用されるため、基準色部P2との比較のみで無く、カラーコード部P3の各単位領域間で色を相対比較することにより、各単位領域の色彩を確認して識別コードを決定することができ、信頼性を上げることができる。さらに、各単位領域の面積を全て同じにする条件を追加すると、カラーコードターゲットCTを画像中から検出する際にも使用できる。これは、異なる識別コードをもつカラーコードターゲットCT間でも各色の占有する面積が同じになるため、カラーコード部全体からの検出光からはほぼ同様な分散値が得られるからである。また、単位領域間の境界は等間隔に繰り返され、明確な色彩差が検出されるので、このような検出光の繰り返しパターンからもターゲットCTを画像中から検出することが可能である。
 白色部P4は、カラーコードターゲットCTの向き検出用と色ずれのキャリブレーション用として使用する。ターゲットCTの四隅の内、一カ所だけレトロターゲットが配置されない箇所があり、これをターゲットCTの向き検出用に使用できる。このように白色部P4はレトロターゲットと異なるパターンであれば良い。したがって、白色部には目視でコードを確認するための番号などの文字列を印刷しても良く、また、バーコード等のコード領域としても使用しても良い。さらに、検出精度を上げるために、テンプレートマッチング用のテンプレートパターンとして使用することも可能である。
 コード識別部72はカラーコードターゲットCTの識別コードを識別する。パターン配置とコード番号の対応関係を記録するカラーコードターゲット対応表を用いて、カラーコードターゲットCTのカラーコード部P3における色彩の配列から識別コードを判別し、カラーコードターゲットCTに番号を付与する。
 カラーコードターゲットCTの位置はレトロターゲットP1を検出することにより求められる。カラーコードターゲットCT以外にレトロターゲットが貼付される場合、カラーコードターゲットCTに代えてレトロターゲットが貼付される場合も、マークの位置はレトロターゲットを検出することにより求められる。
 図6はレトロターゲットを用いた重心位置検出の説明図である。本実施例ではレトロターゲットは2つの同心円で形成されている。図6(A1)は同心円のうち小円の内側である内円部204の明度が明るく、小円と大円との間に形成された円環状の部分である外円部206の明度が暗いレトロターゲット200、図6(A2)は(A1)のレトロターゲット200の直径方向の明度分布図、図6(B1)は内円部204の明度が暗く、外円部206の明度が明るいレトロターゲット200、図6(B2)は(B1)のレトロターゲット200の直径方向の明度分布図を示している。レトロターゲットが図6(A1)のように内円部204の明度が明るい場合は、測定対象物1の撮影画像において重心位置での反射光量が多く明るい部分になっているため、画像の光量分布が図6(A2)のようになり、光量分布の閾値Toからレトロターゲットの内円部204や中心位置を求めることが可能となる。本実施例では、(A1)の場合、正方形の位置検出用パターンP1の中心部に小円に相当する円が一つ形成されていればよく、大円の外側は明るくても暗くてもよいが、暗くするのが良い。暗い場合は、実質的に一つの円(小円)が形成されているだけである。(B1)の場合は、大円の外側は明るくても暗くてもよいが、大円の外側が明るい場合は、実質的に明るい下地に暗い1つの円(小円)が形成されているだけである。
 ターゲットの存在範囲が決定されると、例えばモーメント法によって重心位置を算出する。例えば、図6(A1)に表記されたレトロターゲット200の平面座標を(x,y)とする。そして、レトロターゲット200の明度が、閾値To以上のx、y方向の点について、(式1)、(式2)を演算する。
 xg={Σx*f(x,y)}/Σf(x,y) ----(式1)
 yg={Σy*f(x,y)}/Σf(x,y) ----(式2)
(xg,yg):重心位置の座標、f(x,y):(x,y)座標上の光量
 なお、図6(B1)に表記されたレトロターゲット200の場合は、明度が閾値To以下のx、y方向の点について、(式1)、(式2)を演算する。これにより、レトロターゲット200の重心位置が求まる。
 カラーコードターゲット、レトロターゲットが用いられない場合、マーク抽出部71は複数の撮影画像から特徴点を抽出する。特徴点には、例えば測定対象物2の中心位置、重心位置、コーナー位置、他と異なる特徴を有する位置、測定対象物2に貼付された又は投影された標識などがある。特徴点抽出には特徴抽出オペレータが使用される。ここではモラベック(MORAVEC)オペレータを用いる例を説明する。
 MORAVECオペレータは、汎用の特徴抽出器として古くから使用されている。MORAVECオペレータは、例えば、ある注目画素の周囲3×3画素をマスクとし、マスクが注目画素の周囲4方向に各1画素移動した際の濃度差分(方向濃度差分)の最小値をその注目画素の特徴量とする。処理が単純で高速であること、比較的容易にハード化が可能なことなどが特徴である。なお、高速処理を行うためには、画像の数倍のメモリが必要となる。ここではモラベックオペレータによる特徴点抽出を説明したが、他のオペレータ、例えばハリスオペレータやその他のもの、特徴点を検出できるものならなんでもよい。
 図1に戻り、画像処理部8は、撮影画像について、測定対象物2の領域を3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分して撮影領域番号を付与する撮影領域区分部81、各マークについて、異なる撮影画像に含まれる撮影回数を計数するマーク撮影回数計数部82、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部83、マークの撮影回数に応じて、マークを2以上のグループにグループ分けするマークグループ化部84、撮影領域の撮影回数に応じて、撮影領域を2以上のグループにグループ分けする撮影領域グループ化部85、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して撮影範囲画像に撮影領域を当てはめる撮影範囲画像形成部86を有する。
 撮影領域区分部81は、撮影画像において、測定対象物2の領域を撮影領域に区分する。3以上のマークを頂点とする多角形で測定対象物2の領域を多数の領域に区分することができる。本実施例では、撮影領域の重複状況を把握するのが目標なので、撮影画像の範囲に応じた大きさの撮影領域に区分するのが好ましい。撮影領域を細かく多数にすると画像処理に時間がかかり、撮影領域をあまり大きくすると撮影画像からはみだして撮影回数を計数できなくなるので、撮影画像の範囲に応じて適切な大きさの撮影領域に区分するのが好ましい。例えば、ほぼ一平面内にあり焦点が合う範囲を、面積に応じて1~4分割する等である。撮影領域を撮影画像内(実際に撮影された範囲)のマークに囲まれた最大の多角形領域としても良いが、この場合は他の撮影画像と一部重複することが見出されたら、重複部分と非重複部分で撮影回数に差異が生じるので、重複部分と非重複部分に分割していく。また、3つのマークに囲まれた小領域としても良いが、撮影領域数が多くなり、コンピュータの処理量が多くなるので、撮影回数が等しい複数の小領域を統合していく。撮影画像の重複を見るためであれば、撮影画像全体の1/2~1/10程度が好適、1/3~1/5がより好適である。
 図7に二次元撮影範囲画像における撮影領域の形成例を示す。この例では、マーク符号(○内に1)~(○内に6)の6つマークを含む領域、すなわちマーク符号(○内に1)~(○内に6)の6つのマークで囲まれた領域が1つの撮影領域として区分される。また、マーク符号(○内に4)~(○内に9)の6つマークを含む領域、すなわちマーク符号(○内に4)~(○内に9)の6つのマークで囲まれた領域が1つの撮影領域として区分されている。以下同様にして、・・・マーク符号(○内に13)~(○内に18)の6つマークを含む領域が1つの撮影領域として区分される。
 図8に三次元撮影範囲画像における撮影領域の形成例を示す。透視図の座標空間に自動車の領域が複数の撮影領域に区分されている例である。これらの領域の多くは四角形であり、少なくとも3つのマークで囲まれた領域が1つの撮影領域として区分されている。
 マーク撮影回数計数部82は、各マークについて、異なる撮影画像に含まれる撮影回数を計数する。すなわち、記憶部に記憶された各撮影画像から当該マークを抽出し、抽出できた回数を当該マークの撮影回数とする。計数された撮影回数は、当該マークのマーク符号と対応付けてマーク撮影回数記憶部52に記憶する。
 領域撮影回数計数部83は、各撮影領域について、異なる撮影画像に含まれる撮影回数を計数する。すなわち、記憶部5に記憶された各撮影画像から当該撮影領域を囲むマークを抽出し、当該撮影領域を囲む全てのマークが抽出できた回数を当該撮影領域の撮影回数とする。これらのマークの1つでも欠けていれば、撮影領域全体が撮影されたことにならないので、計数されない。計数された撮影回数は、当該撮影領域を囲むマークのマーク符号と対応付けて領域撮影回数記憶部53に記憶する。また、撮影画像における全ての撮影領域でカバーされる範囲が実際に撮影された範囲より狭くなり、これらの撮影領域外の部分が撮影されなかったとみなしても、確実に撮影された領域で撮影回数を計数していけば、重複を確実にする意味で安全サイドなので、必要な重複撮影を実行する上で問題はない。
 マークグループ化部84は、マークの撮影回数に応じて、マークを2以上のグループにグループ分けする。例えば、3枚以上撮影マークグループ、2枚撮影マークグループ、1枚撮影マークグループと未撮影マークグループにグループ分けする。また、重複撮影マークグループと未重複撮影マークグループ、既撮影マーグループと未撮影マークグループにグループ分けすることも可能である。グループ分けされたグループは、例えば当該マークのマーク符号と対応付けてマーク撮影回数記憶部52に記憶する。
 撮影領域グループ化部85は、撮影領域の撮影回数に応じて、撮影領域を2以上のグループにグループ分けする。例えば、3枚以上撮影領域グループ、2枚撮影領域グループ、単一撮影領域グループと未撮影領域グループにグループ分けする。また、重複撮影領域グループと未重複撮影領域グループ、既撮影領域グループと未撮影領域グループにグループ分けすることも可能である。グループ分けされたグループは、例えば当該撮影領域を囲むマークのマーク符号と対応付けて領域撮影回数記憶部53に記憶する。
 撮影範囲画像形成部86は、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して撮影範囲画像に撮影領域を当てはめる。撮影範囲画像に入力されたマーク位置にはマーク符号が対応付けられている。従って、撮影領域を囲むマーク符号が特定された3以上のマークを結線することにより多角形が形成され、それが撮影範囲画像における当該撮影領域に該当することになる。このようにして、撮影対象物2の領域について区分された全ての撮影領域(車底等の見えない部分を除く)について、撮影領域を囲む3以上のマークを結線して撮影領域を当てはめることにより、撮影範囲画像における撮影対象物2の領域を撮影領域に区分した撮影範囲画像を形成することができる。なお、撮影範囲画像に入力されたマーク及び形成された撮影領域は表示部4にて、それぞれ、2以上のグループにグループ分けされて表示される。
 図9に二次元撮影範囲画像におけるマークのグループ分け表示例を示す。図2のマークがグループ分け表示された例である。ただし、マーク数が15から18に増加している。図9(a)はマークのグループ分けの表示例を、図9(b)は撮影画像の重なりの様子を示す。図9(a),(b)にはマークの位置に対応するマーク符号(○内に1~○内に18)が付与されている。マーク符号は色分け表示されている。赤(Rを付記)は1枚撮影マーク、緑(Gを付記)は2枚撮影マーク、青(Bを付記)は3枚撮影マークを示している。図9(c)は、撮影画像において本来3枚重複すべき箇所にありながら、本来の重複がされずに2枚撮影マークとなっているマーク(○内に10,11)本来の重複がされずに1枚撮影マークとなっているマーク(○内に12)と、撮影されていないマーク(○内に19)(0を付記)が生じている例を示している。
 図10に三次元撮影範囲画像におけるマークのグループ分け表示例を示す。図3及び図4のマークがグループ分け表示された例である。透視図の座標空間にマークの位置が正方形□で表示され、それぞれに対応するマーク符号(1~24)が表示されている。このうち未重複撮影グループ(1枚以下撮影マークグループ)のマーク(マーク符号1~6)では正方形□が大きく表示されている。
 図11に三次元撮影範囲画像における撮影領域のグループ分け表示例を示す。透視図の座標空間に自動車の領域が複数の撮影領域に区分され、色分け表示されている例である。カラー(図11では模様有り)で表示された領域が重複撮影領域、白色で表示された領域が単一撮影領域、黒色で表示された領域が未撮影領域である。このように、撮影領域を色分けすることにより、撮影不足領域をビジュアルに把握でき、撮影の効率化が促進される。
 また、例えば、撮影領域部分記憶部54に、撮影画像から撮影領域の画像を抽出して記憶しておき、撮影範囲画像形成部86にて、撮影領域部分記憶部54から各撮影領域の画像を抽出し、撮影範囲画像に入力されたマーク位置に、撮影領域を囲む3以上のマークの位置が合致するように各撮影領域の画像を伸縮させて貼り付けることによって、撮影範囲画像をビジュアルに表現できる。
 図12に二次元撮影範囲画像に撮影画像を貼付表示した例を示す。マークの位置に対応するマーク符号(○内に1~○内に18)が付与されている。マーク符号は色分け表示されている。赤(Rを付記)は1枚撮影マーク、黒(無付記)は重複撮影マークを示している。マーク符号(○内に1~○内に6)で囲まれた領域は空白のままで未撮影領域となっており、マーク符号(○内に4~○内に6)・・・(○内に16~○内に18)で囲まれた領域は撮影画像が貼り付けられ既撮影領域となっている。また、撮影範囲画像に貼り付けた撮影画像は、各領域において左側の3つのマークを中央ラインとして正面から撮影した撮影画像の右半分である。
 図13に三次元撮影範囲画像に撮影画像を貼付表示した例を示す。透視図の座標空間にカラーコードターゲットのレトロターゲット部の位置が正方形□で表示され、カラーコードターゲットに対応するマーク符号(A1~A8)が表示されている。レトロターゲット部の位置を示す正方形□が各3個ずつある。また、単体のレトロターゲットの位置が丸○で表示され、単体のレトロターゲットに対応するマーク符号(T1~T8)が表示されている。既撮影領域には撮影画像が貼り付けられ、未撮影領域には撮影画像がなく、空間のまま表示されている。 
 図1に戻り、制御部10は、内臓メモリに制御プログラムを有し、三次元計測用画像撮影装置1及びこれを構成する各部を制御し、信号及びデータの流れを制御し、三次元計測用画像撮影装置としての機能を実行させる。特に、マーク抽出部71に撮影画像からマークを抽出させ、コード識別部72に抽出されたマークの識別コードを識別させ、撮影領域区分部81に撮影画像について測定対象物2の領域を撮影領域に区分させ、マーク撮影回数計数部82に各マークについて撮影回数を計数させ、領域撮影回数計数部83に各撮影領域について撮影回数を計数させ、マークグループ化部83に撮影回数に応じてマークを2以上のグループにグループ分けさせ、撮影領域グループ化部84に撮影回数に応じて撮影領域を2以上のグループにグループ分けさせ、撮影範囲画像形成部86に、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して撮影範囲画像に撮影領域を当てはめさせ、表示部4に、撮影範囲画像において、マーク又は/及び撮影領域を2以上のグループにグループ分けして表示させる。
 なお、特徴抽出部7、画像処理部8、制御部10はPC15内に構成される。
 [処理フロー]
 図14に画像撮影の処理フロー例を示す。図14(a)に撮影領域をグループ分けして表示する例を示す。
 まず、マークの配置関係を入力する(マークデータ入力工程:S300)。所定の条件として、自他識別可能な識別コードの数、コード番号を入力して、撮影された識別コードの識別を行えるようにする。マークが識別できれば、実施例4,5で説明するようにマークの三次元位置が計測可能である。したがって、撮影範囲画像の座標に計測された位置座標を入力すれば良く、マーク位置を予め指定する必要はないのであるが、本実施例では、三次元位置の計測を行なわない例を説明するので、撮影範囲画像の座標に入力するマーク位置を予め指定するものとする。なお、指定座標と貼り付けされたマークの位置は正確に一致しなくても、後にテクスチャマッピングや三次元位置計測により正確な座標が求められるので、それでも充分である。ここでは、測定対象物2の予め指定された箇所にマークを貼付し、マークデータ入力部61にて、自他識別可能な識別コードの数、コード番号と共に、貼付されたマークの位置をマーク符号と対応付けて入力する。マークの位置として予め指定された位置座標を入力する。マークとして自他識別可能な識別コードを有するマーク、ここではカラーコードターゲットを使用する。
 次に、撮影部3により、マークが貼付された測定対象物2を撮影する(撮影工程:S320)。次に、マークのコードを抽出する(S330)。すなわち、撮影された撮影画像から、マーク抽出部71にてマークを抽出し(マーク抽出工程)、コード識別部72にてマークの識別コードを識別し、識別コードをマークに付与されるマーク符号と対応付ける(コード識別工程)。次に、未重複の撮影領域を抽出する(S340)。すなわち、撮影領域区分部81にて、撮影画像における測定対象物2の領域を3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分して、撮影領域番号を付与する(撮影領域区分工程)。そして、領域撮影回数計数部83にて、各撮影領域について異なる撮影画像に含まれる撮影回数を計数する(領域撮影回数計数工程)。例えば、各撮影領域を囲む全てのマークが撮影されている場合に当該撮影領域が撮影されているとして撮影回数を計数する。さらに、領域撮影回数記憶部53にて、計数された各撮影領域の撮影回数を、当該撮影領域を囲むマークのマーク符号と対応付けて記憶する(領域撮影回数記憶工程)。さらに、撮影領域グループ化部85にて、撮影領域の撮影回数に応じて、撮影領域を2以上のグループにグループ分けする(撮影領域グループ化工程)。これにより、例えば、未重複撮影の撮影領域と重複撮影の撮影領域とをグループ分けすることにより、未重複撮影領域を抽出できる。また、入力された識別コードの数やコード番号がすべて撮影されているかどうかを判断することにより、未撮影領域の有無の判断が行える。
 次に撮影範囲画像を形成する(S345)。すなわち、撮影範囲画像形成部86にて、撮影範囲画像に入力されたマークの位置を、撮影領域を囲むマークのマーク符号が合致するように結線して、撮影範囲画像に撮影領域を当てはめることにより、撮影範囲画像を形成する(撮影範囲画像形成工程)。撮影範囲画像に入力されたマークにはマーク符号と位置が定められており、撮影領域を囲むマークにはマーク符号が特定されている。したがって、マーク符号が合致するように、撮影範囲画像において撮影領域を囲む3以上のマークの位置座標を結線することにより撮影領域を当てはめられる。撮影対象物2の領域について区分された全ての撮影領域(見えない部分を除く)について、撮影領域を当てはめることにより、撮影範囲画像における撮影対象物2の領域を撮影領域に区分した撮影範囲画像を形成できる。さらに、撮影画像から各撮影領域の画像を抽出して撮影領域部分記憶部54に記憶し、撮影範囲画像形成部86にて、撮影領域部分記憶部54から各撮影領域の画像を抽出し、撮影範囲画像に入力されたマーク位置に、撮影領域を囲む3以上のマークの位置が合致するように各撮影領域の画像を伸縮させて貼り付けるようにすれば、撮影領域に撮影画像を貼り付けた撮影範囲画像が形成され、臨場感が生じる。このように、撮影範囲画像に、撮影領域の輪郭を示すだけでなく、撮影された実際の画像を含めても良い。次に、表示部4にて、撮影範囲画像に画成された撮影領域を2以上のグループにグループ分けして表示する(表示工程:S350)。例えば重複撮影領域と未重複撮影領域とをグループ分けして表示する。次に、制御部10にて、未重複撮影領域が存在するか否かを判断し(S360)、存在すれば(S360でYes)、撮影工程(S320)に戻って、撮影から表示まで繰り返し、存在しなければ(S360でNo)、撮影処理を終了する。なお、マークのグループ分けについては後述するが、グループ分けされたマークをここでの撮影範囲画像に含めて表示しても良いのは勿論である。
 図14(b)にマークをグループ分けして表示する例を示す。
 マークデータ入力工程(S300)からコード識別工程までは図14(a)の場合と同じである。次に、未重複のマークを抽出する(S340A)。すなわち、マーク撮影回数計数部82にて、各マークについて異なる撮影画像に含まれる撮影回数を計数する(マーク撮影回数計数工程)。さらに、マーク撮影回数記憶部52にて、計数された各マークの撮影回数をマーク符号と対応付けて記憶する(マーク撮影回数記憶工程)。さらに、マークグループ化部84にて、マークの撮影回数に応じて、マークを2以上のグループにグループ分けする(マークグループ化工程)。これにより、例えば、未重複撮影のマークと重複撮影のマークとをグループ分けすることにより、未重複のマークを抽出できる。次に撮影画像における自他識別可能な識別コードを有するマークの位置に基づいて、撮影範囲画像が形成される(S345A)。マークの位置は三次元計測された座標を用いることも可能であるが、本実施例では予め指定されたマーク位置を入力するものとする。すなわち、撮影範囲画像に入力されたマーク位置をマッピングする。次に、表示部4にて、撮影範囲画像におけるマークの位置にマーク符号を付して、マークを2以上のグループにグループ分けして表示する(表示工程:S350A)。例えば重複撮影マークと未重複撮影マーク域とをグループ分けして表示する。その後の未重複撮影マークが存在するか否かの判断(S360)と繰り返しループは、図14(a)の場合と同じである。ここでいう撮影範囲画像には、少なくとも自他識別可能な識別コードを有するマークの位置が示される。さらに、撮影された実際の画像を加えても良く、撮影範囲に含まれる撮影領域の輪郭を加えても良い。
 本実施例によれば、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。すなわち、各撮影領域の撮影回数を明示するので過不足なく効率的に撮影ができる。なお、自他識別可能な識別コードを有するマークを用いるので、撮影画像の接続、マークデータの三次元計測、テクスチャ画像の形成等の画像処理の自動化に有利である。
 実施例1では、マーク及び撮影領域の両者について、撮影回数によりグループ分けする例を説明したが、本実施例では、撮影領域について撮影回数によりグループ分けする例を説明する。
 装置構成において、記憶部5及び画像処理部8に関し、マーク撮影回数記憶部52の機能は領域撮影回数記憶部53に包含され、マーク撮影回数計数部82の機能は領域撮影回数計数部83に包含されるものとして扱えば良く、マーク撮影回数記憶部52及びマーク撮影回数計数部82を省略できる。グループ分けは撮影領域について撮影領域グループ化部85で行なうので、マークグループ化部84は省略できる。画像撮影の処理フローは図14(a)による。この場合でも、図11のような撮影領域をグループ分けした撮影範囲画像を表示できる。
 撮影領域について重複撮影領域、未重複撮影領域等、ビジュアルに表示でき、実施例1と同様に、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。
 実施例1では、マーク及び撮影領域の両者について、撮影回数によりグループ分けする例を説明したが、本実施例では、マークについて撮影回数によりグループ分けする例を説明する。
 装置構成において、記憶部5及び画像処理部8に関し、撮影画像記憶部51、マーク撮影回数記憶部52、マーク撮影回数計数部82、マークグループ化部84があれば良く、撮影領域への区分けは行なわなくても良いので、領域撮影回数記憶部53、撮影領域部分記憶部54、撮影領域区分部81、領域撮影回数計数部83、撮影領域グループ化部85、撮影範囲画像形成部86を省略できる。画像撮影の処理フローは図14(b)による。この場合でも、図10のようなマークをグループ分けした撮影範囲画像を表示できる。
 マークについて重複撮影領域、未重複撮影領域等、ビジュアルに表示でき、実施例1と同様に、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。
 実施例1では、自他識別可能な識別コードの数、コード番号を入力すると共に、撮影範囲画像に入力されるマークの位置は、予め指定された位置である例を説明したが、本実施例では、三次元位置測定部を備え、撮影範囲画像に入力されるマークの位置は、三次元位置測定部で求められた三次元座標である例を説明する。この場合、マークデータ入力部61は求められた三次元位置座標を撮影範囲画像に自動入力する。マークだけでも三次元計測が可能であるが、多数の特徴点を含む方が高精度の位置計測ができるので、ここではマーク抽出部71で抽出された特徴点(マークを含む)を用いる例を説明する。
 図15に本実施例に係る三次元計測用画像撮影装置1Aの構成例のブロック図を示す。実施例1の構成に三次元位置計測部9が追加され、画像撮影処理に利用される。三次元位置測定部9は、マーク抽出部71で抽出されたマークを含む特徴点の撮影画像における画面位置から、撮影対象物2のマークを含む特徴点の三次元位置座標を求める。マーク抽出部71は撮影画像からマークを含む特徴点を抽出する。三次元位置計測部9は、マーク抽出部71で抽出された特徴点について、ステレオ画像で対応点を求める対応点探索部91、対応点探索部91で求められた対応点に基づいて、撮影部3におけるカメラの傾きを求める標定を行なう標定部92、標定部92で求められたカメラの位置を用いて特徴点の三次元位置座標を求める三次元座標計測部93を有する。マークデータ入力部61は、三次元計測されたマークを含む特徴点の位置座標を取得し、撮影範囲画像に自動入力する。
 三次元計測では、2枚以上の撮影画像における重複部分の特徴点を用いて、相互標定により測定対象物2の特徴点の三次元座標を求める。まず、2枚の撮影画像をステレオ画像(一方を基準画像、他方を探索画像とする)とし、対応点探索部91にて特徴点の対応付け(対応点探索)を行なう。相互相関処理により対応点探索を行なう。
 [相互相関処理]
 相互相関係数による方法
Figure JPOXMLDOC01-appb-M000001
 図16は対応点探索を説明するための図である。図16に示すようにN×N画素のテンプレート画像を、それより大きいM×M画素の入力画像内の探索範囲(M-N+1)上で動かし、上式のC(a,b)が最大になるようなテンプレート画像の左上位置を求めて、テンプレート画像に対し探索されたとみなす。左右画像の場合には、例えば左画像上にN×N画素のテンプレート画像を設定し、右画像上にM×M画素の探索領域を設定し、この操作を各画像上での位置について行えばよい。
 ここでは、対応点探索に関し、正規化相互相関処理について説明したが、他の手法、例えば、残差逐次検定法(SSDA)などを用いてもよい。
[外部標定要素の算出:相互標定]
 次に、左右画像の対応付けられた点から、撮影部3での撮影位置や、特徴点の三次元座標を求める。まず、相互標定法によってカメラの位置、傾きを求める方法について説明する。相互標定は標定部92にて行なう。
 モデル画像とは、2枚以上の立体写真から被写体が撮影されたときの状態に再現されたとき得られる立体像のことをいう。相対的に相似なモデル画像を形成することを、相互標定という。すなわち、相互標定とは、立体写真の対応する2本の光束が交会するように、左右それぞれのカメラの投影中心の位置および傾きを定めるものである。
 図17は相互標定を説明するための図である。次に,各モデル画像の標定計算の詳細について説明する。この計算により、左右それぞれのカメラの位置(三次元座標と三軸の傾き)が求められる。
 以下の共面条件式によりこれらのカメラの位置に係るパラメータを求める。
Figure JPOXMLDOC01-appb-M000002
 モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。
 このような条件にすると、(式3)の共面条件式は(式4)のようになり、この式を解けば各パラメータが求まる。
Figure JPOXMLDOC01-appb-M000003
 ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(式5)、(式6)が成り立つ。

Figure JPOXMLDOC01-appb-M000004
 これらの式を用いて、次の手順により、未知パラメータを求める。
(a)未知パラメータの初期近似値は通常0とする。
(b)共面条件式(式4)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を(式5)、(式6)により求め、観測方程式をたてる。
(c)最小二乗法をあてはめ、近似値に対する補正量を求める。
(d)近似値を補正する。
(e)補正された近似値を用いて、(b)~(e)までの操作を収束するまで繰り返す。
 未知パラメータ(κ,φ,κ,φ,ω)を求めることにより、カメラの位置と傾きが求まる。
 相互標定法によってカメラの位置が求まれば、ステレオ法によって対象空間点上の三次元座標を求めることが可能となる。
〔ステレオ法〕
 図18はステレオ法を説明するための図である。
 簡単のために、同じカメラを2台(C1,C2)使用し、それぞれの光軸は平行でカメラレンズの主点からCCD面までの距離cが等しく、CCDは光軸に直角に置かれているものとする。2つの光軸間距離(基線長)をBとする。

 物体上の点P(x,y,z)とカメラC1,C2の撮影画面上の点P1(x1,y1)、P2(x2,y2)の座標の間には、以下のような関係がある。

 x1=cx/z      ---(式7)
 y1=y2=cy/z   ---(式8)
 x2-x1=cB/z   ---(式9)

但し、全体の座標系(x,y,z)の原点をカメラC1のレンズ主点にとるものとする。
(式9)よりzを求め、これを用いて(式7)、(式8)よりx、yが求められる。
 求められたマークの位置座標を三次元撮影範囲画像にマッピングできれば、マッピングされたマークを結線することにより、撮影領域を当てはめることができ、図11のような撮影範囲画像を形成できる。また、各撮影領域の画像を貼り付けることにより、図13のようなビジュアル画像を形成できる。
 また、各特徴点の三次元座標が求まれば、三次元モデル画像、オルソ画像、パノラマ画像を形成できる。求められた三次元座標から三次元撮影範囲画像空間に特徴点を配置し構築すれば三次元モデル画像、平面図に並行投影にて投影すればオルソ画像、中心投影のまま平面上に投影し各モデル画像を投影していけばパノラマ画像となる。また、三次元座標を用いることにより撮影範囲画像の精度を向上できる。撮影領域について重複撮影領域、未重複撮影領域等をビジュアルに判別でき、撮影を効率化できる。
 実施例4では、撮影範囲画像に入力されるマークの位置は、三次元位置測定部9で求められた位置座標である例を説明したが、本実施例では撮影画像から三次元座標を求める例を説明する。この場合もマークデータ入力部61は求められた三次元位置座標を撮影範囲画像に自動入力する。
 [テクスチャマッピング]
 マークデータ入力部61は、撮影範囲画像に入力されるマークの位置として、テクスチャマッピングで求められた三次元座標を使用できる。このようにすると、撮影範囲画像の精度を向上できる。次に、写真に撮影した画像を空間座標(X,Y,Z)上に形成されるモデル画像上にテクスチャマッピングする方法について説明する。 画像上の各画素(ピクセル)の空間座標を計算する。この処理では、写真上の画像座標(x,y)を空間座標(X,Y,Z)に変換する。空間座標(X,Y,Z)は、三次元計測によって計算された値である。写真の画像座標(x,y)に対応する空間座標(X,Y,Z)は、以下の式で与えられる。このようにして、画像上の各ピクセルの濃度取得位置を求め、画像を三次元空間上にマッピングする。
Figure JPOXMLDOC01-appb-M000005

ここで、
 (X,Y):空間座標系での写真画像の左上の位置、
 (ΔX,ΔY):空間座標系での1画素の大きさ、
 (x,y)  :写真画像の画像座標、
 (X,Y,Z):空間画像座標、
 a,b,c,d:ある画像座標(x,y)を内挿する複数の基準点により形成される平面方程式の係数である。
 この係数は、例えば、三角形内挿処理(Triangulated Irreguler Network,TIN)の平面の方程式の係数である。TINは、3次元座標を内挿する方法として三角形を構成単位とするメッシュを生成するもので、三角網とも呼ばれる。(TINについての詳細は、「伊理正夫、腰塚武志:計算幾何学と地理情報処理、pp127」、「Franz Aurenhammer,杉原厚吉訳:Voronoi図、一つの基本的な幾何データ構造に関する概論、ACM Computing Surveys, Vol.23,pp345-405」等を参照。)
 撮影画像のマークを三次元撮影範囲画像にマッピングできれば、撮影領域を当てはめた撮影範囲画像を形成できる。また、各撮影領域の画素を貼り付けることにより、図13のようなビジュアル画像を形成できる。また、オルソ画像やパノラマ画像を形成できる。撮影領域について重複撮影領域、未重複撮影領域等をビジュアルに判別でき、撮影を効率化できる。
 本実施例では、撮影範囲画像に、さらにカメラで撮影した領域を示すカメラ撮影範囲を表示する例を説明する。カメラ撮影範囲は、いずれかの撮影画像(第1の撮影画像とする)の範囲を示すために形成される。画像処理部は図示しない境界線作成部を有し、境界線作成部は、第1の撮影画像の境界付近にある複数の特徴点を抽出し、撮影領域部分記憶部54に記憶した撮影領域のうち、これらの特徴点を含む撮影領域にプロットする。これらの特徴点を含む撮影領域は第1の撮影画像と重複撮影領域を有する第2の撮影画像から抽出されたものである。第2の撮影画像として当該撮影領域をできるだけ垂直方向から撮影した撮影画像を選択することが好ましい。さらに、これらの特徴点を含む撮影領域に、これらの特徴点からの距離の二乗和が最小となる直線を引いて境界線とし、これらの撮影領域にこの境界線を引いて撮影領域部分記憶部54に記憶する。そして、撮影画像領域形成部86は、これらの撮影領域を用いて撮影範囲画像に撮影画像を形成する時に、同時にこれらの境界線を入力することにより、カメラ撮影範囲を形成する。境界線は、第1の撮影画像の特徴点を基に作成されるので、カメラ撮影範囲は結果的に実際に撮影された範囲に比して少し小さくなるが、重複状態を見るためには安全サイドなので問題ない。これにより、表示部4は撮影範囲画像にカメラ撮影範囲を表示できる。さらに、これらの特徴点の三次元座標を求めておけば、さらに高精度にカメラ撮影領域を表示できる。
 このようにカメラ撮影範囲を表示することにより、実際のカメラでの撮影範囲を把握できるので、撮影領域とカメラの撮影範囲の関係を把握し易い。
 本実施例に係る三次元計測用画像撮影装置は、実施例1に加えて、表示部4はさらにライブ画像11と既撮影画像12を同一画面に表示し、現在位置で撮影した場合のマークの撮影回数を表示する例を説明する。ライブ画像とは、移動中の撮影者が現在位置で撮影部3としてのビデオカメラやデジタルカメラを用い、測定対象物8を撮影した画像をいう。通常は、ビデオカメラやデジタルカメラを用いて撮影者が移動しながら表示部4としてのファインダーやディスプレイ等に測定対象物をライブ画像として表示する。通常、ライブ画像11は記憶部5の図示しないテンポラリメモリに上書きされ、表示部4に転送されて表示される。このため通常モードでは、画像処理できないが、例えばシャッター操作により比較モードとなり、ライブ画像が静止画像として取得され、画像処理部8によりマーク符号を付する等の処理が可能になる。比較モード時にはこの画像処理された静止画像が表示される。撮影者がこの静止画像の位置で撮影して良いと判断し「OK」信号を例えば入力キーから入力すれば、静止画像が撮影画像として撮影画像記憶部51に記憶され、比較モードから通常モードに戻る。また、撮影者が「No」信号を例えば入力キーから入力すれば、静止画像が消去され、比較モードから通常モードに戻る。図19~図23は比較モードにおける図である。
 図19に既撮影画像12とライブ画像11とを同一画面に表示する例(その1)を示す。図19(a)は撮影前の表示画面、図19(b)は撮影後の表示画面であり、両者とも、左側に既撮影画像、右側にライブ画像を示す。図19(a)では既撮影画像は無く、ライブ画像にはマーク(カラーコードターゲット)が表示され、対応付けられたマーク符号(○内に1~6)がその上に表示されている。マーク符号は撮影回数により色分け表示され、赤(Rを付記)は1枚撮影マーク、緑(Gを付記)は2枚撮影マーク、青(Bを付記)は3枚撮影マークを示す。ただし、本実施例ではライブ画像を取得した現在位置での撮影後の撮影回数を示す。ライブ画像でのマーク符号(○内に1~6)はいずれも赤(Rを付記)であり、この位置で撮影すると、1枚撮影マークとなることを示している。この位置で撮影すると、ライブ画像が撮影画像として取得され、図19(b)のように、既撮影画像に取得された撮影画像が表示される。その後、撮影者は移動し、ライブ画像にはマーク符号(○内に3~8)のマークが表示されている。また、既撮影画像とライブ画像が重複する範囲にあるマークのマーク符号(○内に3~6)は緑(Gを付記)であり、この位置で撮影すると、2枚撮影マークとなることを示している。その他のマークのマーク符号(○内に1~2,7~8)は赤(Rを付記)であり、この位置で撮影すると、1枚撮影マークとなることを示している。
 図20に既撮影画像12とライブ画像11とを同一画面に表示する例(その2)を示す。図19(b)の位置で撮影すると、ライブ画像が撮影画像として取得され、図20のように、既撮影画像に取得された撮影画像が表示される。左側の既撮影画像として図19(b)の既撮影画像が表示され、中央の既撮影画像として19(b)のライブ画像から取得された撮影画像が表示される。その後、撮影者は移動し、右側のライブ画像にはマーク符号(○内に5~10)のマークが表示されている。2つの既撮影画像とライブ画像が重複する範囲にあるマークのマーク符号(○内に5~6)は青(Bを付記)であり、この位置で撮影すると、3枚撮影マークとなることを示している。また、3つの画像中2つの画像で重複する範囲にあるマークのマーク符号(○内に3~4,7~8)は緑(Gを付記)であり、この位置で撮影すると、2枚撮影マークとなることを示している。また、3つの画像中1つの画像にしかないマークのマーク符号(○内に1~2,9~10)は赤(Rを付記)であり、この位置で撮影すると、1枚撮影マークとなることを示している。
 図21に既撮影画像12を表示する例を示す。図20の位置で撮影し、ライブ画像が撮影画像として取得されたときの例である。図21の左側、中央の既撮影画像は図20の左側、中央の既撮影画像と同じである。図21の右側の既撮影画像は、図20のライブ画像から取得された既撮影画像である。
 図22に既撮影画像12とライブ画像11とを同一画面に表示する例(その3)を示す。図22(a)は撮影前の表示画面、図22(b)は撮影後の表示画面であり、両者とも、左側に既撮影画像、右側にライブ画像を示す。図22(a)では既撮影画像は無く、ライブ画像にはマーク(カラーコードターゲット)が表示され、撮影回数(1)がその上に表示されている。撮影回数はさらに色分け表示され、赤(Rを付記)は1回撮影、緑(Gを付記)は2回撮影、青(Bを付記)は3回撮影に対応している。ただし、本実施例ではライブ画像を取得した現在位置での撮影後の撮影回数を示す。ライブ画像での撮影回数はいずれも1であり、この位置で撮影すると、1枚撮影マークとなることを示している。この位置で撮影すると、ライブ画像が撮影画像として取得され、図22(b)のように、既撮影画像に取得された撮影画像が表示される。その後、撮影者は移動し、ライブ画像には別のマーク配置が表示されている。また、既撮影画像とライブ画像が重複する範囲にあるマークの撮影回数は2であり、この位置で撮影すると、2枚撮影マークとなることを示している。その他のマークの撮影回数は1であり、この位置で撮影すると、1枚撮影マークとなることを示している。
 図23に既撮影画像12とライブ画像11とを同一画面に表示する例(その4)を示す。図22(b)の位置で撮影すると、ライブ画像が撮影画像として取得され、図23(a)のように、既撮影画像に取得された撮影画像が表示される。左側の既撮影画像として図22(b)の既撮影画像が表示され、中央の既撮影画像として図22(b)のライブ画像から取得された撮影画像が表示される。その後、撮影者は移動し、右側のライブ画像にはさらに別のマーク配置が表示されている。2つの既撮影画像とライブ画像が重複する範囲にあるマークの撮影回数は3であり、この位置で撮影すると、3枚撮影マークとなることを示している。また、3つの画像中2つの画像で重複する範囲にあるマークの撮影回数は2であり、この位置で撮影すると、2枚撮影マークとなることを示している。また、3つの画像中1つの画像にしかないマークの撮影回数は1であり、この位置で撮影すると、1枚撮影マークとなることを示している。図23(b)に既撮影画像を表示する例を示す。図23(a)の位置で撮影し、ライブ画像が撮影画像として取得されたときの例である。図23(b)の左側、中央の既撮影画像は図23(a)の左側、中央の既撮影画像と同じである。図23(b)の右側の既撮影画像は、図23(a)のライブ画像から取得された既撮影画像である。
 本実施例によれば、このように、ライブ画像を既撮影画像と比較しながら撮影ができ、さらに、マークの撮影回数が表示されるので、未重複画像をなくすのに好適である。
 本実施例における三次元計測用画像撮影装置は、当該マーク自体では識別性がない非コードマークを、識別性マークとして利用する例を説明する。
 すなわち、それ自体識別性を持たないレトロターゲットでも、自他識別可能なコードを有するマークカラーコードターゲットとの配置関係により識別性を持たせることができる。
 図24は、カラーコードターゲットとレトロターゲットとを共に識別性マークとして用いる例を示す図である。測定対象物2としての土器にカラーコードターゲット(A10~A13)とレトロターゲット(T10,T11等)が貼付されている。例えば、レトロターゲットT10は、カラーコードターゲット(A10~A12)が形成する三角形の中にあり、カラーコードターゲット(A10~A12)に対してその位置関係が特定されれば、識別性が生じる。また、レトロターゲットT11は、カラーコードターゲット(A11~A13)が形成する三角形の中にあり、カラーコードターゲット(A11~A13)に対してその位置関係が特定されれば、識別性が生じる。例えば、特定のコードを有するマークからの方向と距離、特定のコードを有する3つのマークが形成する三角形への投影点(垂線の交点)と距離等により特定可能である。これを利用すると、非コードマークであるレトロターゲット(T10,T11等)を識別性マークとして利用できる。又は、この配置関係を三次元空間上に投影し、配置関係の合致性から非コードマークを識別してもよい。図示しない非コードマーク識別部は、マーク抽出部71で抽出された非コードマークについて他の自他識別可能なコードを有するマークとの配置関係から非コードマークを識別し、配置関係により識別性が生じた非コードマークにマーク符号を付与する。これにより、多数のレトロターゲットを識別性マークとして利用できるので、少ないカラーコードターゲットでも、高精度の三次元計測が可能になる。
 また、本発明は、以上の実施の形態のフローチャート等に記載の三次元計測用画像撮影方法の発明、当該方法の発明を三次元計測用画像撮影装置に実行させるためのプログラムとしても実現可能である。プログラムは三次元計測用画像撮影装置の内蔵記憶部に蓄積して使用してもよく、外付けの記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。
 以上説明したように、本発明によれば、単カメラを用いて移動しながら撮影を行う場合に、撮影を過不足なく効率的に行なえる三次元計測用画像撮影装置を提供できる。
 以上、本発明の実施の形態について説明したが、本発明は上記の実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施例に種々変更を加えられることは明白である。 
 例えば、以上の実施例では、マーク又は撮影領域の撮影回数を表示する、撮影範囲画像を二次元又は三次元表示にする、撮影範囲画像へ入力するマークデータを予め指定された値又は計測された三次元座標にする、表示画像を撮影範囲画像又はライブ画像にする、撮影回数を既撮影回数又は撮影後回数にする等の例を説明したが、これらの選択肢を自由に選択可能である。また、撮影範囲画像をライブ画像と比較できるように表示しても良く、撮影範囲画像をライブ画像と連携させて、撮影範囲画像のライブ画像に相当する領域のマーク又は撮影領域を撮影後回数で示しても良い。また、撮影領域の大きさはそれを囲むマークの組み合わせを変えることで自由に変更可能である。例えば、撮影回数を3回に統一したい場合には、撮影画像全体の約1/3になるように選択し、撮影画像が約1/3ずつ変化するように移動しながら撮影する等である。また、任意の撮影位置で一歩ずらした一対の位置で撮影するようにすれば常にステレオ画像に近い画像を得ることができ、標定や三次元計測に利用し易い。また、ライブ画像と既撮影画像の比較時に撮影前の表示と撮影後の表示を切り替え可能にしても良い。また、撮影範囲画像は透視図の他に、オルソ画像、パノラマ画像(測定対象物の周囲から撮影し連結した画像を含む)、テクスチャ画像、ワイヤフレーム画像、鳥瞰図などで表現しても良い。その他、撮影回数の表示、グループ分けの仕方、貼付マーク数等は適宜変更可能である。
 本発明は、測定対象物の全周撮影を行う場合や、測定対象物が大きい場合や表面形状が複雑な場合等の三次元計測のための撮影に利用できる。
 本発明の説明に関連して(特に以下の請求項に関連して)用いられる名詞及び同様な指示語の使用は、本明細書中で特に指摘したり、明らかに文脈と矛盾したりしない限り、単数および複数の両方に及ぶものと解釈される。語句「備える」、「有する」、「含む」および「包含する」は、特に断りのない限り、オープンエンドターム(すなわち「~を含むが限定しない」という意味)として解釈される。本明細書中の数値範囲の具陳は、本明細書中で特に指摘しない限り、単にその範囲内に該当する各値を個々に言及するための略記法としての役割を果たすことだけを意図しており、各値は、本明細書中で個々に列挙されたかのように、明細書に組み込まれる。本明細書中で説明されるすべての方法は、本明細書中で特に指摘したり、明らかに文脈と矛盾したりしない限り、あらゆる適切な順番で行うことができる。本明細書中で使用するあらゆる例または例示的な言い回し(例えば「など」)は、特に主張しない限り、単に本発明をよりよく説明することだけを意図し、本発明の範囲に対する制限を設けるものではない。明細書中のいかなる言い回しも、本発明の実施に不可欠である、請求項に記載されていない要素を示すものとは解釈されないものとする。
 本明細書中では、本発明を実施するため本発明者が知っている最良の形態を含め、本発明の好ましい実施の形態について説明している。当業者にとっては、上記説明を読んだ上で、これらの好ましい実施の形態の変形が明らかとなろう。本発明者は、熟練者が適宜このような変形を適用することを期待しており、本明細書中で具体的に説明される以外の方法で本発明が実施されることを予定している。従って本発明は、準拠法で許されているように、本明細書に添付された請求項に記載の内容の修正および均等物をすべて含む。さらに、本明細書中で特に指摘したり、明らかに文脈と矛盾したりしない限り、すべての変形における上記要素のいずれの組合せも本発明に包含される。
1,1A 三次元計測用画像撮影装置
2  測定対象物
3  撮影部
4  表示部
5  記憶部
6  入力部
7  特徴抽出部
8  画像処理部
9  三次元位置測定部
10 制御部
11 ライブ画像
12 既撮影画像
15 パーソナルコンピュータ(PC)
51 撮影画像記憶部
52 マーク撮影回数記憶部
53 領域撮影回数記憶部
54 撮影領域部分記憶部
61 マークデータ入力部
71 マーク抽出部
72 コード識別部
81 撮影領域区分部
82 マーク撮影回数計数部
83 領域撮影回数計数部
84 マークグループ化部
85 撮影領域グループ化部
86 撮影範囲画像形成部
200 レトロターゲット
204 内円部
206 外円部
A1~A8,A10~A13 カラーコードターゲット
CT カラーコードターゲット
P1 レトロターゲット部
P2 基準色部
P3 カラーコード部
P4 白色部
T1~T8,T10~T11 レトロターゲット
To 閾値

Claims (19)

  1.  測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において;
     自他識別可能な識別コードを有するマークが所定の条件で貼付された測定対象物を撮影する撮影部と;
     前記撮影部で撮影された撮影画像から前記マークを抽出するマーク抽出部と;
     前記マーク抽出部で抽出されたマークの識別コードを識別し、前記識別コードを前記マークに付与されるマーク符号と対応付けるコード識別部と;
     前記撮影画像の画面の各位置で抽出されたマークについて、前記識別された識別コードにより前記マーク符号を特定し、前記撮影画像における前記測定対象物の領域を前記マーク符号が特定された3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分する撮影領域区分部と;
     各前記撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部と;
     前記撮影領域の撮影回数に応じて、前記撮影領域を2以上のグループにグループ分けする撮影領域グループ化部と;
     前記測定対象物の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に前記測定対象物に貼付されたマークの位置を前記マーク符号と対応付けて入力するマークデータ入力部と;
     前記撮影範囲画像に入力されたマークの位置を、前記撮影領域を囲むマークのマーク符号が合致するように結線して前記撮影範囲画像に前記撮影領域を当てはめる撮影範囲画像形成部と;
     前記撮影範囲画像において、前記当てはめられた撮影領域を前記2以上のグループにグループ分けして表示する表示部とを備える; 
     三次元計測用画像撮影装置。
  2.  前記2以上のグループを重複撮影領域グループと未重複撮影領域グループとする;
     請求項1に記載の三次元計測用画像撮影装置。
  3.  前記所定の条件は、前記自他識別可能な識別コードを有するマークの数が予め定められているという条件であり;
     各前記マークについて、異なる撮影画像に含まれる撮影回数を計数するマーク撮影回数計数部を備え;
     前記撮影領域グループ化部は、1以上の撮影回数0のマークで囲まれた撮影領域を未撮影領域グループにグループ分けする;
     請求項1に記載の三次元計測用画像撮影装置。
  4.  前記2以上のグループを既撮影領域グループと未撮影領域グループとする、又は3枚以上撮影領域グループ、2枚撮影領域グループ、単一撮影領域グループと未撮影領域グループとする;
     請求項3に記載の三次元計測用画像撮影装置。
  5.  前記表示部は、前記撮影範囲画像における各撮影領域を前記グループに対応して色分けして表示する;
     請求項1ないし請求項4のいずれか1項に記載の三次元計測用画像撮影装置。
  6.  前記所定の条件は、前記マークの位置座標は予め指定されているという条件であり、前記撮影範囲画像に入力されるマークの位置は、前記予め指定された位置座標である;
     請求項1ないし請求項5のいずれか1項に記載の三次元計測用画像撮影装置。
  7.  前記マーク抽出部で抽出されたマークの前記撮影画像における画面位置から、前記マークの位置の三次元座標を求める三次元位置測定部を備え;
     前記撮影範囲画像に入力されるマークの位置は、前記三次元位置測定部で求められた三次元座標である;
     請求項1ないし請求項5のいずれか1項に記載の三次元計測用画像撮影装置。
  8.  前記撮影画像から各前記撮影領域の画像を抽出して記憶する撮影領域部分記憶部を備え;
     前記撮影範囲画像形成部は、前記撮影領域部分記憶部から各前記撮影領域の画像を抽出し、前記撮影範囲画像に入力されたマーク位置に、前記撮影領域を囲む3以上のマークの位置が合致するように各前記撮影領域の画像を伸縮させて貼り付ける;
     請求項1ないし請求項7のいずれか1項に記載の三次元計測用画像撮影装置。
  9.  前記撮影画像から各前記撮影領域の画像を抽出して記憶する撮影領域部分記憶部と;
     前記撮影画像の境界付近にある複数の特徴点を抽出し、前記複数の特徴点を用いて前記特徴点を含む各前記撮影領域に境界線を引いて前記撮影領域部分記憶部に記憶する境界線作成部を備え;
     前記撮影範囲画像形成部は、前記撮影領域部分記憶部に記憶された各前記撮影領域に引かれた境界線を用いて、各撮影画像の範囲を示すためのカメラ撮影範囲を前記撮影範囲画像に形成し;
     前記表示部は、各撮影画像におけるカメラ撮影範囲を前記撮影範囲画像に表示する;
     請求項1ないし請求項8のいずれか1項に記載の三次元計測用画像撮影装置。
  10.  撮影領域区分部は、1つの撮影画像の撮影領域の一部に他の撮影画像の撮影領域が重複する場合には、前記1つの撮影画像の撮影領域を前記重複する部分と重複しない部分に区分して新たな撮影領域とし、新たな撮影領域番号を付与する;
     請求項1ないし請求項9のいずれか1項に記載の三次元計測用画像撮影装置。
  11.  撮影領域区分部は、同じ撮影回数の複数の撮影領域が連続して存在する場合には、前記複数の撮影領域を1つの撮影領域に統合して新たな撮影領域とし、新たな撮影領域番号を付与する;
     請求項1ないし請求項9のいずれか1項に記載の三次元計測用画像撮影装置。
  12.  測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において;
     自他識別可能な識別コードを有するマークが所定の条件で貼付された測定対象物を撮影する撮影部と;
     前記撮影部で撮影された撮影画像から前記マークを抽出するマーク抽出部と;
     前記マーク抽出部で抽出されたマークの識別コードを識別し、前記識別コードを前記マークに付与されるマーク符号と対応付けるコード識別部と;
     各前記マークについて、異なる撮影画像に含まれる撮影回数を計数するマーク撮影回数計数部と;
     前記マークの撮影回数に応じて、前記マークを2以上のグループにグループ分けするマークグループ化部と;
     前記測定対象物の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に前記測定対象物に貼付されたマークの位置を前記マーク符号と対応付けて入力するマークデータ入力部と;
     前記撮影範囲画像に入力されたマークの位置に前記マーク符号を付して、前記マークを前記2以上のグループにグループ分けして表示する表示部とを備える; 
     三次元計測用画像撮影装置。
  13.  前記2以上のグループを3枚以上撮影マークグループ、2枚撮影マークグループ、1枚以下撮影マークグループとし;
     前記表示部は、前記撮影範囲画像における前記マークの位置に前記マーク符号を付して、前記マークを前記グループに対応して異なる態様で表示する;
     請求項12に記載の三次元計測用画像撮影装置。
  14.  前記所定の条件は、前記自他識別可能な識別コードを有するマークの数が予め定められているという条件であり;
     前記マークグループ化部は、撮影回数1以上のマークを既撮影マークグループに、撮影回数0のマークを未撮影マークグループにグループ分けし;
     前記表示部は、前記撮影範囲画像における前記マークの位置に前記マーク符号を付して、前記マークを前記グループに対応して異なる態様で表示する;
     請求項12に記載の三次元計測用画像撮影装置。
  15.  前記自他識別可能なコードは、数字列、文字列、記号、バーコード、2次元バーコード、カラーコードのいずれか一つである;
     請求項1ないし請求項14のいずれか1項に記載の三次元計測用画像撮影装置。
  16.  前記撮影部は、移動中の撮影者が現在位置で測定対象物を撮影することによりライブ画像を取得し;
     前記表示部は、前記撮影範囲画像と前記ライブ画像とを同じ画面に表示する;
     請求項1ないし請求項15のいずれか1項に記載の三次元計測用画像撮影装置。
  17.  前記撮影部は、移動中の撮影者が現在位置で測定対象物を撮影することによりライブ画像を取得し;
     前記マーク撮影回数計数部は、前記撮影回数として前記現在位置で撮影した場合を含めた撮影回数を計数し;
     前記マークグループ化部は、前記マークを前記マークの撮影回数毎にグループ分けし;
     前記表示部は、前記撮影範囲画像と前記ライブ画像とを同じ画面に表示し、前記マークを前記マークの撮影回数毎にグループ分けして表示する;
     請求項12に記載の三次元計測用画像撮影装置。
  18.  測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影装置において;
     自他識別可能な識別コードを有するマーク、及び当該マーク自体では識別性がない非コードマークが所定の条件で貼付された測定対象物を撮影する撮影部と;
     前記撮影部で撮影された撮影画像から前記マークを抽出するマーク抽出部と;
     前記マーク抽出部で抽出されたマークの識別コードを識別し、前記識別コードを前記マークに付与されるマーク符号と対応付けるコード識別部と;
     前記マーク抽出部で抽出された非コードマークについて他の自他識別可能なコードを有するマークとの配置関係から前記非コードマークを識別し、前記非コードマークにマーク符号を付与する非コードマーク識別部と;
     前記撮影画像の画面の各位置で抽出されたマークについて、前記識別された識別コードにより又は他の自他識別可能なコードを有するマークとの配置関係により前記マーク符号を特定し、前記撮影画像における前記測定対象物の領域を前記マーク符号が特定された3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分する撮影領域区分部と;
     各前記撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数部と;
     前記撮影領域の撮影回数に応じて、前記撮影領域を2以上のグループにグループ分けする撮影領域グループ化部と;
     前記測定対象物の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に前記測定対象物に貼付されたマークの位置を前記マーク符号と対応付けて入力するマークデータ入力部と;
     前記撮影範囲画像に入力されたマークの位置を、前記撮影領域を囲むマークのマーク符号が合致するように結線して前記撮影範囲画像に前記撮影領域を当てはめる撮影範囲画像形成部と;
     前記撮影範囲画像において、前記当てはめられた撮影領域を前記2以上のグループにグループ分けして表示する表示部とを備える; 
     三次元計測用画像撮影装置。
  19.  測定対象物を単カメラにより重複させながら順次撮影する三次元計測用画像撮影方法において;
     自他識別可能な識別コードを有するマークが所定の条件で貼付された測定対象物を撮影する撮影工程と;
     前記撮影工程で撮影された撮影画像から前記マークを抽出するマーク抽出工程と;
     前記マーク抽出工程で抽出されたマークの識別コードを識別し、前記識別コードを前記マークに付与されるマーク符号と対応付けるコード識別工程と;
     前記撮影画像の画面の各位置で抽出されたマークについて、前記識別された識別コードにより前記マーク符号を特定し、前記撮影画像における前記測定対象物の領域を前記マーク符号が特定された3以上のマークで囲まれた領域(当該マークを含む)からなる撮影領域に区分する撮影領域区分工程と;
     各前記撮影領域について、異なる撮影画像に含まれる撮影回数を計数する領域撮影回数計数工程と;
     前記撮影領域の撮影回数に応じて、前記撮影領域を2以上のグループにグループ分けする撮影領域グループ化工程と;
     前記測定対象物の撮影範囲を二次元又は三次元空間に表現するための撮影範囲画像の座標空間に前記測定対象物に貼付されたマークの位置を前記マーク符号と対応付けて入力するマークデータ入力工程と;
     前記撮影範囲画像に入力されたマークの位置を、前記撮影領域を囲むマークのマーク符号が合致するように結線して前記撮影範囲画像に前記撮影領域を当てはめる撮影範囲画像形成工程と;
     前記撮影範囲画像において、前記当てはめられた撮影領域を前記2以上のグループにグループ分けして表示する表示工程とを備える; 
     三次元計測用画像撮影方法。
PCT/JP2010/054365 2009-03-16 2010-03-15 三次元計測用画像撮影装置及び方法 WO2010107004A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/256,543 US9182220B2 (en) 2009-03-16 2010-03-15 Image photographing device and method for three-dimensional measurement
EP10753496A EP2410290A1 (en) 2009-03-16 2010-03-15 Image capturing device and method for three-dimensional measurement

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-063659 2009-03-16
JP2009063659A JP5421624B2 (ja) 2009-03-16 2009-03-16 三次元計測用画像撮影装置

Publications (1)

Publication Number Publication Date
WO2010107004A1 true WO2010107004A1 (ja) 2010-09-23

Family

ID=42739664

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/054365 WO2010107004A1 (ja) 2009-03-16 2010-03-15 三次元計測用画像撮影装置及び方法

Country Status (4)

Country Link
US (1) US9182220B2 (ja)
EP (1) EP2410290A1 (ja)
JP (1) JP5421624B2 (ja)
WO (1) WO2010107004A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384742B2 (ja) 2020-05-01 2023-11-21 東亜建設工業株式会社 水中測量方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5557705B2 (ja) * 2010-11-10 2014-07-23 株式会社トプコン 構造物モデル作成装置及びその方法
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
US9106894B1 (en) 2012-02-07 2015-08-11 Google Inc. Detection of 3-D videos
EP2916286A1 (en) * 2014-03-06 2015-09-09 Thomson Licensing Camera calibration method and apparatus using a color-coded structure
DE102016105496A1 (de) * 2015-03-26 2016-09-29 Faro Technologies Inc. System zur Prüfung von Objekten mittels erweiterter Realität
JP6380763B2 (ja) * 2015-09-25 2018-08-29 京セラドキュメントソリューションズ株式会社 画像形成装置、色変換プログラムおよび色変換方法
JP6344353B2 (ja) * 2015-09-25 2018-06-20 京セラドキュメントソリューションズ株式会社 画像形成装置、色変換プログラムおよび色変換方法
KR101811696B1 (ko) * 2016-01-25 2017-12-27 주식회사 쓰리디시스템즈코리아 3차원 스캐닝 장치 및 3차원 스캐닝 방법
US10977825B2 (en) 2017-02-03 2021-04-13 Sumitomo Mitsui Construction Co., Ltd. Position measurement device and position measurement method
US10488185B1 (en) * 2019-03-14 2019-11-26 The Boeing Company Methods and systems for characterizing a surface of a structural component
CN110796695B (zh) * 2019-10-24 2022-04-05 深圳市瑞源祥橡塑制品有限公司 食物熟化尺寸获取方法、装置、计算机设备以及存储介质
WO2022244206A1 (ja) * 2021-05-20 2022-11-24 日本電気株式会社 測定条件最適化システム、三次元データ測定システム、測定条件最適化方法、及び非一時的なコンピュータ可読媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064627A (ja) * 2005-08-01 2007-03-15 Topcon Corp 三次元計測システム及びその方法
JP2008065807A (ja) * 2006-08-11 2008-03-21 Canon Inc 指標配置情報計測装置および方法
JP2009063659A (ja) 2007-09-04 2009-03-26 Victor Co Of Japan Ltd 画像表示装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442293B1 (en) * 1998-06-11 2002-08-27 Kabushiki Kaisha Topcon Image forming apparatus, image forming method and computer-readable storage medium having an image forming program
DE60124604T2 (de) * 2000-03-30 2007-09-13 Kabushiki Kaisha Topcon Stereobildmessvorrichtung
JP2004038728A (ja) * 2002-07-05 2004-02-05 Noritsu Koki Co Ltd 画像処理方法、画像処理プログラム、および、画像処理プログラムを記録した記録媒体
US20040070667A1 (en) * 2002-10-10 2004-04-15 Fuji Photo Optical Co., Ltd. Electronic stereoscopic imaging system
JP3996520B2 (ja) * 2003-01-30 2007-10-24 株式会社デンソーウェーブ 二次元情報コードおよびその生成方法
US7112774B2 (en) * 2003-10-09 2006-09-26 Avago Technologies Sensor Ip (Singapore) Pte. Ltd CMOS stereo imaging system and method
JP4529157B2 (ja) * 2004-06-15 2010-08-25 株式会社トプコン 3次元測量システム及び電子的記憶媒体
KR100653886B1 (ko) * 2004-11-05 2006-12-05 주식회사 칼라짚미디어 혼합코드 및 혼합코드 인코딩 방법과 장치
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
EP1796039B1 (en) 2005-12-08 2018-11-28 Topcon Corporation Device and method for image processing
JP5087264B2 (ja) 2005-12-08 2012-12-05 株式会社トプコン 画像処理装置及びその方法
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
JP4715865B2 (ja) * 2007-06-12 2011-07-06 カシオ計算機株式会社 撮像装置、プログラム
JP5100360B2 (ja) * 2007-12-21 2012-12-19 株式会社トプコン 画像処理装置
CN101946156B (zh) * 2008-02-12 2012-09-19 特林布尔公司 确定觇标相对于具有摄影机的勘测仪器的坐标

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064627A (ja) * 2005-08-01 2007-03-15 Topcon Corp 三次元計測システム及びその方法
JP2008065807A (ja) * 2006-08-11 2008-03-21 Canon Inc 指標配置情報計測装置および方法
JP2009063659A (ja) 2007-09-04 2009-03-26 Victor Co Of Japan Ltd 画像表示装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FRANZ AURENHAMMER: "A survey of a Fundamental Geometric Data Structure", A CM COMPUTING SURVEYS, vol. 23, pages 345 - 405
MASAO IRI, TAKESHI KOSHIZUKA, COMPUTATIONAL GEOMETRY AND GEOGRAPHIC INFORMATION PROCESSING, pages 127

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384742B2 (ja) 2020-05-01 2023-11-21 東亜建設工業株式会社 水中測量方法

Also Published As

Publication number Publication date
JP5421624B2 (ja) 2014-02-19
EP2410290A1 (en) 2012-01-25
US20120127279A1 (en) 2012-05-24
US9182220B2 (en) 2015-11-10
JP2010218173A (ja) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5421624B2 (ja) 三次元計測用画像撮影装置
US10083522B2 (en) Image based measurement system
JP2010256253A (ja) 三次元計測用画像撮影装置及びその方法
TWI554976B (zh) 監控系統及其影像處理方法
JP5002144B2 (ja) 三次元計測用投影装置及びシステム
JP5430138B2 (ja) 形状測定装置およびプログラム
JP2010219825A (ja) 三次元計測用画像撮影装置
US20150369593A1 (en) Orthographic image capture system
JP2010256252A (ja) 三次元計測用画像撮影装置及びその方法
US20070091174A1 (en) Projection device for three-dimensional measurement, and three-dimensional measurement system
JP5156601B2 (ja) 形状測定装置およびプログラム
JP2009139197A (ja) カラーコード付き標識、カラーコード抽出手段及び三次元計測システム
JP4848166B2 (ja) 三次元計測用投影装置及びシステム
JP2007064627A (ja) 三次元計測システム及びその方法
JP5297779B2 (ja) 形状測定装置およびプログラム
JP5695821B2 (ja) カラーコードターゲット、カラーコード判別装置及びカラーコード判別方法
JP5771423B2 (ja) 画像色彩補正装置及び画像色彩補正方法
JP2017003525A (ja) 三次元計測装置
JPH04102178A (ja) 物体モデル入力装置
JP2005140547A (ja) 3次元計測方法、3次元計測装置、及びコンピュータプログラム
JP5350943B2 (ja) カラーコードターゲット、カラーコード判別装置及びカラーコード判別方法
JP6262610B2 (ja) 情報登録装置及び情報継続登録装置並びに方法及びプログラム
CN108510537B (zh) 3d建模方法和装置
JP2000146546A (ja) 3次元モデル生成方法及び装置
JP5753406B2 (ja) カラーコード付き標識及びキャリブレーションボックス

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10753496

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010753496

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13256543

Country of ref document: US