WO2010004763A1 - 三次元形状計測装置、集積回路、および方法 - Google Patents

三次元形状計測装置、集積回路、および方法 Download PDF

Info

Publication number
WO2010004763A1
WO2010004763A1 PCT/JP2009/003238 JP2009003238W WO2010004763A1 WO 2010004763 A1 WO2010004763 A1 WO 2010004763A1 JP 2009003238 W JP2009003238 W JP 2009003238W WO 2010004763 A1 WO2010004763 A1 WO 2010004763A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
unit
mirror surface
dimensional shape
Prior art date
Application number
PCT/JP2009/003238
Other languages
English (en)
French (fr)
Inventor
守山隆昭
上崎亮
吉田直史
石橋裕大
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN200980100317XA priority Critical patent/CN101796372B/zh
Priority to US12/677,373 priority patent/US8723928B2/en
Priority to JP2010504358A priority patent/JP5450380B2/ja
Publication of WO2010004763A1 publication Critical patent/WO2010004763A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Definitions

  • the object is irradiated with laser slit light, and the distance to the object is measured by capturing the positional relationship of the slit light on the object with a camera.
  • An optical cutting method for restoring the shape is known.
  • multiple cameras are installed all around the object to eliminate blind spots in shooting, and the silhouette of the object is three-dimensionally determined from the silhouette image of the object captured by each camera and the camera position.
  • the restoration accuracy improves as the number of cameras increases.
  • it is necessary to calibrate each camera there arises a contradiction that as the number of cameras increases, it becomes more difficult to perform calibration.
  • the three-dimensional shape measurement apparatus of the present invention is a three-dimensional shape measurement apparatus that measures the three-dimensional shape of an object, the mirror surface that reflects light from the object, the real image of the object, An imaging unit that captures a captured image that reflects both the virtual image of the object formed by a mirror surface, a light amount changing unit that changes the light amount of one of the real image and the virtual image, and In the first photographed image having the influence of the change by the light quantity changing unit and the second photographed image not having the influence, a part having a different light quantity is identified as the one image, and the same part is designated as the other image
  • a three-dimensional shape measurement apparatus comprising: an image separation unit that identifies the image of the object; and a restoration unit that restores the three-dimensional shape of the object using the real image and the virtual image identified by the image separation unit. is there.
  • “changing the light amount of one image of the real image and the virtual image” causes a predetermined change to occur in the light amount of one image and to the light amount of the other image. It means not to let you.
  • the predetermined change refers to a change that allows image separation by the image separation unit because it occurs in one image and does not occur in the other image. For example, in the other image, with the change in one image, there is a slight change that is not a change (for example, the above-described predetermined change) that makes it impossible to separate the image by the image separation unit. May be.
  • the three-dimensional shape measurement apparatus of the present invention when capturing an object using a mirror surface, the real image of the object that can be captured from the imaging unit and the virtual image of the object reflected on the mirror surface are separated. It becomes possible. Thereby, for example, a video shot from one shooting unit can be used as a video shot from a shooting position different from the real image and the virtual image. As a result, the number of imaging units used when performing three-dimensional shape measurement can be reduced, and the effect of reducing the complicated camera calibration problem as the number of imaging units increases can be obtained.
  • a real image and a virtual image can be separated by a simple process, and even when the object is moving, it can be correctly separated.
  • the three-dimensional shape can be restored by a simple process, and there is an effect that the restoration can be performed even when the object is moving.
  • FIG. 22 is a configuration diagram illustrating an outline of the three-dimensional shape measurement apparatus according to the fourth embodiment.
  • FIG. 23 is a basic configuration diagram showing a flow of a series of processes when performing the three-dimensional shape restoration in the fourth embodiment and the respective parts constituting the fourth embodiment.
  • FIG. 24 is a specific configuration diagram of the mirror surface and the specular reflection control unit in the fourth embodiment.
  • FIG. 25 is a configuration diagram showing an outline of the three-dimensional shape measurement apparatus according to Embodiment 4 of the present invention.
  • FIG. 26 is a configuration diagram showing an outline of the three-dimensional shape measurement apparatus according to Embodiment 4 of the present invention.
  • FIG. 27 is a diagram illustrating a three-dimensional shape measurement apparatus according to the fifth embodiment.
  • the first image (change image Ia or the like) having the influence of the change by the portion and the second image (normal image Ib) having no effect are different portions of the light quantity from the one image (real image).
  • Ib2, real image 113, etc. The image separation unit (imaging separation unit 104) that identifies the same part as the other image (virtual image Ib1, virtual image 114, etc.), the real image and the virtual image identified by the image separation unit, It is a three-dimensional shape measurement apparatus including a restoration unit (three-dimensional restoration unit 107) that restores the three-dimensional shape of the object.
  • taking a photographed image that reflects both a real image and a virtual image refers to photographing a photographed image that includes both a real image area and a virtual image area.
  • Changing the amount of light of one image means changing the amount of light by acting on the light in the light path (optical path 101R) of the light of one image.
  • the order in which the other image area is specified and the one image area is specified may be the latter in the latter order, the former in the latter order, or both at the same time.
  • the order may be acceptable.
  • Using the identified real image and virtual image to restore the three-dimensional shape means that the first captured image is captured in the first captured image by taking the first image region and the other image region. This means specifying the original shape as the three-dimensional shape of the object.
  • the mirror surface forms a virtual image of the object.
  • the imaging unit imaging unit 103 captures a captured image including both a real image region (real image region R2) and a virtual image region (virtual image region R2) of the target object.
  • the light amount changing unit acts on the light in the optical path (optical path 101R) in which one of the virtual image and the real image travels to change the light amount of the one image.
  • the apparatus is configured by a simple configuration with a shooting unit having a position, a direction, and the like for shooting a shot image including both areas. Thereby, the configuration of the apparatus can be simplified.
  • the three-dimensional shape measuring apparatus changes in synchronization with the shooting timing of the first shot image. That is, the three-dimensional shape measurement apparatus changes the second shot image simultaneously with the timing of the first shooting. It is also possible to provide a synchronization unit that prevents the change from being performed in synchronization with the shooting, that is, the change is performed simultaneously with the timing of the second shooting.
  • the restoration unit calculates, for example, a three-dimensional shape that generates the real image and the virtual image using the real image and the virtual image, and specifies the calculated three-dimensional shape as the three-dimensional shape of the object. Is. That is, the restoration unit calculates a three-dimensional shape including each calculated three-dimensional position by calculating each three-dimensional position included in the three-dimensional shape. For example, the restoration unit may restore the three-dimensional shape from a plurality of images by a method similar to the method used when a human recognizes the three-dimensional shape through stereo vision.
  • the mirror surface portion that reflects light
  • a photographing portion that captures an image that reflects the object and the mirror surface portion
  • a light amount control portion that reflects the mirror surface in synchronization with photographing.
  • You may comprise the three-dimensional shape measuring device which changes how the said virtual image looks from the said imaging
  • the two images can be used as photographed images from different viewpoints. That is, for example, when the three-dimensional shape measuring apparatus uses a mirror surface as a viewpoint, the position of the photographing unit is used as a viewpoint for the real image, while the virtual image is compared with the mirror surface portion. Thus, it is conceivable to use a position that is plane-symmetric to the position of the photographing unit as a viewpoint.
  • a method of giving a change to the virtual image portion of the photographed image for example, a method of blocking the reflected light of the mirror surface portion by a physical portion such as a shutter, or irradiating the mirror surface portion with light.
  • a method of changing the amount of reflected light is conceivable.
  • the following three-dimensional shape measuring apparatus may be configured.
  • the three-dimensional shape measuring apparatus 1 includes a mirror surface 101, an imaging unit 103 having an imaging device 110 or an imaging device 112, and a control unit 1A.
  • the object 113R is an object whose three-dimensional shape is measured by the three-dimensional shape measuring apparatus 1.
  • the target object 113R is a user who causes the three-dimensional shape measurement apparatus 1 to measure a three-dimensional shape.
  • the virtual image 114 is a virtual image that appears separately from the real image 113 of the object 113R, in which the object 113R is reflected on the mirror surface 101.
  • the virtual image 114 is an image of the object 113R formed by the light reflected from the mirror surface 101 from the object 113R.
  • FIG. 2 is a block diagram showing a part of the present invention and a flow of a series of processes when performing three-dimensional shape restoration using the present invention.
  • the control unit 1A (FIG. 1) executes the software or functions as functional blocks of functions realized in the control unit 1A by hardware, the imaging separation unit 104, the three-dimensional restoration unit 107, and the specular reflection.
  • the control unit 102 is realized.
  • FIG. 3 shows a mirror surface 101, a display unit 120 (see FIG. 2), an imaging device 110 to an imaging device 112 (imaging unit 103), a real image 113 (see FIG. 1) of an object 113R, and a virtual image 114 corresponding to the real image 113. It is a figure showing the example of the positional relationship of (refer FIG. 1).
  • the mirror surface 101 (FIGS. 1 to 3) reflects the light of the object 113R and forms a virtual image 114 in which the object 113R is reflected on the mirror surface 101 by the reflected light.
  • the mirror surface 101 is a mirror surface having a function of reflecting light and a function of transmitting light.
  • the mirror surface 101 transmits at least part of the light from the back surface side (side with the display unit 120) to the mirror surface 101 with respect to the position of the object 113R (see FIG. 3).
  • 113R, and the imaging device 112 or the imaging device 110 is transmitted to the side of the surface.
  • the real space RS is a space indicated by direct light from the object 113R or the like, that is, an actual space.
  • the imaginary space IS is a space indicated by light reflected by the mirror surface 101.
  • the real image 113 is an image that appears in the real space RS.
  • the virtual image 114 is an image that appears in the imaginary space IS.
  • the specular reflection control unit 102 includes a display unit 120 (see FIG. 3) and a synchronization control unit 121 (FIG. 4).
  • the image displayed by the display unit 120 is a predetermined color as long as it affects the way the virtual image 114 of the object 113R reflected on the mirror surface 101 is reflected, such as a specific color or pattern.
  • any image such as a predetermined pattern may be used.
  • the displayed image may be a color that does not appear in the captured image when the display unit 120 is not displaying an image, or a complementary color of the color included in the object 113R. By doing so, the real image 113 and the virtual image 114 can be easily separated, which is ideal.
  • 8 to 10 are explanatory diagrams for explaining the contents of processing of the three-dimensional shape measuring apparatus 1 for a video image taken when the display unit 120 displays an image.
  • FIG. 5 is a diagram showing a video taken without displaying an image.
  • FIG. 8 is a diagram showing a video imaged while an image is displayed. For example, each of these captured images is an image captured by the image capturing device 110.
  • the display unit 120 uses the light amount of the virtual image from the light amount of the virtual image 114 (FIGS. 5 to 7) when the image is not displayed, and the virtual image 115 (FIGS. 8 to 10) when the image is displayed. Change the amount of light.
  • the display unit 120 may change the density of the virtual image 114 by simultaneously changing the amount of light of each color in the virtual image 115, for example, by displaying a white image.
  • the display unit 120 may display an image of a specific color such as blue, for example, and change only the light amount of the specific color in the virtual image 114.
  • the synchronization control unit 121 detects, for example, the timing at which shooting is performed. When the detection is performed without inputting a predetermined display instruction signal, the synchronization control unit 121 does not display the display unit 120 so that the display unit 120 does not display at the detection timing ( In the state of FIG. 5, each photographing apparatus 110 or the like is photographed. On the other hand, when a display instruction signal is input and detected, the synchronization control unit 121 displays an image at the detection timing and performs each shooting in the displayed state (the state in FIG. 6). Let
  • synchronization control unit 121 may also be a functional block realized by the control unit 1A (FIG. 1).
  • the imaging separation unit 104 (FIG. 2) includes a real image / virtual image separation unit 105 and a virtual image inversion unit 106.
  • the real image / virtual image separation unit 105 separates the real image 113 and the virtual image 114 from the images including both the real image 113 and the virtual image 114, which are taken by the photographing device 110 or the photographing device 112, respectively. That is, the real image / virtual image separation unit 105 specifies the real image 113 and the virtual image 114 included in each video. That is, the real image / virtual image separation unit 105 acquires videos captured by each of the three imaging devices, and specifies the real image 113 and the virtual image 114 included in the acquired images.
  • FIG. 11 is a diagram showing a processing flow of extraction of a real image portion and a virtual image portion by the above image processing. The extraction process flow is shown in FIG.
  • the real image / virtual image separation unit 105 performs the above-described real image 113 and step S208 by performing the processes of step S201, step S202, step S203, step S204, step S205, step S206, step S207, and step S208. Processing for separating the virtual image 114 is performed.
  • the real image / virtual image separation unit 105 performs the same processing on the video imaged by each of the three imaging devices in each of the above steps S201 and the like. In the following description, for convenience of explanation, only the processing performed by the real image / virtual image separation unit 105 on the video imaged by the imaging device 110 at each step will be described in detail.
  • FIG. 6 is a diagram showing a video when the imaging device 110 captures a state where there is no object 113R and no image is displayed.
  • the real image / virtual image separation unit 105 holds the image shown in FIG. 6, for example.
  • the real image / virtual image separation unit 105 may hold the image of FIG. 6 captured by the imaging device 110 in advance.
  • FIG. 7 is a diagram showing only the real image 113 and the virtual image 114 of the object 113R in the video of FIG.
  • step S203 the real image / virtual image separation unit 105 obtains the image obtained in step S201 when the image of the object 113R in FIG. Take the difference.
  • taking the difference means calculating a difference image.
  • step S205 the real image / virtual image separation unit 105 extracts the extracted video in which only the real image 113 and the virtual image 114 are removed from the video acquired in step S201 shown in FIG. To do. That is, the real image / virtual image separation unit 105 acquires (calculates) such an extracted video by taking the difference.
  • FIG. 8 shows a photographed image when the image is displayed and the object 113R is present as described above.
  • step S202 the real image / virtual image separation unit 105 causes the display unit 120 (FIGS. 3 and 4) to perform shooting, for example, while causing the synchronization control unit 121 to acquire the display instruction signal and perform the shooting. ) Displays an image and obtains a video image (FIG. 8).
  • the real image / virtual image separation unit 105 performs the photographing in step S202 and the photographing in step S201 within, for example, a sufficiently short time in which the object 113R does not move.
  • the video in FIG. 5 and the video in FIG. 6 are two videos in which each video is shot in a sufficiently short time range and there is no change in the position and direction of the object 113R.
  • FIG. 9 shows a photographed image when an image is displayed and there is no object 113R.
  • the real image / virtual image separation unit 105 holds the image shown in FIG. 9, for example.
  • the real image / virtual image separation unit 105 may hold the video of FIG. 9 captured by the imaging device 110 in advance.
  • FIG. 10 shows the extraction result of only the real image 113 and the virtual image 115 of the object 113R.
  • step S206 the real image / virtual image separation unit 105 extracts an extracted video that includes only the real image 113 and the virtual image 115 and excludes other portions from the video acquired in step S202 illustrated in FIG. That is, the extracted video is acquired (calculated) by taking the difference.
  • the real image / virtual image separation unit 105 further takes a photographed image when the object 113R is present (FIG. 8) in a state where the image is displayed on the display unit 120 by the processing of step S202, step S204, and step S206. And the image obtained when there is no object 113R (FIG. 9), the real image 113 and the virtual image 115 of the object 113R are combined from these two photographed images (extracted image in FIG. 10). To extract.
  • the real image / virtual image separation unit 105 further compares two extraction results (extracted images) as shown in FIG. 7 and FIG.
  • the virtual image 115 reflected on the mirror surface 101 when the image is displayed on the display unit 120 is the mirror surface when the image is not displayed on the display unit 120 (FIGS. 5 to 7).
  • step S207 the real image / virtual image separation unit 105 extracts a portion having a small difference between the extracted video in FIG. 7 and the extracted video in FIG.
  • the real image / virtual image separation unit 105 determines, as the real image 113, a portion having a difference smaller than a predetermined threshold, such as a difference value due to a minimum change among changes caused by image display.
  • the real image 113 is extracted from the two extracted videos.
  • step S208 the real image / virtual image separation unit 105 extracts a portion other than the real image 113 previously extracted in step S207 as the virtual image 114 from the extracted video in FIG.
  • step S207 the real image 113 extracted in step S207 and the virtual image 114 extracted in step S208 will be described in detail.
  • the virtual image 114 is considered from the position of the imaging device (for example, the imaging device 110) that has captured the virtual image 114, and the virtual image 114 is reflected on the mirror surface 101 on which the virtual image 114 is reflected.
  • the virtual photographing device for example, the virtual photographing shown in FIG. 3
  • the three-dimensional shape measuring apparatus 1 can use the image of the object 113R photographed from the apparatus 210).
  • each of the image capturing apparatuses can capture a real image that is captured directly from the actual position of the image capturing apparatus and perform a virtual operation corresponding to the image capturing apparatus by performing only one image capturing with the one image capturing apparatus.
  • a video when a virtual image is taken by the imaging device is also acquired. That is, each photographing apparatus can obtain two images photographed from the positions of the two photographing apparatuses.
  • the left and right sides of the virtual image 114 are reversed due to the nature of the mirror surface as compared with the captured image when actually captured from the position of the virtual imaging device.
  • the virtual image 114 extracted in step S208 is such a video image that has been reversed left and right.
  • the virtual image inversion unit 106 (FIG. 2) inverts the left and right of the video (virtual image 114) of the virtual image portion extracted by the real image / virtual image separation unit 105 as described above.
  • the virtual image 124 after being inverted by the virtual image reversing unit 106 is the same image as the captured image when the object 113R is actually captured from the position of the virtual imaging device.
  • step S209 the virtual image inversion unit 106 performs such inversion processing on each virtual image 114 extracted in step S208.
  • the three-dimensional restoration unit 107 may perform the above-described three-dimensional shape restoration process based on the six images and the six shooting positions by a known technique, for example.
  • the three-dimensional restoration unit 107 may restore the three-dimensional shape as follows. It should be noted that the following method is merely an example, and other methods other than the following method may naturally be adopted.
  • the three-dimensional restoration unit 107 first specifies each of the above-described six images where the same part has been imaged. For example, the three-dimensional reconstruction unit 107 performs this identification by using a matching technique, and identifies a portion having similar contents to each other among the six images as a portion where the same part of the target object 113R is captured. To do.
  • the three-dimensional restoration unit 107 specifies the direction in which the specified portion is viewed from each of the six shooting positions. Then, the three-dimensional reconstruction unit 107 identifies the positions where the straight lines extending in the specified directions intersect with each other from the six photographing positions as the three-dimensional positions of the portions of the target object 113R photographed in these portions.
  • the three-dimensional restoration unit 107 specifies the positions where the straight lines are accumulated, that is, the position where the sum of the distances to the respective straight lines is minimized, the distance The position where the sum of the squares of the minimum value may be specified as the three-dimensional position of the part of the target object 113R.
  • the three-dimensional reconstruction unit 107 may specify at least the three-dimensional positions of some parts using only some of the six images.
  • the three-dimensional reconstruction unit 107 identifies the three-dimensional position of each part of the object 113R as described above.
  • the three-dimensional restoration unit 107 identifies the color of the part at the specified three-dimensional position as, for example, one color of the respective parts of the six images from which the three-dimensional position is calculated.
  • the color of the part is specified.
  • the three-dimensional restoration unit 107 thus identifies the three-dimensional position of each part and the color of the part at the three-dimensional position.
  • the three-dimensional shape measuring apparatus 1 will be described.
  • a part of the imaging devices 110 to 112 is not an image including both the real image 113 and the virtual image 114 of the object 113R, for example, a real image.
  • An image including only one, such as 113, is shot.
  • the three-dimensional restoration unit 107 may restore the three-dimensional shape from five or less images of the object 113R.
  • a three-dimensional shape measuring apparatus (three-dimensional shape measuring apparatus 1) that measures the three-dimensional shape of the object 113R, the mirror surface part (mirror surface 101) that reflects light from the object,
  • An imaging unit (imaging unit 103) that captures a captured image that reflects both a real image of the object (real image 113) and the mirror surface, the virtual image of the object formed by the real image and the mirror surface unit ( Among the virtual images 114), a light amount changing unit (display unit 120) that changes the light amount of one of the images (virtual image 114), and the captured image (video in FIG. 8) that was captured when the change was made.
  • the photographed image video in FIG.
  • a measuring device (three-dimensional shape measuring device 1) is configured.
  • the light amount changing unit changes the light amount of one image (virtual image 114) from the light amount of the virtual image 114 in FIG. 5 to the light amount of the virtual image 115 in FIG.
  • the mirror surface portion transmits light to the mirror surface portion from the back surface side opposite to the surface reflecting the light from the object to the surface side
  • the light amount changing portion is The amount of light of the virtual image is changed by changing the amount of transmitted light that the mirror surface part transmits to the surface.
  • the light quantity changing unit changes the light quantity of the virtual image, and holds a reference video (video in FIG. 6) captured by the imaging unit when there is no object to be captured in the imaging unit.
  • a holding unit real image / virtual image separating unit 105) is provided, and the image separating unit (real image / virtual image separating unit 105) changes the light amount by the light amount changing unit to display a first photographed image (video in FIG. 8).
  • the second photographing image (video in FIG. 5) is photographed without being changed by the photographing unit, and is not included in the reference video to be held among the two photographed images, and A portion having the same amount of light is identified as the real image (real image 113), and is included in the second photographed image (video in FIG. 5) that has not been changed among the two photographed images and retained.
  • the reference image (image in FIG. 6) It not included, and a portion where light intensity is different, specified as the virtual image (virtual image 114).
  • the mirror surface portion transmits light from the back surface opposite to the surface on which the mirror surface portion reflects light from the object to the mirror surface portion, and the light amount changing portion is the mirror surface.
  • a display unit (display unit 120) that is provided on the back side of the unit and displays an image to transmit the light of the displayed image to the surface and change the amount of the virtual image by the transmitted light.
  • the light amount changing part is a display part.
  • the three-dimensional shape measuring apparatus includes a three-dimensional shape display control unit (three-dimensional restoration unit 107) that displays the three-dimensional shape restored by the restoration unit on the display unit.
  • three-dimensional restoration unit 107 displays the three-dimensional shape restored by the restoration unit on the display unit.
  • the restoration unit uses the real image and the virtual image specified by the separation unit as two images of the object from two different viewpoint positions to restore a three-dimensional shape.
  • the viewpoint position related to the real image is a shooting position of the shooting unit
  • the viewpoint position related to the virtual image is a shooting position that is plane-symmetrical with respect to the mirror surface portion with respect to the position of the shooting unit.
  • (Embodiment 2) 12 to 13 are schematic diagrams of the three-dimensional shape measurement apparatus 2 according to the second embodiment of the present invention.
  • FIG. 15 is a block diagram showing the configuration of the mirror surface 101 and the mirror reflection control unit 132 in the second embodiment.
  • FIG. 16 illustrates the mirror surface 101, the mirror surface blocking unit 130, the display unit 131, the imaging devices 110 to 112, the virtual imaging devices 210 to 212 corresponding to the respective imaging devices, and the real image 113 of the object 113R and the corresponding images. It is a figure showing the example of the positional relationship of the virtual image 114 to do.
  • the three-dimensional shape measuring apparatus 2 includes a mirror surface blocking unit 130 and a display unit 131, as shown in FIGS.
  • the three-dimensional shape measurement apparatus 2 is different from the above-described three-dimensional shape measurement apparatus 1 according to the first embodiment in the components of the display unit 131, the specular surface blocking unit 130, and the specular reflection control unit 132 (FIGS. 14 and 15). There is a difference.
  • the display unit 131 (FIGS. 12 to 13, 14, and 15) is not for separating the real image 113 and the virtual image 114. Absent. As shown in FIGS. 12 to 13, the display unit 131 is provided at a position such as the left and right or the top and bottom of the mirror surface 101 that can be directly seen by each photographing apparatus or user. As illustrated in FIG. 16, the display unit 131 does not display an image on the reflection surface of the mirror surface 101 where the virtual image 114 can be seen, but displays an image on the outside of the reflection surface of the mirror surface 101.
  • the mirror surface 101 which concerns on Embodiment 2 does not permeate
  • FIG. 12 is a diagram showing a state in which the mirror surface blocking unit 130 does not cover the mirror surface 101 at all.
  • FIG. 13 is a diagram illustrating a state in which the mirror surface blocking unit 130 covers the mirror surface 101.
  • the mirror surface blocking unit 130 may be provided at the entrance of a garage or a store as an example, and may have the same structure as a shutter that blocks the inside of the entrance to the outside of the entrance. .
  • the mirror surface blocking unit 130 includes a winding mechanism that winds up at the top, and a blocking unit that is wound up by the winding mechanism.
  • the mirror surface blocking unit 130 may be in the state of FIG. 12 by winding the blocking unit. Then, the blocking unit is unwound from the winding mechanism and hangs the front surface side of the mirror surface 101 downward from the winding mechanism, thereby covering the mirror surface 101 and transmitting light from the object 113R to the mirror surface 101. Is blocked at a position closer to the object 113R. Thereby, the interruption
  • this panel changes to an opaque color such as black that does not transmit light, thereby blocking the light from the object 113R and covering the mirror surface 101.
  • the virtual image 114 is not reflected on the mirror surface 101.
  • the state of the panel changes between a transmissive state and a non-transmissive state.
  • This panel may be a liquid crystal panel, for example.
  • the three-dimensional shape measuring apparatus 2 uses such a mirror surface blocking unit 130, as in the first embodiment, which part in the captured image corresponds to the virtual image 114, and which part directly from each imaging apparatus.
  • the real image 113 that can be captured is clarified (see FIGS. 5 to 7, FIGS. 8 to 10, and FIG. 11).
  • the specular reflection control unit 132 (FIGS. 14 and 15) includes a specular blocking unit 130 and a synchronization control unit 121.
  • the above-described mirror surface blocking unit 130 does not cover the mirror surface 101 at all (the state in FIG. 12) and covers the state (FIG. 13). Are switched in synchronization with the photographing of the photographing unit 103 (FIG. 14), and the photographing unit 103 performs photographing in each of the two states.
  • the video image of the mirror surface blocking unit 130 taken in the state of FIG. 13 may be, for example, a video image in which the virtual image 115 is completely blocked by the mirror surface blocking unit 130 and the virtual image 115 completely disappears.
  • the real image / virtual image separation unit 105 is a method similar to the method shown in the first embodiment, and is based on an image (image of FIG. 12) taken when the mirror surface blocking unit 130 does not cover the mirror surface 101 at all. Then, a combination of the real image 113 and the virtual image 114 (the extracted video in FIG. 7) is extracted (step S201, step S203, and step S205 in FIG. 11).
  • the real image / virtual image separation unit 105 may not perform the process in step S207 because the real image 113 is extracted in step S206. However, the real image / virtual image separation unit 105 does not completely erase the virtual image 115 (see FIGS. 8 to 10) from the video, and in step S206, the video including the real image 113 and the virtual image 115 (video of FIG. 10). In the case of extraction, the real image 113 may be extracted in step S207 by performing, for example, the processing described in the first embodiment.
  • step S208 the real image / virtual image separation unit 105 further extracts these two extraction results, that is, an extracted video (extracted video in FIG. 7) composed of both the real image 113 and the virtual image 114 extracted in step S205.
  • an extracted video extracted video in FIG. 7
  • an image of only the virtual image portion virtual image 114, FIG. 7 of the object 113R is extracted.
  • the mirror surface blocking unit 130 is a shutter. This may be anything as long as it physically blocks the reflection of the mirror surface 101. Further, the mirror surface blocking unit 130 may not completely block the reflection of the mirror surface 101 but may reduce the transmission amount of the reflected light of the mirror surface 101.
  • the real image / virtual image separation unit 105 performs the processing in step S207 as described above, and performs the same image processing as in the first embodiment to extract the real image portion and the virtual image portion. It is good.
  • the light quantity changing unit (mirror surface blocking unit 130) blocks at least one of the incident light incident on the mirror surface unit and the reflected light reflected by the mirror surface unit (incident light).
  • a three-dimensional shape measuring device (three-dimensional shape measuring device 2) that changes the amount of light is configured.
  • the light amount changing unit changes the light amount of the virtual image by changing a reflected light amount reflected by the mirror surface portion.
  • the three-dimensional shape measuring apparatus includes a three-dimensional shape display unit (display unit 131) that displays the three-dimensional shape restored by the restoration unit.
  • FIG. 19 is a block diagram showing a configuration of the specular reflection control unit 142 in the third embodiment.
  • the block diagram showing each part of the 3D shape measurement apparatus 3 other than the configuration of the specular reflection control unit 142 and the flow of a series of processes when performing 3D shape restoration using the present invention is shown in FIG. This is the same as in the case of Embodiment 1 (see FIG. 2 and the like), and detailed description thereof is omitted.
  • FIG. 20 illustrates the mirror surface 101, the light irradiation unit 140, the display unit 131, the imaging device 110 to the imaging device 112, the virtual imaging device 210 to the virtual imaging device 212 corresponding to each imaging device, and the object 113R. It is a figure showing the example of the positional relationship of the real image 113 and the virtual image 114 corresponding to it.
  • the three-dimensional shape measuring apparatus 3 of this embodiment is different from the three-dimensional shape measuring apparatus 1 of the first embodiment in that the light irradiation unit 140 (FIGS. 17 to 20), the display unit 131 (FIGS. 17 to 20), There are also differences in the components of the specular reflection control unit 142 (FIG. 19).
  • the display unit 131 is not for separating the real image 113 and the virtual image 114.
  • the display unit 131 is, for example, the same as the display unit 131 (see FIGS. 12 to 13, FIG. 16, etc.) shown in the second embodiment.
  • the specular reflection control unit 142 (FIG. 19) includes a light irradiation unit 140 (see FIGS. 17 to 18 and 20) and a synchronization control unit 121.
  • FIG. 17 shows a state in which the mirror surface 101 is not irradiated with light by the light irradiation unit 140.
  • FIG. 18 shows a state in which the mirror surface 101 is irradiated with light by the light irradiation unit 140.
  • the light irradiation unit 140 is a part for irradiating the mirror surface 101 with light.
  • the light irradiation unit 140 changes the reflection of the virtual image 114. That is, the light irradiation unit 140 changes the light of the reflected virtual image 114.
  • the light irradiated from the light irradiation unit 140 is reflected on the mirror surface 101.
  • the reflected light interferes with the reflected light that creates the virtual image 114 of the object 113R that was originally reflected on the mirror surface 101. Due to this interference, a phenomenon occurs in which the virtual image 114 of the object 113R captured by the imaging unit 103 changes.
  • the three-dimensional shape measuring apparatus 3 uses this phenomenon, like the first embodiment, which part in the captured image corresponds to the virtual image 114 and which part can be captured directly from the photographing unit 103. Clarify whether it corresponds to 113.
  • the light irradiation unit 140 irradiates light and reflects the irradiated light to the mirror surface 101, thereby causing interference between the light of the virtual image 114 created by the mirror surface 101 and the light reflected by the mirror surface 101. As a result, the captured virtual image 114 is changed.
  • the light irradiator 140 irradiates the mirror surface 101 with light so that a part of the light of the virtual image 114 created by the mirror surface 101 includes the reflected light reflected by the mirror surface 101.
  • the light irradiation part 140 reduces the contrast of the virtual image 114.
  • the light irradiation unit 140 decreases the contrast of the vicinity due to the strong light of the sun, and in each of the sky regions, the outer side of the vicinity of the sun. The contrast is lowered in the same manner as the image in the neighboring area changes with respect to the area.
  • the light irradiation unit 140 includes the reflected light in a part of the light of the virtual image 114, so that the contrast of the virtual image 144 (FIG. 18) is the same as that of the virtual image 114 (FIG. 17). Make it lower. In other words, the light irradiation unit 140 makes the contrast of the virtual image 144 lower than the contrast of the real image 113 (FIG. 18) taken together with the virtual image 144.
  • the light irradiation unit 140 causes a so-called color flickering phenomenon to change the light amount of the virtual image from the virtual image 114 (FIG. 17) when not irradiated to the light amount of the virtual image 144 when irradiated. It may be.
  • the light irradiation unit 140 changes the image to be captured by switching the state between the state of irradiating light and the state of not irradiating, and changes to the irradiating state (FIG. 18), and irradiation. By not entering the state, the photographed image is changed to a normal image (FIG. 17).
  • the synchronization control unit 121 switches between a state in which the mirror surface 101 is not irradiated with light by the light irradiation unit 140 and a state in which the light is irradiated in synchronization with the shooting of the shooting unit 103.
  • the imaging unit 103 performs imaging in each of the two states.
  • the real image / virtual image separation unit 105 is a method similar to the method shown in the first embodiment, and is based on an image (FIG. 17) taken when the mirror surface 101 is not irradiated with light by the light irradiation unit 140. Then, a combination of the real image 113 and the virtual image 114 (FIG. 7) is extracted (step S201, step S203, step S205). In addition, the real image / virtual image separation unit 105 also performs processing on a video taken when the mirror surface 101 is irradiated with light by the light irradiation unit 140 in the same manner. That is, the real image / virtual image separation unit 105 takes the difference between two images (see FIG.
  • the mirror surface 101 is directly irradiated by the light irradiation unit 140.
  • the light irradiation unit 140 is a direct light as long as the light affects the light reflected by the mirror surface 101. Non-light may be irradiated (or reflected).
  • the light quantity changing unit (light irradiating unit 140) irradiates the mirror surface with light, and changes the contrast of the virtual image formed by the reflected light of the mirror surface unit 3. Is configured.
  • (Embodiment 4) 21 to 22 are configuration diagrams showing an outline of the three-dimensional shape measuring apparatus 4 according to the fourth embodiment of the present invention.
  • the three-dimensional shape measuring apparatus 4 includes three mirror surfaces, that is, a mirror surface 150 or a mirror surface 152, as shown in FIGS.
  • the virtual images 154 to 156 shown in FIGS. 21 to 22 are virtual images of the object 113R reflected by the mirror surfaces 150 to 152, respectively.
  • FIG. 23 is a block diagram showing a flow of a series of processes when the three-dimensional shape measuring apparatus 4 performs three-dimensional shape restoration, and each part constituting the three-dimensional shape measuring apparatus 4 according to the present invention.
  • FIG. 24 is a block diagram showing components of the three mirror surfaces 150 to 152 and the mirror reflection control unit 162. In FIG. 24, a detailed configuration of the specular reflection control unit 162 is illustrated.
  • the specular reflection control unit 162 includes three display units 170 to 172, a control mirror surface determination unit 160 (see FIG. 23), and a synchronization control unit 121.
  • the three-dimensional shape measuring apparatus 4 includes the number of mirror surfaces, the components of the mirror reflection control unit 162 (FIG. 24), and the control mirror surface determination unit 160 (FIG. 24). This is different from the configuration of the first embodiment.
  • the three-dimensional shape measuring apparatus 4 shoots the real image 113 of the object 113R and a plurality of virtual images (virtual image 154, virtual image 155, virtual image 156, etc.) at a time with a single imaging device.
  • the three-dimensional shape measuring apparatus 4 also acquires an image on the mirror surface 150 or the like side of the object 113R, which is originally a blind spot from the imaging apparatus, by the imaging apparatus using the plurality of mirror surfaces 150 to 152.
  • Each of mirror surface 150 to mirror surface 152 (FIGS. 21 to 22, FIG. 23, and FIG. 24) is the same as mirror surface 101 of the first embodiment.
  • the mirror surface 150 to the mirror surface 152 have different positions and directions, and form three different virtual images 154, virtual images 155, and virtual images 156 when the object 113R is viewed from different positions.
  • Display unit 170 through display unit 172 correspond to mirror surface 150 through mirror surface 152, respectively.
  • Each of the display units 170 and the like has the same positional relationship as the positional relationship between the mirror surface 101 and the display unit 120 in the first embodiment (see FIG. 3 and the like) with respect to the mirror surface corresponding to the display unit.
  • Each display unit gives the same action as the action given to the light of the virtual image 114 by the display unit 120 in the first embodiment with respect to the light of the virtual image formed by the corresponding mirror surface.
  • each display unit is provided on the back side of the corresponding mirror surface, and displays the image so that the light of the image transmitted through the mirror surface is displayed on the surface side of the mirror surface, thereby creating the corresponding mirror surface. Change the virtual image.
  • the control mirror surface determination unit 160 determines which mirror surface display unit the three-dimensional shape measurement apparatus 4 performs display from among the three display units 170 to 172. It is.
  • the control mirror surface determination unit 160 displays an image, for example, by transmitting a predetermined control signal to each determined display unit to be displayed, and displays the image on each display unit. At the same time, an image is not displayed on a display unit that has not been determined.
  • FIGS. 25 to 26 and FIGS. 21 to 22 described above show the operation of the control mirror surface determination unit 160.
  • FIG. FIG. 21 is a diagram illustrating a state in which the control mirror surface determination unit 160 performs control so that all the display units do not display an image.
  • FIG. 22 is a diagram illustrating a state in which the control mirror surface determination unit 160 performs control so that all display units display images.
  • FIG. 25 illustrates a state in which the control mirror surface determination unit 160 performs control so that only the display unit 171 and the display unit 172, that is, only two display units corresponding to the mirror surface 151 and the mirror surface 152 display an image.
  • FIG. FIG. 26 illustrates a state in which the control mirror surface determination unit 160 performs control so that only the display unit 170 and the display unit 172, that is, only two display units corresponding to the mirror surface 150 and the mirror surface 152 display images.
  • FIG. 21 is a diagram illustrating a state in which the control mirror surface determination unit 160 performs control so that all
  • the control mirror surface determination unit 160 selects one of these four types of control, the control in FIG. 21, the control in FIG. 22, the control in FIG. 25, and the control in FIG. Execute.
  • the synchronization control unit 121 (FIG. 24) has a function of switching the display on the display unit in synchronization with shooting by the shooting unit 103.
  • the synchronization control unit 121 uses the control mirror surface determination unit 160 described above to switch the four types of states shown in FIGS. 21, 22, 25, and 26 in synchronization with the shooting of each imaging device, Shoot in the state. That is, for example, the synchronization control unit 121 detects the timing at which shooting is performed, and determines the control mirror surface at the detected timing for the type of control indicated by the predetermined type instruction signal input before the detection. To the unit 160.
  • the synchronization control unit 121 causes each photographing apparatus to perform photographing in the type of control state (FIGS. 21, 22, 25, and 26).
  • the imaging separation unit 104 (FIG. 23) includes a real image / virtual image separation unit 105 and a virtual image inversion unit 106.
  • the real image / virtual image separation unit 105 inputs four types of instruction signals to the synchronization control unit 121 and shoots images of the respective types (FIGS. 21, 22, 25, and 26). Let thus, the real image / virtual image separation unit 105 obtains the respective images shown in FIGS. 21, 22, 25, and 26 by, for example, obtaining each photographed image. For example, the real image / virtual image separation unit 105 acquires the video in the state of FIG. 21 in step S201 of FIG. 11 and acquires the video in the states of FIGS. 22, 25, and 26 in step S202. .
  • the real image / virtual image separation unit 105 causes the four images to be captured so that the object 113R does not move or moves within a predetermined small range.
  • the real image / virtual image separation unit 105 causes these images to be taken within a predetermined sufficiently short time range.
  • the real image / virtual image separation unit 105 holds the images in the four types of states shown in FIG.
  • the real image / virtual image separation unit 105 extracts an extracted video including the virtual image 154 that is a normal light amount, by changing only the light amounts of the virtual image 158 and the virtual image 159 from the image of FIG.
  • the real image / virtual image separation unit 105 extracts an extracted video including a virtual image 155 having a normal light amount, by changing only the light amounts of the virtual image 157 and the virtual image 159 from the video in FIG.
  • the virtual image 154 As described above, also in the three-dimensional shape measurement apparatus 4 according to the fourth embodiment, as in the case of the three-dimensional shape measurement apparatus 1 according to the first embodiment, which part in the captured image is the virtual image 154. It is also clarified which portion corresponds to the virtual image 156 and which corresponds to the real image 113 that can be directly captured from the photographing apparatus. That is, the virtual image 154 to the virtual image 156 and the real image 113 are specified by the three-dimensional shape measuring device 4.
  • the configurations of the mirror surface 101 and the like that transmit light and the display unit 120 and the like that are behind the mirror surface are behind the mirror surface (see FIG. 3), respectively.
  • the configuration of the mirror and the display unit has both the reflection characteristic of the mirror surface and the display characteristic of the display unit, such as a configuration of a display unit that transmits light and a mirror surface behind the display unit.
  • Various configurations are possible as long as they can be utilized.
  • the display unit 120 does not display the light of the image to be displayed in the region of the real image 113 of the object 113R as viewed from the photographing device 110 or the like because the light of the image to be displayed is blocked by the object 113R. It is preferable. That is, it is desirable that the display unit 120 does not include the light of the image to be displayed in the video of the captured real image 113.
  • the specifying unit specifies a portion in which the color has not changed (portion of the real image 113) in the first and second shot images that have been shot as the image of the first object, and the change The part (the part of the virtual image 114) that is being identified is specified as the second image of the object (real image / virtual image separation unit 105).
  • the first color changing unit changes the color of light of the virtual image in the optical path of the virtual image.
  • the first color changing unit (the display unit 120, the mirror surface blocking unit 130, and the light irradiation unit 140) is provided near a mirror that displays the virtual image. Thereby, the position of the first color changing unit and the other part of the three-dimensional shape measuring apparatus becomes closer, and the size of the three-dimensional shape measuring apparatus can be reduced.
  • the identifying unit identifies a portion in which the color has not changed in the photographed first photographed image and the second photographed image as a real image of the object, and identifies the part that has changed as described above. Identify the object as a virtual image.
  • the three-dimensional shape calculation unit holds in advance a shooting position and a shooting direction in which shooting is performed by the shooting unit, and a mirror position and a mirror direction of the mirror. Then, the three-dimensional shape calculation unit calculates a three-dimensional shape based on the identified real image and virtual image, and the photographing position to be held, the mirror position, and the mirror direction. That is, the three-dimensional shape calculation unit calculates the next three-dimensional shape.
  • the three-dimensional shape calculation unit may hold the shooting position and shooting direction of the virtual shooting unit, and thereby hold the mirror position and mirror direction.
  • the mirror position and the mirror direction are specified by the virtual photographing position and the like, and the photographing position and the like of the actual photographing unit.
  • the first color changing unit may take any one of the following configurations.
  • the first color changing unit may block the mirror with respect to the object. That is, the first color changing unit may prevent at least part of light from the object from reaching the mirror (see the mirror surface blocking unit 130, FIGS. 12 to 13 and the like).
  • the first color changing unit irradiates light only to the optical path of the virtual image among the two optical paths of the virtual image and the real image, and reduces only the contrast of the light of the virtual image. (Refer to the light irradiation unit 140, FIG. 17 to FIG. 18 and the like).
  • the color changing unit may change the virtual image by irradiating the light so that the light scattered by the irradiated light is included in the virtual image.
  • the specifying unit does not have the object, and the first color changing unit does not change.
  • a three-dimensional shape measuring apparatus includes a second mirror that reflects a second virtual image (for example, virtual image 155, virtual image 158 (FIGS. 21 to 22, FIG. 25 to FIG. 26)) of an object. (For example, a mirror surface 151) and a second color changing unit.
  • photography part is a picked-up image
  • the second color changing unit changes the color of the light of the second virtual image in the middle of the optical path of the second virtual image (display unit 171 in FIG. 24).
  • the three images of the object can be obtained by a simple process in which the third captured image is simply captured even though the captured image includes the second virtual image. Can be specified.
  • FIG. 29 is a diagram showing a configuration of the three-dimensional shape measuring apparatus 6.
  • the three-dimensional shape measuring apparatus 6 includes a mirror surface 101, a specular reflection control unit 102, a photographing unit 103, a real image / virtual image separation unit 105x, a virtual image reversing unit 106, and a three-dimensional reconstruction unit 107.
  • These mirror surfaces 101 and the like correspond to the mirror surfaces 101 and the like in FIG. In the following description, detailed description of the points described above will be omitted as appropriate.
  • the mirror surface 101 reflects the light from the object 113R and forms a virtual image 114 by the reflected light.
  • the position and direction of the mirror surface 101 are positions and directions where the object 113R is on the surface side of the mirror surface 101 where the mirror surface 101 reflects light.
  • the mirror surface 101 is a half mirror that transmits light from the back surface side opposite to the mirror surface to the mirror surface 101 to the surface side.
  • the specular reflection control unit 102 (FIG. 29) includes a display unit 63 (FIG. 30).
  • FIG. 31 is a diagram showing a detailed configuration of the distance sensor unit 61.
  • the distance sensor unit 61 includes a special CCD (Charge Coupled Device) 612, a specifying unit 613, a synchronization processing unit 614, and a light emitting LED 611.
  • CCD Charge Coupled Device
  • the identifying unit 613 identifies the time at which the light from the projection LED 611 is sensed in each pixel.
  • the specifying unit 613 specifies, for each pixel, a time (arrival time) from the time of light irradiation by the light emitting LED 611 to the time when the light is sensed by the pixel.
  • the specifying unit 613 determines the distance that the light travels during the arrival time, and the distance between the distance sensor unit 61 and the measurement location corresponding to the detected pixel. Is identified.
  • the distance between arrival times is twice the distance obtained by adding the distance of the light forward path and the distance of the return path. Therefore, for example, the specifying unit 613 specifies a distance that is half of the distance of the arrival time as the distance to the location.
  • the identifying unit 613 thus identifies the distance between the pixels.
  • the specifying unit 613 specifies a distance image (first image) 61I (FIG. 30) in which the value of each pixel included is the distance of the specified pixel.
  • the pixel in the region 114sx that is displayed (irradiated) by the display unit 63 is, for example, a pixel in which the amount of light of the above pattern is zero.
  • the pattern in the light of the region 114sx is extinguished by the light from the display unit 63, for example, by being absorbed by the light from the display unit 63. Thereby, the light quantity of the said pattern becomes zero.
  • the display unit 63 erases the pattern by irradiating light so that the mirror surface 101 does not reflect the light of the pattern.
  • the specifying unit 613 specifies an infinitely long time and specifies an infinitely long distance for the pixels in the region 114sx displayed by the display unit 63, for example. For this reason, the pixel of the irradiated region 114sx in the distance image 61I is a pixel having an infinitely long distance. In the distance image 61I, pixels in a region that has not been irradiated are pixels that are not infinitely long.
  • the specifying unit 613 specifies the distance image 61I, so that the region of the pixel whose infinite distance is specified in the distance image 61I is changed to the region 114sx irradiated with the light of the specific wavelength by the display unit 63.
  • the pixel region that is not infinitely long is identified as a region that has not been irradiated.
  • the real image extraction unit 62 specifies a real image region 113s based on the distance image 61I. For example, the real image extraction unit 62 holds a predetermined reference image, and identifies a region having a difference from the held reference image in the distance image 61I as the real image region 113s. Then, the real image extraction unit 62 specifies the portion of the specified real image region 113 s in the image (second image) 103 ⁇ / b> I photographed by the photographing apparatus 110 as the real image 113. That is, the real image extraction unit 62 specifies the real image 113 included in the image 103I by comparing the shape of the distance image 61I and the shape of the image 103I.
  • the real image extraction unit 62 specifies, for example, the shape in the image 103I corresponding to the shape of the real image region 113s, and specifies the portion of the specified shape in the image 103I as the real image 113.
  • the specified real image region 113s is a region in which a distance that is not an infinite length is specified by the specifying unit 613.
  • the special CCD 612 senses light and the specifying unit 613 specifies the distance image 61I, so that the distance image 61I is photographed by the distance sensor unit 61.
  • the real image + virtual image extraction unit 62x identifies the virtual image 114 in the image 103I photographed by the photographing apparatus 110 based on the real image region 113s identified by the real image extraction unit 62. Specifically, the real image + virtual image extraction unit 62x specifies, for example, a part of the image 103I in which the image 103I has a difference from a predetermined reference image as the whole of the real image 113 and the virtual image 114. In addition, the portion of the area other than the real image area 113 s specified by the real image extraction unit 62 is specified as the virtual image 114. The real image + virtual image extraction unit 62x specifies the virtual image region 114s by specifying the virtual image 114 in this way.
  • the identified virtual image region 114s is a region in which an infinitely long distance is specified by the specifying unit 613 in the distance image 61I.
  • the three-dimensional reconstruction unit 107 Based on the specified real image 113 and the specified virtual image 114, the three-dimensional reconstruction unit 107 generates a three-dimensional shape for capturing the specified real image 113 and the specified virtual image 114 in the image 103I.
  • the three-dimensional shape of the object 113R is calculated.
  • the three-dimensional restoration unit 107 displays the calculated three-dimensional shape to the user using a predetermined display control unit.
  • the pixels in the irradiated region 114sx are pixels whose time until the special CCD 612 senses light is zero.
  • the distance of the pixel corresponding to the irradiated region in the distance image 61I is zero or a value close to zero.
  • the specifying unit 613 specifies the distance image 61I, so that the display unit 63 irradiates light of a specific wavelength to the pixel region in which the distance close to zero is specified in the distance image 61I.
  • the region of the pixel whose distance cannot be approximated to zero is identified as the region that has not been irradiated.
  • the real image region 113 s specified by the real image extraction unit 62 is a region in which the specifying unit 613 specifies a distance whose distance cannot be approximated to zero.
  • FIG. 32 is a diagram showing a three-dimensional shape measuring apparatus 7 which is a modification of the three-dimensional shape measuring apparatus 6.
  • the three-dimensional shape measuring apparatus 7 includes a mirror surface 701, a light amount changing unit 73f, and a distance sensor unit 71.
  • Mirror surface 701 may not be a half mirror. That is, the mirror surface 701 does not have to transmit light from the back surface side.
  • the imaging device 110 captures the image 103I at the same time as the distance image 61I is captured by the distance sensor unit 71 (light detection by the special CCD 612).
  • the imaging device 110 captures an image 103I using light including light other than the light having the specific wavelength. Therefore, the photographed image 103I has a small difference from the photographed image when the light amount is not changed although the light amount is changed by the light amount changing unit 73f.
  • the image 103I is, for example, the same (substantially the same) image as when the image is not changed. That is, the photographed image 103I is the same (substantially the same) as the image 103I photographed by the above-described three-dimensional shape measuring apparatus 6.
  • the specifying unit 613 specifies the region (region 114sx in FIG. 30) in which the light amount is changed by the light amount changing unit 73f by specifying a region of an infinitely long distance.
  • the distance sensor unit 61 may not include the synchronization processing unit 614.
  • an appropriate image is captured as the image 103I and an appropriate process is performed even though the distance image 61I and the image 103I are captured at the same time.
  • two appropriate images can be easily obtained without complicated processing of photographing the two images at different times.
  • appropriate processing can be performed with simple processing.
  • FIG. 33 is a diagram showing the three-dimensional shape measuring apparatus 8 (three-dimensional shape measuring apparatuses 1 to 7).
  • the three-dimensional shape measuring device 8 is, for example, the above-described three-dimensional shape measuring device 6.
  • the three-dimensional shape measuring apparatus 8 includes a mirror surface 101 (mirror surface 150 and the like), a light amount changing unit 63a (display unit 120, mirror surface blocking unit 130, light irradiation unit 140, display unit 63, light amount changing unit 73f), and photographing unit 103. And an imaging separation unit 104 and a three-dimensional restoration unit 107.
  • the mirror surface 101 reflects the light from the object 113R to cause the photographing unit 103 to photograph the reflected light.
  • the mirror surface 101 forms an optical path 101R via the mirror surface 101 between the object 113R and the imaging unit 103.
  • the mirror surface 101 forms a virtual image I1 of the object 113R by reflection of light in the optical path 101R.
  • the light quantity changing unit 63a acts on the light in the optical path 101R to change the quantity of light traveling along the optical path 101R.
  • the photographing unit 103 photographs a captured image I including both a virtual image I1 by the mirror surface 101 and a real image I2 not by the mirror surface 101.
  • the imaging unit 103 captures, as the first captured image I, a changed image Ia that has an influence due to a change by the light amount changing unit 63a.
  • the photographing unit 103 photographs a normal image Ib that is not affected by the change by the light amount changing unit 63a as the second photographed image I.
  • the imaging unit 103 captures each of the change image Ia and the normal image Ib.
  • the imaging unit 103 captures a change image Ia (such as the video in FIG. 5) at a first time when the light amount change unit 63a changes, for example. And the imaging
  • the second time is a time different from the first time.
  • the imaging unit 103 includes, for example, a first imaging device (distance sensor unit 61) that captures a change image Ia (first image 61I) having an effect, and a normal image that has no effect.
  • having no influence means, for example, having an influence less than the influence of the change image Ia.
  • having no influence means having an influence of a degree smaller than a predetermined degree, for example.
  • the virtual image Ia1 included in the change image Ia has an influence due to a change in the light amount by the light amount change unit 63a.
  • the real image Ia2 included in the change image Ia has no influence due to the change in the light amount by the light amount change unit 63a.
  • the imaging separation unit 104 includes an area specifying unit 104a and an image specifying unit 104b. These region specifying units 104a and the like are not shown in FIG. 29 for convenience of explanation.
  • the region specifying unit 104a specifies a region having an effect of changing the amount of light in the change image Ia as a virtual image region R1 (virtual image region 114s, the region of the virtual image 115 in FIG. 10, etc.). Then, a region in the changed image Ia that does not have the effect of changing the amount of light is specified as a real image region R2 (a real image region 113s, a region of the real image 113 in FIG. 10, etc.).
  • the area specifying unit 104a may specify these based on, for example, both the change image Ia and the normal image Ib.
  • the virtual image region R1 is a region in which the image in the region in the change image Ia is a virtual image Ia1 having an effect, and the image in the region in the normal image Ib is a virtual image Ib1 having no effect.
  • the region specifying unit 104a may specify, as the virtual image region R1, a region in which the influence is different between the two images.
  • the area R2 of the real image is an area where the image of the area in the change image Ia is the real image Ia2 having no influence, and the image of the area in the normal image Ib is the real image Ib2 having no influence. It is.
  • the region specifying unit 104a may specify, as the real image region R2, a region that has the same influence between the two images.
  • the area specifying unit 104a specifies these areas by, for example, generating area specifying data d that specifies the area of the virtual image Ia1 and the area of the real image Ia2.
  • the area specifying unit 104a may specifically specify the virtual image area R1 and the real image area R2 only from the change image Ia, for example.
  • the change image Ia can have a lower quality image, for example, having a resolution lower than that used for restoring the three-dimensional shape.
  • the change image Ia is an image photographed by the photographing unit 103 by the distance sensor unit 61 (distance sensor unit 71) included in the photographing unit 103.
  • the image specifying unit 104b specifies the image of the virtual image region R1 specified by the region specifying unit 104a in the normal image Ib as the virtual image Ib1.
  • the image specifying unit 104b specifies the image of the real image region R2 specified by the region specifying unit 104a in the normal image Ib as the real image Ib2 in the normal image Ib.
  • the real image Ib2 in the normal image Ib may be the same as the real image Ia2 in the change image Ia.
  • the change image Ia with respect to an area other than the virtual image Ia1 that is affected by the light quantity change unit 63a (for example, the area of the real image 113 in FIG. 10), an image of that area in the normal image Ib (real image in FIG. 7). 113) (real image 113 in FIG. 10).
  • the image specifying unit 104b may specify the image (real image Ia2) of the specified real image region R2 in the change image Ia as the real image Ib2 in the normal image Ib.
  • the three-dimensional restoration unit 107 calculates a three-dimensional shape that causes the photographing unit 103 to photograph the virtual image Ib1 and the real image Ib2 identified by the image identifying unit 104b as the three-dimensional shape of the object 113R.
  • the three-dimensional restoration unit 107 generates, for example, three-dimensional shape information 107x that specifies the calculated three-dimensional shape.
  • the three-dimensional restoration unit 107 displays the generated three-dimensional shape information 107x to the user using a predetermined display unit.
  • the three-dimensional shape measurement apparatus (three-dimensional shape measurement apparatus 8, three-dimensional shape measurement apparatuses 1 to 7) of the embodiment measures the three-dimensional shape of the object (object 113R).
  • the mirror surface (mirror surface 101) reflects light from the object.
  • the imaging unit (imaging unit 103) displays a captured image (captured image I) that reflects both the real image (real image I2) of the object and the virtual image (virtual image I1) of the object formed by the mirror surface. Take a picture.
  • the light quantity changing unit (light quantity changing unit 63a) changes the light quantity of one image (virtual image I1) of the real image and the virtual image.
  • the image separation unit includes a first captured image (changed image Ia) having an influence of the change by the light amount changing unit, and a second captured image (normal image Ib) having no influence.
  • the portion having a different light quantity (the portion of the virtual image region R1 in the normal image Ib) is identified as the one image (virtual image Ib1), and the same portion (the portion of the real image region R2 in the normal image Ib) is identified.
  • the other image (real image Ib2) is specified.
  • the restoration unit restores the three-dimensional shape of the object using the real image and the virtual image specified by the image separation unit (generates three-dimensional shape information 107x).
  • the light amount changing unit changes a light amount of light of a predetermined color (light of a specific wavelength) out of the light of the virtual image
  • the photographing unit is a first photographing device (distance sensor unit 61).
  • a second photographing device such as the photographing device 110
  • the first photographing device performs distance measurement using only light of the predetermined color, and an image (distance image) obtained as a result thereof. Is taken as the first photographed image (first image 61I), and the second photographing apparatus captures a photographed image by light including light of a color other than the predetermined color light.
  • the image separation unit captures a region (virtual image region R1) in which the light amount or the distance is changed in the first captured image as the virtual image (virtual image I1). In the second photographed image. With identifying the region portion of the virtual image of (virtual image I1), in the second captured image, to identify the other portions other than the specified portion with the real image (real image I2).
  • the first photographing device senses (photographs) an irradiation unit (light-projecting LED 611) that emits light of the predetermined color, and light that is irradiated by each portion of the object.
  • the distance that the light travels for the time between the photographing unit (special CCD 612) and the time of irradiation until the time of photographing the light at each location is defined as the distance from the first photographing unit to that location.
  • the mirror surface (the mirror surface 101 included in the three-dimensional shape measuring apparatus 6) transmits light to the mirror surface from the back side opposite to the surface that reflects the light from the object to the surface side.
  • the light quantity changing unit is provided on the back surface side of the object, and the first photographing image is photographed by the first photographing device when the light of the predetermined color is directed to the mirror surface side. It is a display part (display part 63 of Drawing 30) displayed when it is done.
  • the light amount changing unit (light amount changing unit 73f in FIG. 32) is provided on the side of the surface of the mirror surface where the mirror surface reflects light from the object.
  • a filter that does not transmit light of a predetermined color, but transmits light of a color other than the predetermined color.
  • This computer program is a computer program for causing a computer (all or a part of the three-dimensional shape measuring apparatus, for example, the control unit 1A or the CPU 1Aa) to measure the three-dimensional shape of the object.
  • the three-dimensional shape measuring device is a mirror image that reflects light from the object, a real image of the object, and a captured image that reflects both the virtual image of the object formed by the mirror surface.
  • a photographing unit for photographing controls the light amount changing unit so that the light amount changing unit changes the light amount of one of the real image and the virtual image.
  • a light quantity change control unit, a first photographed image having an influence of the change by the light quantity change unit, and a second photographed image having no influence are identified as the one image,
  • the three-dimensional shape measuring apparatus has a function for easily three-dimensionally restoring an object and displaying it, and is useful as a health management system used for body shape maintenance and the like. It can also be applied to uses such as a fitting system.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 簡単な処理で、かつ、対象物に動きがあるか否かに関わらず、三次元形状計測ができる。撮影部(103)は、対象物(113R)の実像(I2)と鏡面(101)との両者を映した撮影画像(I)を撮影する。光量変化部(63a)は、虚像(I1)の光量を変化させる。像分離部(撮像分離部104)は、変化がされた際の撮影画像(Ia)と、されない際の撮影画像(Ib)とにおける、光量が異なる領域(R1)の画像を虚像(Ib1)と特定し、同じ領域(R2)の画像を実像(Ib2)と特定する。特定された実像等から、三次元形状が復元される。

Description

三次元形状計測装置、集積回路、および方法
 本発明は、鏡面を用いて、対象物が当該鏡面に映り込んだ虚像に基づいて、その対象物の三次元計測を行う方法およびその装置に関する。
 従来の三次元形状測定装置としては、レーザースリット光を対象物に照射し、その対象物上のスリット光の位置関係をカメラで捉えることにより対象物までの距離を測定し、対象物の三次元形状を復元する光切断法が知られている。他にも対象物の全周囲に、複数台のカメラを設置して撮影の死角を無くし、それぞれのカメラが捉えた対象物のシルエット画像とカメラの位置から、対象物のシルエットを三次元的に重ね合わせていくことで、対象物の外形を推定していく視体積交差法がある。
 前記のような手法で対象物の三次元復元を行う場合、カメラの台数が多ければ多いほど復元の精度が向上する。しかし、それぞれのカメラに対し、キャリブレーションを行う必要があるため、カメラの台数を増やせば増やすほどキャリブレーションを行うのが困難になるという矛盾が生じる。
 そこで、精度を保ったまま、カメラ台数を減らす方法として、カメラから死角となる部分の三次元形状復元を行うために、鏡に死角部分を映し出すことで、1台のカメラにより正面および死角部分双方の撮影を1度に行うような手法が考えられる。実際に鏡で死角部分の映像を取得する方法として、まずは対象物の可視部分を光切断法で計測し、この対象物の座標と、既知である鏡面の座標を考慮することによって、鏡面に映し出された死角部分の虚像のみの切り抜きを行い、死角部分の三次元形状復元結果とする手法が提案されている(特許文献1参照)。
特許第3574044号公報
 特許文献1は、カメラからの可視部分にあたる実像と鏡に映り込んでいる虚像との切り分けを行っている。しかしながら、この手法は、まず1度実像部分の三次元形状復元を光切断法により行い、その装置内での座標を求めてから、さらにもう1度虚像部分の三次元形状復元を行わなければ鏡に映り込んだ部分の三次元形状復元は行うことができない。さらに、光切断法は測定に時間を要するので、人のような動きのある対象物の測定には向いていないという問題もある。
 本発明は、前記従来の手法が有する課題を解決するもので、鏡を用いたときに生じる実像と虚像の切り分けの問題を解決しながら、高速に鏡を用いて対象物の三次元形状復元を行うことを目的とした方法およびその装置を提供することを目的とする。つまり、簡単な処理により実像と虚像の切り分けができ、しかも、対象物に動きがあるときでも正しく切り分けができることを第1の目的とする。そして、これにより、簡単な処理によって、三次元形状計測ができて、しかも、対象物に動きがあるときでも計測ができる三次元形状計測装置を提供することを第2の目的とする。
 前記従来の課題を解決するために、本発明の三次元形状計測装置は、次の構成を採る。
 すなわち、本発明の三次元形状計測装置は、対象物の三次元形状を計測する三次元形状計測装置であって、前記対象物からの光を反射する鏡面と、前記対象物の実像と、前記鏡面により形成された、前記対象物の虚像との両者を映した撮影画像を撮影する撮影部と、前記実像と、前記虚像とのうちで、一方の像の光量を変化させる光量変化部と、前記光量変化部による前記変化の影響を有する第1の撮影画像と、影響を有さない第2の撮影画像とにおける、光量が異なる部分を前記一方の像と特定し、同じである部分を他方の像と特定する像分離部と、前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元部とを備える三次元形状計測装置である。
 こうすることで、例えば、光切断法における、スリット光を照射したり、対象物上のスリット光の位置関係をカメラで捉えるなどの処理が必要とならない。これにより、複雑な処理が必要なくなり、簡単に、三次元形状を復元できる。しかも、カメラで位置関係を捉える処理の時間と比べて、2つの撮影画像が撮影される間の時間は短くできるので、対象物に動きがあったとしても、短い時間の間にそれらの撮影ができて、撮影される各対象物の映像の間に動きがないようにできる。これにより、対象物に動きがあっても、三次元形状を復元できる。従って、簡単な処理により復元ができて、しかも、対象物に動きがあっても、復元ができる。
 なお、三次元形状計測装置は、複数の撮影部を備えてもよい。それら複数の撮影部のうちの1個又は複数は、実像と虚像のうちのどちらか一方のみが映っている撮影画像を撮影してもよい。また、撮影部は、像分離部により実像と虚像が分離される撮影画像以外の他の撮影画像を撮影してもよい。ここで、他の撮影画像は、例えば、実像と虚像のうちのどちらか一方のみが映っている画像でもよい。
 また、「前記実像と、前記虚像とのうちで、一方の像の光量を変化させる」とは、予め定められた変化を一方の像の光量には生じさせ、他方の像の光量には生じさせないことをいう。ここで、予め定められた変化とは、一方の像では生じ、他方の像では生じないことにより、像分離部による像の分離が可能になる変化をいう。例えば、他方の像では、一方の像での変化に伴って、像分離部による像の分離が不可能になるような変化(例えば、上記の予め定められた変化)ではない多少の変化が生じてもよい。
 本発明の三次元形状計測装置によれば、鏡面を利用した対象物の撮影時に、撮影部から捉えることのできる対象物の実像と、前記鏡面に映り込んだ対象物の虚像との切り分けを行うことが可能となる。これにより、例えば1つの撮影部から撮影された映像を前記実像と前記虚像と異なる撮影位置から撮影された映像として利用することができる。これにより三次元形状計測を行う際に利用する撮影部の数を減らすことができ、撮影部が多ければ多い程複雑になるカメラキャリブレーションの問題を軽減するなどの効果が得られる。
 また、他の効果としては、簡単な処理により実像と虚像の切り分けができ、しかも、対象物に動きがあるときでも正しく切り分けができる。これにより、三次元形状の復元が簡単な処理によりできて、しかも、対象物に動きがあるときでも復元ができる効果が生じる。
図1は、実施の形態1における三次元形状計測装置の概略を示す構成図である。 図2は、実施の形態1を構成するそれぞれの部分と、実施の形態1において三次元形状復元を行う際の一連の処理の流れを示した基本構成図である。 図3は、実施の形態1の構成要素の位置関係を示す図である。 図4は、実施の形態1における鏡面および鏡面反射制御部の具体的な構成図である。 図5は、画像が表示されていない状態が撮影された映像を示す図である。 図6は、画像が表示されていない状態が撮影された映像を示す図である。 図7は、画像が表示されていない状態が撮影された映像を示す図である。 図8は、画像が表示されている状態が撮影された映像を示す図である。 図9は、画像が表示されている状態が撮影された映像を示す図である。 図10は、画像が表示されている状態が撮影された映像を示す図である。 図11は、実施の形態1における画像処理による実像部分と虚像部分の抽出の処理フローを示す図である。 図12は、実施の形態2における三次元形状計測装置の概略を示す構成図である。 図13は、実施の形態2における三次元形状計測装置の概略を示す構成図である。 図14は、実施の形態2を構成するそれぞれの部分と、実施の形態2において三次元形状復元を行う際の一連の処理の流れを示した基本構成図である。 図15は、実施の形態2における鏡面および鏡面反射制御部の具体的な構成図である。 図16は、実施の形態2の構成要素の位置関係を示す図である。 図17は、実施の形態3における三次元形状計測装置の概略を示す構成図である。 図18は、実施の形態3における三次元形状計測装置の概略を示す構成図である。 図19は、実施の形態3における鏡面および鏡面反射制御部の具体的な構成図である。 図20は、実施の形態3の構成要素の位置関係を示す図である。 図21は、実施の形態4における三次元形状計測装置の概略を示す構成図である。 図22は、実施の形態4における三次元形状計測装置の概略を示す構成図である。 図23は、実施の形態4を構成するそれぞれの部分と、実施の形態4において三次元形状復元を行う際の一連の処理の流れを示した基本構成図である。 図24は、実施の形態4における鏡面および鏡面反射制御部の具体的な構成図である。 図25は、本発明の実施の形態4における三次元形状計測装置の概略を示す構成図である。 図26は、本発明の実施の形態4における三次元形状計測装置の概略を示す構成図である。 図27は、実施の形態5に係る三次元形状計測装置を示す図である。 図28は、実施の形態5に係る三次元形状計測装置を示す図である。 図29は、三次元形状計測装置の構成を示す図である。 図30は、三次元形状計測装置が備える鏡面等の複数の部分の間の位置関係を示す図である。 図31は、距離センサ部の詳細な構成を示す図である。 図32は、変形例である三次元形状計測装置を示す図である。 図33は、三次元形状計測装置を示す図である。
 以下本発明の実施の形態について、図面を参照しながら説明する。
 なお、以下で使用する全ての図において、適宜、同じ構成要素のものは同じ符号を用い、説明を省略する。
 実施の形態における三次元形状計測装置(三次元形状計測装置1~8)は、対象物(対象物113R)の三次元形状を計測する三次元形状計測装置であって、前記対象物からの光を反射する鏡面(鏡面101、150等)と、前記対象物の実像と、前記鏡面により形成された、前記対象物の虚像との両者を映した撮影画像を撮影する撮影部(撮影部103)と、前記実像と、前記虚像とのうちで、一方の像の光量を変化させる光量変化部(光量変化部63a、表示部120、鏡面遮断部130、光照射部140等)と、前記光量変化部による前記変化の影響を有する第1の撮影画像(変化画像Ia等)と、影響を有さない第2の撮影画像(通常画像Ib)とにおける、光量が異なる部分を前記一方の像(実像Ib2、実像113等)と特定し、同じである部分を他方の像(虚像Ib1、虚像114等)と特定する像分離部(撮像分離部104)と、前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元部(三次元復元部107)とを備える三次元形状計測装置である。
 このため、一方の像の光量の変化に基づいて、実像と虚像との全体のうちから、実像および虚像がそれぞれ特定される。これにより、実像および虚像が切り分けられる。このため、簡単な処理で、高速に、切り分けができる。
 なお、実像と…虚像との両者を映した撮影画像を撮影するとは、実像の領域と、虚像の領域との両者が含まれる撮影画像を撮影することをいう。
 一方の像の光量を変化させるとは、一方の像の光の光路(光路101R)において、その光に作用することにより、その光の量を変化させることをいう。
 第1の撮影画像と、…第2の撮影画像とにおける、…光量が…同じである部分を他方の像と特定するとは、影響を有する第1の撮影画像における、実像の領域および虚像の領域の全体のうちで、影響を有しない部分、つまり、光量の変化がされなかった部分を、他方の像の領域と特定することをいう。また、光量が異なる部分を一方の像と特定するとは、その全体における、特定された、他方の像の領域以外の他の部分を、一方の像の領域と特定することをいう。
 なお、他方の像の領域が特定されることと、一方の像の領域が特定されることとの順序は、後者が後の順序でもよいし、前者が後の順序でもよいし、両方が同時の順序でもよい。
 特定された前記実像と前記虚像とを利用して、…三次元形状を復元するとは、特定された一方の像の領域と、他方の像の領域とを上記第1の撮影画像に撮影させる三次元形状を、対象物の三次元形状と特定することをいう。
 例えば、撮影部は、影響を有する第1の撮影画像(変化画像Ia)を撮影すると共に、有さない第2の撮影画像(通常画像Ib)も撮影する。そして、像分離部は、撮影された第2の撮影画像(通常画像Ib)における、特定された一方の像の領域(虚像の領域R1)の画像(虚像Ib1)を第2の撮影画像に撮影させる三次元形状を、対象物の三次元形状として特定する。これにより、変化のない画像から三次元形状が特定され、特定の精度を高くできる。
 なお、光量変化部は、例えば、撮影画像(撮影画像I)に含まれる、実像の領域(実像の領域R2)と、虚像の領域(虚像の領域R1)との2つの領域の像のうちの一方の像の光量を、0に変化させるものでもよい。
 なお、例えば、換言すれば、三次元形状計測装置(三次元形状計測装置1)においては、鏡面(鏡面101)が、対象物の虚像を形成する。そして、撮影部(撮影部103)が、対象物の実像の領域(実像の領域R2)と、虚像の領域(虚像の領域R2)との両者が含まれる撮影映像を撮影する。そして、光量変化部(光量変化部63a)が、虚像と実像とのうち一方の像の光が進む光路(光路101R)において、その光に作用して、その一方の像の光量を変化させる。そして、像分離部(撮像分離部104)が、上記撮影画像における、実像の領域と虚像の領域との全体のうちで、光量の変化がされなかった部分を、他方の像(実像)の領域(実像の領域R2)と特定し、特定される領域以外の他の部分を、一方の像(虚像)の領域(虚像の領域R1)と特定する。そして、復元部が、特定された2つの領域を撮影させる三次元形状を、対象物の三次元形状として特定する。特定された三次元形状は、例えば、ユーザに表示される。
 これにより、単なる、一方の像の光量の変化を用いて、簡単かつ高速に、2つの像の切り分けができる。
 しかも、実像の領域と、虚像の領域とのうちの一方の領域のみが撮影画像に含まれる位置、方向等が撮影装置等に設定された複雑な構成が必要でない。つまり、両方の領域が含まれる撮影画像を撮影する位置、方向等を有する撮影部による単純な構成により、装置が構成される。これにより、装置の構成を単純にできる。
 なお、光量変化部は、例えば、前記一方の像のうちの、特定の色の光量のみを変化させるものであってもよい。また、光量変化部は、例えば、予め定められた範囲の各色の光量を一様に何れも変化させるものであってもよい。なお、光量変化部は、これらの態様ではない他の態様であってもよい。
 また、前記像分離部は、前記光量変化部により前記光量を変化させて、変化がされた第1の光量での、第1の撮影画像を前記撮影部に撮影させると共に、変化させないで、変化がされない第2の光量での、第2の撮影画像を撮影させて、撮影された当該2つの撮影画像を取得し、取得された当該2つの撮影画像を用いて、実像と虚像とを各々特定するものとしてもよい。
 なお、三次元形状計測装置は、第1の撮影画像の撮影のタイミングに同期して変化をさせ、つまり、第1の撮影のタイミングと同時に、変化をさせるようにすると共に、第2の撮影画像の撮影に同期して、変化がされないようにし、つまり、第2の撮影のタイミングと同時に、変化がされるようにする同期部を備えるものとしてもよい。
 復元部は、例えば、前記実像と前記虚像を利用して、当該実像と当該虚像を生じさせる三次元形状を算出して、算出された三次元形状を、前記対象物の三次元形状と特定するものである。すなわち、復元部は、三次元形状に含まれる各三次元位置を算出することによって、算出された各三次元位置よりなる三次元形状を算出する。例えば、復元部は、複数の画像から人間がステレオ視によって、三次元形状を認識する際の方法と同様の方法によって、三次元の形状を復元するものであってもよい。
 なお、次のような三次元形状計測装置を構成してもよい。
 すなわち、光を反射する鏡面部と、対象物と前記鏡面部とを映す画像を撮影する撮影部と、光量制御部(光量変化部)とを有し、撮影と同期して前記鏡面に反射する前記虚像の前記撮影部からの見え方を変更することを行う三次元形状計測装置を構成してもよい。
 本構成によって、複数回撮影を行った場合に撮影された映像における前記虚像部分の映像に変化を与え、撮影部から直接捉えることのできる対象物の実像と前記虚像とを合わせた映像と、前記実像と前記光量制御部により変化を与えた前記虚像とを合わせた映像が取得される。さらに、三次元形状復元部(復元部)を構成に加えることにより、前記2種類の映像から対象物の実像部分と虚像部分のみを抽出し、この抽出結果を用いて三次元形状復元を行うことが可能となる。
 そして、この三次元形状計測装置は、三次元形状復元を行う際に用いる前記実像と前記虚像を別々に利用する際には、撮像分離部(像分離部)を用いる。これ(撮像分離部)は、前記複数回の撮影において取得した前記実像と前記虚像を合わせた映像と、前記実像と前記変化を与えた前記虚像とを合わせた映像との差分を用いて、画像処理により前記実像と前記虚像とを別々に抽出するものである。
 さらに、この三次元形状計測装置では、鏡面部に映り込んだ虚像部分は、鏡面反射の性質により、左右が反転している。よって、前記撮像分離部で分離された虚像を実際に三次元形状復元に用いる際には、三次元形状計測装置は、虚像反転部を用いて、前記虚像の左右を反転させる。
 ここで、この三次元形状計測装置においては、前記実像と前記虚像を三次元形状復元に利用する際は、この2つの映像は、異なる視点からの撮影画像として利用可能である。すなわち、これは、例えば、三次元形状計測装置が、鏡面が平面であった場合に、前記実像については、前記撮影部の位置を視点として用いる一方で、前記虚像については、前記鏡面部に対して、前記撮影部の位置と面対称の位置を視点として用いることが考えられる。
 なお、前記光量制御部の1つの例としては、前記撮影と同期し、前記鏡面を透過する画像を表示させる表示部が考えられる。三次元形状計測装置は、この表示部を用いて、前記鏡面における反射と重ねて、所定の色もしくは所定の模様からなる画像を表示させることにより、前記虚像部分の撮影された画像に変化を持たせる。前記表示部によって表示させる画像に用いる前記所定の色もしくは所定の模様に関しては、具体的には、前記表示部に画像を表示していないときに撮影部で撮影した撮影画像に使用されていない色や、対象物の補色などを用いることが考えられる。
 なお、表示部が表示する画像の色は、撮影画像におけるその画像の部分以外の他の部分の色ではない色であることが好ましい。他の部分の色ではない色とは、具体的には、例えば、表示部が画像を表示していないときに撮影部に撮影される撮影画像に使用されない色であってもよいし、対象物の色の補色であってもよい。
 また、このような、表示部を有する三次元形状計測装置であれば、前記表示部を用いて復元された三次元形状を前記表示部に表示し、前記鏡面に映り込んでいる対象物の前記虚像と比較することも可能となる。
 さらに、撮影された映像の前記虚像部分に変化を持たせる方法としては、例えばシャッターなどの物理的な部で鏡面部の反射光を遮断する手法や、前記鏡面部に対して光を照射して反射光量を変化させる手法などが考えられる。
 また、次のような三次元形状計測装置を構成してもよい。
 すなわち、表示部、鏡面および撮影部を備えた三次元形状復元装置(三次元形状計測装置)であり、撮影部から直接捉えることのできる、対象物の実像と、鏡面に映り込んだ、対象物の虚像とを三次元形状復元装置が撮影部により撮影する。これによって、1台の撮影部により、2視点分の対象物の撮影を行うことが可能となる。そして、この手法を利用するために、三次元形状復元装置は、表示制御部により、撮影と同期して、表示部に画像を表示したり、その表示を消したりする。そして、三次元形状復元装置は、抽出部を用いて、その撮影結果から、画像処理により、実像と虚像のそれぞれの抽出を行う。ここで、従来の方法では、三次元形状復元を行うためには、死角を減らすためにカメラ台数を増やした方が良いが、カメラ台数を増やすとキャリブレーションが困難になるというジレンマが生じていた。これに対して、この三次元形状計測装置では、この課題を解決して、対象物の三次元形状復元を行うシステムを家庭内に導入する際に、極力カメラ台数を削減することができる。このような三次元形状計測装置を構成してもよい。
 (実施の形態1)
 図1は、本発明の実施の形態1における三次元形状計測装置1の概略を示す構成図である。
 三次元形状計測装置1は、図1に示されるよう、鏡面101と、撮影装置110ないし撮影装置112を有する撮影部103と、制御部1Aとを備える。
 なお、対象物113Rは、三次元形状計測装置1により三次元の形状が計測される対象物である。例えば、対象物113Rは、三次元の形状を三次元形状計測装置1に計測させるユーザである。また、虚像114は、鏡面101に対象物113Rが映り込んだ、対象物113Rの実像113とは別に現れた虚像である。つまり、虚像114は、対象物113Rからの光を鏡面101が反射した光によって形成される、対象物113Rの像である。
 制御部1A(図1)は、撮影部103などの、三次元形状計測装置1の各部に接続されて、三次元形状計測装置1の各部の動作を制御する制御装置である。
 なお、制御部1Aは、例えば、CPU1Aa(プロセッサ)、ROM1Ab、RAM1Acを備えるコンピュータである。そして、制御部1Aは、例えば、ROM1Abに記憶されるコンピュータプログラムをCPU1Aaにより実行することによって、この書類で説明される各機能を実現する。制御部1Aは、例えば、CPU1Aaにより各機能を実現する。換言すれば、例えば、制御部1Aにおいて、CPU1Aaが各機能を実現する。また、CPU1Aaは、一部の処理だけを行い、制御部1Aは、残りの処理を実行する専用のプロセッサを更に備えてもよい。なお、制御部1Aは、上記の態様以外の他の態様を採ってもよいのは当然である。
 図2は、本発明を構成するそれぞれの部分と、本発明を用いて三次元形状復元を行う際の一連の処理の流れを示したブロック図である。
 三次元形状計測装置1は、鏡面101および撮影部103に加えて、さらに、撮像分離部104と、三次元復元部107と、鏡面反射制御部102とを備える。
 制御部1A(図1)は、ソフトウェアを実行すること、あるいはハードウェアによって、当該制御部1Aに実現する機能の機能ブロックとして、これら、撮像分離部104と、三次元復元部107と、鏡面反射制御部102とをそれぞれ実現する。
 図3は、鏡面101、表示部120(図2参照)、撮影装置110ないし撮影装置112(撮影部103)、対象物113Rの実像113(図1参照)、および、実像113に対応する虚像114(図1参照)の位置関係の例を表した図である。
 鏡面101(図1~図3)は、対象物113Rの光を反射して、反射した光によって、鏡面101に対象物113Rが映り込んだ虚像114を形成する。ここで、鏡面101は、光を反射する機能と同時に透過する機能も持ち合わせた鏡面である。鏡面101は、対象物113Rの位置(図3参照)に対して鏡面101の裏面の側(表示部120がある側)から鏡面101への光の少なくとも一部を、表面側、つまり、対象物113Rがあり、撮影装置112ないし撮影装置110がある面の側へと透過する。
 なお、実空間RSは、対象物113R等からの直接の光で示される空間、すなわち、実際の空間である。また、虚空間ISは、鏡面101により反射された光で示される空間である。実像113は、実空間RSに現れる像である。虚像114は、虚空間ISに現れる像である。
 撮影部103(図1~図3)は、撮影装置110ないし撮影装置112によって構成されるものである。
 撮影装置110ないし撮影装置112は、対象物113Rの実像113と、鏡面101に映り込んだ虚像114とのうちの片方もしくは両方が撮影されている映像を取得する。撮影装置110等は、それぞれ、1台の撮影装置により、対象物113Rの実像113と虚像114とを同時に撮影する。これにより、各撮影装置は、それぞれ、本来その撮影装置の撮影位置からは死角になる、対象物113Rの鏡面101側から見た映像も、鏡面101に反射した虚像114として取得する。
 なお、説明の便宜上、撮影装置110ないし撮影装置112は、どの撮影装置も、対象物113Rの実像113および虚像114の両方が含まれる映像を撮影し、一方のみを撮影する撮影装置は含まれない場合について説明する。一方のみを撮影する撮影装置が含まれる場合については、変形例として、後で詳しく述べる。
 そして、撮影部103は、撮影装置110ないし撮影装置112に同時に対象物113Rの撮影を行わせ、3つの異なる映像を同時に取得する。なお、撮影部103は、十分に短い適切な、時間の範囲内のうちに、撮影装置110ないし撮影装置112に各々撮影を行わせるものでもよい。例えば、三次元形状計測装置1は、撮影装置110ないし撮影装置112に同時に撮影をさせる撮影タイミング制御部を備え、撮影部103が、かかる撮影タイミング制御部を含むものとしてもよい。また、撮影部103以外の、例えば後で詳しく述べる実像・虚像分離部105が、かかる撮影タイミング制御部を含むものとしてもよい。
 図4は、鏡面反射制御部102(図2)の詳細な構成を示すブロック図である。
 鏡面反射制御部102は、表示部120(図3参照)と、同期制御部121(図4)とによって構成される。
 表示部120(図3、図4)は、鏡面101の後方、つまり、鏡面101の裏面の側に設けられており、所定の画像を表示する機能を備える。表示部120は、その前方にある鏡面101は先述のように、裏面の側にある表示部120からの光を透過するので、画像を表示することにより、表示する画像の光を、鏡面101の表面側に表させる。これにより、表示部120は、鏡面101に映り込んだ画像の色を変化させる。
 なお、ここで、表示部120により表示される画像は、特定の色や模様など、鏡面101に映り込んでいる対象物113Rの虚像114の映り方に影響を与えるものであれば、所定の色あるいは所定の模様など、どのような画像でも良い。例えば、表示される画像は、表示部120が画像を表示していない状態における撮影画像に現れない色、あるいは、対象物113Rに含まれる色の補色などが用いられるものとしてもよい。こうすることで、実像113と虚像114の切り分けがし易くなり、理想的である。
 図5~図7は、表示部120が画像を表示していないときに撮影された映像に対する三次元形状計測装置1の処理の内容を説明する説明図である。
 図8~図10は、表示部120が画像を表示しているときに撮影された映像に対する三次元形状計測装置1の処理の内容を説明する説明図である。
 図5は、画像が表示されないで撮影された映像を示す図である。また、図8は、画像が表示されつつ撮影された映像を示す図である。例えば、これらの、撮影された各映像は、それぞれ、撮影装置110により撮影された映像である。
 画像が表示されて撮影された映像(図8)は、ハッチングによって図示される、鏡面101を透過した、表示部120により表示された画像の光が現れた領域を含む。そして、撮影された映像における虚像115は、このような透過した光の表れた領域に含まれる。
 他方、画像が表示されないで撮影された映像(図5)は、画像が表示されていないので、このようなハッチングの領域がなく、つまり、透過した光が現れた領域はない。
 なお、表示部120は、虚像の光量を、画像を表示していない際の虚像114(図5~図7)の光量から、画像を表示している際の虚像115(図8~図10)の光量に変化させる。
 なお、表示部120は、例えば、白色の画像を表示するなどして、虚像115における各色の光の光量を同時に変化させ、虚像114の濃度を変化させるものであってもよい。また、表示部120は、例えば青色などの特定の色の画像を表示して、虚像114における特定の色の光量のみを変化させるものであってもよい。
 同期制御部121(図4)は、撮影部103による撮影と同期して、表示部120の表示を切り換えさせる機能を備える。同期制御部121は、図5の映像に示されるように、表示部120が何も表示していない状態と、図8の映像に示されるように、表示部120が画像を表示している状態とを、撮影部における撮影と同期して切り換え、それぞれの状態における撮影を各撮影装置に行わせる。
 つまり、同期制御部121は、例えば、撮影がされるタイミングを検知する。そして、同期制御部121は、予め定められた表示指示信号が入力されずに検知がされた場合には、検知がされるタイミングで、表示部120に表示をさせないようにして、表示されない状態(図5の状態)で各撮影装置110等に撮影をさせる。一方で、同期制御部121は、表示指示信号が入力されて検知がされると、検知がされるタイミングで、画像を表示させて、表示がされた状態(図6の状態)で各撮影をさせる。
 なお、同期制御部121も、制御部1A(図1)によって実現される機能ブロックであるものとしてもよい。
 撮像分離部104(図2)は、実像・虚像分離部105と、虚像反転部106によって構成される。
 実像・虚像分離部105は、撮影装置110ないし撮影装置112により撮影された、実像113および虚像114の両者が含まれる映像から、それぞれ、実像113および虚像114を各々分離する。すなわち、実像・虚像分離部105は、それぞれの映像に含まれる実像113および虚像114を各々特定する。つまり、実像・虚像分離部105は、3つの撮影装置のうちのそれぞれの撮影装置により撮影された映像を取得して、取得された映像に含まれる実像113および虚像114を各々特定する。
 図11は、以上の画像処理による実像部分と虚像部分の抽出の処理フローを示す図である。抽出の処理フローを図11に示す。
 図11に示される処理のうち、実像・虚像分離部105は、ステップS201、ステップS202、ステップS203、ステップS204、ステップS205、ステップS206、ステップS207、ステップS208の処理により、上記した、実像113および虚像114を分離する処理を行う。
 なお、実像・虚像分離部105は、上記ステップS201等のうちのそれぞれのステップにおいて、3つの撮影装置のうちのそれぞれの撮影装置により撮影された映像に対して、同様の処理を行う。以下の説明では、説明の便宜上、実像・虚像分離部105が、各ステップで、撮影装置110により撮影された映像に対して行う処理のみを詳しく説明する。
 ステップS201で、実像・虚像分離部105は、例えば同期制御部121に対して上記表示指示信号を取得させることなく、撮影部103に撮影を実行させるなどして、表示部120(図3、図4)が画像を表示せずに撮影された映像(図5)を取得する。
 図6は、対象物113Rがなく、かつ、画像が表示されない状態を、撮影装置110で撮影したときの映像を示した図である。
 ここで、実像・虚像分離部105は、例えば、この図6により示され映像を保持する。なお、実像・虚像分離部105は、事前に撮影装置110により撮影された、このような図6の映像を保持するものであってもよい。
 次に、図7は、図5の映像のうち、対象物113Rの実像113と虚像114のみを表した図である。
 ステップS203で、実像・虚像分離部105は、ステップS201で取得された、図5の、対象物113Rがある状態を撮影装置110で撮影したときの映像と、保持される図6の映像との差分をとる。ここで、差分をとるとは、差分の映像を算出することである。
 これにより、ステップS205で、実像・虚像分離部105は、図7により示される、ステップS201で取得された映像から、実像113および虚像114のみからなり、その他の部分が除かれた抽出映像を抽出する。つまり、実像・虚像分離部105は、差分をとることによって、かかる抽出映像を取得(算出)する。
 図8は、先述の通り、画像が表示されて、かつ、対象物113Rがあるときの撮影画像を示す。
 ステップS202において、実像・虚像分離部105は、例えば同期制御部121に対して上記表示指示信号を取得させつつ、撮影部103に撮影を実行させるなどして、表示部120(図3、図4)が画像を表示して撮影された映像(図8)を取得する。
 なお、実像・虚像分離部105は、このステップS202における撮影と、上記ステップS201における撮影を、例えば、対象物113Rに動きがない十分に短い時間のうちに行わせる。図5の映像および図6の映像は、こうして十分に短い時間の範囲に各映像が撮影されて、対象物113Rの位置および方向に変化がない2つの映像である。
 図9は、画像が表示されて、かつ、対象物113Rがないときの撮影画像を示す。
 ここで、実像・虚像分離部105は、例えば、図9に示される映像を保持する。なお、実像・虚像分離部105は、事前に撮影装置110により撮影された図9の映像を保持するとしてもよい。
 図10は、対象物113Rの実像113と虚像115のみの抽出結果を示している。
 ステップS204で、実像・虚像分離部105は、ステップS202で取得された図8の映像と、保持する図9の映像との差分をとる。
 これにより、ステップS206で、実像・虚像分離部105は、図10により示される、ステップS202で取得された映像から、実像113および虚像115のみからなり、その他の部分を除いた抽出映像を抽出し、つまり、差分をとることによって、かかる抽出映像を取得(算出)する。
 こうして、実像・虚像分離部105は、ステップS201、S203、ステップS205の処理により、表示部120が画像を表示していない状態における撮影画像(図5)と、対象物がないときの撮影画像(図6)との差分をとることにより、これら2つの撮影画像から、実像113と虚像114を併せたもの(図7の抽出映像)を、画像処理により抽出(算出)する。
 また、実像・虚像分離部105は、さらに、ステップS202、ステップS204、ステップS206の処理により、表示部120で画像を表示している状態における、対象物113Rがあるときの撮影画像(図8)と、対象物113Rがないときの撮影画像(図9)との差分をとることにより、これら2つの撮影画像から、対象物113Rの実像113と虚像115を併せたもの(図10の抽出映像)を抽出する。
 そして、実像・虚像分離部105は、さらに、この図7と図10で表されるような2つの抽出結果(抽出映像)を比較する。
 表示部120で画像を表示している状態(図8~図10)における、鏡面101に映り込む虚像115は、表示部120で画像を表示していない状態(図5~図7)における、鏡面101に映り込む虚像114に対して、差を有する。この差が、実像・虚像分離部105によって利用される。
 ステップS207で、実像・虚像分離部105は、図7の抽出映像と図10の抽出映像との間で、差が少ない部分を、実像113として抽出する。すなわち、ステップS207で、実像・虚像分離部105は、例えば、画像の表示により生じる変化のうち最小の変化による差の値などの予め定められた閾値よりも小さい差を有する部分を、実像113と特定して、2つの抽出映像から実像113を抽出する。
 例えば、ステップS207で、実像・虚像分離部105は、図7の抽出映像と図10の抽出映像とのうちで予め定められた一方における、上記差の少ない部分(例えば図7における実像113の部分)を特定し、特定された当該部分を、対象物113Rの実像113と特定する。
 また、ステップS208で、実像・虚像分離部105は、図7の抽出映像のうちで、先にステップS207で抽出された実像113以外の部分を虚像114として抽出する。
 なお、実像・虚像分離部105は、図5と図6との間の差分画像(図7)と、図8と図9との間の差分画像(図10)とを比較して、対象物113Rの実像113を抽出し、図7のうち実像113以外の部分を虚像114として抽出しても良い。
 ここで、ステップS207で抽出される実像113と、ステップS208で抽出される虚像114とを詳しく説明する。
 図3に示されるように、虚像114は、その虚像114の撮影を行った撮影装置(例えば撮影装置110)の位置から考えて、虚像114が映り込んでいる鏡面101に対して当該撮影装置の位置と面対称な位置に、実際に撮影を行っている撮影装置とは別の撮影装置を仮想的に設置したときの、その仮想的な撮影装置(例えば、図3に示される仮想的な撮影装置210)から撮影した対象物113Rの映像として、三次元形状計測装置1が利用することができるものである。
 仮想的な撮影装置210(図3)、仮想的な撮影装置211(図3)、仮想的な撮影装置212(図3)は、それぞれ、実在の撮影装置110、撮影装置111、撮影装置112に対応する、このような仮想的な撮影装置を図示したものである。これら、仮想的な撮影装置210等は、それぞれ、対応する撮影装置から抽出された虚像114に対する三次元形状計測装置1の処理を説明するために図示されている。これら仮想的な撮影装置210等は、単なる仮想のもので、三次元形状計測装置1の一部分ではなく、実在のものではない。
 このため、各撮影装置は、それぞれ、その1台の撮影装置で、1度の撮影を行うだけで、実際のその撮影装置の位置から直接捉えられる実像と、その撮影装置に対応する仮想的な撮像装置によって虚像を撮影したときの映像とを、併せて、取得する。つまり、各撮影装置は、それぞれ、それら2台の撮影装置の位置から撮影された2つの映像を得ることができる。
 ただし、ここで、虚像114は、仮想の撮像装置の位置から実際に撮影した場合の撮影画像と比べて、鏡面の性質により、左右が反転している。
 ステップS208で抽出される虚像114は、このような左右の反転がされた映像である。
 虚像反転部106(図2)は、前述のようにして実像・虚像分離部105が抽出した虚像部分の映像(虚像114)の左右を反転させる。虚像反転部106により反転がされた後の虚像124は、その対象物113Rを仮想の撮像装置の位置から実際に撮影した場合の撮影画像と同一の画像である。
 ステップS209では、虚像反転部106が、ステップS208で抽出された各虚像114に対して、このような反転の処理をそれぞれ行う。
 三次元復元部107(図2)は、実像・虚像分離部105により抽出された3つの実像113と、抽出された後に虚像反転部106により反転がされた3つの虚像114とから、対象物113Rの三次元形状を復元する。すなわち、三次元復元部107は、対象物113Rの各部位の三次元位置、および、対象物113Rの、その三次元位置における色を特定する処理を行う。
 より具体的には、三次元復元部107は、例えば、上記した、6つの対象物113Rの画像と、撮影装置112等の位置(図3参照)、および、前記仮想的な撮影装置210等の位置とを用いて、対象物113Rの三次元形状の復元を行う。
 そして、三次元復元部107は、この三次元形状復元の結果を、表示部120に表示することにより、ユーザが、対象物113Rの計測の結果、つまりユーザ自身の三次元形状の計測の結果を見ることができるようにする。これにより、ユーザは、鏡面101に映り込んだ対象物113R(ユーザ)の虚像114(図3、図5~図7等参照)と、表示される計測の結果とを比較することなどが可能となる。つまり、ユーザは、その視覚により見る虚像114と、計測の結果とを比較できる。
 なお、三次元復元部107は、例えば、公知の技術により、上記した、6つの画像および、6つの撮影位置に基づいた三次元形状の復元の処理を行うものとしてもよい。
 また、三次元復元部107は、次のようにして、三次元形状の復元を行うものとしてもよい。なお、以下の方法は単なる一例であり、以下の方法以外の他の方法が採られてもよいのは当然である。
 すなわち、三次元復元部107は、まず、上記6つの画像のうちにおける、同一の部位が撮影された部分をそれぞれ特定する。三次元復元部107は、例えば、この特定を、マッチングの技術によって行い、6つの画像のうちで互いに類似した内容を有する部分を、対象物113Rの同一の部位が撮影された部分であると特定する。
 そして、三次元復元部107は、6つの撮影位置から、特定された部分を見る方向を各々特定する。そして、三次元復元部107は、6つの撮影位置から、特定された方向に延びる直線が互いに交わる位置を、それら各部分に撮影された対象物113Rの部位の三次元位置と特定する。
 なお、三次元復元部107は、例えば、それら直線が1点で交わらない場合には、それら直線が集積する位置を特定し、つまり、各直線への距離の和が最小となる位置や、距離の2乗の和が最小となる位置を、対象物113Rの部位の三次元位置と特定するものとしてもよい。
 ここで、三次元復元部107は、実像113に含まれる部分については、当該実像113を撮影した実在の撮影装置112等の撮影位置からの直線を特定し、虚像114に含まれる部分については、当該虚像114を撮影した実在の撮影装置112等に対応する仮想的な撮影装置210等の撮影位置からの直線を特定する。
 なお、三次元復元部107は、6つの撮影位置を保持し、保持される各撮影位置を用いて、直線の特定を行うものとしてもよい。
 なお、三次元復元部107は、少なくとも一部の部位の三次元位置は、6つの画像のうちで一部の画像のみを用いて特定するものとしてもよい。
 三次元復元部107は、上記のようにして、対象物113Rの各部位の三次元位置を特定する。
 そして、三次元復元部107は、特定された三次元位置の部位の色を、例えば、当該三次元位置が算出された6つの画像の前記各部分のうちの1つの色と特定するなどして、当該部位の色を特定する。
 三次元復元部107は、こうして、各部位の三次元位置と、その三次元位置の部位の色とを特定する。
 ここで、変形例に係る三次元形状計測装置1を説明する。変形例に係る三次元形状計測装置1においては、撮影装置110ないし撮影装置112のうちの一部の撮影装置が、対象物113Rの実像113および虚像114の両方が含まれる映像ではなく、例えば実像113のみなど、一方のみが含まれる映像を撮影する。このような、変形例に係る三次元形状計測装置1では、例えば、三次元復元部107は、対象物113Rの5つ以下の映像から、三次元形状を復元することがあるものとしてもよい。
 このようにして、対象物113Rの三次元形状を計測する三次元形状計測装置(三次元形状計測装置1)であって、前記対象物からの光を反射する鏡面部(鏡面101)と、前記対象物の実像(実像113)と、前記鏡面との両者を映した撮影画像を撮影する撮影部(撮影部103)と、前記実像と、前記鏡面部により形成された、前記対象物の虚像(虚像114)とのうちで、一方の像(虚像114)の光量を変化させる光量変化部(表示部120)と、前記変化がされた際に撮影された前記撮影画像(図8の映像)と、前記変化がされない際に撮影された前記撮影画像(図5の映像)とにおける、光量が異なる部分を前記一方の像(虚像114)と特定し、同じである部分を他方の像(実像113)と特定する像分離部(実像・虚像分離部105)と、前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元部(三次元復元部107)とを備える、三次元形状計測装置(三次元形状計測装置1)が構成される。
 なお、ここで、光量変化部(表示部120)は、一方の像(虚像114)の光量を、図5における虚像114の光量から、図8における虚像115の光量へと変化させる。
 ここで、前記鏡面部は、前記対象物からの光を反射する表面とは反対側の裏面の側から当該鏡面部への光を前記表面の側へと透過し、前記光量変化部は、前記鏡面部が前記表面へと透過する透過光量を変化させることで、前記虚像の光量を変化させる。
 また、前記光量変化部は、前記虚像の光量を変化させ、前記撮影部に撮影される前記対象物がない場合において当該撮影部により撮影される基準映像(図6の映像)を保持する基準映像保持部(実像・虚像分離部105)を備え、前記像分離部(実像・虚像分離部105)は、前記光量変化部により前記光量を変化させて第1の撮影画像(図8の映像)を前記撮影部に撮影させると共に、変化させないで第2の撮影画像(図5の映像)を撮影させ、撮影された当該2つの撮影画像のうちで、保持される前記基準映像に含まれず、かつ、光量が同じである部分を前記実像(実像113)と特定し、当該2つの撮影画像のうちで、変化がされていない前記第2の撮影画像(図5の映像)に含まれ、かつ、保持される前記基準映像(図6の映像)には含まれず、かつ、光量が異なる部分を、前記虚像(虚像114)と特定する。
 また、前記鏡面部は、前記鏡面部が前記対象物からの光を反射する表面とは反対側の裏面から当該鏡面部への光を前記表面へと透過し、前記光量変化部は、前記鏡面部の前記裏面の側に設けられ、画像を表示することにより、表示した画像の光を前記表面へと透過させて、透過した光によって前記虚像の光量を変化させる表示部(表示部120)を備える(光量変化部は表示部である)。
 ここで、前記表示部は、所定の色もしくは所定の模様からなる画像を表示する。そして、前記所定の色は、前記表示部が画像を表示していないときに前記撮影部に撮影される撮影画像に使用されない色であってもよい。また、前記所定の色は、前記対象物の色の補色であってもよい。
 そして、この三次元形状計測装置は、前記復元部により復元された三次元形状を前記表示部に表示させる三次元形状表示制御部(三次元復元部107)を備える。
 また、この三次元形状計測装置は、前記像分離部により特定された前記虚像を左右反転させる反転部(虚像反転部106)を備える。
 また、前記復元部は、前記分離部により特定された前記実像と前記虚像とを、互いに異なる2つの視点位置からの、前記対象物の2つの画像として、三次元形状の復元に利用する。
 そして、前記実像に係る前記視点位置は前記撮影部の撮影位置であり、前記虚像に係る前記視点位置は、前記撮影部の位置に対して、前記鏡面部に関して面対称の撮影位置である。
 (実施の形態2)
 図12~図13は、本発明の実施の形態2の三次元形状計測装置2の概略図である。
 図14は、本発明の実施の形態2に係る三次元形状計測装置2を構成するそれぞれの部分、および本発明の三次元形状計測装置2を用いて三次元形状復元を行う際の一連の処理の流れを示すブロック図である。
 図15は、この実施の形態2における鏡面101および鏡面反射制御部132の構成を示すブロック図である。
 図16は、鏡面101、鏡面遮断部130、表示部131、撮影装置110ないし112、およびそれぞれの撮影装置に対応した仮想的な撮影装置210ないし212、そして、対象物113Rの実像113およびそれに対応する虚像114の位置関係の例を表した図である。
 三次元形状計測装置2は、図12~図13において示されるように、鏡面遮断部130と、表示部131とを備える。三次元形状計測装置2は、実施の形態1に係る上述の三次元形状計測装置1とは、表示部131、鏡面遮断部130、および鏡面反射制御部132(図14、図15)の構成要素に違いがある。
 表示部131(図12~図13、図14、図15)は、実施の形態1の表示部120(図3、図4参照)とは異なり、実像113と虚像114の切り分けのためのものではない。表示部131は、図12~図13に示されるよう、各撮影装置やユーザから直接見える、鏡面101の左右や上下などの位置に設けられる。表示部131は、図16に示されるように、虚像114が見える鏡面101の反射面上に画像を表示せず、鏡面101の反射面の外側に画像を表示させる。
 なお、実施の形態2に係る鏡面101は、鏡面101の裏面の側から鏡面101へと当たる光を、表面の側へ透過しないものであることが好ましい。
 図12は、鏡面遮断部130が全く鏡面101を覆っていない状態を表した図である。
 図13は、鏡面遮断部130が鏡面101を覆っている状態を表した図を示す。
 鏡面遮断部130(図12~図13、図15、図16)は、鏡面101を覆わない図12の状態と、鏡面101を覆い、シャッターのように虚像114の反射を遮断する図13の状態とに、状態が変化するものである。
 例えば、鏡面遮断部130は、一例としては、車庫の入り口や、店舗の入り口に設けられて、それら入り口より外側に対して、入り口の内部を遮断するシャッターと同様の構造を有してもよい。具体的には、例えば、鏡面遮断部130は、上部に巻き取りを行う巻き取り機構を有すると共に、巻き取り機構により巻き取られる遮断部とを備える。鏡面遮断部130は、この遮断部が巻き取られることにより、図12の状態になってもよい。そして、遮断部は、巻き取り機構から巻き出されて、鏡面101の前面側を下部へと巻き取り機構からぶら下がることにより、鏡面101を覆い、対象物113Rから鏡面101への光を、鏡面101よりも対象物113Rに近い位置で遮る。これにより、遮断部が、虚像114の光の反射を遮断してもよい(図12、図13参照)。
 また、例えば、鏡面遮断部130は、上記の巻き取り機構等を有するものでなくともよく、例えば、鏡面101の前面側に設けられて、対象物113Rから鏡面101への光が通る位置にあるパネルであってもよい。ここで、このパネルは、例えば、透過状態(図12の状態)では、対象物113Rからの光を透過すると共に、透過した光が鏡面101に反射した反射光も同じく透過することにより、鏡面101の表面側にある各撮影装置に虚像114を撮影させる。他方、このパネルは、例えば、非透過状態(図13の状態)では、光を透過しない黒色等の不透過色に変化することにより、対象物113Rからの光を遮って、鏡面101を覆い、鏡面101に虚像114が映り込まないようにすることにする。そして、このパネルは、透過状態と非透過状態との間で、状態が変化する。このパネルは、例えば、液晶パネルであってもよい。
 三次元形状計測装置2は、このような鏡面遮断部130を用いて、実施の形態1と同様に、撮影される映像中のどの部分が虚像114に相当し、どの部分が各撮影装置から直接捉えることのできる実像113かを明確にする(図5~図7、図8~図10、図11等を参照)。
 鏡面反射制御部132(図14、図15)は、鏡面遮断部130と同期制御部121とによって構成される。
 同期制御部121は、このような、上述の鏡面遮断部130(図12~図13等参照)が、全く鏡面101を覆っていない状態(図12の状態)と、覆っている状態(図13の状態)とを、撮影部103(図14)の撮影と同期して切り換え、撮影部103は前記2つの状態それぞれの撮影を行う。
 すなわち、実像・虚像分離部105は、予め定められた表示指示信号を同期制御部121に入力するか否かを切り換えるなどにより、図11のステップS201およびステップS202において、それぞれ、撮影に際しての鏡面遮断部130の状態を、図12の状態および図13の状態に各々、設定する。
 ここに、鏡面遮断部130が図13の状態で撮影された映像は、例えば、虚像115が鏡面遮断部130に完全に遮断されて、虚像115が完全に消えた映像であってもよい。
 そして、実像・虚像分離部105は、実施の形態1で示した手法と同様の手法で、鏡面遮断部130が全く鏡面101を覆っていないときに撮影したときの映像(図12の映像)から、実像113と虚像114を併せたもの(図7の抽出映像)を抽出する(図11のステップS201、ステップS203、ステップS205)。
 他方、実像・虚像分離部105は、鏡面遮断部130が鏡面101を覆っているときに撮影したときの、虚像115が完全に消えた映像でも同様に、処理を行う。つまり、実像・虚像分離部105は、対象物113Rがある状態とない状態とにおいて撮影したときの2つの映像の間の差分をとることにより、対象物113Rの実像部分(実像113)を抽出する(ステップS202、ステップS204、ステップS206)。
 なお、実像・虚像分離部105は、ステップS206で実像113が抽出されるので、ステップS207の処理は行わないものとしてもよい。ただし、実像・虚像分離部105は、映像から虚像115(図8~図10参照)が完全には消えず、ステップS206で、実像113と共に虚像115が含まれた映像(図10の映像)が抽出される場合には、ステップS207で、例えば、実施の形態1で説明した処理を行うなどをして、実像113を抽出してもよい。
 そして、実像・虚像分離部105は、さらに、ステップS208で、この2つの抽出結果、つまり、ステップS205において抽出された、実像113および虚像114の両者よりなる抽出映像(図7の抽出映像)と、ステップS206で抽出された実像113との間の差分をとることによって、対象物113Rの虚像部分(虚像114、図7)のみの映像を抽出する。
 なお、本実施の形態において、鏡面遮断部130を例えばシャッターのようなものとする場合の例を示した。これは、物理的に鏡面101の反射を遮断するものであれば、いかなるものでも良い。また、鏡面遮断部130は、鏡面101の反射を完全に遮断するものでなく、鏡面101の反射光の透過量を低減させるものであっても良い。この場合は、例えば、実像・虚像分離部105は、上述のようにして、ステップS207の処理を行い、実施の形態1と同様の画像処理を行って、実像部分と虚像部分の抽出を行うものとしてもよい。
 このようにして、光量変化部(鏡面遮断部130)は、前記鏡面部に入射する入射光および、前記鏡面部が反射した反射光の少なくとも一方(入射光)を遮断することにより、前記虚像の光量を変化させる三次元形状計測装置(三次元形状計測装置2)が構成される。
 ここで、前記光量変化部は、前記鏡面部が光を反射する反射光量を変化させて、前記虚像の光量を変化させるものである。
 また、この三次元形状計測装置は、前記復元部により復元された三次元形状を表示する三次元形状表示部(表示部131)を備える。
 (実施の形態3)
 図17~図18は、本発明の実施の形態3の三次元形状計測装置3の概略図である。
 図19は、この実施の形態3における鏡面反射制御部142の構成を示したブロック図である。なお、三次元形状計測装置3を構成する、鏡面反射制御部142の構成以外のそれぞれの部分と、本発明を用いて三次元形状復元を行う際の一連の処理の流れを示したブロック図は、実施の形態1の場合(図2等参照)と同様であり、詳しい説明を省略する。
 三次元形状計測装置3は、図17~図19において示されるように、光照射部140を備える。
 図20は、鏡面101、光照射部140、表示部131、撮影装置110ないし撮影装置112およびそれぞれの撮影装置に対応した仮想的な撮影装置210ないし仮想的な撮影装置212、そして対象物113Rの実像113およびそれに対応する虚像114の位置関係の例を表した図である。
 この実施の形態の三次元形状計測装置3は、実施の形態1の三次元形状計測装置1とは、光照射部140(図17~図20)、表示部131(図17~図20)、および鏡面反射制御部142(図19)の構成要素に違いがある。
 表示部131は、実施の形態1における表示部120(図3等参照)とは異なり、実像113と虚像114の切り分けのためのものではない。表示部131は、例えば、実施の形態2に示された表示部131(図12~図13、図16等参照)と同様のものである。
 鏡面反射制御部142(図19)は、光照射部140(図17~図18、図20参照)と、同期制御部121とによって構成される。
 図17は、鏡面101に対して光照射部140によって光を照射していない状態を表す。また、図18は、鏡面101に対して光照射部140によって光を照射している状態を表す。
 図18に示される虚像144は、光照射部140によって鏡面101に対して光を照射した場合に鏡面101に映り込む虚像を表している。
 光照射部140は、鏡面101に対して光を照射するための部分である。光照射部140は、虚像114の反射に対して変化を与える。つまり、光照射部140は、反射される虚像114の光に変化を与える。
 具体的には、三次元形状計測装置3においては、光照射部140から照射される光が鏡面101において反射する。これにより、反射されたこの光が、もともと鏡面101に映り込んでいた対象物113Rの虚像114を作り出す反射光と干渉する。この干渉のために、撮影部103によって捉えられる対象物113Rの虚像114に変化が生じる現象が起きる。三次元形状計測装置3は、この現象を用いて、実施の形態1と同様に、撮影される映像中のどの部分が虚像114に相当し、どの部分が撮影部103から直接捉えることのできる実像113に相当するかを明確にする。
 つまり、光照射部140は、光を照射して、照射した光を鏡面101に反射させることによって、鏡面101が作る虚像114の光と、照射した光が鏡面101に反射した光とを干渉させることにより、撮影される虚像114に変化を生じさせる。
 例えば、光照射部140は、光を鏡面101に照射することにより、鏡面101が作り出す虚像114の光の一部に、照射した光を鏡面101が反射した反射光が含まれるようにする。光照射部140は、これにより、虚像114のコントラストを低下させるものである。そして、例えば、光照射部140は、太陽の近傍を人間が見る際に、太陽の強い光により、その近傍のコントラストが低下して、空の各領域のうちで、太陽の近傍よりも外側の領域に対して、近傍の領域の映像が変化するのと同じように、コントラストを低下させる。すなわち、光照射部140は、虚像114の光の一部に、反射光が含まれるようにすることにより、虚像144(図18)のコントラストを、照射しない場合における虚像114(図17)のコントラストより低くさせる。換言すれば、光照射部140は、虚像144のコントラストを、虚像144と共に撮影された実像113(図18)のコントラストより低くする。なお、光照射部140は、照射によって、いわゆる色がとぶ現象を生じさせて、虚像の光量を、照射しない場合の虚像114(図17)から、照射する場合の虚像144の光量に変化させるものであってもよい。
 ここで、光照射部140は、光を照射する状態と、照射しない状態との間で、状態が切り替わり、照射する状態になることにより、撮影される映像を変化させると共に(図18)、照射をしない状態になることで、撮影される映像を、通常の映像(図17)にさせる。
 同期制御部121は、鏡面101に対して光照射部140によって光を照射していない状態と、照射している状態を、撮影部103の撮影と同期して切り換える。撮影部103は、前記2つの状態のそれぞれでの撮影を行う。
 実像・虚像分離部105は、実施の形態1で示した手法と同様の手法で、鏡面101に対して光照射部140によって光を照射していないときに撮影したときの映像(図17)から、実像113と虚像114を併せたもの(図7)を抽出する(ステップS201、ステップS203、ステップS205)。また、実像・虚像分離部105は、同じく同様の手法により、鏡面101に対して光照射部140によって光を照射しているときに撮影したときの映像でも、処理を行う。すなわち、実像・虚像分離部105は、対象物113Rがある状態(図18、図8参照)と、ない状態とにおいて撮影したときの2つの映像(図9参照)の差分をとることにより、対象物113Rの実像113と虚像115のみを併せた映像(図10参照)を抽出する(ステップS202、ステップS204、ステップS206)。さらに、実像・虚像分離部105は、これらの抽出映像に基づいて、実像113と虚像114の切り分けを行う(ステップS207、ステップS208)。
 なお、本実施の形態において、鏡面101に対する光照射部140は1つである場合の例を示しているが、これはいくつでも良い。
 また、本実施の形態においては、光照射部140により直接、鏡面101に照射が行われたが、光照射部140は、鏡面101により反射される光に影響をおよぼす光であれば、直接光ではない光を、照射(または反射)しても良い。
 このようにして、光量変化部(光照射部140)は、前記鏡面部に対して光を照射して、当該鏡面部の反射光が形成する前記虚像のコントラストを変化させる三次元形状計測装置3が構成される。
 (実施の形態4)
 図21~図22は、本発明の実施の形態4における三次元形状計測装置4の概略を示す構成図である。
 三次元形状計測装置4は、図21~図22において示されるように、3つの鏡面すなわち、鏡面150ないし鏡面152を備える。
 ここで、図21~図22に示される、虚像154ないし虚像156は、それぞれ、鏡面150ないし鏡面152により反射された対象物113Rの虚像である。
 図23は、本発明に係る三次元形状計測装置4を構成するそれぞれの部分と、三次元形状計測装置4が三次元形状復元を行う際の一連の処理の流れを示したブロック図である。
 図24は、3つの鏡面150ないし鏡面152および鏡面反射制御部162の構成要素を示したブロック図である。なお、図24では、鏡面反射制御部162の詳細な構成が図示される。
 鏡面反射制御部162は、3つの表示部170ないし表示部172、制御鏡面決定部160(図23参照)、および同期制御部121によって構成される。
 本実施の形態4に係る三次元形状計測装置4においては、鏡面の数、鏡面反射制御部162(図24)の構成要素、および制御鏡面決定部160(図24)を備えている点で、実施の形態1の構成とは異なる。
 三次元形状計測装置4は、これにより、1台の撮影装置において、対象物113Rの実像113と、複数の虚像(虚像154、虚像155、虚像156など)を1度に撮影する。三次元形状計測装置4は、これにより、本来その撮影装置からは死角になる、対象物113Rの鏡面150等側の映像も、この複数の鏡面150ないし鏡面152によって、その撮影装置により取得する。
 鏡面150ないし鏡面152(図21~図22、図23、図24)のそれぞれは、実施の形態1の鏡面101と同様のものである。鏡面150ないし鏡面152は、互いに異なる位置および方向を有し、対象物113Rを互いに異なる位置から見た、互いに異なる3つの虚像154、虚像155、虚像156を形成する。
 表示部170ないし表示部172は(図24)、それぞれ、鏡面150ないし鏡面152に対応する。表示部170等は、それぞれ、その表示部に対応する鏡面に対して、前記実施の形態1における鏡面101と表示部120の位置関係(図3等を参照)と同様の位置関係を有するまた、それぞれの表示部は、対応する鏡面が形成する虚像の光に対して、実施の形態1における表示部120が虚像114の光に与えた作用と同様の作用を与える。つまり、それぞれの表示部は、対応する鏡面の裏面側に設けられて、画像を表示することにより、その鏡面を透過した画像の光を、鏡面の表面側に表させて、対応する鏡面の作り出す虚像を変化させる。
 なお、それぞれの表示部が表示する画像については後で詳しく述べられる。
 制御鏡面決定部160(図24、図23)は、3つの表示部170ないし表示部172のうちで、どの鏡面の表示部に対して表示を三次元形状計測装置4が行うかを決定する部分である。制御鏡面決定部160は、決定した、表示をさせるそれぞれの表示部に対して、例えば、予め定められた制御信号を送信するなどして、画像を表示させ、それぞれの表示部に画像を表示させると共に、決定していない表示部には画像を表示させないようにする。
 図25~図26は、制御鏡面決定部160が、一部の表示部にのみ画像を表示させた状態を示す図である。
 図25~図26および先述の図21~図22は、制御鏡面決定部160の動作を示す。図21は、制御鏡面決定部160が、全ての表示部が画像を表示していないように制御をした状態を表した図である。また、図22は、制御鏡面決定部160が、全ての表示部が画像を表示しているように制御をした状態を表した図である。また、図25は、制御鏡面決定部160が、表示部171および表示部172のみ、つまり鏡面151および鏡面152に対応する2つの表示部のみが画像を表示するように制御している状態を表した図である。そして図26は、制御鏡面決定部160が、表示部170および表示部172のみ、つまり鏡面150および鏡面152に対応する2つの表示部のみが画像を表示しているよう制御をした状態を表した図である。
 制御鏡面決定部160は、これら、図21の制御と、図22の制御と、図25の制御と、図26の制御との4種類の制御のうちから1つを選択して、選択した制御を実行する。
 同期制御部121(図24)は、撮影部103による撮影と同期して、表示部の表示を切り換える機能を備える。同期制御部121は、上述した制御鏡面決定部160を用いて、前述した図21、図22、図25、図26、の4種類の状態を、各撮影装置の撮影と同期して切り換え、それぞれの状態における撮影を行わせる。すなわち、例えば、同期制御部121は、撮影がされるタイミングを検知して、検知の前に入力された予め定められた種類指示信号により示される種類の制御を、検知されたタイミングで制御鏡面決定部160に対して行う。同期制御部121は、これにより、その種類の制御の状態(図21、図22、図25、図26)での撮影を各撮影装置に行わせる。
 撮像分離部104(図23)は、実像・虚像分離部105と虚像反転部106とによって構成される。
 実像・虚像分離部105は、例えば、4つの種類の各種類指示信号を同期制御部121に入力して、それぞれの種類の状態の映像(図21、図22、図25、図26)を撮影させる。実像・虚像分離部105は、これにより、撮影されたそれぞれの映像を取得するなどして、図21、図22、図25、図26の各状態の映像を各々取得する。例えば、実像・虚像分離部105は、図11のステップS201で、図21の状態での映像を取得すると共に、ステップS202で、図22、図25、図26の状態での映像を各々取得する。
 なお、実像・虚像分離部105は、これら4つの映像の撮影を、対象物113Rに動きがないか、動きが、予め定められた小さい範囲内になるように行わせる。実像・虚像分離部105は、例えば、予め定められた十分に短い時間の範囲のうちにこれらの撮影を各々行わせる。
 他方、実像・虚像分離部105は、対象物113Rがない状態における、図21等の4種類の状態での映像を各々保持する。
 そして、実像・虚像分離部105は、実施の形態1と同様に、ステップS201で取得された、全ての表示部が画像を表示していないときの映像(図21の映像)と、保持される、対象物113Rがない際の図21の状態における映像とから、抽出映像を抽出する。つまり、実像・虚像分離部105は、これら2つの映像から、実像113と、全ての鏡面上に映し出される虚像154、虚像155、虚像156とを併せた抽出映像(図7の抽出映像を参照)を抽出する(ステップS203、ステップS205)。また、実像・虚像分離部105は、撮影された他の状態の映像(図22、図25、図26)でも、同様に、その映像と、その映像が撮影された状態における、保持された映像とから、抽出映像を抽出する。すなわち、実像・虚像分離部105は、それら2つの映像に基づいて、対象物113Rがある状態とない状態とにおけるそれら2つの映像の間の差分をとることにより、対象物113Rの実像113と、光量が変化された虚像157、虚像158、虚像159等(図22、図25、図26参照)とを併せたもの(抽出映像、図10参照)を抽出する(ステップS204、ステップS206)。なお、実像・虚像分離部105は、撮影された、図22の映像からは、含まれる3つの虚像157等の何れも光量が変化された抽出映像を抽出する。また、実像・虚像分離部105は、図25の映像からは、虚像158と虚像159との光量のみが変化され、通常の光量である虚像154が含まれる抽出映像を抽出する。また、実像・虚像分離部105は、図26の映像からは、虚像157と虚像159との光量のみが変化され、通常の光量である虚像155が含まれる抽出映像を抽出する。
 このようにして、実像・虚像分離部105は、図21に係る抽出映像と、図22、図25、図26に係る抽出映像との4種類の抽出映像を各々取得する(ステップS205、ステップS206)。
 そして、実像・虚像分離部105は、さらに、全ての表示部が何も表示していない状態の抽出結果(図21に係る抽出映像)と、全ての表示部に画像を表示している状態の映像からの抽出結果(図22に係る抽出映像)とを比較することによって、差分が少ない実像113のみを抽出する(ステップS207)。
 そして、実像・虚像分離部105は、次のようにして、実像113以外の、虚像154、虚像155、虚像156を抽出する。
 すなわち、実像・虚像分離部105は、表示部171ないし表示部172のみに画像を表示している状態の映像からの抽出結果(図25での抽出映像)のうちで、図22での抽出映像と差が大きい部分を、虚像154および実像113と特定する。そして、実像・虚像分離部105は、特定された虚像154および実像113から、予めステップS207で抽出してある実像113を抜き、鏡面150における虚像154を抽出する(ステップS208)。
 また、実像・虚像分離部105は、図26の抽出映像を用いて、鏡面151における虚像155も、上記の手法と同様の手法で、抽出する。すなわち、例えば、実像・虚像分離部105は、図26の抽出映像のうちで、図22の抽出映像と差が大きい部分を、実像113および虚像155として特定し、特定される実像113および虚像155のうちから、予めステップS207で抽出された実像113を抜いて、虚像155を抽出する。
 さらに、実像・虚像分離部105は、全ての表示部170ないし表示部172が何も表示していない状態の映像(図21)からの抽出結果(抽出映像)から、先にステップS207で特定された実像113と、先にステップS208で特定された、鏡面150および151における虚像154および虚像155とをそれぞれ抜くことによって、残りの1つの、鏡面152における虚像156を抽出する(ステップS208)。
 これにより、実像・虚像分離部105は、実像113と、虚像154と、虚像155と、虚像156との、特定すべき全ての、対象物113Rの映像を特定する。
 このようにして、本実施の形態4に係る三次元形状計測装置4においても、実施の形態1に係る三次元形状計測装置1における場合と同様に、撮影された映像中のどの部分が虚像154ないし虚像156に相当し、どの部分が、撮影装置から直接捉えることのできる実像113に相当するかが明確にされる。つまり、それら虚像154ないし虚像156と実像113とが各々三次元形状計測装置4により特定される。
 そして、さらに、本実施の形態に係る三次元形状計測装置4においては、3つの鏡面150ないし鏡面152が設置されており、設置されている鏡面150ないし鏡面152のそれぞれに対して虚像が生じる可能性があるため、上記のようにして、それぞれの虚像がどの鏡面に映り込んだものかの切り分けも行われる。
 虚像反転部106は、こうして特定された虚像154、虚像155、虚像156に対して、それぞれ、反転の処理を行う(ステップS209)。
 虚像154ないし虚像156のそれぞれは、その虚像に対応する仮想的な撮影装置からの映像として三次元形状計測装置4により利用される。つまり、それぞれの虚像は、実際にその虚像の撮影を行った撮影装置の位置から考えて、その虚像が映り込んでいる鏡面に対して面対称な位置に、仮想的な撮影装置を設置したときの、その仮想的な撮影装置から撮影した対象物113Rの映像として、以下で説明するようにして、三次元形状計測装置4により利用される。
 三次元形状計測装置4は、1台の撮影装置で1度の撮影を行うだけで、その撮影装置に対応する3つの仮想的な撮像装置により撮影された映像と併せると、複数台(4台)の撮影装置により撮影された映像を得る。
 すなわち、三次元復元部107は、実像・虚像分離部105から、1つの撮影装置につき、それぞれ、4つの、対象物113Rの映像を取得し、従って、3つの撮影装置110等から、3×4=12個の、対象物113Rの映像を取得する。
 そして、三次元復元部107は、取得されたこれら12個の、対象物113Rの映像を用いて、対象物113Rの三次元復元を行う。なお、三次元復元部107は、より具体的には、これら12個の映像と、それらの映像の撮影位置とを用いて、三次元復元を行う。ここで、それらの映像の撮影位置は、3個の実在の撮影装置の撮影位置と、それら3個の撮影装置に対応してそれぞれ3個ある仮想的な撮影装置の撮影位置(3×3=9個の仮想的な撮影位置)との、合計して3+9=12個の撮影位置である。
 ここで、表示部170ないし表示部172より表示する画像は、鏡面150ないし鏡面152に映り込んでいる対象物113Rの虚像(図21~図22、図25~図26参照)の映り方に影響を与えるものであれば、所定の色あるいは所定の模様など、どのような画像でも良い。全ての表示部が画像を表示していない状態(図21の状態)における撮影画像に現れない色、あるいは対象物113Rの補色などを用いると、実像113と虚像154等との切り分けがしやすく理想的である。また、3つの表示部は、何れも同じ画像を表示するのでなくてよい。すなわち、これらの表示部は、別々の画像の表示を行う2つの表示部が含まれても良い。
 なお、本実施の形態4では、鏡面150等および表示部170等の数を、3つとした場合の例を示したが、これらの数は、複数であればいくつでも同様の手法を適用できる。
 また、本実施の形態4では、表示部を複数個用いたが、それぞれの表示部の代わりに実施の形態2で利用した鏡面遮断部130(図12~図13等)や、実施の形態3で利用した光照射部140(図17~図18等)が用いられてもよい。また、それらの組み合わせを用いても同様の手法を適用できる。すなわち、実施の形態4における3つの表示部のうちの一部が、鏡面遮断部130または光照射部140の何れかに置き換えられた三次元形状計測装置を構成してもよい。また、3つの表示部のうち、一部を、鏡面遮断部130と置き換えると共に、他の一部を光照射部140に置き換える構成を採ってもよい。
 また、本手法では4つの状態における撮影を行ったが、他の表示部による組み合わせを用いて、実像と全ての虚像を抽出しても良いし、撮影状態を増やすことによりその精度を上げても良い。
 また、本手法では直接鏡面に対象物の実像が映り込んでいる場合の例を示したが、鏡面の虚像自体を別の鏡面に写し込み、1度の撮影で捉えられる虚像の数を増やしても良い。
 このようにして、鏡面部は、複数の鏡面(鏡面150、鏡面151、鏡面152)を備え、当該複数の鏡面は、それぞれ、前記対象物から当該鏡面への光を反射し、光量変化部は、前記複数の鏡面に各々対応する複数の変化部(表示部170、表示部171、表示部172)を備え、当該複数の変化部は、それぞれ、当該変化部に対応する鏡面により反射された光が形成する前記虚像の光量を変化させ、前記複数の鏡面のうちから、光量を変化させる鏡面を決定し、決定した鏡面に対応する前記変化部を用いて、決定した鏡面の虚像の光量を変化させる決定部(制御鏡面決定部160)を備える三次元形状計測装置(三次元形状計測装置4)が構成される。
 (実施の形態5)
 以下、実施の形態5に係る三次元形状計測装置5を説明する。
 図27~図28は、実施の形態5に係る三次元形状計測装置5を示す図である。
 制御鏡面決定部160(図23)は、実施の形態5において、2種類の制御を行う。すなわち、まず、制御鏡面決定部160は、鏡面150等(図27~図28)に対応する3つの表示部170等(図24)の何れにも画像を表示させない図27の状態の制御、すなわち、図21の制御と同じ制御を行う。また、制御鏡面決定部160は、図28の制御を行う。制御鏡面決定部160は、図28の制御を行う際には、図21において最も左にある鏡面150の表示部170(図24)に赤色の画像を表示させる。図28では、赤色の表示が、右斜め下方向の線のハッチングにより示される。また、制御鏡面決定部160は、図28の制御を行う際には、真ん中にある鏡面151の表示部171(図24)に青色の画像を表示させ、最も右にある鏡面152の表示部172(図24)に黄色の画像を表示させる。図28では、青色の表示が、水平方向の線のハッチングにより示され、黄色の表示が、右斜め上方向の線のハッチングにより示される。
 なお、図27~図28では、このように、3つの表示部が表示させる画像の色のうちで、何れの2つの色も互いに異なる。
 そして、実像・虚像分離部105は、ステップS202(図11)において、図28に係る制御の状態で撮影される映像を取得する。
 また、実像・虚像分離部105は、図28の状態であり、かつ、対象物113Rがない状態であるときの映像を保持する。
 そして、実像・虚像分離部105は、ステップS206で、保持する映像と、取得された図28に係る映像とから、図28の状態での抽出映像を抽出する。つまり、このステップS206で抽出される抽出映像は、実像113と、赤色の画像の赤色の光が含まれる虚像157xと、青色の光が含まれる虚像158xと、黄色の光が含まれる虚像159xとよりなる抽出映像である。
 そして、実像・虚像分離部105は、ステップS207において、例えば、ステップS205で抽出された図27の抽出映像に対する差が小さい、この図28の抽出映像における部分を、実像113と特定するなどして、実像113を特定する。
 また、実像・虚像分離部105は、ステップS208において、ステップS206で抽出された図28の抽出映像のうちで、赤色の光が含まれる部分を、虚像157xと特定し、青色の光が含まれる部分を虚像158xと特定し、黄色の光が含まれる部分を虚像159xと特定する。そして、実像・虚像分離部105は、ステップS208において、図27の抽出映像のうちで、特定された虚像157x(図28)の部分の画像を虚像154(図27)と特定し、虚像158xの部分の画像を虚像155(図27)と特定し、虚像159xの部分の画像を虚像156(図27)と特定する。
 三次元復元部107は、このようにして実像・虚像分離部105により特定された実像113、虚像154等を用いて、三次元復元の処理等を行う(ステップS210)。
 なお、三次元復元部107は、この三次元復元の処理において、対象物113Rのそれぞれの部分の色を、実像113におけるその部分の箇所の色と特定してもよい。
 (変形例)
 (A)なお、実施の形態1ないし実施の形態4において、撮影部103が撮影装置110ないし撮影装置112の3つの撮影装置よりなる例を示したが、撮影装置の数はいくつでも良い。
 (B)また、実施の形態1および実施の形態4、実施の形態5において、それぞれ、光を透過する鏡面101等と、その鏡面の後方にある表示部120等という構成(図3参照)を示した。一方、鏡および表示部の構成は、例えば、光を透過する表示部とその後方にある鏡面という構成などのように、鏡面の反射特性と、表示部の表示特性とのうちの双方の特性を活かせる構成なら、様々な構成であって良い。
 例えば、表示部120(図3)は、鏡面101よりも対象物113R側、つまり、対象物113Rの表面の側に、鏡面101と平行に設けられてもよい。そして、表示部120は、対象物113Rからの光を透過して、鏡面101へと到達させると共に、到達した光を鏡面101が反射した反射光を再び、各撮影装置がある側へと透過してもよい。そして、表示部120は、こうして反射光を透過することにより、撮影装置110等に虚像を撮影させ、他方で、画像を、撮影装置110等の側へと表示してもよい。表示部120は、これにより、反射光により形成される虚像114と共に、表示する画像の光を撮影装置110等にそれぞれ撮影させるものとしてもよい。ただし、かかる表示部120は、表示する画像の光が対象物113Rに遮られることにより、撮影装置110等から見た、対象物113Rの実像113の領域には、表示する画像の光を表させないことが好ましい。つまり、表示部120は、撮影される実像113の映像には、表示する画像の光を含めさせないことが望ましい。
 このようにして、光量変化部は、鏡面部が前記対象物からの光を反射する表面上に設けられた、画像を表示して、表示した画像の光によって前記虚像の光量を変化させる表示部を備え(光量変化部は表示部であり)、前記表示部は、前記対象物からの光を前記鏡面部の側へ透過すると共に、透過した光が前記鏡面部によって反射されて前記撮影部へと向かう光を再び透過する、変形例の(B)に係る三次元形状計測装置が構成される。
 上記した各三次元形状計測装置は、それぞれ、次のような、他の形態に係る三次元形状計測装置の局面を採ってもよい。
 (A)すなわち、他の形態に係る三次元形状計測装置(三次元形状計測装置1)は、対象物映像特定部(装置)と、三次元形状算出部を備える。対象物映像特定部は、ミラーと、撮影部と、第1の色変化部と、撮影制御部と、特定部とを備える。ミラーは、対象物113Rの虚像(虚像114、虚像115)を映す(鏡面101)。撮影部は、前記ミラーに映された虚像と、前記対象物の実像113との両者を含んだ撮影映像(図8、図9)を撮影する。第1の色変化部は、前記虚像および前記実像のうち一方の像の光路の途中において当該一方の像の光の色を変化させる(表示部120、鏡面遮断部130、光照射部140)。撮影制御部は、前記一方の像の色が前記第1の色変化部により変化された第1の撮影映像(図8)と、されていない第2の撮影映像(図5)とを各々前記撮影部に撮影させる(実像・虚像分離部105)。特定部は、撮影された前記第1の撮影映像および前記第2の撮影映像における、色が変化していない部分(実像113の部分)を第1の前記対象物の映像と特定すると共に、変化している部分(虚像114の部分)を第2の前記対象物の映像と特定する(実像・虚像分離部105)。
 三次元形状算出部は、当該対象物映像特定部(の特定部)により特定された前記第1の対象物の映像および前記第2の対象物の映像から、前記対象物の三次元の形状を算出する(三次元復元部107)。
 このため、例えば、光切断法における、スリット光を照射したり、対象物上のスリット光の位置関係をカメラで捉えるなどの処理が必要とならないなど、複雑な処理が必要なくなる。つまり、簡単に、三次元の形状を算出できる。しかも、カメラで位置関係を捉える処理の時間と比べて、第1の撮影映像と第2の撮影映像とが撮影される間の時間は短くできるので、対象物に動きがあったとしても、短い時間の間にそれらの撮影ができる。これにより、撮影される対象物の画像の間に動きがないようにでき、対象物に動きがあっても、三次元の形状の算出ができる。すなわち、簡単に算出ができ、しかも、対象物に動きがあっても、三次元の形状の算出ができる。
 (B)そして、他の形態の三次元形状計測装置は、より具体的には、例えば次の構成を採る。
 すなわち、前記第1の色変化部は、前記虚像の光路において当該虚像の光の色を変化させる。
 このため、前記虚像を映し出すミラーの近くに前記第1の色変化部(表示部120、鏡面遮断部130、光照射部140)が設けられる。これにより、第1の色変化部と三次元形状計測装置の他の部分との位置が近くなって、三次元形状計測装置のサイズを小さくできる。
 そして、前記特定部は、撮影された前記第1の撮影映像および前記第2の撮影映像における、色が変化していない部分を前記対象物の実像と特定すると共に、変化している部分を前記対象物の虚像と特定する。そして、前記三次元形状算出部は、予め、前記撮影部により撮影がされる撮影位置および撮影方向と、前記ミラーのミラー位置およびミラー方向とを保持する。そして、当該三次元形状算出部は、各々特定された前記実像および前記虚像と、保持する前記撮影位置、前記ミラー位置、および前記ミラー方向とに基づいて、三次元形状の算出をする。すなわち、三次元形状算出部は、次の三次元形状を算出する。算出される三次元形状は、前記撮影位置および前記撮影方向から前記実像が撮影されると共に、前記ミラー位置および前記ミラー方向を有するミラーに関して、前記撮影位置および前記撮影方向と各々面対称である仮想撮影位置および仮想撮影方向から、前記虚像を反転した反転映像が撮影される三次元形状である。三次元形状算出部は、この三次元形状を、前記対象物の三次元形状として算出するものである。
 このため、例えば、撮影位置および撮影方向などが用いられず、単に、撮影された各撮影映像の解析のみによって算出を行う場合などと比べて、簡単に三次元形状の算出ができたり、精度よく算出ができたりする。なお、このような三次元形状算出部は、例えば、種々の公知の技術が用いられた機能ブロックであってもよい。
 なお、前記三次元形状算出部は、仮想的な撮影部の撮影位置および撮影方向を保持し、これによって、ミラー位置およびミラー方向を保持してもよい。ここで、その、仮想的な撮影位置等と、実在の撮影部の撮影位置等とにより、ミラー位置およびミラー方向が特定される。
 また、他の形態の三次元形状計測装置においては、より具体的には、例えば、前記第1の色変化部が、次に示される各構成の何れかを採るものとしてもよい。
 (B1)例えば、当該第1の色変化部は、前記ミラーの反射面上に画像を表示して、表示する画像の光を前記虚像の光に加えることにより、当該虚像の色を変化させるものであってもよい。
 このようにした場合には、例えば光を遮る、可動の遮光部などの機械的な機構なく、簡単な構成により変化がされるようにできる。また、例えば、反射面上に画像を一様に表示するだけで、虚像の各部の色を一様に変化させて、虚像が精度よく簡単に特定されるようにできる。これにより、簡単な構成により精度よく虚像が特定されるようにできる。
 (B11)ここで、例えば、前記ミラーは、前記対象物のある側の表面とは逆側の裏面の側からの当該ミラーへの光を前記表面の側へと透過してもよい。そして、前記第1の色変化部は、前記ミラーの裏面上に設けられて、裏面上においてミラー側へと画像を表示することによって、表示する画像の光が前記表面の側へと透過した光により、前記ミラーの表面上に、前記画像を表示するものであってもよい(表示部120、図3等参照)。このようにした場合には、例えば、ミラーの表面に設けられた第1の色変化部によって、虚像の光が劣化するのが抑制される。これにより、劣化がなくて精度がよい撮影映像が撮影されるようにできる。
 (B12)また、例えば、前記第1の色変化部は、前記ミラーの表面上に設けられて、表面上に画像を表示してもよい。そして、第1の色変化部は、当該ミラーへと進む前記対象物からの光を前記ミラーへと透過すると共に、透過した光が当該ミラーに反射した光を再び透過して、再び透過した光を前記撮影部に撮影させるものであってもよい。
 このようにした場合には、例えば、裏面から表面へと光を透過する機能を要するなどのミラーの構成の制約が不要となり、自由にミラーを構成できる。
 (B2)また、例えば、前記第1の色変化部は、前記対象物に対して前記ミラーを遮ってもよい。すなわち、第1の色変化部は、前記対象物からの光の少なくとも一部が前記ミラーに到達するのを妨げるものであってもよい(鏡面遮断部130、図12~図13等参照)。
 このようにした場合には、物理的に遮ることによって、虚像の色が変化されるので、十分にかつ確実に虚像の色が変化されるようにできる。
 (B3)また、例えば、前記第1の色変化部は、前記虚像および前記実像の2つの光路のうちで、前記虚像の光路にのみ光を照射して、前記虚像の光のコントラストのみを低下させるものであってもよい(光照射部140、図17~図18等参照)。
 このようにした場合、光路の途中へと光を照射する位置に第1の色変化部が設けられて、ミラーや対象物と第1の色変化部と間の位置関係に関わらずに、自由に、第1の色変化部の位置や大きさを選ぶことができる。つまり、自由に第1の色変化部を構成できる。また、単に、光を照射する範囲が、虚像の大きさ以上の大きさにされるだけで、虚像の光を的確に変化できる。このため、的確に変化をさせつつも、色変化部のサイズを小さくできる。また、例えば、機械的に動作する可動部が不要になるなどして、色変化部を簡単な構成にできる。
 なお、色変化部は、光を照射することにより、照射した光が散乱した光を虚像に含めさせて、虚像を変化させるものであってもよい。
 (C)そして、他の形態に係る三次元形状計測装置においては、具体的には、例えば、前記特定部は、前記対象物がなく、かつ、前記第1の色変化部が変化させていない状態における保持撮影映像(図6)を保持してもよい。そして、特定部は、撮影された前記第2の撮影映像(図5)から、前記保持撮影映像(図6)を除いた、色が変化されていない際における、前記実像および虚像よりなる合成映像(図7)に基づく処理をしてもよい。即ち、特定部は、合成映像のうちで、撮影された前記第1の撮影映像(図8)と同じである部分を前記実像(実像113)と特定すると共に、当該合成映像(図7)のうちで、特定される当該実像(実像113)以外の残りの部分を前記虚像(虚像114)と特定するものとしてもよい。
 このため、例えば、保持撮影映像が保持されず、複雑な画像処理により実像等が特定がされる場合などと比べて適切である。すなわち、予め用意した保持撮影映像の情報を用いて、簡単な処理により特定がされるようにできる。
 (D)なお、他の形態に係る三次元形状計測装置の変形例を説明する。
 他の形態の変形例に係る三次元形状計測装置は、対象物の第2の虚像(例えば、虚像155、虚像158(図21~図22、図25~図26))を映す第2のミラー(例えば、鏡面151)と、第2の色変化部とをさらに備える。そして、前記撮影部は、前記第1の虚像(虚像154)と、前記第2の虚像(虚像155等)と、前記実像(実像113)との両方が含まれた撮影映像(図21など)を撮影する。そして、第2の色変化部は、前記第2の虚像の光路の途中において当該第2の虚像の光の色を変化させる(図24の表示部171)。そして、前記撮影制御部は、前記第1の撮影映像(例えば図21の映像)と第2の撮影映像(例えば図22の映像)とのうちで第1の撮影映像の撮影(図22の撮影)に際してのみ前記第2の色変化部に色の変化をさせ、他方の撮影(図21の撮影)に際しては変化をさせない。そして、前記撮影制御部は、第3の撮影映像(例えば、図25の映像)を前記撮影部に撮影させて、当該第3の撮影映像の撮影に際しては、前記第1の色変化部が変化をさせないようにし、かつ、前記第2の色変化部が変化をさせるようにする。
 そして、前記特定部は、撮影された前記第1の撮影映像、および、撮影された前記第2の撮影映像における、色が変化していない部分(実像113の部分)を前記実像として特定してもよい。そして、前記特定部は、前記第2の撮影映像(図21の映像)のうちで、特定された前記実像以外の他の部分(虚像154、虚像155)に含まれ、かつ、前記第3の撮影映像(図25)において、色の変化がされている部分(虚像155の部分)を、第2の虚像(虚像155)と特定する。そして、特定部は、特定された第2の虚像以外の虚像(虚像154)を、第1の虚像と特定する。
 このようにした場合、撮影位置を増やさなくとも、単に、第2のミラーを設けるだけの簡単な構成で、対象物の、3つの撮影位置からの映像が得られるようにできる。
 そして、第2のミラーがあることで、撮影映像に第2の虚像が含まれるにも関わらず、単に、第3の撮影映像が撮影されるだけの簡単な処理により、対象物の3つの映像が特定されるようにできる。
 続けて、さらに説明が行われる。
 図29は、三次元形状計測装置6の構成を示す図である。
 図30は、三次元形状計測装置6が備える複数の部分の間の位置関係を示す図である。
 三次元形状計測装置6は、鏡面101と、鏡面反射制御部102と、撮影部103と、実像・虚像分離部105xと、虚像反転部106と、三次元復元部107とを備える。これら鏡面101等は、それぞれ、図2の鏡面101等に対応する。以下の説明では、先に述べられた点については、詳しい説明が適宜、省略される。
 鏡面101は、対象物113Rからの光を反射し、反射した光による虚像114を形成する。鏡面101の位置および方向は、鏡面101が光を反射する、鏡面101の表面の側に、対象物113Rがある位置および方向である。鏡面101は、鏡面の表面とは反対側である裏面の側から鏡面101への光を、表面の側へと透過するハーフミラーである。
 鏡面反射制御部102(図29)は、表示部63(図30)を備える。
 表示部63は、鏡面101の裏面の側に設けられ、鏡面101の側へと、予め定められた特定波長の光(特定色の光)を照射するディスプレイである。表示部63は、照射する光を、鏡面101の表面の側へと透過させることにより、その光を、鏡面101の表面の側に表示する。表示部63は、例えば、鏡面101の表面の領域の全てにおいて、透過させた光を表示させる。
 撮影部103は、撮影装置110と、距離センサ部61とを備える。なお、距離センサ部61は、例えば、撮影部103が備える複数の距離センサ部のうちの1つである。そして、撮影装置110は、撮影部103が備える複数の撮影装置のうちの1つである。例えば、複数の距離センサ部のそれぞれは、複数の撮影装置のうちの1つに対応する。そして、互いに対応する距離センサ部および撮影装置の位置は、互いに同じ位置である。
 図31は、距離センサ部61の詳細な構成を示す図である。
 距離センサ部61は、特殊CCD(Charge Coupled Device)612と、特定部613と、同期処理部614と、投光LED611とを備える。
 同期処理部614は、例えば、表示部63により表示が行われる際の信号を取得して、取得された時に当該距離センサ部61を動作させるなどして、表示部63による表示が行われる際に、距離センサ部61を動作させる。
 投光LED611は、特定波長の光を照射する。なお、特定波長は、例えば、赤外線の波長であってもよい。また、特定波長は、例えば、紫外線の波長であってもよいし、可視光のうちの一部の波長であってもよい。そして、投光LED611は、より具体的には、予め定められた照射時間の間に、予め定められたパターンの変化をする光を照射する。この点は、以下で詳しく説明される。なお、投光LED611、表示部63の表示に合わせて同期処理部614が当該距離センサ部61を動作させる際に、この照射を行う。
 特殊CCD612は、投光LED611により照射された光が測定対象61X(対象物113R)により反射された光を感知し、画素ごとの到達時間を測定する。つまり、特殊CCD612は、それぞれの画素で、その画素へと到達した、照射された、上記特定波長での上記パターンでの変化の光を感知する。ここで、それぞれの画素で感知される光は、対象物113Rの各箇所のうちにおける、その画素へと光を到達させる箇所からの光である。
 特定部613は、それぞれの画素で、投光LED611の光が感知される時刻を特定する。特定部613は、これにより、それぞれの画素について、投光LED611による光の照射の時刻から、その画素で光が感知された時刻までの間の時間(到達時間)を特定する。特定部613は、特定された到達時間に基づいて、その到達時間の間、光が進むだけの距離を、距離センサ部61と、その感知がされた画素に対応する測定箇所との間の距離と特定する。なお、具体的には、到達時間の間の距離は、光の往路の距離と復路の距離とが足された2倍の距離である。そこで、例えば、特定部613は、到達時間の距離の半分の距離を、その箇所までの距離と特定する。
 特定部613は、こうして、それぞれの画素の距離を特定する。特定部613は、これにより、含まれるそれぞれの画素の値が、特定された、その画素の距離である距離画像(第1の画像)61I(図30)を特定する。
 ここで、距離画像61Iにおける、表示部63による表示(照射)がされた領域114sxの画素は、例えば、上記のパターンの光の光量がゼロである画素である。この領域114sxの光における上記パターンは、例えば、表示部63による光に吸収されるなどして、表示部63による光により消される。これにより、上記パターンの光の光量がゼロになる。表示部63は、こうして、光の照射によって上記パターンを消すことにより、鏡面101がそのパターンの光を反射しないようにする。
 特定部613は、表示部63により表示がされた領域114sxの画素については、例えば、無限長の時間を特定して、無限長の距離を特定する。このため、距離画像61Iにおける、照射がされた領域114sxの画素は、無限長の距離の画素である。また、距離画像61Iにおける、照射がされなかった領域の画素は、無限長ではない距離の画素である。
 特定部613は、距離画像61Iを特定することにより、距離画像61Iのうちで、無限長の距離が特定された画素の領域を、表示部63による特定波長の光の照射がされた領域114sxと特定し、無限長ではない画素の領域を、照射がされなかった領域と特定する。
 実像・虚像分離部105xは、より詳細には、実像抽出部62と、実像+虚像抽出部62xとを備える。
 実像抽出部62は、距離画像61Iに基づいて、実像の領域113sを特定する。例えば、実像抽出部62は、予め定められた基準画像を保持し、距離画像61Iのうちで、保持する基準画像との間で差がある領域を、実像の領域113sとして特定する。そして、実像抽出部62は、撮影装置110により撮影された画像(第2の画像)103Iにおける、特定された実像の領域113sの部分を、実像113として特定する。すなわち、実像抽出部62は、距離画像61Iの形状と、画像103Iの形状との間の形状比較により、画像103Iに含まれる実像113を特定する。つまり、実像抽出部62は、例えば、実像の領域113sの形状に対応する、画像103Iにおける形状を特定し、画像103Iにおける、特定された形状の部分を、実像113と特定する。なお、特定される実像の領域113sは、無限長の距離ではない距離が特定部613により特定される領域である。
 なお、こうして、特殊CCD612が光の感知を行い、特定部613が距離画像61Iを特定することにより、距離画像61Iが距離センサ部61により撮影される。
 実像+虚像抽出部62xは、実像抽出部62により特定された実像の領域113sに基づいて、撮影装置110により撮影された画像103Iにおける、虚像114を特定する。実像+虚像抽出部62xは、具体的には、例えば、画像103Iにおける、画像103Iが予め定められた基準画像に対して差を有する部分を、実像113および虚像114の全体と特定して、特定されるその全体における、実像抽出部62により特定された実像の領域113s以外の他の領域の部分を、虚像114と特定する。なお、実像+虚像抽出部62xは、こうして虚像114を特定することで、虚像の領域114sを特定する。なお、ここで、特定される虚像の領域114sは、距離画像61Iにおいて、無限長の距離が特定部613により特定される領域である。
 三次元復元部107は、特定された実像113と、特定された虚像114とに基づいて、特定された実像113と、特定された虚像114とを、画像103Iの中に撮影させる三次元形状を、対象物113Rの三次元形状として算出する。三次元復元部107は、例えば、算出された三次元形状を、予め定められた表示制御部を用いて、ユーザに表示する。
 なお、三次元形状計測装置6において、表示部63による表示(照射)がされた領域114sxの画素は、次のような画素でもよい。例えば、表示部63の表示による光は、上記パターンと同じもの(同じパターンの光)である。そして、投光LED611による照射が行われる時刻と同じ時刻もしくはそれよりも前の時刻から、表示部63の表示により、この同じパターンの光が照射される。そして、照射がされた領域114sxの画素では、照射の時刻と同じ時刻(近似の時刻)に、表示部63により上記光が感知される。例えば、照射がされた領域114sxの画素は、特殊CCD612が光を感知するまでの時間がゼロである画素である。この場合、距離画像61Iにおける、照射された領域に該当する画素の距離は、ゼロもしくはゼロに近い値となる。また、この場合、特定部613は、距離画像61Iを特定することにより、距離画像61Iのうちで、ゼロに近い距離が特定された画素の領域を、表示部63による特定波長の光の照射がされた領域114sxと特定し、距離がゼロに近似できない画素の領域を、照射がされなかった領域と特定する。また、この場合、実像抽出部62により特定される実像の領域113sは、距離がゼロに近似できない距離が特定部613により特定される領域である。
 図32は、三次元形状計測装置6の変形例たる三次元形状計測装置7を示す図である。
 三次元形状計測装置7は、鏡面701と、光量変化部73fと、距離センサ部71とを備える。
 鏡面701は、ハーフミラーではなくてよい。すなわち、鏡面701は、裏面側からの光を透過しなくてよい。
 光量変化部73fは、鏡面101の表面の側に設けられるフィルタである。光量変化部73fは、対象物113Rと撮影部103(距離センサ部71および撮影装置110)との間の光路を通る光のうちで、上記された特定波長の光は透過させず、遮断する。他方、光量変化部73fは、上記された特定波長の以外の他の波長の光は透過させる。光量変化部73fは、例えば、鏡面701の表面の側における、鏡面701が光を反射する面の全面に設けられる。
 撮影装置110は、距離センサ部71による距離画像61Iの撮影(特殊CCD612による光の感知)の時刻と同じ時刻に、画像103Iを撮影する。撮影装置110は、上記の特定波長の光以外の他の光を含む光による画像103Iを撮影する。このため、撮影される画像103Iは、光量変化部73fによる光量の変化がされているにも関わらず、変化がされていないときに撮影される画像との差が小さい。画像103Iは、例えば、変化がされていないときの画像と同一(実質的に同一)の画像である。つまり、撮影される画像103Iは、先述の三次元形状計測装置6で撮影されるときの画像103Iと同一(実質的に同一)である。
 特定部613は、無限長の距離の領域を特定することにより、光量変化部73fにより光量が変化された領域(図30の領域114sx)を特定する。距離センサ部61は、同期処理部614を備えなくてよい。
 この三次元形状計測装置7であれば、距離画像61Iと画像103Iとが撮影される時刻が互いに同じであるにも関わらず、画像103Iとして適切な画像が撮影され、適切な処理が行われる。これにより、2つの画像を互いに異なる時刻に撮影させる複雑な処理なく、簡単に適切な2つの画像が得られる。これにより、簡単な処理で、適切な処理が行われるようにできる。
 図33は、三次元形状計測装置8(三次元形状計測装置1~7)を示す図である。三次元形状計測装置8は、例えば、上述の三次元形状計測装置6である。
 三次元形状計測装置8は、鏡面101(鏡面150等)と、光量変化部63a(表示部120、鏡面遮断部130、光照射部140、表示部63、光量変化部73f)と、撮影部103と、撮像分離部104と、三次元復元部107とを備える。
 鏡面101は、対象物113Rからの光を反射することにより、反射した光を撮影部103に撮影させる。鏡面101は、これにより、対象物113Rと撮影部103との間における、鏡面101を介した光路101Rを形成する。鏡面101は、この光路101Rにおける光の反射によって、対象物113Rの虚像I1を形成する。
 光量変化部63aは、光路101Rにおける光に作用して、光路101Rを進む光の光量を変化させる。
 撮影部103は、鏡面101による虚像I1と、鏡面101によらない実像I2との両方が含まれる撮影画像Iを撮影する。撮影部103は、第1の撮影画像Iとして、光量変化部63aによる変化による影響を有する変化画像Iaを撮影する。また、撮影部103は、第2の撮影画像Iとして、光量変化部63aによる変化による影響を有さない通常画像Ibを撮影する。撮影部103は、変化画像Iaと通常画像Ibとのそれぞれを撮影する。
 具体的には、撮影部103は、例えば、光量変化部63aが変化をさせる第1の時刻において、変化画像Ia(図5の映像など)を撮影する。そして、撮影部103は、例えば、光量変化部63aが変化をさせない第2の時刻において、通常画像Ib(図8の映像など)を撮影する。ここで、第2の時刻は、第1の時刻とは異なる時刻である。
 また、具体的には、撮影部103は、例えば、影響を有する変化画像Ia(第1の画像61I)を撮影する第1の撮影装置(距離センサ部61)と、影響を有さない通常画像Ibを撮影する第2の撮影装置(撮影装置110等)とを備える。ここで、影響を有さないとは、例えば、変化画像Iaが有する影響よりも少ない影響を有することをいう。また、影響を有さないとは、例えば、予め定められた程度よりも小さい程度の影響を有することをいう。
 変化画像Iaに含まれる虚像Ia1は、光量変化部63aによる光量の変化による影響を有する。
 変化画像Iaに含まれる実像Ia2は、光量変化部63aによる光量の変化による影響を有さない。
 撮像分離部104は、領域特定部104aと、画像特定部104bとを備える。これら領域特定部104a等は、図29などにおいて、説明の便宜上から、図示されない。
 領域特定部104aは、変化画像Iaに基づいて、変化画像Iaにおける、光量が変化された影響を有する領域を、虚像の領域R1(虚像の領域114s、図10の虚像115の領域など)として特定し、変化画像Iaにおける、光量が変化された影響を有さない領域を、実像の領域R2(実像の領域113s、図10の実像113の領域など)として特定する。
 なお、領域特定部104aは、具体的には、例えば、変化画像Iaと、通常画像Ibとの両方に基づいて、これらの特定をしてもよい。虚像の領域R1は、変化画像Iaにおけるその領域の画像は、影響を有する虚像Ia1であると共に、通常画像Ibにおけるその領域の画像は、影響を有さない虚像Ib1である領域である。このため、領域特定部104aは、例えば、影響が有するか否かが、これら2つの画像の間で互いに異なる領域を、虚像の領域R1として特定してもよい。他方、実像の領域R2は、変化画像Iaにおけるその領域の画像は、影響を有さない実像Ia2であるのと共に、通常画像Ibにおけるその領域の画像も、影響を有さない実像Ib2である領域である。このため、領域特定部104aは、例えば、影響を有するか否かがこれら2つの画像の間で互いに同一である領域を、実像の領域R2として特定してもよい。
 なお、領域特定部104aは、より具体的には、例えば、虚像Ia1の領域と実像Ia2の領域とを特定する領域特定データdを生成することにより、これらの領域を特定する。
 また、領域特定部104aは、具体的には、例えば、変化画像Iaのみから、虚像の領域R1と実像の領域R2との特定をしてもよい。こうすれば、変化画像Iaは、三次元形状の復元に利用するための解像度よりも低い解像度を有するなど、低い品質の画像で足りるようにできる。例えば、変化画像Iaは、撮影部103が備える距離センサ部61(距離センサ部71)によって、撮影部103が撮影した画像である。
 画像特定部104bは、通常画像Ibにおける、領域特定部104aにより特定された虚像の領域R1の画像を虚像Ib1として特定する。また、画像特定部104bは、通常画像Ibにおける、領域特定部104aにより特定された実像の領域R2の画像を実像Ib2として、通常画像Ibのなかで特定する。
 なお、通常画像Ibにおける実像Ib2は、変化画像Iaにおける実像Ia2と同一であってもよい。例えば、変化画像Iaは、光量変化部63aによる影響のある虚像Ia1以外の他の部分の領域(例えば図10の実像113の領域)については、通常画像Ibにおけるその領域の画像(図7の実像113)と同一の画像(図10の実像113)を有してもよい。この場合などには、例えば、画像特定部104bは、変化画像Iaにおける、特定された実像の領域R2の画像(実像Ia2)を、通常画像Ibにおける実像Ib2として特定してもよい。
 三次元復元部107は、画像特定部104bにより特定された虚像Ib1と実像Ib2とから、それらを撮影部103に撮影させる三次元形状を、対象物113Rの三次元形状として算出する。三次元復元部107は、例えば、算出された三次元形状を特定する三次元形状情報107xを生成する。そして、例えば、三次元復元部107は、生成された三次元形状情報107xを予め定められた表示部を用いて、ユーザに表示する。
 このように、実施の形態の三次元形状計測装置(三次元形状計測装置8、三次元形状計測装置1~7)は、対象物(対象物113R)の三次元形状を計測する。鏡面(鏡面101)は、前記対象物からの光を反射する。撮影部(撮影部103)は、前記対象物の実像(実像I2)と、前記鏡面により形成された、前記対象物の虚像(虚像I1)との両者を映した撮影画像(撮影画像I)を撮影する。光量変化部(光量変化部63a)は、前記実像と、前記虚像とのうちで、一方の像(虚像I1)の光量を変化させる。像分離部(撮像分離部104)は、前記光量変化部による前記変化の影響を有する第1の撮影画像(変化画像Ia)と、影響を有さない第2の撮影画像(通常画像Ib)とにおける、光量が異なる部分(通常画像Ibにおける、虚像の領域R1の部分)を前記一方の像(虚像Ib1)と特定し、同じである部分(通常画像Ibにおける、実像の領域R2の部分)を他方の像(実像Ib2)と特定する。復元部は、前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する(三次元形状情報107xを生成する)。
 例えば、前記光量変化部は、前記虚像の光のうちで、予め定められた色の光(特定波長の光)の光量を変化させ、前記撮影部は、第1の撮影装置(距離センサ部61)と第2の撮影装置(撮影装置110等)とを備え、前記第1の撮影装置は、前記予め定められた色の光のみによる距離測定を行い、その結果得られた画像(距離画像)を前記第1の撮影画像(第1の画像61I)として撮影し、前記第2の撮影装置は、前記予め定められた色の光以外の他の色の光を含む光による撮影画像を前記第2の撮影画像(第2の画像103I)として撮影し、前記像分離部は、前記第1の撮影画像における、光量もしくは距離が変化された領域(虚像の領域R1)を前記虚像(虚像I1)の領域と特定して、前記第2の撮影画像における、その特定された領域の部分を前記虚像(虚像I1)と特定すると共に、前記第2の撮影画像における、特定された部分以外の他の部分を前記実像(実像I2)と特定する。前記第1の撮影装置は、前記予め定められた色の光を照射する照射部(投光LED611)と、照射された光が、前記対象物のそれぞれの箇所により反射された光を感知(撮影)する撮影部(特殊CCD612)と、照射の時刻から、それぞれの箇所の光の撮影の時刻までの間の時間だけ光が進む距離を、その箇所までの前記第1の撮影部からの距離として算出する算出部(特定部613)とを備える。
 例えば、前記鏡面(三次元形状計測装置6が備える鏡面101)は、前記対象物からの光を反射する表面とは反対側の裏面の側から当該鏡面への光を前記表面の側へと透過し、前記光量変化部は、前記対象物の裏面の側に設けられ、前記予め定められた色の光を前記鏡面の側へと、前記第1の撮影装置により前記第1の撮影画像が撮影される際に表示する表示部(図30の表示部63)である。
 例えば、前記光量変化部(図32の光量変化部73f)は、前記鏡面が前記対象物からの光を反射する、前記鏡面の表面の側に設けられ、前記虚像の光のうちで、前記予め定められた色の光は透過させない一方で、前記予め定められた色以外の他の色の光は透過させるフィルタである。
 また、次のコンピュータプログラムが構成される。このコンピュータプログラムは、対象物の三次元形状を計測するコンピュータ(三次元形状計測装置の全部又は一部、例えば制御部1A又はCPU1Aa)に前記計測をさせるためのコンピュータプログラムである。ここで、前記三次元形状計測装置は、前記対象物からの光を反射する鏡面、前記対象物の実像と、前記鏡面により形成された、前記対象物の虚像との両者を映した撮影画像を撮影する撮影部とを備える。このコンピュータプログラムは、例えば、この撮影をさせる制御を行う撮影制御部と、前記実像と、前記虚像とのうちで、一方の像の光量を光量変化部が変化させるように光量変化部を制御する光量変化制御部と、前記光量変化部による前記変化の影響を有する第1の撮影画像と、影響を有さない第2の撮影画像とにおける、光量が異なる部分を前記一方の像と特定し、同じである部分を他方の像と特定する像分離部と、前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元部とを前記コンピュータに実現させるためのコンピュータプログラムである。
 なお、上記に説明されたそれぞれの事項は、その事項の箇所以外の他の箇所に記載された他の事項と、適宜、組み合わされてもよい。組み合わされた形態が構成されてもよい。
 本発明に係三次元形状計測装置は、対象物を手軽に三次元復元し、それを表示させるための機能を有し、体型維持などに用いる健康管理システムとして有用である。また、試着システム等の用途にも応用できる。
 1~8 三次元形状計測装置
 1A 制御部
 61、71 距離センサ部
 61I、103I 画像
 62 実像抽出部
 62x 実像+虚像抽出部
 63、120、131、170~172 表示部
 63a、73f 光量変化部
 101、150~152、701 鏡面
 101R 光路
 102、132、142、162 鏡面反射制御部
 103 撮影部
 104 撮像分離部
 104a 領域特定部
 104b 画像特定部
 105、105x 実像・虚像分離部
 106 虚像反転部
 107 三次元復元部
 110~112 撮影装置
 113R 対象物
 114s、114sx、R1、R2 領域
 120 表示部
 121 同期制御部
 130 鏡面遮断部
 140 光照射部
 160 制御鏡面決定部
 210~212 仮想的な撮影装置
 611a 照射光
 611b 反射光 
 d 領域特定データ 
 I 撮影画像
 I1、Ia1、Ib1、114、115、144、154~159 虚像
 I2、Ia2、Ib2、113 実像
 Ia 変化画像
 Ib 通常画像
 IS 虚空間
 RS 実空間

Claims (15)

  1.  対象物の三次元形状を計測する三次元形状計測装置であって、
     前記対象物からの光を反射する鏡面と、
     前記対象物の実像と、前記鏡面により形成された、前記対象物の虚像との両者を映した撮影画像を撮影する撮影部と、
     前記実像と、前記虚像とのうちで、一方の像の光量を変化させる光量変化部と、
     前記光量変化部による前記変化の影響を有する第1の撮影画像と、影響を有さない第2の撮影画像とにおける、光量が異なる部分を前記一方の像と特定し、同じである部分を他方の像と特定する像分離部と、
     前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元部と
     を備える三次元形状計測装置。
  2.  前記光量変化部は、前記鏡面が反射する反射光の光量を変化させて、前記虚像の光量を変化させる請求項1に記載の三次元形状計測装置。
  3.  前記鏡面は、前記対象物からの光を反射する表面とは反対側の裏面の側から当該鏡面への光を前記表面の側へと透過し、
     前記光量変化部は、前記鏡面が前記表面へと透過する透過光量を変化させることで、前記虚像の光量を変化させる請求項1に記載の三次元形状計測装置。
  4.  前記撮影部に撮影される前記対象物がない場合において当該撮影部により撮影される基準映像を保持する基準映像保持部を備え、
     前記光量変化部は、前記虚像の光量を変化させ、
     前記像分離部は、前記光量変化部により前記光量を変化させる間に前記第1の撮影画像を前記撮影部に撮影させると共に、変化させない間に前記第2の撮影画像を撮影させ、撮影された2つの前記撮影画像のうちで、保持される前記基準映像に含まれず、かつ、光量が同じである部分を前記実像と特定し、2つの前記撮影画像のうちで、前記第2の撮影画像における、保持される前記基準映像には含まれず、かつ、光量が異なる部分を、前記虚像と特定する請求項1に記載の三次元形状計測装置。
  5.  前記鏡面は、前記鏡面が前記対象物からの光を反射する表面とは反対側の裏面から当該鏡面への光を前記表面へと透過し、
     前記光量変化部は、前記鏡面の前記裏面の側に設けられ、画像を表示することにより、表示した画像の光を前記表面へと透過させて、透過した光によって前記虚像の光量を変化させる表示部を備える請求項1に記載の三次元形状計測装置。
  6.  前記光量変化部は、前記鏡面が前記対象物からの光を反射する表面上に設けられた、画像を表示して、表示した画像の光によって前記虚像の光量を変化させる表示部を含み、
     前記表示部は、前記対象物からの光を前記鏡面の側へ透過すると共に、透過した光が前記鏡面によって反射されて前記撮影部へと向かう光を再び透過する請求項1に記載の三次元形状計測装置。
  7.  前記表示部が表示する画像の色は、前記表示部が画像を表示していないときに前記撮影部に撮影される撮影画像に使用されない色、又は、前記対象物の色の補色である請求項5に記載の三次元形状計測装置。
  8.  前記光量変化部は、前記鏡面に入射する入射光および、前記鏡面が反射した反射光の少なくとも一方を遮断することにより、前記虚像の光量を変化させる請求項1に記載の三次元形状計測装置。
  9.  前記光量変化部は、前記鏡面に対して光を照射して、当該鏡面の反射光が形成する前記虚像のコントラストを変化させる請求項1に記載の三次元形状計測装置。
  10.  複数の鏡面のうちから、光量を変化させる鏡面を決定し、決定した鏡面に対応する前記変化部を用いて、決定した鏡面の虚像の光量を変化させる決定部を備え
     前記鏡面は、前記複数の鏡面を備え、
     当該複数の鏡面のそれぞれは、前記対象物から当該鏡面への光を反射し、
     前記光量変化部は、前記複数の鏡面のそれぞれに対応する複数の変化部を備え、
     当該複数の変化部のそれぞれは、その変化部に対応する鏡面により反射された光が形成する前記虚像の光量を変化させる請求項1に記載の三次元形状計測装置。
  11.  前記光量変化部は、前記虚像の光のうちで、予め定められた色の光の光量を変化させ、
     前記撮影部は、第1の撮影装置と第2の撮影装置とを含み、
     前記第1の撮影装置は、前記予め定められた色の光のみによる撮影画像を前記第1の撮影画像として撮影し、
     前記第2の撮影装置は、前記予め定められた色の光以外の他の色の光を含む光による撮影画像を前記第2の撮影画像として撮影し、
     前記像分離部は、前記第1の撮影画像における、光量が変化されなかった領域を前記実像の領域と特定して、前記第2の撮影画像における、その特定された領域の部分を前記実像と特定すると共に、前記第2の撮影画像における、特定された前記実像の部分以外の他の部分を前記虚像と特定し、
     前記第1の撮影装置は、前記予め定められた色の光を照射する照射部と、照射された光が、前記対象物のそれぞれの箇所により反射された光を撮影する撮影部と、照射の時刻から、それぞれの箇所の光の撮影の時刻までの間の時間だけ光が進む距離を、その箇所までの前記第1の撮影部からの距離として算出する算出部とを備える請求項1記載の三次元形状計測装置。
  12.  前記鏡面は、前記対象物からの光を反射する表面とは反対側の裏面の側から当該鏡面への光を前記表面の側へと透過し、
     前記光量変化部は、前記対象物の裏面の側に設けられ、前記予め定められた色の光を前記鏡面の側へと、前記第1の撮影装置により前記第1の撮影画像が撮影される際に表示する表示部である請求項11記載の三次元形状計測装置。
  13.  前記光量変化部は、前記鏡面が前記対象物からの光を反射する、前記鏡面の表面の側に設けられ、前記虚像の光のうちで、前記予め定められた色の光は透過させない一方で、前記予め定められた色以外の他の色の光は透過させるフィルタである請求項11記載の三次元形状計測装置。
  14.  対象物の三次元形状を計測する三次元形状計測装置に搭載される集積回路であって、
     前記三次元形状計測装置が備える、前記対象物からの光を反射する鏡面と、前記対象物の実像と、前記鏡面により形成された、前記対象物の虚像との両者を映した撮影画像を撮影する撮影部と、前記実像と、前記虚像とのうちで、一方の像の光量を変化させる光量変化部とのうちの前記光量変化部による前記変化の影響を有する第1の撮影画像と、影響を有さない第2の撮影画像とにおける、光量が異なる部分を前記一方の像と特定し、同じである部分を他方の像と特定する像分離部と、
     前記像分離部によって特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元部と
     を備える集積回路。
  15.  対象物の三次元形状を計測する三次元形状計測方法であって、
     前記対象物からの光を鏡面によって反射する鏡面反射ステップと、
     前記対象物の実像と、前記鏡面により形成された、前記対象物の虚像との両者を映した撮影画像を撮影する撮影ステップと、
     前記実像と、前記虚像とのうちで、一方の像の光量を変化させる光量変化ステップと、
     前記光量変化部による前記変化の影響を有する第1の撮影画像と、影響を有さない第2の撮影画像とにおける、光量が異なる部分を前記一方の像と特定し、同じである部分を他方の像と特定する像分離ステップと、
     前記像分離ステップにおいて特定された前記実像と前記虚像とを利用して、前記対象物の三次元形状を復元する復元ステップと
     を含む三次元形状計測方法。
PCT/JP2009/003238 2008-07-11 2009-07-10 三次元形状計測装置、集積回路、および方法 WO2010004763A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN200980100317XA CN101796372B (zh) 2008-07-11 2009-07-10 三维形状测量装置、集成电路及方法
US12/677,373 US8723928B2 (en) 2008-07-11 2009-07-10 Three-dimensional shape measuring apparatus, integrated circuit, and three-dimensional shape measuring method
JP2010504358A JP5450380B2 (ja) 2008-07-11 2009-07-10 画像処理装置、集積回路、および画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008181540 2008-07-11
JP2008-181540 2008-07-11

Publications (1)

Publication Number Publication Date
WO2010004763A1 true WO2010004763A1 (ja) 2010-01-14

Family

ID=41506887

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/003238 WO2010004763A1 (ja) 2008-07-11 2009-07-10 三次元形状計測装置、集積回路、および方法

Country Status (4)

Country Link
US (1) US8723928B2 (ja)
JP (1) JP5450380B2 (ja)
CN (1) CN101796372B (ja)
WO (1) WO2010004763A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010025927A (ja) * 2008-07-18 2010-02-04 Mitsubishi Electric Research Laboratories Inc 物体の3d形状を求める装置および方法
CN108293106A (zh) * 2015-11-25 2018-07-17 株式会社电装 显示控制装置以及显示控制方法
WO2019012770A1 (ja) * 2017-07-11 2019-01-17 ソニーセミコンダクタソリューションズ株式会社 撮像装置及びモニタリング装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2208354A4 (en) 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
JP5624394B2 (ja) * 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
TWI445511B (zh) * 2010-07-30 2014-07-21 Hon Hai Prec Ind Co Ltd 化妝鏡調整系統、方法及具有該調整系統的化妝鏡
US9946076B2 (en) 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US12025807B2 (en) 2010-10-04 2024-07-02 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US8358333B2 (en) * 2011-03-04 2013-01-22 The Boeing Company Photogrammetry measurement system
EP2866446B1 (en) * 2013-10-28 2016-07-06 Lateral Reality Kft. Method and multi-camera portable device for producing stereo images
US9615081B2 (en) 2013-10-28 2017-04-04 Lateral Reality Kft. Method and multi-camera portable device for producing stereo images
US9810913B2 (en) 2014-03-28 2017-11-07 Gerard Dirk Smits Smart head-mounted projection system
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US10043282B2 (en) 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US9753126B2 (en) 2015-12-18 2017-09-05 Gerard Dirk Smits Real time position sensing of objects
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
EP3217355A1 (en) * 2016-03-07 2017-09-13 Lateral Reality Kft. Methods and computer program products for calibrating stereo imaging systems by using a planar mirror
EP3532863A4 (en) 2016-10-31 2020-06-03 Gerard Dirk Smits FAST SCAN LIDAR WITH DYNAMIC VOXEL PROBE
JP7329444B2 (ja) 2016-12-27 2023-08-18 ジェラルド ディルク スミッツ 機械知覚のためのシステム及び方法
US10473921B2 (en) 2017-05-10 2019-11-12 Gerard Dirk Smits Scan mirror systems and methods
WO2019079750A1 (en) 2017-10-19 2019-04-25 Gerard Dirk Smits METHODS AND SYSTEMS FOR NAVIGATING A VEHICLE EQUIPPED WITH A NEW MILITARY MARKER SYSTEM
US10379220B1 (en) 2018-01-29 2019-08-13 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned LIDAR systems
JP7297694B2 (ja) * 2020-01-16 2023-06-26 株式会社東芝 システム及び方法
WO2021174227A1 (en) 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
IL276015B2 (en) * 2020-07-13 2023-10-01 Elta Systems Ltd System and methods for target detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330915A (ja) * 2000-05-23 2001-11-30 Olympus Optical Co Ltd 立体画像撮影方法及び撮影補助具
JP2002095016A (ja) * 2000-09-20 2002-03-29 Fuji Photo Film Co Ltd 画像撮像装置及び画像撮像方法
WO2007008715A2 (en) * 2005-07-07 2007-01-18 Ingenious Targeting Laboratory, Inc. System for 3d monitoring and analysis of motion behavior of targets

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69940442D1 (de) * 1999-01-06 2009-04-02 Hideyoshi Horimai Vorrichtung und verfahren zur dreidimensionalen bildaufnahme und vorrichtung und verfahren zur dreidimensionalen bildwiedergabe
JP3574044B2 (ja) 2000-03-23 2004-10-06 三洋電機株式会社 形状測定装置
JP2006284193A (ja) * 2005-03-31 2006-10-19 Alps Electric Co Ltd 三次元形状測定装置及び三次元形状測定方法
JP4579295B2 (ja) * 2005-07-25 2010-11-10 パイオニア株式会社 画像表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330915A (ja) * 2000-05-23 2001-11-30 Olympus Optical Co Ltd 立体画像撮影方法及び撮影補助具
JP2002095016A (ja) * 2000-09-20 2002-03-29 Fuji Photo Film Co Ltd 画像撮像装置及び画像撮像方法
WO2007008715A2 (en) * 2005-07-07 2007-01-18 Ingenious Targeting Laboratory, Inc. System for 3d monitoring and analysis of motion behavior of targets

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010025927A (ja) * 2008-07-18 2010-02-04 Mitsubishi Electric Research Laboratories Inc 物体の3d形状を求める装置および方法
CN108293106A (zh) * 2015-11-25 2018-07-17 株式会社电装 显示控制装置以及显示控制方法
CN108293106B (zh) * 2015-11-25 2020-08-18 株式会社电装 显示控制装置以及显示控制方法
WO2019012770A1 (ja) * 2017-07-11 2019-01-17 ソニーセミコンダクタソリューションズ株式会社 撮像装置及びモニタリング装置
US11320536B2 (en) 2017-07-11 2022-05-03 Sony Semiconductor Solutions Corporation Imaging device and monitoring device

Also Published As

Publication number Publication date
US20110001793A1 (en) 2011-01-06
JPWO2010004763A1 (ja) 2011-12-22
US8723928B2 (en) 2014-05-13
CN101796372A (zh) 2010-08-04
CN101796372B (zh) 2012-11-14
JP5450380B2 (ja) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5450380B2 (ja) 画像処理装置、集積回路、および画像処理方法
KR102101916B1 (ko) 시각적 방해물들을 통과하여 사진 찍기
JP7354133B2 (ja) 三次元深度検知及び二次元撮像のためのカメラ露出調節
US9196027B2 (en) Automatic focus stacking of captured images
JP5342036B2 (ja) 3d表面形状をキャプチャーするための方法
US10310219B2 (en) Imaging apparatus, imaging system that includes imaging apparatus, electron mirror system that includes imaging apparatus, and ranging apparatus that includes imaging apparatus
JP6860433B2 (ja) 処理装置、処理システム、方法及びプログラム
KR20120097368A (ko) 입체 이미지 캡처 방법, 시스템 및 카메라
EP3381015B1 (en) Systems and methods for forming three-dimensional models of objects
EP3685118B1 (en) Device and method for determining surface topology and associated color
JP3818028B2 (ja) 3次元画像撮像装置および3次元画像撮像方法
CN208536839U (zh) 图像采集设备
US20210248770A1 (en) Device
KR102087566B1 (ko) 표면 토폴로지 및 연관 컬러 결정을 위한 디바이스 및 방법
KR102460762B1 (ko) 이종 영상 일체형 카메라 장치
JP2009164950A (ja) 撮像システム
JP2007268029A (ja) 瞳孔検出装置及び方法
CN114353689A (zh) 一种基于双目单探测器的水下三维成像系统
JPH11136703A (ja) 画像抽出装置およびこれを用いた画像表示装置
KR101228939B1 (ko) 거리 측정 장치
Rutgers Natural illumination invariant imaging
JP2002290990A (ja) 観察者頭部位置検出装置及びそれを用いた立体映像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980100317.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2010504358

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09794210

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12677373

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09794210

Country of ref document: EP

Kind code of ref document: A1