WO2007114189A1 - 3次元色形状計測装置 - Google Patents

3次元色形状計測装置 Download PDF

Info

Publication number
WO2007114189A1
WO2007114189A1 PCT/JP2007/056720 JP2007056720W WO2007114189A1 WO 2007114189 A1 WO2007114189 A1 WO 2007114189A1 JP 2007056720 W JP2007056720 W JP 2007056720W WO 2007114189 A1 WO2007114189 A1 WO 2007114189A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
unit
image signal
color
image
Prior art date
Application number
PCT/JP2007/056720
Other languages
English (en)
French (fr)
Inventor
Hirotaka Asakura
Kenji Natsuhara
Original Assignee
Brother Kogyo Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Kogyo Kabushiki Kaisha filed Critical Brother Kogyo Kabushiki Kaisha
Publication of WO2007114189A1 publication Critical patent/WO2007114189A1/ja
Priority to US12/242,778 priority Critical patent/US7576845B2/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors

Definitions

  • the present invention relates to a three-dimensional color shape measuring apparatus that measures the color and three-dimensional shape of an object to be measured based on an image signal obtained by imaging the object to be measured by an imaging unit.
  • 3D color information is generated by measuring the color and shape of a measurement object by imaging the measurement object with light projected onto the measurement object, and generating 3D color shape information of the measurement object
  • Color shape measuring devices are known (for example, see Patent Document 1) o
  • This three-dimensional color measurement device is based on an imaging unit equipped with a CCD (Charge Coupled Device) or the like that images a measurement object, and an image signal that the imaging unit images and outputs the measurement object.
  • a measurement unit equipped with a computer that measures the color and 3D shape of the measured object, and a 3D model that reconstructs the 3D shape of the measured object based on the measurement results of the measurement unit. Equipped with a liquid crystal display panel that displays a 3D color image of the measurement object by pasting (texture mapping) an image (texture) that restores the color of the measurement object based on the measurement result of the measurement unit.
  • a display part With a display part.
  • tone correction (hereinafter referred to as "Gun") is applied to an image signal obtained by imaging an object to be measured by an imaging unit.
  • “macro correction” the color tone of the 3D color image of the object to be measured displayed on the display unit is made closer to the actual color tone.
  • Display devices such as displays, have non-linear characteristics in which the gradation (brightness) of the display image is not proportional to the voltage value of the input image signal. Specifically, the input voltage is When the input voltage is high, the brightness changes moderately when the input voltage is high, and the brightness changes abruptly when the input voltage is high.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-172610
  • this three-dimensional color shape measuring apparatus when measuring the three-dimensional shape of the measurement object, the measurement object is imaged by the imaging unit in a state where the measurement object is irradiated with the striped pattern light. At this time, the measurement unit measures the three-dimensional shape of the measurement object by detecting the stripe-like pattern boundary in the measurement object based on the image signal input to the imaging unit.
  • the image signal input to the measurement unit at this time is an image signal having nonlinear gradation characteristics after performing gamma correction, as shown in FIG. 35, the image signal after gamma correction is used.
  • the luminance distribution in the display image based on the image is higher than the luminance distribution based on the image signal having the linear gradation characteristic before the gamma correction is performed after removing the brightest part.
  • the actual pattern boundary (the intersection of the straight line indicating the threshold and the curve indicating the luminance distribution based on the image signal before gamma correction) and the pattern boundary (the straight line indicating the threshold) detected by the measurement unit.
  • the error u0 to u3 occurs at the intersection with the curve indicating the luminance distribution based on the image signal after gamma correction, and this error causes the measurement unit to create a 3D shape different from the actual 3 Since it is erroneously detected as a three-dimensional shape, there is a risk that the measurement accuracy of the three-dimensional shape is lowered and the three-dimensional shape of the object to be measured cannot be faithfully reproduced.
  • an object to be measured is imaged by the same imaging unit.
  • a three-dimensional color shape measuring device that measures the color and three-dimensional shape of an object to be measured based on the obtained image signal, and colorizes the image signal by a first correction according to the first gradation characteristics.
  • a measurement unit that converts the image signal into a shape measurement image signal by the second correction according to the second gradation characteristics and converts the image signal into the measurement image signal, and the object to be measured based on the shape measurement image signal. Based on a 3D model that restores the 3D shape and image signals for color measurement!
  • the color of the object to be measured can be accurately measured and reproduced.
  • the 3D shape of the object to be measured can be measured and reproduced with high accuracy.
  • the gradation characteristic may be a gamma characteristic.
  • the color and 3D shape of the object to be measured can be adjusted according to the display characteristics of the display device that displays the 3D image of the object to be measured that can only measure the 3D shape of the object to be measured with high accuracy. Image information that can be faithfully reproduced can be generated.
  • the three-dimensional color shape measuring apparatus of the present invention includes a pattern light projection unit that projects a predetermined pattern of pattern light onto the measurement object, and the correction unit is a pattern light generated by the pattern light projection unit.
  • the image pickup unit picks up the object to be measured and outputs a second correction according to the second gradation characteristics, and when the pattern light projection unit does not project the pattern light, the image pickup unit picks up the object to be measured.
  • the first correction may be performed on the output image signal according to the first gradation characteristic.
  • the second gradation characteristic may be a linear characteristic.
  • the second gradation characteristic may be a characteristic in which a part is linear and the other part is nonlinear.
  • At least one of the first correction and the second correction may be performed using a look-up table in which information before and after correction is associated. Good.
  • the size of the three-dimensional color shape measuring device can be reduced.
  • simplification can be achieved.
  • the image signal includes a plurality of types of color signals and luminance signals
  • the correction unit performs a first correction and a second correction for each color signal. It is good. With such a configuration, the color of the object to be measured can be measured with higher accuracy.
  • the image signal may be a luminance signal
  • the correction unit may be configured to first and second correct the luminance signal.
  • the correction unit may be configured to perform the second correction with an amplifier.
  • the desired correction characteristics for signal amplification by setting the amplification characteristics of the amplifier, eliminating the need for extra correction at the subsequent stage, and without complicating the configuration at the subsequent stage. This makes it possible to measure the three-dimensional shape of an object with higher accuracy.
  • the imaging unit and the correction unit are stored in the imaging unit, the color shape extraction unit is stored in the main device, and the correction unit has a first gradation characteristic.
  • the first correction unit that converts the image signal into the color measurement image signal by the first correction according to the first correction
  • the second correction unit that converts the image signal into the shape measurement image signal by the second correction according to the second gradation characteristic.
  • the imaging unit may be configured to output a color measurement image signal and a shape measurement image signal.
  • the imaging unit selects one of the first correction unit and the second correction unit and outputs an image signal to the selected correction unit. It is good also as a structure provided with the part. By adopting such a configuration, it is possible to reduce the processing burden on the main apparatus, in which the color measurement image signal and the shape measurement image signal are not input to the main apparatus at the same time. It is also possible to individually measure only the color of the object to be measured or only the 3D shape.
  • the main device selects one of the color measurement image signal and the shape measurement image signal output from the imaging unit, and the selected image A configuration with a selection unit that outputs a signal to the color shape extraction unit is also possible!
  • the main device selects one of the color measurement image signal and the shape measurement image signal output from the imaging unit, and the selected image A configuration with a selection unit that outputs a signal to the color shape extraction unit is also possible!
  • the imaging unit is housed in the imaging unit
  • the correction unit and the color shape extraction unit are housed in the main device
  • the correction unit includes the first gradation.
  • a first correction unit that converts an image signal to a color measurement image signal by a first correction according to the characteristics
  • a second correction unit that converts the image signal to a shape measurement image signal by a second correction according to the second gradation characteristics.
  • a configuration including two correction units is also possible.
  • the main device selects either the first correction unit or the second correction unit, and selects the image signal output from the imaging unit. It is good also as a structure provided with the selection part output to a correction
  • This configuration makes it possible to measure the color and 3D shape of the measurement object with high accuracy using a relatively inexpensive commercially available imaging unit that does not have a correction unit. Since the main device does not process the color measurement image signal and the shape measurement image signal at the same time, the processing load on the main device can be reduced. Only the color of the measurement object or only the 3D shape can be measured individually.
  • the correction unit includes a first correction unit that converts an image signal into an image signal for color measurement by a first correction according to the first gradation characteristics; A third correction unit that converts the color measurement image signal into the shape measurement image signal by the third correction according to the third gradation characteristic, and the imaging unit and the first correction unit are housed in the imaging unit, 3
  • the configuration may be such that the correction unit and the color shape extraction unit are housed in the main device.
  • a commercially available imaging device configured to perform gradation correction in advance according to the display characteristics of the display device.
  • the third gradation characteristic may be a gradation characteristic that becomes a linear characteristic by taking the product of the first gradation characteristic.
  • a three-dimensional color shape measuring apparatus capable of measuring and reproducing a three-dimensional shape of the measured object with high accuracy, as well as accurately measuring and reproducing the color of the measured object. can do.
  • FIG. 1 is an external perspective view showing a three-dimensional color shape measuring apparatus according to a first embodiment.
  • FIG. 2 is a plan view showing the internal configuration of the imaging head in FIG.
  • FIG. 3 is an enlarged plan view showing the projection unit in FIG. 2, an enlarged front view showing the light source lens in FIG. 2, and an enlarged front view showing the projection LCD and CCD in FIG.
  • FIG. 4 Side view for explaining the arrangement of the plurality of LEDs in FIG. 3, a graph showing the illuminance distribution individually realized by one LED, and a front view showing the plurality of LEDs , And a graph showing the combined illuminance distribution realized by these multiple LEDs
  • FIG. 5 is a block diagram conceptually showing the electrical configuration of the three-dimensional color shape measuring apparatus 1 shown in FIG. 1.
  • FIG. 6 is a functional block diagram showing the imaging unit of the first embodiment.
  • FIG. 7 is an explanatory diagram showing second gradation characteristics.
  • FIG. 8 is a flowchart conceptually showing main processing executed in the camera control program in FIG. 5.
  • FIG. 9 is a flowchart conceptually showing the digital camera processing executed in S605 in FIG. It is
  • FIG. 10 is a flowchart conceptually showing the webcam processing executed in S607 in FIG.
  • FIG. 11 is a flowchart conceptually showing the projection processing executed in S807 in FIG.
  • FIG. 12 is a flowchart conceptually showing stereoscopic image processing executed in S609 in FIG.
  • FIG. 13 is a plan view and a side view for explaining the principle of the spatial code method employed in the stereoscopic image processing of FIG. 12, and a plan view showing two sets of mask patterns.
  • FIG. 14 is a flowchart conceptually showing the three-dimensional shape detection processing executed in S 1006 in FIG. 12 as a three-dimensional shape detection processing routine.
  • FIG. 15 is a flowchart conceptually showing as an imaging processing subroutine executed in S1210 in FIG.
  • FIG. 16 is a flowchart schematically showing a three-dimensional measurement processing subroutine executed in S1220 in FIG.
  • FIG. 17 is a flowchart conceptually showing a code image generation program 36d executed in S1222 in FIG.
  • FIG. 18 is a flowchart schematically representing a binary image generating subroutine executed in S 107 in FIG.
  • FIG. 19 is a flowchart conceptually showing a three-dimensional color shape detection result generation subroutine executed in S1230 in FIG.
  • FIG.20 Coordinate transformation between 2D CCD coordinate system and 3D real space coordinate system by executing S1225 in Fig. 16, 2D LCD coordinate system and 3D real space coordinate system It is the side view and top view for demonstrating coordinate transformation in between. ⁇ 21] It is a functional block diagram showing an imaging unit of the second embodiment.
  • ⁇ 23 It is a functional block diagram showing the imaging unit of the third embodiment.
  • FIG. 25 is a functional block diagram showing an imaging unit of the fourth embodiment.
  • FIG. 26 is a block diagram conceptually showing the electrical configuration of the three-dimensional color shape measuring apparatus 1 of the fourth embodiment.
  • FIG. 27 is a flowchart showing an imaging process in the fourth embodiment.
  • FIG. 28 is a flowchart showing a code image generation process in the fourth embodiment.
  • FIG. 29 is a flowchart showing a binary key image generation process in the fourth embodiment.
  • FIG. 30 is a functional block diagram showing an imaging unit of a fifth embodiment.
  • FIG. 31 is a flowchart showing an imaging process in the fifth embodiment.
  • FIG. 32 is a flowchart showing a code image generation process in the fifth embodiment.
  • FIG. 33 is a flowchart showing a creation process of binary values in the fifth embodiment.
  • FIG. 34 is a flowchart showing a 3D color shape detection result generation process in the fifth embodiment.
  • FIG. 35 is an explanatory diagram showing measurement errors that occur when measuring a three-dimensional shape with a conventional three-dimensional color shape measuring device.
  • FIG. 1 shows an external perspective view of a three-dimensional color shape measuring apparatus 1 according to an embodiment of the present invention.
  • This three-dimensional color shape measuring apparatus 1 projects image light representing an image (also referred to as “image signal light”) onto a projection surface (for example, a plane, a screen, a desk surface, etc.) (normal projection) and Projection of striped pattern light onto the object to be measured (projection for acquiring 3D information), imaging of the object to be measured, and 3D information of the object to be measured (3D position information) , Including 3D shape information and color information). Therefore, the three-dimensional color shape measuring apparatus 1 is configured to include a projection unit 13, an imaging unit 14, and a processing unit 15, as shown in FIG.
  • the three-dimensional color shape measuring apparatus 1 operates according to a mode selected by the user from among a plurality of modes. These modes include a digital camera mode in which the 3D color shape measurement device 1 functions as a digital power camera, a webcam mode in which it functions as a web camera, and a 3D image (hereinafter referred to as a 3D image) by detecting the 3D shape of the measurement object.
  • 3D image mode for obtaining a flat image obtained by flattening a 3D image of an object to be measured such as a curved manuscript.
  • this three-dimensional color shape measuring apparatus 1 is used to detect the three-dimensional shape of the document P as a measurement object, particularly in the stereoscopic image mode and the planarized image mode. This is shown in a state in which the pattern light in the form of stripes consisting of alternating dark and dark areas is projected onto the original document P.
  • the projection unit 13 also functions as a pattern light projection unit that projects a predetermined pattern of pattern light onto the object to be measured.
  • the three-dimensional color shape measuring apparatus 1 includes an imaging head 2 having a substantially box shape, a pipe-shaped arm member 3 connected to the imaging head 2 at one end,
  • the base 4 is connected to the other end of the arm member 3 and is formed so as to be substantially L-shaped in plan view.
  • the arm member 3 and the base 4 cooperate with each other to function as a stand for holding the imaging head 2 in a cantilevered manner.
  • the imaging head 2 is configured such that the projection unit 13 and the imaging unit 14 are accommodated in a case.
  • this imaging head 2 is composed of a lens barrel 5, a viewfinder 6, and a flash. 7 in a posture in which each is partially exposed in front of the imaging head 2.
  • the imaging head 2 further includes an imaging optical system 21 that is a part of the imaging unit 14 in a posture in which a part of the lens is exposed in front of the imaging head 2.
  • the imaging optical system 21 receives image light representing the object to be measured at the exposed portion thereof.
  • the lens barrel 5 also projects the front force of the imaging head 2, and inside it, as shown in FIG. 2, a projection optical system 20 that is a part of the projection unit 13 is provided. Contained.
  • the lens barrel 5 holds the projection optical system 20 in a state where the projection optical system 20 can be moved as a whole for focus adjustment. Further, the lens barrel 5 protects the projection optical system 20 from damage.
  • a part of the lens of the projection optical system 20 that is a part of the projection unit 13 is exposed from the exposed end face of the lens barrel 5.
  • the projection optical system 20 projects image light or non-turn light toward the projection surface or the object to be measured at the exposed portion thereof.
  • the viewfinder 6 is constituted by an optical lens disposed so as to guide the incident light to the back surface of the imaging head 2 as well.
  • the image is displayed on the CCD (Charge Coupled Device) 22 (imaging plane), which is an example of the image sensor in the imaging optical system 21. You will be able to see the image in the area that almost matches the area where the image is formed!
  • the flash 7, for example, is a light source that emits light to supplement the insufficient light quantity in the digital camera mode, and is configured using a discharge tube filled with xenon gas. Therefore, the flash 7 can be used repeatedly by discharging a capacitor (not shown) built in the imaging head 2.
  • the imaging head 2 further includes a release button 8, a mode switching switch 9, and a monitor LCD (Liquid Crystal Device) 10 on the upper surface thereof.
  • a release button 8 a mode switching switch 9
  • a monitor LCD (Liquid Crystal Device) 10 on the upper surface thereof.
  • the release button 8 is operated by the user in order to operate the three-dimensional color shape measuring apparatus 1.
  • the release button 8 is composed of a two-stage pushbutton switch that can issue different commands depending on whether the user's operation state (pressed state) is “half-pressed” or “full-pressed”. ing.
  • the operation state of the release button 8 is monitored by the processing unit 15. If the processing unit 15 detects a “half-pressed state”, the well-known auto focus (AF) and auto exposure (AE) functions are activated, and the focus, iris, and shirt status are activated. The speed is adjusted automatically. On the other hand, if the processing unit 15 detects the “fully pressed state”, imaging or the like is performed.
  • the mode switching switch 9 is an operation mode of the three-dimensional color shape measuring apparatus 1, which is selected from a plurality of modes including the aforementioned digital camera mode, webcam mode, stereoscopic image mode, planarized image mode, and off mode. Operated by the user to set it as a miss.
  • the operation state of the mode switching switch 9 is monitored by the processing unit 15.
  • the processing unit 15 When the operation state of the mode switching switch 9 is detected by the processing unit 15, the processing power in the mode corresponding to the detected operation state is detected. This is performed on the three-dimensional color shape measuring apparatus 1.
  • the monitor LCD 10 is configured by using a liquid crystal display, and the processing unit 15 also receives an image signal and displays an image to the user.
  • the monitor LCD 10 displays, for example, a captured image in the digital camera mode or the webcam mode, a 3D shape detection result image in the stereoscopic image mode, a planarized image in the planarized image mode, and the like.
  • the imaging head 2 further includes an antenna 11 as an RF (wireless) interface, and a connecting member 12 that connects the imaging head 2 and the arm member 3 to each other.
  • an antenna 11 as an RF (wireless) interface
  • a connecting member 12 that connects the imaging head 2 and the arm member 3 to each other.
  • the antenna 11 is connected to the RF driver 24 as shown in FIG.
  • the antenna 11 wirelessly transmits captured image data acquired in the digital camera mode, stereoscopic image data acquired in the stereoscopic image mode, and the like to an external interface (not shown) via the RF driver 24.
  • the coupling member 12 couples the imaging head 2 and one end of the arm member 3 to each other by a screw mechanism in a detachable manner and a relative attachment angle being adjustable.
  • the connecting member 12 is formed, for example, as a ring having an internal thread formed on the inner peripheral surface, and is held on one side surface of the imaging head 2 so as to be rotatable and non-detachable.
  • a male screw is formed at one end of the arm member 3.
  • the imaging head 2 and the arm member 3 are detachably connected to each other. Therefore, if the imaging head 2 is detached from the arm member 3, it can be used as a normal digital camera.
  • the imaging head 2 can be fixed to one end of the arm member 3 at an arbitrary angle by screwing the female screw and the male screw together. wear.
  • the arm member 3 is configured by a material or a mechanism that can be bent into an arbitrary shape and that does not recover unless an external force is applied. As a result, the arm member 3 can hold the imaging head 2 attached thereto so that the position and orientation of the imaging head 2 can be arbitrarily adjusted.
  • the arm member 3 is constituted by, for example, a bellows-like pipe that can be bent into an arbitrary shape.
  • the base 4 is connected to the other end of the arm member 3 as described above.
  • the base 4 is mounted on a mounting table such as a desk and supports the imaging head 2 and the arm member 3. Since the base 4 is formed so as to have a substantially L shape in plan view, the imaging head 2 and the arm member 3 can be supported with high stability for the weight. Further, since the arm member 3 and the base 4 are detachably connected to each other, for example, by separating the arm member 3 and the base 4 from each other before transporting and storing, the arm member 3 and the base 4 are separated. It is possible to arbitrarily change the shape of the space occupied by the base 4 and the base 4, so that it is possible to easily improve the transportability and reduce the storage space.
  • FIG. 2 conceptually shows the internal configuration of the imaging head 2.
  • the imaging head 2 mainly includes the projection unit 13, the imaging unit 14, and the processing unit 15.
  • the projection unit 13 is a unit for projecting arbitrary image light (projection image) or pattern light onto the projection surface or the measurement object. As shown in FIG. 2, the projection unit 13 includes a substrate 16, a plurality of LEDs (Light Emitting Diodes) 17 (hereinafter, these arrays are referred to as “LED arrays 17 A”), a light source lens 18, A projection LCD 19 and a projection optical system 20 are provided in series along the projection direction. Details of the projection unit 13 will be described later with reference to FIG.
  • LEDs 17 A Light Emitting Diodes
  • the imaging unit 14 is for imaging a document P as a measurement object. As shown in FIG. 2, the imaging unit 14 includes an imaging optical system 21 and a CCD 22 in series along the incident direction of image light.
  • the imaging optical system 21 is configured using a plurality of lenses. This imaging optical system 21 forms an image of light from the outside on the CCD 22 by automatically adjusting the focal length and the diaphragm by a well-known autofocus function.
  • CCD (Charge Coupled Device) 22 is a photoelectric conversion element such as a photodiode element. They are arranged in a matrix. The CCD 22 generates a signal (hereinafter also referred to as an image signal) corresponding to the light color and intensity of an image formed on the surface of the CCD 22 via the imaging optical system 21 for each pixel. . The generated signal is converted into digital data and output to the processing unit 15.
  • the processing unit 15 is electrically connected to the flash 7, the release button 8, and the mode switching switch 9, respectively.
  • the processing unit 15 is electrically connected to the monitor LCD 10 through the monitor LCD driver 23, the antenna 11 through the RF driver 24, and the battery 26 through the power interface 25. Yes.
  • the processing unit 15 is further electrically connected to the external memory 27 and the cache memory 28, respectively.
  • the processing unit 15 is further electrically connected to the LED array 17A via the light source driver 29, projected to the CD 19 via the LCD driver 30, and connected to the CCD 22 via the CCD interface 31. .
  • These flashes 7 and the like are controlled by the processing unit 15.
  • the CCD 22 and the CCD interface 31 constitute an imaging unit 60.
  • the external memory 27 is a detachable flash ROM (Read Only Memory) that stores captured images and three-dimensional information captured in the digital camera mode, webcam mode, and stereoscopic image mode! Is possible.
  • a detachable flash ROM Read Only Memory
  • an SD card, a Compact Flash (registered trademark) card, or the like can be used.
  • the cache memory 28 is a storage device that reads and writes data at high speed.
  • the cache memory 28 is used, for example, to transfer a captured image captured in the digital camera mode to the cache memory 28 at high speed, and to perform image processing in the processing unit 15 and store it in the external memory 27. Is done.
  • an SD RAM Synchronous Dynamic Random Access Memory
  • DDRRAM Double Data Rate Random Access Memory
  • the power supply interface 25, the light source dryer 29, the projection LCD driver 30 and the CCD interface 31 are respectively provided by various integrated circuits (ICs) that control the battery 26, the LED array 17A, the projection LCD 19 and the CCD 22. It is configured.
  • ICs integrated circuits
  • FIG. 3 (a) shows the projection unit 1.
  • 3 is an enlarged view of FIG. 3
  • FIG. 3 (b) is a front view of the light source lens 18
  • FIG. 3 (c) is a front view for explaining the positional relationship between the projection LCD 19 and the CCD 22.
  • the projection unit 13 transmits the substrate 16, the LED array 17A, the light source lens 18, the projection LCD 19, and the projection optical system 20 to the pattern light. In line with the projection direction.
  • the substrate 16 is electrically connected to the mounted LED array 17A by mounting the LED array 17A thereon.
  • an insulating synthetic resin is applied to an aluminum substrate and a pattern is formed by electroless plating, or a single-layer or multi-layer substrate having a glass epoxy base as a core is used. Can be produced.
  • the LED array 17A is a light source that emits radial light toward the projection LCD 19.
  • a plurality of LEDs (light emitting diodes) 17 are bonded on a substrate 16 through a silver paste in a staggered arrangement as shown in FIG. 3 (b). .
  • the substrate 16 and the plurality of LEDs 17 are electrically connected via bonding wires. The effect of arranging a plurality of LEDs 17 in a staggered manner will be described in detail later with reference to FIG.
  • the LED 17 has an extremely low heat ray generation rate as compared with a halogen lamp or the like, and therefore, a synthetic resin lens can be used for the light source lens 18 and the projection optical system 20. Therefore, the light source lens 18 and the projection optical system 20 can be configured at low cost and light weight compared to the case where a glass lens is employed.
  • the LEDs 17 constituting the LED array 17A emit light of the same color, and specifically, four elements of Al, In, Ga, and P are used as materials. It is configured to emit a single color. Therefore, when emitting multiple colors of light Since it is not necessary to consider correction of chromatic aberration, which is a problem that must be considered, it is not necessary to employ an achromatic lens in the projection optical system 20 in order to correct chromatic aberration. As a result, the degree of freedom in designing the projection optical system 20 can be improved.
  • a four-element material amber color LED having an electro-optic conversion efficiency of about 80 [lumenZW], which is higher than other emission colors, is adopted.
  • the device 1 can easily achieve high brightness, power saving, and long life.
  • the LED array 17A is composed of 59 LEDs 17, and each LED 17 is driven at 50 [mW] (20 [mA], 2.5 [V]). The entire 59 LEDs 17 are driven with a power consumption of approximately 3 [W].
  • the brightness of the emitted light from the projection unit 13 of the three-dimensional color shape measuring apparatus 1 is selected to that extent, for example, when the object to be measured is a human or animal face
  • the measurement object does not have to be dazzled. Therefore, according to this embodiment, when the object to be measured is a person or an animal, it becomes easy to detect the three-dimensional shape of the object to be measured without the eye-catching object. .
  • the light source lens 18 is a lens that collects light emitted radially from the LED array 17A, and the material thereof is an optical resin typified by acrylic.
  • the light source lens 18 includes a plurality of convex lens portions 18a, a base portion 18b that supports the lens portions 18a, an epoxy sealing material 18c, Positioning pins 18d.
  • each lens portion 18a protrudes from the base portion 18b toward the projection LCD 19 at a position of the base portion 18b facing each LED 17 of the LED array 17A.
  • the epoxy sealing material 18c is filled in the concave portion 18e in which the LED array 17A is to be airtightly accommodated in the base portion 18b, whereby the LED array 17A is sealed in the concave portion 18e.
  • This epoxy sealing material 18c has the sealing function of the LED array 17A. It also has a function of bonding the substrate 16 and the light source lens 18 to each other.
  • a plurality of positioning pins 18d are provided on the light source lens 18 so that the light source lens 18 and the substrate 16 are positioned relative to each other. Projecting toward As shown in FIG. 3 (b), a part of the plurality of positioning pins 18d is inserted into the long hole 16a formed in the substrate 16, while the rest is a true hole formed in the substrate 16. Inserted in the circular hole 16b, the light source lens 18 is not applied to the substrate 16 and fixed in a proper position.
  • the light source lens 18, the LED array 17A, and the substrate 16 are spatially packed in the projection direction and stacked on each other. Three-dimensional compactness and space saving are easy.
  • the substrate 16 fulfills an additional function of holding the light source lens 18 in addition to the basic function of holding the LED array 17A. Therefore, according to the present embodiment, the addition of components that exclusively hold the light source lens 18 can be omitted, and as a result, the number of components of the three-dimensional color shape measuring apparatus 1 can be easily reduced.
  • each lens portion 18a is arranged to face each LED 17 of the LED array 17A in a one-to-one relationship. . Therefore, the radial light emitted from each LED 17 is efficiently collected by each lens unit 18 facing each LED 17 and irradiated onto the projection LCD 19 as highly directional radiation as shown in FIG. It is done.
  • the directivity is improved in this way because if the light is incident on the projection LCD 19 substantially vertically, the unevenness of the transmittance in the plane of the projection LCD 19 can be suppressed and the image quality can be improved. is there.
  • the projection optical system 20 is a plurality of lenses for projecting light that has passed through the projection LCD 19 onto the projection surface or the object to be measured. These lenses are constituted by a telecentric lens that is a combination of a glass lens and a synthetic resin lens. Telecentric means a configuration in which the principal ray passing through the projection optical system 20 is parallel to the optical axis in the incident side space, and the position of the exit pupil is infinite.
  • the projection optical system 20 has telecentric characteristics as described above, and its incident NA is about 0.1. Therefore, the optical path of the projection optical system 20 is restricted so that only light within a vertical range of ⁇ 5 ° can pass through the diaphragm inside the projection optical system 20.
  • the image quality can be combined with the configuration in which only light passing through the projection LCD 19 at a vertical angle of ⁇ 5 ° can be projected onto the projection optical system 20. Can be easily improved.
  • the light emission angles from the LEDs 17 are aligned so that the light emitted from the LEDs 17 is incident on the projection LCD 19 substantially perpendicularly, and each LED 17 It is important that most of the light emitted from the light enters the projection optical system 20 within an incident angle range of ⁇ 5 ° perpendicular.
  • the projection LCD 19 spatially modulates the light collected through the light source lens 18 and outputs the pattern light toward the projection optical system 20. It is a modulation element.
  • the projection LCD 19 is configured by a plate-like liquid crystal display (Liquid Crystal Display) whose aspect ratio is not 1: 1.
  • this projection LCD 19 a plurality of pixels constituting the projection LCD 19 are arranged in a staggered pattern on one plane. Specifically, in this projection LCD19, a plurality of pixel rows arranged at equal intervals at a predetermined pixel pitch in the longitudinal direction (lateral direction) of the liquid crystal display are arranged in parallel. Two adjacent pixel columns are shifted in the longitudinal direction of the liquid crystal display with a length shorter than the pixel pitch.
  • the plurality of pixels constituting the projection LCD 19 are arranged in a staggered manner, the light subjected to spatial modulation by the projection LCD 19 is described in the longitudinal direction of the projection LCD 19. It can be controlled with a 1Z2 pixel pitch. Therefore, according to the present embodiment, it is possible to control the projection pattern light at a fine pitch, and thus it is possible to detect the three-dimensional shape of the measurement object with high resolution and high accuracy.
  • Fig. 1 in which the three-dimensional shape of the object to be measured is detected, the bright and dark portions are alternately displayed. Side-by-side stripe pattern light is projected toward the object to be measured.
  • the direction in which a plurality of stripes (bright parts or dark parts) are arranged in the pattern light (the width of each stripe).
  • the pattern light is predefined so that the direction) coincides with the longitudinal direction of the projection LCD 19. Therefore, the boundary between the bright part and the dark part in the pattern light can be controlled with a 1Z2 pitch, and thus a three-dimensional shape can be detected with high accuracy as well.
  • FIG. 3 (c) the projection LCD 19 and the CCD 22 are shown side by side!
  • the projection LCD 19 and the CCD 22 are located on the front side of the paper.
  • the light is incident on the projection LCD 19 from the back side of the paper, the manual side force light on the paper is incident on the CCD 22, and the object image is formed on the CCD 22.
  • the projection LCD 19 and the CCD 22 are arranged in the layout shown in FIG. 3C inside the imaging head 2. Specifically, the projection LCD 19 and the CCD 22 are arranged so that the wide surface of the projection LCD 19 and the wide surface of the CCD 22 face substantially the same direction. Therefore, according to the present embodiment, the projection LCD 19 forms an image of the reflected light from the measurement object onto which the pattern light is projected, on the CCD 22 in the three-dimensional color shape measurement apparatus 1, thereby forming the three-dimensional shape of the measurement object. In order to detect this, a straight line connecting the center of the projection LCD 19 and the center of the CCD 22 can be used as one of the three sides of interest when performing triangulation.
  • the CCD 22 is arranged on the side of the projection LCD 19 that is positioned in the longitudinal direction (the side that is positioned in the direction in which the pixel column extends). Therefore, in particular, when detecting the 3D shape of the object to be measured using the principle of triangulation in the stereoscopic image mode or the planarized image mode, the inclination between the CCD 22 and the object to be measured is 1Z2 Since it can be controlled by the pitch, the three-dimensional shape of the object to be measured can be detected with high accuracy.
  • the projection LCD 19 employs a staggered arrangement as the pixel arrangement, the pattern light in which a plurality of stripes are arranged at the same interval as the arrangement of the pixels in the pixel column, that is, a staggered pattern. It becomes possible to form another pattern light having a narrower interval between the stripes than the narrowest one among the plural types of standard pattern light formed without using the array. Therefore, according to the present embodiment, when the standard pattern light types are n types, it is possible to handle (n + 1) -bit spatial codes. The accuracy of detecting the 3D shape is improved.
  • FIG. 4A is a side view showing the three-dimensional shape of the light emitted from the light source lens 18.
  • FIG. 4 (b) is a graph showing the illuminance distribution of light incident from one LED 17 on the incident surface 19a of the projection LCD 19.
  • FIG. 4 (c) is a front view showing the arrangement of the LED array 17A partially enlarged.
  • FIG. 4 (d) is a graph showing a composite illumination distribution of a plurality of lights incident on the incident surface 19 a of the projection LCD 19 from the plurality of LEDs 17.
  • the light source lens 18 is designed to reach the incident surface 19a of the projection LCD 19.
  • the plurality of LEDs 17 are arranged on the substrate 16 in a zigzag manner in accordance with the zigzag arrangement of pixels in the projection LCD 19. More specifically, a plurality of LED rows in which a plurality of LEDs 17 are arranged in series in the horizontal direction at a pitch d are arranged in parallel in the vertical direction at a pitch equal to 3Z2 times the pitch d. Further, two LED columns adjacent to each other in the vertical direction are shifted from each other in the horizontal direction with a length equal to the pitch d.
  • the arrangement of the LEDs 17 is a triangular lattice arrangement, and the V, misaligned LED 17 is also equal to the pitch d from another neighboring misaligned LED 17! /, The distance. They are separated.
  • the length force of pitch d is equal to or less than the full width at half maximum (FWHM (Full Width Half Maximum)) of the illuminance distribution given to the projection LCD 19 by the light emitted from one LED 17 Pre-set so that
  • the combined illuminance distribution of the light that passes through the light source lens 18 and reaches the incident surface 19a of the projection LCD 19 has a substantially straight line with a small ripple as shown in FIG.
  • the entire incident surface 19a of the projection LCD 19 is irradiated with light substantially uniformly. Therefore, according to the present embodiment, uneven illuminance in the projection LCD 19 is suppressed, and as a result, image light is projected onto the projection surface with high quality, and no-turn light is projected onto the measurement object with high quality. .
  • FIG. 5 is a block diagram showing the electrical configuration of the three-dimensional color shape measuring apparatus 1.
  • the processing unit 15 is mainly composed of a computer, and the computer is a CPU (Centr al Processing Unit) 35, ROM 36, and RAM 37.
  • CPU Central Processing Unit
  • the CPU 35 By executing the program stored in the ROM 36 while using the RAM 37, the CPU 35 detects the operation state of the release button 8, captures the image data from the CCD 22, and captures the captured image data. Performs various processes such as transfer and storage, and detection of the operating state of the mode switch 9.
  • the ROM 36 includes a camera control program 36a, a pattern light photographing program 36b, a luminance image generation program 36c, a code image generation program 36d, a code boundary extraction program 36e, a lens aberration correction program 36f, A triangulation calculation program 36g, a document orientation calculation program 36h, and a plane conversion program 36i are stored.
  • the camera control program 36a is executed in order to execute control of the entire three-dimensional color shape measuring apparatus 1, and the control includes main processing conceptually shown in the flowchart of FIG.
  • the pattern light imaging program 36b captures the object to be measured on which the pattern light is projected in order to detect the three-dimensional shape of the document P, obtains an image with pattern light, and further, the pattern light is projected. Of course, it is executed to capture an image of the object to be measured and obtain a non-patterned light image.
  • the luminance image generation program 36c calculates the difference between the pattern light existence image and the pattern light no image obtained by executing the pattern light photographing program 36b and projects the pattern light. This is executed to generate a luminance image representing the measured object.
  • a plurality of types of pattern light are sequentially projected onto the same object to be measured in time series, and the object to be measured is imaged each time each pattern light is projected.
  • the difference between each of the plurality of patterned light images taken in this way and the non-patterned light image is obtained, and as a result, the same number of luminance images as the types of patterned light are generated.
  • the code image generation program 36d assigns a spatial code to each pixel from the binarized image generated by the threshold processing for each of the plurality of luminance images generated by the execution of the luminance image generation program 36c. Executed to generate a coded image
  • this code image generation program 36d when this code image generation program 36d is executed, a plurality of types are generated.
  • the interval between the pattern lines in the brightness image of the object to be measured is obtained as a period, and the distribution of the entire brightness image in that period is acquired as a period distribution. Is done.
  • variable window whose size changes in accordance with the acquired periodic distribution is set locally in the luminance image for each pattern light, whereby The threshold value is calculated and set locally for the entire luminance image by filtering using a variable window.
  • a binary image is generated for each pattern light from the relationship between the threshold image representing the threshold distribution set in this way and the luminance image for each pattern light.
  • the code boundary extraction program 36e uses the code image generated by the execution of the code image generation program 36d and the luminance image generated by the execution of the luminance image generation program 36c. This is executed to obtain subpixel accuracy.
  • the lens aberration correction program 36f is executed to correct the aberration of the imaging optical system 21 with respect to the code boundary coordinates obtained with the subpixel accuracy by the execution of the code boundary extraction program 36e.
  • the triangulation calculation program 36g is executed to calculate the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the aberration correction by the execution of the lens aberration correction program 36f.
  • the document orientation calculation program 36h is executed to estimate and determine the three-dimensional shape of the document P from the three-dimensional coordinates calculated by the execution of the triangulation calculation program 36g.
  • the plane conversion program 36i generates a flattened image as generated when the front force of the document P is also imaged based on the three-dimensional shape of the document P calculated by the execution of the document orientation calculation program 36h. To be executed.
  • the RAM 37 includes a pattern light existence image storage unit 37a, a pattern light no image storage unit 37b, a luminance image storage unit 37c, a code image storage unit 37d, and a code boundary.
  • Coordinate storage unit 37e, aberration correction coordinate storage unit 37g, 3D coordinate storage unit 37h, document orientation calculation result storage unit 37i, plane conversion result storage unit 37j, projection image storage unit 37k, working An area 371, a periodic distribution storage unit 37p, a threshold image storage unit 37q, and a binarized image storage unit 37r are allocated as storage areas.
  • the non-turned light image storage unit 37a stores the patterned light image data representing the patterned light image captured by the execution of the patterned light imaging program 36b.
  • the pattern light no-image storage unit 37b stores pattern light no-image data representing the pattern light no-image captured by the execution of the pattern light photographing program 36b.
  • the luminance image storage unit 37c stores data representing the luminance image generated by the execution of the luminance image generation program 36c.
  • the code image storage unit 37d stores data representing a code image generated by the execution of the code image generation program 36d.
  • the code boundary coordinate storage unit 37e stores data representing the boundary coordinates of each code extracted with subpixel accuracy by the execution of the code boundary extraction program 36e.
  • the aberration correction coordinate storage unit 37g stores data representing the boundary coordinates of the code whose aberration has been corrected by executing the lens aberration correction program 36f.
  • the three-dimensional coordinate storage unit 37h stores data representing the three-dimensional coordinates of the real space calculated by executing the triangulation calculation program 36g.
  • the document orientation calculation result storage unit 37i stores parameters related to the three-dimensional shape of the document P calculated by the execution of the document orientation calculation program 36h.
  • the plane conversion result storage unit 37j stores data representing the plane conversion result acquired by executing the plane conversion program 36i.
  • the projection image storage unit 37k stores the projection image that the projection unit 13 projects onto the object to be measured, that is, information related to the pattern light.
  • the working area 371 stores data temporarily used by the CPU 35 for its operation.
  • the periodic distribution storage unit 37p, the threshold image storage unit 37q, and the binary image storage unit 37r represent the periodic distribution, the threshold image, and the binarized image acquired by executing the code image generation program 36d. Store each data.
  • the imaging unit 60 of the first embodiment includes a CCD 61 that functions as an imaging unit, an amplifier 62 that amplifies an image signal that the CCD 61 images and outputs a measurement object, and an amplifier.
  • a / D converter 63 that converts the analog image signal amplified in step 62 from analog to digital, and the to-be-measured object by performing gradation correction on the image signal input from A / D converter 63
  • the color measurement image signal for measuring and restoring the color of the image and the correction unit 66 that generates the shape measurement image signal for measuring and restoring the three-dimensional shape of the object to be measured and outputs it to the main unit are stored. And then.
  • the CCD interface 31 is configured by the amplifier 62, the A / D converter 63, and the correction unit 66, and an image signal is output to the main device of the CCD interface 31.
  • the main device of the first embodiment has the color of the measurement object restored based on the color measurement image signal input from the imaging unit 60 and the shape input from the input from the imaging unit 60. It contains a color shape extraction unit that restores a 3D image of the object to be measured using a 3D model obtained by restoring the 3D shape of the object to be measured based on the measurement signal.
  • the correction unit 66 includes a first correction circuit 64 that converts the image signal input from the A / D converter 63 into an image signal for color measurement by the first correction according to the first gradation characteristic, The correction circuit 64 amplifies the color measurement image signal output from the correction circuit 64 and outputs it to the main device.
  • a second correction circuit 65 that converts the image signal input from 63 into a shape measurement image signal, and an amplifier 65a that amplifies the shape measurement image signal output from the second correction circuit 65 and outputs the amplified image signal to the main unit.
  • a second correction unit is included in the main unit.
  • the first gradation characteristic means the first gradation characteristic is a nonlinear gamma characteristic that matches the nonlinear display characteristic of the monitor LCD 10, and the second gradation characteristic is at least Gamma characteristics that have linear characteristics in one part and nonlinear or linear in other parts.
  • the second gradation characteristics there are three characteristic patterns as shown in Fig. 7.
  • the distribution characteristics of the luminance of the image captured by the CCD 22 are characterized.
  • One characteristic pattern selected according to is used.
  • FIG. 7 (a) a characteristic pattern having a linear characteristic as a whole is shown. If the image has a low brightness ( ⁇ ,) part and a high brightness! (Bright! /,) Part! /, And there is also a shift, perform the second correction according to this characteristic pattern. .
  • FIGS. 7 (b) and 7 (c) show a characteristic pattern having a linear characteristic in a part, and when a captured image does not have a very high luminance part. If the second correction is performed according to the characteristic pattern shown in Fig. 7 (b) and there is no part with very high luminance and part with very low luminance, the second correction is performed according to the characteristic pattern shown in Fig. 7 (c). Make corrections.
  • the dynamic range of the shape measurement image signal can be increased by generating the shape measurement image signal by the second correction according to the characteristic pattern having a linear characteristic in part.
  • the three-dimensional shape of the object to be measured can be measured more precisely, and an image signal for shape measurement that can faithfully reproduce the actual shape of the object to be measured can be generated.
  • the first correction unit is a unit that operates the first correction circuit 64 and the amplifier 64a to convert an image signal into an image signal for color measurement and outputs the image signal.
  • the projection unit 13 functions as a pattern light projection unit 13 When the pattern light is not projected, the CCD22, which is the imaging unit, images the object to be measured and outputs the image signal to the color measurement image signal by performing the first correction according to the first gradation characteristics for the image signal output. To convert.
  • the image signal corrected by the first correction unit includes a plurality of types of color signals and luminance signals, and the first correction unit performs the first correction for each color signal included in the image signal. At the same time, the first correction is also performed on the luminance signal included in the image signal.
  • the second correction unit is a unit that operates the second correction circuit 65 and the amplifier 65a to output an image signal for shape measurement, and the pattern light projection of the projection unit 13 that functions as the pattern light projection unit.
  • the CCD 22 as an imaging unit performs a second correction on the image signal output by imaging the object to be measured in accordance with the second gradation characteristics, and converts the image signal into a shape measurement signal.
  • the image signal corrected by the second correction unit includes a plurality of types of color signals and luminance signals, and the second correction unit performs the second correction for each color signal included in the image signal. In addition, the second correction is also performed on the luminance signal included in the image signal.
  • the main apparatus selects one of the color shape measurement image signal and the shape measurement image signal output from the imaging unit 60, and outputs the selected image signal to the color shape extraction unit.
  • a selection unit is provided. Regarding the selection of the image signal by the selection unit, when the pattern light imaging program 36b is executed in the processing unit 15, either the color shape measurement image signal or the shape measurement image signal is controlled by the CPU 35. Is selected. That is, in the main apparatus, the processing unit 15 has the function of this selection unit.
  • the first correction unit and the main device are controlled by the CPU 35. Are connected to select an image signal for color measurement.
  • the main apparatus when the pattern light imaging program 36b is executed by the processing unit 15 to acquire a pattern light existence image, the second correction unit and the main apparatus are connected by the control of the CPU 35, and the shape is obtained. A measurement image signal is selected.
  • the image pickup unit 60 is provided with the correction unit including the first correction unit and the second correction unit, and the main device is provided with the selection unit.
  • the processing unit 15 of the main unit does not need to perform processing to correct the image signal.
  • the processing burden of the unit 15 can be reduced, and high-speed processing of the 3D color shape measurement process by the 3D color shape measurement apparatus 1 can be achieved.
  • the camera control program 36a will be described with reference to FIG.
  • the camera control program 36a is executed by the computer, whereby main processing is executed.
  • step S601 (hereinafter, simply referred to as "S601". The same applies to other steps), the power source including the battery 26 is turned on. .
  • step S602 the processing unit 15, peripheral interfaces, etc. are initialized.
  • a key scan is performed to determine the operation state of the mode switching switch 9, and then in S604, it is determined whether or not the digital force measurement mode is selected by the operation of the mode switching switch 9. Is done. This time, if it is assumed that the digital camera mode is selected, the determination is Yes, and the digital camera processing described later is executed in S605. [0140] On the other hand, if it is assumed that the digital camera mode has not been selected by operating the mode switching switch 9, the determination in S604 is No. In S606, the webcam mode is changed by operating the mode switching switch 9. It is determined whether or not it has been selected. If it is assumed that the webcam mode is selected this time, the determination is yes, and the webcam process described later is executed in S607.
  • the determination in S606 is No, and the stereoscopic image mode is selected by operating the mode switching switch 9 in S608. It is determined whether or not it has been done. This time, if it is assumed that the stereoscopic image mode is selected, the determination is yes, and in S609, the stereoscopic image processing described later is executed.
  • the determination in S610 is No, and in S612, the off mode is operated by operating the mode switching switch 9. It is determined whether or not the selected force has been selected. This time, if it is assumed that the off mode is selected by operating the mode switch 9, the judgment is Yes and the main processing immediately ends this time. This time, the off mode is selected by operating the mode switch 9. If it is assumed that is not selected, the determination is yes, and the process returns to S603.
  • S605 in FIG. 8 is conceptually represented by a flowchart as a digital camera processing routine. By executing this digital camera processing routine, a digital camera process for acquiring an image captured by the imaging unit 14 is performed.
  • the finder image that is, the same image as the image in the range visible through the finder 6 is displayed on the monitor LCD 10. Therefore, the user looks through the viewfinder 6. Monitor without entering the image By looking at the image displayed on the LCD 10, the captured image (imaging range) can be confirmed before actual imaging.
  • S703a the operation state of the release button 8 is scanned.
  • S703b whether or not the release button 8 is half-pressed is determined based on the scan result. Determined. If it is in the half-pressed state, the determination is yes, and in S703c, the auto focus (AF) and auto exposure (AE) functions are activated, thereby adjusting the focus, aperture, and shirt speed.
  • S703b it is determined whether or not the release button 8 has been half-pressed. If not, the determination in S703b is No and the process returns to S703a.
  • the determination in S703e is Yes, and it is determined in S704 whether or not the flash mode is selected. If the flash mode is selected, the determination is yes and flash 7 is emitted in S705. If the flash mode is not selected, the determination in S704 is no and S705 is skipped.
  • the object to be measured is then imaged in S706.
  • the captured image obtained by capturing the object to be measured is transferred from the CCD 22 to the cache memory 28 and stored therein.
  • the captured image stored in the cache memory 28 is displayed on the monitor LCD 10.
  • the captured image since the captured image is transferred to the cache memory 28, the captured image can be displayed on the monitor LCD 10 at a higher speed than when the captured image is transferred to the main memory.
  • the captured image is stored in the external memory 27 in S709.
  • S710 it is determined whether or not the operation state of the mode switching switch 9 has changed. If there is no change, the judgment is Yes, and the force to return to S702. If there is a change, S710 The determination power No is obtained, and this digital camera processing is terminated.
  • S607 in FIG. 8 is conceptually represented in a flowchart as a webcam processing routine.
  • webcam processing for transmitting captured images (including still images and moving images) taken by the imaging unit 14 to an external network is executed.
  • captured images including still images and moving images
  • an external network not shown
  • a moving image is transmitted as a captured image to an external network (not shown) (for example, the Internet).
  • a low resolution setting signal is transmitted to the CCD 22 in S801.
  • autofocus and autoexposure functions are activated, thereby adjusting the focus, aperture, and shirt speed.
  • an object to be measured is imaged in S803.
  • the captured image is stored in the projection image storage unit 37k.
  • a projection process described later is executed, whereby the image stored in the projection image storage unit 37k is projected onto the projection plane.
  • the captured image transferred to the cache memory 28 is transmitted to the external network via an RF interface (not shown).
  • FIG. 11 conceptually shows a flowchart of S807 in FIG. 10 as a projection processing routine.
  • this projection routine By executing this projection routine, a projection process for projecting the image stored in the projection image storage unit 37k from the projection unit 13 onto the projection plane is executed.
  • this projection process first, in S901, it is determined whether or not the image is stored in the projection image storage unit 37k. If it is not stored, the determination is no and the current projection process is immediately terminated. On the other hand, if it is stored, the determination is yes, and the image stored in the projection image storage unit 37k is transferred to the projection LCD driver 30 in S902. Subsequently, in S903, an image corresponding to the stored image is displayed. A signal is sent from the projection LCD dryer 30 to the projection LCD 19, whereby an image is displayed on the projection LCD 19.
  • the light emitted from the LED array 17A reaches the projection LCD 19 via the light source lens 18.
  • the projection LCD 19 spatial modulation is performed according to the image signal transmitted from the projection LCD driver 30, and as a result, the incident light on the projection LCD 19 is converted into image signal light and output.
  • the image signal light output from the projection LCD 19 is projected as a projection image on the projection surface via the projection optical system 20.
  • S609 in FIG. 8 is conceptually represented by a flowchart as a stereoscopic image processing routine.
  • this stereoscopic image processing routine By executing this stereoscopic image processing routine, the three-dimensional shape of the object to be measured is detected, and the three-dimensional shape detection result image as the stereoscopic image is acquired, displayed, and projected.
  • a finder image is displayed on monitor LCD 10 in S1002.
  • the operation state of the release button 8 is scanned, and then in S1003b, it is determined whether or not the release button 8 is in a half-pressed state based on the scan result. If it is half-pressed, the determination is yes, and the autofocus (AF) and autoexposure (AE) functions are activated in S1003c.
  • AF autofocus
  • AE autoexposure
  • the determination in S1003e becomes Yes, and it is determined in S1003f whether or not the flash mode is selected. If the flash mode is selected, the determination is yes, and in S1003g, flash 7 is If the flash mode is not selected, the judgment of S1003f is No and S1003g is skipped. In any case, the object to be measured is then imaged in S1003h.
  • the 3D shape detection result obtained by the 3D shape detection processing is stored in the external memory 27.
  • the 3D shape detection result is converted into a 3D computer graphic image (covered image). It is displayed on the monitor LCD10 as a 3D image of the measurement object.
  • the three-dimensional shape detection result means a set of vertex coordinates acquired as a result of converting a plurality of spatial code boundary images detected in a spatial code image, which will be described later, into three-dimensional coordinates.
  • FIG. 13 (a) shows a real space with the 3D coordinate system XYZ set in the direction of the Y coordinate axis, a view in the direction of the X coordinate axis, and three types of masks ⁇ , ⁇ ⁇ ⁇ using pure binary codes. And the C pattern.
  • Fig. 13 (b) shows three types of masks ⁇ , ⁇ , and C, and a plurality of spatial codes.
  • the spatial code method is a projection light source that projects an observation image that is an image of a measurement object to be observed and light (diffuse light) onto the measurement object.
  • Eg projector Is a type of technique that detects the three-dimensional shape of an object to be measured by applying the principle of triangulation between the object and the observation device (eg, camera) that observes the object to be measured.
  • the projection light source L PROJECTOR
  • CA MERA the observation device 0
  • the observation space is further divided into a plurality of elongated fan-shaped regions and coded in order to specify an arbitrary position on the surface of the object to be measured.
  • a plurality of types of stripe pattern light are projected onto the object to be measured in time series.
  • the same number of masks as the type of pattern light is prepared, and the masks are mechanically exchanged, or a striped light shirt array is formed using a material having an electro-optic effect.
  • it can be implemented as an electronic system that electronically controls the light transmittance of each stripe in the optical shirter array.
  • the latter electronic method is adopted, and specifically, a plurality of types of mask patterns are reproduced or displayed in time series by the projection LCD 19.
  • a mask is installed between the projection light source L and the object to be measured (a square column and a cylinder) in a replaceable manner.
  • the object to be measured a square column and a cylinder
  • three types of masks ⁇ , ⁇ , and C having different patterns are prepared, and therefore, three types of pattern light are projected onto the measurement object in time series.
  • each of the eight fan-shaped areas is coded as either the bright area "1" or the dark area "0". It becomes.
  • each bit plane of the memory is configured by binarization, the horizontal position (address) of each bit plane image corresponds to the orientation ⁇ of the observer. If the memory contents of the three bit planes corresponding to the three masks are focused on each bit (each pixel), a 3-bit code is obtained for each pixel. From this code, the direction ⁇ from the projection light source of each fan-shaped area is specified. In the situation where the distance d is known, if the orientations ⁇ and ⁇ are specified, the three-dimensional coordinates of the point of interest on the surface of the object to be measured are specified by the principle of triangulation.
  • FIG. 13 (a) shows an example in which a space is coded using a pure binary code by using a plurality of masks such as masks ⁇ , ⁇ , and C.
  • FIG. 13 (b) by using a plurality of masks such as masks ⁇ , ⁇ and C, the space is coded using a gray code whose distance between adjacent codes is always 1 as a space code. An example is shown.
  • a spatial code method using a pure binary code or a spatial code method using a gray code may be used.
  • S1006 in Fig. 12 is conceptually represented in a flow chart as a three-dimensional shape detection processing routine.
  • this three-dimensional shape detection processing routine first, in S1210, an imaging process is executed.
  • this imaging process for example, striped non-turned light (see FIG. 1) is received in time series from the projection unit 13 by using a plurality of gray code mask patterns shown in FIG. 13 (b). It is projected on the measurement object.
  • a plurality of pattern light images each of which is captured by a plurality of types of pattern light and V, and a single pattern light, which images the same measurement object that is projected by pattern light. No image is acquired.
  • a three-dimensional measurement process is executed in S1220.
  • the three-dimensional shape of the object to be measured is actually obtained by using a plurality of pattern light existence images and one pattern light no image acquired by the above-described imaging process. It is measured.
  • a 3D color shape detection result is generated by combining the 3D shape measured for the object to be measured and the surface color. This S1230 will be described in detail later with reference to FIG. When this 3D color shape detection result is generated, the current 3D shape detection process ends.
  • S1210 in FIG. 14 is schematically represented by a flowchart as an imaging processing subroutine.
  • setting processing of the selection unit is executed. That is, in S1211, the selection unit is set under the control of the CPU 35 of the processing unit 15, and the color is selected from the two types of image signals (color measurement image signal and shape measurement image signal) output from the imaging unit 60. A measurement image signal is selected.
  • the pattern light no-image acquired at this time is generated based on the color measurement image signal obtained by amplifying the color measurement image signal subjected to the first correction in the imaging unit 60 by the amplifier 64a. . Then, the acquired pattern light no image is stored in the pattern light no image storage unit 37b.
  • processing for switching the selection unit is executed. That is, in S1213, the selection unit is switched under the control of the CPU 35 of the processing unit 15, and the shape is selected from the two types of image signals (color measurement image signal and shape measurement image signal) output from the imaging unit 60. A measurement image signal is selected.
  • the pattern number representing the number of the mask pattern used for forming the pattern light is initialized to the PN force ⁇ .
  • the maximum value PNmax is determined according to the total number of mask patterns used. For example, when 8 types of mask patterns are used, the maximum value is set to PNmax force.
  • step S1215 the PN-th mask pattern having the same number as the current value of the pattern number PN is displayed on the projection LCD 19 in S1214.
  • step S1216 the PNth pattern light formed by the PNth mask pattern is further projected onto the object to be measured.
  • step S 1217 the object to be measured on which the PN-th pattern light is projected is imaged by the imaging unit 14.
  • the pattern-lighted image obtained at this time is generated based on the shape measurement image signal obtained by amplifying the shape measurement image signal subjected to the second correction in the imaging unit 60 by the amplifier 65a. is there.
  • the acquired pattern light present image is stored in the pattern light present image storage unit 37a in association with the corresponding pattern number PN.
  • FIG. 16 conceptually shows a flowchart of S1220 in FIG. 14 as a three-dimensional measurement processing subroutine.
  • a luminance image is generated by executing the luminance image generation program 36c.
  • Y 0.29 89 ⁇ R + 0.5866 ⁇ G + 0.1145 ⁇ .
  • the code image generation program 36d is executed.
  • this code image generation program 36d is executed, a plurality of generated luminance images are combined using the spatial coding method described above, so that a code image in which a spatial code is assigned to each pixel is obtained. Generated.
  • the code image is generated by a binary key process based on a comparison between a luminance image related to multiple types of pattern-lighted images stored in the luminance image storage unit 37c and a threshold image to which a luminance threshold is assigned for each pixel.
  • the generated code image is stored in the code image storage unit 37d.
  • FIG. 17 conceptually shows the details of the code image generation program 36d in a flowchart.
  • the code image generation program 36d will be described in time series with reference to FIG.
  • this code image generation program 36d first, the luminance image obtained by capturing the object to be measured on which the pattern light having the pattern number PN force SO is captured in S101! / It is read as a representative pattern image from the luminance image storage unit 37c.
  • the characteristics of the variable window VW are locally set based on the plurality of calculated pattern line periods.
  • the line direction size of the variable window VW is set so as not to change regardless of the position on the representative pattern image where the variable window VW is set.
  • the direction size is set so as to correspond to an integral multiple of the pattern line period calculated in association with each column direction pixel position.
  • variable window VW is set for the representative pattern image in a plane along the line direction and the column direction and in association with each pixel.
  • the average value of the luminance values of a plurality of pixels existing in the variable window VW is calculated as a local threshold value.
  • a threshold image in which the calculated threshold value is assigned to each pixel is further generated. The generated threshold image is stored in the threshold image storage unit 37q.
  • the pattern number is initialized to the PN force ⁇ , and then in S106, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. This time, since the current value of the pattern number PN is 0, the determination is Yes, and the process proceeds to S107.
  • a binarized image is generated according to the binarized image generation subroutine shown in FIG.
  • the pattern number PN is incremented by one. Subsequently, returning to S106, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Again, if it is smaller than the maximum value PNmax, the determination is yes and the process moves to S107.
  • the pixel value (“1" or "0") force corresponds to the luminance image with the pattern number PN force ⁇ 2
  • the pixel value PN corresponds to the luminance image with the pattern number PN force ⁇ 2
  • the pixel value PN corresponds to the luminance image with the pattern number PN force ⁇ 2
  • the pixel value PN corresponds to the luminance image with the pattern number PN force ⁇ 2
  • the pixel value PN corresponds to the luminance image with the pattern number PN force ⁇ 2
  • PNmax—1 From the value ⁇ image, it is extracted according to the order from the binary image corresponding to the luminance image whose pattern number PN is (PNmax—1), and is arranged according to the order from the least significant bit LSM force to the most significant bit MSB Spatial code is generated.
  • the number of bits of the spatial code for each pixel is the same as the maximum value PNmax.
  • S107 in FIG. 17 is conceptually represented by a flowchart as a binary image generation subroutine.
  • a pattern number PN equal to the current value of pattern number PN was assigned.
  • the luminance value of the luminance image and the threshold value of the generated threshold image are compared with each other for each pixel.
  • the comparison result is reflected in the binarized image for each pixel. Specifically, if the luminance value of the luminance image is larger than the threshold value, the data force representing “1” is stored in the binary image storage unit 37r in association with the corresponding pixel position in the binary image. On the other hand, if the luminance value of the luminance image is not larger than the threshold value, the data representing “0” is associated with the corresponding pixel position in the binary image and the binary image storage unit 37r.
  • the code boundary coordinate detection process is performed by executing the code boundary extraction program 36e. Since the coding by the spatial code method described above is performed on a pixel-by-pixel basis, the boundary line of light and darkness in the actual pattern light and the boundary line of the spatial code in the generated code image (a certain spatial code is assigned) An error in subpixel accuracy occurs between the region and the boundary between the region assigned with another spatial code. Therefore, this code boundary coordinate detection process is performed for the purpose of detecting the boundary coordinate value of the spatial code with subpixel accuracy.
  • the detected code boundary coordinate value is stored in the code boundary coordinate storage unit 37e.
  • Code boundary coordinate values are defined in CCD coordinates ccdx-ccdy, which is a two-dimensional coordinate system set on the image plane of CCD22.
  • a lens aberration correction process is performed by executing the lens aberration correction program 36f.
  • the imaging optical system 21 was an ideal lens for the actual imaging position of the light beam incident on the imaging optical system 21 and affected by the aberration of the imaging optical system 21.
  • the correction process is performed so as to approach the ideal imaging position where the image should be formed.
  • the code boundary coordinate value detected in S1223 is corrected so that an error caused by distortion of the imaging optical system 21 is removed.
  • the code boundary coordinates corrected in this way are stored in the aberration correction coordinate storage unit 37g.
  • S1230 in FIG. 14 is conceptually represented by a three-dimensional color shape detection result generation processing subroutine.
  • the processing unit 15 performs the 3D color shape detection result generation process, thereby using the 3D model obtained by restoring the 3D model of the measurement object and the restored color of the measurement object. It functions as a color shape extraction unit that restores the 3D image of the measured object.
  • a plurality of three-dimensional coordinate values are loaded from the three-dimensional coordinate storage unit 37h.
  • the entire outer surface of the object to be measured is divided into four partial surfaces (front, right side, left side, and back surface), and a stereoscopic image is generated for each partial surface.
  • a plurality of three-dimensional coordinate values belonging to each of the four partial surfaces are loaded from the three-dimensional coordinate storage unit 37h.
  • a spatially overlapping portion is extracted from the generated composite image. Furthermore, two overlapping parts in each region in the length direction of the composite image are combined into one part by a method such as averaging of a plurality of three-dimensional coordinate values belonging to the two parts. As a result, spatial Overlap is removed, thereby completing the stitched image.
  • RGB values R luminance value, G luminance value, and B luminance value corresponding to each real coordinate space coordinate value of the three-dimensional vertex group transformed into the above-mentioned real space three-dimensional coordinate system in S6001 Is extracted from the aforementioned pattern light no-image.
  • the relationship between the real space coordinate system and the plane coordinate system that defines the pattern light no-image is geometrically associated with each other by the above-mentioned triangulation principle.
  • a code image that is, a function used to map a plane coordinate system that defines a shape image, which is a two-dimensional image for measuring the three-dimensional shape of an object to be measured, to a real space three-dimensional coordinate system by calculation.
  • the real space 3D coordinate system can be mapped by calculation to the plane coordinate system that defines the pattern light no-image. Therefore, in this S6001, it is possible to extract the surface color value corresponding to each three-dimensional vertex, that is, the RGB value, from each two-dimensional pattern light non-image.
  • the surface shape of the object to be measured is acquired for the object to be measured in order to approximate it by dividing it into a triangle that is an example of a plurality of polygons.
  • the vertices three vertices that are close to each other in distance are grouped. For each group, three vertices are connected to each other to form one polygon.
  • the real space coordinate system X—Y—Z is fixed to the three-dimensional color shape measuring apparatus 1, and on this real space coordinate system X—Y—Z, as shown in FIG.
  • the original P which is the object to be imaged, is imaged that is curved in the horizontal direction.
  • this real space coordinate system X-Y-Z has an X-axis extending in the horizontal direction, a Y-axis extending in the vertical direction, and a Z-axis imaging.
  • the optical system 21 is positioned so as to extend in the optical axis direction!
  • Figure 20 (a) shows the real space coordinate system X—Y—Z as observed in the X-axis direction.
  • the real space coordinate system X—Y—Z is Y It is shown as observed in the axial direction.
  • This real space coordinate system X—Y—Z is located relative to the 3D color shape measuring device 1 so that the origin is located at a distance VPZ along the Z axis from the input pupil position of the imaging optical system 21. Is set to!
  • the projection unit 13 force the projection angle onto the document P is expressed as “ ⁇ p”, and the optical axis of the imaging optical system 21 and the optical axis of the projection unit 13 The distance is indicated by “D”.
  • the projection angle ⁇ p is uniquely specified by the spatial code assigned to each pixel.
  • Target point on document P target (X, ⁇ , Z) (shown as “(a)” with a leader line in FIG. 20);
  • the input pupil position of the imaging optical system 21 (shown as “(b)” with a leader line in FIG. 20);
  • Equation (1) is a function that corrects the deviation between the imaging optical system 21 and the projection unit 13, and can be regarded as 0 in an ideal case where there is no deviation. .
  • the focal length of the imaging optical system 21 is expressed as “focallength (mm)”
  • the ccd pixel length is expressed as “pixellength (mm)”
  • the coordinate value of the center of the lens in the CCD 22 is (C entx, Centy).
  • the light path from which the light beam enters the target point target on the document P from the projection unit 13 is extended in the same direction and the X—
  • the Y coordinate value of the intersection with the Y plane is expressed as “Yptarget” and the X coordinate value as “Xptarget”.
  • the output pupil position of the projection unit 13 is defined as (0, 0, PPZ).
  • Sarakuko visual field power in the Y direction of the projection unit 13 Defined as a region from the point represented by “Ypftop” to the point represented by “Ypl ottom”, and represented by the visual power in the X direction “Xpfstart” It is defined as the area from the point to the point indicated by “Xpfe nd”. Furthermore, the length (height) in the Y-axis direction of the projection LCD 19 is represented by “Hp”, and the length (width) in the X-axis direction is represented by “Wp”.
  • the original P is actually curved as shown in FIG.
  • the actually captured image is flattened as if the same document P was captured in the state.
  • the original P which is rectangular in front view, is actually taken from an oblique direction.
  • the actual captured image is flattened as if the same original P was captured from the front.
  • the three-dimensional color shape measuring apparatus according to the second embodiment has the same basic structure as the three-dimensional color shape measuring apparatus 1 according to the first embodiment shown in FIGS. Only the processing in the processing unit associated therewith is different from the three-dimensional color shape measuring apparatus 1 of the first embodiment.
  • the imaging unit 70 included in the three-dimensional color shape measuring apparatus includes a CCD 71 that functions as an imaging unit, and an image that the CCD 71 images and outputs an object to be measured.
  • Amplifier 72 for amplifying the signal A / D converter 73 for analog conversion of the analog image signal amplified by amplifier 72, and A / D converter 73 Tone correction for the input image signal
  • the main device generates a colorimeter measurement image signal for measuring and restoring the color of the measurement object and a shape measurement image signal for measuring and restoring the three-dimensional shape of the measurement object.
  • a correction unit 79 that outputs to
  • the amplifier 72, the A / D converter 73, and the correction unit 79 constitute the CCD interface 31, and an image signal is output to the CCD interface 31 main device.
  • the main device of the second embodiment is based on the color measurement image signal input from the imaging unit 70! / And the color of the measurement object restored and the shape input from the imaging unit 70.
  • a color shape extraction unit that restores a 3D image of an object to be measured using a 3D model obtained by restoring the 3D shape of the object to be measured based on a measurement signal is stored!
  • the correction unit 79 outputs the first correction circuit 74 that converts the image signal into the color measurement image signal by the first correction in accordance with the first non-linear first gradation characteristic, and the first correction circuit 74 outputs A first correction unit consisting of an amplifier 75 that amplifies and outputs an image signal for color measurement, and an amplifier 77 that amplifies the analog-digital converted image signal and outputs it as a shape measurement image signal. And a correction unit.
  • the correction unit 79 has the same function as the correction unit 66 included in the imaging unit 60 of the first embodiment with respect to the gradation correction function. However, the correction unit 79 in the second embodiment performs shape correction on the image signal by performing, by the amplifier (amplifier 77), second correction performed on the image signal according to the second gradation characteristic having the linear portion described above. Convert it to a measurement image signal.
  • the imaging unit 70 includes a selection unit 78a on the front stage that selects one of the first correction unit and the second correction unit and outputs an image signal to the selected correction unit.
  • Selection unit 78a on the front stage that selects one of the first correction unit and the second correction unit and outputs an image signal to the selected correction unit.
  • Selector 78b on the rear stage side that selects one of the image signal for color measurement output from the correction unit and the image signal for shape measurement output from the second correction unit and outputs it to the main unit. It has.
  • the selection unit 78a on the upstream side performs the first correction based on the control of the CPU 35 when the pattern light imaging program 36b is executed by the processing unit 15 of the main apparatus and a pattern light no-image is acquired.
  • the A / D converter 73 and the first correction unit are connected, and the selection unit 78b on the rear stage side selects the color measurement image signal and outputs it to the main unit based on the control of the CPU 35. .
  • the imaging unit 70 of the second embodiment by providing the correction unit including the first correction unit, the second correction unit, and the selection units 78a and 78b, the first correction unit and Since the second correction unit is operated alternately to output the color measurement image signal and the shape measurement image signal to the main unit, the imaging unit 60 and the processing unit 15 are configured as shown in FIG. It is possible to simplify the circuit configuration in which it is not necessary to connect to each other with two signal lines.
  • the first correction unit and the second correction unit are also provided.
  • the power consumption in the imaging unit 70 can be reduced by alternately operating and.
  • the imaging unit 70 is configured in this way, it is output from the A / D converter 73. Since the image signal is considered in consideration of the display characteristics of the monitor LCD 10, its characteristics are linear, and it is a signal suitable for measuring the three-dimensional shape of the object to be measured.
  • the imaging unit 70 can be downsized.
  • the correction unit 79 included in the imaging unit 70 includes the first correction circuit 74 as in the first embodiment, the image signal for color measurement is converted from the image signal by the first correction circuit. Therefore, the main device can generate a 3D image in which the color and 3D shape of the object to be measured are faithfully restored by the color shape extraction unit.
  • This processing unit 15 differs from the first embodiment only in the processing performed in S1211 and S1213 in the imaging processing subroutine shown in FIG.
  • FIG. 22 is a flowchart showing an imaging process performed by the processing unit 15 of the second embodiment.
  • S1211a the setting process for the selection unit on the front stage side and the rear stage side is executed. That is, in this S1211a, by the control of the processing unit 15 by the CPU 35, the selection unit 78a on the front stage inside the imaging unit 70 shown in FIG. 21 selects the first correction unit, and the A / D converter 73 and the first correction circuit 74 And connect.
  • the selection unit 78 on the rear stage inside the imaging unit 70 shown in FIG. 21 selects the amplifier 75 of the first correction unit, and the image signal for color measurement output from the amplifier 75 is the main signal. Output to the device.
  • the imaging unit 14 images the measured object without projecting the pattern light from the projecting unit 13 to the measured object. A pattern light no image is acquired.
  • the pattern light non-image acquired at this time is generated based on the color measurement image signal subjected to the first correction in the imaging unit 70.
  • the acquired pattern light no-image is stored in the pattern light no-image storage unit 37b.
  • switching processing of the selection units on the front side and the rear side is performed. That is, in this S1213a, by the control of the processing unit 15 by the CPU 35, the selection unit 78a on the front stage inside the imaging unit 70 shown in FIG. 21 selects the second correction unit and connects the A / D converter 73 and the amplifier 77. .
  • the selection unit 78b on the rear stage inside the imaging unit 70 shown in FIG. 21 selects the amplifier 77 of the second correction unit, and the shape measurement image signal output by the amplifier 77 is the main signal. Output to the device.
  • the processing is executed in S1211 and S1213 in the imaging processing subroutine of the first embodiment shown in FIG.
  • the image processing unit 70 shown in FIG. 21 can be operated without changing the entire program executed by the processing unit 15 simply by changing the processing to S1211a and S1213a in the imaging processing subroutine shown in FIG. be able to.
  • the three-dimensional color shape measuring apparatus according to the third embodiment has the same basic structure as the three-dimensional color shape measuring apparatus 1 according to the first embodiment shown in FIGS. Only the processing in the processing unit associated therewith is different from the three-dimensional color shape measuring apparatus 1 of the first embodiment.
  • the imaging unit 80 included in the three-dimensional color shape measuring apparatus includes a CCD 81 that functions as an imaging unit, and an image that the CCD 81 images and outputs an object to be measured.
  • Amplifier 82 that amplifies the signal
  • a / D converter 83 that performs analog conversion of the analog image signal amplified by amplifier 82
  • Color meter for measuring and restoring the color of the object to be measured by performing
  • a measurement image signal and a correction unit 86 that generates and outputs a shape measurement image signal for measuring and restoring the three-dimensional shape of the object to be measured to the main apparatus are housed.
  • the CCD interface 31 is configured by the amplifier 82, the A / D converter 83, and the correction unit 86, and an image signal is output to the main device of the CCD interface 31.
  • the main apparatus of the third embodiment is based on the color measurement image signal input from the image pickup unit 80! / The color of the object to be measured restored and the shape input from the image pickup unit 80.
  • a color shape extraction unit that restores a 3D image of an object to be measured using a 3D model obtained by restoring the 3D shape of the object to be measured based on a measurement signal is stored!
  • the correction unit 86 converts the image signal into the color measurement image signal by the first correction according to the above-described nonlinear first gradation characteristic, and converts the image signal into the shape measurement image signal by the second correction.
  • the correction circuit 84 includes a first correction LUT (lookup table) that can be referred to when the correction circuit 84 performs the first correction, and a second LUT that can be referred to when the second correction is performed. It is equipped with.
  • first correction LUT lookup table
  • the first correction LUT is a lookup table in which the image signal before the first correction and the image signal for color measurement obtained after the first correction are stored in association with each other
  • the second correction LUT is the second correction LUT. This is a look-up table in which the image signal before correction and the shape measurement image signal obtained after the second correction are stored in association with each other.
  • the correction circuit 84 when the pattern light imaging program 36b is executed by the processing unit 15 of the main apparatus and a pattern light no-image is acquired, the correction circuit 84 operates under the control of the CPU 35.
  • the first correction using the first correction LUT included in the correction circuit 84 is performed on the image signal, and the color measurement image signal generated as a result is output to the main apparatus.
  • this correction unit when the pattern light imaging program 36b is executed by the processing unit 15 of the main apparatus and a pattern light existence image is acquired, the correction circuit 84 operates under the control of the CPU 35, and The second correction using the second LUT included in the correction circuit 84 is performed on the image signal, and the shape measurement image signal generated as a result is output to the main apparatus.
  • the correction unit 86 is provided with the correction circuit 84 including the first LUT and the second LUT, so that the color shape extraction unit faithfully matches the color of the object to be measured and the three-dimensional shape.
  • This processing unit 15 differs from the first embodiment only in the processing performed in S1211 and S1213 in the imaging processing subroutine shown in FIG.
  • FIG. 24 is a flowchart showing an imaging process performed by the processing unit 15 of the third embodiment.
  • an LUT setting process is executed in S1211b. That is, in S1211b, the first correction LUT is set as the LUT referred to in the imaging unit 80 shown in FIG. 23 by the control of the processing unit 15 by the CPU 35.
  • the imaging unit 14 images the object to be measured without projecting the pattern light from the projection unit 13 onto the object to be measured. A pattern light no image is acquired.
  • the pattern light no-image acquired at this time is generated based on the color measurement image signal subjected to the first correction in the imaging unit 80.
  • the acquired pattern light no-image is stored in the pattern light no-image storage unit 37b.
  • the processing is executed in S1211 and S1213 in the imaging processing subroutine of the first embodiment shown in FIG.
  • the entire program executed by the processing unit 15 is not significantly changed by simply changing the processing to S1211b and S1213b in the imaging processing subroutine shown in FIG.
  • the imaging unit 80 shown in FIG. 23 can be operated.
  • the three-dimensional color shape measuring apparatus according to the fourth embodiment has the same basic structure as the three-dimensional color shape measuring apparatus 1 according to the first embodiment shown in FIGS.
  • the only difference between the V and the program stored in the ROM of the processing unit and the processing in the processing unit is the three-dimensional color shape measuring apparatus 1 of the first embodiment.
  • the imaging unit 90 included in the three-dimensional color shape measuring apparatus of the fourth embodiment includes a CCD 91 that functions as an imaging unit, and an image that the CCD 91 images and outputs an object to be measured.
  • a first correction circuit 94 functioning as a first correction unit that converts to an image signal for color measurement by the first correction is housed.
  • the amplifier 92, the A / D converter 93, and the first correction circuit 94 constitute the CCD interface 31, and the image for color measurement from the CCD interface 31 to the main unit. A signal is output.
  • the main device performs color correction on the image signal for color measurement input from the CCD interface 31 to form a color measurement image signal by performing a third correction according to the third gradation characteristic described later.
  • a third correction circuit that converts to a measurement image signal and a color shape extraction unit that restores a three-dimensional image of the object to be measured based on two types of image signals (color measurement image signal and shape measurement image signal) (Not shown).
  • the third correction is performed on the color measurement image signal input from the imaging unit 90 as described above. Therefore, as shown in FIG. Have In addition to the various programs 36a to 36i stored in the ROM 36 of the first embodiment, a gradation correction program 36j and a gradation correction LUT 36k are stored.
  • This gradation correction program 36j performs the third correction according to the third gradation characteristic on the color measurement image signal output from the imaging unit 90, and then amplifies the signal to perform color correction. It is executed to convert the image signal for measurement into the image signal for shape measurement.
  • the third gradation characteristic is a gamma characteristic that becomes a linear characteristic by taking a product with the first gradation characteristic, and is an inverse gamma characteristic of the first gradation characteristic. is there.
  • the gradation correction program 36j is stored in the ROM 36! Therefore, only the correction circuit for performing the first correction is provided in advance as the correction unit, and the imaging unit 90 is provided with the three-dimensional color shape measurement device. Even if it is mounted on a device, the tone correction program 36j is executed, so that the third correction is applied to the color measurement image signal output from the imaging unit 90 and the 3D A shape measurement image signal capable of measuring the shape with high accuracy can be generated.
  • the tone correction LUT 36k is a look-up table in which the color measurement image signal before the third correction and the shape measurement image signal obtained after the third correction are stored in association with each other.
  • the CPU 35 refers to when the gradation correction program 36j is executed. That is, the third correction is performed using the third correction LUT.
  • the pattern light imaging program 36b when executed by the processing unit 15 of the main apparatus and a pattern light no-image is acquired, Under the control of the CPU 35, a pattern light no-image is generated based on the color measurement image signal output from the imaging unit 90 and stored in the pattern light no-image storage unit 37b.
  • the pattern light imaging program 36b is executed by the processing unit 15 of the main apparatus, and the gradation correction program 36j is executed when the pattern light existence image is acquired.
  • the correction circuit 96 is activated, the third correction is applied to the color measurement image signal output from the imaging unit 90, and a pattern-lighted image is generated based on the resulting shape measurement image signal. It is stored in the pattern light existence image storage unit 37a.
  • the color extraction unit restores the color of the object to be measured by using the color measurement image signal output from the imaging unit 90 as it is.
  • the color measurement image output from the imaging unit 90 is used.
  • the shape measurement image signal generated by applying inverse gamma correction to the image signal the three-dimensional shape of the object to be measured is measured and restored.
  • the image signal is corrected by the first correction circuit 94 included in the imaging unit 90 and the third correction circuit 96 included in the main apparatus. Since the correction unit is configured, a 3D image in which the color and 3D shape of the object to be measured are faithfully restored can be generated by the color shape extraction unit as in the first to third embodiments. .
  • the third correction unit is housed in the main apparatus, only the first correction circuit 94 as shown in Fig. 25 is provided, and a relatively inexpensive commercially available imaging unit 90 is used. However, it is possible to measure the 3D shape of the measured object with high accuracy as long as the color of the measured object can be accurately restored.
  • an image signal for color measurement with nonlinear characteristics is output from the imaging unit 90.
  • the third correction circuit is used. The third correction is performed on the image signal for color measurement according to 96 according to the non-linear third gradation characteristic that is the inverse gamma characteristic of the non-linear characteristic of the image signal for color measurement, so that The signal characteristics are linear characteristics suitable for 3D shape measurement.
  • the color shape extraction unit of the main apparatus can measure and restore the three-dimensional shape of the measurement object with high accuracy using the image signal for shape measurement which is the signal after the third correction. it can
  • FIG. 27 is a flowchart showing an imaging process performed by the processing unit 15 of the fourth embodiment.
  • this imaging process first, in step S1212, a pattern light imaging process is performed.
  • a pattern light imaging process is performed.
  • one image of the pattern light is acquired by imaging the measurement object by the imaging unit 14 that does not project the pattern light from the projection unit 13 onto the measurement object.
  • the pattern light no-image acquired at this time is generated based on the color measurement image signal obtained by amplifying the color measurement image signal subjected to the first correction in the imaging unit 90 with an amplifier.
  • the acquired pattern light no image is stored in the pattern light no image storage unit 37b.
  • a third correction process is executed. That is, by executing the gradation correction program 36j in S1213c, the gradation correction LUT 36k is referred to by the CPU 35, and after the third correction is performed on the color measurement image signal input from the imaging unit 90, the amplification is performed. By doing so, it is converted into an image signal for shape measurement.
  • the third correction is performed on the color measurement image signal input from the imaging unit 90 during the imaging process, but the processing in the processing unit 15 is performed.
  • the processing in the processing unit 15 is performed.
  • the third correction process is executed in SlOla. That is, by executing the gradation correction program 36j, the gradation correction LUT 36k is referred to by the CPU 35, and a process of performing the third correction on the image signal (color measurement image signal) indicating the representative pattern image is executed.
  • the third correction process is executed in S107 (a process for generating a binarized image). If it is determined in S106 that the current value of the pattern number PN is larger than the maximum value PNmax, S109 (processing for generating a code image) is executed as in the first embodiment, and this code is The image generation process is terminated.
  • an image is read from the luminance image storage unit 37c in S111, and then the third correction process is executed in SI 11a. That is, by executing the gradation correction program 36j, the gradation correction LUT 36k is referred to by the CPU 35, and a process of performing the third correction on the image signal (color measurement image signal) indicating the image read in S111 is executed. Is done.
  • the three-dimensional color shape measuring apparatus according to the fifth embodiment has the same basic structure as the three-dimensional color shape measuring apparatus 1 according to the first embodiment shown in FIGS. Only the program stored in the ROM of the processing unit and the processing in the processing unit are different from the three-dimensional color shape measuring apparatus 1 of the first embodiment.
  • the imaging unit 50 includes a CCD 22 that functions as an imaging unit, an amplifier 52 that amplifies an image signal that the CCD 22 images and outputs an object to be measured, and an amplifier 52 that amplifies the image signal.
  • a / D converter 53 that converts analog image signals to analog 'digital' is stored.
  • the amplifier 52 and the A / D converter 53 constitute a CCD interface 31, and gradation correction is performed from the CCD interface 31 to the main device 51. The image signal is output.
  • the main device corrects the image signal input by the CCD interface 31 and restores the three-dimensional image of the object to be measured based on the image signal corrected by the correction unit.
  • a color shape extraction unit is housed.
  • the correction unit includes a first correction circuit that converts an image signal into a color measurement image signal by a first correction according to the above-described nonlinear first gradation characteristic, and a color measurement output from the first correction circuit.
  • the image signal is converted into an image for shape measurement by a first correction unit composed of an amplifier that amplifies the image signal and outputs it to the color shape extraction unit, and the second correction according to the second gradation characteristic having the linear portion described above.
  • a second correction circuit configured to convert the signal into a signal, and an amplifier that amplifies the shape measurement image signal output from the second correction circuit and outputs the amplified image signal to the color shape extraction unit.
  • the first and second corrections are performed on the image signal input from the imaging unit 50 as described above. Similar to the processing unit 15, in addition to the various programs 36a to 36i stored in the ROM 36 of the first embodiment, the gradation correction program 36j and the gradation correction LUT 36k are stored in the ROM 36.
  • the gradation correction program 36j and the gradation correction LUT 36k in the fifth embodiment are different from the gradation correction program 36j and the gradation correction LUT 36k in the fourth embodiment.
  • the gradation correction program 36j in the fifth embodiment is used when the first correction program executed when the first correction is performed on the image signal and the second correction is performed on the image signal. And a second correction program to be executed.
  • the first correction program performs the first correction according to the first gradation characteristics on the image signal obtained by imaging the object to be measured by the CCD 22, thereby converting the image signal to the color of the object to be measured. This is executed to convert the image signal into a color measurement image signal used for measurement and restoration.
  • the first gradation characteristic is a non-linear gamma characteristic that matches the non-linear display characteristic of the monitor LCD 10.
  • the processing unit 15 functions as a correction unit that converts the image signal into the color measurement image signal by the first correction according to the first gradation characteristic.
  • the second correction program performs the second correction according to the second gradation characteristic on the image signal obtained by imaging the object to be measured by the CCD 22, thereby converting the image signal into the object to be measured. This is executed to convert to the shape measurement image signal used when measuring the 3D shape.
  • the second gradation characteristic is a gamma characteristic having a linear characteristic at least in part and nonlinear or linear in other parts.
  • the gradation correction LUT 36k in the fifth embodiment includes a first correction LUT and a second correction LUT.
  • the first correction LUT is a look-up table in which the image signal before the first correction and the image signal for color measurement obtained after the first correction are stored in correspondence with each other.
  • 1 Correction CPU35 refers to when the program is executed. That is, the first correction is performed using the first correction LUT.
  • the second correction LUT is a look-up table in which the image signal before the second correction and the shape measurement image signal obtained after the second correction are stored in association with each other.
  • the CPU 35 refers to when the second correction program 36k is executed. That is, the second correction is performed using the second correction LUT.
  • the first correction unit When the first correction program is executed by the processing unit 15 of the main apparatus, the first correction unit operates the first correction circuit and the amplifier to convert the image signal into an image signal for color measurement.
  • the first gradation characteristic for the image signal output by the CCD 22 as the imaging unit when the pattern light is not projected by the projection unit 13 that functions as the pattern light projection unit.
  • the first correction is performed to convert the image signal into an image signal for color measurement.
  • the image signal corrected by the first correction unit includes a plurality of types of color signals and luminance signals, and the first correction unit performs the first correction for each color signal included in the image signal. At the same time, the first correction is also performed on the luminance signal included in the image signal.
  • the second correction unit outputs the shape measurement image signal by the operation of the second correction circuit and the amplifier by the processing unit 15 of the main apparatus executing the second correction program. In addition, during pattern light projection of the projection unit 13 that functions as the pattern light projection unit, the second correction is performed on the image signal output by the CCD 22, which is the imaging unit, by imaging the object to be measured according to the second gradation characteristics. Thus, the image signal is converted into a shape measurement signal.
  • the image signal corrected by the second correction unit includes a plurality of types of color signals and luminance signals, and the second correction unit performs the second correction for each color signal included in the image signal. In addition, the second correction is also performed on the luminance signal included in the image signal.
  • the color shape extraction unit includes the color measurement image signal converted by the first correction unit and the shape measurement signal converted by the second correction unit. Is output.
  • main apparatus 51 selects a first correction unit or a second correction unit, and selects a selection unit that outputs an image signal output from imaging unit 50 to the selected correction unit.
  • the image signal corrected by each correction unit selected by this selection unit is output to the color shape extraction unit.
  • This selection unit selects the first correction unit by connecting the imaging unit 50 and the first correction circuit under the control of the CPU 35 when the first correction program is executed by the processing unit 15 of the main apparatus.
  • the selection unit connects the image pickup unit 50 and the second correction circuit under the control of the CPU 35 to connect the second correction unit. select.
  • the color measurement image signal generated by performing the first correction on the image signal in accordance with the non-linear first gradation characteristic matched with the display characteristic of the monitor LCD 10 is used as the color signal. Since it is configured to output to the shape extraction unit, the color shape extraction unit can generate a texture to be described later that faithfully restores the color of the measured object.
  • the image signal for shape measurement generated by performing the second correction according to the second gradation characteristic having a linear portion on the image signal as described above is output to the color shape extraction unit. Therefore, the 3D shape of the object to be measured can be measured with high accuracy and the color shape can be extracted. By the output part, it is possible to generate a 3D model (to be described later) that faithfully restores the 3D shape of the object to be measured.
  • the 3D color shape measuring apparatus 1 can generate a 3D image in which the color of the object to be measured and the 3D shape are faithfully restored.
  • the three-dimensional color shape measuring apparatus 1 is configured such that the first correction unit and the second correction unit are provided in the main unit, so that the CCD 22 and the amplifier 52 as shown in FIG. And an A / D converter 53, a commercially available imaging device that has a relatively simple configuration that does not include a correction unit that performs gradation correction, and that is relatively inexpensive. Can do.
  • This processing unit 15 differs from the first embodiment only in the processing performed in S1211 and S1213 in the imaging processing subroutine shown in FIG.
  • FIG. 31 is a flowchart showing an imaging process performed by the processing unit 15 of the fifth embodiment.
  • the first correction process is executed in S1211d. That is, in S121 Id, the selection unit selects the first correction unit by executing the first correction program, and the first correction LUT is referred to by the CPU 35, and the image signal output from the imaging unit 50 is output. By applying the first correction, a color measurement image signal is generated.
  • the pattern light no-image acquired at this time is generated based on the color measurement image signal subjected to the first correction by the first correction circuit. Then, the acquired pattern light no-image is stored in the pattern light no-image storage unit 37b.
  • a second correction process is executed. That is, in S1213d, the selection unit selects the second correction unit by executing the second correction program, and the second correction L
  • the shape measurement image signal is generated by referring to the UT by the CPU 35 and applying the second correction to the image signal output from the imaging unit 50.
  • the processing is executed in S1211 and S1213 in the imaging processing subroutine of the first embodiment shown in FIG.
  • the image processing unit 50 shown in FIG. 30 can be operated without changing the entire program executed by the processing unit 15 simply by changing the processing to S1211d and S1213d in the imaging processing subroutine shown in FIG. be able to.
  • the first and second corrections are performed on the color measurement image signal input from the imaging unit 50 during the imaging process.
  • the first and second corrections are not performed during the imaging process, and then the second correction is performed in the code image generation process (S100) shown in FIG. 17, and the three-dimensional color shown in FIG.
  • the first correction can also be performed in the shape detection result generation process (S1230).
  • the processing unit The processing executed in 15 will be described.
  • the first correction process of S121 Id shown in FIG. 31 is deleted, the first correction is executed in the three-dimensional color shape detection result generation process shown in FIG. 34, and the second correction process of S1213d shown in FIG. Are deleted, and the second correction process is executed in the code image generation process shown in FIG. 32 and the binarized image generation process shown in FIG.
  • the code image generation process as shown in FIG. 32, by executing the code image generation program 36d, first, in S101, the object to be measured on which the pattern light with the pattern number PN being 0 is projected is imaged.
  • the luminance image is read from the luminance image storage unit 37c as a representative pattern image.
  • the second correction process is executed in SlOlb. That is, by executing the second correction program in SlOlb, the second correction LUT is referred to by the CPU 35, and the process of performing the second correction on the image signal indicating the representative pattern image is executed.
  • the second correction processing is executed in S107 (processing for generating a binarized image).
  • the current value of pattern number PN is the maximum value PNmax If it is determined that the value is larger than S109, S109 (a process for generating a code image) is executed as in the first embodiment, and the code image generation process is terminated.
  • an image is read from the luminance image storage unit 37c in S111, and then the second correction process is executed in SI lib. That is, when the second correction program is executed in Slllb, the second correction LUT is referred to by the CPU 35, and in S111, a process for applying the second correction to the image signal indicating the read image is executed. .
  • the processes of S5501 to S6001 are sequentially executed in the same manner as the three-dimensional color shape detection result generation process in the first embodiment. After that, the first correction process is executed in S6001a.
  • the first correction LUT is referred to by the CPU 35 by the execution of the first correction program, and the process of applying the first correction to the RGB value of the pattern light no-image extracted in S6001 is executed.
  • each correction circuit that performs gradation correction on an image signal and each amplifier that amplifies a signal output from each correction circuit are digital circuits used in the present embodiment. Instead, it may be constituted by an analog circuit using a nonlinear element made of a semiconductor or the like, and the gradation correction may be performed on the image signal by analog signal processing.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 被計測物の色と3次元形状とを高精度に計測可能な3次元色形状計測装置を提供する。  被計測物を同一の撮像部により撮像して得られる画像信号に基づいて、被計測物の色と3次元形状とを計測する3次元色形状計測装置であって、第1階調特性に従った第1補正により画像信号を色計測用画像信号に変換すると共に、第2階調特性に従った第2補正により画像信号を形状計測用画像信号に変換する補正部と、形状計測用画像信号に基づいて、被計測物の3次元形状を復元した3次元モデルと、色計測用画像信号に基づいて復元した被計測物の色とを用いて被計測物の3次元画像を復元する色形状抽出部とを有することを特徴とする3次元色形状計測装置とした。

Description

明 細 書
3次元色形状計測装置
技術分野
[0001] 本発明は、被計測物を撮像部により撮像して得られる画像信号に基づいて、被計 測物の色と 3次元形状とを計測する 3次元色形状計測装置に関するものである。 背景技術
[0002] 従来より、被計測物に光を投影した状態で被計測物を撮像することにより被計測物 の色と形状とを計測し、被計測物の 3次元色形状情報を生成する 3次元色形状計測 装置が知られている (たとえば、特許文献 1参照。 ) o
[0003] この 3次元色計測装置は、被計測物を撮像する CCD (Charge Coupled Device)等を 備えた撮像部と、撮像部が被計測物を撮像して出力する画像信号に基づ!ヽて被計 測物の色と 3次元形状とを計測するコンピュータ等を備えた計測部と、計測部による 計測結果に基づ 、て被計測物の 3次元形状を復元した 3次元モデルに、同じく計測 部による計測結果に基づいて被計測物の色を復元した画像 (テクスチャ)を貼り付け る(テクスチャマッピングする)ことにより、被計測物の 3次元カラー画像を表示する液 晶表示パネル等を備えた表示部とを有して ヽた。
[0004] 一般に、このような 3次元色形状計測装置では、撮像部により被計測物を撮像して 得られる画像信号に対して、表示部の表示特性に合わせた階調補正 (以下、「ガン マ補正」という。)を施すことにより、表示部に表示する被計測物の 3次元カラー画像 の色調をより実際の色調に近づけるようにしていた。 イスプレイ等と 、つた表示装置では、入力される画像信号の電圧値に対する表示画 像の階調(明るさ)が比例関係とならない非線形の特性を有しており、具体的には、 入力電圧が低いときには明るさの変化が穏やかで、入力電圧が高いときには明るさ が急激に変化すると 、う特性を有して 、る。
[0006] そのため、 CCDにより被計測物を撮像した画像信号をそのまま表示装置に入力す ると、表示画像にぉ 、て被計測物の実際の色調を忠実に再現することができな 、。 [0007] このような不具合を生じさせな 、ように、撮像部では、画像信号の電圧値に対する 表示画像の階調が比例関係となるように、被計測物を撮像した画像信号に対して、 表示装置の表示特性に合わせたガンマ補正を施すようにして 、た。
特許文献 1:特開 2003-172610号公報
発明の開示
発明が解決しょうとする課題
[0008] ところが、上記従来の 3次元色計測装置では、被計測物を撮像した画像信号に対し てガンマ補正を施して 、たため、被計測物の色調にっ 、ては忠実に再現できるもの の、被計測物の 3次元形状については、その計測精度が低下して忠実に再現するこ とができな!/、おそれがあった。
[0009] すなわち、この 3次元色形状計測装置では、被計測物の 3次元形状を計測する際、 被計測物にストライプ状のパターン光を照射した状態で撮像部により被計測物を撮 像し、計測部は、このとき撮像部力 入力される画像信号に基づいて被計測物にお けるストライプ状のパターン境界を検出することによって被計測物の 3次元形状を計 測していた。
[0010] しかし、このとき計測部に入力される画像信号は、ガンマ補正を施した後の非線形 の階調特性を有する画像信号であるため、図 35に示すように、ガンマ補正後の画像 信号に基づ ヽた表示画像における輝度分布が、最も明る 、部分を除!ヽてガンマ補 正を施す前の線形の階調特性を有する画像信号に基づいた輝度分布よりも高くなつ ている。
[0011] そのため、実際のパターン境界(閾値を示す直線とガンマ補正前の画像信号に基 づいた輝度分布を示す曲線との交点)と、計測部が検出するパターン境界(閾値を示 す直線とガンマ補正後の画像信号に基づいた輝度分布を示す曲線との交点)とに誤 差 u0〜u3が生じてしまい、この誤差により、計測部が実際とは異なる 3次元形状を被 計測物の 3次元形状として誤検出してしまうので、 3次元形状の計測精度が低下して 被計測物の 3次元形状を忠実に再現することができないおそれがあった。
課題を解決するための手段
[0012] そこで、本発明の一つの観点によれば、被計測物を同一の撮像部により撮像して 得られる画像信号に基づ 、て、被計測物の色と 3次元形状とを計測する 3次元色形 状計測装置であって、第 1階調特性に従った第 1補正により画像信号を色計測用画 像信号に変換すると共に、第 2階調特性に従った第 2補正により画像信号を形状計 測用画像信号に変換する補正部と、形状計測用画像信号に基づいて、被計測物の 3次元形状を復元した 3次元モデルと、色計測用画像信号に基づ!ヽて復元した被計 測物の色とを用いて被計測物の 3次元画像を復元する色形状抽出部とを有する構成 とすることにより、被計測物の色を精度良く測定及び再現できるだけでなぐ被計測 物の 3次元形状も高精度に測定及び再現することができる。
[0013] また、本発明の 3次元色形状計測装置にぉ 、て、階調特性は、ガンマ特性としても よい。こうすることにより、被計測物の 3次元形状を高精度に測定できるだけでなぐ被 計測物の 3次元画像を表示する表示装置の表示特性に合わせて、被計測物の色及 び 3次元形状を忠実に再現可能な画像情報を生成することができる。
[0014] また、本発明の 3次元色形状計測装置において、被計測物に所定パターンのバタ 一ン光を投影するパターン光投影部を有し、補正部は、パターン光投影部によるパ ターン光投影時に、撮像部が被計測物を撮像して出力する画像信号に第 2階調特 性に従って第 2補正を行い、パターン光投影部によるパターン光非投影時に、撮像 部が被計測物を撮像して出力する画像信号に第 1階調特性に従って第 1補正を行う 構成としてもよい。このような構成とすることにより、被計測物の色及び 3次元形状をよ り高精度に計測することができる。
[0015] また、本発明の 3次元色形状計測装置において、第 2階調特性は、線形特性として もよい。こうすることにより、計測結果における被計測物の 3次元形状と、被計測物の 実際の 3次元形状との間の誤差を可及的に小さくすることができる。
[0016] また、本発明の 3次元色形状計測装置において、第 2階調特性は、一部分を線形と し、その他の部分を非線形とした特性としてもよい。こうすることにより、特定の輝度を 持った画像領域にぉ 、て、被計測物の 3次元形状を高精度に計測することができる。
[0017] また、本発明の 3次元色形状計測装置において、第 1補正及び前記第 2補正のうち 少なくとも一方は、補正前後の情報を対応させたルックアップテーブルを利用して行 う構成としてもよい。このような構成とすることにより、 3次元色形状計測装置の小型化 及び簡略ィ匕を図ることができる。
[0018] また、本発明の 3次元色形状計測装置において、画像信号は、複数種類の色信号 と輝度信号とを含み、補正部は、色信号毎に第 1補正及び第 2補正を行う構成として もよい。このような構成とすることにより、被計測物の色をより高精度に測定することが できる。
[0019] また、本発明の 3次元色形状計測装置において、画像信号は、輝度信号よりなり、 補正部は、輝度信号を第 1補正及び第 2補正する構成としてもよい。このような構成と することにより、被計測物の形状をより高精度に計測することができる。
[0020] また、本発明の 3次元色形状計測装置において、補正部は、第 2補正を増幅器によ つて行う構成としてもよい。このような構成とすることにより、増幅器の増幅特性の設定 により信号の増幅に所望の補正特性が得られ、後段に余計な補正が不要になり、後 段の構成を複雑化させることなぐ被計測物の 3次元形状をより高精度に計測するこ とがでさる。
[0021] また、本発明の 3次元色形状計測装置において、撮像部と補正部とを撮像ユニット に収納し、色形状抽出部を主装置に収納し、補正部は、第 1階調特性に従った第 1 補正により画像信号を色計測用画像信号に変換する第 1補正部と、第 2階調特性に 従った第 2補正により画像信号を形状計測用画像信号に変換する第 2補正部とを備 え、撮像ユニットは、色計測用画像信号と形状計測用画像信号とを出力する構成とし てもよい。このような構成とすることにより、色形状抽出部は、撮像ユニットが出力する 色計測用画像信号と形状計測用画像信号とに基づ!ヽて、被計測物の色と 3次元形 状とをそれぞれ個別に計測して復元できるので、被計測物の色と 3次元形状とをより 忠実に再現した 3次元画像を復元することができる。
[0022] また、本発明の 3次元色形状計測装置において、撮像ユニットは、第 1補正部及び 第 2補正部の 、ずれか一方を選択し、当該選択した補正部へ画像信号を出力する 選択部を備えた構成としてもよい。このような構成とすることにより、主装置に色計測 用画像信号と形状計測用画像信号とが同時に入力されることがなぐ主装置におけ る処理負担を軽減するこができ、しかも、主装置により被計測物の色だけ、若しくは、 3次元形状だけを個別に計測することもできる。 [0023] また、本発明の 3次元色形状計測装置において、主装置は、撮像ユニットから出力 される色計測用画像信号及び形状計測用画像信号の ヽずれか一方を選択し、当該 選択した画像信号を色形状抽出部へ出力する選択部を備えた構成としてもよ!ヽ。こ のような構成とすることにより、色形状抽出部に色計測用信号と形状計測用信号とが 同時に入力されることがなぐ色形状抽出部における処理負担を軽減するこができ、 し力も、色形状抽出部により被計測物の色だけ、若しくは、 3次元形状だけを個別に 復元することちできる。
[0024] また、本発明の 3次元色形状計測装置にぉ 、て、撮像部を撮像ユニットに収納し、 補正部と色形状抽出部を主装置に収納し、補正部は、第 1階調特性に従った第 1補 正により画像信号を色計測用画像信号に変換する第 1補正部と、第 2階調特性に従 つた第 2補正により画像信号を形状計測用画像信号に変換する第 2補正部とを備え た構成としてもよい。このような構成とすることにより、補正部を持たない比較的安価な 市販の撮像ユニットを用いて、被計測物の色と 3次元形状とを高精度に計測可能な 3 次元色形状計測装置を構成することができる。
[0025] また、本発明の 3次元色形状計測装置において、主装置は、第 1補正部及び前記 第 2補正部のいずれか一方を選択し、撮像ユニットから出力される画像信号を選択し た補正部へ出力する選択部を備えた構成としてもよい。このような構成とすること〖こよ り、補正部を持たない比較的安価な市販の撮像ユニットを用いて、被計測物の色と 3 次元形状とを高精度に計測可能な 3次元色形状計測装置を構成することができ、し 力も、主装置において色計測用画像信号と形状計測用画像信号とを同時に処理す ることがないので、主装置における処理負担を軽減することができ、さらに、被計測物 の色だけ、若しくは、 3次元形状だけを個別に計測することができる。
[0026] また、本発明の 3次元色形状計測装置において、補正部は、第 1階調特性に従つ た第 1補正により画像信号を色計測用画像信号に変換する第 1補正部と、第 3階調 特性に従った第 3補正により色計測用画像信号を形状計測用画像信号に変換する 第 3補正部とを備え、撮像部と第 1補正部とを撮像ユニットに収納し、第 3補正部と色 形状抽出部とを主装置に収納した構成としてもよい。このような構成とすることにより、 予め表示装置の表示特性に合わせた階調補正を行うように構成された市販の撮像 ユニットを用いて、被計測物の色と 3次元形状とを高精度に計測可能な 3次元色形状 計測装置を構成することができる。
[0027] また、本発明の 3次元色形状計測装置において、第 3階調特性は、第 1階調特性と の積を取ることによって線形特性となる階調特性としてもよい。こうすることにより、第 1 補正を施された画像信号に基づいて被計測物の色を忠実に再現することができるだ けでなぐ第 1階調補正を施された画像信号に第 3階調補正を施した画像信号に基 づいて被計測物の 3次元形状を高精度に計測して再現することができる。
発明の効果
[0028] 本発明によれば、被計測物の色を精度良く測定及び再現できるだけでなぐ被計 測物の 3次元形状も高精度に測定及び再現することができる 3次元色形状計測装置 を提供することができる。
図面の簡単な説明
[0029] [図 1]第 1実施形態に従う 3次元色形状計測装置を示す外観斜視図である。
[図 2]図 1における撮像ヘッドの内部構成を示す平面図である。
[図 3]図 2における投影部を拡大して示す平面図、図 2における光源レンズを拡大して 示す正面図、および図 2における投影 LCDおよび CCDを拡大して示す正面図である
[図 4]図 3における複数個の LEDの配列を説明するための側面図、 1個の LEDによつ て個別的に実現される照度分布を示すグラフ、それら複数個の LEDを示す正面図、 及びそれら複数個の LEDにより総合的に実現される合成照度分布を示グラフである
[図 5]図 1に示す 3次元色形状計測装置 1の電気的構成を概念的に表すブロック図で ある。
[図 6]第 1実施形態の撮像ユニットを示す機能ブロック図である。
[図 7]第 2階調特性を示す説明図である。
[図 8]図 5におけるカメラ制御プログラムにお 、て実行されるメイン処理を概念的に表 すフローチャートである。
[図 9]図 8における S605にお 、て実行されるデジカメ処理を概念的に表すフローチヤ ートである。
[図 10]図 8における S607において実行される webcam処理を概念的に表すフローチヤ ートである。
[図 11]図 10における S807にお ヽて実行される投影処理を概念的に表すフローチヤ一 トである。
[図 12]図 8における S609において実行される立体画像処理を概念的に表すフローチ ヤートである。
圆 13]図 12の立体画像処理において採用される空間コードィ匕法の原理を説明するた めの平面図および側面図と、 2組のマスクパターンを示す平面図とである。
[図 14]図 12における S 1006にお ヽて実行される 3次元形状検出処理を 3次元形状検 出処理ルーチンとして概念的に表すフローチャートとである。
[図 15]図 14における S1210において実行される撮像処理サブルーチンとして概念的 に表すフローチャートである。
[図 16]図 14における S1220において実行される 3次元計測処理サブルーチンとして概 念的に表すフローチャートとである。
[図 17]図 16における S1222において実行されるコード画像生成プログラム 36dを概念 的に表すフローチャートである。
[図 18]図 17における S 107にお 、て実行される 2値ィ匕画像生成サブルーチンとして概 念的に表すフローチャートとである。
[図 19]図 14における S1230において実行される 3次元色形状検出結果生成サブルー チンとして概念的に表すフローチャートとである。
[図 20]図 16における S1225の実行によって 2次元の CCD座標系と 3次元の実空間座標 系との間において行われる座標変換と、 2次元の LCD座標系と 3次元の実空間座標 系との間とにおいて座標変換とを説明するための側面図および平面図である。 圆 21]第 2実施形態の撮像ユニットを示す機能ブロック図である。
圆 22]第 2実施形態における撮像処理を示すフローチャートである。
圆 23]第 3実施形態の撮像ユニットを示す機能ブロック図である。
圆 24]第 3実施形態における撮像処理を示すフローチャートである。 [図 25]第 4実施形態の撮像ユニットを示す機能ブロック図である。
[図 26]第 4実施形態の 3次元色形状計測装置 1における電気的構成を概念的に表す ブロック図である。
[図 27]第 4実施形態における撮像処理を示すフローチャートである。
[図 28]第 4実施形態におけるコード画像生成処理を示すフローチャートである。
[図 29]第 4実施形態における 2値ィ匕画像生成処理を示すフローチャートである。
[図 30]第 5実施形態の撮像ユニットを示す機能ブロック図である。
[図 31]第 5実施形態における撮像処理を示すフローチャートである。
[図 32]第 5実施形態におけるコード画像生成処理を示すフローチャートである。
[図 33]第 5実施形態における 2値ィ匕が造成処理を示すフローチャートである。
[図 34]第 5実施形態における 3次元色形状検出結果生成処理を示すフローチャート である。
[図 35]従来の 3次元色形状計測装置による 3次元形状計測時に生じる計測誤差を示 す説明図である。
符号の説明
[0030] 1 3次元色形状計測装置
13 投影部
14 撮像部
15 処理部
35 CPU
36 ROM
36j 階調補正プログラム
36k 階調補正 LUT
37 RAM
50、 60、 70、 80、 90 撮像ユニット
発明を実施するための最良の形態
[0031] 以下、本発明の具体的な実施の形態のいくつ力を図面に基づいて詳細に説明す る。 [0032] (第 1実施形態)
図 1には、本発明の一実施形態に従う 3次元色形状計測装置 1が外観斜視図で示さ れている。この 3次元色形状計測装置 1は、画像を表す画像光(「画像信号光」ともい う。)の投影面 (例えば、平面、スクリーン、机上面など)への投影 (通常の投影)およ びストライプ状のパターン光の被計測物への投影 (3次元情報取得のための投影)と 、被計測物の撮像と、その撮像結果に基づき、被計測物の 3次元情報 (3次元位置情 報、 3次元形状情報、色情報を含む。)をコンピュータによって取得する処理とを行う ように設計されている。そのため、この 3次元色形状計測装置 1は、図 2に示すように、 投影部 13と、撮像部 14と、処理部 15とを含むように構成されている。
[0033] この 3次元色形状計測装置 1は、複数種類のモードのうちユーザによって選択され たものに従って作動する。それらモードは、この 3次元色形状計測装置 1がデジタル力 メラとして機能するデジカメモードと、ウェブカメラとして機能する webcamモードと、被 計測物の 3次元形状を検出して立体画像 (以下、 3次元画像ともいう。)を取得するた めの立体画像モードと、湾曲した原稿等の被計測物の立体画像を平面化した平面 化画像を取得するための平面化画像モードとを含んでいる。
[0034] 図 1には、この 3次元色形状計測装置 1が、特に、立体画像モードや平面化画像モ ードにおいて、被計測物としての原稿 Pの 3次元形状を検出するために、明部と暗部 とが交互に並んで成るストライプ状のパターン光を投影部 13力 原稿 Pに投影してい る状態で示されている。
[0035] このように、投影部 13は、被計測物に所定パターンのパターン光を投影するパター ン光投影部としても機能するものである。
[0036] 図 1に示すように、この 3次元色形状計測装置 1は、略箱状を成す撮像ヘッド 2と、一 端においてその撮像ヘッド 2に連結されたパイプ状のアーム部材 3と、そのアーム部 材 3の他端に連結されたベース 4であって、平面視にお 、て略 L字状を成すように形 成されたものとを備えている。それらアーム部材 3とベース 4とは互いに共同して、撮 像ヘッド 2を片持ち状で保持するスタンドとして機能する。
[0037] 撮像ヘッド 2は、図 2に示すように、投影部 13や撮像部 14がケース内に収容されて構 成されている。図 1に示すように、この撮像ヘッド 2は、鏡筒 5と、ファインダ 6と、フラッシ ュ 7とを、それぞれが部分的に撮像ヘッド 2の正面において露出する姿勢で備えてい る。この撮像ヘッド 2は、さらに、撮像部 14の一部である撮像光学系 21を、それのレン ズの一部が撮像ヘッド 2の正面において露出する姿勢で備えている。その撮像光学 系 21は、それの露出部分において、被計測物を表す画像光を受光する。
[0038] 鏡筒 5は、図 1に示すように、撮像ヘッド 2の正面力も突出しており、その内部におい て、図 2に示すように、投影部 13の一部である投影光学系 20を収容している。この鏡 筒 5は投影光学系 20を、焦点調節のために全体的に移動可能である状態で保持し、 さらに、この鏡筒 5は、投影光学系 20を損傷力も保護している。鏡筒 5の露出端面から 、投影部 13の一部である投影光学系 20のレンズの一部が露出している。投影光学系 20は、それの露出部分において、投影面または被計測物に向力つて画像光または ノターン光を投影する。
[0039] ファインダ 6は、撮像ヘッド 2の正面力も入射した光をそれの背面まで誘導するように 配設される光学レンズによって構成されて ヽる。ユーザがファインダ 6を 3次元色形状 計測装置 1の背面からのぞき込むと、ユーザが、撮像光学系 21のうちのイメージセン サの一例である CCD (Charge Coupled Device) 22 (結像面)上に画像が結像する領 域とほぼ一致する領域内にぉ 、てその画像を視認できるようになって!/、る。
[0040] フラッシュ 7は、例えば、デジカメモードにおいて、不足光量を補充するために発光 する光源であり、キセノンガスが充填された放電管を用いて構成されている。したがつ て、このフラッシュ 7は、撮像ヘッド 2に内蔵されているコンデンサ(図示しない)の放電 により繰り返し使用することができる。
[0041] 撮像ヘッド 2は、さらに、それの上面において、レリーズボタン 8と、モード切替スイツ チ 9と、モニタ LCD (Liquid Crystal Device) 10とを備えている。
[0042] レリーズボタン 8は、 3次元色形状計測装置 1を作動させるためにユーザによって操 作される。このレリーズボタン 8は、ユーザの操作状態 (押下状態)が「半押し状態」で ある場合と「全押し状態」である場合とで異なる指令を発令できる 2段階の押しボタン 式のスィッチによって構成されている。レリーズボタン 8の操作状態は処理部 15によつ て監視される。処理部 15によって「半押し状態」が検出されれば、よく知られたオート フォーカス (AF)および自動露出(AE)の機能が起動し、ピント、絞りおよびシャツタス ピードが自動的に調節される。これに対し、処理部 15によって「全押し状態」が検出さ れれば、撮像等が行われる。
[0043] モード切替スィッチ 9は、 3次元色形状計測装置 1の作動モードを、前述のデジカメ モード、 webcamモード、立体画像モード、および平面化画像モードと、オフモード等 を含む複数種類のモードの ヽずれかとして設定するためにユーザによって操作され る。このモード切替スィッチ 9の操作状態は処理部 15によって監視されており、モード 切替スィッチ 9の操作状態が処理部 15によって検出されると、その検出された操作状 態に対応するモードでの処理力 ¾次元色形状計測装置 1に対して行われる。
[0044] モニタ LCD10は、液晶ディスプレイ (Liquid Crystal Display)を用いて構成されてお り、処理部 15力も画像信号を受けて、画像をユーザに表示する。このモニタ LCD10は 、例えば、デジカメモードや webcamモードにおける撮像画像、立体画像モードにお ける 3次元形状検出結果画像、平面化画像モードにおける平面化画像等を表示する
[0045] 図 1に示すように、撮像ヘッド 2は、さらに、 RF (無線)インターフェイスとしてのアンテ ナ 11と、撮像ヘッド 2とアーム部材 3とを互いに連結する連結部材 12とを備えている。
[0046] アンテナ 11は、図 5に示すように、 RFドライバ 24に接続されている。このアンテナ 11 は、デジカメモードで取得した撮像画像データ、立体画像モードで取得した立体画 像データ等を、 RFドライバ 24を介して、図示しない外部インターフェイスに無線によつ て送信する。
[0047] 連結部材 12は、撮像ヘッド 2とアーム部材 3の一端部とを、ねじ機構により、着脱可 能であり、かつ、相対取付け角度が調節可能である状態で互いに連結する。具体的 には、この連結部材 12は、例えば、内周面に雌ねじが形成されたリングとして形成さ れ、撮像ヘッド 2の一側面に回転可能かつ離脱不能に保持されている。その雌ねじ に対応し、アーム部材 3の一端部に雄ねじが形成されている。それら雌ねじと雄ねじと が互いに螺合されることにより、撮像ヘッド 2とアーム部材 3とが着脱可能に互いに連 結される。したがって、撮像ヘッド 2は、アーム部材 3から取り外せば、通常のデジタル カメラとして使用することができる。さらに、それら雌ねじと雄ねじとが互いに螺合され ることにより、撮像ヘッド 2を、アーム部材 3の一端部に任意の角度で固定することがで きる。
[0048] 図 1に示すように、アーム部材 3は、任意の形状に屈曲可能であり、かつ、外力が加 えられない限りその形状が復元しな 、素材または機構によって構成されて 、る。これ により、アーム部材 3は、それに装着された撮像ヘッド 2を、それの位置および向きを 任意に調整可能に保持することができる。このアーム部材 3は、例えば、任意の形状 に屈曲可能な蛇腹状のパイプによって構成される。
[0049] 図 1に示すように、ベース 4は、前述のように、アーム部材 3の他端に連結されている 。このベース 4は、机等の載置台に載置され、撮像ヘッド 2とアーム部材 3とを支持する 。このベース 4は、平面視において略 L字状を成すように形成されているため、重量の 割に高い安定度で撮像ヘッド 2およびアーム部材 3を支持することができる。さらに、 それらアーム部材 3とベース 4とは着脱可能に互いに連結されているため、例えば搬 送や収納の先立ち、それらアーム部材 3とベース 4とを互いに分離することにより、そ れらアーム部材 3とベース 4とが占めるスペースの形態を任意に変更することが可能と なり、よって、搬送し易さの向上および収納スペースの削減を容易に図り得る。
[0050] 図 2には、撮像ヘッド 2の内部構成が概念的に表されている。撮像ヘッド 2は、前述 のように、投影部 13と、撮像部 14と、処理部 15とを主に内蔵している。
[0051] 投影部 13は、投影面または被計測物に任意の画像光 (投影画像)またはパターン 光を投影するためのユニットである。この投影部 13は、図 2に示すように、基板 16と、 複数個の LED (Light Emitting Diode) 17 (以下、それらのアレイを「LEDアレイ 17A」と いう。)と、光源レンズ 18と、投影 LCD19と、投影光学系 20とを、投影方向に沿って直 列に備えている。この投影部 13の詳細は、後に図 3を参照して説明する。
[0052] 撮像部 14は、被計測物としての原稿 Pを撮像するためのものである。この撮像部 14 は、図 2に示すように、撮像光学系 21と、 CCD22とを、画像光の入射方向に沿って直 列に備えている。
[0053] 撮像光学系 21は、図 2に示すように、複数枚のレンズを用いて構成されている。この 撮像光学系 21は、よく知られたオートフォーカス機能により、焦点距離および絞りを自 動調整して外部からの光を CCD22上に結像する。
[0054] CCD (Charge Coupled Device) 22は、フォトダイオード素子などの光電変換素子を マトリクス状に配列して構成されている。この CCD22は、撮像光学系 21を介してこの C CD22の表面に結像される画像の光の色および強さに応じた信号 (以下、画像信号と もいう。)を各画素ごとに生成する。その生成された信号は、デジタルデータに変換さ れて処理部 15に出力される。
[0055] 図 5にブロック図で示すように、処理部 15は、フラッシュ 7、レリーズボタン 8およびモ ード切替スィッチ 9にそれぞれ電気的に接続されている。処理部 15は、さら〖こ、モニタ LCD10にはモニタ LCDドライバ 23を介して、アンテナ 11には RFドライバ 24を介して、 ノ ッテリ 26には電源インターフェイス 25を介してそれぞれ電気的に接続されている。 処理部 15は、さらに、外部メモリ 27およびキャッシュメモリ 28にそれぞれ電気的に接続 されている。処理部 15は、さらに、 LEDアレイ 17Aには光源ドライバ 29を介して、投影し CD19には投景 LCDドライバ 30を介して、 CCD22には CCDインターフェイス 31を介し てそれぞれ電気的に接続されている。それらフラッシュ 7等は、処理部 15によって制 御される。なお、本実施形態では、 CCD22と CCDインターフェイス 31とにより撮像ュ- ット 60を構成している。
[0056] 外部メモリ 27は、着脱可能なフラッシュ ROM (Read Only Memory)であり、デジカメ モードや webcamモード、さらに立体画像モードにお!、て撮像された撮像画像や 3次 元情報を記憶することが可能である。外部メモリ 27を構成するために、例えば、 SD力 ード、コンパクトフラッシュ (登録商標)カード等を使用することができる。
[0057] キャッシュメモリ 28は、データの読み書きを高速で行 、得る記憶装置である。キヤッ シュメモリ 28は、例えば、デジカメモードにおいて撮像された撮像画像を高速でキヤッ シュメモリ 28に転送し、処理部 15で画像処理を行って力 外部メモリ 27に格納するこ とを可能にするために使用される。キャッシュメモリ 28を構成するために、例えば、 SD RAM (Synchronous Dynamic Random Access Memory)、 DDRRAM(Double Data Rate Random Access Memory)等を使用することができる。
[0058] 電源インターフェイス 25、光源ドライノく 29、投影 LCDドライバ 30および CCDインター フェイス 31はそれぞれ、バッテリ 26、 LEDアレイ 17A、投景 LCD19および CCD22を制 御する各種の集積回路 IC (Integrated Circuit)によって構成されている。
[0059] ここで、投影部 13の詳細を図 3を参照することによって説明する。図 3 (a)は投影部 1 3の拡大図であり、図 3 (b)は光源レンズ 18の正面図であり、図 3 (c)は投影 LCD19と C CD22との配置関係を説明するための正面図である。
[0060] 前述のように、投影部 13は、図 3 (a)に示すように、基板 16と、 LEDアレイ 17Aと、光 源レンズ 18と、投影 LCD19と、投影光学系 20とをパターン光の投影方向に沿って直 列に備えている。
[0061] 基板 16は、それに LEDアレイ 17Aが装着されることにより、その装着された LEDァレ ィ 17Aとの間において電気的な配線を行う。基板 16は、例えば、アルミニウム製基板 に絶縁性合成樹脂を塗布してカゝら無電解メツキにてパターンを形成したものや、ガラ スエポキシ基材をコアとする単層または多層構造の基板を使用して製作することがで きる。
[0062] LEDアレイ 17Aは、投影 LCD19に向けて放射状の光を発光する光源である。この LE Dアレイ 17Aにおいては、基板 16上に複数個の LED (発光ダイオード) 17が、図 3 (b) に示すように、千鳥状配列のもとに、銀ペーストを介して接着されている。それら基板 16と複数個の LED17とは、ボンディングワイヤを介して電気的に結線されている。複 数個の LED17を千鳥状に配列することによる効果は、後に図 4を参照して詳細に説 明する。
[0063] このように、本実施形態においては、投影部 13の光源として複数個の LED17が使用 されているため、光源として白熱電球、ハロゲンランプ等が使用される場合に比べて 、電気が光に変換される電気光変換効率の向上や、赤外線や紫外線の発生の抑制 を容易に行い得る。よって、 3次元色形状計測装置 1の節電、長寿命化、発熱抑制等 を容易に図り得る。
[0064] このように、 LED17はハロゲンランプ等に比べて熱線の発生率が極めて低いため、 光源レンズ 18や投影光学系 20に合成樹脂製のレンズを採用することができる。よって 、ガラス製のレンズを採用する場合に比べて、光源レンズ 18および投影光学系 20を 安価で軽量に構成することができる。
[0065] さらに、本実施形態においては、 LEDアレイ 17Aを構成する各 LED17が、互いに同 じ色の光を発光し、具体的には、材料に Al、 In、 Gaおよび Pの 4元素を用いたアンバ 一色を発光するように構成されている。したがって、複数色の光を発光させる場合に 考慮しなければならない問題である色収差の補正を考慮する必要がなぐよって、色 収差を補正するために投影光学系 20に色消しレンズを採用する必要もない。その結 果、投影光学系 20の設計の自由度を向上させることができる。
[0066] さらに、本実施形態においては、電気光変換効率が約 80[lumenZW]というように 他の発光色に比べて高い 4元素材料のアンバー色 LEDが採用されるため、 3次元色 形状計測装置 1の高輝度化、節電および長寿命化を容易に図り得る。
[0067] 本実施形態においては、具体的には、 LEDアレイ 17Aが 59個の LED17によって構 成され、各 LED17は 50[mW] (20 [mA] , 2.5 [V])で駆動され、結局、 59個の LED17の 全体は略 3 [W]の消費電力で駆動される。
[0068] さらに、本実施形態においては、各 LED17から発光される光が光源レンズ 18および 投影 LCD19を通過して投影光学系 20から出射する場合の光束値としての明るさが、 全面照射の場合であっても 25ANSIルーメン程度に設定されている。
[0069] 本実施形態においては、 3次元色形状計測装置 1の投影部 13からの出射光の明る さがその程度に選定されるため、例えば、被計測物が人や動物の顔である場合に、 立体画像モードにぉ 、て、その被計測物の 3次元形状を検出するためにその被計測 物にパターン光を投影しても、被計測物に眩しさを与えずに済む。したがって、本実 施形態によれば、被計測物が人や動物である場合に、その被計測物が目をつぶらな い状態でその被計測物の 3次元形状を検出することが容易となる。
[0070] 図 3に示すように、光源レンズ 18は、 LEDアレイ 17A力 放射状に発光される光を集 光するレンズであり、その材質はアクリルに代表される光学榭脂である。
[0071] 図 3 (a)に示すように、光源レンズ 18は、複数個の凸状のレンズ部 18aと、それらレン ズ部 18aを支持するベース部 18bと、エポキシ封止材 18cと、複数本の位置決めピン 1 8dとを備えている。
[0072] 図 3 (a)に示すように、各レンズ部 18aは、ベース部 18bのうち LEDアレイ 17Aの各 LE D17に対向する位置に、ベース部 18bから投影 LCD19に向かって突設されている。ェ ポキシ封止材 18cは、ベース部 18bのうち LEDアレイ 17Aが気密に収容されるべき凹 部 18e内に充填され、それにより、その凹部 18e内において LEDアレイ 17Aが封止され る。このエポキシ封止材 18cは、 LEDアレイ 17Aの封止機能を有するのであり、さらに、 基板 16と光源レンズ 18とを互いに接着する機能も有する。
[0073] 図 3 (a)に示すように、複数本の位置決めピン 18dは、光源レンズ 18と基板 16とを相 対的に位置決めするために、光源レンズ 18に、その光源レンズ 18力 基板 16に向か つて突設されている。図 3 (b)に示すように、複数本の位置決めピン 18dのうちの一部 は、基板 16に穿設された長穴 16aに挿入される一方、残りは、基板 16に穿設された真 円穴 16bに挿入され、それにより、基板 16に光源レンズ 18力 がたがなく正規の位置 に固定される。
[0074] このように、本実施形態においては、光源レンズ 18と、 LEDアレイ 17Aと、基板 16とが 、投影方向に空間的に詰めて互いに積層されているため、それら光源レンズ 18等の 組立体のコンパクトィ匕および省スペース化が容易となる。
[0075] さらに、本実施形態においては、基板 16が、 LEDアレイ 17Aを保持するという基本的 な機能の他に、光源レンズ 18を保持するという付随的な機能をも果たしている。した がって、本実施形態によれば、光源レンズ 18を専ら保持する部品の追加を省略でき 、その結果、 3次元色形状計測装置 1の部品点数の削減が容易となる。
[0076] さらに、本実施形態においては、各レンズ部 18aが、図 3 (a)に示すように、 LEDァレ ィ 17Aの各 LED17に 1対 1の関係で正対するように配置されている。よって、各 LED17 から発光される放射状の光は、各 LED17に対向する各レンズ部 18によって効率良く 集光され、図 3 (a)に示すように、指向性の高い放射光として投影 LCD19に照射され る。
[0077] このように指向性を高めたのは、投影 LCD19に略垂直に光が入射すれば、その投 影 LCD19の面内における透過率むらが抑制されて画質が向上し得るという理由から である。
[0078] 投影光学系 20は、投影 LCD19を通過した光を投影面または被計測物に向力つて 投影するための複数枚のレンズである。それらレンズは、ガラス製レンズと合成樹脂 製レンズとの組合せ力 成るテレセントリックレンズによって構成されて 、る。テレセン トリックとは、投影光学系 20を通過する主光線は、入射側の空間では光軸に平行にな り、射出瞳の位置は無限になる構成をいう。
[0079] 投影光学系 20は、上述のようにテレセントリック特性を持ち、その入射 NAが 0.1程度 であるため、垂直 ±5° 以内の光のみが投影光学系 20の内部の絞りを通過できるよう に、投影光学系 20の光路が規制されている。
[0080] したがって、本実施形態においては、投影光学系 20のテレセントリック性により、投 影 LCD19を垂直 ±5° で通過する光のみを投影光学系 20に投影し得る構成と相俟っ て、画質の向上を容易に図り得る。
[0081] よって、本実施形態においては、画質向上のために、各 LED17からの出射光が投 影 LCD19に略垂直に入射するように各 LED17からの光の出射角度を揃え、かつ、各 LED17からの出射光のほとんどが投影光学系 20に垂直 ±5° の入射角度範囲内で 入射させることが重要である。
[0082] 図 3 (c)に示すように、投影 LCD19は、光源レンズ 18を通過して集光された光に空 間変調を施して、投影光学系 20に向けてパターン光を出力する空間変調素子である 。この投影 LCD19は、具体的には、縦横比が 1 : 1ではない板状の液晶ディスプレイ (L iquid Crystal Display)によって構成されている。
[0083] 図 3 (c)に示すように、この投影 LCD19にお 、ては、その投影 LCD19を構成する複 数個の画素が一平面上において千鳥状に配列されている。具体的には、この投影 L CD19においては、その液晶ディスプレイの長手方向(横方向)に複数個の画素が予 め定められた画素ピッチで等間隔に並んだ画素列が複数並列に配置され、かつ、互 いに隣接する 2つの画素列が、その画素ピッチより短い長さで、その液晶ディスプレイ の長手方向にずらされて 、る。
[0084] このように、本実施形態においては、投影 LCD19を構成する複数個の画素が千鳥 状に配列されているため、投影 LCD19によって空間変調が施される光を投影 LCD19 の長手方向において前記画素ピッチの 1Z2のピッチで制御することができる。したが つて、本実施形態によれば、細いピッチで投影パターン光を制御することができ、よつ て、被計測物の 3次元の形状を高い分解能で高精度に検出することができる。
[0085] また、後述する立体画像モードや平面化画像モードにお!、ては、被計測物の 3次 元形状を検出すベぐ図 1に示すように、明部と暗部とが交互に並んで成るストライプ 状のパターン光が被計測物に向けて投影される。本実施形態においては、そのバタ ーン光において複数本のストライプ(明部または暗部)が並ぶ方向(各ストライプの幅 方向)が投影 LCD19の長手方向に一致するようにパターン光が予め定義されている 。したがって、パターン光において明部と暗部との境界を 1Z2ピッチで制御すること ができ、よって、同様に高精度に 3次元の形状を検出することができる。
[0086] 図 3 (c)にお!/、ては、投影 LCD19と CCD22とが横に並んで示されて!/、るが、それら 投影 LCD19と CCD22とは、紙面手前側に撮像ヘッド 2の正面が存在し、紙面裏側か ら光が投影 LCD19に入射し、紙面手間側力 光が CCD22に入射してその CCD22に 被計測物像が結像される状態で、配置されている。
[0087] それら投影 LCD19と CCD22とは、撮像ヘッド 2の内部においては、図 3 (c)に示すレ ィアウトで配置される。具体的には、それら投影 LCD19と CCD22とは、投影 LCD19の 幅広面と CCD22の幅広面とが略同一の方向を向くように配置されている。したがって 、本実施形態によれば、投影 LCD19がパターン光を投影している被計測物からの反 射光を 3次元色形状計測装置 1内において CCD22に結像させることによって被計測 物の 3次元形状を検出するために、投影 LCD19の中心と CCD22の中心とを結ぶ一直 線を、三角測量を行う際に着目される 3辺のうちの 1辺として利用することができる。
[0088] また、 CCD22は、投影 LCD19の長手方向に位置する側(画素列が延びる方向に位 置する側)に配置されている。よって、特に、立体画像モードや平面化画像モードに おいて、三角測量の原理を利用して被計測物の 3次元形状を検出する場合には、 C CD22と被計測物とのなす傾きを 1Z2ピッチで制御することができるため、同様に高 精度に被計測物の 3次元形状を検出することができる。
[0089] 本実施形態においては、投影 LCD19が画素配列として千鳥配列を採用するため、 画素列にお 、て画素が並ぶ間隔と等しい間隔で複数本のストライプが並んだパター ン光、すなわち、千鳥配列を利用せずに形成される複数種類の標準的なパターン光 のうちストライプ間の間隔が最も狭いものよりストライプ間の間隔が狭い別のパターン 光を形成することが可能となる。したがって、本実施形態によれば、標準的なパター ン光の種類が n種類である場合に、 (n+ 1)ビットの空間コードを扱うことが可能となり 、このことによつても、被計測物の 3次元形状を検出する精度が向上する。
[0090] よって、本実施形態によれば、投影 LCD19における画素ピッチ間の間隔、すなわち 、投影 LCD19の解像度の割に多数のビットの空間コードを扱うことが可能となる。 [0091] 以下、図 4を参照することにより、 LEDアレイ 17Aの配列をさらに詳しく説明する。図 4 (a)は、光源レンズ 18から出射する光の 3次元形状を示す側面図である。図 4 (b)は、 1個の LED17から投影 LCD19の入射面 19aに入射した光の照度分布を示すグラフで ある。図 4 (c)は、 LEDアレイ 17Aの配列を部分的に拡大して示す正面図である。図 4 ( d)は、複数個の LED17から投影 LCD19の入射面 19aに入射した複数の光の合成照 度分布を示すグラフである。
[0092] 図 4 (a)に示すように、光源レンズ 18からの出射光力 半値拡がり半角 Θが略 5° で ある状態で、図 4 (b)に示すような照度分布を有する光として、投影 LCD19の入射面 1 9aに到達するように光源レンズ 18が設計されて 、る。
[0093] また、図 4 (c)に示すように、複数個の LED17は、投影 LCD19における画素の千鳥 配列に合わせて、基板 16上に千鳥状に配列されている。具体的には、複数個の LED 17がピッチ dで横方向に直列に並んで成る LED列が複数、ピッチ dの 3Z2倍と等し いピッチで縦方向に並列に並んでいる。さらに、縦方向において互いに隣接する 2つ の LED列は、ピッチ dと等しい長さで、横方向に互いにずらされている。
[0094] すなわち、本実施形態においては、それら LED17の配列が三角格子配列とされ、 V、ずれの LED17も、それに隣接する別の 、ずれの LED 17からもピッチ dと等し!/、距離 離れているのである。
[0095] そして、本実施形態においては、ピッチ dの長さ力 1個の LED17から出射した光に よって投景 LCD19について与えられる照度分布の半値全幅(FWHM (Full Width Hal f Maximum) )以下となるように、予め設定されて!、る。
[0096] よって、本実施形態においては、光源レンズ 18を通過して投影 LCD19の入射面 19a に到達する光の合成照度分布が、図 4 (d)に示すように、小さなリップルを有する略直 線状のグラフで表され、その結果、投影 LCD19の入射面 19aの全体に略均一に光が 照射される。したがって、本実施形態によれば、投影 LCD19における照度むらが抑 制され、その結果、画像光が投影面に高品質で投影され、さらに、ノターン光が被計 測物に高品質で投影される。
[0097] 図 5には、 3次元色形状計測装置 1の電気的な構成がブロック図で表されている。処 理部 15はコンピュータを主体として構成されており、そのコンピュータは、 CPU (Centr al Processing Unit) 35と、 ROM36と、 RAM37とを含むように構成されている。
[0098] CPU35は、 ROM36に記憶されたプログラムを RAM37を利用しつつ実行することによ り、レリーズボタン 8の操作状態の検出、 CCD22からの画像データの取込み、その取り 込まれた画像データの転送および格納、モード切替スィッチ 9の操作状態の検出等 の各種処理を行う。
[0099] ROM36には、カメラ制御プログラム 36aと、パターン光撮影プログラム 36bと、輝度画 像生成プログラム 36cと、コード画像生成プログラム 36dと、コード境界抽出プログラム 3 6eと、レンズ収差補正プログラム 36fと、三角測量演算プログラム 36gと、原稿姿勢演算 プログラム 36hと、平面変換プログラム 36iとが格納されて 、る。
[0100] カメラ制御プログラム 36aは、 3次元色形状計測装置 1全体の制御を実行するために 実行され、その制御には、図 8にフローチャートで概念的に表されているメイン処理が 含まれる。
[0101] パターン光撮影プログラム 36bは、原稿 Pの 3次元形状を検出するためにパターン光 が投影された被計測物を撮像してパターン光有画像を取得し、さらに、パターン光が 投影されて ヽな 、被計測物を撮像してパターン光無画像を取得するために実行され る。
[0102] 輝度画像生成プログラム 36cは、パターン光撮影プログラム 36bの実行によって同じ 被計測物につ 、て取得されたパターン光有画像とパターン光無画像との差分をとり、 ノ ターン光が投影された被計測物を表す輝度画像を生成するために実行される。
[0103] 本実施形態においては、同じ被計測物に対して複数種類のパターン光が時系列 に順次投影され、各パターン光が投影されるごとに被計測物が撮像される。そのよう にして撮像された複数枚のパターン光有画像の各々とパターン光無画像との差分が とられ、その結果、パターン光の種類と同数の輝度画像が生成される。
[0104] コード画像生成プログラム 36dは、輝度画像生成プログラム 36cの実行によって生成 された複数枚の輝度画像それぞれに対する閾値処理により生成される 2値化画像か ら、各画素毎に空間コードが割り当てられたコード画像を生成するために実行される
[0105] 概略的に説明するに、このコード画像生成プログラム 36dが実行されると、複数種類 のパターン光のうちノターンライン間の間隔が最も狭いものが投影された被計測物の 輝度画像におけるパターンライン間の間隔が周期として取得され、その周期の輝度 画像全体における分布が周期分布として取得される。
[0106] このコード画像生成プログラム 36dが実行されると、さらに、その取得された周期分 布に従ってサイズが変化する可変窓が各パターン光ごとの輝度画像にローカルに設 定されることにより、前記可変窓を用いたフィルタ処理により輝度画像全体に対して 閾値がローカルに算出されて設定される。
[0107] そのようにして設定された閾値の分布を表す閾値画像と各パターン光ごとの輝度画 像との関係から、各パターン光ごとに 2値ィ匕画像が生成される。
[0108] コード境界抽出プログラム 36eは、コード画像生成プログラム 36dの実行によって生 成されたコード画像と、輝度画像生成プログラム 36cの実行によって生成された輝度 画像とを利用することにより、コードの境界座標をサブピクセル精度で求めるために 実行される。
[0109] レンズ収差補正プログラム 36fは、コード境界抽出プログラム 36eの実行によってサ ブピクセル精度で求められたコードの境界座標に対して、撮像光学系 21の収差補正 を行うために実行される。
[0110] 三角測量演算プログラム 36gは、レンズ収差補正プログラム 36fの実行によって収差 補正が行われたコードの境界座標から、その境界座標に関する実空間の 3次元座標 を演算するために実行される。
[0111] 原稿姿勢演算プログラム 36hは、三角測量演算プログラム 36gの実行によって演算 された 3次元座標から原稿 Pの 3次元形状を推定して求めるために実行される。
[0112] 平面変換プログラム 36iは、原稿姿勢演算プログラム 36hの実行によって演算された 原稿 Pの 3次元形状に基づき、原稿 Pをその正面力も撮像した場合に生成される如き 平面化画像を生成するために実行される。
[0113] また、図 5に示すように、 RAM37には、パターン光有画像格納部 37aと、パターン光 無画像格納部 37bと、輝度画像格納部 37cと、コード画像格納部 37dと、コード境界座 標格納部 37eと、収差補正座標格納部 37gと、 3次元座標格納部 37hと、原稿姿勢演 算結果格納部 37iと、平面変換結果格納部 37jと、投影画像格納部 37kと、ワーキング エリア 371と、周期分布格納部 37pと、閾値画像格納部 37qと、 2値化画像格納部 37rと がそれぞれ記憶領域として割り当てられて ヽる。
[0114] ノターン光有画像格納部 37aは、パターン光撮影プログラム 36bの実行によって撮 像されたパターン光有画像を表すパターン光有画像データを格納する。パターン光 無画像格納部 37bは、パターン光撮影プログラム 36bの実行によって撮像されたパ ターン光無画像を表すパターン光無画像データを格納する。
[0115] 輝度画像格納部 37cは、輝度画像生成プログラム 36cの実行によって生成された輝 度画像を表すデータを格納する。コード画像格納部 37dは、コード画像生成プロダラ ム 36dの実行によって生成されたコード画像を表すデータを格納する。コード境界座 標格納部 37eは、コード境界抽出プログラム 36eの実行によってサブピクセル精度で 抽出された各コードの境界座標を表すデータを格納する。
[0116] 収差補正座標格納部 37gは、レンズ収差補正プログラム 36fの実行によって収差補 正が行われたコードの境界座標を表すデータを格納する。 3次元座標格納部 37hは、 三角測量演算プログラム 36gの実行によって演算された実空間の 3次元座標を表す データを格納する。
[0117] 原稿姿勢演算結果格納部 37iは、原稿姿勢演算プログラム 36hの実行によって演算 された原稿 Pの 3次元形状に関するパラメータを格納する。平面変換結果格納部 37j は、平面変換プログラム 36iの実行によって取得された平面変換結果を表すデータを 格納する。投影画像格納部 37kは、投影部 13が被計測物に投影する投影画像すな わちパターン光に関する情報を格納する。ワーキングエリア 371は、 CPU35がその動 作のために一時的に使用するデータを格納する。
[0118] 周期分布格納部 37p、閾値画像格納部 37q及び 2値ィ匕画像格納部 37rは、コード画 像生成プログラム 36dの実行によって取得された周期分布、閾値画像および 2値化画 像を表すデータをそれぞれ格納する。
[0119] ここで、本実施形態に係る 3次元色形状計測装置 1が備える撮像ユニット 60の構成 について、図 6を参照して説明する。なお、以下の説明では、 3次元色形状計測装置 1において、撮像ユニット 60を除く 3次元色形状計測装置 1全体を主装置と称して説明 する。 [0120] 図 6に示すように、第 1実施形態の撮像ユニット 60は、撮像部として機能する CCD61 と、この CCD61が被計測物を撮像して出力する画像信号を増幅するアンプ 62と、アン プ 62により増幅したアナログの画像信号をアナログ 'ディジタル変換する A/Dコンパ ータ 63と、 A/Dコンバータ 63から入力される画像信号に対して階調補正を行うことによ り被計測物の色を計測及び復元するための色計測用画像信号と、被計測物の 3次元 形状を計測及び復元するための形状計測用画像信号を生成して主装置へ出力する 補正部 66とを収納して 、る。
[0121] このように構成した撮像ユニット 60では、アンプ 62と A/Dコンバータ 63と、補正部 66と により CCDインターフェイス 31が構成され、この CCDインターフェイス 31力 主装置へ 画像信号が出力される。
[0122] また、第 1実施形態の主装置は、撮像ユニット 60から入力される色計測用画像信号 に基づいて復元した被計測物の色と、撮像ユニット 60から入力されるから入力される 形状計測用信号に基づ 、て被計測物の 3次元形状を復元した 3次元モデルとを用い て被計測物の 3次元画像を復元する色形状抽出部を収納している。
[0123] 補正部 66は、第 1階調特性に従った第 1補正により、 A/Dコンバータ 63から入力さ れる画像信号を色計測用画像信号に変換する第 1補正回路 64と、第 1補正回路 64が 出力する色計測用画像信号を増幅して主装置へ出力するアンプ 64aと力もなる第 1 補正部を備えると共に、第 2階調特性に従った第 2補正により、 A/Dコンバータ 63から 入力される画像信号を形状計測用画像信号に変換する第 2補正回路 65と、第 2補正 回路 65が出力する形状計測用画像信号を増幅して主装置へ出力するアンプ 65aとか らなる第 2補正部とを備えて 、る。
[0124] ここで、第 1階調特性とは、第 1階調特性とは、モニタ LCD10の非線形な表示特性 に合わせた非線形のガンマ特性のことであり、第 2階調特性とは、少なくとも一部分に 線形な特性を有し、その他の部分を非線形又は線形としたガンマ特性のことである。
[0125] 特に、第 2階調特性としては、図 7に示すような 3つの特性パターンがあり、この撮像 ユニット 60において第 2補正を行う際には、 CCD22により撮像した画像の輝度の分布 特性に応じて選択した 1つの特性パターンを用いる。
[0126] ここで、図 7 (a)には、全体が線形特性の特性パターンが示されており、撮像した画 像にぉ 、て、輝度が低 ヽ(喑 、)部分と、輝度が高!、(明る!/、)部分が!/、ずれも存在 する場合には、この特性パターンに従って第 2補正を行う。
[0127] また、図 7 (b)、 (c)には、一部分に線形な特性を有する特性パターンが示されてお り、撮像した画像において、非常に輝度が高い部分が存在しない場合には、図 7 (b) に示す特性パターンに従って第 2補正を行い、非常に輝度が高い部分と非常に輝度 が低い部分が存在しない場合には、図 7 (c)に示す特性パターンにしたがって第 2補 正を行う。
[0128] このように、一部分に線形な特性を有する特性パターンに従った第 2補正により形 状測用画像信号を生成することによって、形状計測用画像信号のダイナミックレンジ を大きくすることができ、被計測物の 3次元形状をより細やかに計測することができ、 被計測物の実際の形状を忠実に再現可能な形状計測用画像信号を生成することが できる。
[0129] 第 1補正部は、第 1補正回路 64とアンプ 64aとが動作して画像信号を色計測用画像 信号に変換して出力するものであり、パターン光投影部として機能する投影部 13の パターン光非投影時に、撮像部である CCD22が被計測物を撮像して出力する画像 信号に対して第 1階調特性に従って第 1補正を行って、画像信号を色計測用画像信 号に変換するものである。
[0130] また、この第 1補正部が補正する画像信号は、複数種類の色信号と輝度信号とを含 んでおり、この第 1補正部は、画像信号に含まれる各色信号ごとに第 1補正を行うと共 に、画像信号に含まれる輝度信号に対しても第 1補正を行う。
[0131] また、第 2補正部は、第 2補正回路 65とアンプ 65aとが動作して形状計測用画像信号 を出力するものであり、パターン光投影部として機能する投影部 13のパターン光投影 時に、撮像部である CCD22が被計測物を撮像して出力する画像信号に対して第 2階 調特性に従って第 2補正を行って、画像信号を形状計測用信号に変換するものであ る。
[0132] また、この第 2補正部が補正する画像信号は、複数種類の色信号と輝度信号とを含 んでおり、この第 2補正部は、画像信号に含まれる各色信号ごとに第 2補正を行うと共 に、画像信号に含まれる輝度信号に対しても第 2補正を行う。 [0133] また、主装置は、撮像ユニット 60から出力される色形状計測用画像信号及び形状 計測用画像信号の ヽずれか一方を選択し、当該選択した画像信号を色形状抽出部 へ出力する選択部を備えている。なお、この選択部による画像信号の選択に関して は、処理部 15でパターン光撮像プログラム 36bが実行されるときに、 CPU35の制御に より色形状計測用画像信号及び形状計測用画像信号のいずれか一方が選択される 。すなわち、主装置において処理部 15がこの選択部の機能を担っている。
[0134] 具体的に説明すると、主装置において、処理部 15によりパターン光撮影プログラム 36bが実行されてパターン光無画像が取得されるときに、 CPU35の制御により第 1補 正部と主装置とが接続されて色計測用画像信号が選択される。
[0135] 一方、主装置において、処理部 15によりパターン光撮影プログラム 36bが実行され てパターン光有画像が取得されるときに、 CPU35の制御により第 2補正部と主装置と が接続されて形状計測用画像信号が選択される。
[0136] このように、第 1実施形態では、撮像ユニット 60に第 1補正部と第 2補正部とを備えた 補正部を設けると共に、主装置に選択部を設けたため、色形状抽出部により被計測 物の色と 3次元形状とを忠実に復元した 3次元画像を生成することができるだけでなく 、主装置の処理部 15において、画像信号を補正する処理を行わなくてすむので、処 理部 15が担う処理負担を軽減でき、 3次元色形状計測装置 1による 3次元色形状計測 処理の高速ィ匕を図ることができる。
[0137] ここで、図 8を参照することにより、カメラ制御プログラム 36aを説明する。このカメラ制 御プログラム 36aが前記コンピュータによって実行されることにより、メイン処理が実行 される。
[0138] このメイン処理にお!、ては、まず、ステップ S601 (以下、単に「S601」で表す。他のス テツプについても同じとする。 )において、ノ ッテリ 26を含む電源が ONされる。次に、 S 602において、処理部 15、周辺インターフェイス等が初期化される。
[0139] 続いて、 S603において、モード切替スィッチ 9の操作状態を判別するためにキース キャンが行われ、その後、 S604において、モード切替スィッチ 9の操作によってデジ力 メモードが選択されたか否かが判定される。今回は、デジカメモードが選択されたと 仮定すれば、判定が Yesとなり、 S605において、後述のデジカメ処理が実行される。 [0140] これに対し、今回は、モード切替スィッチ 9の操作によってデジカメモードが選択さ れなかったと仮定すれば、 S604の判定が Noとなり、 S606において、モード切替スイツ チ 9の操作によって webcamモードが選択されたか否かが判定される。今回は、 webca mモードが選択されたと仮定すれば、判定が Yesとなり、 S607において、後述の webca m処理が実行される。
[0141] これに対し、今回は、モード切替スィッチ 9の操作によって webcamモードが選択され なかったと仮定すれば、 S606の判定が Noとなり、 S608において、モード切替スィッチ 9 の操作によって立体画像モードが選択されたか否かが判定される。今回は、立体画 像モードが選択されたと仮定すれば、判定が Yesとなり、 S609において、後述の立体 画像処理が実行される。
[0142] これに対し、今回は、モード切替スィッチ 9の操作によって立体画像モードが選択さ れなかったと仮定すれば、 S608の判定が Noとなり、 S610において、モード切替スイツ チ 9の操作によって平面化画像モードが選択された力否かが判定される。今回は、平 面化画像モードが選択されたと仮定すれば、判定が Yesとなり、 S611において、後述 の平面化画像処理が実行される。
[0143] これに対し、今回は、モード切替スィッチ 9の操作によって平面化画像モードが選択 されなかったと仮定すれば、 S610の判定が Noとなり、 S612において、モード切替スィ ツチ 9の操作によってオフモードが選択された力否かが判定される。今回は、モード 切替スィッチ 9の操作によってオフモードが選択されたと仮定すれば、判定が Yesとな り、直ちに今回のメイン処理が終了する力 今回は、モード切替スィッチ 9の操作によ つてオフモードが選択されな力つたと仮定すれば、判定が Yesとなり、 S603に戻る。
[0144] 図 9には、図 8における S605がデジカメ処理ルーチンとしてフローチャートで概念的 に表されている。このデジカメ処理ルーチンの実行により、撮像部 14によって撮像さ れた画像を取得するデジカメ処理が実行される。
[0145] このデジカメ処理においては、まず、 S701において、 CCD22に高解像度設定信号 が送信される。これにより、高品質の撮像画像をユーザに提供することができる。
[0146] 次に、 S702において、ファインダ画像、すなわち、ファインダ 6を通して見える範囲の 画像と同じ画像がモニタ LCD10に表示される。よって、ユーザは、ファインダ 6をのぞ き込むことなぐモニタ LCD10に表示された画像を見ることにより、実際の撮像前に、 撮像画像 (撮像範囲)を確認することができる。
[0147] 続、て、 S703aにお!/、て、レリーズボタン 8の操作状態がスキャンされ、その後、 S703 bにおいて、そのスキャン結果に基づき、レリーズボタン 8が半押し状態にある力否か が判定される。半押し状態にあれば、判定が Yesとなり、 S703cにおいて、オートフォー カス (AF)および自動露出 (AE)機能が起動し、それにより、ピント、絞りおよびシャツタ スピードが調節される。 S703bにおいては、レリーズボタン 8が半押し状態に移行して いるか否かが判定され、移行していなければ、この S703bの判定が Noとなって S703a に戻る。
[0148] S703cの実行後、 S703dにおいて、再度、レリーズボタン 8の操作状態がスキャンされ 、その後、 S703eにおいて、そのスキャン結果に基づき、レリーズボタン 8が全押し状態 にある力否かが判定される。この S703eにおいては、レリーズボタン 8が全押し状態に 移行しているか否かが判定され、移行していなければ、この S703eの判定が Noとなつ て S703aに戻る。
[0149] レリーズボタン 8が半押し状態力も全押し状態に移行すれば、 S703eの判定が Yesと なり、 S704において、フラッシュモードが選択されている力否かが判定される。フラッ シュモードが選択されていれば、判定が Yesとなり、 S705において、フラッシュ 7が発光 させられるが、フラッシュモードが選択されていなければ、 S704の判定が Noとなり、 S7 05がスキップされる。
[0150] いずれにしても、その後、 S706において、被計測物が撮像される。続いて、 S707に ぉ 、て、被計測物が撮像された撮像画像が CCD22からキャッシュメモリ 28に転送され て記憶される。その後、 S708において、キャッシュメモリ 28に記憶された撮像画像がモ ユタ LCD10に表示される。本実施形態においては、撮像画像がキャッシュメモリ 28に 転送されるため、メインメモリに転送される場合に比較して、撮像画像を高速にモニタ LCD10に表示させることができる。続いて、 S709において、その撮像画像が外部メモ リ 27に格納される。
[0151] その後、 S710において、モード切替スィッチ 9の操作状態に変化が無いか否かが判 定される。変化が無ければ、判定が Yesとなり、 S702に戻る力 変化が有れば、 S710 の判定力Noとなり、今回のデジカメ処理が終了する。
[0152] 図 10には、図 8における S607が webcam処理ルーチンとしてフローチャートで概念的 に表されている。この webcam処理ルーチンの実行により、撮像部 14によって撮像され た撮像画像 (静止画および動画を含む。 )を外部ネットワークに送信する webcam処理 が実行される。本実施形態においては、撮像画像として動画が、図示しない外部ネッ トワーク (例えば、インターネット)に送信される場合が想定されている。
[0153] この webcam処理においては、まず、 S801において、 CCD22に低解像度設定信号が 送信される。次に、 S802において、オートフォーカスおよび自動露出の機能が起動し 、それにより、ピント、絞りおよびシャツタスピードが調節される。続いて、 S803におい て、被計測物が撮像される。
[0154] その後、 S804において、撮像された撮像画像が CCD22からキャッシュメモリ 28に転 送され、続いて、 S805において、その撮像画像がモニタ LCD10に表示される。
[0155] その後、 S806において、その撮像画像が投影画像格納部 37kに格納される。続い て、 S807において、後述の投影処理が実行され、それにより、投影画像格納部 37kに 格納されて ヽる画像が投影面に投影される。
[0156] その後、 S808において、キャッシュメモリ 28に転送された撮像画像が図示しない RF インターフェイスを介して前記外部ネットワークに送信される。
[0157] 続いて、 S809において、モード切替スィッチ 9の操作状態に変化が無いか否かが判 定される。変化が無ければ、判定が Yesとなり、 S802に戻る力 変化が有れば、 S809 の判定力 。となり、今回の webcam処理が終了する。
[0158] 図 11には、図 10における S807が投影処理ルーチンとしてフローチャートで概念的に 表されている。この投影ルーチンの実行により、投影画像格納部 37kに格納されてい る画像を投影部 13から投影面に投影する投影処理が実行される。
[0159] この投影処理にお!、ては、まず、 S901にお 、て、投影画像格納部 37kに画像が格 納されている力否かが判定される。格納されていない場合には、判定が Noとなり、直 ちに今回の投影処理が終了する。これに対し、格納されている場合には、判定が Yes となり、 S902において、投影画像格納部 37kに格納されている画像が投影 LCDドライ バ 30に転送される。続いて、 S903において、その格納されている画像に応じた画像 信号が投影 LCDドライノく 30から投影 LCD19に送出され、それにより、その投影 LCD1 9に画像が表示される。
[0160] その後、 S904において、光源ドライバ 29が駆動され、続いて、 S905において、その 光源ドライノ 29からの電気信号によって LEDアレイ 17Aが発光する。以上で、今回の 投影処理が終了する。
[0161] LEDアレイ 17Aから発光した光は、光源レンズ 18を経て投影 LCD19に到達する。そ の投影 LCD19にお 、ては、投影 LCDドライバ 30から送信された画像信号に応じた空 間変調が施され、その結果、投影 LCD19への入射光が画像信号光に変換されて出 力される。その投影 LCD19から出力される画像信号光は、投影光学系 20を経て投影 面に投影画像として投影される。
[0162] 図 12には、図 8における S609が立体画像処理ルーチンとしてフローチャートで概念 的に表されている。この立体画像処理ルーチンの実行により、被計測物の 3次元形状 を検出し、その立体画像としての 3次元形状検出結果画像を取得し、表示し、投影す る立体画像処理が実行される。
[0163] この立体画像処理においては、まず、 S1001において、 CCD22に高解像度設定信 号が送信される。次に、 S1002ないし S1003hが、図 9における S702ないし S706と同様に して実行される。
[0164] 具体的には、 S1002において、モニタ LCD10にファインダ画像が表示される。続いて 、 S1003aにおいて、レリーズボタン 8の操作状態がスキャンされ、その後、 S1003bにお いて、そのスキャン結果に基づき、レリーズボタン 8が半押し状態にある力否かが判定 される。半押し状態にあれば、判定が Yesとなり、 S1003cにおいて、オートフォーカス( AF)および自動露出 (AE)機能が起動する。
[0165] S1003cの実行後、 S1003dにおいて、再度、レリーズボタン 8の操作状態がスキャンさ れ、その後、 S1003eにおいて、そのスキャン結果に基づき、レリーズボタン 8が全押し 状態にある力否かが判定される。
[0166] レリーズボタン 8が半押し状態力 全押し状態に移行すれば、 S1003eの判定が Yes となり、 S1003fにおいて、フラッシュモードが選択されているか否かが判定される。フラ ッシュモードが選択されていれば、判定が Yesとなり、 S1003gにおいて、フラッシュ 7が 発光させられる力 フラッシュモードが選択されていなければ、 S1003fの判定が Noと なり、 S1003gがスキップされる。いずれにしても、その後、 S1003hにおいて、被計測物 が撮像される。
[0167] 続いて、 S1006において、後述の 3次元形状検出処理が実行され、それにより、被計 測物の 3次元形状が検出される。
[0168] その後、 S1007において、その 3次元形状検出処理による 3次元形状検出結果が外 部メモリ 27に格納され、続いて、 S1008において、その 3次元形状検出結果が 3次元コ ンピュータグラフィック画像 (被計測物の 3次元画像)としてモニタ LCD10に表示される 。ここに、 3次元形状検出結果とは、後述の空間コード画像において検出される複数 の空間コード境界画像を 3次元座標に変換した結果取得される頂点座標の集合体を 意味する。
[0169] その後、 S1009において、その 3次元形状検出結果としての複数個の計測頂点を通 過するポリゴン図形が想定され、その想定されたポリゴン図形のサーフェスを表現す る立体画像 (3次元のコンピュータグラフィック画像)としての 3次元形状検出結果画像 が投影画像格納部 37kに格納される。
[0170] 続いて、 S1010において、図 10における S807の投影処理と同様な投影処理が実行 される。
[0171] その後、 S1011において、モード切替スィッチ 9の操作状態に変化が無いか否かが 判定される。変化が無ければ、判定が Yesとなり、 S1002に戻る力 変化が有れば、 S1 011の判定力 0となり、今回の立体画像処理が終了する。
[0172] 図 12の S1006において実行される 3次元形状検出処理においては、空間コード化法 を用いて被計測物の 3次元形状が検出される。以下、図 13を参照することにより、空 間コード化法を説明する。図 13 (a)には、 3次元座標系 XYZが設定された実空間を Y 座標軸方向に見た図と、 X座標軸方向に見た図と、純 2進コードによる 3種類のマスク Α,Βおよび Cのパターンとが示されている。これに対し、図 13 (b)には、グレイコードに よる 3種類のマスク Α,Βおよび Cのパターンと、複数個の空間コードとが示されている。
[0173] 図 13 (a)に示すように、空間コードィ匕法は、観察対象である被計測物の像である観 察画像と、その被計測物に光 (拡散光)を投影する投影光源 (例えば、プロジェクタ) と、被計測物を観測する観測器 (例えば、カメラ)との間に三角測量の原理を適用す ることによって被計測物の 3次元形状を検出する手法の一種である。この空間コード 化法においては、図 13 (a)に示すように、投影光源 L (PROJECTOR)と観測器 0 (CA MERA)とが距離 dだけ離して設置される。したがって、観測空間内の任意の点 Pは、 投影光の向き φと、観測器 0から見える向き Θとが計測できれば、特定できる。この 空間コードィ匕法においては、さらに、被計測物表面上の任意の位置を特定するため 、観測空間が複数個の細長い扇状領域に分割されてコード化されている。
[0174] 被計測物表面上の任意の位置のコードを観測画像力 取得するために、複数種類 のストライプ状のパターン光が時系列的に被計測物に投影される。パターン光の切 換えは、パターン光の種類と同数のマスクを用意し、マスクを機械的に交換する機械 式として実施したり、電気光学効果を有する材料を用いてストライプ状の光シャツタ列 を構成し、その光シャツタ列における各ストライプの光透過率を電子的に制御する電 子式として実施することが可能である。もっとも、本実施形態においては、後者の電 子式が採用され、具体的には、投影 LCD19によって複数種類のマスクパターンが時 系列的に再現すなわち表示される。
[0175] 図 13 (a)に示す例においては、投影光源 Lと被計測物(四角柱と円柱)との間にマス クが交換可能に設置される。この例においては、パターンが互いに異なる 3種類のマ スク Α,Βおよび Cが用意されており、よって、 3種類のパターン光が時系列的に被計測 物に投影される。
[0176] 各マスク A,B,Cによって生成されたパターン光を被計測物に投影すると、 8個の扇状 領域のそれぞれが、明領域「1」と暗領域「0」とのいずれかにコード化される。 3枚のマ スク A,B,Cを経た光をそれらの順に被計測物に投影すると、各扇状領域には、 3ビット 力も成るコードが割り当てられる。それら 3ビットは、最初のマスク Aに対応する最上位 ビット MSBから、最後のマスク Cに対応する最下位ビット LSMまで順に並んでいる。例 えば、図 13 (a)に示す例においては、点 Pが属する扇状領域は、マスク Α,Βによって 光が遮られるのに対し、マスク Cによってのみ光が通過して明領域になるため、「001 ( A=0、 B = 0、 C = l)」としてコード化される。
[0177] このように、各扇状領域には、投影光源 Lからの向き φに相当するコードが割り当て られる。一方、各パターン光が投影された被計測物の明暗パターンを各マスクごとに
2値化してメモリの各ビットプレーンを構成すれば、各ビットプレーン画像の横方向の 位置(アドレス)は、観測器 0力もの向き Θに相当する。また、 3枚のマスクにそれぞれ 対応する 3枚のビットプレーンのメモリ内容を各ビット(各画素)ごとに注目すれば、各 画素ごとに 3ビットのコードが取得される。このコードから、各扇状領域の投影光源しか らの向き φが特定される。そして、距離 dが既知である状況において、向き φおよび Θが特定されれば、三角測量の原理により、被計測物表面上の注目点の 3次元座標 が特定される。
[0178] 図 13 (a)には、マスク Α,Βおよび Cの如き複数のマスクを用いることにより、空間を純 2進コードを用いてコード化する例が示されているが、図 13 (b)には、マスク Α,Βおよ び Cの如き複数のマスクを用いることにより、隣接するコード間のノ、ミング距離が常に 1 であるグレイコードを空間コードとして用いて空間をコード化する例が示されている。
[0179] 本実施形態においては、前述の 3次元形状検出処理において、純 2進コードによる 空間コードィ匕法を採用しても、グレイコードによる空間コードィ匕法を採用してもよい。
[0180] この空間コード化法の詳細は、例えば、佐藤宏介、他 1名、「空間コードィ匕による距 離画像入力」、電子通信学会論文誌、 85/3Vol. J 68— D No3 p369〜375に詳細に 開示されている。
[0181] 図 14には、図 12における S1006が 3次元形状検出処理ルーチンとしてフローチヤ一 トで概念的に表されている。
[0182] この 3次元形状検出処理ルーチンにおいては、まず、 S1210において、撮像処理が 実行される。この撮像処理が実行されれば、例えば、図 13 (b)に示す複数枚のグレイ コードのマスクパターンを利用して投影部 13からストライプ状のノターン光(図 1参照) が時系列的に被計測物に投影される。さらに、複数種類のパターン光が投影されて V、る被計測物をそれぞれ撮像した複数枚のパターン光有画像と、パターン光が投影 されて ヽない同じ被計測物を撮像した 1枚のパターン光無画像とが取得される。
[0183] 撮像処理が終了すると、 S1220において、 3次元計測処理が実行される。この 3次元 計測処理が実行されると、上述の撮像処理によって取得された複数枚のパターン光 有画像と 1枚のパターン光無画像とが利用されて、実際に被計測物の 3次元形状が 計測される。
[0184] 次に、 S1230において、被計測物について計測された 3次元形状と表面色とを組み 合わせることにより、 3次元色形状検出結果が生成される。この S1230は、後に図 19を 参照して詳述する。この 3次元色形状検出結果が生成されると、今回の 3次元形状検 出処理が終了する。
[0185] 図 15には、図 14における S1210が撮像処理サブルーチンとしてフローチャートで概 念的に表されている。
[0186] この撮像処理サブルーチンにおいては、まず、 S1211において、選択部の設定処理 が実行される。すなわち、この S1211において処理部 15の CPU35による制御によって 選択部の設定が行われ、撮像ユニット 60が出力する 2種類の画像信号 (色計測用画 像信号と形状計測用画像信号)のうちから色計測用画像信号が選択される。
[0187] 次に、 S1212において、パターン光撮影プログラム 36bの実行により、投影部 13から パターン光を被計測物に投影することなぐ撮像部 14によって被計測物を撮像するこ とにより、 1枚のパターン光無画像が取得される。
[0188] このとき取得されるパターン光無画像は、撮像ユニット 60において第 1補正を施され た色計測用画像信号をアンプ 64aにより増幅した色計測用画像信号に基づいて生成 されるものである。そして、その取得されたパターン光無画像はパターン光無画像格 納部 37bに格納される。
[0189] 次に、 S1213において、選択部を切替える処理が実行される。すなわち、この S1213 において処理部 15の CPU35による制御によって選択部の切り替えが行われ、撮像ュ ニット 60が出力する 2種類の画像信号 (色計測用画像信号と形状計測用画像信号) のうちから形状計測用画像信号が選択される。
[0190] 次に、 S1214において、パターン光を形成するために使用されるマスクパターンの番 号を表すパターン番号 PN力^に初期化される。続いて、 S1215において、そのパター ン番号 PNの現在値が最大値 PNmaxより小さ!/、か否かが判定される。その最大値 PNm axは、使用されるマスクパターンの合計数に応じて決定される。例えば、 8種類のマス クパターンが使用される場合には、最大値 PNmax力 に設定される。
[0191] 今回は、パターン番号 PNの現在値が最大値 PNmaxより小さいと仮定すれば、 S1215 の判定が Yesとなり、その後、 S1214において、使用される複数種類のマスクパターン のうち、パターン番号 PNの現在値と等しい番号が付された PN番目のマスクパターン が投景 LCD19に表示される。この S1216においては、さらに、その PN番目のマスクパ ターンによって形成される PN番目のパターン光が被計測物に投影される。続いて、 S 1217において、その PN番目のパターン光が投影されている被計測物が撮像部 14に よって撮像される。
[0192] その撮像により、 PN番目のパターン光が投影されて ヽる被計測物を撮像した PN番 目のパターン光有画像が取得される。
[0193] このとき取得されるパターン光有画像は、撮像ユニット 60において第 2補正を施され た形状測用画像信号をアンプ 65aにより増幅した形状計測用画像信号に基づいて生 成されるものである。その取得されたパターン光有画像は、対応するパターン番号 PN に関連付けてパターン光有画像格納部 37aに格納される。
[0194] その撮像が終了すると、 S1218において、 PN番目のパターン光の投影が終了し、続 いて、 S1219において、次のパターン光を投影すベぐパターン番号 PNカ^だけインク リメントされ、その後、 S1215に戻る。
[0195] S1215ないし S1219の実行がパターン光の種類の数と同数回繰り返された結果、ノ ターン番号 PNの現在値が最大値 PNmaxより小さくはない値になると、 S1215の判定が
Noとなり、今回の撮像処理が終了する。したがって、一回の撮像処理により、 1枚のパ ターン光無画像と、最大値 PNmaxと同数枚のパターン光有画像とが取得されることに なる。
[0196] 図 16には、図 14における S1220が 3次元計測処理サブルーチンとしてフローチャート で概念的に表されている。
[0197] この 3次元計測処理サブルーチンにおいては、まず、 S1221において、輝度画像生 成プログラム 36cの実行により、輝度画像が生成される。この S1221においては、輝度 値力 YCbCr空間における Y値として定義されており、各画素の RGB値より、 Y=0.29 89 · R+ 0.5866 · G+ 0.1145 · Βなる式を用いて計算される。各画素につ 、て Υ値を求め ることにより、複数枚のパターン光有画像と 1枚のパターン光無画像とに関する複数 枚の輝度画像が生成される。それら生成された輝度画像は、ノターン番号 ΡΝに関連 付けて輝度画像格納部 37cに格納される。ただし、輝度値の算出に用いられる式は、 上記式に限定されるものではなぐ他の式に適宜変更することが可能である。
[0198] 次に、 S1222において、コード画像生成プログラム 36dが実行される。このコード画像 生成プログラム 36dが実行されると、生成された複数枚の輝度画像が前述の空間コー ド化法を利用して組み合わされることにより、各画素ごとに空間コードが割り当てられ たコード画像が生成される。そのコード画像は、輝度画像格納部 37cに格納された複 数種類のパターン光有画像に関する輝度画像と、各画素ごとに輝度閾値が割り当て られた閾値画像との比較による 2値ィ匕処理によって生成される。その生成されたコー ド画像はコード画像格納部 37dに格納される。
[0199] 図 17には、このコード画像生成プログラム 36dの詳細がフローチャートで概念的に 表されている。以下、図 17を参照することにより、このコード画像生成プログラム 36dを 時系列的に説明する。
[0200] このコード画像生成プログラム 36dにお!/、ては、まず、 S101にお!/、て、パターン番号 PN力 SOであるパターン光が投影された被計測物が撮像された輝度画像が輝度画像 格納部 37cから、代表パターン画像として読み込まれる。
[0201] 次に、 S102において、代表パターン画像について、前記読み込まれた輝度画像に 基づき、前述の FFT変換によるアプローチにより、代表パターン画像において列方 向に連続的に並んだ各画素ごとにパターンライン周期が演算される。演算された複 数個のパターンライン周期は各画素 (各列方向画素位置)に関連付けて周期分布格 納咅 37pに格納される。
[0202] 続いて、 S103において、演算された複数個のパターンライン周期に基づき、可変窓 VWの特性がローカルに設定される。本実施形態においては、可変窓 VWのライン方 向サイズは、その可変窓 VWが設定される代表パターン画像上の位置にかかわらず、 変化しないように設定されるのに対し、可変窓 VWの列方向サイズは、各列方向画素 位置に関連付けて演算されたパターンライン周期の整数倍に相当するように設定さ れる。
[0203] その後、 S104において、代表パターン画像に対して可変窓 VWが、ライン方向と列 方向とに沿って平面的に、かつ、各画素に関連付けて設定される。それにより、各画 素ごとに、可変窓 VW内に存在する複数個の画素の輝度値の平均値がローカルな閾 値として演算される。この S105においては、さらに、演算された閾値が各画素に割り 当てられた閾値画像が生成される。生成された閾値画像は閾値画像格納部 37qに格 納される。
[0204] 続いて、 S105において、パターン番号 PN力^に初期化され、その後、 S106において 、パターン番号 PNの現在値が最大値 PNmaxより小さいか否かが判定される。今回は 、パターン番号 PNの現在値が 0であるため、判定が Yesとなり、 S107に移行する。
[0205] この S107においては、図 18に示す 2値化画像生成サブルーチンに従って 2値化画 像が生成される。
[0206] その後、 S108において、パターン番号 PNが 1だけインクリメントされる。続いて、 S106 に戻り、パターン番号 PNの現在値が最大値 PNmaxより小さいか否かが判定される。 今回も、最大値 PNmaxより小さい場合には、判定が Yesとなり、 S107に移行する。
[0207] S106ないし S108の実行がパターン光の種類の数と同数回繰り返された結果、パタ ーン番号 PNの現在値が最大値 PNmaxより小さくはない値になると、 S106の判定が No となり、 S109に移行する。
[0208] この S109においては、各画素ごとに、最大値 PNmaxと同数枚の 2値化画像から画素 値(「1」または「0」)力 パターン番号 PN力^である輝度画像に対応する 2値ィ匕画像か ら、パターン番号 PNが(PNmax— 1)である輝度画像に対応する 2値化画像に至る順 序に従って抽出され、最下位ビット LSM力 最上位ビット MSBに至る順序に従って並 んだ空間コードが生成される。各画素ごとの空間コードのビット数は、最大値 PNmaxと 同数である。各画素ごとに空間コードが生成されることにより、今回の被計測物に対 応する空間コード画像が生成される。生成された空間コードは、各画素位置に関連 付けてコード画像格納部 37dに格納される。
[0209] 図 18には、図 17における S107が 2値画像生成サブルーチンとしてフローチャートで 概念的に表されている。
[0210] この 2値画像生成サブルーチンにおいては、まず、 S111において、輝度画像格納 部 37cから画像が読み込まれ、続いて、 S112において、 2値化処理が行われる。
[0211] 具体的には、パターン番号 PNの現在値と等しいパターン番号 PNが割り当てられた 輝度画像の輝度値と、前記生成された閾値画像の閾値とが、各画素ごとに互いに比 較される。その比較結果は、各画素ごとに 2値化画像に反映される。具体的には、輝 度画像の輝度値が閾値より大きい場合には、「1」を表すデータ力 2値ィ匕画像のうち 対応する画素位置に関連付けて 2値ィ匕画像格納部 37rに格納され、一方、輝度画像 の輝度値が閾値より大きくはない場合には、「0」を表すデータが、 2値ィ匕画像のうち対 応する画素位置に関連付けて 2値ィ匕画像格納部 37rに格納される。
[0212] 以上で、コード画像生成プログラム 36dの一回の実行が終了する。
[0213] その後、図 16における S1223において、コード境界抽出プログラム 36eの実行により 、コード境界座標検出処理が実施される。前述の空間コードィ匕法によるコード化は、 各画素単位で行われるため、実際のパターン光における明暗の境界線と、前記生成 されたコード画像における空間コードの境界線 (ある空間コードが割り当てられた領 域と別の空間コードが割り当てられた領域との間の境界線)との間にサブピクセル精 度の誤差が生ずる。そのため、このコード境界座標検出処理は、空間コードの境界 座標値をサブピクセル精度で検出することを目的として実施される。
[0214] 検出されたコード境界座標値はコード境界座標格納部 37eに格納される。コード境 界座標値は、 CCD22の結像面に設定された 2次元座標系である CCD座標 ccdx-ccdy において定義される。
[0215] 続いて、 S1224において、レンズ収差補正プログラム 36fの実行により、レンズ収差 補正処理が実施される。このレンズ収差補正処理は、撮像光学系 21に入射した光束 の実際の結像位置であってその撮像光学系 21の収差の影響を受けたものを、その 撮像光学系 21が理想レンズであったならば結像されるはずである理想結像位置に近 づくように補正する処理である。
[0216] このレンズ収差補正処理により、 S1223において検出されたコード境界座標値が、 撮像光学系 21の歪みなどに起因した誤差が除去されるように補正される。そのように して補正されたコード境界座標は収差補正座標格納部 37gに格納される。
[0217] それらコード境界座標検出処理およびレンズ収差補正処理はいずれも、本発明を 理解するために不可欠な事項ではなぐし力も、本出願人の特願 2004-105426号明 細書に詳細に開示されているため、それを参照することによって引用することにより、 本明細書においては詳細な説明を省略する。
[0218] その後、 S1225において、三角測量演算プログラム 36gの実行により、三角測量の原 理による実空間変換処理が実施される。この実空間変換処理が実施されれば、三角 測量の原理により、前述の、 CCD座標系 ccdx- ccdy上のコード境界座標値であって 収差補正が施されたものが、実空間に設定された 3次元座標系である実空間座標系 X— Y— Z上の 3次元座標値に変換され、その結果、 3次元形状検出結果としての 3次 元座標値が取得される。その取得された 3次元座標値は 3次元座標格納部 37hに格 納され、この 3次元計測処理が終了し、その後、図 14に示す S1230の処理が行われる
[0219] 図 19には、図 14における S1230が 3次元色形状検出結果生成処理サブルーチンで 概念的に表されている。
[0220] そして、処理部 15は、この 3次元色形状検出結果生成処理を行うことにより、被計測 物の 3次元モデルを復元した 3次元モデルと、復元した被計測物の色とを用いて被計 測物の 3次元画像を復元する色形状抽出部として機能する。
[0221] この 3次元色形状検出結果生成処理サブルーチンにお 、ては、まず、 S5501にお ヽ て、 3次元座標格納部 37hから、複数個の 3次元座標値がロードされる。本実施形態 においては、被計測物の外面全体が 4つの部分面 (正面、右側面、左側面および背 面)に分割され、各部分面ごとに立体画像が生成される。この S5501においては、そ れら 4つの部分面のすべてにっ 、て、各部分面に属する複数個の 3次元座標値が 3 次元座標格納部 37hからロードされる。
[0222] 次に、 S5502において、それらロードされた複数個の 3次元座標値 (頂点座標値)を 基に、 4つの部分面に属する複数個の 3次元座標値が組み合わされる。その結果、複 数個の 3次元座標値によって 3次元的に表現される 4つの部分面が一体ィ匕されて、被 計測物の外面全体を現す画像が合成される。
[0223] 続いて、 S5503において、その生成された合成画像において空間的にオーバラップ する部分が抽出される。さらに、その合成画像の長さ方向における各領域において オーバラップする 2つの部分が、それら 2部分に属する複数個の 3次元座標値の平均 化等の手法により、 1つの部分に結合される。その結果、合成画像において空間的な オーバラップが除去され、それにより、ステッチ画像が完成する。
[0224] その後、 S6001において、前述の実空間 3次元座標系に座標変換された 3次元頂点 群の各実座標空間座標値に対応する RGB値 (R輝度値、 G輝度値および B輝度値)が 前述のパターン光無画像から抽出される。
[0225] 実空間座標系と、パターン光無画像を定義する平面座標系との関係は、前述の三 角測量の原理によって幾何学的に互いに対応付けられている。すなわち、コード画 像、すなわち、被計測物の 3次元形状を計測するための 2次元画像である形状画像を 定義する平面座標系を実空間 3次元座標系に計算によってマッピングさせるために 用いられる関数が存在する場合に、その関数の逆関数を用いることにより、実空間 3 次元座標系を、パターン光無画像を定義する平面座標系に計算によってマッピング させることが可能なのである。したがって、この S6001においては、 2次元的なパターン 光無画像から、各 3次元頂点ごとに、それに対応する表面色値すなわち RGB値を抽 出することが可能である。
[0226] 次に、 S6002において、各頂点ごとに、対応する実空間座標値と RGB値とが組み合 わされて色形状情報が生成される。さらに、その生成された色形状情報が、対応する 頂点に直接にまたは間接に関連付けてワーキングエリア 371にローカル保存される。
[0227] 続、て、 S6003にお 、て、被計測物の表面形状を複数個のポリゴンの一例である三 角形に分割することによって近似的に表現するために、その被計測物について取得 された複数個の頂点のうち、距離的に互いに近接する複数個の頂点が 3個ずつ、グ ループ分けされる。各グループごとに、 3個の頂点が互いに連結されることにより、 1個 のポリゴンが形成される。
[0228] その後、 S6004において、各ポリゴンごとに、そのポリゴンを形成するたに、互いに連 結すべき 3個の頂点の組合せがポリゴン情報として、各ポリゴンに直接にまたは間接 に関連付けてワーキングエリア 371にローカル保存される。
[0229] 以上で、この 3次元色形状検出結果生成サブルーチンの一回の実行が終了し、そ れに伴い、図 14に示す 3次元形状検出処理ルーチンの一回の実行が終了する。
[0230] ここで、図 20を参照することにより、三角測量の原理により、 CCD座標系 ccdx-ccdy 上の 2次元座標値を実空間座標系 X— Y— Z上の 3次元座標値に変換する手法を詳 細に説明する。
[0231] 本実施形態においては、実空間座標系 X— Y— Zが 3次元色形状計測装置 1に固定 され、この実空間座標系 X—Y—Z上において、図 1に示すように、撮像対象である原 稿 Pであって横方向に湾曲したものが撮像される。図 20に示すように、この実空間座 標系 X— Y— Zは 3次元色形状計測装置 1に対し、 X軸は水平方向に延び、 Y軸は垂 直方向に延び、 Z軸は撮像光学系 21の光軸方向に延びるように位置決めされて!、る 。図 20 (a)には、実空間座標系 X—Y—Zが X軸方向に観察された状態で示され、図 2 0 (b)には、実空間座標系 X—Y—Zが Y軸方向に観察された状態で示されている。こ の実空間座標系 X— Y— Zは 3次元色形状計測装置 1に対し、原点が、撮像光学系 21 の入力瞳位置カゝら Z軸に沿って距離 VPZ離れた位置に位置するように設定されて!、 る。
[0232] この実空間座標系 X— Y— Zにおいては、投影部 13力 原稿 Pへの投影角度が「 θ p 」で表記され、撮像光学系 21の光軸と投影部 13の光軸との距離が「D」で表記されて いる。投影角度 Θ pは、各画素ごとに割り当てられた空間コードによって一義的に特 定される。
[0233] この実空間座標系 X— Y— Zにおいては、さらに、原稿 P上の対象点 target力もの反 射光が CCD22に入射する光路が逆向きに延長された直線と X— Y平面との交点の Y 座標値が「Ytarget」、 X座標値が「Xtarget」でそれぞれ表記されている。この実空間 座標系 X—Y—Zにおいては、さらに、撮像光学系 21の Y方向の視野が、「Yftop」で示 す表記される点から「Ylbottom」で表記される点までの領域として定義され、 X方向の 視野が、「Xfstart」で表記される点から「Xfend」で表記される点までの領域として定義 されている。さらに、 CCD22の Y軸方向における長さ(高さ)が「Hc」で表記され、 X軸 方向における長さ(幅)が「Wc」で表記されて 、る。
[0234] このように定義された実空間座標系 X—Y—Z上においては、 CCD22の CCD座標系 上の任意座標値 (ccdx, ccdy)に対応する実空間座標系上の 3次元座標値 (X, Υ, Z) は、
(a)原稿 P上の対象点 target (X, Υ, Z) (図 20において引出し線を付して「(a)」示す 。;)と、 (b)撮像光学系 21の入力瞳位置(図 20において引出し線を付して「 (b)」示す。 )と、
(c)投影光学系 20の出力瞳位置(図 20にお 、て引出し線を付して「(c)」示す。 )と、
(d)撮像光学系 21の入力瞳位置と原稿 P上の対象点を通る直線と X— Y平面との交 点(Xtarget, Ytarget) (図 20において引出し線を付して「(d)」示す。)と、
(e)投影光学系 20の出力瞳位置と原稿 P上の対象点を通る直線と X—Y平面との交 点(図 20にお 、て引出し線を付して「(e)」示す。 )と、
に関する関係を示す次の 5つの式を解くことにより、取得される。
[0235] (1) Y= (PPZ-Z) - tan Θ p-D + cmp (Xtarget)
(2) Y= - ( Ytarget/VPZ) Z + Ytarget
(3) X= (Xtarget/VPZ) Z + Xtarget
(4) Ytarget =Yftop- (ccdcy/Hc) X (Yftop—Ylbottom)
(5) Xtarget = Xfstart+ (ccdcx/Wc) X (Xfend Xfstart)
ただし、式(1)における「cmp (Xtarget)」は、撮像光学系 21と投影部 13とのズレを補 正する関数であり、ズレが無い理想的な場合には、 0とみなすことができる。
[0236] さらに、この実空間変換処理においては、実画像における任意点の座標値 (ccdx, ccdy)が、理想カメラで撮像された画像における座標値 (ccdcx, ccdcy)に変換される 。この変換は、次の 3つの式、すなわち、カメラキャリブレーションのための近似式を用 いて行われる。
[0237] (6) ccdcx = (ccdx - Centx) / ( 1 + dist/100) +Centx
(7) ccdcy = (ccdy-Centy) / (1 + dist/100) +Centy
(8) hfa = arctan [ 、 ccdx— C entx) 2 + (ccdy— Centy) 2) 0'5) X pixellength/ focalleng th]
ただし、収差量 dist (%)は、半画角 hfa (deg)の関数 fを用いて dist=f(hfa)と記述さ れる。また、撮像光学系 21の焦点距離は、「focallength (mm)」で表記され、 ccd画素 長は、「pixellength (mm)」で表記され、 CCD22におけるレンズの中心の座標値は、(C entx, Centy)として定義されている。
[0238] この実空間変換処理においては、上述のように、 CCD座標系を実空間座標系に変 換する処理のみならず、 3次元の空間座標系上の任意の 3次元座標値 (X, Υ, Z)を、 投影部 13内の投影 LCD19の面上に設定された 2次元座標系である LCD座標系上の 2次元座標値 (lcdcx, lcdcy)に変換する処理も実施可能である。
[0239] それら 2次元座標値 (lcdcx, lcdcy)と 3次元座標値 (X, Υ, Z)との間における幾何学 的な関係は、次の 4つの式によって記述することができる。
[0240] (9) Y =— (Yptarget/PPZ) Ζ+ Yptarget
( 10) X =— (Xptarget/PPZ) Z + Xptarget
(11) Yptarget = Ypftop - (lcdcy/Hp) X (Xpftop— Xpl ottom)
( 12) Xptarget = Xpfstart + (lcdcx/Wp) X (Xpfend— Xpfstart)
ただし、この実空間座標系 X— Y— Zにおいては、図 20に示すように、光束が投影部 13から原稿 P上の対象点 targetに入射する光路が同じ向きに延長された直線と X—Y 平面との交点の Y座標値が「Yptarget」、 X座標値が「Xptarget」でそれぞれ表記され ている。さら〖こ、投影部 13の出力瞳位置が(0, 0, PPZ)として定義されている。さら〖こ、 投影部 13の Y方向の視野力 「Ypftop」で表記される点から「Ypl ottom」で表記される 点までの領域として定義され、 X方向の視野力 「Xpfstart」で表記される点から「Xpfe nd」で表記される点までの領域として定義されている。さらに、投影 LCD19の Y軸方向 における長さ(高さ)が「Hp」で表記され、 X軸方向における長さ(幅)が「Wp」で表記さ れている。
[0241] 上記式 (9)ないし(12)で記述される関係を利用するために、 3次元座標値 (X, Υ, Z )をそれら式 (9)ないし(12)に代入すると、 LCD座標系上の 2次元座標値 (lcdcx, lcdc y)を算出することができる。したがって、例えば、任意の 3次元形状を有する投影面上 に文字、図形等の画像を投影するための投影 LCD19の投影光パターンを算出する ことができる。
[0242] 以上、図 8における S609において実行される立体画像処理を説明した力 以下、 S6 11にお ヽて実行される平面化画像処理を説明する。
[0243] この平面化画像処理によれば、例えば、原稿 Pが実際には図 1に示すように湾曲し て 、る状態で撮像されたにもかかわらず、あた力も湾曲して 、な 、状態で同じ原稿 P が撮像されたかのように、実際に撮像された画像が平面化される。さらに、この平面 化画像処理によれば、正面視において長方形を成す原稿 Pが実際には斜めから撮 像されたにもかかわらず、あた力も正面から同じ原稿 Pが撮像されたかのように、実際 に撮像された画像が平面化される。
[0244] この平面化画像処理は、本発明を理解するために不可欠な事項ではなぐしかも、 前記特願 2004-105426号明細書に詳細に開示されているため、それを参照すること によって引用することにより、本明細書においては詳細な説明を省略する。
[0245] (第 2実施形態)
次に、本発明の第 2実施形態について説明する。第 2実施形態に係る 3次元色形状 計測装置は、その基本的構造については図 1〜4に示す第 1実施形態の 3次元色形 状計測装置 1と同様であるが、撮像ユニットの構成、及び、それに伴う処理部での処 理だけが第 1実施形態の 3次元色形状計測装置 1と異なる。
[0246] そのため、ここでは第 2実施形態に設ける撮像ユニットの構成と、処理部での処理に つ!、てのみ説明することとし、 3次元色形状計測装置の基本的構造に関してはその 説明を省略する。なお、以下の説明において、第 1実施形態の 3次元色形状計測装 置 1と同一の構成要件については同一の符号を用いて説明する。
[0247] 図 21に示すように、第 2実施形態の 3次元色形状計測装置が備える撮像ユニット 70 は、撮像部として機能する CCD71と、この CCD71が被計測物を撮像して出力する画 像信号を増幅するアンプ 72と、アンプ 72により増幅したアナログの画像信号をアナ口 グ'ディジタル変換する A/Dコンバータ 73と、 A/Dコンバータ 73力 入力される画像信 号に対して階調補正を行うことにより被計測物の色を計測及び復元するための色計 測用画像信号と、被計測物の 3次元形状を計測及び復元するための形状計測用画 像信号を生成して主装置へ出力する補正部 79とを収納している。
[0248] このように構成した撮像ユニット 70では、アンプ 72と A/Dコンバータ 73と、補正部 79と により CCDインターフェイス 31が構成され、この CCDインターフェイス 31力 主装置へ 画像信号が出力される。
[0249] また、第 2実施形態の主装置は、撮像ユニット 70から入力される色計測用画像信号 に基づ!/、て復元した被計測物の色と、撮像ユニット 70から入力される形状計測用信 号に基づ 、て被計測物の 3次元形状を復元した 3次元モデルとを用いて被計測物の 3次元画像を復元する色形状抽出部を収納して!/ヽる。 [0250] 補正部 79は、上記非線形の第 1階調特性に従った第 1補正により画像信号を色計 測用画像信号に変換する第 1補正回路 74と、第 1補正回路 74が出力する色計測用画 像信号を増幅して出力するアンプ 75とからなる第 1補正部と、アナログ 'ディジタル変 換された画像信号を増幅し、形状計測用画像信号として出力するアンプ 77力 なる 第 2補正部とを備えている。
[0251] すなわち、この補正部 79は、その階調補正機能に関して、第 1実施形態の撮像ュ- ット 60が備える補正部 66と同様の機能を備えたものである。ただし、この第 2実施形態 における補正部 79は、画像信号に対して、上記した線形部分を有する第 2階調特性 に従って行う第 2補正を増幅器 (アンプ 77)によって行うことにより画像信号を形状計 測用画像信号に変換するようにして ヽる。
[0252] さらに、この撮像ユニット 70は、第 1補正部及び第 2補正部のいずれか一方を選択し 、当該選択した補正部へ画像信号を出力する前段側の選択部 78aを備えると共に、 第 1補正部が出力する色計測用画像信号と、第 2補正部が出力する形状計測用画像 信号とのうち、いずれか一方の画像信号を選択して主装置へ出力する後段側の選択 部 78bを備えている。
[0253] この前段側の選択部 78aは、主装置の処理部 15によりパターン光撮影プログラム 36 bが実行されて、パターン光無画像が取得されるときに、 CPU35の制御に基づいて第 1補正部を選択し、 A/Dコンバータ 73と第 1補正部とを接続させ、後段側の選択部 78b は、 CPU35の制御に基づ 、て色計測用画像信号を選択して主装置へ出力する。
[0254] このように、第 2実施形態の撮像ユニット 70では、第 1補正部と、第 2補正部と、選択 部 78a、 78bとを備えた補正部を設けることにより、第 1補正部と第 2補正部とを交互に 動作させて色計測用画像信号と形状計測用画像信号とを主装置へ出力するように 構成しているため、図 5に示すように撮像ユニット 60と処理部 15とを 2本の信号線で接 続する必要がなぐ回路構成を簡略ィ匕することができる。
[0255] し力も、この撮像ユニット 70を設けることにより、第 1補正部と第 2補正部とを同時に動 作させる第 1実施形態の撮像ユニット 60に比べ、第 1補正部と第 2補正部とを交互に 動作させる分、撮像ユニット 70における消費電力を低減することができる。
[0256] また、このように撮像ユニット 70を構成した場合、 A/Dコンバータ 73から出力される 画像信号は、モニタ LCD10の表示特性を考慮して ヽな 、のでその特性は線形であり 、被計測物の 3次元形状を計測するのに好適な信号となっている。
[0257] そのため、この画像信号をアンプ 77によって増幅するだけで、第 1実施形態の撮像 ユニット 60のように第 2補正回路を設けなくとも、被計測物の 3次元形状を高精度に計 測可能な形状計測用画像信号を生成することができ、第 2補正回路を省略した分、 撮像ユニット 70の部品点数を減少させることができ、これにより、撮像ユニット 70の製 造コストの低減と、撮像ユニット 70の小型化を図ることができる。
[0258] その上、この撮像ユニット 70が備える補正部 79は、第 1実施形態と同様に、第 1補正 回路 74を備えているため、この第 1補正回路により画像信号から色計測用画像信号 も生成することもできるので、主装置において、色形状抽出部により被計測物の色と 3 次元形状とを忠実に復元した 3次元画像を生成することができる。
[0259] 次に、第 2実施形態の 3次元色形状計測装置が備える処理部 15で行われる処理に ついて説明する。この処理部 15では、図 15に示した撮像処理サブルーチンにおける S1211と、 S1213で行われる処理のみが第 1実施形態と異なる。
[0260] 図 22は、第 2実施形態の処理部 15で行われる撮像処理を示すフローチャートである 。図 22に示すように、この撮像処理では、まず、 S1211aにおいて、前段側、及び後段 側の選択部の設定処理が実行される。すなわち、この S1211aにおいて処理部 15の C PU35による制御によって、図 21に示す撮像ユニット 70内部の前段側の選択部 78aが 第 1補正部を選択して A/Dコンバータ 73と第 1補正回路 74とを接続する。
[0261] そして、このとき同時に、同じく図 21に示す撮像ユニット 70内部の後段側の選択部 7 8が第 1補正部のアンプ 75を選択し、アンプ 75が出力する色計測用画像信号を主装 置へ出力する。
[0262] 次に、 S1212において、パターン光撮影プログラム 36bの実行により、投影部 13から パターン光を被計測物に投影することなぐ撮像部 14によって被計測物を撮像するこ とにより、 1枚のパターン光無画像が取得される。
[0263] このとき取得されるパターン光無画像は、撮像ユニット 70において第 1補正を施され た色計測用画像信号に基づいて生成されるものである。そして、その取得されたバタ 一ン光無画像はパターン光無画像格納部 37bに格納される。 [0264] 次に、 S1213aにおいて、前段側、及び、後段側の選択部の切り替え処理がされる。 すなわち、この S1213aにおいて処理部 15の CPU35による制御によって、図 21に示す 撮像ユニット 70内部の前段側の選択部 78aが第 2補正部を選択して A/Dコンバータ 73 とアンプ 77とを接続する。
[0265] そして、このとき同時に、同じく図 21に示す撮像ユニット 70内部の後段側の選択部 7 8bが第 2補正部のアンプ 77を選択し、アンプ 77が出力する形状計測用画像信号を主 装置へ出力する。
[0266] こうして S1213aの処理が終了した後は、第 1実施形態と同様に、 S1214〜S1219の処 理が順次実行されてこの撮像処理が終了する。
[0267] このように、第 2実施形態の 3次元色形状計測装置 1が有する処理部 15によれば、 図 15に示した第 1実施形態の撮像処理サブルーチンにおける S1211と、 S1213とで実 行される処理を、図 22に示した撮像処理サブルーチンにおける S1211aと S1213aとに 変更するだけで、処理部 15で実行されるプログラム全体を大幅に変更することなぐ 図 21に示す撮像ユニット 70を動作させることができる。
[0268] (第 3実施形態)
次に、本発明の第 3実施形態について説明する。第 3実施形態に係る 3次元色形状 計測装置は、その基本的構造については図 1〜4に示す第 1実施形態の 3次元色形 状計測装置 1と同様であるが、撮像ユニットの構成、及び、それに伴う処理部での処 理だけが第 1実施形態の 3次元色形状計測装置 1と異なる。
[0269] そのため、ここでは第 3実施形態に設ける撮像ユニットの構成と、処理部での処理に つ!、てのみ説明することとし、 3次元色形状計測装置の基本的構造に関してはその 説明を省略する。なお、本実施形態おいても、第 1実施形態の 3次元色形状計測装 置 1と同一の構成要件については同一の符号を用いて説明する。
[0270] 図 23に示すように、第 3実施形態の 3次元色形状計測装置が備える撮像ユニット 80 は、撮像部として機能する CCD81と、この CCD81が被計測物を撮像して出力する画 像信号を増幅するアンプ 82と、アンプ 82により増幅したアナログの画像信号をアナ口 グ'ディジタル変換する A/Dコンバータ 83と、 A/Dコンバータ 83力 入力される画像信 号に対して階調補正を行うことにより被計測物の色を計測及び復元するための色計 測用画像信号と、被計測物の 3次元形状を計測及び復元するための形状計測用画 像信号を生成して主装置へ出力する補正部 86とを収納している。
[0271] このように構成した撮像ユニット 80では、アンプ 82と A/Dコンバータ 83と、補正部 86と により CCDインターフェイス 31が構成され、この CCDインターフェイス 31力 主装置へ 画像信号が出力される。
[0272] また、第 3実施形態の主装置は、撮像ユニット 80から入力される色計測用画像信号 に基づ!/ヽて復元した被計測物の色と、撮像ユニット 80から入力される形状計測用信 号に基づ 、て被計測物の 3次元形状を復元した 3次元モデルとを用いて被計測物の 3次元画像を復元する色形状抽出部を収納して!/ヽる。
[0273] 補正部 86は、上記した非線形の第 1階調特性に従った第 1補正により画像信号を色 計測用画像信号に変換すると共に、第 2補正により画像信号を形状計測用画像信号 に変換する補正回路 84と、この補正回路 84が出力する色計測用画像信号及び形状 計測用画像信号を増幅して主装置へ出力するアンプ 85とを備えている。
[0274] 特にこの補正回路 84は、当該補正回路 84で第 1補正を行う際に参照可能な第 1補 正 LUT (ルックアップテーブル)と、第 2補正を行う際に参照可能な第 2LUTとを備えて いる。
[0275] 第 1補正 LUTは、第 1補正前の画像信号と第 1補正後に得られる色計測用画像信号 とを対応させて記憶させたルックアップテーブルであり、第 2補正 LUTは、第 2補正前 の画像信号と第 2補正後に得られる形状計測用画像信号とを対応させて記憶させた ルックアップテーブルである。
[0276] そして、この補正部 86では、主装置の処理部 15によりパターン光撮影プログラム 36b が実行されて、パターン光無画像が取得されるときに、 CPU35の制御により補正回路 84が動作して、当該補正回路 84が備える第 1補正 LUTを用いた第 1補正が画像信号 に対して施され、その結果生成される色計測用画像信号が主装置へ出力される。
[0277] 一方、この補正部では、主装置の処理部 15によりパターン光撮影プログラム 36bが 実行されて、パターン光有画像が取得されるときに、 CPU35の制御により補正回路 84 が動作して、当該補正回路 84が備える第 2LUTを用いた第 2補正が画像信号に対し て施され、その結果生成される形状計測用画像信号が主装置へ出力される。 [0278] このように、第 3実施形態では、補正部 86に第 1LUT及び第 2LUTを備えた補正回路 84を設けることにより、色形状抽出部により被計測物の色と 3次元形状とを忠実に復 元した 3次元画像を生成することができるだけでなぐ画像信号に対して階調補正を 施す際に参照するルックアップテーブルを差し替えるだけで、 1つの補正回路 84によ り画像信号に対して第 1補正と第 2補正とを施すことができるので、撮像ユニット 80の 小型化を図ることができる。
[0279] 次に、第 3実施形態の 3次元色形状計測装置が備える処理部 15で行われる処理に ついて説明する。この処理部 15では、図 15に示した撮像処理サブルーチンにおける S1211と、 S1213で行われる処理のみが第 1実施形態と異なる。
[0280] 図 24は、第 3実施形態の処理部 15で行われる撮像処理を示すフローチャートである 。図 24に示すように、この撮像処理では、まず、 S1211bにおいて、 LUTの設定処理が 実行される。すなわち、この S1211bにおいて処理部 15の CPU35による制御によって、 図 23に示す撮像ユニット 80内部で参照される LUTとして第 1補正 LUTが設定される。
[0281] 次に、 S1212において、パターン光撮影プログラム 36bの実行により、投影部 13から パターン光を被計測物に投影することなぐ撮像部 14によって被計測物を撮像するこ とにより、 1枚のパターン光無画像が取得される。
[0282] このとき取得されるパターン光無画像は、撮像ユニット 80において第 1補正を施され た色計測用画像信号に基づいて生成されるものである。そして、その取得されたバタ 一ン光無画像はパターン光無画像格納部 37bに格納される。
[0283] 次に、 S1213bにおいて、 LUTの差し替え処理が実行される。すなわち、この S1213b において処理部 15の CPU35による制御によって、図 23に示す撮像ユニット 80内部で 参照される LUTが第 1補正 LUT力 第 2補正 LUTに差し替えられる。
[0284] こうして S1213bの処理が終了した後は、第 1実施形態と同様に、 S1214〜S1219の処 理が順次実行されてこの撮像処理が終了する。
[0285] このように、第 3実施形態の 3次元色形状計測装置 1が有する処理部 15によれば、 図 15に示した第 1実施形態の撮像処理サブルーチンにおける S1211と、 S1213とで実 行される処理を、図 24に示した撮像処理サブルーチンにおける S1211bと S1213bとに 変更するだけで、処理部 15で実行されるプログラム全体を大幅に変更することなぐ 図 23に示す撮像ユニット 80を動作させることができる。
[0286] (第 4実施形態)
次に、本発明の第 4実施形態について説明する。第 4実施形態に係る 3次元色形状 計測装置は、その基本的構造については図 1〜4に示す第 1実施形態の 3次元色形 状計測装置 1と同様であるが、撮像ユニットの構成と、処理部の ROM内に記憶されて V、るプログラムと、処理部での処理だけが第 1実施形態の 3次元色形状計測装置 1と 異なる。
[0287] そのため、ここでは第 4実施形態に設ける撮像ユニットの構成と、 ROM内に記憶さ れているプログラムと、処理部での処理についてのみ説明することとし、 3次元色形状 計測装置の基本的構造に関してはその説明を省略する。なお、本実施形態おいても 、第 1実施形態の 3次元色形状計測装置 1と同一の構成要件については同一の符号 を用いて説明する。
[0288] 図 25に示すように、第 4実施形態の 3次元色形状計測装置が備える撮像ユニット 90 は、撮像部として機能する CCD91と、この CCD91が被計測物を撮像して出力する画 像信号を増幅するアンプ 92と、アンプ 92により増幅したアナログの画像信号をアナ口 グ 'ディジタル変換する A/Dコンバータ 93と、 A/Dコンバータ 93が出力する画像信号 を第 1階調特性に従った第 1補正により色計測用画像信号に変換する第 1補正部とし て機能する第 1補正回路 94とを収納して 、る。
[0289] このように構成した撮像ユニット 90では、アンプ 92と、 A/Dコンバータ 93と、第 1補正 回路 94とにより CCDインターフェイス 31が構成され、この CCDインターフェイス 31から 主装置へ色計測用画像信号が出力される。
[0290] そして、主装置は、 CCDインターフェイス 31から入力される色計測用画像信号に対 して、後述する第 3階調特性に従った第 3補正を行うことにより色計測用画像信号を 形状計測用画像信号に変換する第 3補正回路と、 2種類の画像信号 (色計測用画像 信号、及び、形状計測用画像信号)に基づいて被計測物の 3次元画像を復元する色 形状抽出部(図示略。)とを収納している。
[0291] また、第 4実施形態の主装置では、上記したように撮像ユニット 90から入力される色 計測用画像信号に対して第 3補正を施すため、図 26に示すように、処理部 15が有す る ROM36内〖こ、第 1実施形態の ROM36に記憶されている各種プログラム 36a〜36iに 加え、階調補正プログラム 36jと、階調補正 LUT36kとが記憶されている。
[0292] この階調補正プログラム 36jは、撮像ユニット 90から出力される色計測用画像信号に 対して、第 3階調特性に従った第 3補正を行った後、その信号を増幅して色計測用画 像信号を形状計測用画像信号に変換するために実行される。
[0293] ここで、第 3階調特性とは、第 1階調特性との積をとることによって線形特性となるガ ンマ特性のことであり、第 1階調特性の逆ガンマ特性のことである。
[0294] このように、階調補正プログラム 36jが ROM36に記憶されて!、るので、補正部として 第 1補正を行う補正回路しか予め備えて 、な 、撮像ユニット 90を 3次元色形状計測装 置に搭載した場合であっても、階調補正プログラム 36jが実行されることにより、撮像 ユニット 90から出力される色計測用画像信号に対して、第 3補正を施して被計測物の 3次元形状を高精度に計測可能な形状計測用画像信号を生成することができる。
[0295] また、階調補正 LUT36kは、第 3補正前の色計測用画像信号と第 3補正後に得られ る形状測用画像信号とを対応させて記憶させたルックアップテーブルであり、処理部 15において、階調補正プログラム 36jが実行されるときに CPU35が参照するものである 。つまり、上記第 3補正は、この第 3補正 LUTを利用して行われる。
[0296] このように構成した第 4実施形態の 3次元色形状計測装置 1では、主装置の処理部 15によりパターン光撮影プログラム 36bが実行されて、パターン光無画像が取得され るときに、 CPU35の制御により、撮像ユニット 90が出力する色計測用画像信号に基づ いてパターン光無画像が生成されてパターン光無画像格納部 37bに格納される。
[0297] 一方、主装置の処理部 15によりパターン光撮影プログラム 36bが実行されて、パタ 一ン光有画像が取得されるときに階調補正プログラム 36jが実行されて、 CPU35の制 御により第 3補正回路 96が作動して、撮像ユニット 90が出力する色計測用画像信号 に対し第 3補正が施され、その結果得られる形状計測用画像信号に基づいてパター ン光有画像が生成されてパターン光有画像格納部 37aに格納される。
[0298] すなわち、色抽出部は、被計測物の色を復元する場合には撮像ユニット 90から出 力される色計測用画像信号をそのまま用いて被計測物の色を復元し、被計測物の 3 次元形状を計測及び復元する場合には、撮像ユニット 90から出力される色計測用画 像信号に対して逆ガンマ補正を施すことにより生成した形状計測用画像信号を用い て、被計測物の 3次元形状を計測及び復元するようにして 、る。
[0299] このように、第 4実施形態の 3次元色形状計測装置 1では、撮像ユニット 90が有する 第 1補正回路 94と、主装置が有する第 3補正回路 96とにより、画像信号を補正する補 正部を構成しているため、第 1〜第 3実施形態と同様に、色形状抽出部により被計測 物の色と 3次元形状とを忠実に復元した 3次元画像を生成することができる。
[0300] しかも、主装置に第 3補正部を収納しているため、図 25に示すような、第 1補正回路 94だけしか備えて 、な 、比較的安価な市販の撮像ユニット 90を用いても、被計測物 の色を正確に復元できるだけでなぐ被計測物の 3次元形状を高精度に測定すること ができる。
[0301] すなわち、図 25に示す撮像ユニット 90のように、 CCD91が被計測物を撮像して出力 する画像信号に対して、常にモニタ LCD10の表示特性に合わせた色計測用画像信 号しか出力できな!/、構成の撮像ユニット 90を 3次元色形状計測装置 1に搭載した場合 、被計測物の色を復元するときに、撮像ユニット 90から出力される第 1補正を施された 色計測用画像信号を増幅するだけで被計測物の色を忠実に復元することができる。
[0302] 一方、被計測物の 3次元形状を計測及び復元するときには、撮像ユニット 90から非 線形特性の色計測用画像信号が出力されることになるが、この主装置では、第 3補正 回路 96によりこの色計測用画像信号に対して、当該色計測用画像信号の非線形特 性の逆ガンマ特性である非線形の第 3階調特性に従った第 3補正を行うことにより、第 3補正後の信号特性が 3次元形状計測に適した線形特性となる。
[0303] そのため、主装置の色形状抽出部は、この第 3補正後の信号である形状計測用画 像信号を用いて、被計測物の 3次元形状を高精度に計測及び復元することができる
[0304] 次に、第 4実施形態の 3次元色形状計測装置が備える処理部 15で行われる処理に ついて説明する。この処理部 15では、図 15に示した撮像処理サブルーチンにおける S1211が削除され、 S1213で行われる処理のみが第 1実施形態と異なる。
[0305] 図 27は、第 4実施形態の処理部 15で行われる撮像処理を示すフローチャートであ る。図 27に示すように、この撮像処理では、まず、 S1212においてパターン光撮影プロ グラム 36bの実行により、投影部 13からパターン光を被計測物に投影することなぐ撮 像部 14によって被計測物を撮像することにより、 1枚のパターン光無画像が取得され る。
[0306] このとき取得されるパターン光無画像は、撮像ユニット 90において第 1補正を施され た色計測用画像信号をアンプにより増幅した色計測用画像信号に基づいて生成さ れるものである。そして、その取得されたパターン光無画像はパターン光無画像格納 部 37bに格納される。
[0307] 次に、 S1213cにおいて、第 3補正処理が実行される。すなわち、この S1213cにおい て階調補正プログラム 36jの実行により、階調補正 LUT36kが CPU35によって参照され 、撮像ユニット 90から入力される色計測用画像信号に対して第 3補正が施された後、 増幅されることにより形状計測用画像信号に変換される。
[0308] こうして S1213cの処理が終了した後は、第 1実施形態と同様に、 S1214〜S1219の処 理が順次実行されてこの撮像処理が終了する。
[0309] このように、第 4実施形態では、撮像処理中に撮像ユニット 90から入力される色計測 用画像信号に対して第 3補正を施すようにしているが、処理部 15での処理を変更する ことにより、撮像処理中には第 3補正を行わず、その後、図 17に示すコード画像生成 処理 (S100)にお 、て第 3補正を行うこともできる。
[0310] ここで、第 4実施形態の変形例として、コード画像生成処理において第 3補正を行う 場合に、処理部 15で実行される処理について説明する。この場合、図 27に示す S121 3cの第 3補正処理が削除され、図 28に示すコード画像生成処理、及び、図 29に示す 2値化画像生成処理の中で第 3補正処理が実行される。
[0311] コード画像生成処理では、図 28に示すように、コード画像生成プログラム 36dの実行 により、まず、 S101において、パターン番号 PNが 0であるパターン光が投影された被 計測物が撮像された輝度画像が、輝度画像格納部 37cから代表パターン画像として 読み込まれる。
[0312] 次に、 SlOlaにおいて、第 3補正処理が実行される。すなわち、階調補正プログラム 36jの実行により、階調補正 LUT36kが CPU35により参照されて、代表パターン画像を 示す画像信号 (色計測用画像信号)に対して第 3補正を施す処理が実行される。 [0313] こうして SlOlaの処理が終了した後は、第 1実施形態と同様に、 S102〜S106の処理 が順次実行される力 S106において、パターン番号 PNの現在値が最大値 PNmaxより も小さいと判断された場合には、 S107 (2値化画像を生成する処理)において第 3補正 処理が実行される。なお、 S106において、パターン番号 PNの現在値が最大値 PNmax よりも大きいと判断された場合には、第 1実施形態と同様に S109 (コード画像を生成す る処理)が実行されて、このコード画像生成処理が終了される。
[0314] 2値化画像生成処理では、図 29に示すように、 S111において輝度画像格納部 37cか ら画像が読み込まれ、その後、 SI 11aにおいて第 3補正処理が実行される。すなわち 、階調補正プログラム 36jの実行により、階調補正 LUT36kが CPU35により参照されて 、 S111において読み込まれた画像を示す画像信号 (色計測用画像信号)に対して第 3補正を施す処理が実行される。
[0315] こうして Slllaの処理が終了した後は、第 1実施形態と同様の 2値ィ匕処理 S112が実 行されて、この 2値ィ匕処理が終了される。
[0316] (第 5実施形態)
次に、本発明の第 5実施形態について説明する。第 5実施形態に係る 3次元色形状 計測装置は、その基本的構造については図 1〜4に示す第 1実施形態の 3次元色形 状計測装置 1と同様であるが、撮像ユニットの構成と、処理部の ROM内に記憶されて いるプログラムと、処理部での処理、だけが第 1実施形態の 3次元色形状計測装置 1 と異なる。
[0317] そのため、ここでは第 5実施形態に設ける撮像ユニットの構成と、 ROM内に記憶さ れているプログラムと、処理部での処理についてのみ説明することとし、 3次元色形状 計測装置の基本的構造に関してはその説明を省略する。なお、本実施形態おいても 、第 1実施形態の 3次元色形状計測装置 1と同一の構成要件については同一の符号 を用いて説明する。
[0318] 図 30に示すように、撮像ユニット 50は、撮像部として機能する CCD22と、この CCD22 が被計測物を撮像して出力する画像信号を増幅するアンプ 52と、アンプ 52により増 幅したアナログの画像信号をアナログ 'ディジタル変換する A/Dコンバータ 53とを収 納している。 [0319] このように構成した撮像ユニット 50では、アンプ 52と A/Dコンバータ 53とにより CCDィ ンターフェイス 31が構成され、この CCDインターフェイス 31から主装置 51へ階調補正 の施されて ヽな 、画像信号が出力される。
[0320] そして、主装置は、 CCDインターフェイス 31力 入力される画像信号に対して補正 を行う補正部と、この補正部により補正した画像信号に基づいて被計測物の 3次元画 像を復元する色形状抽出部とを収納している。
[0321] この補正部は、上記した非線形の第 1階調特性に従った第 1補正により画像信号を 色計測用画像信号に変換する第 1補正回路と、第 1補正回路が出力する色計測用画 像信号を増幅して色形状抽出部に出力するアンプとからなる第 1補正部と、上記した 線形部分を有する第 2階調特性に従った第 2補正により画像信号を形状計測用画像 信号に変換する第 2補正回路と、第 2補正回路が出力する形状計測用画像信号を増 幅して色形状抽出部に出力するアンプとからなる第 2補正部とを備えている。
[0322] また、第 5実施形態の主装置では、上記したように撮像ユニット 50から入力される画 像信号に対して第 1及び第 2補正を施すため、図 26に示す第 4実施形態の処理部 15 と同様に、 ROM36の内部に、第 1実施形態の ROM36に記憶されている各種プロダラ ム 36a〜36iに加え、階調補正プログラム 36jと、階調補正 LUT36kとが記憶されている
[0323] ただし、第 5実施形態における階調補正プログラム 36j及び階調補正 LUT36kは、そ の内容が第 4実施形態における階調補正プログラム 36汲び階調補正 LUT36kと異な る。
[0324] すなわち、第 5実施形態における階調補正プログラム 36jは、画像信号に対して第 1 補正を施す際に実行される第 1補正プログラムと、画像信号に対して第 2補正を施す 際に実行される第 2補正プログラムとから構成されている。
[0325] 第 1補正プログラムは、 CCD22により被計測物を撮像して得られる画像信号に対し て、第 1階調特性に従った第 1補正を行うことにより、画像信号を被計測物の色を計測 及び復元する際に用いる色計測用画像信号に変換するために実行される。ここで、 第 1階調特性とは、モニタ LCD10の非線形な表示特性に合わせた非線形のガンマ特 '性のことである。 [0326] このような第 1階調特性に従った第 1補正を行うことにより、被計測物の実際の色を 忠実に再現可能な色計測用画像信号を生成することができる。
[0327] このように処理部 15は、第 1階調特性に従った第 1補正により画像信号を色計測用 画像信号に変換する補正部として機能する。
[0328] また、第 2補正プログラムは、 CCD22により被計測物を撮像して得られる画像信号に 対して、第 2階調特性に従った第 2補正を行うことにより、画像信号を被計測物の 3次 元形状を計測する際に用いる形状測用画像信号に変換するために実行される。ここ で、第 2階調特性とは、少なくとも一部分に線形な特性を有し、その他の部分を非線 形又は線形としたガンマ特性のことである。
[0329] また、第 5実施形態における階調補正 LUT36kは、第 1補正 LUTと、第 2補正 LUTと から構成されている。
[0330] 第 1補正 LUTは、第 1補正前の画像信号と第 1補正後に得られる色計測用画像信号 とを対応させて記憶させたルックアップテーブルであり、処理部 15にお 、て第 1補正 プログラムが実行されるときに CPU35が参照するものである。つまり、上記第 1補正は 、この第 1補正 LUTを利用して行われる。
[0331] また、第 2補正 LUTは、第 2補正前の画像信号と第 2補正後に得られる形状計測用 画像信号とを対応させて記憶させたルックアップテーブルであり、処理部 15にお 、て 第 2補正プログラム 36kが実行されるときに CPU35が参照するものである。つまり、上記 第 2補正は、この第 2補正 LUTを利用して行われる。
[0332] 第 1補正部は、主装置の処理部 15により第 1補正プログラムが実行されることにより、 第 1補正回路とアンプとが動作して画像信号を色計測用画像信号に変換して出力す るものであり、パターン光投影部として機能する投影部 13のパターン光非投影時に、 撮像部である CCD22が被計測物を撮像して出力する画像信号に対して第 1階調特 性に従って第 1補正を行って、画像信号を色計測用画像信号に変換するものである
[0333] また、この第 1補正部が補正する画像信号は、複数種類の色信号と輝度信号とを含 んでおり、この第 1補正部は、画像信号に含まれる各色信号ごとに第 1補正を行うと共 に、画像信号に含まれる輝度信号に対しても第 1補正を行う。 [0334] また、第 2補正部は、主装置の処理部 15により第 2補正プログラムが実行されること により、第 2補正回路とアンプとが動作して形状計測用画像信号を出力するものであ り、パターン光投影部として機能する投影部 13のパターン光投影時に、撮像部である CCD22が被計測物を撮像して出力する画像信号に対して第 2階調特性に従って第 2 補正を行って、画像信号を形状計測用信号に変換するものである。
[0335] また、この第 2補正部が補正する画像信号は、複数種類の色信号と輝度信号とを含 んでおり、この第 2補正部は、画像信号に含まれる各色信号ごとに第 2補正を行うと共 に、画像信号に含まれる輝度信号に対しても第 2補正を行う。
[0336] そして、このように構成した補正部を備えた主装置では、第 1補正部により変換した 色計測用画像信号と、第 2補正部により変換した形状計測用信号とが色形状抽出部 へ出力される。
[0337] また、主装置 51は、第 1補正部及び第 2補正部のいずれか一方を選択し、撮像ュ- ット 50から出力される画像信号を選択した補正部へ出力する選択部を備えており、こ の選択部で選択した各補正部により補正された画像信号を色形状抽出部に出力す るようにしている。
[0338] この選択部は、主装置の処理部 15により第 1補正プログラムが実行されるときに、 CP U35の制御により撮像ユニット 50と第 1補正回路とを接続させて第 1補正部を選択する
[0339] 一方、選択部は、主装置 51の処理部 15により第 2補正プログラムが実行されるときに 、CPU35の制御により撮像ユニット 50と第 2補正回路とを接続させて第 2補正部を選択 する。
[0340] このように、本実施形態では、画像信号に対してモニタ LCD10の表示特性に合わ せた非線形の第 1階調特性に従って第 1補正を施すことにより生成した色計測用画像 信号を色形状抽出部に出力するように構成しているため、色形状抽出部により、被計 測物の色を忠実に復元した後述のテクスチャを生成することができる。
[0341] さらに、上記のように画像信号に対して線形部分を有する第 2階調特性に従って第 2補正を施すことにより生成した形状計測用画像信号を色形状抽出部に出力するよう に構成しているため、被計測物の 3次元形状を精度良く測定できると共に、色形状抽 出部により、被計測物の 3次元形状を忠実に復元した後述の 3次元モデルを生成す ることがでさる。
[0342] そのため、この 3次元色形状計測装置 1では、被計測物の色と 3次元形状とを忠実 に復元した 3次元画像を生成することができる。
[0343] しかも、この 3次元色形状計測装置 1では、主装置に第 1補正部と第 2補正部とを設 けるように構成しているので、図 30に示すような、 CCD22とアンプ 52と A/Dコンバータ 5 3とだけを備え、階調補正を行う補正部を全く備えていない比較的簡易な構成で、且 つ、比較的安価な市販の撮像装置を撮像ユニット 50として適用することができる。
[0344] 次に、第 5実施形態の 3次元色形状計測装置が備える処理部 15で行われる処理に ついて説明する。この処理部 15では、図 15に示した撮像処理サブルーチンにおける S1211と、 S1213とで行われる処理のみが第 1実施形態と異なる。
[0345] 図 31は、第 5実施形態の処理部 15で行われる撮像処理を示すフローチャートである 。図 31に示すように、この撮像処理では、まず、 S1211dにおいて、第 1補正処理が実 行される。すなわち、この S121 Idにおいて第 1補正プログラムの実行により選択部が 第 1補正部を選択すると共に、第 1補正 LUTが CPU35によって参照されて、撮像ュ- ット 50から出力された画像信号に対して第 1補正を施すことにより色計測用画像信号 が生成される。
[0346] 次に、 S1212において、パターン光撮影プログラム 36bの実行により、投影部 13から パターン光を被計測物に投影することなぐ撮像部 14によって被計測物を撮像するこ とにより、 1枚のパターン光無画像が取得される。
[0347] このとき取得されるパターン光無画像は、第 1補正回路により第 1補正を施された色 計測用画像信号に基づいて生成されるものである。そして、その取得されたパターン 光無画像はパターン光無画像格納部 37bに格納される。
[0348] 次に、 S1213dにおいて、第 2補正処理が実行される。すなわち、この S1213dにおい て第 2補正プログラムの実行により選択部が第 2補正部を選択すると共に、第 2補正 L
UTが CPU35により参照されて、撮像ユニット 50から出力された画像信号に対して第 2 補正を施すことにより形状計測用画像信号が生成される。
[0349] こうして S1213dの処理が終了した後は、第 1実施形態と同様に、 S1214〜S1219の処 理が順次実行されてこの撮像処理が終了する。
[0350] このように、第 5実施形態の 3次元色形状計測装置 1が有する処理部 15によれば、 図 15に示した第 1実施形態の撮像処理サブルーチンにおける S1211と、 S1213とで実 行される処理を、図 31に示した撮像処理サブルーチンにおける S1211dと S1213dとに 変更するだけで、処理部 15で実行されるプログラム全体を大幅に変更することなぐ 図 30に示す撮像ユニット 50を動作させることができる。
[0351] また、第 5実施形態では、撮像処理中に撮像ユニット 50から入力される色計測用画 像信号に対して第 1及び第 2補正を施すようにしているが、処理部 15での処理を変更 することにより、撮像処理中には第 1及び第 2補正を行わず、その後、図 17に示すコー ド画像生成処理 (S100)において第 2補正を行い、図 19に示す 3次元色形状検出結果 生成処理 (S1230)にお 、て第 1補正を行うこともできる。
[0352] ここで、第 5実施形態の変形例として、コード画像生成処理にお!、て第 2補正を行 ヽ 、 3次元色形状検出結果生成処理において第 1補正を行う場合に、処理部 15で実行 される処理について説明する。この場合、図 31に示す S121 Idの第 1補正処理が削除 され、図 34に示す 3次元色形状検知結果生成処理の中で第 1補正が実行され、図 31 に示す S1213dの第 2補正処理が削除され、図 32に示すコード画像生成処理、及び、 図 33に示す 2値化画像生成処理の中で第 2補正処理が実行される。
[0353] コード画像生成処理では、図 32に示すように、コード画像生成プログラム 36dの実行 により、まず、 S101において、パターン番号 PNが 0であるパターン光が投影された被 計測物が撮像された輝度画像が、輝度画像格納部 37cから代表パターン画像として 読み込まれる。
[0354] 次に、 SlOlbにおいて、第 2補正処理が実行される。すなわち、 SlOlbにおいて第 2 補正プログラムの実行により、第 2補正 LUTが CPU35により参照されて、代表パターン 画像を示す画像信号に対して第 2補正を施す処理が実行される。
[0355] こうして SlOlbの処理が終了した後は、第 1実施形態と同様に、 S102〜S106の処理 が順次実行される力 S106において、パターン番号 PNの現在値が最大値 PNmaxより も小さいと判断された場合には、 S107 (2値化画像を生成する処理)において第 2補正 処理が実行される。なお、 S106において、パターン番号 PNの現在値が最大値 PNmax よりも大きいと判断された場合には、第 1実施形態と同様に S109 (コード画像を生成す る処理)が実行されて、このコード画像生成処理が終了される。
[0356] 2値化画像生成処理では、図 33に示すように、 S111において輝度画像格納部 37cか ら画像が読み込まれ、その後、 SI libにおいて第 2補正処理が実行される。すなわち 、 Slllbにおいて第 2補正プログラムの実行により、第 2補正 LUTが CPU35により参照 されて、 S111にお 、て読み込まれた画像を示す画像信号に対して第 2補正を施す処 理が実行される。
[0357] こうして Slllbの処理が終了した後は、第 1実施形態と同様の 2値ィ匕処理 S112が実 行されて、この 2値ィ匕処理が終了される。
[0358] また、 3次元色形状検知結果生成処理では、図 34に示すように、第 1実施形態にお ける 3次元色形状検知結果生成処理と同様にして S5501〜S6001の処理が順次実行 された後、 S6001aにおいて第 1補正処理が実行される。
[0359] すなわち、 S6001aにおいて第 1補正プログラムの実行により第 1補正 LUTが CPU35 により参照され、 S6001において抽出されたパターン光無画像の RGB値に対して第 1 補正を施す処理が実行される。
[0360] こうして、 S6001aの処理が終了した後は、第 1実施形態と同様にして S6002〜S6004 の処理が順次実行されて、この 3次元色形状検知結果生成処理が終了される。
[0361] 以上、本発明の実施の形態のいくつかを図面に基づいて詳細に説明したが、これ らは例示であり、前記 [発明の開示]の欄に記載の態様を始めとして、当業者の知識 に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能であ る。
[0362] 例えば、変形例として、画像信号に対して階調補正を行う各補正回路、及び、各補 正回路が出力する信号を増幅する各アンプ等を、本実施形態で用いたディジタル回 路に替えて、半導体等により構成した非線形素子を用いたアナログ回路により構成し 、アナログ信号処理により画像信号に対して階調補正を行ってもよい。

Claims

請求の範囲
[1] 被計測物を同一の撮像部により撮像して得られる画像信号に基づいて、前記被計 測物の色と 3次元形状とを計測する 3次元色形状計測装置であって、
第 1階調特性に従った第 1補正により前記画像信号を色計測用画像信号に変換す ると共に、第 2階調特性に従った第 2補正により前記画像信号を形状計測用画像信 号に変換する補正部と、
前記形状計測用画像信号に基づ!、て、前記被計測物の 3次元形状を復元した 3次 元モデルと、前記色計測用画像信号に基づ!、て復元した前記被計測物の色とを用 いて前記被計測物の 3次元画像を復元する色形状抽出部と、
を有することを特徴とする 3次元色形状計測装置。
[2] 前記階調特性は、ガンマ特性であることを特徴とする請求項 1に記載の 3次元色形 状計測装置。
[3] 前記被計測物に所定パターンのパターン光を投影するパターン光投影部を有し、 前記補正部は、
前記パターン光投影部によるパターン光投影時に、前記撮像部が前記被計測物を 撮像して出力する前記画像信号に前記第 2階調特性に従って第 2補正を行い、前記 パターン光投影部によるパターン光非投影時に、前記撮像部が前記被計測物を撮 像して出力する前記画像信号に前記第 1階調特性に従って第 1補正を行うことを特 徴とする請求項 1に記載の 3次元色形状計測装置。
[4] 前記第 2階調特性は、線形特性であることを特徴とする請求項 1に記載の 3次元色 形状計測装置。
[5] 前記第 2階調特性は、一部分を線形とし、その他の部分を非線形とした特性である ことを特徴とする請求項 1に記載の 3次元色形状計測装置。
[6] 前記第 1補正及び前記第 2補正のうち少なくとも一方は、補正前後の情報を対応さ せたルックアップテーブルを利用して行うことを特徴とする請求項 1に記載の 3次元色 形状計測装置。
[7] 前記画像信号は、複数種類の色信号と輝度信号とを含み、
前記補正部は、前記色信号毎に前記第 1補正及び前記第 2補正を行うことを特徴 とする請求項 1に記載の 3次元色形状計測装置。
[8] 前記画像信号は、輝度信号よりなり、
前記補正部は、前記輝度信号を前記第 1補正及び前記第 2補正することを特徴と する請求項 1に記載の 3次元色形状計測装置。
[9] 前記補正部は、前記第 2補正を増幅器によって行うことを特徴とする請求項 4に記 載の 3次元色形状計測装置。
[10] 前記撮像部と前記補正部とを撮像ユニットに収納し、前記色形状抽出部を主装置 に収納した請求項 1に記載の 3次元色形状計測装置であって、
前記補正部は、
前記第 1階調特性に従った第 1補正により前記画像信号を前記色計測用画像信号 に変換する第 1補正部と、
前記第 2階調特性に従った第 2補正により前記画像信号を前記形状計測用画像信 号に変換する第 2補正部とを備え、
前記撮像ユニットは、前記色計測用画像信号と前記形状計測用画像信号とを出力 することを特徴とする 3次元色形状計測装置。
[11] 前記撮像ユニットは、
前記第 1補正部及び前記第 2補正部の 、ずれか一方を選択し、当該選択した補正 部へ前記画像信号を出力する選択部を備えたことを特徴とする請求項 10に記載の 3 次元色形状計測装置。
[12] 前記主装置は、
前記撮像ユニットから出力される前記色計測用画像信号及び前記形状計測用画 像信号の ヽずれか一方を選択し、当該選択した画像信号を前記色形状抽出部へ出 力する選択部を備えたことを特徴とする請求項 10に記載の 3次元色形状計測装置。
[13] 前記撮像部を撮像ユニットに収納し、前記補正部と前記色形状抽出部を主装置に 収納した請求項 1に記載の 3次元色形状計測装置であって、
前記補正部は、
前記第 1階調特性に従った第 1補正により前記画像信号を前記色計測用画像信号 に変換する第 1補正部と、 前記第 2階調特性に従った第 2補正により前記画像信号を前記形状計測用画像信 号に変換する第 2補正部と、
を備えたことを特徴とする 3次元色形状計測装置。
[14] 前記主装置は、
前記第 1補正部及び前記第 2補正部の 1、ずれか一方を選択し、前記撮像ユニット 力 出力される前記画像信号を前記選択した補正部へ出力する選択部を備えたこと を特徴とする請求項 13に記載の 3次元色形状計測装置。
[15] 前記補正部は、
前記第 1階調特性に従った第 1補正により前記画像信号を前記色計測用画像信号 に変換する第 1補正部と、
第 3階調特性に従った第 3補正により前記色計測用画像信号を前記形状計測用画 像信号に変換する第 3補正部とを備え、
前記撮像部と前記第 1補正部とを撮像ユニットに収納し、前記第 3補正部と前記色 形状抽出部とを主装置に収納したことを特徴とする請求項 1に記載の 3次元色形状 計測装置。
[16] 前記第 3階調特性は、前記第 1階調特性との積を取ることによって線形特性となる 階調特性であることを特徴とする請求項 15に記載の 3次元色形状計測装置。
PCT/JP2007/056720 2006-03-30 2007-03-28 3次元色形状計測装置 WO2007114189A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/242,778 US7576845B2 (en) 2006-03-30 2008-09-30 Three-dimensional color and shape measuring device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-096096 2006-03-30
JP2006096096A JP2007271395A (ja) 2006-03-30 2006-03-30 3次元色形状計測装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/242,778 Continuation-In-Part US7576845B2 (en) 2006-03-30 2008-09-30 Three-dimensional color and shape measuring device

Publications (1)

Publication Number Publication Date
WO2007114189A1 true WO2007114189A1 (ja) 2007-10-11

Family

ID=38563458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/056720 WO2007114189A1 (ja) 2006-03-30 2007-03-28 3次元色形状計測装置

Country Status (3)

Country Link
US (1) US7576845B2 (ja)
JP (1) JP2007271395A (ja)
WO (1) WO2007114189A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7576845B2 (en) 2006-03-30 2009-08-18 Brother Kogyo Kabushiki Kaisha Three-dimensional color and shape measuring device
CN105277558A (zh) * 2014-06-24 2016-01-27 毕克-加特纳有限责任公司 一种研究表面的多步方法及其对应设备
CN105806259A (zh) * 2016-04-29 2016-07-27 东南大学 一种基于二值光栅离焦投影的三维测量方法

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004036162A1 (ja) * 2002-07-26 2006-02-16 オリンパス株式会社 画像処理システム
US7773802B2 (en) * 2002-07-26 2010-08-10 Olympus Corporation Image processing system with multiple imaging modes
JP4088313B2 (ja) * 2004-01-23 2008-05-21 オリンパス株式会社 画像処理システム、院内処理システム
US8659698B2 (en) 2007-05-17 2014-02-25 Ilya Blayvas Compact 3D scanner with fixed pattern projector and dual band image sensor
JP5172283B2 (ja) * 2007-11-13 2013-03-27 パナソニック株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびプログラム
WO2010102290A2 (en) * 2009-03-06 2010-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for generating autostereo three-dimensional views of a scene for a plurality of viewpoints using a pseudo-random hole barrier
US8661889B2 (en) * 2009-07-16 2014-03-04 Duane C. Blake AURA devices and methods for increasing rare coin value
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
CA2762637C (en) * 2009-11-04 2012-08-28 Technologies Numetrix Inc. Device and method for obtaining three-dimensional object surface data
KR101248909B1 (ko) * 2010-01-05 2013-03-28 삼성전자주식회사 3d 정보 획득장치 및 이의 광원 구동방법, 그리고, 3d 정보 획득 시스템
DE102010009554A1 (de) * 2010-02-26 2011-09-01 Lüllau Engineering Gmbh Verfahren und Bestrahlungsgerät zur Bestrahlung von gekrümmten Flächen mit nichtionisierender Strahlung
DE102010034987A1 (de) * 2010-08-20 2012-03-01 Steinbichler Optotechnik Gmbh Verfahren zur 3D-Digitalisierung eines Objekts mit veränderlicher Oberfläche
US8922647B2 (en) * 2011-08-03 2014-12-30 The Boeing Company Projection aided feature measurement using uncalibrated camera
US9197881B2 (en) * 2011-09-07 2015-11-24 Intel Corporation System and method for projection and binarization of coded light patterns
US9534756B2 (en) 2012-04-03 2017-01-03 Sharp Kabushiki Kaisha Light-emitting device, floodlight, and vehicle headlight
JP6138420B2 (ja) * 2012-04-06 2017-05-31 シャープ株式会社 発光装置および車両用前照灯
US10036631B2 (en) * 2012-05-01 2018-07-31 Texas Department Of Transportation System and method for measuring three-dimensional surface features
JP6116164B2 (ja) * 2012-09-11 2017-04-19 株式会社キーエンス 形状測定装置、形状測定方法および形状測定プログラム
JP6112807B2 (ja) * 2012-09-11 2017-04-12 株式会社キーエンス 形状測定装置、形状測定方法および形状測定プログラム
DE102012220048B4 (de) 2012-11-02 2018-09-20 Sirona Dental Systems Gmbh Kalibrierungsvorrichtung und Verfahren zur Kalibrierung einer dentalen Kamera
US8939074B2 (en) * 2013-03-12 2015-01-27 Illinois Tool Works Inc. Color-based linear three dimensional acquisition system and method
US10067697B2 (en) * 2013-04-11 2018-09-04 Group 47, Inc. Archiving imagery and documents on digital optical tape
US9508376B2 (en) * 2013-04-11 2016-11-29 Group 47, Inc. Archiving imagery on digital optical tape
US9881235B1 (en) * 2014-11-21 2018-01-30 Mahmoud Narimanzadeh System, apparatus, and method for determining physical dimensions in digital images
JP6681258B2 (ja) * 2015-06-01 2020-04-15 キヤノン株式会社 計測装置、システム、物品の製造方法、算出方法及びプログラム
EP3101383A1 (en) * 2015-06-01 2016-12-07 Canon Kabushiki Kaisha Shape measurement apparatus, shape calculation method, system, and method of manufacturing an article
JP2017083419A (ja) * 2015-10-22 2017-05-18 キヤノン株式会社 計測装置および方法、物品製造方法、較正マーク部材、加工装置、ならびに加工システム
WO2017125507A1 (en) 2016-01-19 2017-07-27 Zivid Labs As Imaging unit and system for obtaining a three-dimensional image
US10908482B2 (en) * 2016-07-14 2021-02-02 Pathway Innovations And Technologies, Inc. Modular action camera system
JP2022049269A (ja) * 2020-09-16 2022-03-29 セイコーエプソン株式会社 三次元形状計測方法および三次元形状計測装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000048699A1 (fr) * 1999-02-19 2000-08-24 Sanyo Electric Co., Ltd. Dispositif de mise en forme de modeles tridimensionnels reels
JP2003172610A (ja) * 2001-12-07 2003-06-20 Brother Ind Ltd 3次元色形状検出装置及び3次元スキャナー
JP2005258622A (ja) * 2004-03-10 2005-09-22 Fuji Photo Film Co Ltd 三次元情報取得システムおよび三次元情報取得方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3297452B2 (ja) 1991-11-11 2002-07-02 キヤノン株式会社 画像処理装置及び画像処理方法
US6421083B1 (en) * 1996-03-29 2002-07-16 Sony Corporation Color imaging device and method
JP2001166810A (ja) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd 立体モデル提供装置及び方法
JP4241250B2 (ja) 2003-07-23 2009-03-18 富士ゼロックス株式会社 3次元形状測定装置および方法
WO2005096126A1 (ja) 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha 画像入出力装置
JP2005293075A (ja) 2004-03-31 2005-10-20 Brother Ind Ltd 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム
JP2007271395A (ja) 2006-03-30 2007-10-18 Brother Ind Ltd 3次元色形状計測装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000048699A1 (fr) * 1999-02-19 2000-08-24 Sanyo Electric Co., Ltd. Dispositif de mise en forme de modeles tridimensionnels reels
JP2003172610A (ja) * 2001-12-07 2003-06-20 Brother Ind Ltd 3次元色形状検出装置及び3次元スキャナー
JP2005258622A (ja) * 2004-03-10 2005-09-22 Fuji Photo Film Co Ltd 三次元情報取得システムおよび三次元情報取得方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7576845B2 (en) 2006-03-30 2009-08-18 Brother Kogyo Kabushiki Kaisha Three-dimensional color and shape measuring device
CN105277558A (zh) * 2014-06-24 2016-01-27 毕克-加特纳有限责任公司 一种研究表面的多步方法及其对应设备
US11300406B2 (en) 2014-06-24 2022-04-12 Byk-Gardner Gmbh Multiple-stage method of investigating surfaces and corresponding apparatus
CN105806259A (zh) * 2016-04-29 2016-07-27 东南大学 一种基于二值光栅离焦投影的三维测量方法
CN105806259B (zh) * 2016-04-29 2018-08-10 东南大学 一种基于二值光栅离焦投影的三维测量方法

Also Published As

Publication number Publication date
US7576845B2 (en) 2009-08-18
US20090046301A1 (en) 2009-02-19
JP2007271395A (ja) 2007-10-18

Similar Documents

Publication Publication Date Title
WO2007114189A1 (ja) 3次元色形状計測装置
WO2006035736A1 (ja) 3次元情報取得方法および3次元情報取得装置
US7672505B2 (en) Apparatus, method and program for three-dimensional-shape detection
US7845807B2 (en) Projection apparatus and three-dimensional-shape detection apparatus
CN106127745B (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
JP2005293075A5 (ja)
JP6692440B2 (ja) 内視鏡システム
US7821649B2 (en) Fringe projection system and method for a probe suitable for phase-shift analysis
US7711179B2 (en) Hand held portable three dimensional scanner
US6587183B1 (en) Range finder and camera
US10708553B2 (en) Measurement support device, endoscope system, processor for endoscope system
US20150002649A1 (en) Device for detecting the three-dimensional geometry of objects and method for the operation thereof
WO2018051679A1 (ja) 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法
WO2006112297A1 (ja) 3次元形状測定装置
JP2009025189A (ja) 計測器
JP2005291839A5 (ja)
JP2006267031A (ja) 3次元入力装置および3次元入力方法
JP4552485B2 (ja) 画像入出力装置
JP4552484B2 (ja) 画像入出力装置
JP2005352835A (ja) 画像入出力装置
WO2005122553A1 (ja) 画像入出力装置
JP2019195643A (ja) 内視鏡システム
JP2006277023A (ja) 3次元情報取得装置、パターン光生成方法、3次元情報取得方法、プログラム及び記録媒体
JP2005293290A5 (ja)
CN102778198A (zh) 用于具有适合相移分析的强度调制元件的探头的条纹投影系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07740158

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07740158

Country of ref document: EP

Kind code of ref document: A1