WO2005031252A1 - 3次元形状検出装置、3次元形状検出システム、及び、3次元形状検出プログラム - Google Patents

3次元形状検出装置、3次元形状検出システム、及び、3次元形状検出プログラム Download PDF

Info

Publication number
WO2005031252A1
WO2005031252A1 PCT/JP2004/013786 JP2004013786W WO2005031252A1 WO 2005031252 A1 WO2005031252 A1 WO 2005031252A1 JP 2004013786 W JP2004013786 W JP 2004013786W WO 2005031252 A1 WO2005031252 A1 WO 2005031252A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional shape
image
pattern light
image data
data
Prior art date
Application number
PCT/JP2004/013786
Other languages
English (en)
French (fr)
Inventor
Takeo Iwasaki
Original Assignee
Brother Kogyo Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Kogyo Kabushiki Kaisha filed Critical Brother Kogyo Kabushiki Kaisha
Publication of WO2005031252A1 publication Critical patent/WO2005031252A1/ja
Priority to US11/385,774 priority Critical patent/US7372580B2/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Definitions

  • 3D shape detection device 3D shape detection system, and 3D shape detection program
  • the present invention relates to a three-dimensional shape detection device, a three-dimensional shape detection system, and a three-dimensional shape detection program for detecting a three-dimensional shape of a target object using a light beam.
  • FIG. 1 of Japanese Patent Application Laid-Open No. 9-289611 discloses a portable digital camera provided with such a correction means.
  • the portable device While performing the above-described correction in a portable digital camera equipped with the above-described correction means, the portable device has a lower power consumption and outer shape than a stationary device. Limiting force There was a problem in that the computing ability was inferior and the computing process could not be performed at a high speed, and an inexpensive element could not be used for the computing process.
  • the present invention has been made in order to solve the above-described problem, and corrects a captured image obtained by obliquely capturing a target object into a plane image observed from a substantially vertical direction of a predetermined surface of the target object.
  • a three-dimensional shape detection device a three-dimensional shape detection system, and a three-dimensional shape detection program, which can efficiently store data necessary for performing the operation and can be constituted by relatively inexpensive arithmetic elements.
  • an aspect of the present invention provides a three-dimensional shape detection system including a three-dimensional shape detection device and an external processing device.
  • a light projecting means for projecting a pattern light to a target object, and a pattern A pattern light projection image of a target object in a state where light is projected is acquired to acquire image data of the flutter light projection image, and an object in a state where the pattern light is not projected is obtained.
  • An image data acquisition unit that captures a pattern light non-projection image of the object and acquires image data of the pattern light non-projection image, and determines a position of the pattern light projected on the target object based on the acquired image data.
  • the external arithmetic unit is configured to convert the pattern light non-projection image into a substantially predetermined surface of the target object based on the image data of the pattern light non-projection image acquired by the three-dimensional shape detection device and the three-dimensional shape data.
  • the image processing apparatus further includes an image correction unit that corrects a plane image observed from a vertical direction.
  • the three-dimensional shape detection device it is not necessary to store the image data of the pattern light projection image in order to calculate the plane image by the external processing device. Therefore, in the three-dimensional shape detection device, the storage capacity can be reduced as compared with the case where both the image data of the pattern light projection image and the image data of the pattern light non-projection image are stored. On the three-dimensional shape detection device side, computation with a relatively low load is performed, and on the external computation device side, the processing is performed with a relatively high load. With this configuration, the overall performance of the three-dimensional shape detection system can be improved.
  • the data provided from the three-dimensional shape detection device side to the external processing device side is the image data of the pattern light non-projection image and the three-dimensional shape data.
  • the data amount is greatly reduced as compared to the case where both the image data of the light projection image are provided to the external processing device. Therefore, the amount of data required when providing image data from the three-dimensional shape detection device side to the external processing device side is reduced.
  • image data is transmitted between the three-dimensional shape detection device and the external processing device by data communication. When transferring data, the effect of reducing the communication time can be obtained.
  • another aspect of the present invention provides a three-dimensional shape detection device used in a three-dimensional shape detection system.
  • a pattern light projecting means for projecting the pattern light; and a pattern light projecting image of the target object in a state where the pattern light is projected from the projecting means to obtain image data of the pattern light projecting image.
  • image data acquisition means for acquiring a pattern light non-projection image of the target object in a state where the pattern light is not projected and acquiring image data of the pattern light non-projection image.
  • the three-dimensional shape detecting device is extracted by the pattern light position extracting means for extracting the position of the pattern light projected on the target object based on the obtained image data, and the pattern light position extracting means.
  • Three-dimensional shape calculation means for calculating three-dimensional shape data of the target object based on the position of the pattern light.
  • the image data of the pattern light non-projection image acquired by the image data acquisition means and the three-dimensional shape data calculated by the three-dimensional shape calculation means are converted into image data of the pattern light non-projection image by an external arithmetic unit. It is used to correct the pattern light non-projection image to a plane image observed from a substantially vertical direction of a predetermined surface of the target object based on the three-dimensional shape data and the three-dimensional shape data.
  • the three-dimensional shape detection device it is not necessary to store the image data of the pattern light projection image in order to calculate the plane image by the external arithmetic device. Therefore, in the three-dimensional shape detection device, the storage capacity can be reduced as compared with the case where both the image data of the pattern light projection image and the image data of the pattern light non-projection image are stored. On the three-dimensional shape detection device side, computation with a relatively low load is performed, and on the external computation device side, the processing is performed with a relatively high load. With this configuration, the overall performance of the three-dimensional shape detection system can be improved.
  • the data provided from the three-dimensional shape detection device side to the external processing device side are image data of the pattern light non-projection image and three-dimensional shape data.
  • the data amount is greatly reduced as compared to the case where both the image data of the light projection image are provided to the external processing device. Therefore, the amount of data required when providing image data from the three-dimensional shape detection device side to the external processing device side is reduced.
  • image data is transmitted between the three-dimensional shape detection device and the external processing device by data communication. When transferring data, the effect of reducing the communication time can be obtained.
  • another aspect of the present invention provides a program for detecting a three-dimensional shape, wherein a pattern of an object in a state where pattern light is projected is provided.
  • An image data acquiring step for acquiring image data of the light projection image and image data of the pattern light non-projection image of the target object in a state where the pattern light is not projected; and
  • a pattern light position extracting step of extracting a position of the pattern light projected on the target object based on the acquired image data.
  • the three-dimensional shape detection program includes a three-dimensional shape calculation step of calculating three-dimensional shape data of the target object based on the position of the pattern light extracted in the pattern light position extraction step; A storage step of storing the image data of the non-light-projected image and the three-dimensional shape data in storage means; and the image data of the pattern light non-light-projected image stored in the storage means in the storage step.
  • An image correction step of correcting the pattern light non-projection image to a planar image observed from a substantially vertical direction of a predetermined surface of the target object based on the three-dimensional shape data.
  • the storage capacity can be reduced as compared with the case where both the image data of the pattern light projection image and the image data of the pattern light non-projection image are stored.
  • the 3D shape detection device side calculations with a relatively low load are performed, and processing with a relatively high load (image correction step) can be performed on the external calculation device side.
  • another aspect of the present invention provides a program for detecting a three-dimensional shape, the pattern being a pattern of an object in a state where pattern light is projected.
  • An image data acquiring step for acquiring image data of the light projection image and image data of the pattern light non-projection image of the target object in a state where the pattern light is not projected; and
  • a pattern light position extracting step of extracting a position of the pattern light projected on the target object based on the acquired image data.
  • the three-dimensional shape detection program is extracted in the pattern light position extraction step.
  • An image correction step of correcting the non-light-projected pattern image to a plane image observed from a substantially vertical direction of a predetermined surface of the target object based on the image data.
  • the data provided from the three-dimensional shape detection device side to the external processing device side includes the image data of the pattern light non-light projection image and the three-dimensional shape. It can be data.
  • the data amount is greatly reduced as compared with a case where both the image data of the non-turn light non-projection image and the image data of the pattern light projection image are provided to the external processing unit. Therefore, the amount of data required when providing image data from the three-dimensional shape detection device side to the external processing device side is reduced, and communication time is reduced in data communication between the three-dimensional shape detection device and the external processing device. The effect of reduction is obtained.
  • FIG. 1 (a) is an external perspective view of a three-dimensional shape detection system according to an embodiment of the present invention
  • FIG. 1 (b) is one of constituent devices of the three-dimensional shape detection system.
  • FIG. 2 is a schematic cross-sectional view of a certain imaging device.
  • FIG. 2 is a diagram showing in detail a configuration of a slit light projecting unit in the imaging device.
  • FIG. 3 (a) and FIG. 3 (b) are diagrams for explaining the angular width of slit light.
  • FIG. 4 is a block diagram showing an electrical configuration of the three-dimensional shape detection system.
  • FIG. 5 is a diagram showing a configuration of a memory card.
  • FIG. 6 is a flowchart showing a processing procedure in a processor in the imaging device.
  • FIG. 7 (a) and FIG. 7 (b) are views for explaining an image with slit light.
  • FIG. 8 (a) and FIG. 8 (b) are diagrams for explaining a method of calculating a three-dimensional spatial position of slit light.
  • FIG. 9 illustrates a coordinate system when calculating the original posture.
  • FIG. 9 (a), FIG. 9 (b) and FIG. 9 (c) illustrate a coordinate system when calculating the original posture.
  • FIG. 10 is a flowchart showing a data transfer process.
  • FIG. 11 is a flowchart showing a plane conversion process.
  • FIG. L (a) is an external perspective view of the three-dimensional shape detection system 100.
  • FIG. 1B is a schematic cross-sectional view of the imaging device 1 which is one of the constituent devices of the three-dimensional shape detection system 100.
  • FIG. 1B shows a state in which the image pickup apparatus 1 picks up an image of the document P as an object to be imaged from an oblique direction with respect to the surface of the document P.
  • the three-dimensional shape detection system 100 includes the imaging device 1 and a general-purpose personal computer 90 (hereinafter, referred to as "PC90").
  • the three-dimensional shape detection system 100 converts an image captured when the target object is obliquely imaged by the imaging device 1 into a substantially vertical direction of a predetermined surface of the target object. This is a system that can be corrected to a planar image as viewed from above.
  • the imaging device 1 is provided with a rectangular box-shaped main body case 10, an imaging lens 31 provided on the front of the main body case 10, and provided behind the imaging lens 31 (inside the imaging device 1). It has a CCD image sensor 32 and a slit light projecting unit 20 provided below the imaging lens 31.
  • the imaging device 10 further includes a processor 40 built in the main body case 10, a release button 52 and a mode switching switch 59 provided on the upper part of the main body case 10, and a memory card processing device 55. These components of the imaging device 1 are connected by signal lines.
  • the memory card processing device 55 functions as an interface for detachably mounting the portable memory card 56.
  • the imaging device 1 further includes an LCD (Liquid Crystal) provided on the back of the main body case 10.
  • LCD Liquid Crystal
  • Display 51 and a finder 53 that is disposed through the front surface of the body case 10 at the rear.
  • the LCD 51 and the finder 53 are used when a user determines an imaging range of the imaging device 1.
  • the imaging lens 31 includes a plurality of lenses.
  • the image pickup apparatus 1 has an auto-focus function, and the imaging lens 31 is driven by the auto-focus function to automatically adjust the focal length and the aperture, and light of an external force is formed on the CCD image sensor 32.
  • the CCD image sensor 32 has a configuration in which photoelectric conversion elements such as CCD (Charge Coupled Device) elements are arranged in a matrix.
  • the CCD image sensor 32 generates a signal corresponding to the color and intensity of the light of the image formed on the surface, converts the signal into digital data, and outputs the digital data to the processor 40.
  • the data for one CCD element is the pixel data of the pixels forming the image, and the image data is composed of the pixel data of the number of CCD elements.
  • FIG. 2 is a diagram showing a configuration of the slit light projecting unit 20.
  • FIGS. 3A and 3B are diagrams for explaining the angular width of the slit light.
  • the slit light projecting unit 20 includes a laser diode 21, a collimating lens 22, an aperture 23, a transparent flat plate 24, a cylindrical lens 25, a reflecting mirror 26, and a rod lens 27.
  • the laser diode 21 emits a red laser beam. The emission and the stop of the laser beam in the laser diode 21 are switched according to a command from the processor 40.
  • the output of the laser diode 21 is adjusted so that a constant output (for example, lmW) can be obtained at the point passing through the aperture 23 in consideration of the individual dispersion of the spread angle of the laser beam with respect to the maximum output rating (for example, 5 mW).
  • the rated output has been adjusted.
  • the collimating lens 22 focuses the laser beam from the laser diode 21 so as to focus on a reference distance VP (for example, 330 mm) from the slit light projecting unit 20.
  • VP for example, 330 mm
  • the aperture 23 is formed of a plate having a rectangular opening, and transmits the laser beam from the collimator lens 22 through the opening to be shaped into a rectangle.
  • the transparent plate 24 is made of a transparent plate made of a solid glass material or the like, and has an AR coating on the back surface.
  • the transparent flat plate 24 is disposed at a predetermined angle
  • the transparent flat plate 24 reflects about 5% (about 50 ⁇ W) of the power of one laser beam incident from the aperture 23 on the surface and transmits about 95% (about 950 ⁇ W).
  • the direction in which the laser beam is reflected by the transparent flat plate 24 is referred to as a second direction.
  • the reflection of one ray of laser light entering the transparent plate 24 when exiting from the transparent plate 24 is reduced, and one ray of laser light in the transparent plate 24 is reduced. Loss is reduced. Also, by setting the ratio of the laser beam reflected by the transparent flat plate 24 to a surface reflectance of 5% determined by the refractive index of the material of the transparent flat plate 24, metal vapor deposition on the reflective surface necessary for realizing with a normal half mirror is performed. The process of forming a film can be omitted.
  • the reflection mirror 26 is formed of a member such as a mirror that totally reflects the laser beam.
  • the reflection mirror 26 is arranged at a 45-degree angle in front of the main body case 10 downstream of the laser beam transmitted through the transparent flat plate 24, and totally reflects the laser beam to change the direction of the optical path by 90 degrees.
  • the direction in which the laser beam is reflected by the reflection mirror 26 (the direction of 0 ° with respect to the horizontal plane in front of the imaging device 1) is referred to as a first direction.
  • the rod lens 27 is formed of a cylindrical lens having a short positive focal length.
  • Rodren The lens 27 is disposed downstream of the laser beam reflected by the reflecting mirror 26 so that the axial direction of the cylindrical shape is vertical. Since the focal length of the rod lens 27 is short, the laser beam that has passed through the rod lens 27 immediately spreads beyond the focal point near the rod lens 27, and as a slit light having a predetermined spread angle ⁇ (for example, 48 degrees) in the first direction. (See Fig. 3 (a)). Note that the slit light emitted from the rod lens 27 is referred to as a first slit light 71.
  • the cylindrical lens 25 is a lens having a concave shape in one direction so as to have a negative focal length.
  • the cylindrical lens 25 is disposed downstream of the laser beam reflected by the transparent flat plate 24 so that the lens surface is orthogonal to the second direction.
  • the cylindrical lens 25 emits the laser beam incident from the transparent flat plate 24 as slit light having a spread angle ⁇ (see FIG. 3 (b)).
  • the slit light emitted from the cylindrical lens 25 is referred to as a second slit light 72.
  • the spread angle ⁇ of the second slit light 72 is the ratio of the spread angle ⁇ of the first slit light 71 to the spread angle ⁇ of the second slit light 72. It is determined to be equivalent to the ratio. That is, the spread angle ⁇ of the second slit light 72 is 5% (2.4 degrees) of the spread angle ⁇ .
  • a laser beam is emitted from the laser diode 21 in response to a command from the processor 40, and the first slit light 71 force and the second direction are emitted in the first direction.
  • the second slit light 72 is emitted from the window 29 provided below the imaging lens 31 of the main body case 10.
  • the power of the first slit light 71 split by the transparent flat plate 24 out of the power output from the laser diode 21 is reduced to 95%.
  • the power of the second slit light 72 is as low as about 5%, but when viewed in terms of the power per angular width, the power per unit angle of the first slit light 71 with a spread angular force of 8 degrees is about 20 WZ, and spreads.
  • the power per unit angle of the second slit light 72 having an angle of 2.4 degrees is about 21 / zWZ, which is almost the same.
  • the release button 52 is constituted by a push button type switch. The release button 52 is connected to the processor 40, and the processor 40 detects a user's pressing operation.
  • the mode switching switch 59 is configured by a slide switch or the like that can be switched to two positions.
  • the processor 40 detects the position of the mode switching switch 59.
  • One of the switch positions of the mode switching switch 59 is assigned by the processor 40 so as to be detected as the "normal mode” and the other switch position is detected as the "corrected imaging mode”.
  • “Normal mode” is a mode in which the imaged original state of the document P is used as image data.
  • the “corrected imaging mode” is a mode in which, when the document P is imaged from an oblique direction, the image data is image data corrected as if the document P was imaged with a frontal force.
  • the memory card processing device 55 is a device for processing the memory card 56.
  • the memory card processing device 55 is a reader / writer device that reads data stored in the memory card 56, inputs the data to the imaging device 1, and writes data output from the imaging device 1 to the memory card 56.
  • the memory card 56 processed by the memory card processing device 55 is configured by a nonvolatile and rewritable memory, and is configured to be detachable from the imaging device 1.
  • An opening 56a for mounting the memory card 56 is formed on a side surface of the imaging device 1.
  • the LCD 51 is configured by a liquid crystal display or the like that displays an image, and receives an image signal from the processor 40 and displays an image. From the processor 40 to the LCD 51, a real-time image received by the CCD image sensor 32, an image stored in the memory card 56, and an image signal for displaying characters of the device setting content are transmitted to the LCD 51 according to the situation. Come on.
  • the finder 53 is configured by an optical lens. When the user looks into the finder 53 from behind the image pickup device 1, a range almost coincident with the range in which the imaging lens 31 forms an image on the CCD image sensor 32 becomes visible!
  • the PC 90 which is a component of the three-dimensional shape detection system 100, has a plane conversion program 437 to be described later mounted thereon.
  • the image is viewed from a flat surface viewed from a substantially vertical
  • the calculation for correcting the plane image and the output of the corrected image are performed.
  • the PC 90 has a main body case 91, a CRT display 92 for displaying an output image and the like, and a keyboard 93 for inputting a start command of the plane conversion program 437 and the like.
  • the main body case 91 has a card slot 91a for mounting the memory card 56.
  • the data stored in the memory card 56 in the imaging device 1 is configured to be readable from the memory card processing device 99 of the PC 90 by inserting the memory card 56 into the card slot 91a. That is, the memory card processing device 99 functions as an interface for mounting the portable memory card 56 in a detachable manner.
  • the PC 90 has an interface 101 (see FIG. 4) on the PC 90 side as a transfer means for transmitting and receiving data between the PC 90 and the imaging device 1.
  • the imaging device 1 has an interface 60.
  • the communication cable 61 connects the interface 101 and the interface 60, that is, the PC 90 and the imaging device 1 so that data communication is possible (see FIG. 4).
  • a wired serial bus such as USB or a wireless LAN module such as WIFI can be adopted.
  • an external processing device such as a portable tablet, a small PDA, or a processor system built in a mobile phone is used. be able to.
  • FIG. 4 is a block diagram showing an electrical configuration of the three-dimensional shape detection system.
  • the processor 40 mounted on the imaging device 1 includes a CPU 41, a ROM 42, and a RAM 43.
  • the CPU 41 executes various processes according to the program stored in the ROM 42 while using the RAM 43.
  • the processing performed by the CPU 41 includes detection of a pressing operation of the release button 52, capture of image data from the CCD image sensor 32, writing of image data to the memory card 56, detection of the state of the mode switching switch 59, detection of the slit light emitting unit 20, Switching of the slit light by the above method.
  • the ROM 42 includes a camera control program 421, a difference extraction program 422, a triangulation calculation program 423, a document orientation calculation program 424, and a camera output file creation and writing program 425.
  • the camera control program 421 is a program relating to control of the entire imaging apparatus 1 including processing of the flowchart shown in FIG. 6 (details will be described later).
  • the difference extraction program 422 is a program for generating image data in which the trajectory of the slit light is extracted from the image of the document P on which the slit light is projected.
  • the triangulation calculation program 423 is a program for calculating the three-dimensional spatial position of each trajectory of the slit light with respect to each pixel based on the image data generated by the difference extraction program.
  • the document attitude calculation program 424 is a program for estimating and obtaining the three-dimensional shape of the document P from the three-dimensional space positions of the trajectory 71a of the first slit light and the trajectory 72a of the second slit light.
  • the camera output file creation / writing program 425 is a program for creating a file to be stored in the memory card 56 and writing the created file to the memory card 56.
  • the RAM 43 includes, as storage areas, a slit light image storage unit 431 and a slit light non-image storage unit 432 each having a size for storing data in the form of image data from the CCD image sensor 32.
  • An image storage unit 433 and a triangulation calculation result storage unit 434 having a size to store the result of calculating the position of each point of the slit light image are allocated.
  • the RAM 43 has, as storage areas, a document orientation calculation storage unit 435 having a size for storing the calculation results of the position and orientation of the document P, and temporarily stores data for calculation in the CPU 41. And a working area 436 of the size to be used.
  • the PC 90 includes a CPU 94, a ROM 95, a RAM 96, a hard disk 97, and an input / output port 98.
  • the RAM 96 includes a camera output file storage unit 96a for storing data transmitted from the imaging device 1 via the communication cable 61, and a working area used for temporarily storing data for calculation by the CPU 94. 96b has been assigned.
  • the hard disk 97 is a rewritable nonvolatile memory.
  • the hard disk 97 stores a plane conversion program 437 which is a program for converting the image data into image data as if the image data were taken from the front of the document P based on the image data transferred from the imaging device 1. .
  • FIG. 5 is a diagram for explaining the configuration of the memory card 56.
  • the memory card 56 is assigned a first file memory 57 to an n-th file memory 58 for each image captured by the imaging device 1 as a camera output file.
  • An image start code memory 57a, a header area 57b, and an image end code memory 57c are allocated to each of the file memories 57 and 58.
  • the image start code memory 57a is a memory that stores a code indicating the start of image data. When the image start code is read, reading of data stored in a corresponding file is started.
  • an application spare memory 57bl In the head area 57b, an application spare memory 57bl, a quantization table memory 57b2, a DCT definition memory 57b3, a Huffman table memory 57b4, and a slit light non-image data memory 57b5 are further allocated.
  • the application spare memory 57bl is a memory for storing information depending on the application.
  • a three-dimensional shape start code memory 57bla a three-dimensional spatial position information memory 57blb, a tilt information memory 57blc, and a curvature information memory 57bld are allocated.
  • the three-dimensional shape start code memory 57bla is a memory that stores a code for starting reading of three-dimensional shape data including three-dimensional space position information, tilt information, and curvature information of a target object.
  • the three-dimensional spatial position information memory 57b lb is a memory for storing the three-dimensional spatial position information of the document P.
  • the tilt information memory 57blc is a memory for storing the tilt information of the document P.
  • the curvature information memory 57b Id is a memory for storing the curvature information of the document P.
  • the area for storing the three-dimensional shape data is not limited to the application spare memory 57bl or the header area 57b, but may be another part within one file.
  • the quantization table memory 57b2 is a memory that stores a quantization table used when numerically transforming the result of DCT conversion on image data.
  • the DCT definition memory 57b3 is a memory for storing a code defining a DCT conversion type and its parameters.
  • the Huffman table memory 57b4 is a memory for storing tables used for entropy compression of the quantized values.
  • the slit light non-image data memory 57b5 is a memory for storing image data of the slit light non-image captured by the imaging device 1.
  • the image end code memory 57c is a memory for storing a code indicating the end of the image data. When the image end code is read, the reading of the data stored in the first file memory 57 ends.
  • FIG. 6 is a flowchart showing a processing procedure in the processor 40 of the imaging device 1.
  • the position of the switch of the mode switching switch 59 is detected, and it is determined whether or not the force of the switch is the position of the “corrected imaging mode” ( S 110).
  • the position is the “corrected imaging mode” (S 110: Yes)
  • the light emission of the laser diode 21 is commanded to the slit light projecting unit 20, and the first slit light 71 and the second slit light are emitted.
  • image data is acquired from the CCD image sensor 32 as an image with slit light.
  • the acquired image data is read into the slit optical image storage unit 431 of the RAM 43 (S120).
  • the difference extraction program 422 reads the image data of the image with slit light image storage unit 431 and the image data of the slit light without image storage unit 432.
  • the difference between the image data is read into the difference image storage unit 433 (S140). That is, the image data obtained by extracting the trajectory 71a of the first slit light and the trajectory 72a of the second slit light projected on the document P is read into the difference image storage unit 433 (S140).
  • the difference extraction calculation step (S140) when image data from which the trajectory 71a of the first slit light and the trajectory 72a of the second slit light are extracted is generated, next, based on the image data, triangulation calculation is performed.
  • the program 423 calculates the three-dimensional spatial position of each pixel of the locus 71a of the first slit light and the locus 72a of the second slit light, and reads the calculation results into the triangulation calculation result storage unit 434 (S150). .
  • the triangulation calculation step (S 150) for example, based on the image data read into the difference image storage unit 433, the vertical axis of the locus 71 a of the first slit light and the locus 72 a of the second slit light
  • the peak is calculated for each horizontal coordinate of the image data by calculating the center of gravity, and the three-dimensional space position with respect to this peak extraction coordinate is calculated as follows.
  • FIGS. 7A and 7B are views for explaining an image with slit light.
  • FIGS. 8A and 8B are diagrams for explaining a method of calculating the three-dimensional spatial position of the slit light.
  • a coordinate system of the imaging apparatus 1 with respect to a horizontally curved original P imaged as shown in FIG. 7A is represented as shown in FIGS. 8A and 8B.
  • the optical axis direction of the imaging lens 31 is defined as the Z axis
  • a position at a reference distance VP from the image capturing apparatus 1 is defined as the origin position of the X, Y, and Z axes.
  • the horizontal direction is the X axis and the vertical direction is the Y axis.
  • the number of pixels in the X-axis direction of the CCD image sensor 32 is called ResX, and the number of pixels in the Y-axis direction is called ResY.
  • the upper end of the position where the CCD image sensor 32 is projected on the XY plane through the imaging lens 31 is called Yftop, the lower end is called Yfbottom, the left end is called Xfstart, and the right end is called Xfend.
  • the distance from the optical axis of the imaging lens 31 to the optical axis of the first slit light 71 emitted from the slit light projecting unit 20 is D, and the Y axis at which the first slit light 71 intersects the XY plane.
  • the position in the direction is lasl, and the position in the Y-axis direction where the second slit light 72 intersects the XY plane is las2.
  • the three-dimensional spatial position (XI) corresponding to the coordinates (ccdxl, ccdyl) on the CCD image sensor 32 of the point of interest 1 that focuses on one of the pixels of the image of the first slit light trajectory 71a , Yl, Z1) are defined as a triangle formed by a point on the image plane of the CCD image sensor 32, an emission point of the first slit light 71 and the second slit light 72, and a point intersecting the XY plane.
  • the solution of the following five simultaneous equations established for is derived.
  • FIG. 9 (a) shows the force
  • FIG. 9 (c) is a diagram for explaining the coordinate system when calculating the original posture.
  • each point of the three-dimensional space position corresponding to the locus 71a of the first slit light is approximated to a regression curve from the data of the triangulation calculation result storage unit 434.
  • a line is required.
  • a straight line connecting the point where the X-axis position of this curve in the X-axis direction is “0” and the three-dimensional position where the X-axis position of the second slit light locus 72a in the X-axis direction is “0” is assumed.
  • the point at which X intersects the Z axis that is, the point at which the optical axis intersects the document P is defined as the three-dimensional space position (0, 0, L) of the document P (see FIG. 9A).
  • the angle between this straight line and the X-Y plane is defined as the inclination ⁇ of the original P around the X axis.
  • a line obtained by approximating the locus 71a of the first slit light with a regression curve is rotationally converted in the opposite direction by the previously obtained inclination X around the X axis, that is, Consider a state where P is parallel to the XY plane.
  • the cross-sectional shape of the document P in the X-axis direction is expressed by a plurality of points in the X-axis direction with respect to the cross-section of the document P in the X--Z plane. From the displacement degree, the curvature ⁇ (X), which is a function of the tilt in the X-axis direction with the position in the X-axis direction as a variable, is obtained.
  • the three-dimensional space position L and posture (inclination ⁇ ⁇ ) When the curvature ⁇ is calculated, the image data of the slit lightless image read into the slit lightless image storage unit 432 by the camera output file creation / writing program 425 is converted to the slit lightless image data of the memory card 56.
  • the three-dimensional space position L of the document P which is written into the memory 57b5 and calculated corresponding to the image without slit light, is stored in the three-dimensional space position information memory 57blb of the memory card 56, the inclination ⁇ is stored in the inclination information memory 57blc,
  • the curvature ⁇ is written into the curvature information memory 57bld, respectively.
  • the three-dimensional shape data is composed of the three-dimensional spatial position L, inclination 0, and curvature ⁇ .
  • the timing at which the image data of the slit lightless image read into the slit lightless image storage unit 432 is written to the slit lightless image data memory 57b5 of the memory card 56 is limited to the timing described above. For example, it may be executed after the difference extraction operation step (S140).
  • the laser diode 21 of the slit light projecting unit 20 does not emit light
  • an image without slit light is read from the CCD image sensor 32 (S190).
  • the read image data memory card 56 is written into the slit light non-image data memory 57b5.
  • the three-dimensional spatial position L, the inclination 0, and the curvature ⁇ of the document P as described above are not calculated, and are not written in the data memory card 56.
  • the processor 40 When the image data of the image without slit light and the three-dimensional space position L, the inclination ⁇ , and the curvature ⁇ of the original P are written into the memory card 56 (S170, S200), the processor 40 The memory space is released (S180). That is, since the image data of the image with slit light is not written in the memory card 56, both the image data of the image without slit light and the image with slit light are stored in the memory card 56, and the number of images that can be captured is There is no problem of reduction. Although the above-mentioned image data may be compressed so that the memory card 56 can be used effectively, the storage of the image data still requires a considerable capacity, so the image data of the slit light image is stored.
  • the image data of the image with slit light may be deleted after the difference extraction operation step (S140), the image data is deleted after S140 and before S170. You may. In that case, after S140, the image data of the slit light image read into the storage image 431 of the slit light image of the RAM 43 becomes inaccessible, and the image data memory card of the slit light image in the processing of S170. It is not written to 56.
  • FIG. 10 illustrates a case where data is transmitted to the PC 90 via the communication cable 61 in a state where the memory card 56 is mounted on the imaging device 1.
  • this data transfer processing first, it is determined whether or not the user has issued a data transfer command (S1010). As a result of the determination, if there is a data transfer command (S1010: YES), the interface 60 is initialized (S1020). Then, it is determined whether or not the imaging device 1 and the PC 90 can communicate with each other (S1030). As a result of the determination, if communication is possible (S1030: YES), each camera output file stored in each file memory 57, 58 in the memory card 56 is sequentially transmitted to the PC 90 (S1040). Next, it is determined whether or not the transmission of the camera output file has been completed (S1050). If the result of the determination is that transmission has been completed (S1050: YES), this processing ends. The camera output file transmitted from the imaging device 1 is read into the camera output file storage section 96a of the RAM 96 via the interface 101 on the PC 90 side.
  • the data transfer process described above is an example of a case where data is transferred from the imaging device 1 to the PC 90 via the communication cable 61.
  • the camera output file can be transferred from the imaging device 1 to the PC 90 by removing the memory card 56 from the imaging device 1 and attaching the memory card 56 to the PC 90.
  • the trouble of connecting the communication cable 61 between the imaging device 1 and the PC 90 can be omitted, and the PC 90 is not provided. Even in a location, a large number of images can be taken by preparing a plurality of memory cards 56.
  • the PC 90 converts the image data of the image without slit light into image data of an image as viewed with a frontal force.
  • the plane conversion processing will be described with reference to the flowchart in FIG.
  • the three-dimensional shape data and the image without slit light are read from the camera output file read into the camera output file storage unit 96a by the data transfer process described above (S1101).
  • the memory card 56 is mounted on the PC 90, the camera output file is read from the memory card 56.
  • a processing area of the process is allocated to the working area 96b of the RAM 96, and an initial value of a variable b used in the process, such as a variable for a counter, is set (S1102).
  • the area of the erect image which is an image when the surface of the document P on which characters and the like are written is observed from a substantially vertical direction, is determined by the calculation result of the document posture calculation program 425.
  • the slit light is set by transforming the four corner points of the image, and within this area
  • the number of pixels a included in is calculated (S1103).
  • the set erect image area is first arranged on the XY plane (S1105), and for each pixel included therein, the three-dimensional spatial position is calculated based on the curvature ⁇ (X) in the Z-axis direction. (S1106), is rotated around the X-axis at an inclination ⁇ (S1107), and is shifted by a distance L in the Z-axis direction (S1108).
  • the three-dimensional spatial position obtained in this way is converted to coordinates (ccdcx, (1)) on the CCD image captured by the ideal camera by the above triangulation relational expression (31109) and used.
  • the coordinates are converted into the coordinates (ccdx, ccdy) on the CCD image captured by the actual camera by a known calibration method (S 1110).
  • the state of the pixel of the slit lightless image at the position (ccdx, ccdy) set at the position (ccdx, ccdy) is determined and stored in the working area 96b of the RAM 96 (S1111). After the processing area of the working area 96b is released (S1113), the plane image generated based on the image data of the erect image is: Displayed on CRT display 92 (S111 4) 0
  • the imaging device 1 in the “imaging correction mode” projects two rows of slit lights, the first slit light 71 and the second slit light 72, onto the document P, and An image is formed on the CCD image sensor 32 by the image forming lens 31 to capture an image, and then an image of the document P to which no slit light is projected is captured. Then, the imaging apparatus 1 extracts the locus image of the slit light from the image data by calculating the difference between these two image data, and calculates the three-dimensional spatial position of each part of the locus of the slit light based on the principle of triangulation. .
  • the imaging device 1 obtains the position, inclination, and bending state (three-dimensional shape data) of the document P from the obtained three-dimensional space position, and obtains the three-dimensional shape data and the image data of the slit lightless image. Is written to the memory card 56.
  • the image data of the image without slit light or the image with slit light is information of about several hundred kilobytes
  • the position L of the document P which is the three-dimensional shape data of the document P
  • the inclination ⁇ and the curvature ⁇
  • Each data amount is about 4 bytes of information. Therefore, even if the curvature ⁇ value is sampled in the original P by several tens of points, the information is at most several hundred bytes, and the data amount of the three-dimensional shape data is less than the data amount of the image data. It can be said that it is so small that it can be ignored.
  • a plane conversion process is executed in the PC 90, so that even if the original P whose shape is deformed, such as a curve, is imaged obliquely, it can be flattened. It is possible to output and display an image as if the original document P was also captured with a frontal force. Also, when performing the plane conversion process, the image data of the slit lightless image and the three-dimensional shape data, which are also transferred from the imaging device 1 as a camera output file, are stored in one file. In addition, the handling of the data can be simplified, and the burden on the PC 90 required for the plane conversion processing can be reduced.
  • the processing of S120 and S130 in the flowchart of FIG. 6 is regarded as an image data acquisition unit or an image data acquisition step.
  • the processing of S140 and S150 in the flowchart of FIG. 6 is regarded as a pattern light position extracting means and a pattern light position extracting step.
  • the process of S160 in the flowchart of FIG. 6 is regarded as a three-dimensional shape calculation means or a three-dimensional shape calculation step.
  • the processing of S170 in the flowchart of FIG. 6 is regarded as a storage means or a storage step. Further, the processing of S170 in the flowchart of FIG. 6 can be regarded as a data file generation means or a data file generation step.
  • the target object to be imaged by the imaging device 1 may be a smooth surface of a solid block or a surface of an object having a ridge line, in addition to the sheet-shaped document P.
  • the imaging device according to the embodiment of the present invention seeks the three-dimensional shape in the three-dimensional space from the trajectories of the slit light in approximately two rows, and similarly detects the three-dimensional shape of the target object for all applications. It is possible to achieve all the effects.
  • the target object is a sheet-shaped document P as in this embodiment
  • the entire shape of the document P is estimated by assuming that the locus 71a of the first slit light is the cross-sectional shape of the document P.
  • image correction for shape deformation such as the curvature of the document P can be performed.
  • the target object has a three-dimensional shape that is substantially uniform in the direction perpendicular to the longitudinal direction of the slit light
  • the slit light projecting unit 20 is configured to emit the first slit light 71 and the second slit light 72 in two rows of the slit light.
  • the slit light to be emitted is not limited to two rows.
  • the imaging device may be configured to emit three or more rows of slit light.
  • the third slit light similar to the second slit light 72 is The slit light projecting unit 20 may be configured so that the document P is projected above the second slit light 72.
  • a laser diode 21 that emits a red laser beam is used as a light source.
  • various types of light sources that can output a light beam such as a surface emitting laser, an LED, and an EL element, can be used.
  • a transparent flat plate having on one surface a diffraction grating for diffracting a predetermined ratio of the power of the incident laser beam in a predetermined direction may be used.
  • the laser light of the primary light diffracted by the diffraction grating formed on the transparent flat plate is defined as the second slit light 72
  • the laser light of the zero-order light transmitted directly through the diffraction grating is defined as the first slit light 71.
  • the pattern light emitted from the slit light projecting unit 20 may be various patterns such as a thin line sharply narrowed in a direction perpendicular to the longitudinal direction, a striped light pattern having a certain width, and the like. Type pattern light can be used.
  • each optical element in the slit light projecting unit 20 is formed such that the second slit light 72 is formed in the first direction, that is, the lower side when viewed from the imaging device 1, and the first slit is formed in the second direction.
  • An element may be provided.
  • the imaging device 1 is configured to capture an image with slit light and an image without slit light using the imaging lens 31 and the CCD image sensor 32.
  • an imaging lens and a CCD image sensor for capturing an image with slit light are additionally provided. Good,. like this , The time lapse between capturing the image with slit light and the image without slit light
  • the imaging device 1 of the present embodiment is smaller and less expensive than the case where an imaging lens and a CCD image sensor for capturing an image with slit light are separately added. Things.
  • the three-dimensional shape detecting device is configured to include the image data of the pattern light non-light projection image obtained by the image data obtaining means and the three-dimensional shape calculated by the three-dimensional shape calculating means. It further comprises storage means for storing the shape data, and is configured to provide the image data of the pattern light non-projected image and the three-dimensional shape data to the external arithmetic means via the storage means. Good,.
  • the storage capacity of the three-dimensional shape detection device is smaller than that in the case where both the image data of the slit light projection image and the image data of the slit light non-projection image are stored. You can save.
  • the storage means in the three-dimensional shape detecting device, is configured to be removably attachable to the three-dimensional shape detecting device, and the external processing device is configured such that the storage means is detachable. It may be configured so as to have a storage medium interface that can be mounted on a computer.
  • the storage means in which the image data of the pattern light non-projected image and the three-dimensional shape data are stored by the three-dimensional shape detection device are removed from the three-dimensional shape detection device and attached to the storage medium interface of the external processing device.
  • the image data of the pattern light non-projected image and the three-dimensional shape data are provided to the external arithmetic device.
  • the image data and the three-dimensional shape data of the non-light-projected pattern light image may be stored in a single file in the storage means.
  • the image data of the slit light non-projection image and the three-dimensional shape data are stored in a single file, the image data of the slit light non-projection image and the three-dimensional Data handling can be simplified as compared with the case where shape data is stored in separate files.
  • the three-dimensional shape detection device is connected to an external processing device.
  • the external computing device may have a first interface for performing data communication with the three-dimensional shape detecting device.
  • the image data of the pattern light non-projected image and the three-dimensional shape data are transmitted from the three-dimensional shape detection device to the external processing device by wired or wireless data communication via the first interface and the second interface. May be provided.
  • the transfer time to the external processing unit can be reduced, and the transfer time can be reduced.
  • the three-dimensional shape calculation means includes the position information, the inclination information, and the curvature of the target object in the three-dimensional space based on the position of the pattern light extracted by the pattern light position extraction means.
  • the information may be calculated.
  • the three-dimensional shape data includes position information, inclination information, and curvature information of the target object in the three-dimensional space.
  • the three-dimensional shape data is composed of the position information, the inclination information, and the curvature information of the target object in the three-dimensional space, the effect that the three-dimensional shape of the target object can be detected is obtained. .
  • the three-dimensional shape detection device may be configured as an imaging device having an imaging unit, and the external processing device may be configured as a personal computer.
  • the three-dimensional shape detecting device includes: a three-dimensional shape calculating unit that calculates the image data of the pattern light non-projection image acquired by the image data acquiring means; A storage unit for storing the shape data may be further provided.
  • the storage means is used to provide the image data of the pattern light non-projected image and the three-dimensional shape data to the external arithmetic device.
  • the three-dimensional shape detecting device may further include an interface for performing data communication with an external arithmetic device.
  • an external arithmetic device external The image data and the three-dimensional shape data of the pattern non-light-projected image are provided to the arithmetic unit by wired or wireless data communication via an interface.

Description

明 細 書
3次元形状検出装置、 3次元形状検出システム、及び、 3次元形状検出プ ログラム 技術分野
[0001] 本発明は、光ビームを用いて対象物体の 3次元形状を検出する 3次元形状検出装 置、 3次元形状検出システム、及び、 3次元形状検出プログラムに関する。
背景技術
[0002] 従来より、ホワイトボードや書籍等の対象物体を、その正面に対して斜め方向となる 位置力も撮像したとしても、あた力も対象物体の正面力も撮像したように、その撮像画 像を補正することのできる撮像装置が知られている。このような撮像装置は、対象物 体の撮像画像から対象物体の 3次元形状を検出することで、対象物体が正面から撮 像されたように撮像画像を補正する補正手段を備える。例えば、特開平 9-289611 号公報 (以下、文献 1と記す)の図 1等には、このような補正手段を備えた可搬型のデ ジタルカメラが開示されて ヽる。
発明の開示
[0003] し力しながら、上述した補正手段を備えた可搬型のデジタルカメラにおいて、上記 のような補正をする場合、可搬型の装置は据え置き型の装置に比べて、消費電力や 外形状の制限力 演算能力に劣り高速に演算処理ができな力つたり、その演算処理 のための素子として安価なものを使用することができないという問題点があった。
[0004] 本発明は、上述した問題点を解決するためになされたものであり、対象物体を斜め に撮像した撮像画像を対象物体の所定面の略鉛直方向から観察される平面画像に 補正演算するために必要なデータを効率良く記憶し、且つ比較的安価な演算素子 によって構成することができる 3次元形状検出装置、 3次元形状検出システム、及び、 3次元形状検出プログラムを提供することを目的としている。
[0005] 上記目的を達成する為、本発明の一つの側面によって提供されるのは、 3次元形 状検出装置と外部演算装置を備える 3次元形状検出システムであって、 3次元形状 検出装置は、対象物体にパターン光を投光する投光手段と、投光手段からパターン 光が投光されている状態における対象物体のパターン光投光画像を撮像し前記バタ 一ン光投光画像の画像データを取得すると共に、前記パターン光が投光されて 、な い状態における対象物体のパターン光非投光画像を撮像し前記パターン光非投光 画像の画像データを取得する画像データ取得手段と、取得された前記画像データに 基づき対象物体に投光されたパターン光の位置を抽出するパターン光位置抽出手 段と、前記パターン光位置抽出手段によって抽出されるパターン光の位置に基づき 対象物体の 3次元形状データを算出する 3次元形状算出手段とを備える。外部演算 装置は、前記 3次元形状検出装置によって取得された前記パターン光非投光画像の 画像データと前記 3次元形状データとに基づき前記パターン光非投光画像を対象物 体の所定面の略鉛直方向から観察される平面画像に補正する画像補正手段を備え る。
[0006] このような構成によれば、 3次元形状検出装置においては、外部演算装置で平面 画像を算出する為にパターン光投光画像の画像データを記憶しておく必要がなくな る。したがって、 3次元形状検出装置において、パターン光投光画像の画像データと パターン光非投光画像の画像データとの両方を記憶する場合に比べ、記憶の容量 を節約することができる。 3次元形状検出装置側では、比較的負荷が低い演算が行 われ、外部演算装置側で比較的負荷の高 、処理が行われる構成となって 、るので、 例えば外部演算装置を高性能の装置で構成することにより、 3次元形状検出システ ムとしての全体性能を高めることができる。
[0007] 3次元形状検出装置側から外部演算装置側に提供されるデータは、パターン光非 投光画像の画像データと 3次元形状データとであり、パターン光非投光画像の画像 データとパターン光投光画像の画像データの両方を外部演算装置に提供する場合 に比べてデータ量が大きく減少している。したがって、 3次元形状検出装置側から外 部演算装置側に画像データを提供する際に必要となるデータ量が少なくなり、例え ば、 3次元形状検出装置と外部演算装置間でデータ通信により画像データを転送す る場合には、通信時間の削減という効果が得られる。
[0008] また、上記目的を達成するため、本発明の別の側面によって提供されるのは、 3次 元形状検出システムにおいて用いられる 3次元形状検出装置であって、対象物体に パターン光を投光する投光手段と、前記投光手段からパターン光が投光されて!、る 状態における対象物体のパターン光投光画像を撮像し前記パターン光投光画像の 画像データを取得すると共に、前記パターン光が投光されていない状態における対 象物体のパターン光非投光画像を撮像し前記パターン光非投光画像の画像データ を取得する画像データ取得手段とを備える。さらに、この 3次元形状検出装置は、取 得された前記画像データに基づき対象物体に投光されたパターン光の位置を抽出 するパターン光位置抽出手段と、前記パターン光位置抽出手段によって抽出される パターン光の位置に基づき対象物体の 3次元形状データを算出する 3次元形状算出 手段とを備える。画像データ取得手段によって取得される前記パターン光非投光画 像の画像データと前記 3次元形状算出手段により算出される前記 3次元形状データ は、外部演算装置において前記パターン光非投光画像の画像データと前記 3次元 形状データとに基づいて前記パターン光非投光画像を対象物体の所定面の略鉛直 方向から観察される平面画像に補正する為に用いられる。
[0009] このような構成によれば、 3次元形状検出装置においては、外部演算装置で平面 画像を算出する為にパターン光投光画像の画像データを記憶しておく必要がなくな る。したがって、 3次元形状検出装置において、パターン光投光画像の画像データと パターン光非投光画像の画像データとの両方を記憶する場合に比べ、記憶の容量 を節約することができる。 3次元形状検出装置側では、比較的負荷が低い演算が行 われ、外部演算装置側で比較的負荷の高 、処理が行われる構成となって 、るので、 例えば外部演算装置を高性能の装置で構成することにより、 3次元形状検出システ ムとしての全体性能を高めることができる。
[0010] 3次元形状検出装置側から外部演算装置側に提供されるデータは、パターン光非 投光画像の画像データと 3次元形状データとであり、パターン光非投光画像の画像 データとパターン光投光画像の画像データの両方を外部演算装置に提供する場合 に比べてデータ量が大きく減少している。したがって、 3次元形状検出装置側から外 部演算装置側に画像データを提供する際に必要となるデータ量が少なくなり、例え ば、 3次元形状検出装置と外部演算装置間でデータ通信により画像データを転送す る場合には、通信時間の削減という効果が得られる。 [0011] また、上記目的を達成するため、本発明の別の側面によって提供されるのは、 3次 元形状検出プログラムであって、パターン光が投光されている状態における対象物 体のパターン光投光画像の画像データとパターン光が投光されていない状態におけ る対象物体のパターン光非投光画像の画像データとを取得する画像データ取得ステ ップと、前記画像データ取得ステップで取得された画像データに基づき、対象物体に 投光されたパターン光の位置を抽出するパターン光位置抽出ステップとを備える。さ らに、この 3次元形状検出プログラムは、前記パターン光位置抽出ステップで抽出さ れるパターン光の位置に基づき、対象物体の 3次元形状データを算出する 3次元形 状算出ステップと、前記パターン光非投光画像の画像データと前記 3次元形状デー タとを記憶手段に記憶する記憶ステップと、前記記憶ステップにお!、て記憶手段に 記憶される前記パターン光非投光画像の画像データと前記 3次元形状データとに基 づいて、前記パターン光非投光画像を対象物体の所定面の略鉛直方向から観察さ れる平面画像に補正する画像補正ステップとを備える。
[0012] このような構成によれば、 3次元形状検出システムの 3次元形状検出装置において は、平面画像を算出する為にパターン光投光画像の画像データを記憶しておく必要 がなくなる。したがって、 3次元形状検出装置において、パターン光投光画像の画像 データとパターン光非投光画像の画像データとの両方を記憶する場合に比べ、記憶 の容量を節約することができる。 3次元形状検出装置側では、比較的負荷が低い演 算が行われ、外部演算装置側で比較的負荷の高い処理 (画像補正ステップ)が行わ れる構成とすることができるので、例えば外部演算装置を高性能の装置で構成するこ とにより、 3次元形状検出システムとしての全体性能を高めることができる。
[0013] また、上記目的を達成するため、本発明の別の側面によって提供されるのは、 3次 元形状検出プログラムであって、パターン光が投光されている状態における対象物 体のパターン光投光画像の画像データとパターン光が投光されていない状態におけ る対象物体のパターン光非投光画像の画像データとを取得する画像データ取得ステ ップと、前記画像データ取得ステップで取得された画像データに基づき、対象物体に 投光されたパターン光の位置を抽出するパターン光位置抽出ステップとを備える。さ らに、この 3次元形状検出プログラムは、前記パターン光位置抽出ステップで抽出さ れるパターン光の位置に基づき、対象物体の 3次元形状データを算出する 3次元形 状算出ステップと、前記パターン光非投光画像の画像データと前記 3次元形状デー タとを外部演算装置に送信する送信ステップと、前記送信ステップにより送信される 前記パターン光非投光画像の画像データと前記 3次元形状データとを受信し、前記 パターン光非投光画像の画像データと前記 3次元形状データとに基づいて前記バタ ーン光非投光画像を対象物体の所定面の略鉛直方向から観察される平面画像に補 正する画像補正ステップとを備える。
[0014] このような構成によれば、 3次元形状検出システムにおいて、 3次元形状検出装置 側から外部演算装置側に提供されるデータは、パターン光非投光画像の画像デー タと 3次元形状データとにすることができる。ノターン光非投光画像の画像データと パターン光投光画像の画像データの両方を外部演算装置に提供する場合に比べて データ量が大きく減少する。したがって、 3次元形状検出装置側から外部演算装置 側に画像データを提供する際に必要となるデータ量が少なくなり、 3次元形状検出装 置と外部演算装置間でのデータ通信において、通信時間の削減という効果が得られ る。
図面の簡単な説明
[0015] [図 1]図 1 (a)は本発明の実施形態による 3次元形状検出システムの外観斜視図であ り、図 1 (b)は 3次元形状検出システムの構成装置の 1つである撮像装置の概略断面 図である。
[図 2]撮像装置におけるスリット光投光ユニットの構成を詳細に示す図である。
[図 3]図 3 (a)および図 3 (b)は、スリット光の角度幅を説明するための図である。
[図 4]図 4は、 3次元形状検出システムの電気的構成を示したブロック図である。
[図 5]図 5はメモリカードの構成を示す図である。
[図 6]撮像装置内のプロセッサでの処理手順を示すフローチャートである。
[図 7]図 7 (a)および図 7 (b)は、スリット光有画像を説明するための図である。
[図 8]図 8 (a)および図 8 (b)は、スリット光の 3次元空間位置を算出する方法を説明す るための図である。
[図 9]図 9 (a)、図 9 (b)および図 9 (c)は、原稿姿勢演算の際の座標系を説明するた めの図である。
[図 10]図 10はデータ移送処理を示すフローチャートである。
[図 11]図 11は平面変換処理を示すフローチャートである。
符号の説明
[0016]
20 スリット光投光ユニット
21 レーザーダイオード
32 CCD画像センサ
56 メモリカード
90 パーソナルコンピュータ
100 3次元形状検出システム
421 カメラ制御プログラム
422 差分抽出プログラム
423 三角測量演算プログラム
423 平面変換プログラム
424 原稿姿勢演算プログラム
425 カメラ出力ファイル作成書込プログラム
431 スリット光有画像格納部
432 スリット光無画像格納部
発明を実施するための最良の形態
[0017] 以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図 l (a )は 3次元形状検出システム 100の外観斜視図である。図 1 (b)には、 3次元形状検 出システム 100の構成装置の 1つである撮像装置 1の概略断面図が示されて 、る。 尚、図 1 (b)では撮像装置 1により撮像対象物体である原稿 Pを、原稿 Pの紙面に対し て斜め方向から撮像して 、る状態を示して 、る。
[0018] 3次元形状検出システム 100は、撮像装置 1と汎用のパーソナルコンピュータ 90 ( 以下「PC90」という)とで構成される。 3次元形状検出システム 100は、撮像装置 1で 対象物体が斜めに撮像された場合の撮像画像を、対象物体の所定面の略鉛直方向 から観察したような平面画像に補正することができるシステムである。
[0019] 撮像装置 1は、方形箱形の本体ケース 10と、本体ケース 10の正面に設けられた結 像レンズ 31と、結像レンズ 31の後方 (撮像装置 1の内部側)に設けられた CCD画像 センサ 32と、結像レンズ 31の下方に設けられたスリット光投光ユニット 20とを有する。 撮像装置 10は、更に、本体ケース 10に内蔵されたプロセッサ 40と、本体ケース 10の 上部に設けられたレリーズボタン 52及びモード切替スィッチ 59と、メモリカード処理 装置 55とを有する。撮像装置 1のこれらの構成品は、それぞれ信号線により接続され ている。メモリカード処理装置 55は、携帯型のメモリカード 56を着脱自在に装着する 為のインタフェースとして機能する。
[0020] 撮像装置 1には、更に、本体ケース 10の背面に設けられた LCD (Liquid Crystal
Display) 51と、本体ケース 10の背面力も前面を通して配設されるファインダ 53と が装備されている。 LCD51とファインダ 53は、撮像装置 1による撮像範囲を使用者 が決定する際に利用される。
[0021] 結像レンズ 31は、複数枚のレンズで構成されている。撮像装置 1は、オートフォー カス機能を有し、このオートフォーカス機能によって結像レンズ 31が駆動され自動で 焦点距離及び絞りが調整され、外部力もの光が CCD画像センサ 32上に結像される
[0022] CCD画像センサ 32は、 CCD (Charge Coupled Device)素子などの光電変換 素子がマトリクス状に配列された構成を有する。 CCD画像センサ 32は、表面に結像 される画像の光の色及び強さに応じた信号を生成し、この信号をデジタルデータに 変換してプロセッサ 40へ出力する。尚、 CCD素子一つ分のデータが画像を形成す る画素の画素データであり、画像データは CCD素子の数の画素データで構成される
[0023] スリット光投光ユニット 20について、図 2、図 3 (a)および図 3 (b)を参照して説明す る。図 2は、スリット光投光ユニット 20の構成を示す図である。図 3 (a)および図 3 (b) は、スリット光の角度幅を説明するための図である。スリット光投光ユニット 20は、レー ザ一ダイオード 21と、コリメートレンズ 22と、アパーチャ 23と、透明平板 24と、シリンド リカルレンズ 25と、反射ミラー 26と、ロッドレンズ 27とを有する。 [0024] レーザーダイオード 21は、赤色レーザー光線を放射する。レーザーダイオード 21 におけるレーザー光線の放射及び停止は、プロセッサ 40からの指令に応じて切り換 えられる。レーザーダイオード 21の出力は、最大出力定格 (例えば 5mW)に対して、 レーザービームの広がり角の個体ばらつきを考慮して、アパーチャ 23を通った箇所 で一定の出力(例えば lmW)を得られるように定格出力が調整されている。
[0025] コリメートレンズ 22は、レーザーダイオード 21からのレーザー光線を、スリット光投光 ユニット 20からの基準距離 VP (例えば 330mm)に焦点を結ぶように集光する。
[0026] アパーチャ 23は、矩形に開口された開口部を有する板で構成され、コリメートレン ズ 22からのレーザー光線を開口部で透過して矩形に整形する。
[0027] 透明平板 24は、無垢のガラス材料などの透明な平板で構成され、裏面に ARコート
(無反射コーティング)が施されている。透明平板 24は、アパーチャ 23からのレーザ 一光線の光軸に直交する面に対して、本体ケース 10の正面側に所定角度 |8 (例え ば 33度)傾斜して配設されている。透明平板 24は、アパーチャ 23から入射するレー ザ一光線のパワーの約 5% (約 50 μ W)を表面で反射し、約 95% (約 950 μ W)を透 過させる。以下では、透明平板 24でレーザー光線が反射される方向(撮像装置 1の 前方へ水平面に対して 33度上向き)を第 2の方向と呼ぶ。
[0028] 透明平板 24の裏面に ARコートを施すことにより、透明平板 24内に入射したレーザ 一光線の透明平板 24から出射する際の反射が少なくなり、透明平板 24内でのレー ザ一光線の損失が少なくなる。また、透明平板 24で反射するレーザー光線の割合を 、透明平板 24の材質の屈折率より決まる表面反射率 5%として設定することにより、 通常のハーフミラーで実現する場合に必要な反射面に金属蒸着膜を形成するプロ セスを省略することができる。
[0029] 反射ミラー 26は、鏡など、レーザー光線を全反射する部材で構成される。反射ミラ 一 26は、透明平板 24を透過したレーザー光線の下流に、本体ケース 10の正面側に 45度傾斜して配設され、レーザー光線を全反射して光路の向きを 90度変える。以下 では、反射ミラー 26によりレーザー光線が反射される方向(撮像装置 1の前方へ水平 面に対して 0度の向き)を第 1の方向と呼ぶ。
[0030] ロッドレンズ 27は、正の焦点距離が短い円筒形状のレンズで構成される。ロッドレン ズ 27は、反射ミラー 26で反射されるレーザー光線の下流に、円筒形状の軸方向が 垂直方向になるように配設されている。ロッドレンズ 27の焦点距離は短いので、ロッド レンズ 27を通過したレーザー光線は、ロッドレンズ 27近傍の焦点を越え直ちに広が り、所定の広がり角度 ε (例えば 48度)のスリット光として第 1の方向へ出射される(図 3 (a)参照)。尚、ロッドレンズ 27から出射されるスリット光を第 1スリット光 71と呼ぶ。
[0031] シリンドリカルレンズ 25は、負の焦点距離となるように一方向が凹形状となったレン ズである。シリンドリカルレンズ 25は、透明平板 24で反射されたレーザー光線の下流 に、第 2の方向に対してレンズ面が直交するように配設さている。シリンドリカルレンズ 25は、透明平板 24から入射されるレーザー光線を、広がり角度 κのスリット光として 出射する(図 3 (b)参照)。尚、シリンドリカルレンズ 25から出射されるスリット光を第 2 スリット光 72と呼ぶ。第 2スリット光 72の広がり角度 κは、第 1スリット光 71の広がり角 度 εと第 2スリット光 72の広がり角度 κとの比が、透明平板 24でレーザー光線が分 割される際のパワーの比にと同等になるように定められている。すなわち、第 2スリット 光 72の広がり角度 κは、広がり角度 εの 5% (2. 4度)となっている。
[0032] 以上の構成により、スリット光投光ユニット 20において、プロセッサ 40からの指令に 応じてレーザーダイオード 21からレーザー光線が放射され、第 1の方向へ第 1スリット 光 71力 及び、第 2の方向へ第 2スリット光 72が、本体ケース 10の結像レンズ 31の 下方に設けられた窓 29から出射される。
[0033] 上述したように構成されるスリット光投光ユニット 20によれば、レーザーダイオード 2 1から出力されるパワーのうち、透明平板 24で分割される第 1スリット光 71のパワーは 95%に対し、第 2スリット光 72のパワーは約 5%と少ないが、角度幅あたりのパワーで 見ると、広がり角力 8度の第 1スリット光 71の単位角度あたりのパワーが約 20 WZ 度で、広がり角が 2. 4度の第 2スリット光 72の単位角度あたりのパワーも約 21 /z WZ 度であり、ほぼ変わらない。原稿 Pが基準距離 VPである 330mmの位置にある白色 の用紙の場合、第 1スリット光 71及び第 2スリット光 72による照度は約 1260ルクスとな り、一般的な室内の明るさである 500— 1000ルクスの場所でも、スリット光の軌跡と原 稿 Pとの輝度差が十分あり、後述する差分抽出プログラム 422にてスリット光の軌跡画 像を確実に抽出することができる。 [0034] 再び、図 1に戻り説明を続ける。レリーズボタン 52は、押しボタン式のスィッチで構 成される。レリーズボタン 52は、プロセッサ 40に接続されおり、プロセッサ 40にて使 用者による押し下げ操作が検知される。
[0035] モード切替スィッチ 59は、 2つの位置に切換え可能なスライドスィッチなどで構成さ れる。プロセッサ 40により、モード切替スィッチ 59のスィッチがいずれの位置にあるか が検知される。モード切替スィッチ 59のスィッチの位置の一方は「ノーマルモード」と して、もう一方は「補正撮像モード」として検知されるようにプロセッサ 40にて割り当て られている。「ノーマルモード」は、撮像した原稿 Pのそのままの状態を画像データと するモードである。「補正撮像モード」は、原稿 Pが斜め方向から撮像された場合に、 その画像データを原稿 Pを正面力 撮像したように補正された画像データとするモー ドである。
[0036] メモリカード処理装置 55は、メモリカード 56を処理するための装置である。メモリ力 ード処理装置 55は、メモリカード 56に格納されているデータを読込み撮像装置 1に 入力すると共に、撮像装置 1から出力されるデータをメモリカード 56に書込むリーダラ イタ装置である。このメモリカード処理装置 55で処理されるメモリカード 56は、不揮発 性で書き換え可能なメモリで構成され、撮像装置 1に対して着脱可能に構成されて ヽ る。尚、撮像装置 1の側面には、このメモリカード 56を装着するための開口部 56aが 形成されている。
[0037] LCD51は、画像を表示する液晶ディスプレイなどで構成され、プロセッサ 40からの 画像信号を受けて画像を表示する。プロセッサ 40から LCD51へは、状況に応じて、 CCD画像センサ 32で受光したリアルタイムの画像や、メモリカード 56に記憶された 画像や、装置の設定内容の文字等を表示するための画像信号が送られて来る。
[0038] ファインダ 53は、光学レンズで構成される。使用者がファインダ 53を撮像装置 1の 後ろ側からのぞき込んだ時に、結像レンズ 31が CCD画像センサ 32上に結像する範 囲とほぼ一致する範囲が見えるようになって!/、る。
[0039] 一方、 3次元形状検出システム 100の構成装置である PC90は、後述する平面変 換プログラム 437を搭載し、平面変換プログラム 437により撮像装置 1で斜め方向か ら撮像された原稿 Pの撮像画像を、原稿 Pの所定面の略鉛直方向から観察される平 面画像に補正するための演算や補正された画像の出力を行う。
[0040] PC90は、本体ケース 91と、出力画像等を表示する CRTディスプレイ 92と、平面変 換プログラム 437の起動指令等を入力するキーボード 93とを有する。本体ケース 91 には、メモリカード 56を装着するためのカードスロット 91aが形成されている。撮像装 置 1においてメモリカード 56に記憶されたデータは、そのメモリカード 56をカードス口 ット 91aに差し込むことで、 PC90側のメモリカード処理装置 99から読込み可能に構 成されている。つまり、メモリカード処理装置 99は、携帯型のメモリカード 56を着脱自 在に装着する為のインタフェースとして機能する。
[0041] PC90は、 PC90と撮像装置 1との間でデータの送受信を行う移送手段として、 PC9 0側のインターフェイス 101 (図 4参照)を有する。一方、撮像装置 1は、インターフェイ ス 60を有する。 3次元形状検出システム 100において、通信ケーブル 61によりインタ 一フェイス 101とインターフェイス 60、つまり PC90と撮像装置 1とがデータ通信可能 に接続される(図 4参照)。尚、このような通信手段としては、 USB等の有線シリアル バスや WIFI等の無線 LANモジュールを採用できる。
[0042] 尚、 PC90としては、撮像装置 1よりも高速なものであれば、可搬型のタブレット、小 型の PDA、携帯電話に内蔵されて!、るプロセッサシステム等の外部演算装置を採用 することができる。
[0043] 図 4は、 3次元形状検出システムの電気的構成を示したブロック図である。撮像装 置 1に搭載されたプロセッサ 40は、 CPU41、 ROM42、 RAM43を備えている。
[0044] CPU41は、 ROM42に記憶されたプログラムにしたがって、 RAM43を利用しつつ 各種処理を実行する。 CPU41が行う処理には、レリーズボタン 52の押し下げ操作の 検知、 CCD画像センサ 32から画像データの取り込み、画像データのメモリカード 56 への書き込み、モード切替スィッチ 59の状態検出、スリット光投光ユニット 20によるス リット光の出射切り換え等が含まれる。
[0045] ROM42には、カメラ制御プログラム 421と、差分抽出プログラム 422と、三角測量 演算プログラム 423と、原稿姿勢演算プログラム 424と、カメラ出力ファイル作成書込 プログラム 425とが含まれている。カメラ制御プログラム 421は、図 6に示すフローチヤ ートの処理 (詳細は後述する)を含む撮像装置 1全体の制御に関するプログラムであ る。差分抽出プログラム 422は、スリット光を投光した原稿 Pの画像からスリット光の軌 跡を抽出した画像データを生成するためのプログラムである。三角測量演算プロダラ ム 423は、差分抽出プログラムで生成された画像データによるスリット光の軌跡の各 画素に対する 3次元空間位置を演算するためのプログラムである。原稿姿勢演算プ ログラム 424は、第 1スリット光の軌跡 71a及び第 2スリット光の軌跡 72aの 3次元空間 位置から、原稿 Pの 3次元形状を推定して求めるプログラムである。カメラ出カフアイ ル作成書込プログラム 425は、メモリカード 56に記憶させるファイルを作成し、その作 成したファイルをメモリカード 56に書込むためのプログラムである。
[0046] RAM43には、記憶領域として、 CCD画像センサ 32からの画像データの形式のデ ータを保存する大きさのスリット光有画像格納部 431と、スリット光無画像格納部 432 と、差分画像格納部 433と、スリット光有画像の各ポイントの位置を演算した結果を保 存する大きさの三角測量演算結果格納部 434とが割り当てられている。更に、 RAM 43には、記憶領域として、原稿 Pの位置及び姿勢の演算結果を保存する大きさの原 稿姿勢演算格納部 435と、 CPU41での演算のために一時的にデータを記憶させる のに使用する大きさのワーキングエリア 436とが割り当てられて 、る。
[0047] 一方、 PC90は、 CPU94、 ROM95、 RAM96、ハードディスク 97、入出力ポート 9 8を備えている。 RAM96には、撮像装置 1から通信ケーブル 61を介して送信される データを記憶するカメラ出力ファイル格納部 96aと、 CPU94での演算のために一時 的にデータを記憶させるのに使用されるワーキングエリア 96bとが割り当てられている 。ハードディスク 97は、書き替え可能な不揮発性のメモリである。ハードディスク 97に は、撮像装置 1から移送される画像データに基づき、その画像データを原稿 Pの正面 力 撮像したような画像データに変換するためのプログラムである平面変換プロダラ ム 437が記憶されている。
[0048] 次に、メモリカード 56の構成を図 5を参照して説明する。図 5は、メモリカード 56の 構成を説明するための図である。メモリカード 56には、カメラ出力ファイルとして、撮 像装置 1で撮像された画像毎に第 1ファイルメモリ 57から第 nファイルメモリ 58が割り 当てられている。各ファイルメモリ 57, 58にはイメージ開始コードメモリ 57a、ヘッダ領 域 57b、イメージ終了コードメモリ 57cが割り当てられている。 [0049] イメージ開始コードメモリ 57aは、画像データの開始を示すコードを格納するメモリ であり、このイメージ開始コードを読み取られると、対応するファイルに記憶されたデ 一タの読込みが開始される。
[0050] ヘッド領域 57bには、更に、アプリケーション予備メモリ 57bl、量子化テーブルメモ リ 57b2、 DCT定義メモリ 57b3、ハフマンテーブルメモリ 57b4、スリット光無画像デー タメモリ 57b 5が割り当てられている。
[0051] アプリケーション予備メモリ 57blは、アプリケーションに依存する情報を格納するメ モリである。アプリケーション予備メモリ 57blには、 3次元形状開始コードメモリ 57bl a、 3次元空間位置情報メモリ 57blb、傾き情報メモリ 57blc、湾曲情報メモリ 57bld が割り当てられている。
[0052] 3次元形状開始コードメモリ 57blaは、対象物体の 3次元空間位置情報と、傾き情 報と、湾曲情報とからなる 3次元形状データの読込みを開始するためのコードを格納 するメモリである。 3次元空間位置情報メモリ 57b lbは原稿 Pの 3次元空間位置情報 を格納するメモリである。傾き情報メモリ 57blcは原稿 Pの傾き情報を格納するメモリ である。湾曲情報メモリ 57b Idは原稿 Pの湾曲情報を格納するメモリである。尚、 3次 元形状データを格納する領域としては、アプリケーション予備メモリ 57bl内、或いは 、ヘッダ領域 57b内に限定されるものではなぐ 1つのファイル内であれば他の部分 であっても良い。
[0053] 量子化テーブルメモリ 57b2は、画像データに対して DCT変換した結果を数値ィ匕 する場合に使用する量子化テーブルを格納するメモリである。 DCT定義メモリ 57b3 は、 DCT変換タイプを定義するコードやそのパラメータを格納するメモリである。ハフ マンテーブルメモリ 57b4は、量子化された値をエントロピー圧縮するために用いるテ 一ブルを格納するメモリである。スリット光無画像データメモリ 57b5は、撮像装置 1で 撮像されるスリット光無画像の画像データを格納するためのメモリである。
[0054] イメージ終了コードメモリ 57cは、画像データの終了を示すコードを格納するメモリ であり、このイメージ終了コードが読み取られると、第 1ファイルメモリ 57に格納された データの読込みは終了される。
[0055] 次に、上述したように構成された撮像装置 1に関し、使用者によりレリーズボタン 52 が押されて力もの動作について図 6を参照しながら説明する。図 6は、撮像装置 1の プロセッサ 40での処理手順を示すフローチャートである。
[0056] 使用者によりレリーズボタン 52が押されると、まず、モード切替スィッチ 59のスィッチ の位置が検知され、そのスィッチの位置が「補正撮像モード」の位置である力否かが 判別される(S 110)。判別の結果、「補正撮像モード」の位置の場合には(S 110 : Ye s)、スリット光投光ユニット 20に対しレーザーダイオード 21の発光が指令され、第 1ス リット光 71及び第 2スリット光 72が出射されてから、スリット光有画像として、 CCD画像 センサ 32から画像データが取得される。取得された画像データは RAM43のスリット 光有画像格納部 431へ読み込まれる(S120)。
[0057] スリット光有画像の画像データを読み込まれると(S120)、次に、スリット光投光ュ- ット 20に対しレーザーダイオード 21の発光停止が指令され、第 1スリット光 71及び第 2スリット光 72が出射されなくなつてから、スリット光無画像として CCD画像センサ 32 カゝら画像データが取得される。取得された画像データはスリット光無画像格納部 432 へ読み込まれる(S 130)。
[0058] スリット光有画像とスリット光無画像の画像データが読み込まれると(S120, S130) 、差分抽出プログラム 422によりスリット光有画像格納部 431の画像データに対する、 スリット光無画像格納部 432の画像データの差分が差分画像格納部 433へ読み込ま れる(S140)。つまり、原稿 Pに投光された第 1スリット光の軌跡 71a及び第 2スリット光 の軌跡 72aを抽出した画像データが、差分画像格納部 433へ読み込まれる (S140)
[0059] この差分抽出演算ステップ (S140)では、スリット光有画像格納部 431の画像デー タからスリット光無画像格納部 432の画像データを、画素毎にその RGB値を差し引く 。これにより、スリット光の軌跡のみが抽出された多値画像が得られることになる。
[0060] 差分抽出演算ステップ(S140)において、第 1スリット光の軌跡 71a及び第 2スリット 光の軌跡 72aを抽出した画像データが生成されると、次に、その画像データに基づき 、三角測量演算プログラム 423により、第 1スリット光の軌跡 71a及び第 2スリット光の 軌跡 72aの画素毎の 3次元空間位置が演算され、その演算結果がそれぞれ三角測 量演算結果格納部 434へ読み込まれる(S150)。 [0061] この三角測量演算ステップ (S150)では、例えば、差分画像格納部 433に読込ま れた画像データに基づいて、第 1スリット光の軌跡 71a及び第 2スリット光の軌跡 72a の縦方向のピークが重心計算によって画像データの横方向座標毎に求められ、この ピーク抽出座標に対する 3次元空間位置が次のようにして求められる。
[0062] 図 7 (a)および図 7 (b)は、スリット光有画像を説明するための図である。図 8 (a)およ び図 8 (b)は、スリット光の 3次元空間位置を算出する方法を説明するための図である 。図 7 (a)に示すように撮像される横方向に湾曲した原稿 Pに対する撮像装置 1の座 標系を、図 8 (a)および図 8 (b)に示すように表す。図 8 (a)および図 8 (b)において、 結像レンズ 31の光軸方向を Z軸として、撮像装置 1から基準距離 VP離れた位置を X , Y, Z軸の原点位置として、撮像装置 1に対して水平方向を X軸、垂直方向を Y軸と する。
[0063] CCD画像センサ 32の X軸方向の画素数を ResX、 Y軸方向の画素数を ResYと呼 ぶ。 X— Y平面に、結像レンズ 31を通して CCD画像センサ 32を投影した位置の上端 を Yftop、下端を Yfbottom、左端を Xfstart、右端を Xfendと呼ぶ。また、結像レン ズ 31の光軸から、スリット光投光ユニット 20から出射される第 1スリット光 71の光軸ま での距離を D、第 1スリット光 71が X-Y平面に交差する Y軸方向の位置を lasl、第 2 スリット光 72が X— Y平面に交差する Y軸方向の位置を las2とする。
[0064] 上記定義を用い、第 1スリット光の軌跡 71aの画像の画素の 1つに注目した注目点 1 の CCD画像センサ 32上の座標(ccdxl, ccdyl)に対応する 3次元空間位置 (XI, Yl, Z1)を、 CCD画像センサ 32の結像面上の点と、第 1スリット光 71及び第 2スリット 光 72の出射点と、 X— Y平面に交差する点とで形成される三角形について立てた次 の 5つの連立方程式の解力 導き出す。
(1) Yl =-( (lasl +D) /VP) Zl +lasl
( 2) Y 1 =— (Ytarget/VP) Z1 + Ytarget
(3) XI = - (Xtarget/ VP) Z 1 + Xtarget
(4) Xtarget = Xf start + (ccdxl /ResX) X (Xfend— Xf start)
(5)
Figure imgf000017_0001
X (Yftop— Yfbottom)
尚、本実施例では、第 1スリット光 71が Z軸に対して平行のため lasl =— Dであり、 Y 1 = Dである。
[0065] 同様に、 CCD画像センサ 32上の第 2スリット光の軌跡 72aの画像の画素の一つに 注目した注目点 2の座標(ccdx2, ccdy2)に対応する 3次元空間位置 (X2, Y2, Z2 )を、次に 5つの連立方程式の解力も導き出す。
(1) Y2=-( (las2 + D) /VP) Z2 + las2
(2)
Figure imgf000018_0001
Z2 + Ytarget
(3) X2=- (Xtarget/VP) Z2+ Xtarget
(4) Xtarget = Xf start + (ccdx2/ResX) X (Xf end— Xf start)
(5)
Figure imgf000018_0002
X (Yftop— Yfbottom)
以上のように、各スリット光の 3次元空間位置が演算されると(S150)、その各スリツ ト光の 3次元空間位置に基づいて、原稿姿勢演算プログラム 424により、原稿 Pの位 置及び姿勢が演算される (S160)。ここで、図 9 (a)力も図 9 (c)を参照して、この原稿 姿勢演算ステップ (S160)について説明する。図 9 (a)力も図 9 (c)は、原稿姿勢演算 の際の座標系を説明するための図である。
[0066] 原稿姿勢演算ステップ(S160)では、例えば、三角測量演算結果格納部 434のデ ータから、第 1スリット光の軌跡 71aに対応する 3次元空間位置の各点を回帰曲線近 似した線が求められる。さらに、この曲線の X軸方向の位置が「0」における点と、第 2 スリット光の軌跡 72aの X軸方向の位置が「0」における 3次元位置とを結ぶ直線が想 定され、この直線が Z軸と交わる点、つまり、光軸が原稿 Pと交差する点が、原稿 Pの 3 次元空間位置 (0, 0, L)とされる(図 9 (a)参照)。この直線が X-Y平面となす角を原 稿 Pの X軸まわりの傾き Θとする。
[0067] 図 9 (b)に示すように、第 1スリット光の軌跡 71aを回帰曲線近似した線を、先に求め た X軸まわりの傾き Θ分だけ逆方向に回転変換し、つまり、原稿 Pを X— Y平面に対し て平行にした状態を考える。次に、図 9 (c)に示すように、原稿 Pの X軸方向の断面形 状を、 X— Z平面における原稿 Pの断面について、 Z軸方向の変位を複数の X軸方向 の点で求めてその変位度から、 X軸方向の位置を変数とした X軸方向の傾きの関数 である湾曲 Φ (X)を求める。
[0068] 原稿姿勢演算ステップ (S160)で、原稿 Pの 3次元空間位置 L及び姿勢 (傾き Θと 湾曲 φ )が算出されると、カメラ出力ファイル作成書込プログラム 425によって、スリツ ト光無画像格納部 432に読込まれたスリット光無画像の画像データは、メモリカード 5 6のスリット光無画像データメモリ 57b5に書込まれ、そのスリット光無画像に対応して 算出された原稿 Pの 3次元空間位置 Lはメモリカード 56の 3次元空間位置情報メモリ 57blbに、傾き Θは傾き情報メモリ 57blcに、湾曲 φは、湾曲情報メモリ 57bldにそ れぞれ書込まれる。これらの 3次元空間位置 L、傾き 0、湾曲 φから 3次元形状デー タが構成される。以上の動作により、カメラ出力ファイルとして 1つの 3次元形状データ ファイルが作成される(S170)。
[0069] 尚、スリット光無画像格納部 432に読込まれたスリット光無画像の画像データをメモ リカード 56のスリット光無画像データメモリ 57b5に書込むタイミングは、上記のような タイミングに限定されるものではなぐ例えば、差分抽出演算ステップ (S140)の後に 実行されても良い。
[0070] 一方、 S110における判別の結果力 「補正撮像モード」ではなく「ノーマルモード」 の位置の場合には(S 110 : NO)、スリット光投光ユニット 20のレーザーダイオード 21 が発光せず、第 1スリット光 71及び第 2スリット光 72が出射されていない状態で、 CC D画像センサ 32からスリット光無画像が読み込まれる(S 190)。次に、ステップ S200 では、読み込まれた画像データカ モリカード 56のスリット光無画像データメモリ 57b 5に書き込まれる。尚、「ノーマルモード」の場合には、上述したような原稿 Pの 3次元 空間位置 L、傾き 0、湾曲 φは算出されず、これらのデータカ^モリカード 56に書込 まれることはない。
[0071] 以上のように、メモリカード 56にスリット光無画像の画像データや原稿 Pの 3次元空 間位置 L、傾き Θ、湾曲 φが書込まれると(S170、 S200)、プロセッサ 40内のメモリ 空間が開放される(S180)。即ち、メモリカード 56にはスリット光有画像の画像データ が書き込まれることはな 、ので、スリット光無画像とスリット光有画像の両画像データ 力 Sメモリカード 56に記憶され、撮像可能の枚数が減少してしまうという問題もない。前 記画像データは圧縮することによりメモリカード 56を有効に利用できるようにしてもい いが、それでも画像データの記憶にはかなりの容量を必要とするため、スリット光有画 像の画像データを記憶させないことによるメモリカード 56の撮影可能枚数に与える影 響は大きい。また、スリット光有画像の画像データは、差分抽出演算ステップ (S 140) の後であれば削除しても構わないので、 S140以降、 S170に至る間に当該画像デ ータを削除するようにしてもよい。その場合、 S 140以降、 RAM43のスリット光有画像 格納部 431に読込まれたスリット光有画像の画像データは、アクセスが不可能になり 、 S 170の処理においてスリット光有画像の画像データカ モリカード 56に書き込ま れることはない。
[0072] 次に、図 10を参照して、上述したようにメモリカード 56に書込まれたデータを PC90 に移送するデータ移送処理について説明する。尚、図 10においては、メモリカード 5 6を撮像装置 1に装着した状態で、通信ケーブル 61を介して PC90にデータを送信 する場合について説明する。
[0073] このデータ移送処理では、はじめに、使用者によりデータの移送命令があった力否 かが判定される(S1010)。判定の結果、データの移送命令があった場合には(S 10 10 :YES)、インターフェイス 60が初期化される(S1020)。それから、撮像装置 1と P C90と間で相互に通信可能か否かが判定される(S1030)。判定の結果、通信可能 であれば(S 1030 : YES)、メモリカード 56内の各ファイルメモリ 57, 58に格納されて いる各カメラ出力ファイルは、順次、 PC90に送信される(S1040)。次に、カメラ出力 ファイルの送信が完了したカゝ否かが判定される(S1050)。判定の結果、送信が完了 していれば (S1050 : YES)、本処理は終了する。尚、撮像装置 1から送信されるカメ ラ出力ファイルは、 PC90側のインターフェイス 101を介して、 RAM96のカメラ出力 ファイル格納部 96aに読込まれる。
[0074] 上述したデータ移送処理は、通信ケーブル 61を介して撮像装置 1から PC90にデ ータを移送する場合の例である。このようなデータ移送処理に代えて、メモリカード 56 を撮像装置 1から抜き取り、メモリカード 56を PC90に装着することによって、撮像装 置 1から PC90にカメラ出力ファイルを移送することもできる。このように、メモリカード 5 6によって撮像装置 1から PC90にカメラ出力ファイルを移送する場合には、撮像装 置 1と PC90とに通信ケーブル 61を接続する手間を省くことができると共に、 PC90の 無い場所であっても、メモリカード 56を複数枚準備しておくことで、大量の撮像をする ことができる。 [0075] 次に、上述したデータ移送処理によって撮像装置 1から PC90にデータが移送され た後に、 PC90において、スリット光無画像の画像データを正面力 観察されたような 画像の画像データに変換する平面変換処理について図 11のフローチャートを参照 しながら説明する。
[0076] はじめに、上述したデータ移送処理によって、カメラ出力ファイル格納部 96aに読 込まれたカメラ出力ファイルから 3次元形状データとスリット光無画像とが読み込まれ る(S1101)。尚、メモリカード 56が PC90に装着される場合には、メモリカード 56から カメラ出力ファイルが読み込まれることになる。次に、ステップ 1102では、 RAM96の ワーキングエリア 96bに当該処理の処理領域が割り当てられ、カウンタのための変数 など当該処理に用いる変数 bの初期値が設定される(S1102)。
[0077] 次に、原稿 Pの文字等が書かれた面が略鉛直方向から観察された場合の画像であ る正立画像の領域が、原稿姿勢演算プログラム 425での演算結果による原稿 Pの 3 次元空間位置 (0, 0, L)と、 X軸まわりの傾き Θと、湾曲 φ (X)とに基づき、スリット光 無画像の 4隅の点を変換することにより設定され、この領域内に含まれる画素数 aが 求められる(S1103)。
[0078] まず、変数 bが前記画素数 aに達しているか判断される(S 1104)。設定された正立 画像の領域は、まず X— Y平面に配置され (S1105)、その中に含まれる画素毎に、 各々の 3次元空間位置は、湾曲 φ (X)に基づいて Z軸方向に変位され(S1106)、傾 き Θで X軸まわりに回転移動され (S1107)、 Z軸方向に距離 Lだけシフトされる(S11 08)。このようにして求められた 3次元空間位置は、先の 3角測量の関係式により理想 カメラで写された CCD画像上の座標(ccdcx, (1じ )に変換され(31109)、使用し ている結像レンズ 31の収差特性に従って、公知のキャリブレーション手法により、実 際のカメラで写された CCD画像上の座標 (ccdx, ccdy)に変換される(S 1110)。こ のように得られた位置(ccdx, ccdy)にあるスリット光無画像の画素の状態が求められ 、 RAM96のワーキングエリア 96b〖こ格納される(S1111)。以上の処理を画素数 aだ け繰り返すこと〖こより(S1112, S 1104)、正立画像の画像データが生成される。前記 ワーキングエリア 96bの処理領域が解放された後(S1113)、その正立画像の画像デ ータに基づき生成される平面画像は、 CRTディスプレイ 92に出力表示される (S111 4) 0
[0079] 以上説明したように、「撮像補正モード」における撮像装置 1は、第 1スリット光 71及 び第 2スリット光 72の 2列のスリット光を原稿 Pに投光し、その原稿 Pの像を結像レンズ 31によって CCD画像センサ 32に結像させて撮像し、続いて、スリット光が投光されて いない原稿 Pの画像を撮像する。それから、撮像装置 1は、これら 2つの画像データ の差分をとることによって、画像データからスリット光の軌跡画像を抽出して、三角測 量原理によりスリット光の軌跡各部の 3次元空間位置を演算する。さらに、撮像装置 1 は、得られた 3次元空間位置から原稿 Pの位置、傾き、及び湾曲状態 (3次元形状デ ータ)を求め、これらの 3次元形状データとスリット光無画像の画像データとをメモリ力 ード 56に書込む。
[0080] スリット光無画像やスリット光有画像の画像データが数百キロバイト程度の情報であ るのに対し、原稿 Pの 3次元形状データである原稿 Pの位置 L、傾き Θ、及び湾曲 φ の各データ量は、それぞれ 4バイト程度の情報である。したがって、たとえ湾曲 φ値を 原稿 P内にぉ 、て数十点サンプリングしたとしても、せ ヽぜ 、数百バイト程度の情報 であり、この 3次元形状データのデータ量は画像データのデータ量に比べて無視で きる程小さいと言える。
[0081] スリット光有画像とスリット光無画像との撮像だけを行い、その両方の画像の画像デ ータをメモリカードに格納し、差分抽出演算や平面変換をするための演算等は、その メモリカードが装着された PC90においてするとした場合を想定する。このような場合 に比べ、本発明の実施形態による撮像装置 1では、撮像補正モードにおける撮像を したとしてもメモリカード 56の消費容量は略半分に節約される。従って、撮像補正モ ードにおける撮像をしたとしても、そのメモリカード 56に対する撮像装置 1の撮像可能 枚数が半減するのを抑制することができる。また、通信ケーブル 61を介して、メモリ力 ード 56に書込まれたデータを移送する場合においても、スリット光有画像とスリット光 無画像との両方の画像データを移送する場合に比べて、その通信時間を略半分に することができる。
[0082] メモリカード 56に書込まれたデータに基づき、 PC90において、平面変換処理を実 行することにより、湾曲などの形状変形した原稿 Pを斜めから撮像した場合でも、平ら な原稿 Pを正面力も撮像したかのような画像を出力表示させることができる。また、平 面変換処理を実行する際において、撮像装置 1から力もカメラ出力ファイルとして移 送されるスリット光無画像の画像データと、 3次元形状データとは、 1つのファイルに 格納されているので、そのデータの取り扱いを簡便にでき、平面変換処理に要する P C90の負担を軽減させることができる。
[0083] 上記実施形態において、図 6のフローチャートの S120, S130の処理は、画像デ ータ取得手段や画像データ取得ステップと位置付けられる。図 6のフローチャートの S140, S150の処理は、パターン光位置抽出手段やパターン光位置抽出ステップと 位置付けられる。図 6のフローチャートの S 160の処理は、 3次元形状算出手段や 3 次元形状算出ステップと位置付けられる。図 6のフローチャートの S 170の処理は、記 憶手段や記憶ステップと位置付けられる。さらに、図 6のフローチャートの S 170の処 理は、データファイル生成手段やデータファイル生成ステップと位置付けることもでき る。
[0084] 以上実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定 されるものでなぐ本発明の主旨を逸脱しない範囲内で種々の改良変形が可能であ ることは容易に推察できる。
[0085] 例えば、撮像装置 1で撮像する対象物体は、シート状の原稿 Pの他にも、固体プロ ックの滑らかな表面であったり、稜線をもつ物体の表面であっても良い。本発明の実 施形態による撮像装置は、およそ 2列のスリット光の軌跡から、その 3次元空間におけ る 3次元形状を希求した 、用途にはすべて同様に、対象物体の 3次元形状を検出す る効果を発揮することができる。
[0086] 但し、本実施形態のように、対象物体がシート状の原稿 Pであれば、第 1スリット光の 軌跡 71aを原稿 Pの断面形状であるとして、原稿 Pの全体の形状を推定し、原稿 Pの 湾曲などの形状変形に対する画像補正をすることができる。また、対象物体がスリット 光の長手方向に対する直交方向に略均一な 3次元形状であれば、スリット光を投光 する位置に含まれる対象物体の突起部など特異な形状により生じる検出姿勢のずれ などを考慮しなくて良ぐスリット光が投光される箇所に気をつかわないでも良いように できる。 [0087] 本実施形態による撮像装置 1では、スリット光投光ユニット 20が、第 1スリット光 71と 、第 2スリット光 72の 2列のスリット光を出射するように構成されているが、出射するスリ ット光は、 2列に限らない。撮像装置は、 3列以上のスリット光が出射するように構成さ れていても良い。例えば、図 7 (b)に示す原稿 Pのスリット光の軌跡画像のように、第 1 スリット光 71及び第 2スリット光 72に加えて、第 2スリット光 72と同様の第 3スリット光が 、原稿 Pにて第 2スリット光 72の上方に投光されるようにスリット光投光ユニット 20が構 成されていても良い。この場合、第 1一第 3スリット光のスリット光の軌跡の各点の位置 から、原稿 Pの縦方向の湾曲形状に対しても推定することができ、これによりスリット無 し画像を補正して、更に見やす 、画像とすることができる。
[0088] 本実施形態では、光源として赤色レーザー光線を放射するレーザーダイオード 21 が用いられている。しかしながら光源としては、面発光レーザー、 LED、 EL素子など 、光ビームを出力できる様々なタイプの光源を用いることができる。
[0089] 透明平板 24に代えて、入射するレーザー光線のパワーの所定の割合を所定方向 に回折する回折格子が 1面に形成された透明平板が用 ヽられても良い。この場合、 透明平板に形成された回折格子によって回折された 1次光のレーザー光線を第 2ス リット光 72とし、回折格子をそのまま透過する 0次光のレーザー光線を第 1スリット光 7 1とされる。
[0090] スリット光投光ユニット 20から出射されるパターン光としては、長手方向に直交する 方向に急峻に絞り込まれた細線の他に、一定の幅を備えたストライプ状の光パターン など、様々なタイプのパターン光を用いることができる。
[0091] 第 1スリット光 71と、第 2スリット光 72の位置関係は逆転しても良い。すなわち、第 1 の方向つまり撮像装置 1から見て下側に第 2スリット光 72が形成され、第 2の方向に 第 1スリットが形成されるように、スリット光投光ユニット 20内の各光学素子が配設され ていても良い。
[0092] 撮像装置 1は、スリット光有画像及びスリット光無画像を、結像レンズ 31及び CCD 画像センサ 32を用いて撮像するよう構成されている。これに対して、撮像装置におい て、結像レンズ 31及び CCD画像センサ 32の他に、スリット光有画像を撮像するため の結像レンズ及び CCD画像センサを別途追加して設けられて ヽても良 、。このよう に構成することにより、スリット光有画像とスリット光無画像とを撮像する間の時間経過
(CCD画像センサ 32の画像データを転送する時間など)を無くすることができる。つ まり、スリット光有画像に対してスリット光無画像の撮像範囲を無くし、検出する対象物 体の 3次元形状の精度を高めることができる。但し、スリット光有画像を撮像するため の結像レンズ及び CCD画像センサを別途追加するような場合に比べて、本実施形 態の撮像装置 1の方が、構成部品が少なぐ小型で安価なものとすることができる。
[0093] 本発明の一つの実施形態において、 3次元形状検出装置は、画像データ取得手 段で取得されたパターン光非投光画像の画像データと、 3次元形状算出手段で算出 された 3次元形状データとを記憶する記憶手段を更に備え、外部演算手段へは、記 憶手段を介してパターン光非投光画像の画像データと 3次元形状データとが提供さ れるよう構成されて ヽても良 、。
[0094] このような構成によれば、 3次元形状検出装置において、スリット光投光画像の画像 データとスリット光非投光画像の画像データとの両方を記憶する場合に比べ、記憶の 容量を節約することができる。
[0095] 本発明の一つの実施形態によれば、 3次元形状検出装置において記憶手段は前 記 3次元形状検出装置に着脱自在に装着可能に構成され、外部演算装置は記憶手 段を着脱自在に装着可能な記憶媒体インタフェースを有するよう構成されて 、ても良 い。この場合、 3次元形状検出装置によってパターン光非投光画像の画像データと 3 次元形状データとが格納された記憶手段が、 3次元形状検出装置から取り外され、 外部演算装置の記憶媒体インタフェースに装着されることによって、パターン光非投 光画像の画像データと 3次元形状データとが外部演算装置に提供される。
[0096] 本発明の一つの実施形態によれば、記憶手段においてパターン光非投光画像の 画像データと 3次元形状データとは単一ファイルに格納されていても良い。
[0097] このような構成によれば、スリット光非投光画像の画像データと 3次元形状データと は単一ファイルに格納されて ヽるので、スリット光非投光画像の画像データと 3次元 形状データとを、各々別々のファイルに格納する場合と比較して、データの取り扱い を簡便にすることができる。
[0098] 本発明の一つの実施形態において、 3次元形状検出装置は外部演算装置との間 でデータ通信を行なう為の第 1のインタフェースを有し、外部演算装置は 3次元形状 検出装置との間でデータ通信を行なう為の第 2のインタフェースを有していても良い。 この場合、 3次元形状検出装置から外部演算装置へは、第 1のインタフェース及び第 2のインタフェースを介しての有線または無線のデータ通信によりパターン光非投光 画像の画像データと 3次元形状データとが提供されても良い。
[0099] このような構成によれば、パターン光非投光画像の画像データと 3次元形状データ とが 3次元形状検出装置から外部演算装置に転送されるので、パターン光非投光画 像とパターン光投光画像との双方を外部演算装置に移送する場合に比べて、外部 演算装置への転送時間を短縮することができ、また転送時間の短縮を実現することも できる。
[0100] 本発明の一つの実施形態において、 3次元形状算出手段は、パターン光位置抽出 手段で抽出されたパターン光の位置に基づいて対象物体の 3次元空間における位 置情報と傾き情報と湾曲情報とを算出する構成であっても良い。この場合、 3次元形 状データは、対象物体の 3次元空間における位置情報と傾き情報と湾曲情報とで構 成される。
[0101] 3次元形状データは対象物体の 3次元空間における位置情報と傾き情報と湾曲情 報とで構成されているので、対象物体の 3次元形状を検出することができるという効 果が得られる。
[0102] 本発明の一つの実施形態において、 3次元形状検出装置は撮像手段を有する撮 像装置として構成され、外部演算装置はパーソナルコンピュータとして構成されてい ても良い。
[0103] 本発明の一つの実施形態において、 3次元形状検出装置は、画像データ取得手 段で取得されたパターン光非投光画像の画像データと、 3次元形状算出手段で算出 された 3次元形状データとを記憶する記憶手段を更に備えていても良い。この場合、 記憶手段は、外部演算装置に対してパターン光非投光画像の画像データと 3次元形 状データとを提供する為に用いられる。
[0104] 本発明の一つの実施形態において、 3次元形状検出装置は、外部演算装置との間 でデータ通信を行なう為のインタフェースを更に備えていても良い。この場合、外部 演算装置へは、インタフェースを介しての有線または無線のデータ通信によりパタ ン光非投光画像の画像データと 3次元形状データとが提供される。

Claims

請求の範囲
[1] 3次元形状検出装置と外部演算装置を備える 3次元形状検出システムであって、 前記 3次元形状検出装置は、
対象物体にパターン光を投光する投光手段と、
前記投光手段からパターン光が投光されている状態における対象物体のパターン 光投光画像を撮像し前記パターン光投光画像の画像データを取得すると共に、前記 ノターン光が投光されていない状態における対象物体のパターン光非投光画像を 撮像し前記パターン光非投光画像の画像データを取得する画像データ取得手段と、 取得された前記画像データに基づき対象物体に投光されたパターン光の位置を抽 出するパターン光位置抽出手段と、
前記パターン光位置抽出手段によって抽出されるパターン光の位置に基づき対象 物体の 3次元形状データを算出する 3次元形状算出手段とを備え、
前記外部演算装置は、
前記 3次元形状検出装置によって取得された前記パターン光非投光画像の画像 データと前記 3次元形状データとに基づき前記パターン光非投光画像を対象物体の 所定面の略鉛直方向から観察される平面画像に補正する画像補正手段を備えること を特徴とする 3次元形状検出システム。
[2] 前記 3次元形状検出装置は、
前記画像データ取得手段で取得された前記パターン光非投光画像の画像データ と、前記 3次元形状算出手段で算出された 3次元形状データとを記憶する記憶手段 を更に備え、
前記外部演算手段へは、前記記憶手段を介して前記パターン光非投光画像の画 像データと前記 3次元形状データとが提供されること、を特徴とする請求項 1に記載 の 3次元形状検出システム。
[3] 前記 3次元形状検出装置において、前記記憶手段は前記 3次元形状検出装置に 着脱自在に装着可能に構成され、
前記外部演算装置は、前記記憶手段を着脱自在に装着可能な記憶媒体インタフ エースを有し、
前記 3次元形状検出装置によって前記パターン光非投光画像の画像データと前記 3次元形状データとが格納された前記記憶手段が、前記 3次元形状検出装置から取 り外され前記外部演算装置の記憶媒体インタフェースに装着されることによって、前 記パターン光非投光画像の画像データと前記 3次元形状データとが前記外部演算 装置に提供されること、を特徴とする請求項 2に記載の 3次元形状検出システム。
[4] 前記記憶手段において前記パターン光非投光画像の画像データと前記 3次元形 状データとは単一ファイルに格納されていること、を特徴とする請求項 2に記載の 3次 元形状検出システム。
[5] 前記 3次元形状検出装置は、前記外部演算装置との間でデータ通信を行なう為の 第 1のインタフェースを有し、
前記外部演算装置は、前記 3次元形状検出装置との間でデータ通信を行なう為の 第 2のインタフェースを有し、
前記 3次元形状検出装置から前記外部演算装置へは、前記第 1のインタフェース 及び前記第 2のインタフェースを介しての有線または無線のデータ通信により前記パ ターン光非投光画像の画像データと前記 3次元形状データとが提供されること、 を特徴とする請求項 1に記載の 3次元形状検出システム。
[6] 前記 3次元形状算出手段は、前記パターン光位置抽出手段で抽出されたパターン 光の位置に基づいて前記対象物体の 3次元空間における位置情報と傾き情報と湾 曲情報とを算出し、
前記 3次元形状データは、前記対象物体の 3次元空間における位置情報と傾き情 報と湾曲情報とで構成されていることを特徴とする請求項 1に記載の 3次元形状検出 システム。
[7] 前記 3次元形状検出装置は、撮像手段を有する撮像装置として構成され、
前記外部演算装置はパーソナルコンピュータとして構成されて 、ること、を特徴とす る請求項 1に記載の 3次元形状検出システム。
[8] 3次元形状検出システムにお 、て用 、られる 3次元形状検出装置であって、
対象物体にパターン光を投光する投光手段と、 前記投光手段からパターン光が投光されている状態における対象物体のパターン 光投光画像を撮像し前記パターン光投光画像の画像データを取得すると共に、前記 パターン光が投光されていない状態における対象物体のパターン光非投光画像を 撮像し前記パターン光非投光画像の画像データを取得する画像データ取得手段と、 取得された前記画像データに基づき対象物体に投光されたパターン光の位置を抽 出するパターン光位置抽出手段と、
前記パターン光位置抽出手段によって抽出されるパターン光の位置に基づき対象 物体の 3次元形状データを算出する 3次元形状算出手段とを備え、
前記画像データ取得手段によって取得される前記パターン光非投光画像の画像 データと前記 3次元形状算出手段により算出される前記 3次元形状データは、外部 演算装置において前記パターン光非投光画像の画像データと前記 3次元形状デー タとに基づいて前記パターン光非投光画像を対象物体の所定面の略鉛直方向から 観察される平面画像に補正する為に用いられること、
を特徴とする 3次元形状検出装置。
[9] 前記画像データ取得手段で取得された前記パターン光非投光画像の画像データ と、前記 3次元形状算出手段で算出された 3次元形状データとを記憶する記憶手段 を更に備え、
前記記憶手段は、前記外部演算装置に対して前記パターン光非投光画像の画像 データと前記 3次元形状データとを提供する為に用いられること、を特徴とする請求 項 8に記載の 3次元形状検出装置。
[10] 前記外部演算装置との間でデータ通信を行なう為のインタフェースを更に備え、 前記外部演算装置へは、前記インタフェースを介しての有線または無線のデータ 通信により前記パターン光非投光画像の画像データと前記 3次元形状データとが提 供されること、
を特徴とする請求項 8に記載の 3次元形状検出装置。
[11] パターン光が投光されている状態における対象物体のパターン光投光画像の画像 データとパターン光が投光されていない状態における対象物体のパターン光非投光 画像の画像データとを取得する画像データ取得ステップと、 前記画像データ取得ステップで取得された画像データに基づき、対象物体に投光 されたパターン光の位置を抽出するパターン光位置抽出ステップと、
前記パターン光位置抽出ステップで抽出されるパターン光の位置に基づき、対象 物体の 3次元形状データを算出する 3次元形状算出ステップと、
前記パターン光非投光画像の画像データと前記 3次元形状データとを記憶手段に 記憶する記憶ステップと、
前記記憶ステップにおいて記憶手段に記憶される前記パターン光非投光画像の画 像データと前記 3次元形状データとに基づいて、前記パターン光非投光画像を対象 物体の所定面の略鉛直方向から観察される平面画像に補正する画像補正ステップ とを備免ること、
を特徴とする 3次元形状検出プログラム。
[12] 前記記憶ステップにお!/、て前記パターン光非投光画像の画像データと 3次元形状 データとは 1つのファイルとして前記記憶手段に格納されることを特徴とする請求項 1
1に記載の 3次元形状検出プログラム。
[13] パターン光が投光されて 、る状態における対象物体のパターン光投光画像の画像 データとパターン光が投光されていない状態における対象物体のパターン光非投光 画像の画像データとを取得する画像データ取得ステップと、
前記画像データ取得ステップで取得された画像データに基づき、対象物体に投光 されたパターン光の位置を抽出するパターン光位置抽出ステップと、
前記パターン光位置抽出ステップで抽出されるパターン光の位置に基づき、対象 物体の 3次元形状データを算出する 3次元形状算出ステップと、
前記パターン光非投光画像の画像データと前記 3次元形状データとを外部演算装 置に送信する送信ステップと、
前記送信ステップにより送信される前記パターン光非投光画像の画像データと前 記 3次元形状データとを受信し、前記パターン光非投光画像の画像データと前記 3 次元形状データとに基づいて前記パターン光非投光画像を対象物体の所定面の略 鉛直方向から観察される平面画像に補正する画像補正ステップとを備えること、 を特徴とする 3次元形状検出プログラム。
PCT/JP2004/013786 2003-09-25 2004-09-22 3次元形状検出装置、3次元形状検出システム、及び、3次元形状検出プログラム WO2005031252A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/385,774 US7372580B2 (en) 2003-09-25 2006-03-22 Three-dimensional shape detecting device, three-dimensional shape detecting system, and three-dimensional shape detecting program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-332647 2003-09-25
JP2003332647 2003-09-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/385,774 Continuation-In-Part US7372580B2 (en) 2003-09-25 2006-03-22 Three-dimensional shape detecting device, three-dimensional shape detecting system, and three-dimensional shape detecting program

Publications (1)

Publication Number Publication Date
WO2005031252A1 true WO2005031252A1 (ja) 2005-04-07

Family

ID=34385964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/013786 WO2005031252A1 (ja) 2003-09-25 2004-09-22 3次元形状検出装置、3次元形状検出システム、及び、3次元形状検出プログラム

Country Status (2)

Country Link
US (1) US7372580B2 (ja)
WO (1) WO2005031252A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293075A (ja) * 2004-03-31 2005-10-20 Brother Ind Ltd 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム
US20200019547A1 (en) * 2011-10-24 2020-01-16 Imagescan, Inc. Apparatus and method for displaying search results using cognitive pattern recognition in locating documents and information within
EP3636158A1 (en) * 2018-10-10 2020-04-15 Koninklijke Philips N.V. Image guidance for implanted lead extraction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274788A (ja) * 1993-03-22 1994-09-30 Mitsubishi Heavy Ind Ltd ナンバープレート読み取り装置
JP2001292312A (ja) * 2000-04-10 2001-10-19 Fuji Xerox Co Ltd 画像読取装置
JP2003504947A (ja) * 1999-07-09 2003-02-04 ヒューレット・パッカード・カンパニー 文書撮像システム
JP2003078725A (ja) * 2001-02-14 2003-03-14 Ricoh Co Ltd 画像入力装置
JP2003216933A (ja) * 2002-01-28 2003-07-31 Minolta Co Ltd データ処理装置、記録媒体およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657394A (en) * 1984-09-14 1987-04-14 New York Institute Of Technology Apparatus and method for obtaining three dimensional surface contours
US4846577A (en) * 1987-04-30 1989-07-11 Lbp Partnership Optical means for making measurements of surface contours
US5636025A (en) * 1992-04-23 1997-06-03 Medar, Inc. System for optically measuring the surface contour of a part using more fringe techniques
US5668631A (en) * 1993-12-20 1997-09-16 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
JP3282331B2 (ja) 1993-12-20 2002-05-13 ミノルタ株式会社 3次元形状測定装置
US5615003A (en) * 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
US5646733A (en) * 1996-01-29 1997-07-08 Medar, Inc. Scanning phase measuring method and system for an object at a vision station
JP3493886B2 (ja) 1996-04-23 2004-02-03 ミノルタ株式会社 デジタルカメラ
US6449004B1 (en) * 1996-04-23 2002-09-10 Minolta Co., Ltd. Electronic camera with oblique view correction
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
JP3519698B2 (ja) * 2001-04-20 2004-04-19 照明 與語 3次元形状測定方法
US7061628B2 (en) * 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274788A (ja) * 1993-03-22 1994-09-30 Mitsubishi Heavy Ind Ltd ナンバープレート読み取り装置
JP2003504947A (ja) * 1999-07-09 2003-02-04 ヒューレット・パッカード・カンパニー 文書撮像システム
JP2001292312A (ja) * 2000-04-10 2001-10-19 Fuji Xerox Co Ltd 画像読取装置
JP2003078725A (ja) * 2001-02-14 2003-03-14 Ricoh Co Ltd 画像入力装置
JP2003216933A (ja) * 2002-01-28 2003-07-31 Minolta Co Ltd データ処理装置、記録媒体およびプログラム

Also Published As

Publication number Publication date
US20060158661A1 (en) 2006-07-20
US7372580B2 (en) 2008-05-13

Similar Documents

Publication Publication Date Title
US9826216B1 (en) Systems and methods for compact space-time stereo three-dimensional depth sensing
TWI668997B (zh) 產生全景深度影像的影像裝置及相關影像裝置
EP3422955B1 (en) System and method for assisted 3d scanning
KR102494681B1 (ko) 회전 가능한 반사 부재를 갖는 카메라 어셈블리 및 이를 포함하는 전자 장치
US9432655B2 (en) Three-dimensional scanner based on contours from shadow images
US10643340B2 (en) Method and device for acquiring depth information and gesture recognition apparatus
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
WO2018004852A1 (en) Compact, low cost vcsel projector for high performance stereodepth camera
US20200192206A1 (en) Structured light projector, three-dimensional camera module and terminal device
WO2005029408A1 (ja) 画像処理装置、及び、撮像装置
WO2018028152A1 (zh) 一种图像采集设备、虚拟现实设备
US20030043277A1 (en) Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
US7372580B2 (en) Three-dimensional shape detecting device, three-dimensional shape detecting system, and three-dimensional shape detecting program
US20060219869A1 (en) Three-dimensional shape detecting device, image capturing device, and three-dimensional shape detecting program
WO2005008174A1 (ja) 3次元形状検出装置、撮像装置、及び、3次元形状検出方法
KR102459717B1 (ko) 이미지에 포함된 반사 객체의 속성에 기반하여, 반사 객체에 다른 이미지를 합성하는 방법 및 전자 장치
JP2005121644A (ja) 3次元形状検出システム、3次元形状検出装置、及び3次元形状検出プログラム
WO2005031253A1 (ja) 3次元形状検出装置、撮像装置、及び、3次元形状検出プログラム
JP4360145B2 (ja) 3次元形状検出装置、撮像装置、及び、3次元形状検出方法
JP2005148813A5 (ja)
JP4608855B2 (ja) 3次元形状検出装置、撮像装置、及び、3次元形状検出方法
WO2005080915A1 (ja) 3次元形状検出装置および撮像装置
JP5785896B2 (ja) 3次元形状計測装置
JP2005128006A (ja) 3次元形状検出装置、撮像装置、及び、3次元形状検出プログラム
KR101882977B1 (ko) 360도 이미지를 형성할 수 있는 렌즈 모듈 및 360도 이미지 형성 어플리케이션

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11385774

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11385774

Country of ref document: US

122 Ep: pct application non-entry in european phase