WO2012176623A1 - 物体検出装置および情報取得装置 - Google Patents

物体検出装置および情報取得装置 Download PDF

Info

Publication number
WO2012176623A1
WO2012176623A1 PCT/JP2012/064640 JP2012064640W WO2012176623A1 WO 2012176623 A1 WO2012176623 A1 WO 2012176623A1 JP 2012064640 W JP2012064640 W JP 2012064640W WO 2012176623 A1 WO2012176623 A1 WO 2012176623A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
information acquisition
holding
light receiving
base plate
Prior art date
Application number
PCT/JP2012/064640
Other languages
English (en)
French (fr)
Inventor
楳田 勝美
後藤 陽一郎
Original Assignee
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三洋電機株式会社 filed Critical 三洋電機株式会社
Publication of WO2012176623A1 publication Critical patent/WO2012176623A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements

Definitions

  • the present invention relates to an object detection apparatus that detects an object in a target area based on a state of reflected light when light is projected onto the target area, and an information acquisition apparatus suitable for use in the object detection apparatus.
  • An object detection device using light has been developed in various fields.
  • An object detection apparatus using a so-called distance image sensor can detect not only a planar image on a two-dimensional plane but also the shape and movement of the detection target object in the depth direction.
  • light in a predetermined wavelength band is projected from a laser light source or LED (Light-Emitting-Diode) onto a target area, and the reflected light is received by a light-receiving element such as a CMOS image sensor.
  • CMOS image sensor Light-Emitting-Diode
  • a distance image sensor of a type that irradiates a target region with laser light having a predetermined dot pattern reflected light from the target region of laser light having a dot pattern is received by a light receiving element. Based on the light receiving position of the dot on the light receiving element, the distance to each part of the detection target object (irradiation position of each dot on the detection target object) is detected using triangulation (for example, non-patent) Reference 1).
  • triangulation for example, non-patent
  • an aperture, an imaging lens, a filter, a light receiving element, and the like are used as an optical system for receiving reflected light of a laser beam having a dot pattern.
  • These optical elements are usually arranged side by side in the projection direction in order to image the target well. Therefore, the dimension of the optical system in the projection direction is large to some extent.
  • the present invention has been made to solve such a problem, and an information acquisition apparatus and an object that can reduce the size of the apparatus even when the light receiving optical system is higher than the projection optical system.
  • An object is to provide a detection device.
  • the first aspect of the present invention relates to an information acquisition device.
  • a light emitting device that irradiates a target region with a laser beam of a dot pattern, a light receiving device that images the target region, and the light emitting device and the light receiving device are arranged at a predetermined distance.
  • the light emitting device and a base for holding the light receiving device are provided.
  • the light receiving device includes an optical system in which a plurality of optical elements including an imaging lens are arranged in the optical axis direction of the imaging lens, and a holding member that holds the optical system.
  • the base holds the light receiving device by holding the holding member at a peripheral position surrounding the optical axis of the holding member.
  • the second aspect of the present invention relates to an object detection apparatus.
  • the object detection apparatus according to this aspect includes the information acquisition apparatus according to the first aspect.
  • an information acquisition device and an object detection device that can reduce the size of the device even when the light receiving optical system is higher than the projection optical system.
  • an information acquisition device of a type that irradiates a target area with laser light having a predetermined dot pattern is exemplified.
  • FIG. 1 shows a schematic configuration of the object detection apparatus according to the present embodiment.
  • the object detection device includes an information acquisition device 1 and an information processing device 2.
  • the television 3 is controlled by a signal from the information processing device 2.
  • the information acquisition device 1 projects infrared light over the entire target area and receives the reflected light with a CMOS image sensor, whereby the distance between each part of the object in the target area (hereinafter referred to as “three-dimensional distance information”). To get.
  • the acquired three-dimensional distance information is sent to the information processing apparatus 2 via the cable 4.
  • the information processing apparatus 2 is, for example, a controller for TV control, a game machine, a personal computer, or the like.
  • the information processing device 2 detects an object in the target area based on the three-dimensional distance information received from the information acquisition device 1, and controls the television 3 based on the detection result.
  • the information processing apparatus 2 detects a person based on the received three-dimensional distance information and detects the movement of the person from the change in the three-dimensional distance information.
  • the information processing device 2 is a television control controller
  • the information processing device 2 detects the person's gesture from the received three-dimensional distance information and outputs a control signal to the television 3 in accordance with the gesture.
  • the application program to be installed is installed.
  • the user can cause the television 3 to execute a predetermined function such as channel switching or volume up / down by making a predetermined gesture while watching the television 3.
  • the information processing device 2 when the information processing device 2 is a game machine, the information processing device 2 detects the person's movement from the received three-dimensional distance information, and displays a character on the television screen according to the detected movement.
  • An application program that operates and changes the game battle situation is installed. In this case, the user can experience a sense of realism in which he / she plays a game as a character on the television screen by making a predetermined movement while watching the television 3.
  • FIG. 2 is a diagram showing the configuration of the information acquisition device 1 and the information processing device 2.
  • the information acquisition apparatus 1 includes a projection optical system 100 and a light receiving optical system 200 as a configuration of an optical unit.
  • the projection optical system 100 and the light receiving optical system 200 are arranged in the information acquisition apparatus 1 so as to be aligned in the X-axis direction.
  • the projection optical system 100 includes a laser light source 110, a collimator lens 120, a leakage mirror 130, a diffractive optical element (DOE: Diffractive Optical Element) 140, and an FMD (Front Monitor Diode) 150.
  • the light receiving optical system 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240.
  • the information acquisition apparatus 1 includes a CPU (Central Processing Unit) 21, a laser driving circuit 22, a PD signal processing circuit 23, an imaging signal processing circuit 24, an input / output circuit 25, A memory 26 is provided.
  • CPU Central Processing Unit
  • the laser light source 110 outputs a laser beam having a narrow wavelength band with a wavelength of about 830 nm in a direction away from the light receiving optical system 200 (X-axis positive direction).
  • the collimator lens 120 converts the laser light emitted from the laser light source 110 into light slightly spread from parallel light (hereinafter simply referred to as “parallel light”).
  • the leakage mirror 130 is formed of a multilayer film of dielectric thin films, and the number of layers and the thickness of the film are designed so that the reflectance is slightly lower than 100% and the transmittance is several steps smaller than the reflectance ( For example, reflectance 95%, transmittance 5%).
  • the leakage mirror 130 reflects most of the laser light incident from the collimator lens 120 side in the direction toward the DOE 140 (Z-axis direction) and transmits the remaining part in the direction toward the FMD 150 (X-axis direction).
  • the DOE 140 has a diffraction pattern on the incident surface. Due to the diffraction effect of the diffraction pattern, the laser light incident on the DOE 140 is converted into a dot pattern laser light and irradiated onto the target region.
  • the diffraction pattern has, for example, a structure in which a step type diffraction hologram is formed in a predetermined pattern. The diffraction hologram is adjusted in pattern and pitch so as to convert the laser light converted into parallel light by the collimator lens 120 into laser light of a dot pattern.
  • the DOE 140 irradiates the target region with the laser beam incident from the leakage mirror 130 as a laser beam having a dot pattern that spreads radially.
  • the size of each dot in the dot pattern depends on the beam size of the laser light when entering the DOE 140.
  • Laser light (0th order light) that is not diffracted by the DOE 140 passes through the DOE 140 and travels straight. Since the DOE 140 is optically designed so that the laser beam spreads radially from its exit surface, the position of the exit pupil of the projection optical system 100 is a position near the exit surface of the DOE 140.
  • the FMD 150 receives the laser light transmitted through the leakage mirror 130 and outputs an electrical signal corresponding to the amount of light received.
  • the laser light reflected from the target area enters the imaging lens 220 through the aperture 210.
  • the aperture 210 stops the light from the outside so as to match the F number of the imaging lens 220.
  • the imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240.
  • the filter 230 is an IR filter (Infrared Filter) that transmits light in the infrared wavelength band including the emission wavelength (about 830 nm) of the laser light source 110 and cuts the wavelength band of visible light.
  • the position of the entrance pupil of the light receiving optical system 200 is the position of the aperture of the aperture 210.
  • the CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal (charge) corresponding to the amount of received light to the imaging signal processing circuit 24 for each pixel.
  • the output speed of the signal is increased so that the signal (charge) of the pixel can be output to the imaging signal processing circuit 24 with high response from light reception in each pixel.
  • CPU 21 controls each unit according to a control program stored in memory 26. According to such a control program, the CPU 21 controls the laser light source 110 to control the laser light source 110, and automatically controls the light amount of the laser light source 110 in accordance with the signal amount output from the FMD 150. ) Functions of an APC control unit 21b that performs control and a distance calculation unit 21c for generating three-dimensional distance information are provided.
  • the laser drive circuit 22 drives the laser light source 110 according to a control signal from the CPU 21.
  • the PD signal processing circuit 23 amplifies and digitizes the voltage signal corresponding to the amount of received light output from the FMD 150 and outputs it to the CPU 21. Based on the signal supplied from the PD signal processing circuit 23, the CPU 21 determines to amplify or decrease the light amount of the laser light source 110 by processing by the APC control unit 21 b. When the APC control unit 21 b determines that the light amount of the laser light source 110 needs to be changed, the laser control unit 21 a transmits a control signal for changing the light emission amount of the laser light source 110 to the laser driving circuit 22.
  • the imaging signal processing circuit 24 controls the CMOS image sensor 240 and sequentially takes in the signal (charge) of each pixel generated by the CMOS image sensor 240 for each line. Then, the captured signals are sequentially output to the CPU 21. Based on the signal (imaging signal) supplied from the imaging signal processing circuit 24, the CPU 21 calculates the distance from the information acquisition device 1 to each part of the detection target by processing by the distance calculation unit 21c.
  • the input / output circuit 25 controls data communication with the information processing apparatus 2.
  • the information processing apparatus 2 includes a CPU 31, an input / output circuit 32, and a memory 33.
  • the information processing apparatus 2 has a configuration for performing communication with the television 3 and for reading information stored in an external memory such as a CD-ROM and installing it in the memory 33.
  • an external memory such as a CD-ROM
  • the configuration of these peripheral circuits is not shown for the sake of convenience.
  • the CPU 31 controls each unit according to a control program (application program) stored in the memory 33.
  • a control program application program
  • the CPU 31 is provided with the function of the object detection unit 31a for detecting an object in the image.
  • a control program is read from a CD-ROM by a drive device (not shown) and installed in the memory 33, for example.
  • the object detection unit 31a detects a person in the image and its movement from the three-dimensional distance information supplied from the information acquisition device 1. Then, a process for operating the character on the television screen according to the detected movement is executed by the control program.
  • the object detection unit 31 a detects a person in the image and its movement (gesture) from the three-dimensional distance information supplied from the information acquisition device 1. To do. Then, processing for controlling functions (channel switching, volume adjustment, etc.) of the television 3 is executed by the control program in accordance with the detected movement (gesture).
  • the input / output circuit 32 controls data communication with the information acquisition device 1.
  • FIG. 3A is a diagram schematically showing the irradiation state of the laser light on the target region
  • FIG. 3B is a diagram schematically showing the light receiving state of the laser light in the CMOS image sensor 240.
  • FIG. 6B shows a light receiving state when a flat surface (screen) exists in the target area.
  • laser light having a dot pattern (hereinafter, the entire laser light having this pattern is referred to as “DP light”) is irradiated onto the target area.
  • DP light laser light having a dot pattern
  • the light flux region of DP light is indicated by a solid line frame.
  • dot regions (hereinafter simply referred to as “dots”) in which the intensity of the laser light is increased by the diffraction action by the DOE 140 are scattered according to the dot pattern by the diffraction action by the DOE 140.
  • the light beam of DP light is divided into a plurality of segment regions arranged in a matrix.
  • dots are scattered in a unique pattern.
  • the dot dot pattern in one segment area is different from the dot dot pattern in all other segment areas.
  • each segment area can be distinguished from all other segment areas with a dot dot pattern.
  • the segment areas of DP light reflected thereby are distributed in a matrix on the CMOS image sensor 240 as shown in FIG.
  • the light in the segment area S0 on the target area shown in FIG. 11A is incident on the segment area Sp shown in FIG.
  • the light flux region of DP light is indicated by a solid frame, and for convenience, the light beam of DP light is divided into a plurality of segment regions arranged in a matrix.
  • the position of each segment area on the CMOS image sensor 240 is detected, and the position corresponding to each segment area of the detection target object based on the triangulation method from the detected position of each segment area.
  • the distance to is detected. Details of such a detection technique are described in, for example, Non-Patent Document 1 (The 19th Annual Conference of the Robotics Society of Japan (September 18-20, 2001), Proceedings, P1279-1280).
  • the projection optical system 100 when the projection optical system 100 is configured such that the optical path of the laser light emitted from the laser light source 110 is bent halfway and the laser light is directed to the DOE 140 as shown in FIG. In the direction, the projection optical system 100 can be thinned.
  • the light receiving optical system 200 since a large number of optical elements are arranged in the direction (Z-axis direction) toward the target area, the size in the projection direction of the light toward the target area is likely to be larger than that of the projection optical system 100. .
  • the light emission center and the light receiving center that is, the position of the exit pupil of the projection optical system 100 and the position of the entrance pupil of the light receiving optical system 200 are linear in the X-axis direction. Arranged to line up. By adjusting the position of the entrance pupil and the position of the exit pupil in this way, it is possible to reduce the burden of the distance calculation processing based on the triangulation method.
  • the exit pupil of the projection optical system 100 is in the vicinity of the exit surface of the DOE 140, and the entrance pupil of the light receiving optical system 200 is at the aperture position of the aperture 210. That is, each pupil position is substantially at the highest position of the projection optical system 100 and the light receiving optical system 200 in the projection direction.
  • the information acquisition apparatus 1 as a whole will be increased in size, although the projection optical system 100 is made thinner.
  • a configuration for reducing the size of the information acquisition device 1 is provided even when the light receiving optical system 200 is larger than the projection optical system 100 in the projection direction. .
  • FIG. 4 is an exploded perspective view showing a configuration example of the light emitting device 10 according to the present embodiment.
  • the light emitting device 10 is a device in which the projection optical system 100 in FIG. 2 is unitized together with other components.
  • FIG. 4 shows the front, rear, left, right and up directions along with the XYZ axes shown in FIG. The vertical direction is parallel to the Z-axis direction, the front-rear direction is parallel to the Y-axis direction, and the left-right direction is parallel to the X-axis direction.
  • light emitting device 10 includes laser holder 111, lens holder 121, and DOE holding spring in addition to laser light source 110, collimator lens 120, leakage mirror 130, DOE 140, and FMD 150 described above. 141, an FMD circuit board 151, a temperature detection circuit board 152, a housing 160, and a lens holder holding spring 170.
  • the laser light source 110 has a base 110a and a CAN 110b.
  • the base 110a has a circular outline with a part of the outer periphery cut out when viewed from the front.
  • the laser holder 111 is a frame member having a square outline in a front view and having a circular opening 111a formed at the center.
  • the opening 111a penetrates the laser holder 111 in the left-right direction, and has a configuration in which two cylindrical holes having different diameters are arranged on the same axis.
  • the diameter of the right hole of the opening 111a is larger than the diameter of the left hole, and a ring-shaped step is formed at the boundary where the diameter changes.
  • the diameter of the right hole of the opening 111 a is slightly larger than the diameter of the base 110 a of the laser light source 110.
  • the laser light source 110 is positioned with respect to the laser holder 111 by fitting the base 110a into the opening 111a from the right side until the left surface of the base 110a of the laser light source 110 contacts the step in the opening 111a. In this state, an adhesive is injected into a cutout on the outer periphery of the base 110 a, and the laser light source 110 is bonded and fixed to the laser holder 111.
  • the lens holder 121 is made of a frame member having a substantially circular outline in a front view and having an opening 121a formed at the center.
  • the opening 121a penetrates the lens holder 121 in the left-right direction, and has a configuration in which two cylindrical holes having different diameters are arranged on the same axis.
  • the diameter of the right hole of the opening 121a is smaller than the diameter of the left hole, and a ring-shaped step is formed at the boundary where the diameter changes.
  • the diameter of the right hole of the opening 121a is slightly smaller than the diameter of the collimator lens 120.
  • the collimator lens 120 is positioned with respect to the lens holder 121 by fitting the collimator lens 120 into the opening 121a from the left side until the right side of the collimator lens 120 contacts the step in the opening 121a. In this state, the collimator lens 120 is bonded and fixed to the lens holder 121.
  • Two grooves for allowing an adhesive to flow when the collimator lens 120 and the lens holder 121 are bonded and fixed are formed on the side surfaces of the lens holder 121, respectively.
  • the DOE presser spring 141 In the center of the DOE presser spring 141, an opening 141a for guiding the laser beam to the target area is formed.
  • the DOE 140 is fitted into the DOE holding spring 141 from below the DOE holding spring 141 and is fixedly bonded.
  • the DOE presser spring 141 is formed with a flange 141 b for fixing the DOE presser spring 141 to the housing 160 on the front and rear side surfaces.
  • the FMD circuit board 151 is a circuit board on which the FMD 150 and the capacitor 151a are mounted.
  • the PD signal processing circuit 23 shown in FIG. 2 is mounted on the FMD circuit board 151, and an amplification circuit that amplifies the electrical signal output from the FMD 150, an A / D conversion circuit that performs digital conversion, and the like are mounted.
  • an FPC (Flexible Printed Circuit) 151b for electrically connecting to the laser light source 110 are arranged so as to extend from the rear to the front. .
  • the capacitor 151a reduces electrical noise generated on the FMD circuit board 151.
  • the temperature detection circuit board 152 includes a thermistor and detects the temperature of the laser light source 110.
  • the housing 160 is a bottomed frame member having a rectangular outline in a top view.
  • the housing 160 has a symmetrical shape in the front-rear direction with respect to a plane parallel to the XZ plane.
  • two mirror mounting portions 160a inclined by 45 ° in the in-plane direction of the XZ plane are formed side by side in the front-rear direction. Further, on the left side of the mirror mounting portion 160a, a groove 160b for mounting the FMD circuit board 151 and an FMD mounting portion 160c are formed.
  • a U-shaped opening 160d is formed on the right side surface of the housing 160.
  • the width of the opening 160d in the front-rear direction is larger than the diameter of the CAN 110b of the laser light source 110.
  • a pair of inclined surfaces 160e facing each other are formed at the lower ends of the two inner side surfaces aligned in the front-rear direction of the housing 160.
  • the two inclined surfaces 160e are inclined by the same angle in the downward direction with respect to the plane parallel to the XY plane.
  • a hole 160f for mounting the flange 141b of the DOE pressing spring 141 and a hole 160g for mounting a flange 170b of the lens holder pressing spring 170 described later are formed on the side surface of the housing 160. Furthermore, a screw hole 160i for fixing the housing 160 to a base plate 300 described later is formed on the bottom surface near the center of the housing 160.
  • the lens holder holding spring 170 is a leaf spring having a spring property, and has a lower stepped portion 170a in the center.
  • the lens holder holding spring 170 has a symmetrical shape in the front-rear direction.
  • the lens holder holding spring 170 is formed with two flanges 170b for fixing the lens holder holding spring 170 to the housing 160 from above.
  • the leakage mirror 130 is mounted on the mirror mounting portion 160a in the housing 160 in FIG. Thereby, the leakage mirror 130 is installed in the housing 160 so as to have an inclination of 45 degrees in the in-plane direction of the XZ plane with respect to the XY plane.
  • the lens holder 121 to which the collimator lens 120 is mounted is placed on the pair of inclined surfaces 160e and accommodated in the housing 160.
  • the flange 170 b of the lens holder pressing spring 170 is inserted into the hole 160 f of the housing 160, and the lens holder pressing spring 170 is applied to the upper portion of the housing 160.
  • the upper horizontal surface of the lens holder 121 is pressed downward by the step portion 170 a of the lens holder pressing spring 170.
  • the lens holder 121 is pressed against the inclined surface 160e of the housing 160 by the bias of the lens holder holding spring 170, and is temporarily fixed so as not to move in the Y-axis direction (front-rear direction) and the Z-axis direction (up-down direction). Is done.
  • the rear surface of the laser holder 111 is brought into contact with the outer surface of the housing 160 so that the CAN 110b of the laser light source 110 is inserted into the U-shaped opening 160d of the housing 160.
  • a predetermined gap exists between the CAN 110b of the laser light source 110 and the opening 160d of the housing 160 so that the laser light source 110 can move in the YZ axis direction (up / down / left / right direction).
  • the laser light source 110 is displaced in the YZ axis direction (up / down / left / right direction), and the position adjustment in the YZ axis direction (up / down / left / right direction) is performed. .
  • the optical axis of the laser light source 110 and the optical axis of the collimator lens 120 are aligned.
  • the position of the lens holder 121 in the X-axis direction (left-right direction) is adjusted. Thereby, the focal position of the collimator lens 120 is appropriately positioned with respect to the light emitting point of the laser light source 110.
  • UV adhesive is evenly attached to the boundary between the two front and rear side surfaces of the laser holder 111 and the side surface of the housing 160. After the UV adhesive is attached, the deviation of the optical axis of the laser beam is confirmed again. If there is no problem, the UV adhesive is irradiated with ultraviolet rays, and the laser holder 111 is bonded and fixed to the housing 160. If there is a problem in confirming the deviation of the optical axis of the laser beam, the laser holder 111 is finely adjusted again, and then the UV adhesive is irradiated with ultraviolet rays, and the laser holder 111 is bonded and fixed to the housing 160. Is done.
  • a UV adhesive is evenly attached to the front and rear at positions where the lens holder 121 and the inclined surface 160e inside the housing 160 abut each other. After the UV adhesive is attached, the positional relationship between the laser light source 110 and the collimator lens 120 is confirmed again. If there is no problem, the UV adhesive is irradiated with ultraviolet rays, and the lens holder 121 is bonded and fixed to the housing 160. . If there is a problem in confirming the positional relationship between the laser light source 110 and the collimator lens 120, the lens holder 121 is finely adjusted again, and then the UV adhesive is irradiated with ultraviolet rays. Adhered and fixed to.
  • the flange 141b of the DOE holding spring 141 to which the DOE 140 is mounted is fitted into the hole 160f of the housing 160, and the DOE holding spring 141 is attached to the housing 160. It is fixed.
  • the FMD circuit board 151 is inserted into the groove 160b of the housing 160 from above.
  • the FMD circuit board 151 on which the FMD 150 and the capacitor 151a are mounted is positioned on the FMD mounting section 160c so that the upper end of the FMD circuit board 151 is aligned with the upper end of the FMD mounting section 160c.
  • the FMD circuit board 151 is positioned in this way, a part of the laser light emitted from the laser light source 110 passes through the leakage mirror 130 mounted on the mirror mounting portion 160a and enters the FMD 150. In this state, it is confirmed whether the detection signal is normally output from the FMD 150. If there is no problem, the FMD circuit board 151 is bonded and fixed to the FMD mounting portion 160c.
  • the position of the FMD circuit board 151 is adjusted until the detection signal is normally output.
  • the FMD 150 is mounted on the housing 160 so that the FMD 150 is properly positioned and the light receiving surface of the FMD 150 is perpendicular to the optical axis of the laser light source 110.
  • a portion of the FPC 151 b between the FMD circuit board 151 and the temperature detection circuit board 152 is bonded to the rear side surface of the housing 160.
  • the temperature detection circuit board 152 is positioned at a position facing the rear side surface of the laser holder 111.
  • the projection optical system 100 is configured such that the optical path of the laser light emitted from the laser light source 110 is bent, the light emitting device 10 can be thinned in the Z-axis direction. it can.
  • FIG. 5 is an exploded perspective view showing a configuration example of the light receiving device 20 according to the present embodiment.
  • the light receiving device 20 is a device in which the light receiving optical system 200 in FIG. 2 is unitized with other components.
  • FIG. 5 shows the front, rear, left, right and up directions along with the XYZ axes shown in FIG.
  • the vertical direction is parallel to the Z-axis direction
  • the front-rear direction is parallel to the Y-axis direction
  • the left-right direction is parallel to the X-axis direction.
  • the light receiving device 20 includes an image sensor circuit board 241, a lens barrel 250, and a lens holder 260 in addition to the aperture 210, the imaging lens 220, the filter 230, and the CMOS image sensor 240 described above. Yes.
  • the lens barrel 250 has a columnar shape with an opening 250a formed in the center, and the opening 250a has six stages of ring-shaped grooves 250b.
  • the dimensions of the grooves 250b are designed so as to be fitted to the aperture 210, the four imaging lenses 220, and the filter 230 in order from the top.
  • these grooves 250b are such that the optical axes of the four imaging lenses 220 coincide with each other, and the optical axes correspond to the center of the aperture of the aperture 210 and the center of the filter 230.
  • the dimensions are designed to penetrate
  • the lens holder 260 has a cylindrical portion 261 in which a circular opening 261a is formed, and a base plate mounting portion 262 for connecting and fixing to a base plate 300 described later.
  • the inner diameter of the opening 261 a is slightly larger than the outer diameter of the lens barrel 250.
  • the cylindrical part 261 has a substantially circular shape with a part of the position of the outer peripheral part in the front-rear direction missing in a top view.
  • the base plate mounting part 262 is formed with two screw holes 262 a for fixing the base plate mounting part 262 to the base plate 300.
  • a groove 262b for mounting the image sensor circuit board 241 is formed below the base plate mounting portion 262.
  • the image sensor circuit board 241 is a circuit board on which the CMOS image sensor 240 and the capacitor 241a are mounted.
  • the image signal processing circuit 24 shown in FIG. 2 is mounted on the image sensor circuit board 241.
  • the image sensor circuit board 241 is provided with an FPC 241b for electrically connecting to a subsequent circuit board on which the CPU 21 and the like are mounted.
  • the capacitor 241a reduces electrical noise generated in the image sensor circuit board 241.
  • the CMOS image sensor 240 schematically shows a region that can be imaged by the imaging lens 220. As shown in the figure, the imageable area is an area smaller than the size of the CMOS image sensor 240.
  • the aperture 210, the four imaging lenses 220, and the filter 230 are fitted into the groove 250 b in the lens barrel 250 in order from the top, and are bonded and fixed. Is done. Further, although not shown, after these optical elements are accommodated in the lens barrel 250, a protective window is attached to the upper surface of the lens barrel 250.
  • the lens barrel 250 is inserted into the opening 261a of the lens holder 260 from above. After the lens barrel 250 is accommodated at a predetermined position inside the opening 261a, the lens barrel 250 is bonded and fixed to the lens holder 260. Thereafter, as shown in FIG. 5B, the image sensor circuit board 241 is attached to the lens holder 260 from below the lens holder 260. Then, after the position of the CMOS image sensor 240 is adjusted so that the region imaged on the CMOS image sensor 240 by the imaging lens 220 is positioned in the imageable region of the CMOS image sensor 240, the CMOS image sensor 240 is The lens holder 260 is bonded and fixed. Thus, the assembly of the light receiving device 20 is completed.
  • FIG. 6 and 7 are perspective views showing an assembly process of the information acquisition device 1.
  • reference numeral 300 denotes a base plate that supports the light emitting device 10 and the light receiving device 20.
  • the light emitting device 10 and the light receiving device 20 are arranged on the base plate 300.
  • the base plate 300 has a shape with a narrow width in the front-rear direction (Y-axis direction) and a wide width in the left-right direction (X-axis direction).
  • the base plate 300 has a rib 300a whose outer edge is one step higher than other portions.
  • the rib 300a makes it difficult for the base plate 300 to bend in the positive and negative directions of the Z axis. Therefore, the detection accuracy of the information acquisition apparatus 1 can be ensured even when the base plate 300 having a narrow width in the front-rear direction is used as in the present embodiment.
  • the base plate 300 is formed with openings 301 and 302 for positioning when the light emitting device 10 is attached to the base plate 300, and screw holes (not shown) for attaching the light emitting device 10 are formed.
  • the base plate 300 is formed with an opening 303 for fitting the cylindrical portion 261 of the lens holder 260 from below (Z-axis negative direction).
  • the opening 303 has the same shape as the outer diameter of the cylindrical portion 261 and has a dimension that allows the cylindrical portion 261 to be fitted therein.
  • the base plate 300 is formed with screw holes 304a for temporarily fixing the lens holder 260 when adjusting the position, and four holes 304b for pouring an adhesive when fixing the adhesive.
  • the light emitting device 10 and the light receiving device 20 need to be arranged so that the exit pupil of the light emitting device 10 and the entrance pupil of the light receiving device are aligned on a straight line in the X-axis direction. Therefore, the base plate 300 has a step 305, and when the light receiving device 20 is attached to the base plate 300 from below (Z-axis negative direction), the position of the exit pupil of the light emitting device 10 matches the position of the entrance pupil of the light receiving device 20. Thus, the periphery of the right end of the base plate 300 is raised by one step in the laser light projection direction (Z-axis positive direction).
  • the installation interval between the light emitting device 10 and the light receiving device 20 is set according to the distance between the information acquisition device 1 and the reference plane of the target area.
  • the distance between the reference plane and the information acquisition device 1 varies depending on how far away the target is to be detected. The closer the distance to the target to be detected is, the narrower the interval between the light emitting device 10 and the light receiving device 20 is. Conversely, as the distance to the target to be detected increases, the installation interval between the light emitting device 10 and the light receiving device 20 increases.
  • the size of the base plate 300 increases in the direction in which the light emitting device 10 and the light receiving device 20 are arranged. Therefore, a flat space can be provided between the step 305 and the light emitting device 10 by providing the step 305 near the light receiving device 20 as in the present embodiment.
  • this space such as arranging circuit board members in this space, the apparatus can be miniaturized.
  • the light emitting device 10 When assembling the information acquisition device 1, first, the light emitting device 10 is disposed on the base plate 300 from above so that the bottom surface of the housing 160 contacts the edges of the openings 301 and 302 of the base plate 300. In this state, screw holes (not shown) formed in the base plate 300 and screw holes 160i (see FIG. 4) formed on the bottom surface of the light emitting device 10 are combined, and the housing 160 is connected to the base plate via these screw holes. 300 is screwed.
  • the light receiving device 20 is arranged so that the cylindrical portion 261 is fitted into the opening 303 and the base plate mounting portion 262a of the lens holder 260 is in contact with the base plate 300.
  • the screw holes 304a formed in the base plate 300 and the screw holes 262a formed in the lens holder 260 are combined, and the lens holder 260 is screwed to the base plate 300 through these screw holes.
  • an adhesive is introduced from the hole 304b, and the light receiving device 20 is bonded and fixed to the base plate 300. In this way, the structure shown in FIG. 7 is assembled.
  • the temperature detection circuit board 152 is disposed in the vicinity of the laser light source 110.
  • One end of the FPC 241b of the light receiving device 20 is connected to the image sensor circuit board 241 (see FIG. 5), and the other end is connected to the subsequent circuit board 500 (see FIG. 8A).
  • a circuit portion of the information acquisition device 1 such as the laser drive circuit 22 and the CPU 21 shown in FIG. 2 is mounted on the circuit board 500. Thereafter, a cover member (not shown) for protecting the base plate 300 from the outside is attached, and the assembly of the information acquisition device 1 is completed.
  • FIG. 8 is a schematic diagram showing the configuration of the information acquisition device 1 according to the present embodiment and the configuration of the information acquisition device 1 in the comparative example.
  • Each member of the information acquisition device 1 in the comparative example is configured in the same manner as the information acquisition device 1 in the present embodiment except for the light receiving device 20, the lens holder 260, and the base plate 300, and the same reference numerals are used. It is attached.
  • the projection optical system 100 is configured such that the optical path of the laser light emitted from the laser light source 110 is bent, the height of the light emitting device 10 in the Z-axis direction is determined. H is smaller than the height H ′ of the light receiving device 20. Further, as described above, the entrance pupil of the light receiving device 20 is in the position of the aperture of the aperture 210, and the exit pupil of the light emitting device 10 is in the vicinity of the exit surface of the DOE 140 (dotted line position in the figure).
  • the position of the exit pupil of the light emitting device 10 is the same height as the position of the entrance pupil of the light receiving device 20.
  • the base plate 300 has a step 305 having a height Hs
  • the light receiving device 20 has a base plate mounting portion 262 formed on the lens holder 260.
  • the base plate 300 is attached to the base plate 300 from the back side. Therefore, in the case of the present embodiment, the height to the pupil position including the base plate 300 is substantially equal to the height H of the light emitting device 10 plus the thickness d of the base plate 300 ′.
  • the information acquisition device 1 can be configured to be low. it can.
  • the width Wa of the image sensor fixed substrate is larger than the width Wb of the lens barrel 250.
  • the size of the CMOS image sensor 240 is larger than the range of the imageable region (see FIG. 5), and a plurality of capacitors 241a need to be arranged around the periphery. Wa tends to be larger than the width Wb of the lens barrel 250. Therefore, when the image sensor fixing substrate 241 is attached to the lens holder 260, the lens holder 260 has the smallest width (area when viewed in the optical axis direction) of the portion (cylinder portion 261) that holds the lens barrel 250. The width (area when viewed in the optical axis direction) of the portion (base plate mounting portion 262) where the image sensor fixing substrate 241 is mounted is the width of the portion holding the lens barrel 250 (when viewed in the optical axis direction). Area).
  • the lens holder 260 is attached to the base plate 300 from the back side of the base plate 300 by utilizing the fact that the width of the lens holder 260 is different between the upper and lower sides. That is, the lens holder 260 is fixed to the base plate 300 in a state where the narrow cylindrical portion 261 is inserted into the opening 303 and the wide base plate mounting portion 262 is engaged with the portion of the base plate 300 around the opening 303. .
  • the base plate mounting portion 262 is realized by a simple change in configuration such that the image sensor fixed substrate 241 is mounted and the width of the originally wide portion is slightly increased. For this reason, the light receiving device 20 can be fixed to the base plate 300 with a simple and compact configuration.
  • the projection optical system 100 is configured so that the optical path of the laser light emitted from the laser light source 110 is bent, the height of the light emitting device 10 in the direction toward the target region is reduced. can do.
  • the base plate 300 surrounds the optical axis of the imaging lens 220 even when the height of the light receiving device 20 is higher than the height of the light emitting device 10 in the projection direction. Since the lens holder 260 is held at this position, the information acquisition device 1 can be configured low.
  • the light receiving device 20 is fixed to the base plate 300 with a simple and compact configuration by providing the lens holder 260 with the base plate mounting portion 262 for fixing to the base plate 300. can do.
  • the aperture 210 is arranged on the target area side with respect to the other optical components of the light receiving optical system, as shown in FIG.
  • the optical element of the light receiving optical system is not disposed on the information acquisition device 1, and the information acquisition device 1 can be configured to be thin with good balance.
  • a flat space can be provided between the step 305 and the light emitting device 10 by providing the step 305 of the base plate 300 at a position close to the light receiving device 20. Therefore, the apparatus can be reduced in size by effectively utilizing this space.
  • the reinforcing rib 300a is provided on the outer edge of the base plate 300, the detection accuracy of the information acquisition device 1 is ensured even when the base plate 300 having a narrow width in the front-rear direction is used. can do.
  • the light emitting device 10 is configured such that the optical path of the laser light emitted from the laser light source 110 is bent.
  • the light emitting device 10 is configured side by side in the projection direction. May be.
  • the information acquisition device 1 can be configured to be low.
  • the step 305 is formed on the base plate 300 in order to match the height positions of the exit pupil of the light emitting device 10 and the entrance pupil of the light receiving device 20.
  • the step 305 may not be formed on the base plate 300 as shown in FIG. 9B.
  • a necessary space on the back surface of the position where the light receiving device 20 of the base plate 300 is disposed is increased, but an increase in height from the base plate 300 can be suppressed.
  • a space is required on the back surface of the position where the light receiving device 20 of the base plate 300 is disposed, so that the size of the circuit board 500 is adjusted.
  • the light receiving device 20 is fixed to the base plate 300 from the back by the base plate mounting portion 262 formed on the lens holder 260.
  • the base plate mounting portion 262 is provided. May be fixed from the upper side of the base plate 300. In this case, the base plate mounting portion 262 is screwed to the base plate 300 from above.
  • the lens holder 260 may not have the base plate mounting portion 262, and the base plate 300 may be directly fixed to the lens holder 260.
  • a groove may be formed in the lens holder 260 as shown in the figure, or if there is a constricted portion (step) in the lens holder 260 in advance, that portion may be used. Good.
  • the base plate 300 holds the lens holder 260.
  • the base plate 300 may hold the member. Thereby, the light receiving device 20 can be fixed to the base plate 300 in a compact and stable manner as in the above embodiment.
  • the filter 230 is disposed to remove light in a wavelength band other than the wavelength band of the laser light irradiated to the target region.
  • light other than the laser light irradiated to the target region is used.
  • the filter 230 can be omitted.
  • the arrangement position of the aperture 210 may be between any two imaging lenses.
  • the step 305 of the base plate 300 is provided at a position close to the light receiving device 20.
  • the step 305 may be provided at a position close to the light emitting device 10 or near the center of the base plate 300. May be.
  • the rib 300a for reinforcement is formed on the outer edge of the base plate 300, but the rib may not be formed.
  • the CMOS image sensor 240 is used as the light receiving element, but a CCD image sensor can be used instead. Furthermore, the configurations of the projection optical system 100 and the light receiving optical system 200 can be changed as appropriate.
  • the information acquisition device 1 and the information processing device 2 may be integrated, or the information acquisition device 1 and the information processing device 2 may be integrated with a television, a game machine, or a personal computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

受光光学系が投射光学系よりも高くなるような場合においても、装置の小型化を図ることができる情報取得装置および物体検出装置を提供する。情報取得装置(1)は、発光装置(10)と、受光装置(20)と、発光装置と受光装置とが所定の距離をおいて並ぶように、発光装置と受光装置を保持するベースプレート(300)とを備える。受光装置は、撮像レンズ(220)を含む複数の光学素子が撮像レンズの光軸方向に並ぶように配置された受光光学系(200)と、受光光学系を保持するレンズホルダ(260)とを備える。ベースプレートは、レンズホルダの撮像レンズの光軸を囲む周囲の位置においてレンズホルダを保持することにより、受光装置を保持する。これにより、情報取得装置を低く構成することができる。

Description

物体検出装置および情報取得装置
 本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。
 従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。
 所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、ドットの受光素子上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18-20日)予稿集、P1279-1280
 上記構成の物体検出装置では、ドットパターンを持つレーザ光の反射光を受光するための光学系として、アパーチャと、撮像レンズと、フィルタと、受光素子等が用いられる。これらの光学素子は、目標物を良好に撮像するため、通常、投射方向に並べて配置される。よって、投射方向における光学系の寸法は、ある程度、大きいものとなる。
 したがって、投射光学系を投射方向に小型化したとしても、受光光学系が投射方向にある程度大きい場合は、装置全体として、大型化を招くこととなる。
 本発明は、このような問題を解消するためになされたものであり、受光光学系が投射光学系よりも高くなるような場合においても、装置の小型化を図ることができる情報取得装置および物体検出装置を提供することを目的とする。
 本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、目標領域にドットパターンのレーザ光を照射する発光装置と、前記目標領域を撮像する受光装置と、前記発光装置と前記受光装置とが所定の距離をおいて並ぶように、前記発光装置と前記受光装置を保持するベースと、を備える。前記受光装置は、撮像レンズを含む複数の光学素子が前記撮像レンズの光軸方向に並ぶように配置された光学系と、前記光学系を保持する保持部材とを備える。前記ベースは、前記保持部材の前記光軸を囲む周囲の位置において前記保持部材を保持することにより、前記受光装置を保持する。
 本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
 本発明によれば、受光光学系が投射光学系よりも高くなるような場合においても、装置の小型化を図ることができる情報取得装置および物体検出装置を提供することができる。
 本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
実施の形態に係る物体検出装置の構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る目標領域に対するレーザ光の照射状態とイメージセンサ上のレーザ光の受光状態を示す図である。 実施の形態に係る発光装置の分解斜視図を示す図である。 実施の形態に係る受光装置の分解斜視図を示す図である。 実施の形態に係る情報取得装置の組立過程を示す図である。 実施の形態に係る情報取得装置の組立過程を示す図である。 実施の形態に係る情報取得装置の構成と比較例に係る情報取得装置の構成を示す図である。 他の変更例の情報取得装置の構成を示す図である。 他の変更例の情報取得装置の構成を示す図である。
 以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
 まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。
 情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
 情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
 たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
 また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
 図2は、情報取得装置1と情報処理装置2の構成を示す図である。
 情報取得装置1は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置1に配置される。
 投射光学系100は、レーザ光源110と、コリメータレンズ120と、リーケージミラー130と、回折光学素子(DOE:Diffractive Optical Element)140と、FMD(Front Monitor Diode)150とを備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、PD信号処理回路23と、撮像信号処理回路24と、入出力回路25と、メモリ26を備えている。
 レーザ光源110は、受光光学系200から離れる方向(X軸正方向)に波長830nm程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を平行光から僅かに広がった光(以下、単に「平行光」という)に変換する。
 リーケージミラー130は、誘電体薄膜の多層膜からなり、反射率が100%よりも若干低く、透過率が反射率よりも数段小さくなるように膜の層数や膜厚が設計されている(たとえば、反射率95%、透過率5%)。リーケージミラー130は、コリメータレンズ120側から入射されたレーザ光の大部分をDOE140に向かう方向(Z軸方向)に反射し、残りの一部分をFMD150に向かう方向(X軸方向)に透過する。
 DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、コリメータレンズ120により平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。
 DOE140は、リーケージミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。ドットパターンの各ドットの大きさは、DOE140に入射する際のレーザ光のビームサイズに応じたものとなる。DOE140にて回折されないレーザ光(0次光)は、DOE140を透過してそのまま直進する。DOE140は、その出射面からレーザ光が放射状に広がるよう光学設計されるため、投射光学系100の射出瞳の位置は、DOE140の出射面付近の位置となる。
 FMD150は、リーケージミラー130を透過したレーザ光を受光し、受光量に応じた電気信号を出力する。
 なお、投射光学系100と受光光学系200の詳細な構成は、追って図4ないし図7を参照して、説明する。
 目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。
 アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするIRフィルタ(Infrared Filter)である。このように、撮像レンズ220の前段にアパーチャ210が配置されるため、受光光学系200の入射瞳の位置は、アパーチャ210の絞りの位置となる。
 CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路24に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路24に出力できるよう、信号の出力速度が高速化されている。
 CPU21は、メモリ26に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、FMD150から出力された信号量に応じてレーザ光源110の光量の自動制御を行う、いわゆるAPC(Auto Power Control)制御を行うAPC制御部21bと、3次元距離情報を生成するための距離演算部21cの機能が付与される。
 レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。PD信号処理回路23は、FMD150から出力された受光量に応じた電圧信号を増幅およびデジタル化してCPU21に出力する。CPU21は、PD信号処理回路23から供給される信号をもとに、APC制御部21bによる処理によって、レーザ光源110の光量を増幅もしくは減少させる判断を行う。APC制御部21bにより、レーザ光源110の光量を変化させる必要があると判断された場合、レーザ制御部21aは、レーザ光源110の発光量を変化させる制御信号をレーザ駆動回路22に送信する。
 撮像信号処理回路24は、CMOSイメージセンサ240を制御して、CMOSイメージセンサ240で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路24から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、距離演算部21cによる処理によって算出する。入出力回路25は、情報処理装置2とのデータ通信を制御する。
 情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD-ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
 CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD-ROMから読み取られ、メモリ33にインストールされる。
 たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
 また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
 入出力回路32は、情報取得装置1とのデータ通信を制御する。
 図3(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図3(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)が存在するときの受光状態が示されている。
 投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。同図(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。
 なお、図3(a)では、便宜上、DP光の光束が、マトリックス状に並ぶ複数のセグメント領域に区分されている。各セグメント領域には、ドットが固有のパターンで点在している。一つのセグメント領域におけるドットの点在パターンは、他の全てのセグメント領域におけるドットの点在パターンと相違する。これにより、各セグメント領域は、ドットの点在パターンをもって、他の全てのセグメント領域から区別可能となっている。
 目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光の各セグメント領域は、同図(b)のように、CMOSイメージセンサ240上においてマトリックス状に分布する。たとえば、同図(a)に示す目標領域上におけるセグメント領域S0の光は、CMOSイメージセンサ240上では、同図(b)に示すセグメント領域Spに入射する。なお、図3(b)においても、DP光の光束領域が実線の枠によって示され、便宜上、DP光の光束が、マトリックス状に並ぶ複数のセグメント領域に区分されている。
 上記距離演算部21cでは、CMOSイメージセンサ240上における各セグメント領域の位置が検出され、検出された各セグメント領域の位置から、三角測量法に基づいて、検出対象物体の各セグメント領域に対応する位置までの距離が検出される。かかる検出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18-20日)予稿集、P1279-1280)に示されている。
 ところで、図2のように、レーザ光源110から出射されたレーザ光の光路を途中で折り曲げて、レーザ光をDOE140に向かわせるように、投射光学系100を構成すると、目標領域に向かう光の投射方向において、投射光学系100を薄型化することができる。しかし、一方、受光光学系200は、多数の光学素子が目標領域に向かう方向(Z軸方向)に並ぶため、投射光学系100よりも、目標領域に向かう光の投射方向における寸法が大きくなり易い。
 ここで、投射光学系100と受光光学系200は、それぞれの発光中心と受光中心、すなわち、投射光学系100の射出瞳の位置と、受光光学系200の入射瞳の位置がX軸方向において直線上に並ぶように配置される。このよう入射瞳の位置と射出瞳の位置を調整することにより、上記三角測量法に基づく測距の演算処理の負担を軽減することができる。
 本実施の形態では、上述のように、投射光学系100の射出瞳は、DOE140の出射面付近にあり、受光光学系200の入射瞳は、アパーチャ210の絞りの位置にある。すなわち、それぞれの瞳位置は、投射方向において、投射光学系100と受光光学系200の略一番高い位置にある。
 したがって、投射光学系100の射出瞳と受光光学系200の入射瞳の位置を上記のように調整するためには、投射光学系100の高さを受光光学系200の高さに合わせる必要がある。しかし、こうすると、投射光学系100を薄型化したにもかかわらず、情報取得装置1全体として、大型化を招くこととなる。
 そこで、本実施の形態では、投射方向において、受光光学系200が投射光学系100よりも大きくなるような場合であっても、情報取得装置1の小型化を図るための構成が配備されている。
 図4は、本実施の形態に係る発光装置10の構成例を示す分解斜視図である。発光装置10は、図2中の投射光学系100が他の部品とともにユニット化された装置である。なお、図4には、図2で示したX-Y-Z軸とともに、前後左右上下の方向が示されている。上下方向はZ軸方向に平行、前後方向はY軸方向に平行、左右方向はX軸方向に平行である。
 図4を参照して、発光装置10は、上述のレーザ光源110と、コリメータレンズ120と、リーケージミラー130と、DOE140と、FMD150の他に、レーザホルダ111と、レンズホルダ121と、DOE押さえバネ141と、FMD回路基板151と、温度検出回路基板152と、ハウジング160と、レンズホルダ押さえバネ170を備えている。
 図示の如く、レーザ光源110は、ベース110aとCAN110bとを有する。ベース110aは、正面視において、外周が一部切り欠かれた円形の輪郭を有する。
 レーザホルダ111は、正面視において正方形の輪郭を有し、中央に円形の開口111aが形成された枠部材からなっている。開口111aは、レーザホルダ111を左右方向に貫通しており、径が異なる円柱状の2つの穴が同軸上に並んだ構成となっている。開口111aの右方の穴の径は左方の穴の径よりも大きくなっており、径が変化する境界には、リング状の段差が形成されている。開口111aの右方の穴の径は、レーザ光源110のベース110aの径よりも僅かに大きい。レーザ光源110のベース110aの左面が開口111a内の段差に当接するまで、右側からベース110aを開口111aに嵌め込むことにより、レーザ光源110がレーザホルダ111に対して位置決めされる。この状態で、ベース110aの外周の切り欠きに接着材が注入され、レーザ光源110がレーザホルダ111に接着固定される。
 レンズホルダ121は、正面視において略円形の輪郭を有し、中央に開口121aが形成された枠部材からなっている。開口121aは、レンズホルダ121を左右方向に貫通しており、径が異なる円柱状の2つの穴が同軸上に並んだ構成となっている。開口121aの右方の穴の径は左方の穴の径よりも小さくなっており、径が変化する境界には、リング状の段差が形成されている。開口121aの右方の穴の径は、コリメータレンズ120の径よりも僅かに小さい。コリメータレンズ120の右方が開口121a内の段差に当接するまで、左側からコリメータレンズ120を開口121aに嵌め込むことにより、コリメータレンズ120がレンズホルダ121に対して位置決めされる。この状態で、コリメータレンズ120がレンズホルダ121に接着固定される。
 レンズホルダ121の側面には、それぞれ、コリメータレンズ120とレンズホルダ121を接着固定する際に接着剤を流入させるための2つの溝が形成されている。
 DOE押さえバネ141の中央には、レーザ光を目標領域に導くための開口141aが形成されている。DOE140は、DOE押さえバネ141の下方向から、DOE押さえバネ141に嵌め込まれ、接着固定される。また、DOE押さえバネ141は、前後の側面に、DOE押さえバネ141をハウジング160に固定するための鉤部141bが形成されている。
 FMD回路基板151は、FMD150と、コンデンサ151aを搭載する回路基板である。FMD回路基板151には、図2で示したPD信号処理回路23が搭載され、FMD150から出力された電気信号を増幅する増幅回路およびデジタル変換するA/D変換回路等が搭載されている。また、FMD回路基板151には、CPU21等が搭載された後段の回路基板およびレーザ光源110と電気的に接続するためのFPC(Flexible Printed Circuit)151bが後方から前方に延びるように配されている。コンデンサ151aは、FMD回路基板151に発生する電気的ノイズを低減させる。温度検出回路基板152は、サーミスタを備え、レーザ光源110の温度を検出する。
 ハウジング160は、上面視において長方形の輪郭の、有底の枠部材からなっている。ハウジング160は、X-Z平面に平行な面に対して前後方向に対称な形状となっている。
 ハウジング160の内部左側の側面には、X-Z平面の面内方向に45°傾いた2つのミラー装着部160aが前後方向に並んで形成されている。また、ミラー装着部160aの左方には、FMD回路基板151を装着するための溝160bとFMD装着部160cが形成されている。
 また、ハウジング160の右方の側面には、U字型の開口160dが形成されている。開口160dの前後方向の幅は、レーザ光源110のCAN110bの径よりも大きい。 
 また、ハウジング160の前後方向にならぶ2つの内側面の下端には、互いに向き合う一対の傾斜面160eが形成されている。2つの傾斜面160eは、それぞれ、X-Y平面に平行な面に対して下方向に同じ角度だけ傾いている。2つの傾斜面160eにレンズホルダ121を載せると、レンズホルダ121は、Y軸方向(前後方向)において、変位が規制される。
 ハウジング160の側面には、DOE押さえバネ141の鉤部141bを装着するための穴160fと、後述するレンズホルダ押さえバネ170の鉤部170bを装着するための穴160gが形成されている。さらに、ハウジング160の中央付近の底面には、ハウジング160を後述するベースプレート300に固定するためのネジ穴160iが形成されている。
 レンズホルダ押さえバネ170は、バネ性のある板ばねであり、中央に、一段低い段部170aを有する。レンズホルダ押さえバネ170は、前後方向に対称な形状を有する。レンズホルダ押さえバネ170には、レンズホルダ押さえバネ170をハウジング160に上部から固定するための2つの鉤部170bが形成されている。
 発光装置10の組立時には、まず、図4において、リーケージミラー130が、ハウジング160内のミラー装着部160aに装着される。これにより、リーケージミラー130が、X-Y平面に対してX-Z平面の面内方向に45度の傾きを持つように、ハウジング160内に設置される。
 次に、コリメータレンズ120が装着されたレンズホルダ121が、一対の傾斜面160e上に載せられ、ハウジング160の内部に収容される。
 そして、レンズホルダ押さえバネ170の鉤部170bがハウジング160の穴160fに差し込まれ、レンズホルダ押さえバネ170がハウジング160の上部に当てられる。このとき、レンズホルダ121の上部水平面が、レンズホルダ押さえバネ170の段部170aによって、下方向に押し付けられる。これにより、レンズホルダ121は、レンズホルダ押さえバネ170の付勢によって、ハウジング160の傾斜面160eに押し付けられ、Y軸方向(前後方向)、Z軸方向(上下方向)に動かないように仮固定される。
 こうしてレンズホルダ121がハウジング160に仮固定されると、レンズホルダ121と、ハウジング160の内側面の間には、レンズホルダ121がX軸方向(左右方向)に移動可能なように、所定の隙間が存在する。
 次に、レーザ光源110のCAN110bがハウジング160のU字型の開口160dに挿入されるよう、レーザホルダ111の後面がハウジング160の外側面に当てられる。レーザ光源110のCAN110bとハウジング160の開口160dとの間には、レーザ光源110がYZ軸方向(上下左右方向)に移動可能なように、所定の隙間が存在する。
 この状態で、調整用治具により、レーザホルダ111をハウジング160に押し付けつつ、レーザ光源110がYZ軸方向(上下左右方向)に変位され、YZ軸方向(上下左右方向)の位置調整が行われる。これにより、レーザ光源110の光軸とコリメータレンズ120の光軸が整合する。また、レンズホルダ121のX軸方向(左右方向)の位置調整が行われる。これにより、コリメータレンズ120の焦点位置がレーザ光源110の発光点に対して適正に位置付けられる。
 以上の位置調整によって、目標領域において所望のドットパターンが得られるようになる。
 こうして位置調整がなされた後、レーザホルダ111の前後の2つの側面とハウジング160の側面との境界に、前後均等にUV接着剤が添着される。UV接着剤が添着された後、再度、レーザ光の光軸のずれが確認され、問題なければ、UV接着剤に紫外線が照射されて、レーザホルダ111がハウジング160に接着固定される。なお、レーザ光の光軸のずれの確認において問題があった場合には、再度、レーザホルダ111が微調整された後に、UV接着剤に紫外線が照射され、レーザホルダ111がハウジング160に接着固定される。
 さらに、レンズホルダ121とハウジング160内部の傾斜面160eとが互いに当接する位置に、前後均等にUV接着剤が添着される。UV接着剤が添着された後、再度、レーザ光源110とコリメータレンズ120の位置関係が確認され、問題なければ、UV接着剤に紫外線が照射されて、レンズホルダ121がハウジング160に接着固定される。なお、レーザ光源110とコリメータレンズ120の位置関係の確認において問題があった場合には、再度、レンズホルダ121が微調整された後に、UV接着剤に紫外線が照射され、レンズホルダ121がハウジング160に接着固定される。
 こうして、ハウジング160に対するレーザ光源110とコリメータレンズ120の設置が完了した後、DOE140が装着されたDOE押さえバネ141の鉤部141bがハウジング160の穴160fに嵌め込まれ、DOE押さえバネ141がハウジング160に固着される。
 しかる後、ハウジング160の溝160bに、上方からFMD回路基板151が差し込まれる。このとき、FMD150とコンデンサ151aが装着されたFMD回路基板151が、FMD回路基板151の上端をFMD装着部160cの上端に揃えるようにして、FMD装着部160cに位置づけられる。このようにFMD回路基板151が位置づけられると、レーザ光源110から出射されたレーザ光の一部は、ミラー装着部160aに装着されたリーケージミラー130を透過し、FMD150に入射する。この状態で、FMD150から正常に検出信号が出力されるかが確認され、問題なければ、FMD回路基板151がFMD装着部160cに接着固定される。FMD150から正常に検出信号が出力されない場合、正常に検出信号が出力されるまで、FMD回路基板151の位置が調整される。これにより、FMD150が適正に位置づけられ、FMD150の受光面がレーザ光源110の光軸に対して垂直になるように、FMD150がハウジング160に装着される。さらに、FPC151bの、FMD回路基板151と温度検出回路基板152との間の部分が、ハウジング160の後側面に接着される。これにより、温度検出回路基板152がレーザホルダ111の後側面に対向する位置に位置付けられる。こうして、発光装置10の組み立てが完了する。
 本実施の形態では、上記のように、レーザ光源110から出射されたレーザ光の光路が折り曲げられるよう投射光学系100が構成されているため、Z軸方向において、発光装置10を薄くすることができる。
 図5は、本実施の形態に係る受光装置20の構成例を示す分解斜視図である。受光装置20は、図2中の受光光学系200が他の部品とともにユニット化された装置である。なお、図5には、図2で示したX-Y-Z軸とともに、前後左右上下の方向が示されている。上下方向はZ軸方向に平行、前後方向はY軸方向に平行、左右方向はX軸方向に平行である。
 図示の如く、受光装置20は、上述のアパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240の他に、イメージセンサ回路基板241と、鏡筒250と、レンズホルダ260を備えている。
 図5(a)を参照して、鏡筒250は、中央に開口250aが形成された円柱状の形状を有し、開口250aには、リング状の溝250bが6段形成されている。これらの溝250bは、上から順に、アパーチャ210と、4枚の撮像レンズ220と、フィルタ230と嵌合するように寸法が設計されている。また、これらの溝250bは、これらの部材が装着されたとき、4枚の撮像レンズ220の光軸が互いに一致し、また、この光軸が、アパーチャ210の絞りの中心と、フィルタ230の中心を貫くように寸法が設計されている。
 レンズホルダ260は、円形の開口261aが形成された筒部261と、後述するベースプレート300と接続固定するためのベースプレート装着部262を有している。開口261aの内径は、鏡筒250の外径よりもやや大きい。筒部261は、前後方向(Y軸方向)の省スペース化のため、上面視において、外周部の前後方向の位置が一部欠けた略円形の形状を有している。ベースプレート装着部262は、ベースプレート装着部262をベースプレート300に固定するための2つのネジ穴262aが形成されている。また、ベースプレート装着部262の下部には、イメージセンサ回路基板241を装着するための溝262bが形成されている。
 図5(b)を参照して、イメージセンサ回路基板241は、CMOSイメージセンサ240と、コンデンサ241aを搭載する回路基板である。イメージセンサ回路基板241には、図2で示した撮像信号処理回路24が搭載されている。また、イメージセンサ回路基板241には、CPU21等が搭載された後段の回路基板と電気的に接続するためのFPC241bが配されている。コンデンサ241aは、イメージセンサ回路基板241に発生する電気的ノイズを低減させる。なお、CMOSイメージセンサ240には、撮像レンズ220により撮像可能な領域が模式的に示されている。撮像可能領域は、図示のごとく、CMOSイメージセンサ240のサイズよりも小さい領域である。
 図5(a)に戻り、受光装置20の組立時には、まず、鏡筒250内の溝250bに、上から順に、アパーチャ210と、4枚の撮像レンズ220と、フィルタ230が嵌め込まれ、接着固定される。さらに、図示されていないが、これらの光学素子が鏡筒250に収容された後、鏡筒250の上面に保護窓が取り付けられる。
 次に、レンズホルダ260の開口261aに、上方から上記鏡筒250が挿入される。鏡筒250が開口261aの内部の所定の位置に収容された後、鏡筒250がレンズホルダ260に接着固定される。その後、図5(b)に示すように、レンズホルダ260の下方向から、イメージセンサ回路基板241がレンズホルダ260に取り付けられる。そして、撮像レンズ220によってCMOSイメージセンサ240上に結像される領域が、CMOSイメージセンサ240の撮像可能領域に位置づけられるようにX軸Y軸方向の位置調整がされた後、CMOSイメージセンサ240がレンズホルダ260に接着固定される。こうして、受光装置20の組み立てが完了する。
 図6、図7は、情報取得装置1の組立過程を示す斜視図である。
 図6において、300は、発光装置10と受光装置20を支持するベースプレートである。
 ベースプレート300には、発光装置10と受光装置20が配置される。ベースプレート300は、図示の如く、前後方向(Y軸方向)の幅が狭く、左右方向(X軸方向)の幅が広い形状を有している。また、ベースプレート300は、外縁が他の部分と比べ、一段高くなったリブ300aを有している。このリブ300aにより、ベースプレート300がZ軸正負の方向に撓みにくくなる。よって、本実施の形態のように、前後方向の幅が狭いベースプレート300を用いても、情報取得装置1の検出精度を確保することができる。
 ベースプレート300には、発光装置10をベースプレート300に取り付ける際の位置決めとなる開口301、302が形成されており、また、発光装置10を取り付けるためのネジ孔(図示せず)が形成されている。
 また、ベースプレート300には、下方(Z軸負方向)からレンズホルダ260の筒部261を嵌め込むための開口303が形成されている。開口303は、筒部261の外径と同様の形状を有しており、筒部261を嵌め込ませることができる寸法を有している。また、ベースプレート300には、レンズホルダ260の位置調整時に仮固定するためのネジ孔304aおよび、接着固定時に接着剤を流し込ませるための4つの孔304bが形成されている。
 前述のように、発光装置10と受光装置20は、それぞれ、発光装置10の射出瞳と、受光装置の入射瞳がX軸方向の直線上に並ぶように配置される必要がある。そのため、ベースプレート300は、段差305を有し、受光装置20を下方(Z軸負方向)からベースプレート300に取り付けた際、発光装置10の射出瞳の位置と受光装置20の入射瞳の位置が一致するように、ベースプレート300の右端周辺がレーザ光の投射方向(Z軸正方向)に一段高くなっている。
 また、発光装置10と受光装置20の設置間隔は、情報取得装置1と目標領域の基準面との距離に応じて、設定される。どの程度離れた目標物を検出対象とするかによって、基準面と情報取得装置1との間の距離が変わる。検出対象の目標物までの距離が近くなるほど、発光装置10と受光装置20の設置間隔は狭くなる。逆に、検出対象の目標物までの距離が遠くなるほど、発光装置10と受光装置20の設置間隔は広くなる。
 このように、ベースプレート300の大きさは、発光装置10と受光装置20の並び方向において広くなる。したがって、本実施の形態のように、段差305を受光装置20に近接した位置に設けることで、段差305と発光装置10との間に平坦なスペースを設けることができる。このスペースに回路基板の部材を配置する等、このスペースを有効活用することによって装置の小型化を図ることができる。
 情報取得装置1の組立時には、まず、ハウジング160の底面がベースプレート300の開口301、302の縁に当接するように、上方から、発光装置10がベースプレート300に配置される。この状態で、ベースプレート300に形成されたネジ孔(図示せず)と、発光装置10の底面に形成されたネジ穴160i(図4参照)が合わされ、これらネジ穴を介して、ハウジング160がベースプレート300に螺着される。
 次に、下方から、筒部261が開口303に嵌め込まれ、レンズホルダ260のベースプレート装着部262aがベースプレート300に当接するように、受光装置20が配置される。この状態で、ベースプレート300に形成されたネジ孔304aと、レンズホルダ260に形成されたネジ穴262aが合わされ、これらネジ穴を介して、レンズホルダ260がベースプレート300に螺着される。その後、受光装置20の角度調整がされた後、孔304bより接着剤が流入され、受光装置20は、ベースプレート300に接着固定される。こうして、図7に示す構成体が組み立てられる。
 発光装置10のFPC151bは、一端が温度検出回路基板152に接続され、また、一端がFMD回路基板151に接続され、さらに、もう一端が、後段の回路基板500(図8(a)参照)に接続される。温度検出回路基板152は、レーザ光源110の近傍に配置される。
 受光装置20のFPC241bは、一端がイメージセンサ回路基板241(図5参照)に接続され、また、もう一端が、後段の回路基板500(図8(a)参照)に接続される。回路基板500には、図2に示すレーザ駆動回路22、CPU21等の情報取得装置1の回路部が実装されている。その後、ベースプレート300を外部から保護するカバー部材(図示せず)が装着され、情報取得装置1の組立が完了する。
 図8は、本実施の形態に係る情報取得装置1の構成と比較例における情報取得装置1の構成を示す模式図である。なお、比較例における情報取得装置1の各部材は、受光装置20と、レンズホルダ260と、ベースプレート300を除き、本実施の形態における情報取得装置1と同様に構成されており、同一の符号が付されている。
 図8(a)を参照して、前述のごとく、レーザ光源110から出射されたレーザ光の光路が折り曲げられるよう投射光学系100が構成されているため、Z軸方向における発光装置10の高さHは、受光装置20の高さH’よりも小さい。また、前述の如く、受光装置20の入射瞳は、アパーチャ210の絞りの位置にあり、発光装置10の射出瞳は、DOE140の出射面付近にある(図中点線位置)。
 図8(b)に示す比較例のように、受光装置20’がベースプレート300’の上面に載置された場合、発光装置10の射出瞳の位置を受光装置20の入射瞳の位置と同じ高さに合わせるため、ベースプレート300’に高さhの段差300’aを設けて発光装置10を上方向にシフトさせる必要がある。したがって、比較例の場合、ベースプレート300’を含めた瞳位置までの高さは、略発光装置10の高さHと、段差300’aの高さhと、ベースプレート300’の厚みdとを加算したものとなる。
 一方、図8(a)に示すように、本実施の形態では、ベースプレート300は、高さHsの段差305を有しており、受光装置20は、レンズホルダ260に形成されたベースプレート装着部262によって、ベースプレート300の背面側からベースプレート300に装着されている。したがって、本実施の形態の場合、ベースプレート300を含めた瞳位置までの高さは、略発光装置10の高さHにベースプレート300’の厚みdを加算したものとなる。
 このように、本実施の形態では、投射方向において、受光装置20の高さH’が発光装置10の高さHよりも高くなる場合であっても、情報取得装置1を低く構成することができる。
 また、イメージセンサ固定基板の幅Waは、鏡筒250の幅Wbよりも大きい。前述のように、CMOSイメージセンサ240のサイズは、撮像可能領域(図5参照)の範囲よりも大きく、また、周辺に複数のコンデンサ241aを配置する必要があるため、イメージセンサ固定基板241の幅Waは、鏡筒250の幅Wbよりも大きくなりやすい。よって、イメージセンサ固定基板241をレンズホルダ260に装着する場合、レンズホルダ260は、鏡筒250を保持する部分(筒部261)の幅(光軸方向に見たときの面積)が最も小さくなり、イメージセンサ固定基板241が装着される部分(ベースプレート装着部262)の幅(光軸方向に見たときの面積)は、鏡筒250を保持する部分の幅(光軸方向に見たときの面積)よりも大きくなる。
 本実施の形態では、このようにレンズホルダ260の幅が上下で異なることを利用して、レンズホルダ260がベースプレート300の背面側からベースプレート300に装着される。すなわち、幅が狭い筒部261を開口303に挿入し、幅が広いベースプレート装着部262を開口303の周囲のベースプレート300の部分に係合させた状態で、レンズホルダ260がベースプレート300に固着される。
 このとき、ベースプレート装着部262は、イメージセンサ固定基板241が装着される、もともと幅が広い部分の幅をやや広げるといった、構成上の簡易な変更により実現される。このため、シンプルかつコンパクトな構成により、受光装置20をベースプレート300に固定することができる。
 以上、本実施の形態によれば、レーザ光源110から出射されたレーザ光の光路が折り曲げられるよう投射光学系100が構成されているため、目標領域に向かう方向の発光装置10の高さを低くすることができる。
 また、本実施の形態によれば、投射方向において、受光装置20の高さが、発光装置10の高さよりも高くなる場合であっても、ベースプレート300が、撮像レンズ220の光軸を囲む周囲の位置において、レンズホルダ260を保持しているため、情報取得装置1を低く構成することができる。
 また、本実施の形態によれば、受光装置20において、レンズホルダ260にベースプレート300に固定するためのベースプレート装着部262を設けることによって、シンプルかつコンパクトな構成により、受光装置20をベースプレート300に固定することができる。
 また、本実施の形態によれば、アパーチャ210が、受光光学系の他の光学部品よりも目標領域側に配置されているため、図8(a)のように、瞳位置よりも目標領域側に受光光学系の光学素子が配置されることがなく、情報取得装置1をバランスよく薄型に構成することができる。
 また、本実施の形態によれば、ベースプレート300の段差305を受光装置20に近接した位置に設けることで、段差305と発光装置10との間に平坦なスペースを設けることができる。したがって、このスペースを有効活用することによって、装置の小型化を図ることができる。
 さらに、本実施の形態によれば、ベースプレート300の外縁に補強のためのリブ300aを有しているため、前後方向の幅が狭いベースプレート300を用いても、情報取得装置1の検出精度を確保することができる。
 以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
 たとえば、上記実施の形態では、レーザ光源110から出射されたレーザ光の光路が折り曲げられるようにして発光装置10が構成されたが、図9(a)に示すように、投射方向に並んで構成されてもよい。この場合においても、上記実施の形態同様、受光装置20が発光装置10よりも高くなったとしても、情報取得装置1を低く構成することができる。
 また、上記実施の形態では、発光装置10の射出瞳と受光装置20の入射瞳の高さ位置を合わせるために、ベースプレート300に段差305が形成されたが、受光装置20よりも発光装置10がさらに低いような場合、図9(b)に示すように、ベースプレート300に段差305が形成されない構成としてもよい。この場合、上記実施の形態と比べて、ベースプレート300の受光装置20が配置される位置の背面に必要なスペースが大きくなるが、ベースプレート300からの高さが高くなることを抑えることができる。なお、本変更例では、図示のごとく、ベースプレート300の受光装置20が配置される位置の背面には、スペースが必要となるため、回路基板500の大きさが調整されている。
 また、上記実施の形態では、受光装置20は、レンズホルダ260に形成されたベースプレート装着部262によって、ベースプレート300に背面から固定されたが、図10(a)に示すように、ベースプレート装着部262がベースプレート300の上側から固定されてもよい。この場合、ベースプレート装着部262は、上側から、ベースプレート300にネジ留めされる。さらに、図10(b)に示すように、レンズホルダ260は、ベースプレート装着部262を有さず、ベースプレート300がレンズホルダ260に直接固定されてもよい。レンズホルダ260に直接固定するために、レンズホルダ260には、図示のように溝が形成されていてもよいし、予めレンズホルダ260にくびれ部分(段差)があれば、その部分を用いてもよい。
 また、上記実施の形態では、ベースプレート300は、レンズホルダ260を保持したが、受光装置20が、レンズホルダ260の他に、X-Y平面の面内における面積が小さくなる部材を有する場合、その部材をベースプレート300が保持してもよい。これにより、上記実施の形態同様、コンパクトかつ安定的に受光装置20をベースプレート300に固定することができる。
 また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230を省略することができる。また、アパーチャ210の配置位置は、何れか2つの撮像レンズの間であっても良い。
 また、上記実施の形態では、ベースプレート300の段差305は、受光装置20の近接した位置に設けられたが、発光装置10に近接した位置に設けられてもよいし、ベースプレート300の中央付近に設けられてもよい。
 さらに、本実施の形態によれば、ベースプレート300の外縁に補強のためのリブ300aが形成されたが、リブが形成されていなくてもよい。
 また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、情報取得装置1と情報処理装置2は一体化されてもよいし、情報取得装置1と情報処理装置2がテレビやゲーム機、パーソナルコンピュータと一体化されてもよい。
 本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
     1 … 情報取得装置
    10 … 発光装置
    20 … 受光装置
   110 … レーザ光源
   120 … コリメータレンズ
   130 … リーケージミラー(ミラー)
   140 … DOE(回折光学素子)
   200 … 受光光学系(光学系)
   210 … アパーチャ(光学素子)
   220 … 撮像レンズ(光学素子)
   240 … CMOSイメージセンサ(光学素子、撮像素子)
   250 … 鏡筒(保持部材)
   260 … レンズホルダ(保持部材)
   261 … 筒部(第1の保持部)
   262 … ベースプレート装着部(第2の保持部)
   300 … ベースプレート(ベース)
   303 … 開口

Claims (6)

  1.  目標領域にドットパターンのレーザ光を照射する発光装置と、
     前記目標領域を撮像する受光装置と、
     前記発光装置と前記受光装置とが所定の距離をおいて並ぶように、前記発光装置と前記受光装置を保持するベースと、を備え、
     前記受光装置は、撮像レンズを含む複数の光学素子が前記撮像レンズの光軸方向に並ぶように配置された光学系と、前記光学系を保持する保持部材とを備え、
     前記ベースは、前記保持部材の前記光軸を囲む周囲の位置において前記保持部材を保持することにより、前記受光装置を保持する、
    ことを特徴とする情報取得装置。
  2.  請求項1に記載の情報取得装置において、
     前記ベースは、前記受光装置を保持する部分が、前記発光装置を保持する部分よりも、前記目標領域側にシフトするよう構成されている、
    ことを特徴とする情報取得装置。
  3.  請求項1または2に記載の情報取得装置において、
     前記光学系は、前記光学素子として、前記撮像レンズと、撮像素子と、アパーチャと、を含み、
     前記保持部材は、前記撮像レンズと前記アパーチャとを保持する第1の保持部と、前記撮像素子を保持する第2の保持部とを備え、前記光軸方向から見たときに、前記第1の保持部の面積が前記第2の保持部の面積よりも小さくなっており、
     前記ベースは、前記第1の保持部を通し、且つ、前記第2の保持部を通さない大きさの開口を有し、
     前記保持部材は、前記第1の保持部が前記開口に挿入され、前記第2の保持部が前記開口の周囲の前記ベースの部分に係合する状態において、前記ベースに装着される、
    ことを特徴とする情報取得装置。
  4.  請求項3に記載の情報取得装置において、
     前記保持部材は、前記第2の保持部と前記ベースとが係合する位置において、前記第2の保持部と前記ベースとを接合することにより、前記ベースに固定される、
    ことを特徴とする情報取得装置。
  5.  請求項3または4に記載の情報取得装置において、
     前記アパーチャは、前記撮像レンズよりも前記目標領域側に配置され、
     前記発光装置は;
     レーザ光源と、
     前記レーザ光源から出射されたレーザ光を平行光に変換するコリメータレンズと、
     前記平行光に変換されたレーザ光を前記ドットパターンのレーザ光に変換する回折光学素子と、
     前記コリメータレンズを透過した前記レーザ光を前記回折光学素子の方向に向けて反射するミラーとを備える、
    ことを特徴とする情報取得装置。
  6.  請求項1ないし5の何れか一項に記載の情報取得装置を有する物体検出装置。
PCT/JP2012/064640 2011-06-24 2012-06-07 物体検出装置および情報取得装置 WO2012176623A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011141045A JP2014167387A (ja) 2011-06-24 2011-06-24 物体検出装置および情報取得装置
JP2011-141045 2011-06-24

Publications (1)

Publication Number Publication Date
WO2012176623A1 true WO2012176623A1 (ja) 2012-12-27

Family

ID=47422463

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/064640 WO2012176623A1 (ja) 2011-06-24 2012-06-07 物体検出装置および情報取得装置

Country Status (2)

Country Link
JP (1) JP2014167387A (ja)
WO (1) WO2012176623A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018026695A1 (en) * 2016-08-01 2018-02-08 Delta Design, Inc. Light line imager-based ic tray pocket detection system
US20220163321A1 (en) * 2020-11-20 2022-05-26 Keyence Corporation Optical measurement apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019053998A1 (ja) * 2017-09-13 2019-03-21 ソニー株式会社 距離測定モジュール
KR102488006B1 (ko) * 2018-03-20 2023-01-12 엘지이노텍 주식회사 카메라 모듈 및 이를 포함하는 광학 기기

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61132803A (ja) * 1984-12-03 1986-06-20 Toshiba Corp 位置検出器
JPH01318905A (ja) * 1988-06-20 1989-12-25 Omron Tateisi Electron Co マルチ・ビーム・プロジェクタおよびそれを利用した形状認識装置
JPH07329636A (ja) * 1994-06-09 1995-12-19 Yazaki Corp 車両周辺監視装置
JPH085571A (ja) * 1994-06-21 1996-01-12 New Kurieishiyon:Kk 検査装置
JP2003143459A (ja) * 2001-11-02 2003-05-16 Canon Inc 複眼撮像系およびこれを備えた装置
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2005246033A (ja) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd 状態解析装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2009204991A (ja) * 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
JP2009270915A (ja) * 2008-05-07 2009-11-19 Kagawa Univ 3次元形状の計測方法および装置
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法
JP2011117849A (ja) * 2009-12-03 2011-06-16 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
JP2011257267A (ja) * 2010-06-09 2011-12-22 Kawada Industries Inc 撮像面位置検出装置およびそれを具える作業ロボット

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61132803A (ja) * 1984-12-03 1986-06-20 Toshiba Corp 位置検出器
JPH01318905A (ja) * 1988-06-20 1989-12-25 Omron Tateisi Electron Co マルチ・ビーム・プロジェクタおよびそれを利用した形状認識装置
JPH07329636A (ja) * 1994-06-09 1995-12-19 Yazaki Corp 車両周辺監視装置
JPH085571A (ja) * 1994-06-21 1996-01-12 New Kurieishiyon:Kk 検査装置
JP2003143459A (ja) * 2001-11-02 2003-05-16 Canon Inc 複眼撮像系およびこれを備えた装置
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2005246033A (ja) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd 状態解析装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2009204991A (ja) * 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
JP2009270915A (ja) * 2008-05-07 2009-11-19 Kagawa Univ 3次元形状の計測方法および装置
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法
JP2011117849A (ja) * 2009-12-03 2011-06-16 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
JP2011257267A (ja) * 2010-06-09 2011-12-22 Kawada Industries Inc 撮像面位置検出装置およびそれを具える作業ロボット

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018026695A1 (en) * 2016-08-01 2018-02-08 Delta Design, Inc. Light line imager-based ic tray pocket detection system
US10438338B2 (en) 2016-08-01 2019-10-08 Delta Design, Inc. Light line imager-based IC tray pocket detection system
US20220163321A1 (en) * 2020-11-20 2022-05-26 Keyence Corporation Optical measurement apparatus
US11668559B2 (en) * 2020-11-20 2023-06-06 Keyence Corporation Optical measurement apparatus

Also Published As

Publication number Publication date
JP2014167387A (ja) 2014-09-11

Similar Documents

Publication Publication Date Title
US11373321B2 (en) Projector including meta-lens
US20190137665A1 (en) Projector including meta-lens
WO2011114571A1 (ja) 物体検出装置および情報取得装置
JP5106710B2 (ja) 物体検出装置および情報取得装置
US10110811B2 (en) Imaging module and imaging device
JP2005322911A (ja) 光学部品を含む組立体及びその組立方法
JP2013124985A (ja) 複眼式撮像装置および測距装置
WO2012176623A1 (ja) 物体検出装置および情報取得装置
JP2009042820A (ja) 光学的情報読取装置
JP2008233796A (ja) 撮像装置
JP5174285B1 (ja) 情報取得装置及び情報取得装置を搭載する物体検出装置
JP2013011511A (ja) 物体検出装置および情報取得装置
WO2014034014A1 (ja) 情報取得装置および物体検出装置
WO2012124208A1 (ja) 発光装置、情報取得装置およびこれを搭載する物体検出装置
JP5418458B2 (ja) 光学式変位センサの調整方法、光学式変位センサの製造方法、および光学式変位センサ
WO2012120729A1 (ja) 情報取得装置および情報取得装置を搭載する物体検出装置
WO2012132087A1 (ja) 受光装置、情報取得装置及び情報取得装置を有する物体検出装置
JP2014048128A (ja) 物体検出装置および情報取得装置
JP2014048129A (ja) 物体検出装置および情報取得装置
JP2014048122A (ja) 情報取得装置および物体検出装置
JP2014048192A (ja) 物体検出装置および情報取得装置
JP2014048124A (ja) 情報取得装置および物体検出装置
TWI749280B (zh) 結構光發射模塊、結構光感測模塊及電子裝置
JP2008122630A (ja) 光学素子の調整方法
JP2024056456A (ja) 治具、及び治具と装置のセット

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12801811

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12801811

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP