WO2013015146A1 - 物体検出装置および情報取得装置 - Google Patents

物体検出装置および情報取得装置 Download PDF

Info

Publication number
WO2013015146A1
WO2013015146A1 PCT/JP2012/068051 JP2012068051W WO2013015146A1 WO 2013015146 A1 WO2013015146 A1 WO 2013015146A1 JP 2012068051 W JP2012068051 W JP 2012068051W WO 2013015146 A1 WO2013015146 A1 WO 2013015146A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
distance
optical system
dot pattern
segment
Prior art date
Application number
PCT/JP2012/068051
Other languages
English (en)
French (fr)
Inventor
信雄 岩月
Original Assignee
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三洋電機株式会社 filed Critical 三洋電機株式会社
Publication of WO2013015146A1 publication Critical patent/WO2013015146A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Definitions

  • the present invention relates to an object detection apparatus that detects an object in a target area based on a state of reflected light when light is projected onto the target area, and an information acquisition apparatus suitable for use in the object detection apparatus.
  • An object detection device using light has been developed in various fields.
  • An object detection apparatus using a so-called distance image sensor can detect not only a planar image on a two-dimensional plane but also the shape and movement of the detection target object in the depth direction.
  • light in a predetermined wavelength band is projected from a laser light source or LED (Light-Emitting-Diode) onto a target area, and the reflected light is received by a light-receiving element such as a CMOS image sensor.
  • CMOS image sensor Light-Emitting-Diode
  • a distance image sensor of a type that irradiates a target region with laser light having a predetermined dot pattern reflected light from the target region of laser light having a dot pattern is received by a light receiving element. Based on the light receiving position of the dot on the light receiving element, the distance to each part of the detection target object (irradiation position of each dot on the detection target object) is detected using triangulation (for example, non-patent) Reference 1).
  • triangulation for example, non-patent
  • the dot pattern received by the photodetector when the reference plane is disposed at a position separated by a predetermined distance is compared with the dot pattern received by the photodetector at the time of actual measurement. Detection is performed. For example, a plurality of areas are set in the dot pattern with respect to the reference plane.
  • the object detection device detects the distance to the target object for each region based on the position on the dot pattern received during measurement of the dots included in each region.
  • the projection optical system for projecting the dot pattern laser light and the light receiving optical system for receiving the reflected light from the target area of the laser light having the dot pattern are detected objects. According to the distance to the target.
  • a part of the dot pattern projected from the projection optical system onto the target area may not be received by the light receiving optical system due to parallax. That is, there are dots that are included in the dot pattern with respect to the reference plane but are not included in the dot pattern received during measurement.
  • the present invention has been made to solve such a problem, and includes an information acquisition device capable of appropriately acquiring distance information even in a region where a light receiving optical system cannot receive a dot pattern due to parallax, and the information acquisition device.
  • An object of the present invention is to provide an object detection device.
  • the 1st aspect of this invention is related with the information acquisition apparatus which acquires the information of a target area
  • the information acquisition device is arranged so as to be lined up with a projection optical system that projects a laser beam with a predetermined dot pattern on a target area and spaced apart by a predetermined distance from the projection optical system,
  • a light receiving optical system that images a target area, a storage unit that holds a reference dot pattern imaged by the light receiving optical system when the laser beam is irradiated on a reference surface, and an actual measurement imaged by the light receiving optical system at the time of actual measurement
  • a distance acquisition unit that sets a segment area in a dot pattern and acquires information about a distance for a position in the target area corresponding to the segment area by collating the reference dot pattern with dots in the segment area; Have.
  • the second aspect of the present invention relates to an object detection apparatus.
  • the object detection apparatus according to this aspect includes the information acquisition apparatus according to the first aspect.
  • an information acquisition device capable of appropriately acquiring distance information and an object detection device equipped with the same even in a region where the light receiving optical system cannot receive a dot pattern due to parallax.
  • an information acquisition device of a type that irradiates a target area with laser light having a predetermined dot pattern is exemplified.
  • FIG. 1 shows a schematic configuration of the object detection apparatus according to the present embodiment.
  • the object detection device includes an information acquisition device 1 and an information processing device 2.
  • the television 3 is controlled by a signal from the information processing device 2.
  • the information acquisition device 1 projects infrared light over the entire target area and receives the reflected light with a CMOS image sensor, whereby the distance between each part of the object in the target area (hereinafter referred to as “three-dimensional distance information”). To get.
  • the acquired three-dimensional distance information is sent to the information processing apparatus 2 via the cable 4.
  • the information processing apparatus 2 is, for example, a controller for TV control, a game machine, a personal computer, or the like.
  • the information processing device 2 detects an object in the target area based on the three-dimensional distance information received from the information acquisition device 1, and controls the television 3 based on the detection result.
  • the information processing apparatus 2 detects a person based on the received three-dimensional distance information and detects the movement of the person from the change in the three-dimensional distance information.
  • the information processing device 2 is a television control controller
  • the information processing device 2 detects the person's gesture from the received three-dimensional distance information, and outputs a control signal to the television 3 in accordance with the gesture.
  • the application program to be installed is installed.
  • the user can cause the television 3 to execute a predetermined function such as channel switching or volume up / down by making a predetermined gesture while watching the television 3.
  • the information processing device 2 when the information processing device 2 is a game machine, the information processing device 2 detects the person's movement from the received three-dimensional distance information, and displays a character on the television screen according to the detected movement.
  • An application program that operates and changes the game battle situation is installed. In this case, the user can experience a sense of realism in which he / she plays a game as a character on the television screen by making a predetermined movement while watching the television 3.
  • FIG. 2 is a diagram showing the configuration of the information acquisition device 1 and the information processing device 2.
  • the information acquisition apparatus 1 includes a projection optical system 100 and a light receiving optical system 200 as a configuration of an optical unit.
  • the projection optical system 100 and the light receiving optical system 200 are arranged in the information acquisition apparatus 1 so as to be aligned in the X-axis direction.
  • the projection optical system 100 includes a laser light source 110, a collimator lens 120, a leakage mirror 130, a diffractive optical element (DOE: Diffractive Optical Element) 140, and an FMD (Front Monitor Diode) 150.
  • the light receiving optical system 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240.
  • the information acquisition apparatus 1 includes a CPU (Central Processing Unit) 21, a laser driving circuit 22, a PD signal processing circuit 23, an imaging signal processing circuit 24, an input / output circuit 25, A memory 26 is provided.
  • CPU Central Processing Unit
  • the laser light source 110 outputs laser light in a narrow wavelength band with a wavelength of about 830 nm in a direction away from the light receiving optical system 200 (X-axis negative direction).
  • the collimator lens 120 converts the laser light emitted from the laser light source 110 into light slightly spread from parallel light (hereinafter simply referred to as “parallel light”).
  • the leakage mirror 130 is composed of a multilayer film of dielectric thin films, and the number of layers and the thickness of the film are designed so that the reflectance is slightly lower than 100% and the transmittance is several steps smaller than the reflectance.
  • the leakage mirror 130 reflects most of the laser light incident from the collimator lens 120 side in the direction toward the DOE 140 (Z-axis direction) and transmits the remaining part in the direction toward the FMD 150 (X-axis negative direction).
  • the DOE 140 has a diffraction pattern on the incident surface. Due to the diffraction effect of the diffraction pattern, the laser light incident on the DOE 140 is converted into a dot pattern laser light and irradiated onto the target region.
  • the diffraction pattern has, for example, a structure in which a step type diffraction hologram is formed in a predetermined pattern. The diffraction hologram is adjusted in pattern and pitch so as to convert the laser light converted into parallel light by the collimator lens 120 into laser light of a dot pattern.
  • the DOE 140 irradiates the target region with the laser beam incident from the leakage mirror 130 as a laser beam having a dot pattern that spreads radially.
  • the size of each dot in the dot pattern depends on the beam size of the laser light when entering the DOE 140.
  • the FMD 150 receives the laser light transmitted through the leakage mirror 130 and outputs an electrical signal corresponding to the amount of light received.
  • the laser light reflected from the target area enters the imaging lens 220 through the aperture 210.
  • the aperture 210 stops the light from the outside so as to match the F number of the imaging lens 220.
  • the imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240.
  • the filter 230 is an IR filter (Infrared Filter) that transmits light in the infrared wavelength band including the emission wavelength (about 830 nm) of the laser light source 110 and cuts the wavelength band of visible light.
  • the CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal (charge) corresponding to the amount of received light to the imaging signal processing circuit 24 for each pixel.
  • the output speed of the signal is increased so that the signal (charge) of the pixel can be output to the imaging signal processing circuit 24 with high response from light reception in each pixel.
  • CPU 21 controls each unit according to a control program stored in memory 26. According to such a control program, the CPU 21 controls the laser light source 110 to control the laser light source 110, and automatically controls the light amount of the laser light source 110 in accordance with the signal amount output from the FMD 150. ) Functions of an APC control unit 21b that performs control and a distance acquisition unit 21c for generating three-dimensional distance information are provided.
  • the laser drive circuit 22 drives the laser light source 110 according to a control signal from the CPU 21.
  • the PD signal processing circuit 23 amplifies and digitizes the voltage signal corresponding to the amount of received light output from the FMD 150 and outputs it to the CPU 21.
  • the CPU 21 determines to amplify or decrease the light amount of the laser light source 110 by processing by the APC control unit 21 b.
  • the laser control unit 21 a transmits a control signal for changing the light emission amount of the laser light source 110 to the laser driving circuit 22. Thereby, the power of the laser beam emitted from the laser light source 110 is controlled to be substantially constant.
  • the imaging signal processing circuit 24 controls the CMOS image sensor 240 and sequentially takes in the signal (charge) of each pixel generated by the CMOS image sensor 240 for each line. Then, the captured signals are sequentially output to the CPU 21. Based on the signal (imaging signal) supplied from the imaging signal processing circuit 24, the CPU 21 calculates the distance from the information acquisition device 1 to each part of the detection target by processing by the distance acquisition unit 21c.
  • the input / output circuit 25 controls data communication with the information processing apparatus 2.
  • the information processing apparatus 2 includes a CPU 31, an input / output circuit 32, and a memory 33.
  • the information processing apparatus 2 has a configuration for performing communication with the television 3 and for reading information stored in an external memory such as a CD-ROM and installing it in the memory 33.
  • an external memory such as a CD-ROM
  • the configuration of these peripheral circuits is not shown for the sake of convenience.
  • the CPU 31 controls each unit according to a control program (application program) stored in the memory 33.
  • a control program application program
  • the CPU 31 is provided with the function of the object detection unit 31a for detecting an object in the image.
  • a control program is read from a CD-ROM by a drive device (not shown) and installed in the memory 33, for example.
  • the object detection unit 31a detects a person in the image and its movement from the three-dimensional distance information supplied from the information acquisition device 1. Then, a process for operating the character on the television screen according to the detected movement is executed by the control program.
  • the object detection unit 31 a detects a person in the image and its movement (gesture) from the three-dimensional distance information supplied from the information acquisition device 1. To do. Then, processing for controlling functions (channel switching, volume adjustment, etc.) of the television 3 is executed by the control program in accordance with the detected movement (gesture).
  • the input / output circuit 32 controls data communication with the information acquisition device 1.
  • FIG. 3 is a perspective view showing an installation state of the projection optical system 100 and the light receiving optical system 200.
  • the projection optical system 100 and the light receiving optical system 200 are disposed on the base plate 300.
  • the optical members constituting the projection optical system 100 are installed in the housing 100a, and the housing 100a is installed on the base plate 300. Thereby, the projection optical system 100 is arranged on the base plate 300.
  • Reference numerals 150a and 240a denote FPCs (flexible printed circuit boards) for supplying signals from the FMD 150 and the CMOS image sensor 240 to a circuit board (not shown), respectively.
  • the optical member constituting the light receiving optical system 200 is installed in the holder 200a, and this holder 200a is attached to the base plate 300 from the back surface of the base plate 300. As a result, the light receiving optical system 200 is disposed on the base plate 300.
  • the height in the Z-axis direction is higher than that of the projection optical system 100.
  • the periphery of the arrangement position of the light receiving optical system 200 is raised by one step in the Z-axis direction.
  • the positions of the exit pupil of the projection optical system 100 and the entrance pupil of the light receiving optical system 200 substantially coincide with each other in the Z-axis direction. Further, the projection optical system 100 and the light receiving optical system 200 are arranged with a predetermined distance in the X-axis direction so that the projection center of the projection optical system 100 and the imaging center of the light-receiving optical system 200 are aligned on a straight line parallel to the X axis. Installed at.
  • the installation interval between the projection optical system 100 and the light receiving optical system 200 is set according to the distance between the information acquisition device 1 and the reference plane of the target area.
  • the distance between the reference plane and the information acquisition device 1 varies depending on how far away the target is to be detected. The closer the distance to the target to be detected is, the narrower the installation interval between the projection optical system 100 and the light receiving optical system 200 is. Conversely, as the distance to the target to be detected increases, the installation interval between the projection optical system 100 and the light receiving optical system 200 increases.
  • FIG. 4A is a diagram schematically showing the irradiation state of the laser light on the target region
  • FIG. 4B is a diagram schematically showing the light receiving state of the laser light in the CMOS image sensor 240.
  • FIG. 5B shows a flat surface (screen) in the target area and a light receiving state when a person is present in front of the screen.
  • the projection optical system 100 irradiates a target region with laser light having a dot pattern (hereinafter, the entire laser light having this pattern is referred to as “DP light”). .
  • the luminous flux region of DP light is indicated by a solid line frame.
  • dot regions hereinafter simply referred to as “dots” in which the intensity of the laser light is increased by the diffraction action by the DOE 140 are scattered according to the dot pattern by the diffraction action by the DOE 140.
  • the DP light reflected thereby is distributed on the CMOS image sensor 240 as shown in FIG.
  • the DP light receiving area on the CMOS image sensor 240 is indicated by a broken line frame.
  • the light of Dt0 on the target area shown in FIG. 11A enters the position of Dt′0 shown in FIG.
  • An image of a person in front of the screen is taken upside down on the CMOS image sensor 240 in the vertical and horizontal directions.
  • FIG. 5 is a diagram for explaining a reference pattern setting method used in the distance detection method in the comparative example.
  • a flat reflection plane RS perpendicular to the Z-axis direction is disposed at a position at a predetermined distance Ls from the projection optical system 100.
  • the emitted DP light is reflected by the reflection plane RS and enters the CMOS image sensor 240 of the light receiving optical system 200.
  • an electrical signal for each pixel is output from the CMOS image sensor 240.
  • the output electric signal value (pixel value) for each pixel is developed on the memory 26 of FIG.
  • an image including all pixel values obtained by reflection from the reflection surface RS is referred to as a “reference image”, and the reflection surface RS is referred to as a “reference surface”.
  • FIG. 5B shows a state in which the light receiving surface is seen through in the positive direction of the Z axis from the back side of the CMOS image sensor 240. The same applies to the drawings after FIG.
  • a plurality of segment areas having a predetermined size are set for the reference pattern area thus set.
  • the size of the segment area is determined in consideration of the contour extraction accuracy of the object based on the obtained distance information and the load of the calculation amount of distance detection for the CPU 21.
  • the size of each segment area is indicated by 5 pixels ⁇ 5 pixels, and the center pixel of each segment area is indicated by a cross.
  • the segment areas are set so as to be arranged at intervals of one pixel in the X-axis direction and the Y-axis direction with respect to the reference pattern area. That is, a certain segment area is set at a position shifted by one pixel with respect to a segment area adjacent to the segment area in the X-axis direction and the Y-axis direction. At this time, each segment area is dotted with dots in a unique pattern. Therefore, the pattern of pixel values in the segment area is different for each segment area.
  • reference pattern area on the CMOS image sensor 240 information on the position of the reference pattern area on the CMOS image sensor 240, pixel values (reference patterns) of all pixels included in the reference pattern area, and segment area information set for the reference pattern area are shown in FIG. 2 memory 26. These pieces of information stored in the memory 26 are hereinafter referred to as “reference templates”.
  • the CPU 21 calculates the distance to each part of the object based on the shift amount of the dot pattern in each segment area obtained from the reference template.
  • DP light corresponding to a predetermined segment area Sn on the reference pattern is reflected by the object, and the segment area Sn. It is incident on a different region Sn ′. Since the projection optical system 100 and the light receiving optical system 200 are adjacent to each other in the X-axis direction, the displacement direction of the region Sn ′ with respect to the segment region Sn is parallel to the X-axis. In the case of FIG. 5A, since the object is at a position closer than the distance Ls, the region Sn 'is displaced in the positive direction of the X axis with respect to the segment region Sn. If the object is at a position farther than the distance Ls, the region Sn ′ is displaced in the negative X-axis direction with respect to the segment region Sn.
  • the distance Lr from the projection optical system 100 to the portion of the object irradiated with DP light (DPn) is triangulated using the distance Ls.
  • the distance from the projection optical system 100 is calculated for the part of the object corresponding to another segment area.
  • Non-Patent Document 1 The 19th Annual Conference of the Robotics Society of Japan (September 18-20, 2001), Proceedings, P1279-1280).
  • the distance in the comparative example it is detected which position the segment area Sn of the reference template is displaced at the time of actual measurement. This detection is performed by collating the dot pattern obtained from the DP light irradiated onto the CMOS image sensor 240 at the time of actual measurement with the dot pattern included in the segment region Sn.
  • an image made up of all pixel values obtained from DP light irradiated onto the CMOS image sensor 240 at the time of actual measurement will be referred to as an “actual measurement image”.
  • FIGS. 6A and 6B are diagrams for explaining the distance detection method in the comparative example.
  • FIG. 6A is a diagram showing a reference pattern region set in a standard image on the CMOS image sensor 240
  • FIG. 6B is a diagram showing an actually measured image on the CMOS image sensor 240 at the time of actual measurement.
  • FIGS. 6C to 6E are diagrams for explaining a method for collating the dot pattern of the DP light included in the actual measurement image and the dot pattern included in the segment area of the reference template.
  • FIGS. 6A and 6B only a part of the segment areas is shown for convenience.
  • FIG. 4 (b) there is a person in front of the reference plane as a detection target object, and the image of the person is reflected. It is shown.
  • a search range Ri is set for the segment area Si on the actual measurement image.
  • the search range Ri has a predetermined width in the X-axis direction.
  • the segment area Si is sent pixel by pixel in the search range Ri in the X-axis direction, and the dot pattern of the segment area Si is compared with the dot pattern on the measured image at each feed position.
  • a region corresponding to each feed position on the actually measured image is referred to as a “comparison region”.
  • a plurality of comparison areas having the same size as the segment area Si are set in the search range Ri, and the comparison areas adjacent in the X-axis direction are shifted by one pixel from each other.
  • the search range Ri is determined by the direction in which the detection target object moves away from the reference plane toward the information acquisition device 1 and the distance that can be detected in the approaching direction. In FIG. 6, there is a range of a position that is shifted by x pixels in the X-axis positive direction from a position shifted by x pixels in the X-axis negative direction from the pixel position on the actual measurement image corresponding to the pixel position of the segment region Si on the reference image.
  • the search range Ri is set.
  • the degree of matching between the dot pattern of the segment area Si stored in the reference template and the dot pattern of the DP light of the measured image is obtained at each feed position. It is done. As described above, the segment area Si is sent only in the X-axis direction within the search range Ri as described above. Normally, the dot pattern of the segment area set by the reference template is a predetermined value in the X-axis direction at the time of actual measurement. This is because the displacement occurs only within the range.
  • the pixel value of each pixel in the reference pattern area and the pixel value of each pixel in each segment area of the measured image are binarized and stored in the memory 26.
  • the pixel values of the reference image and the actually measured image are 8-bit gradations, among the pixel values of 0 to 255, pixels that are equal to or greater than a predetermined threshold are pixels whose pixel value is 1 and pixels that are less than the predetermined threshold are pixels
  • the value is converted to 0 and stored in the memory 26.
  • the similarity between the comparison region and the segment region Si is obtained. That is, the difference between the pixel value of each pixel in the segment area Si and the pixel value of the pixel corresponding to the comparison area is obtained.
  • a value Rsad obtained by adding the obtained difference to all the pixels in the comparison region is acquired as a value indicating the similarity.
  • FIG. 6D the value Rsad is obtained for all the comparison regions in the search range Ri for the segment region Si.
  • FIG. 6E is a graph schematically showing the magnitude of the value Rsad at each feed position in the search range Ri.
  • the minimum value Bt1 is referred to from the obtained value Rsad.
  • the second smallest value Bt2 is referred to from the obtained value Rsad. If the difference value Es between the minimum value Bt1 and the second smallest value Bt2 is less than the threshold value, the search for the segment area Si is regarded as an error.
  • the comparison area Ci corresponding to the minimum value Bt1 is determined as the movement area of the segment area Si.
  • the comparison area Ci is detected at a position shifted by ⁇ pixels in the X-axis positive direction from the pixel position Si0 on the measured image at the same position as the pixel position of the segment area Si on the reference image. The This is because the dot pattern of the DP light on the measured image is displaced in the X-axis positive direction from the segment area Si on the reference image by a detection target object (person) that is present at a position closer to the reference plane.
  • the segment area Si when the segment area Si is detected, it is expressed in gray scales from white to black according to the amount of deviation of the detected position of the segment area Si with respect to the pixel position Si0 (hereinafter referred to as “pixel deviation amount”).
  • pixel deviation amount This value is stored in the memory 26 as the distance information of the segment area Si.
  • the gradation of the color that is closer to white as the detection position of the segment area Si is closer to the pixel position Si0, and closer to black as the detection position of the segment area Si is shifted in the positive or negative X-axis direction from the pixel position Si0 in the search range Ri. Is assigned.
  • the gradation corresponding to the position shifted most in the X-axis positive or negative direction in the search range Ri that is, the gradation of the blackest color is stored in the memory 26.
  • the tone of the blackest color when the search for the segment region Si results in an error is referred to as “extreme value”.
  • the extreme value corresponds to the gradation when the segment region Si matches the position most shifted in the X-axis positive direction or negative direction.
  • segment area search is performed for all the segment areas from segment area S1 to segment area Sn.
  • FIG 7 and 8 are diagrams showing distance measurement examples when the distance detection method in the comparative example is used.
  • FIG. 7A is an image obtained by irradiating DP light with only a flat screen disposed as a reference plane at a distance of 700 mm from the information acquisition device 1 and capturing the reflected DP light.
  • This image corresponds to a reference image in the distance detection method of the comparative example.
  • dots are indicated by minute white dots.
  • FIG. 7B shows a state in which a flat screen is disposed at a distance of 1200 mm from the information acquisition apparatus 1 and a detection target object is disposed at a position of 700 mm from the information acquisition apparatus 1 (the same position as the reference plane). It is the image which irradiated DP light and imaged reflected DP light. This image corresponds to an actually measured image in the distance detection method of the comparative example. In the figure, a rectangular detection target object with a leg and a shadow caused by the detection target object are reflected near the center.
  • the shadow imaged by the light receiving optical system 200 is generated in the direction away from the projection optical system 100 (X-axis negative direction).
  • the dot in the Pt region in the reference image in FIG. 7A corresponds to the dot in the Ct region in the actually measured image in FIG. 7B.
  • the dot in the left part of the region Pt is shifted in the negative X-axis direction in the region Ct, and a shadow is reflected in the center of the region Ct.
  • the shadow portion of the region Ct does not include dots.
  • an area where the light receiving optical system 200 cannot capture an image is generated at a position on the X axis negative side from the shadow position.
  • the region where the light receiving optical system 200 cannot capture an image includes the DP light irradiation region of the projection optical system 100. That is, dots that are included in the reference image of FIG. 7A but are not included in the actually measured image of FIG. 7B are generated.
  • the dots in the Pu area in the reference image in FIG. 7A correspond to the dots in the Cu area in the actually measured image in FIG. 7B.
  • the area Cu is smaller than the area Pu because some of the dots in the area Pu cannot be imaged and the area where the dots cannot be imaged is missing.
  • FIG. 7C is a diagram showing a measurement result when matching is measured by performing the distance detection method in the comparative example using the reference image of FIG. 7A and the actually measured image of FIG. 7B. It is.
  • the segment area in which an error has occurred in the matching process is shown in black.
  • the black color of the error area is darker than the black color indicating the distance information obtained by the screen, and the screen distance information and the error information can be distinguished.
  • 8 (a) to 8 (c) are diagrams for explaining an example of matching of the region Pt of the reference image shown in FIG. 7 (a).
  • FIG. 8A schematically shows a dot pattern included in the region Pt of the reference image
  • FIG. 8B schematically shows a dot pattern included in the region Ct of the measured image
  • FIG. 8C is a graph schematically showing the magnitude of the value Rsad in the search range of the segment area St.
  • a segment area St of 15 pixels ⁇ 15 pixels is set in the area Pt of the standard image.
  • Pt1 and Pt2 regions having a plurality of dots are shown.
  • the number of pixels included in Pt1 is larger than the number of pixels included in Pt2.
  • the dots included in the region of Pt2 are irradiated to the detection target object, and correspond to the position of Ct2 in the actual measurement image Ct in FIG.
  • the dots included in the area of Pt1 are irradiated on the screen arranged behind, and correspond to the position of Ct1 shifted by 9 pixels in the negative X-axis direction in the measured image Ct in FIG. 8B.
  • the shaded portion of the actual measurement image Ct in FIG. 8B corresponds to approximately 9 pixels in the X-axis direction, and no dot is included in this region.
  • the value Rsad at the position where the pixel shift amount is ⁇ 9 is considerably smaller than the value Rsad at the position where the pixel shift amount is 0. Therefore, the difference between the minimum value of Rsad and the second smallest value exceeds the threshold value and does not cause an error, and distance information can be obtained appropriately.
  • the displacement position of the segment area can be appropriately detected except for a range of several pixels in the X-axis direction. Can do. Therefore, in the area Dt in FIG. 7C, the screen distance information and the pixel shift amount (gradation) indicating the distance information of the detection target object are appropriately obtained.
  • 8D to 8F are diagrams for explaining an example of matching the region Pu of the reference image shown in FIG.
  • FIG. 8D schematically shows the dot pattern included in the region Pu of the reference image
  • FIG. 8E schematically shows the dot pattern included in the region Cu of the measured image
  • FIG. FIG. 8F is a graph schematically showing the magnitude of the value Rsad in the search range of the segment area Su.
  • a segment area Su of 15 pixels ⁇ 15 pixels is set in the area Pu of the standard image. Further, in the reference image area Pu, areas of Pu1 and Pu2 having a plurality of dots are shown. The number of dots included in Pu1 is substantially the same as the number of dots included in Pu2. In addition, Pu1 and Pu2 are adjacent to each other in the X-axis direction with the boundary being in contact with each other. The segment area Su matches the area of Pu2.
  • the dots included in the Pu1 region are irradiated to the detection target object, and correspond to the position of Cu1 in the region Cu of the actually measured image in FIG.
  • the dots included in the Pu2 region are irradiated on the screen arranged behind, and the region Cu of the measured image in FIG. 8E corresponds to the position of Cu2 shifted by 9 pixels in the negative X-axis direction.
  • the dots in the area Pu3 corresponding to nine pixels in the negative X-axis direction included in Pu2 are not irradiated on the CMOS image sensor 240 of the light receiving optical system 200 due to the parallax, and do not exist in the area Cu2 of the actual measurement image. .
  • a dot pattern that is not detected by the CMOS image sensor 240 is indicated by a dotted circle due to parallax.
  • the dot pattern indicated by the dotted line corresponds to the dot pattern in the DP light irradiation region of the projection optical system 100 in FIG.
  • the dot pattern Pu3 that does not exist on the actual measurement image is compared, so that proper matching cannot be performed.
  • a dot pattern having a high similarity to the Pu3 dot pattern is detected by chance at the position where the pixel shift amount is -5, and Rsad is the smallest. Can happen.
  • a dot pattern having a high similarity to the Pu3 dot pattern at a position where the pixel shift amount is 7 may be detected.
  • a dot pattern with high similarity may not be detected and an error may occur.
  • the segment area is searched using the dot pattern not included in the actual measurement image. Therefore, in the area of Du in FIG. Incorrect matching has been made and the wrong distance has been measured.
  • the detection target object As the distance information, an area where the amount of pixel shift is small (an area close to white in the figure) continues.
  • segment area having the extreme value in error is excluded from the segment area for contour extraction.
  • the shape of the right portion (X-axis positive direction) of the detection target object extends in the Y-axis direction, and the detection target object is rectangular. I can not recognize that.
  • a segment area is set on the actual measurement image, and a dot pattern on the actual measurement image is searched within a predetermined search range on the reference image.
  • Distance detection is performed using a technique.
  • the distance detection method in the comparative example is referred to as “forward matching”, and the distance detection method in the present embodiment is referred to as “reverse matching”.
  • no segment area is set in the reference image, but the dot pattern of the reference image is stored in the memory 26 in advance as in the comparative example.
  • FIGS. 9 and 10 are diagrams for explaining a reference pattern setting method used in the reverse matching distance detection method in the present embodiment.
  • FIG. 9A is an actual measurement image obtained from DP light irradiated onto the CMOS image sensor 240 during actual measurement.
  • the actually measured image shows that a person is present as a detection target object before the reference plane and an image of the person is reflected, as in FIG. 6B.
  • FIG. 9B is a diagram showing an example of setting segment areas.
  • FIG. 10 is a diagram showing a flow of segment area setting processing in reverse matching.
  • an area in a predetermined range smaller than the size of the actual measurement image is set as a reference pattern area on the actual measurement image (S1), and information on the position of the reference pattern area on the CMOS image sensor 240 is obtained. Then, the pixel values (reference patterns) of all the pixels included in the reference pattern area are stored in the memory 26 (S2).
  • the specified vertical and horizontal widths values previously stored in the memory 26 are referred to, and in this embodiment, the values of 15 and 15 are referred to.
  • the CPU 21 determines whether or not the position of the segment area Si has reached the right end of the reference pattern area (S6). If the position of the segment area Si has not reached the right end of the reference pattern area (S6: NO), 1 is added to i (S7), and an area shifted by one pixel in the X-axis positive direction from the position of the segment area Si is obtained. The segment region Si is set by designating (S8). Thereafter, the CPU 21 returns the process to S5.
  • the position of the segment area Si is the lower end of the reference pattern area. Is determined (S9).
  • segment area Si When the segment area Si is set from the left end of the upper end of the reference pattern area to the right end of the lower end, and the position information of the segment area Si is stored in the memory 26 (S9: YES), as shown in FIG.
  • the segment areas are set so as to be arranged at intervals of one pixel in the X-axis direction and the Y-axis direction with respect to the pattern area, and the processing ends.
  • the pattern of pixel values in each segment area differs for each segment area.
  • information on the position of the reference pattern area on the CMOS image sensor 240 pixel values (reference patterns) of all pixels included in the reference pattern area, and information on the position of the segment area set for the reference pattern area are obtained. It is stored in the memory 26 as a reference template. As the segment area information, only the information regarding the position on the CMOS image sensor 240 is stored in the memory 26, but the pixel value in the segment area may be stored.
  • the CPU 21 in FIG. 2 determines the distance to each part of the object based on the amount of deviation of the dot pattern in each segment area obtained from the reference template. Is calculated.
  • the calculation method of the distance is calculated based on the triangulation method using the displacement amount of the segment area as in the comparative example.
  • FIG. 11 and FIG. 12 are diagrams for explaining the distance detection method in the present embodiment.
  • FIG. 11A is a diagram showing a reference image on the CMOS image sensor 240
  • FIG. 11B is a diagram showing a reference pattern region set in the actual measurement image on the CMOS image sensor 240 at the time of actual measurement.
  • FIG. 11C to FIG. 11E are diagrams for explaining a collation method between the DP light dot pattern included in the reference image and the dot pattern included in the segment area of the reference template.
  • FIGS. 11A and 11B only a part of the segment areas is shown for convenience. Further, in the actual measurement image of FIG. 11B, it is shown for convenience that a human image is reflected as a detection target object.
  • the dot pattern included in the segment area set on the reference image is searched in a predetermined search range on the actual measurement image.
  • the dot pattern included in the segment area set to is searched in a predetermined search range on the reference image.
  • a search range Ri is set for the segment area Si. Similar to the comparative example, the search range Ri is set to a range of x pixels in the X-axis positive / negative direction around the pixel position on the reference image at the same position as the pixel position of the segment region Si on the measured image.
  • a comparison area is set within the search range Ri. Adjacent comparison regions are shifted from each other by one pixel in the X-axis positive or negative direction. In each comparison region, the degree of matching between the dot pattern of the segment region Si stored in the reference template and the dot pattern of the DP light of the standard image is obtained.
  • 12 (a) and 12 (b) are diagrams illustrating the flow of processing of distance detection for reverse matching.
  • the CPU 21 uses the reference template stored in the memory 26 by the process shown in FIG. 9B to determine pixel information (reference pattern) of the actually measured image and the CMOS image sensor 240.
  • Information on the position of the reference pattern area is read (S11).
  • the CPU 21 sets 1 to the variable i (S12), reads the position information of the segment area Si on the CMOS image sensor 240 from the memory 26, and reads the position information of the segment area Si and the actually measured image read in S11.
  • the pixel information of the segment area Si on the measured image is set (S13).
  • the pixel information of the segment area Si is binarized and set as in the comparative example.
  • a position on the reference image that is the same position as the position of the segment area Si on the measured image is set (S14).
  • the CPU 21 sets ⁇ x to the variable j (S15), and reads pixel information of the comparison area at a position separated by j pixels in the X-axis direction from the position on the reference image set in S14 (S16). Note that the pixel information in the comparison area is binarized and set in the same manner as in the comparative example. Then, the pixel information of the comparison area read in S16 and the pixel information of the segment area Si read in S13 are compared, and the value Rsad is calculated by the equation shown in FIG. The calculated value Rsad is stored in the memory 26 in association with the pixel shift amount j of the segment area Si. Thereafter, the CPU 21 determines whether the variable j is equal to x (S18). When the variable j is not equal to x (S18: NO), the CPU 21 adds 1 to the variable j (S19), and returns the process to S16.
  • the CPU 21 calculates the minimum value Bt1 and the second value from the value Rsad associated with the pixel shift amount j and stored in the memory 26. A small value Bt2 is read and the difference value Es is calculated (S201). Then, the CPU 21 determines whether the calculated difference value Es is equal to or greater than a threshold value (S202).
  • the CPU 21 regards the comparison area corresponding to the pixel shift amount of the minimum value Bt1 as matched with the segment area Si, and responds to the pixel shift amount of the minimum value Bt1.
  • the distance is calculated (S203). As described above, the distance corresponding to the segment region Si is obtained by the triangulation method based on the pixel shift amount.
  • FIG. 11D is a graph schematically showing the magnitude of the value Rsad at each feed position in the search range Ri.
  • the comparison area Ci corresponding to the segment area Si on the actual measurement image is the pixel position on the reference image at the same position as the pixel area of the segment area Si on the actual measurement image, contrary to the comparative example of FIG. It is detected at a position shifted by ⁇ pixels in the negative X-axis direction from Si0 (pixel shift amount 0). This is because the dot pattern on the reference image is changed by using the segment region Si on the measured image after the dot pattern is displaced in the positive direction of the X axis by the detection target object (person) existing at a position closer to the reference plane. This is because of matching.
  • the CPU 21 sets error information on the assumption that there is no region matching the dot pattern of the segment region Si (S204). .
  • the CPU 21 sets an extremum of the range of distances that can be acquired as error information. That is, the distance obtained when the segment area Si matches the comparison area in the most X-axis positive direction or the most X-axis negative direction of the search range Ri is set as error information.
  • the distance acquisition process ends based on the comparison result of the segment area Si.
  • the CPU 21 determines whether the variable i is equal to n (S21). If the variable i is not equal to n (S21: NO), 1 is added to the variable i (S22), and the process returns to S13. In n, the number of segment areas set in the reference pattern area is set, and the processes in steps S13 to S20 are repeated for all the segment areas set in the reference pattern area. The number of segment areas set in the reference pattern area is set, for example, by holding the variable i at the end of the reference pattern setting process in FIG. 10 in the memory 26 and reading the value. When the variable i is equal to n (S21: YES), the distance detection is completed for all the segment areas, and the process ends.
  • FIG. 13 and FIG. 14 are diagrams showing an example of distance measurement in the case of using the distance detection method of reverse matching.
  • FIG. 13 (a) is the same reference image as FIG. 7 (a), and FIG. 13 (b) is the same actual measurement image as FIG. 7 (b).
  • the region Pw includes a shadow region of the detection target object, and the region Pv includes a part of the dot pattern irradiated by the projection optical system 100. Due to the parallax, an area that cannot be imaged by the light receiving optical system 200 is included.
  • FIG. 13 (c) is a diagram showing a measurement result when the distance is measured by the inverse matching method using the reference image of FIG. 13 (a) and the actual image of FIG. 13 (b).
  • colors from white to black are shown according to the amount of pixel shift in each segment area shown in FIG. Contrary to the positive matching method shown in FIG. 7C, a color closer to black is shown as the pixel shift amount is closer to zero, and a color closer to white is shown as the pixel shift amount is larger. Therefore, in the case of FIG. 7C and the case of FIG. 13C, the white and black gradations indicating the measurement result of the detection target object are inverted. Furthermore, the area in error is shown in black. The black color of the error area is darker than the black color indicating the distance information obtained by the detection target object, and the distance information of the detection target object and the error information can be distinguished.
  • 14 (a) to 14 (c) are diagrams for explaining a matching example of the area Pw of the actually measured image in FIG. 13 (b).
  • FIG. 14A schematically shows the dot pattern included in the area Pw of the measured image
  • FIG. 14B schematically shows the dot pattern included in the area Cw of the reference image
  • FIG. 14C is a graph schematically showing the magnitude of the value Rsad in the search range of the segment area Sw.
  • the area Pw of the measured image shows Pw1 and Pw2 areas having a plurality of dots and shadow areas.
  • the number of pixels included in Pw1 is larger than the number of pixels included in Pw2.
  • the dots included in the Pw1 area are dots irradiated on the screen arranged behind, and are 9 pixels shifted in the X-axis negative direction from the position of the Cw1 area in FIG. 14B.
  • DP light is blocked by the detection target object, and no dots are included.
  • the dots included in the Pw2 region are the dots irradiated to the detection target object, and are the same as the position of the Cw1 region in FIG.
  • a segment area Sw of 15 pixels ⁇ 15 pixels is set in the area Pw of the actual measurement image, and the segment area Sw includes a Pw2 area, a shadow area, and a Pw1 area on the right side (X-axis positive). Area) Pw3 of 3 pixels ⁇ 15 pixels.
  • the shadow area corresponds to approximately 9 pixels in the X-axis direction, and the number of pixels included in the Pw2 area and the Pw3 area is substantially equal.
  • a value Rsad as shown in FIG. 14C is obtained.
  • the dot pattern of Pw2 matches the dot pattern of Cw2 at the position where the pixel shift amount is 0, and the value of Rsad is slightly smaller than the other parts. Further, at the position where the pixel shift amount is 9, the dot pattern of the region Pw3 for the right three pixels in the region of Pw1 matches the dot pattern of the region for the right three pixels of the region of Cw1, and the value of Rsad is It is slightly smaller than the other parts.
  • the region of 9 pixels ⁇ 15 pixels in the segment region of 15 pixels ⁇ 15 pixels becomes a shadow region, and the value of Rsad is considerably large as a whole. . Therefore, at the position where the pixel shift amount is 0 and the position where the pixel shift amount is 9, Rsad is slightly smaller than the other portions, but the difference Es2 from the other portions of Rsad is considerably small. Therefore, the difference Es2 does not exceed the threshold value, and matching results in an error.
  • the segment area including the shadow portion is reverse-matched, the segment area is searched using dots that do not exist in the comparison area as in the case where the Pu area in FIG. 7A is positively matched. There is no possibility that the distance will be measured incorrectly.
  • 14 (d) to 14 (f) are diagrams for explaining a matching example of the area Pv of the actually measured image in FIG. 13 (a).
  • FIG. 14D schematically shows the dot pattern included in the area Pv of the actual measurement image
  • FIG. 14E schematically shows the dot pattern included in the area Cv of the reference image
  • FIG. 14F is a graph schematically showing the magnitude of the value Rsad in the search range of the segment area Sv.
  • the area Pv of the measured image shows Pv1 and Pv2 areas having a plurality of dots.
  • the dots included in the Pv1 region are irradiated on the detection target object and correspond to the position of Cv1 in FIG.
  • the dots included in the Pv2 region are irradiated on the screen disposed behind, and correspond to a region corresponding to 6 pixels in the positive X-axis direction of the Cv2 region in FIG.
  • the dots included in the area corresponding to 9 pixels in the negative X-axis direction of the area Cv2 in FIG. 14E are not irradiated on the CMOS image sensor 240 due to the parallax, and are detected in the area Pv on the actual measurement image. Absent.
  • a dot pattern that is not detected by the CMOS image sensor 240 is indicated by a dotted circle due to parallax.
  • a segment area Sv of 15 pixels ⁇ 15 pixels is set in the area Pv of the measured image, and the segment area Sv includes 9 pixels on the right side (X-axis positive direction) of the Pv2 area and the Pv1 area.
  • a region Pv3 for x15 pixels is included.
  • the dot pattern of Pv2 matches the dot pattern of the region for the right six pixels in the Cv2 region, and the value of Rsad is slightly smaller than the other portions. Since the number of pixels included in Pv3 is larger than the number of pixels included in Pv2, the value Rsad at the position of pixel shift amount 0 is considerably smaller than the value Rsad at the position of pixel shift amount ⁇ 9. Therefore, the difference between the minimum value of Rsad and the second smallest value exceeds the threshold value and does not cause an error, and distance information can be obtained appropriately.
  • the distance detection is performed using inverse matching, the distance is not measured incorrectly even if the area where the dot pattern is not detected due to parallax is included, and the displacement position of the segment area is properly detected. can do. Therefore, in the area of Dv in FIG. 13C, the gradation indicating the distance information of the screen and the distance information of the detection target object is appropriately obtained.
  • an error region (Er2) is generated on the left side of the detection target object as shown in FIG.
  • the Er2 region includes almost no segment region in which the distance is erroneously detected as described above. For this reason, the contour of the object is not easily extracted by including many segment areas in which the distance is erroneously detected, such as the Er1 area in the positive matching.
  • FIG. 15A is a graph showing the ratio of the gradation (pixel shift amount) included in the Er1 region of the measurement result in the positive matching shown in FIG. 7C.
  • FIG. 15B is a graph showing the ratio of the gradation (pixel shift amount) included in the Er2 region of the measurement result in the reverse matching shown in FIG.
  • the horizontal axis of the graph indicates gradation, and 0 is an extreme value.
  • the vertical axis of the graph indicates the appearance frequency (number) of segment areas for each gradation.
  • the sizes of the Er1 and Er2 areas are each 3 pixels ⁇ 300 pixels, and a total of 2400 segment areas correspond to each area.
  • the number of segment areas where the gradation is 0 is 1700.
  • the unit of gradation is indicated by 10, but all the gradations included in the range of 0 to 10 are 0.
  • the remaining 700 segment areas are dispersed in other gradations as shown.
  • the number of segment regions where the gradation is 0 is 2373.
  • all the gradations included in the range of 0 to 10 were 0.
  • the number of segment regions where the gradation is not extreme was only 27.
  • the Er2 region contains almost no segment region in which the distance is erroneously detected. For this reason, the contour of the detection target object can be appropriately extracted in the Er2 region.
  • an error area (Er2) is generated on the left side of the detection target object, and the distance detection result of this area is almost uniformly an error. For this reason, the area corresponding to the detection target object, the area corresponding to the screen, and the error area can be distinguished, and the outline of the detection target object can be appropriately extracted.
  • the overall error occurrence rate is higher, but the distance is less likely to be erroneously measured, and the object contour can be easily extracted. Therefore, particularly in the case where the main purpose is to detect the movement of an object, such as an object detection device, a distance detection method using inverse matching is preferable.
  • the dot pattern on the reference image is collated based on the dot pattern on the measured image, a part of the dot pattern irradiated to the screen by the light receiving optical system 200 due to the parallax is partially obtained. It is possible to appropriately obtain distance information even for an area that cannot be imaged.
  • the distance detection result can be made an error almost uniformly. Therefore, it is possible to easily extract the contour of the entire detection target object.
  • the extremum of the obtainable distance range is set, so that it is possible to appropriately extract the contour of the object without deleting the error area. it can. That is, since the extremum of the range of distance that can be acquired is set as error information, the distance between the area corresponding to the detection target object, the error area adjacent to this area, and the background area A step can be provided, and the contour of the detection target object can be extracted by detecting this step. For example, in FIG. 13C, since the Er2 region has an extreme value, a step of pixel shift amount (gradation) appears between the Er2 region and the left and right regions adjacent thereto. By detecting this step, the left contour of the detection target object can be extracted.
  • distance detection is performed using reverse matching for all regions to be detected, but distance detection may be performed using reverse matching only for some regions.
  • the region where the light receiving optical system 200 cannot capture an image is likely to occur in the right direction (X-axis positive direction) from the detection target object. Therefore, for example, as shown in FIGS. 16A and 16B, when the detection target object is located at the approximate center of the imaging region, the left half region is used by using inverse matching for the right half region.
  • Distance detection may be performed using positive matching. This makes it easy to use reverse matching in areas where the light receiving optical system 200 cannot capture images, and to easily use positive matching in areas that are shadows of the detection target object, thereby reducing the overall error rate of distance detection. Can do.
  • the detection target object has a complicated shape such as a person
  • an area where the light receiving optical system 200 cannot capture an image may be generated even in the left part of the detection target object (for example, the right hand periphery of the person in the figure).
  • positive matching is used in an area where the light receiving optical system 200 cannot capture an image, the distance may be erroneously detected, and extraction of some contours may be inappropriate. Therefore, using the reverse matching for all the regions to be detected as in the above-described embodiment is more suitable for extracting the contour of the entire detection target object than in this modification.
  • the segment areas are set so that the adjacent segment areas overlap each other, but the segment areas may be set so that the segment areas adjacent to the left and right do not overlap each other.
  • the segment areas may be set so that the segment areas adjacent in the vertical direction do not overlap each other.
  • the shift amount of the segment areas adjacent in the vertical and horizontal directions is not limited to one pixel, and the shift amount may be set to another number of pixels.
  • the size of the segment area is set to 15 pixels ⁇ 15 pixels, but can be arbitrarily set according to the detection accuracy.
  • the segment area is searched for within the predetermined range in the negative X-axis direction and the positive X-axis direction on the reference image. For example, the entire area in the X-axis direction on the reference image A segment area search may be performed.
  • an error is determined based on whether the difference between Rsad with the highest matching rate and Rsad with the next highest matching rate exceeds a threshold.
  • An error may be determined based on whether Rsad having the highest collation rate exceeds a predetermined threshold.
  • the pixel values of the pixels included in the segment area and the comparison area are binarized before calculating the matching rate between the segment area and the comparison area. You may match using a value as it is.
  • the pixel value obtained by the CMOS image sensor 240 is binarized as it is.
  • the pixel value is subjected to correction processing such as predetermined pixel weighting processing and background light removal processing. After performing, you may binarize.
  • the distance information is obtained using the triangulation method and stored in the memory 26.
  • the distance using the triangulation method is set.
  • the displacement amount (pixel shift amount) of the segment area may be acquired as the distance information without calculating.
  • a predetermined range area smaller than the size of the actual measurement image is set as the reference pattern area on the actual measurement image.
  • the reference pattern area may be set with the same size as the actual measurement image.
  • the search range corresponding to the segment area at the left end or the right end of the reference pattern region includes a range in which the dot pattern is not irradiated on the standard image, which is likely to cause an error, but for other regions, As with the above embodiment, distance information can be acquired appropriately.
  • the FMD 150 is used for the projection optical system 100, but the FMD 150 may be omitted.
  • the filter 230 is disposed to remove light in a wavelength band other than the wavelength band of the laser light irradiated to the target region.
  • light other than the laser light irradiated to the target region is used.
  • the filter 230 can be omitted.
  • the arrangement position of the aperture 210 may be between any two imaging lenses.
  • the CMOS image sensor 240 is used as the light receiving element, but a CCD image sensor can be used instead. Furthermore, the configurations of the projection optical system 100 and the light receiving optical system 200 can be changed as appropriate. Further, the information acquisition device 1 and the information processing device 2 may be integrated, or the information acquisition device 1 and the information processing device 2 may be integrated with a television, a game machine, or a personal computer.
  • DESCRIPTION OF SYMBOLS 1 Information acquisition apparatus 21 ... CPU (distance acquisition part) 21c ... Distance acquisition unit 24 ... Imaging signal processing circuit (distance acquisition unit) 26 ... Memory (storage unit) DESCRIPTION OF SYMBOLS 100 ... Projection optical system 110 ... Laser light source 120 ... Collimator lens 140 ... DOE (diffractive optical element) 200 ... Light receiving optical system

Abstract

 視差により受光光学系がドットパターンを受光できない領域についても、適正に距離情報を取得可能な情報取得装置およびこれを搭載する物体検出装置を提供する。情報取得装置(1)は、投射光学系(100)と、受光光学系(200)と、基準面にレーザ光を照射したときに受光光学系により撮像された基準画像を保持するメモリ(26)と、実測時に受光光学系により撮像された実測画像にセグメント領域を設定し、基準画像とセグメント領域内のドットとを照合することにより、セグメント領域に対応する目標領域内の位置について距離に関する情報を取得する距離取得部(21c)と、を有する。基準画像のドットパターンと実測画像のセグメント領域内のドットとを照合することにより、視差により受光光学系がドットパターンを受光できない領域についても、適正に距離情報を取得できる。

Description

物体検出装置および情報取得装置
 本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。
 従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。
 所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、ドットの受光素子上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18-20日)予稿集、P1279-1280
 上記物体検出装置では、所定距離だけ離れた位置に基準面を配したときに光検出器に受光されるドットパターンと、実測時に光検出器により受光されるドットパターンとが比較されて、距離の検出が行われる。たとえば、基準面に対するドットパターンに複数の領域が設定される。物体検出装置は、各領域に含まれるドットが実測時に受光したドットパターン上のどの位置に移動したかに基づいて、領域毎に、対象物体までの距離を検出する。
 また、上記構成の物体検出装置では、ドットパターンのレーザ光を投射するための投射光学系と、ドットパターンを持つレーザ光の目標領域からの反射光を受光するための受光光学系が、検出対象の目標物までの距離に応じて、離れて配置される。
 検出対象の目標物がある場合、視差により、投射光学系から目標領域に投射されたドットパターンの一部が、受光光学系によって受光されないことが起こり得る。すなわち、基準面に対するドットパターンには含まれるが、実測時に受光したドットパターンには含まれないドットが生ずる。
 この場合、基準面に対するドットパターンにしか含まれないドットを用いて、実測時に受光したドットパターンとの比較を行うと、不正確な位置のドットを検出し、適正な距離情報を得られない惧れがある。
 本発明は、このような問題を解消するためになされたものであり、視差により受光光学系がドットパターンを受光できない領域についても、適正に距離情報を取得可能な情報取得装置およびこれを搭載する物体検出装置を提供することを目的とする。
 本発明の第1の態様は、光を用いて目標領域の情報を取得する情報取得装置に関する。本態様に係る情報取得装置は、目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され、前記目標領域を撮像する受光光学系と、基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンを保持する記憶部と、実測時に前記受光光学系により撮像された実測ドットパターンにセグメント領域を設定し、前記基準ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離に関する情報を取得する距離取得部と、を有する。
 本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
 本発明によれば、視差により受光光学系がドットパターンを受光できない領域についても、適正に距離情報を取得可能な情報取得装置およびこれを搭載する物体検出装置を提供することができる。
 本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。
実施の形態に係る物体検出装置の構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る投射光学系と受光光学系の外観を示す斜視図である。 実施の形態に係る目標領域に対するレーザ光の照射状態とイメージセンサ上のレーザ光の受光状態を示す図である。 比較例に係る参照パターンの生成方法を説明する図である。 比較例に係る距離検出手法を説明する図である。 比較例に係る距離検出結果を示す図である。 比較例に係る投射光学系による影の領域と受光光学系から見えない領域の距離検出結果を説明する図である。 実施の形態に係る参照パターンの生成方法を説明する図である。 実施の形態に係る参照パターンの生成方法の流れを示す図である。 実施の形態に係る距離検出手法を説明する図である。 実施の形態に係る距離検出処理の流れを示す図である。 実施の形態に係る距離検出結果を示す図である。 実施の形態に係る投射光学系による影の領域と受光光学系が撮像できない領域の距離検出結果を説明する図である。 実施の形態に係る極値の割合のグラフおよび比較例に係る極値の割合のグラフである。 変更例に係る距離検出手法を説明する図である。
 以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
 まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。
 情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
 情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
 たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
 また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
 図2は、情報取得装置1と情報処理装置2の構成を示す図である。
 情報取得装置1は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置1に配置される。
 投射光学系100は、レーザ光源110と、コリメータレンズ120と、リーケージミラー130と、回折光学素子(DOE:Diffractive Optical Element)140と、FMD(FrontMonitor Diode)150とを備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、PD信号処理回路23と、撮像信号処理回路24と、入出力回路25と、メモリ26を備えている。
 レーザ光源110は、受光光学系200から離れる方向(X軸負方向)に波長830nm程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を平行光から僅かに広がった光(以下、単に「平行光」という)に変換する。
 リーケージミラー130は、誘電体薄膜の多層膜からなり、反射率が100%よりも若干低く、透過率が反射率よりも数段小さくなるように膜の層数や膜厚が設計されている。リーケージミラー130は、コリメータレンズ120側から入射されたレーザ光の大部分をDOE140に向かう方向(Z軸方向)に反射し、残りの一部分をFMD150に向かう方向(X軸負方向)に透過する。
 DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、コリメータレンズ120により平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。
 DOE140は、リーケージミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。ドットパターンの各ドットの大きさは、DOE140に入射する際のレーザ光のビームサイズに応じたものとなる。
 FMD150は、リーケージミラー130を透過したレーザ光を受光し、受光量に応じた電気信号を出力する。
 目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。
 アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするIRフィルタ(Infrared Filter)である。
 CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路24に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路24に出力できるよう、信号の出力速度が高速化されている。
 CPU21は、メモリ26に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、FMD150から出力された信号量に応じてレーザ光源110の光量の自動制御を行う、いわゆるAPC(Auto Power Control)制御を行うAPC制御部21bと、3次元距離情報を生成するための距離取得部21cの機能が付与される。
 レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。PD信号処理回路23は、FMD150から出力された受光量に応じた電圧信号を増幅およびデジタル化してCPU21に出力する。CPU21は、PD信号処理回路23から供給される信号をもとに、APC制御部21bによる処理によって、レーザ光源110の光量を増幅もしくは減少させる判断を行う。APC制御部21bにより、レーザ光源110の光量を変化させる必要があると判断された場合、レーザ制御部21aは、レーザ光源110の発光量を変化させる制御信号をレーザ駆動回路22に送信する。これにより、レーザ光源110から出射されるレーザ光のパワーが略一定に制御される。
 撮像信号処理回路24は、CMOSイメージセンサ240を制御して、CMOSイメージセンサ240で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路24から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、距離取得部21cによる処理によって算出する。入出力回路25は、情報処理装置2とのデータ通信を制御する。
 情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD-ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
 CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD-ROMから読み取られ、メモリ33にインストールされる。
 たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
 また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
 入出力回路32は、情報取得装置1とのデータ通信を制御する。
 図3は、投射光学系100と受光光学系200の設置状態を示す斜視図である。
 投射光学系100と受光光学系200は、ベースプレート300に配置される。投射光学系100を構成する光学部材は、ハウジング100aに設置され、このハウジング100aがベースプレート300上に設置される。これにより、投射光学系100がベースプレート300上に配置される。150a、240aは、それぞれ、FMD150、CMOSイメージセンサ240からの信号を回路基板(図示せず)に供給するためのFPC(フレキシブルプリント基板)である。
 受光光学系200を構成する光学部材は、ホルダ200aに設置され、このホルダ200aが、ベースプレート300の背面からベースプレート300に取りつけられる。これにより、受光光学系200がベースプレート300に配置される。なお、受光光学系200は、Z軸方向に光学部材が並ぶため、投射光学系100と比べ、Z軸方向の高さが高くなっている。ベースプレート300は、Z軸方向の高さを抑えるために、受光光学系200の配置位置周辺がZ軸方向に一段高くなっている。
 図3に示す設置状態において、投射光学系100の射出瞳と受光光学系200の入射瞳の位置は、Z軸方向において、略一致する。また、投射光学系100と受光光学系200は、投射光学系100の投射中心と受光光学系200の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置される。
 投射光学系100と受光光学系200の設置間隔は、情報取得装置1と目標領域の基準面との距離に応じて、設定される。どの程度離れた目標物を検出対象とするかによって、基準面と情報取得装置1との間の距離が変わる。検出対象の目標物までの距離が近くなるほど、投射光学系100と受光光学系200の設置間隔は狭くなる。逆に、検出対象の目標物までの距離が遠くなるほど、投射光学系100と受光光学系200の設置間隔は広くなる。
 図4(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図4(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)とスクリーンの前に人物が存在するときの受光状態が示されている。
 図4(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。図4(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。
 目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、図4(b)のように、CMOSイメージセンサ240上に分布する。図4(b)には、CMOSイメージセンサ240上のDP光の受光領域が破線の枠によって示されている。たとえば、同図(a)に示す目標領域上におけるDt0の光は、CMOSイメージセンサ240上では、同図(b)に示すDt’0の位置に入射する。スクリーンの前の人物の像は、CMOSイメージセンサ240上では、上下左右が反転して撮像される。
 ここで、まず、図5~図8を参照して、比較例における距離検出の方法と距離検出結果の例を説明する。
 図5は、比較例における距離検出手法に用いられる参照パターンの設定方法を説明する図である。
 図5(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ26上に展開される。以下、反射面RSからの反射によって得られた全画素値からなる画像を、「基準画像」、反射面RSを「基準面」と称する。そして、図5(b)に示すように、基準画像上に、基準画像のサイズよりも小さい所定の領域が「参照パターン領域」として設定される。なお、図5(b)には、CMOSイメージセンサ240の背面側から受光面をZ軸正方向に透視した状態が図示されている。図6以降の図においても同様である。
 こうして設定された参照パターン領域に対して、所定の大きさを有する複数のセグメント領域が設定される。セグメント領域の大きさは、得られる距離情報による物体の輪郭抽出精度とCPU21に対する距離検出の演算量の負荷を考慮して決定される。図5(c)には、便宜上、各セグメント領域の大きさが5画素×5画素で示され、各セグメント領域の中央の画素が×印で示されている。
 セグメント領域は、図5(c)に示すように、参照パターン領域に対してX軸方向およびY軸方向に1画素間隔で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域のX軸方向およびY軸方向に隣り合うセグメント領域に対して1画素ずれた位置に設定される。このとき、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。
 こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ26に記憶される。メモリ26に記憶されるこれらの情報を、以下、「参照テンプレート」と称する。
 図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、参照テンプレートを参照する。CPU21は、距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。
 たとえば、図5(a)に示すように距離Lsよりも近い位置に物体がある場合、参照パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図5(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
 セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18-20日)予稿集、P1279-1280)に示されている。
 比較例における距離の算出では、参照テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られたドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。以下、実測時にCMOSイメージセンサ240上に照射されたDP光から得られた全画素値からなる画像を、「実測画像」と称する。
 図6(a)~(e)は、比較例における距離検出の手法を説明する図である。図6(a)は、CMOSイメージセンサ240上における基準画像に設定された参照パターン領域を示す図であり、図6(b)は、実測時のCMOSイメージセンサ240上の実測画像を示す図であり、図6(c)~(e)は、実測画像に含まれるDP光のドットパターンと、参照テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。なお、図6(a)、(b)は、便宜上、一部のセグメント領域のみが示されている。また、図6(b)の実測画像には、便宜上、図4(b)のように、検出対象物体として基準面より前に人物が存在しており、人物の像が写り込んでいることが示されている。
 図6(a)のセグメント領域Siの実測時における変位位置を探索する場合、図6(b)に示すように、実測画像上に、セグメント領域Siに対して探索範囲Riが設定される。探索範囲Riは、X軸方向に所定の幅を持っている。セグメント領域Siが探索範囲Riにおいて1画素ずつX軸方向に送られ、各送り位置において、セグメント領域Siのドットパターンと実測画像上のドットパターンとが比較される。以下、実測画像上の各送り位置に対応する領域を、「比較領域」と称する。探索範囲Riには、セグメント領域Siと同じサイズの比較領域が複数設定され、X軸方向に隣り合う比較領域は互いに1画素ずれている。
 探索範囲Riは、検出対象物体が基準面よりも情報取得装置1に離れる方向、および近づく方向にどの程度の距離を検出可能な範囲とするかによって決定される。図6中では、基準画像上のセグメント領域Siの画素位置に対応する実測画像上の画素位置から、X軸負方向にx画素ずれた位置からX軸正方向にx画素ずれた位置の範囲が探索範囲Riに設定されている。
 比較領域においてセグメント領域SiをX軸方向に1画素ずつ送りながら、各送り位置において、参照テンプレートに記憶されているセグメント領域Siのドットパターンと、実測画像のDP光のドットパターンのマッチング度合いが求められる。このようにセグメント領域Siを探索範囲Ri内においてX軸方向にのみ送るのは、上記のように、通常、参照テンプレートにより設定されたセグメント領域のドットパターンは、実測時において、X軸方向の所定の範囲内でのみ変位するためである。
 上記マッチング度合いの検出時には、まず、参照パターン領域の各画素の画素値と実測画像の各セグメント領域の各画素の画素値が2値化されて、メモリ26に保持される。たとえば、基準画像および実測画像の画素値が8ビットの階調の場合、0~255の画素値のうち、所定の閾値以上の画素が、画素値1に、所定の閾値未満の画素が、画素値0に変換されて、メモリ26に保持される。その後、比較領域とセグメント領域Siとの間の類似度が求められる。すなわち、セグメント領域Siの各画素の画素値と、比較領域に対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
 たとえば、図6(c)のように、一つのセグメント領域中に、m列×n行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、図6(c)に示す式の値Rsadが求められる。値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
 こうして、図6(d)に示すように、セグメント領域Siについて、探索範囲Riの全ての比較領域に対して値Rsadが求められる。図6(e)は、探索範囲Riの各送り位置における値Rsadの大小が模式的に示されたグラフである。セグメント領域Siについて、探索範囲Riの全ての比較領域に対して値Rsadが求められると、まず、求めた値Rsadの中から、最小値Bt1が参照される。次に、求めた値Rsadの中から、2番目に小さい値Bt2が参照される。最小値Bt1と2番目に小さい値Bt2との差分値Esが閾値未満であれば、セグメント領域Siの探索はエラーとされる。他方、差分値Esが閾値以上であれば、最小値Bt1に対応する比較領域Ciが、セグメント領域Siの移動領域と判定される。図6(d)のように、比較領域Ciは、基準画像上のセグメント領域Siの画素位置と同位置の実測画像上の画素位置Si0よりもX軸正方向にα画素ずれた位置で検出される。これは、基準面よりも近い位置に存在する検出対象物体(人物)によって、実測画像上のDP光のドットパターンが基準画像上のセグメント領域SiよりもX軸正方向に変位したためである。
 こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
 次に、比較例による手法を用いて本願発明者がマッチングの測定を行った測定例について説明する。この測定例では、セグメント領域Siが検出された場合、上記画素位置Si0に対するセグメント領域Siの検出位置のずれ量(以下、「画素ずれ量」という)に応じて白から黒の階調で表現された値が、セグメント領域Siの距離情報として、メモリ26に記憶される。セグメント領域Siの検出位置が上記画素位置Si0に近いほど白に近く、セグメント領域Siの検出位置が探索範囲Riにおいて上記画素位置Si0からX軸正または負方向にずれるほど黒に近い色の階調が割り当てられる。また、セグメント領域Siの探索がエラーとなった場合、探索範囲Riにおいて最もX軸正または負方向にずれた位置に対応する階調、すなわち、最も黒い色の階調がメモリ26に記憶される。以下、セグメント領域Siの探索がエラーとなったときの最も黒い色の階調を、「極値」と称する。比較例では、極値は、X軸正方向または負方向に最もずれた位置にセグメント領域Siがマッチングしたときの階調に相当する。
 このようにして、セグメント領域S1~セグメント領域Snまで全てのセグメント領域について、上記同様のセグメント領域の探索が行われる。
 図7、図8は、上記比較例における距離検出の手法を用いた場合の距離測定例を示す図である。
 図7(a)は、情報取得装置1から距離700mmの位置に基準面として平坦なスクリーンのみが配置された状態でDP光を照射し、反射されたDP光を撮像した画像である。本画像が上記比較例の距離検出手法における基準画像に相当する。図中、ドットが微小な白い点で示されている。
 図7(b)は、情報取得装置1から距離1200mmの位置に平坦なスクリーンが配置され、情報取得装置1から距離700mmの位置(基準面と同じ位置)に検出対象物体が配置された状態でDP光を照射し、反射されたDP光を撮像した画像である。本画像が比較例の距離検出手法における実測画像に相当する。図中、中央付近に、脚のついた長方形状の検出対象物体とこの検出対象物体によって生じる影が写りこんでいる。
 ここで、図7(d)に示すように、スクリーンよりも前に検出対象物体が存在すると、投射光学系100から照射されるDP光が検出対象物体によって反射され、検出対象物体の後方には、影が発生する。スクリーンは、基準面よりも遠い位置にあるため、スクリーンで反射されたドットは、上述のように、基準面にドットが反射されたときよりもX軸負方向にずれて受光光学系200に撮像される。他方、検出対象物体は、基準面と略同じ距離にあるため、検出対象物体で反射されたドットは、基準面で反射されたドットと略同じ位置で受光光学系200に撮像される。受光光学系200で撮像される影は、投射光学系100から離れる方向(X軸負方向)に生ずる。たとえば、図7(a)の基準画像におけるPtの領域のドットは、図7(b)の実測画像におけるCtの領域のドットに相当する。領域Ptの左部分のドットは、領域Ctでは、X軸負方向にずれており、領域Ctの中央には、影が写りこんでいる。領域Ctの影の部分には、ドットが含まれていない。
 また、図7(d)に示すように、投射光学系100と受光光学系200の視差により、影の位置よりX軸負側の位置に受光光学系200が撮像できない領域が生ずる。受光光学系200が撮像できない領域には、投射光学系100のDP光の照射領域が含まれる。すなわち、図7(a)の基準画像には含まれるが、図7(b)の実測画像には含まれないドットが生ずることとなる。たとえば、図7(a)の基準画像におけるPuの領域のドットは、図7(b)の実測画像におけるCuの領域にドットに相当する。領域Cuは、領域Puの一部のドットが撮像できず、ドットが撮像できない領域が欠落することにより領域Puよりも小さくなっている。
 図7(c)は、図7(a)の基準画像と図7(b)の実測画像を用いて、上記比較例における距離検出の手法を行ってマッチングを測定したときの測定結果を示す図である。同図では、上記のように、図6に示した各セグメント領域の画素ずれ量が小さいほど白に近く、X軸正または負方向の画素ずれ量が大きいほど黒に近い色が示されている。また、マッチング処理においてエラーになったセグメント領域は、最も黒く示されている。なお、エラーの領域の黒色は、スクリーンによって得られた距離情報を示す黒色よりも濃い黒色となっており、スクリーンの距離情報と、エラーの情報が区別可能となっている。
 上記のように、本測定では、目標領域には、平坦なスクリーンとスクリーンの前に長方形状の検出対象物体が配置されている。したがって、適正にマッチングが行われた場合、測定結果は、検出対象物体の長方形状に沿って、白に近い色となり、その他の部分は、黒に近い色になる。これに対し、図7(c)に示す測定結果では、検出対象物体の右方(X軸正方向)の部分(Er1)にグレーと黒の領域が混在している。この領域Er1では、エラーだけでなく、誤ったマッチングがなされて、距離が誤測定されていることがわかる。Ptの領域をマッチングした結果が領域Dtに相当し、Puの領域をマッチングした結果が領域Duに相当する。
 図8(a)~(c)は、図7(a)の基準画像の領域Ptのマッチング例を説明する図である。
 図8(a)は、基準画像の領域Ptに含まれるドットパターンが模式的に示された図、図8(b)は、実測画像の領域Ctに含まれるドットパターンが模式的に示された図である。また、図8(c)は、セグメント領域Stの探索範囲における値Rsadの大小が模式的に示されたグラフである。
 図8(a)を参照して、基準画像の領域Ptには、15画素×15画素のセグメント領域Stが設定されている。また、基準画像の領域Ptには、複数のドットを有するPt1とPt2の領域が示されている。Pt1に含まれる画素数は、Pt2に含まれる画素数よりも多い。
 Pt2の領域に含まれるドットは、検出対象物体に照射され、図8(b)における実測画像Ctでは、Ct2の位置に相当する。Pt1の領域に含まれるドットは、後方に配置されたスクリーンに照射され、図8(b)における実測画像Ctでは、X軸負方向に9画素ずれたCt1の位置に相当する。図8(b)における実測画像Ctの影の部分はX軸方向に略9画素に相当し、この領域には、ドットが含まれていない。
 この場合、基準画像のセグメント領域Stに含まれるドットパターンを実測画像上の比較領域とマッチングすると、たとえば、図8(c)に示すような値Rsadが得られる。画素ずれ量0の位置で、Pt2のドットパターンが、Ct2のドットパターンにマッチングし、Rsadの値が他の部分と比べ、やや小さくなっている。また、画素ずれ量-9の位置で、Pt1のドットパターンが、Ct1のドットパターンにマッチングし、Rsadの値が最も小さくなっている。Pt1に含まれる画素数は、Pt2に含まれる画素数よりもかなり多いため、画素ずれ量が-9の位置の値Rsadは、画素ずれ量0の位置の値Rsadよりも、かなり小さい。したがって、Rsadの最小値と2番目に小さい値の差分は、閾値を超え、エラーとならず、適正に距離情報を得ることができる。
 なお、セグメント領域Stに対して数画素だけX軸正方向にずれたセグメント領域St1+kでは、対応する実測画像において、影を挟んで左右に区分される領域の画素数が同じになるため、画素ずれ量-9の位置の値Rsadと画素ずれ量0の位置の値Rsadが同じになる。したがって、セグメント領域St1+kと、このセグメント領域St1+kに対してX軸正負の方向に数画素のセグメント領域では、Rsadの最小値と2番目に小さい値の差分が閾値を超えず、マッチングがエラーとなる。しかし、このエラーは、X軸方向に数画素分のセグメント領域で生じるのみである。
 このように、比較例における上記距離検出手法の場合、探索領域に影の領域が含まれていても、X軸方向に数画素の範囲を除いて、セグメント領域の変位位置を適正に検出することができる。よって、図7(c)のDtの領域では、スクリーンの距離情報と、検出対象物体の距離情報を示す画素ずれ量(階調)が適正に得られている。
 図8(d)~(f)は、図7(a)の基準画像の領域Puのマッチング例を説明する図である。
 図8(d)は、基準画像の領域Puに含まれるドットパターンが模式的に示された図、図8(e)は、実測画像の領域Cuに含まれるドットパターンが模式的に示された図である。また、図8(f)は、セグメント領域Suの探索範囲における値Rsadの大小が模式的に示されたグラフである。
 図8(d)を参照して、基準画像の領域Puには、15画素×15画素のセグメント領域Suが設定されている。また、基準画像の領域Puには、複数のドットを有するPu1とPu2の領域が示されている。Pu1に含まれるドットの数と、Pu2に含まれるドットの数は、略同程度である。また、Pu1とPu2は、境界が接する状態でX軸方向に隣り合っている。セグメント領域Suは、Pu2の領域に一致している。
 Pu1の領域に含まれるドットは、検出対象物体に照射され、図8(e)における実測画像の領域Cuでは、Cu1の位置に相当する。Pu2の領域に含まれるドットは、後方に配置されたスクリーンに照射され、図8(e)における実測画像の領域Cuでは、X軸負方向に9画素ずれたCu2の位置に相当する。
 Pu2に含まれるX軸負方向の9画素分の領域Pu3のドットは、上述のごとく、視差により、受光光学系200のCMOSイメージセンサ240上に照射されず、実測画像の領域Cu2には存在しない。図8(e)中の領域Cu2には、便宜上、視差によって、CMOSイメージセンサ240に検出されないドットパターンが点線の円で示されている。この点線で示されたドットパターンが、図7(d)における投射光学系100のDP光の照射領域であって、受光光学系200の撮像できない領域のドットパターンに相当する。
 この場合、基準画像のセグメント領域Suに含まれるドットパターンを実測画像上の比較領域とマッチングすると、実測画像上に存在しないドットパターンPu3を比較することとなるため、適正なマッチングを行うことができない。たとえば、図8(f)に示すように、実測画像上の探索範囲において、偶然、画素ずれ量が-5の位置でPu3のドットパターンに類似性の高いドットパターンが検出され、Rsadが最も小さくなることが起こり得る。また、図8(f)に破線で示すように、画素ずれ量が7の位置でPu3のドットパターンに類似性の高いドットパターンが検出されるようなことも起こり得る。この他、類似性の高いドットパターンが検出されず、エラーとなることも起こり得る。
 このように、比較例における上記距離検出手法の場合、実測画像上に含まれないドットパターンを用いて、セグメント領域の探索が行われるため、図7(c)のDuの領域では、エラーだけでなく、誤ったマッチングがなされて、誤った距離が測定されている。
 距離が誤測定されると、検出対象物体とスクリーンの境界を適正に検出することができず、検出対象物体の輪郭を正常に検出することが困難となる。たとえば、図7(c)のDuの領域内において、X軸負方向からX軸正方向に1画素ずつ距離情報(画素ずれ量を示す階調)を参照していくと、まず、検出対象物体の距離情報として、画素ずれ量が小さい領域(図中、白に近い色の領域)が続く。そして、本来、検出対象物体とスクリーンの境界となる付近において、エラーにより画素ずれ量(階調)が極値となるセグメント領域と、画素ずれ量が誤検出された多数のセグメント領域が混在する。このため、検出対象物体の輪郭を決定することが困難となる。
 なお、エラーとなった極値を持つセグメント領域は、輪郭抽出のためのセグメント領域から除外される。この場合、図7(c)のように、検出対象物体の右部分(X軸正方向)の形状が、Y軸方向に延びていることを検出することができず、検出対象物体が長方形状であることを認識することができない。
 このような問題を解消するため、本実施の形態では、比較例とは逆に、実測画像上にセグメント領域を設定し、基準画像上の所定の探索範囲で実測画像上のドットパターンを探索する手法を用いて距離検出が行われる。以下、便宜上、比較例における距離検出手法を「正マッチング」と称し、本実施の形態における距離検出手法を「逆マッチング」と称する。なお、本実施の形態では、基準画像にセグメント領域が設定されることはないが、基準画像のドットパターンは、上記比較例と同様、予めメモリ26に記憶されている。
 図9、図10は、本実施の形態における逆マッチングの距離検出手法に用いられる参照パターンの設定方法を説明する図である。
 図9(a)は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られた実測画像である。実測画像は、便宜上、図6(b)と同様に、検出対象物体として基準面より前に人物が存在しており、人物の像が写り込んでいることが示されている。図9(b)は、セグメント領域の設定例を示す図である。
 図10は、逆マッチングにおけるセグメント領域の設定処理の流れを示す図である。
 図10を参照して、まず、実測画像上に、実測画像のサイズよりも小さい所定の範囲の領域が参照パターン領域として設定され(S1)、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)がメモリ26に記憶される(S2)。
 次に、CPU21は、変数iに1をセットし(S3)、参照パターン領域の左上の角を頂点とし、規定された縦横幅の四角形の領域を指定して、最初のセグメント領域Si(Si=S1)を設定する(S4)。なお、規定された縦横の幅は、あらかじめ、メモリ26に保持された値が参照され、本実施の形態では、縦15、横15の値が参照される。
 そして、CMOSイメージセンサ240上におけるセグメント領域Siの位置に関する情報がメモリ26に記憶される(S5)。
 次に、CPU21は、セグメント領域Siの位置が参照パターン領域の右端に到達したかどうかを判定する(S6)。セグメント領域Siの位置が参照パターン領域の右端に到達していないと(S6:NO)、iに1を加算し(S7)、セグメント領域Siの位置からX軸正方向に1画素ずらした領域を指定して、セグメント領域Siを設定する(S8)。その後、CPU21は、処理をS5に戻す。
 参照パターン領域の左端から右端まで1画素間隔でセグメント領域Siが設定され、セグメント領域Siの位置情報がメモリ26に記憶されると(S6:YES)、セグメント領域Siの位置が参照パターン領域の下端に到達したかどうかを判定する(S9)。
 セグメント領域Siの位置が参照パターン領域の下端に到達していないと(S9:NO)、iに1を加算し(S10)、セグメント領域Siの位置をY軸正方向に1画素ずらし、かつ、参照パターン領域の左端の領域を指定し、セグメント領域Siを設定する(S11)。その後、CPU21は、処理をS5に戻す。
 参照パターン領域の上端の左端から下端の右端までセグメント領域Siが設定され、セグメント領域Siの位置情報がメモリ26に記憶されると(S9:YES)、図9(b)に示すように、参照パターン領域に対してセグメント領域がX軸方向およびY軸方向に1画素間隔で並ぶように設定され、処理が終了する。なお、上記比較例同様、各セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。
 こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の位置に関する情報が参照テンプレートとして、メモリ26に記憶される。なお、セグメント領域の情報として、CMOSイメージセンサ240上の位置に関する情報のみがメモリ26に記憶されたが、セグメント領域内の画素値が記憶されてもよい。
 そして、図2のCPU21は、投射光学系100から検出対象物体までの距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。距離の算出方法は、上記比較例と同様に、セグメント領域の変位量を用いて、三角測量法に基づき算出される。
 図11、図12は、本実施の形態における距離検出の手法を説明する図である。図11(a)は、CMOSイメージセンサ240上における基準画像を示す図であり、図11(b)は、実測時のCMOSイメージセンサ240上における実測画像に設定された参照パターン領域を示す図であり、図11(c)~(e)は、基準画像に含まれるDP光のドットパターンと、参照テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。なお、図11(a)、(b)は、便宜上、一部のセグメント領域のみが示されている。また、図11(b)の実測画像には、便宜上、検出対象物体として人物の像が写り込んでいることが示されている。
 上記比較例では、基準画像上に設定されたセグメント領域に含まれるドットパターンを実測画像上の所定の探索範囲で探索したが、本実施の形態では、上記比較例とは逆に、実測画像上に設定されたセグメント領域に含まれるドットパターンを基準画像上の所定の探索範囲で探索する。
 図11(b)のセグメント領域Siの実測時における変位位置を探索する場合、図11(a)に示すように、セグメント領域Siに対して探索範囲Riが設定される。探索範囲Riは、上記比較例と同様に、実測画像上のセグメント領域Siの画素位置と同位置の基準画像上の画素位置を中心としてX軸正負方向にx画素の範囲に設定される。
 そして、探索範囲Ri内に比較領域が設定される。隣り合う比較領域は、互いに、X軸正または負の方向に1画素だけずれている。各比較領域において、参照テンプレートに記憶されているセグメント領域Siのドットパターンと、基準画像のDP光のドットパターンのマッチング度合いが求められる。
 図12(a)、(b)は、逆マッチングの距離検出の処理の流れを示す図である。
 図12(a)を参照して、まず、CPU21は、図9(b)で示した処理によってメモリ26に記憶された参照テンプレートより、実測画像の画素情報(参照パターン)とCMOSイメージセンサ240上における参照パターン領域の位置に関する情報を読み込む(S11)。次に、CPU21は、変数iに1をセットし(S12)、セグメント領域SiのCMOSイメージセンサ240上における位置情報をメモリ26から読み込み、読み込んだセグメント領域Siの位置情報とS11で読み込んだ実測画像の画素情報をもとに、実測画像上のセグメント領域Siの画素情報を設定する(S13)。なお、セグメント領域Siの画素情報は、上記比較例と同様に2値化されて設定される。そして、読み出したセグメント領域Siの位置情報をもとに、実測画像上のセグメント領域Siの位置と同位置の基準画像上の位置を設定する(S14)。
 次に、CPU21は、変数jに-xをセットし(S15)、S14で設定された基準画像上の位置からX軸方向にj画素離れた位置の比較領域の画素情報を読み込む(S16)。なお、比較領域の画素情報は、上記比較例と同様に2値化されて設定される。そして、S16で読み込んだ比較領域の画素情報と、S13で読み込んだセグメント領域Siの画素情報を比較し、図11(e)で示した式により値Rsadが算出される(S17)。算出された値Rsadは、セグメント領域Siの画素ずれ量jと関連付けられてメモリ26に記憶される。その後、CPU21は、変数jがxに等しいかを判定する(S18)。変数jがxに等しくない場合(S18:NO)、CPU21は、変数jに1を加算し(S19)、処理をS16に戻す。
 変数jがxに等しくなると(S18:YES)、図11(c)示すように、探索範囲Riでのセグメント領域Siの探索が完了し、セグメント領域Siの画素ずれ量に関連付けられた値Rsadをもとに、セグメント領域Siの距離取得処理が行われる(S20)。
 図12(b)を参照して、距離取得処理において、CPU21は、まず、セグメント領域Siについて、画素ずれ量jと関連付けられてメモリ26に記憶された値Rsadから、最小値Bt1と、2番目に小さい値Bt2を読み込み、それらの差分値Esを算出する(S201)。そして、CPU21は、算出した差分値Esが閾値以上であるかが判定する(S202)。
 差分値Esが閾値以上である場合(S202:YES)、CPU21は、最小値Bt1の画素ずれ量に対応する比較領域がセグメント領域Siにマッチングしたとみなし、最小値Bt1の画素ずれ量に応じた距離を算出する(S203)。セグメント領域Siに対応する距離は、上述のように、画素ずれ量に基づいて、三角測量法により求められる。
 図11(d)は、探索範囲Riの各送り位置における値Rsadの大小が模式的に示されたグラフである。実測画像上のセグメント領域Siに対応する比較領域Ciは、図6(e)の比較例の場合とは逆に、実測画像上のセグメント領域Siの画素位置と同位置の基準画像上の画素位置Si0(画素ずれ量0)よりもX軸負方向にα画素ずれた位置で検出される。これは、基準面よりも近い位置に存在する検出対象物体(人物)によって、ドットパターンがX軸正方向に変位した後の実測画像上にセグメント領域Siを用いて、基準画像上のドットパターンをマッチングしたためである。
 図12(b)に戻り、差分値Esが閾値未満である場合(S202:NO)、CPU21は、セグメント領域Siのドットパターンにマッチングする領域がなかったとして、エラーの情報を設定する(S204)。ここで、CPU21は、エラーの情報として、取得可能な距離の範囲の極値を設定する。すなわち、セグメント領域Siが探索範囲Riの最もX軸正方向または最もX軸負方向にある比較領域とマッチングしたときに得られる距離がエラー情報として設定される。
 こうして、セグメント領域Siの比較結果をもとに距離取得処理が終了する。
 図12(a)に戻り、セグメント領域Siについて、距離取得処理が完了すると、CPU21は、変数iがnに等しいか判定する(S21)。変数iがnに等しくない場合(S21:NO)、変数iに1を加算し(S22)、処理をS13に戻す。nには、参照パターン領域に設定されたセグメント領域の数が設定され、参照パターン領域に設定された全てのセグメント領域について、処理S13~S20の処理が繰り返される。参照パターン領域に設定されたセグメント領域の数は、たとえば、図10の参照パターン設定処理終了時における変数iをメモリ26に保持しておき、その値を読み込むことにより設定される。変数iがnに等しい場合(S21:YES)、全てのセグメント領域について、距離検出が完了し、処理が終了する。
 図13、図14は、逆マッチングの距離検出の手法を用いた場合の距離測定例を示す図である。
 図13(a)は、図7(a)と同じ基準画像であり、図13(b)は、図7(b)と同じ実測画像である。図7(b)の領域Ct、Cuと同様に、領域Pwには、検出対象物体の影の領域が含まれ、領域Pvには、投射光学系100によって照射されたドットパターンの一部が、視差により、受光光学系200によって撮像できない領域が含まれる。
 図13(c)は、図13(a)の基準画像と図13(b)の実測画像を用いて、逆マッチングによる手法で距離を測定したときの測定結果を示す図である。同図では、図11に示した各セグメント領域の画素ずれ量に応じて、白から黒の色が示されている。図7(c)に示した正マッチングの手法とは逆に、画素ずれ量がゼロに近いほど黒に近く、画素ずれ量が大きいほど白に近い色が示されている。したがって、図7(c)の場合と、図13(c)の場合とでは、検出対象物体の測定結果を示す白と黒の階調が反転している。さらに、エラーとなった領域は、最も黒く示されている。なお、エラーの領域の黒色は、検出対象物体によって得られた距離情報を示す黒色よりも濃い黒色となっており、検出対象物体の距離情報と、エラーの情報が区別可能となっている。
 図7(c)に示す正マッチングによる測定結果では、検出対象物体の右方(X軸正方向)の部分にグレーと黒が混在した領域が生じたが、図13(c)に示す逆マッチングによる測定結果では、検出対象物体の右方(X軸正方向)の部分にグレーと黒が混在した領域が生じておらず、この部分において距離が誤測定されていないことがわかる。また、図13(c)に示す測定結果では、検出対象物体の左方(X軸負方向)の部分が略一様に黒くなっている。すなわち、この領域では、ほぼ一様にマッチングがエラーとなっており、距離が誤測定されていないことがわかる。Pwの領域をマッチングした結果が領域Dwに相当し、Pvの領域をマッチングした結果が領域Dvに相当する。
 図14(a)~(c)は、図13(b)の実測画像の領域Pwのマッチング例を説明する図である。
 図14(a)は、実測画像の領域Pwに含まれるドットパターンが模式的に示された図、図14(b)は、基準画像の領域Cwに含まれるドットパターンが模式的に示された図である。また、図14(c)は、セグメント領域Swの探索範囲における値Rsadの大小が模式的に示されたグラフである。
 図14(a)を参照して、実測画像の領域Pwには、複数のドットを有するPw1とPw2の領域と影の領域が示されている。Pw1に含まれる画素数は、Pw2に含まれる画素数よりも多い。Pw1の領域に含まれるドットは、後方に配置されたスクリーンに照射されたドットであり、図14(b)におけるCw1の領域の位置からX軸負方向に9画素ずれたものである。影の領域では、検出対象物体によって、DP光が遮られ、ドットが含まれていない。Pw2の領域に含まれるドットは、検出対象物体に照射されたドットであり、図14(b)におけるCw1の領域の位置と同じである。
 実測画像の領域Pwには、15画素×15画素のセグメント領域Swが設定されており、セグメント領域Swには、Pw2の領域と、影の領域と、Pw1の領域のうち右方(X軸正方向)の3画素×15画素分の領域Pw3が含まれている。影の領域は、X軸方向に略9画素に相当し、Pw2の領域と、Pw3の領域に含まれる画素数は略均等となっている。
 このセグメント領域Swに含まれるドットパターンを基準画像上の比較領域とマッチングすると、たとえば、図14(c)に示すような値Rsadが得られる。画素ずれ量が0の位置でPw2のドットパターンが、Cw2のドットパターンにマッチングし、Rsadの値が他の部分と比べ、やや小さくなっている。また、画素ずれ量が9の位置で、Pw1の領域のうち右3画素分の領域Pw3のドットパターンが、Cw1の領域のうち右3画素分の領域のドットパターンにマッチングし、Rsadの値が他の部分と比べ、やや小さくなっている。しかし、Pw2に含まれる画素数と、Pw3に含まれる画素数は、略同じであるため、それぞれの位置でのRsadの値は、略同じ程度となりやすい。したがって、それぞれの位置でのRsadの差分Es1は、閾値を超えず、マッチングはエラーとなる。
 また、片方の領域について、マッチングされなかったとしても、15画素×15画素のセグメント領域中、9画素×15画素の領域が影の領域となり、Rsadの値は、全体的にかなり大きいものとなる。よって、画素ずれ量が0の位置、および画素ずれ量が9の位置において、Rsadは、他の部分よりもやや小さいものとなるものの、他の部分のRsadとの差分Es2は、かなり小さい。したがって、差分Es2は、閾値を超えず、マッチングはエラーとなる。
 さらに、影の部分を含むセグメント領域を逆マッチングしても、図7(a)のPuの領域を正マッチングした場合のように、比較領域に存在しないドットを用いてセグメント領域が探索されることはないので、距離が誤測定される可能性は低い。
 以上のようなことから、図13(b)のPwの領域では、距離の誤測定はなされず、ほぼ一様にマッチングがエラーとなる。このため、図13(c)のDwの領域では、大部分が極値の黒色となる。
 図14(d)~(f)は、図13(a)の実測画像の領域Pvのマッチング例を説明する図である。
 図14(d)は、実測画像の領域Pvに含まれるドットパターンが模式的に示された図、図14(e)は、基準画像の領域Cvに含まれるドットパターンが模式的に示された図である。また、図14(f)は、セグメント領域Svの探索範囲における値Rsadの大小が模式的に示されたグラフである。
 図14(d)を参照して、実測画像の領域Pvには、複数のドットを有するPv1とPv2の領域が示されている。Pv1の領域に含まれるドットは、検出対象物体に照射されたものであり、図14(e)におけるCv1の位置に相当する。Pv2の領域に含まれるドットは、後方に配置されたスクリーンに照射されたものであり、図14(e)におけるCv2の領域のX軸正方向の6画素分の領域に相当する。図14(e)におけるCv2の領域のX軸負方向の9画素分の領域に含まれるドットは、視差により、CMOSイメージセンサ240上に照射されず、実測画像上の領域Pvでは、検出されていない。図14(d)中の領域Pvには、便宜上、視差によって、CMOSイメージセンサ240に検出されないドットパターンが点線の円で示されている。
 実測画像の領域Pvには、15画素×15画素のセグメント領域Svが設定されており、セグメント領域Svには、Pv2の領域と、Pv1の領域のうち右方(X軸正方向)の9画素×15画素分の領域Pv3が含まれている。このセグメント領域Svに含まれるドットパターンを基準画像上の比較領域とマッチングすると、たとえば、図14(f)に示すような値Rsadが得られる。画素ずれ量0の位置でPv3のドットパターンがCv1の領域のうち右9画素分のドットパターンにマッチングし、Rsadの値が最も小さくなっている。また、画素ずれ量9の位置で、Pv2のドットパターンが、Cv2の領域のうち右6画素分の領域のドットパターンとマッチングし、Rsadの値が他の部分と比べ、やや小さくなっている。Pv3に含まれる画素数は、Pv2に含まれる画素数よりも多いため、画素ずれ量0の位置の値Rsadは、画素ずれ量-9の位置の値Rsadよりも、かなり小さい。したがって、Rsadの最小値と2番目に小さい値の差分は、閾値を超え、エラーとならず、適正に距離情報を得ることができる。
 なお、セグメント領域Svに対して1~2画素だけX軸正方向にずれたセグメント領域では、Pv2の領域の画素数とPv3の領域の画素数の差が1画素であるため、画素ずれ量が9の位置の値Rsadと画素ずれ量が0の位置の値Rsadの差が小さくなり、マッチングがエラーとなる可能性がある。しかし、このエラーは、X軸方向に僅か2画素分のセグメント領域で生じるのみである。
 このように、逆マッチングを用いて距離検出を行った場合、視差によりドットパターンが検出されない領域が含まれていても、距離が誤測定されることがなく、セグメント領域の変位位置を適正に検出することができる。よって、図13(c)のDvの領域では、スクリーンの距離情報と、検出対象物体の距離情報を示す階調が適正に得られている。
 以上のように、逆マッチングを用いて距離検出を行った場合には、視差により受光光学系200がスクリーンに照射されたドットパターンを一部撮像できない領域(検出対象物体の右側)について、正マッチングを用いた場合よりも適正に距離情報を得ることができる。
 なお、逆マッチングを用いた場合には、図13(c)に示すように、検出対象物体の左側にエラーの領域(Er2)が生じる。しかしながら、このEr2の領域には、上記のように、距離が誤検出されたセグメント領域が殆ど含まれない。このため、正マッチングにおけるEr1の領域のように、距離が誤検出されたセグメント領域が多数含まれることにより、物体の輪郭が適正に抽出されにくくなることはない。
 以下に、Er1の領域とEr2の領域に含まれるエラーとなったセグメント領域の割合に関する測定結果を示す。
 図15(a)は、図7(c)に示す正マッチングにおける測定結果のEr1の領域に含まれる階調(画素ずれ量)の割合を示すグラフである。図15(b)は、図13(c)に示した逆マッチングにおける測定結果のEr2の領域に含まれる階調(画素ずれ量)の割合を示すグラフである。グラフの横軸は、階調を示しており、0が極値である。また、グラフの縦軸は、階調ごとのセグメント領域の出現頻度(数)を示している。Er1とEr2の領域の大きさはそれぞれ、3画素×300画素であり、それぞれの領域内には、合計2400個のセグメント領域が対応する。
 図15(a)を参照して、正マッチングの場合、階調が0(極値)となるセグメント領域の数は、1700個である。なお、グラフには、便宜上、階調の単位が10で示されているが、0~10の範囲に含まれる階調は、すべて0であった。残り700個のセグメント領域は、図示のように、他の階調に分散している。
 このように、正マッチングの場合、Er1の領域の略70%が極値となっている。したがって、残りの略30%の部分では、距離が誤測定されて、Er1の領域には、様々な誤った距離情報が含まれていることがわかる。このため、Er1の領域では、検出対象物体の輪郭を適正に抽出することができない。
 次に、図15(b)を参照して、逆マッチングの場合、階調が0(極値)となるセグメント領域の数は、2373個である。図15(a)と同様、0~10の範囲に含まれる階調は、すべて0であった。階調が極値とならないセグメント領域の数は僅か27個であった。
 このように、逆マッチングの場合、Er2の領域の略99%が極値となっている。Er2の領域には、距離が誤検出されたセグメント領域が殆ど含まれていないことが分かる。このため、Er2の領域では、検出対象物体の輪郭を適正に抽出することができる。
 以上のように、逆マッチングでは、検出対象物体の左側にエラーとなる領域(Er2)が生じるが、この領域の距離検出結果は、略一様にエラーとなる。このため、検出対象物体に対応する領域と、スクリーンに対応する領域と、エラーの領域とが区別可能となり、適正に検出対象物体の輪郭抽出することが可能となる。
 以上、図7(c)に示した正マッチングの測定結果、および図13(c)に示した逆マッチングの測定結果から、以下の事項が導かれる。
 (1)正マッチングを用いて距離検出を行った場合、物体の影の領域については、適正に距離情報が得られる。しかしながら、視差により受光光学系200がスクリーンに照射されたドットパターンを一部撮像できない領域については、エラーの他、距離が誤測定され、物体の輪郭抽出が困難となる。
 (2)逆マッチングを用いて距離検出を行った場合、物体の影の領域については、距離情報を得ることができないものの、距離検出結果が略一様にエラーとなり、物体の輪郭抽出が容易となる。また、視差により受光光学系200がスクリーンに照射されたドットパターンを一部撮像できない領域については、適正に距離情報が得られる。
 このように、逆マッチングを用いて距離検出を行った場合の方が、全体としてのエラー発生率が高くなるが、距離が誤測定されにくく、物体の輪郭抽出が容易となる。したがって、特に、物体検出装置のように、物体の動きの検出を主目的とするような場合には、逆マッチングを用いた距離検出手法が好適である。
 以上、本実施の形態によれば、実測画像上のドットパターンに基づいて、基準画像上のドットパターンが照合されるため、視差により、受光光学系200がスクリーンに照射されたドットパターンを一部撮像できない領域についても、適正に距離情報を得ることができる。
 また、本実施の形態によれば、影の領域について、距離情報を得ることができないものの、距離検出結果を略一様にエラーとすることができる。したがって、検出対象物体全体の輪郭抽出を容易に行うことができる。
 また、本実施の形態によれば、エラーの情報として、取得可能な距離の範囲の極値が設定されるため、エラーの領域を削除しなくても、物体の輪郭を適正に抽出することができる。すなわち、エラーの情報として、取得可能な距離の範囲の極値が設定されるため、検出対象物体に対応する領域と、この領域に隣接するエラーの領域と、背景の領域との間に距離の段差を持たせることができ、この段差を検出することで、検出対象物体の輪郭を抽出することができる。たとえば、図13(c)においては、Er2の領域が極値を持つことにより、Er2の領域と、これに隣接する左右の領域との間に、画素ずれ量(階調)の段差が現れる。この段差を検出することで、検出対象物体の左側の輪郭を抽出することができる。
 以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
 たとえば、上記実施の形態では、検出対象とする全ての領域について、逆マッチングを用いて距離検出を行ったが、一部の領域についてのみ逆マッチングを用いて距離検出を行ってもよい。前述の如く、視差の関係上、受光光学系200が撮像できない領域は、検出対象物体から右側の方向(X軸正方向)において、発生しやすい。したがって、たとえば、図16(a)、(b)に示すように、検出対象物体が撮像領域の略中央に位置するような場合は、右半分の領域について、逆マッチングを用い、左半分の領域について、正マッチングを用いて距離検出を行ってもよい。こうすると、受光光学系200が撮像できない領域で、逆マッチングが用いられやすく、検出対象物体の影となる領域で、正マッチングが用いられやすいため、全体として距離検出のエラー発生率を減少させることができる。
 しかし、検出対象物体が人物のような複雑な形状の場合、検出対象物体の左部分でも、受光光学系200が撮像できない領域が発生し得る(たとえば、図中、人物の右手周辺部等)。受光光学系200が撮像できない領域で、正マッチングが用いられると、距離が誤検出され、一部の輪郭の抽出が不適正となる惧れがある。したがって、本変更例よりも、上記実施の形態のように、検出対象とする全ての領域について、逆マッチングを用いたほうが、検出対象物体全体の輪郭の抽出に適している。
 また、上記実施の形態では、隣り合うセグメント領域が互いに重なるように、セグメント領域が設定されたが、左右に隣り合うセグメント領域が、互いに重ならないように、セグメント領域が設定されてもよく、また、上下に隣り合うセグメント領域が、互いに重ならないように、セグメント領域が設定されてもよい。また、上下左右に隣り合うセグメント領域のずれ量は、1画素に限られるものではなく、ずれ量が他の画素数に設定されても良い。さらに、上記実施の形態では、セグメント領域の大きさが15画素×15画素が設定されたが、検出精度に応じて、任意に設定可能である。
 また、上記実施の形態では、基準画像上において、X軸負方向とX軸正方向の所定の範囲内でセグメント領域の探索が行われたが、たとえば、基準画像上のX軸方向の全領域でセグメント領域の探索が行われてもよい。
 また、上記実施の形態では、距離検出のエラー判定として、最も照合率の高いRsadと、その次に照合率が高いRsadとの差分が閾値を超えているかに基づいて、エラーが判定されたが、最も照合率の高いRsadが所定の閾値を超えているかに基づいて、エラーが判定されてもよい。
 また、上記実施の形態では、セグメント領域と比較領域のマッチング率を算出する前に、セグメント領域と比較領域に含まれる画素の画素値を2値化したが、CMOSイメージセンサ240によって得られた画素値をそのまま用いて、マッチングしてもよい。また、上記実施の形態では、CMOSイメージセンサ240によって得られた画素値をそのまま2値化したが、画素値について、所定の画素の重みづけ処理、および背景光の除去処理、等の補正処理を行った後に、2値化してもよい。
 また、上記実施の形態では、三角測量法を用いて距離情報が求められ、メモリ26に記憶されたが、物体の輪郭抽出を主目的とするような場合は、三角測量法を用いた距離を演算せずに、セグメント領域の変位量(画素ずれ量)が距離情報として取得されてもよい。
 また、上記実施の形態では、実測画像上に、実測画像のサイズよりも小さい所定の範囲の領域が参照パターン領域として設定されたが、実測画像と同じサイズで参照パターン領域が設定されてもよい。なお、この場合、参照パターン領域の左端もしくは右端のセグメント領域に対応する探索範囲は、基準画像上にドットパターンが照射されない範囲を含むこととなるため、エラーとなりやすいが、その他の領域については、上記実施の形態同様、適正に距離情報を取得することができる。
 また、上記実施の形態では、投射光学系100に、FMD150が用いられたが、FMD150は省略されてもよい。
 また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230を省略することができる。また、アパーチャ210の配置位置は、何れか2つの撮像レンズの間であってもよい。
 また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、情報取得装置1と情報処理装置2は一体化されてもよいし、情報取得装置1と情報処理装置2がテレビやゲーム機、パーソナルコンピュータと一体化されてもよい。
 本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
     1 … 情報取得装置
    21 … CPU(距離取得部)
   21c … 距離取得部
    24 … 撮像信号処理回路(距離取得部)
    26 … メモリ(記憶部)
   100 … 投射光学系
   110 … レーザ光源
   120 … コリメータレンズ
   140 … DOE(回折光学素子)
   200 … 受光光学系

Claims (7)

  1.  光を用いて目標領域の情報を取得する情報取得装置において、
     目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、
     前記投射光学系に対して所定の距離だけ横方向に離れて並ぶように配置され、前記目標領域を撮像する受光光学系と、
     基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンを保持する記憶部と、
     実測時に前記受光光学系により撮像された実測ドットパターンにセグメント領域を設定し、前記基準ドットパターンと前記セグメント領域内のドットとを照合することにより、前記セグメント領域に対応する前記目標領域内の位置について距離に関する情報を取得する距離取得部と、を有する、
    ことを特徴とする情報取得装置。
  2.  請求項1に記載の情報取得装置において、
     前記距離取得部は、前記基準ドットパターン上に前記セグメント領域の探索範囲を設定し、前記探索範囲内のドットと前記セグメント領域内のドットとを照合することにより、前記セグメント領域について距離に関する情報を取得する、
    ことを特徴とする情報取得装置。
  3.  請求項1または2に記載の情報取得装置において、
     前記距離取得部は、前記セグメント領域のドットと、前記基準ドットパターン内の照合対象とされる比較領域のドットとの照合率を、前記比較領域毎に取得し、取得した前記照合率が所定の基準を満たさない場合に、前記セグメント領域に対してエラーの情報を設定する、
    ことを特徴とする情報取得装置。
  4.  請求項3に記載の情報取得装置において、
     前記距離取得部は、前記比較領域毎に取得した前記照合率のうち最も高い第1照合率と2番目に高い第2照合率との差分を算出し、前記差分が所定の閾値未満のときに、前記セグメント領域に対して前記エラーの情報を設定する、
    ことを特徴とする情報取得装置。
  5.  請求項3または4に記載の情報取得装置において、
     前記距離取得部は、前記エラーの情報として、前記距離に関する情報が取り得る範囲の極値を設定する、
    ことを特徴とする情報取得装置。
  6.  請求項1ないし5の何れか一項に記載の情報取得装置において、
     前記投射光学系は、レーザ光源と、前記レーザ光源から出射されたレーザ光を平行光に変換するコリメータレンズと、前記コリメータレンズによって平行光に変換された前記レーザ光を回折によりドットパターンの光に変換する回折光学素子と、を備える、
    ことを特徴とする情報取得装置。
  7.  請求項1ないし6の何れか一項に記載の情報取得装置を有する物体検出装置。
PCT/JP2012/068051 2011-07-27 2012-07-17 物体検出装置および情報取得装置 WO2013015146A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-164846 2011-07-27
JP2011164846A JP2014194341A (ja) 2011-07-27 2011-07-27 物体検出装置および情報取得装置

Publications (1)

Publication Number Publication Date
WO2013015146A1 true WO2013015146A1 (ja) 2013-01-31

Family

ID=47600996

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/068051 WO2013015146A1 (ja) 2011-07-27 2012-07-17 物体検出装置および情報取得装置

Country Status (2)

Country Link
JP (1) JP2014194341A (ja)
WO (1) WO2013015146A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106405671A (zh) * 2016-10-13 2017-02-15 中国科学院上海技术物理研究所 一种红外融合视觉探测方法
CN107423688A (zh) * 2017-06-16 2017-12-01 福建天晴数码有限公司 一种基于Unity引擎的远程测试距离的方法及系统
US20210365731A1 (en) * 2019-04-04 2021-11-25 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2005246033A (ja) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd 状態解析装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2005246033A (ja) * 2004-02-04 2005-09-15 Sumitomo Osaka Cement Co Ltd 状態解析装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106405671A (zh) * 2016-10-13 2017-02-15 中国科学院上海技术物理研究所 一种红外融合视觉探测方法
CN107423688A (zh) * 2017-06-16 2017-12-01 福建天晴数码有限公司 一种基于Unity引擎的远程测试距离的方法及系统
US20210365731A1 (en) * 2019-04-04 2021-11-25 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system

Also Published As

Publication number Publication date
JP2014194341A (ja) 2014-10-09

Similar Documents

Publication Publication Date Title
JP5138119B2 (ja) 物体検出装置および情報取得装置
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
JP5138116B2 (ja) 情報取得装置および物体検出装置
JP5214062B1 (ja) 情報取得装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
JP2014137762A (ja) 物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
WO2013015146A1 (ja) 物体検出装置および情報取得装置
JPWO2013015145A1 (ja) 情報取得装置および物体検出装置
WO2012144340A1 (ja) 情報取得装置および物体検出装置
JP2014085257A (ja) 情報取得装置および物体検出装置
JP2014035294A (ja) 情報取得装置および物体検出装置
JP2013246009A (ja) 物体検出装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
JP2014025804A (ja) 情報取得装置および物体検出装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
WO2013031448A1 (ja) 物体検出装置および情報取得装置
JP2014085282A (ja) 情報取得装置および物体検出装置
JP2014035304A (ja) 情報取得装置および物体検出装置
JP2014021017A (ja) 情報取得装置および物体検出装置
JP2013246010A (ja) 情報取得装置および物体検出装置
JP2013234956A (ja) 情報取得装置および物体検出装置
JP2013234957A (ja) 情報取得装置および物体検出装置
JP2014098585A (ja) 情報取得装置および物体検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12817741

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12817741

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP