WO2014174779A1 - 複数の光源を有するモーションセンサ装置 - Google Patents

複数の光源を有するモーションセンサ装置 Download PDF

Info

Publication number
WO2014174779A1
WO2014174779A1 PCT/JP2014/002002 JP2014002002W WO2014174779A1 WO 2014174779 A1 WO2014174779 A1 WO 2014174779A1 JP 2014002002 W JP2014002002 W JP 2014002002W WO 2014174779 A1 WO2014174779 A1 WO 2014174779A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
image
wavelength
image sensor
light source
Prior art date
Application number
PCT/JP2014/002002
Other languages
English (en)
French (fr)
Inventor
渕上 竜司
忠則 手塚
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to JP2014550586A priority Critical patent/JP6302414B2/ja
Priority to CN201480001650.6A priority patent/CN104395694B/zh
Priority to US14/410,168 priority patent/US9978148B2/en
Publication of WO2014174779A1 publication Critical patent/WO2014174779A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Definitions

  • This application relates to a motion sensor device provided with a plurality of light sources.
  • Patent Document 1 projects light in a time-sharing manner from a plurality of light sources to a stationary or moving object (object), and measures the distance to the object based on a plurality of images acquired by one image sensor. The technology is disclosed.
  • Non-Patent Document 1 discloses a hand gesture interface system that detects a human hand using near infrared rays.
  • Non-Patent Document 1 describes that in human skin, infrared rays having a wavelength of 870 nm have higher reflectance than infrared rays having a wavelength of 970 nm.
  • the conventional technology has a problem that the accuracy or sensitivity of the measured distance is lowered depending on the position of the object.
  • Embodiments of the present disclosure provide a new motion sensor device that can solve this problem.
  • the motion sensor device of the present disclosure is a control configured to control the image sensor, the first, second, and third light sources, the image sensor, and the first to third light sources.
  • the controller performs imaging of the first frame with the image sensor while the first light source emits light at a first time, and the image sensor with the second light source emits light at a second time.
  • First estimated distance information is generated based on the ratio of the luminance of the object obtained from the second image acquired by imaging the second frame and the luminance of the object obtained from the second frame.
  • Second estimated distance information is generated based on a ratio between the luminance of the object obtained from one image and the luminance of the object obtained from the third image acquired by imaging the third frame. And the first The a constant distance information and the second estimated distance information by selecting or combining, and is configured to obtain distance information to the object.
  • a motion sensor device includes an image sensor capable of detecting light having a first wavelength and light having a second wavelength different from the first wavelength, and light having the first wavelength. Are configured to control the first and second light sources that emit light, the third and fourth light sources that emit light of the second wavelength, the image sensor, and the first to fourth light sources.
  • the second image is captured by the image sensor, and the luminance of the first wavelength component of the target obtained from the first image acquired by the first frame imaging, and the second
  • the first estimated distance information is obtained from the ratio of the first wavelength component of the object obtained from the second image obtained by imaging the frame, and the first image obtained from the first image.
  • the first estimated distance information and the second estimated distance And information by selecting or combining, and is configured to obtain distance information to the object.
  • a motion sensor device is configured to control an image sensor, first, second, and third light sources, the image sensor, and the first to third light sources.
  • a control unit. The controller performs imaging of the first frame with the image sensor while the first light source emits light at a first time, and the image sensor with the second light source emits light at a second time.
  • the brightness of the object obtained from the first brightness and the brightness of the object obtained from the second image obtained by imaging the second frame are obtained by imaging the second brightness and the third frame.
  • the control unit obtains a fourth obtained by combining or selecting the first luminance and the third luminance. Brightness and said 2 on the basis of the ratio of the luminance, and is configured to obtain distance information to the object.
  • a motion sensor device includes an image sensor capable of detecting light having a first wavelength and light having a second wavelength different from the first wavelength, and light having the first wavelength. Are configured to control the first and second light sources that emit light, the third and fourth light sources that emit light of the second wavelength, the image sensor, and the first to fourth light sources.
  • the second image is captured by the image sensor, and the luminance of the first wavelength component of the target obtained from the first image acquired by imaging the first frame is set to the first luminance,
  • the luminance of the first wavelength component of the object obtained from the second image acquired by imaging the second frame is the second luminance, and the first of the object obtained from the first image.
  • the control unit is Select or combine the luminance of 1 and the second luminance Distance information to the object based on a ratio of the fifth luminance obtained by selecting the sixth luminance obtained by selecting or synthesizing the third luminance and the fourth luminance. Is configured to get.
  • An electronic device includes the above-described motion sensor device and a display that changes display content in response to the motion of the object detected by the motion sensor device.
  • An integrated circuit is an integrated circuit used in the motion sensor device described above, and is connected to the image sensor and the light source, and controls a timing control unit that controls exposure and light emission timings, and processes imaging data.
  • An extreme value search unit that searches for a region with relatively high luminance, a coordinate memory that stores coordinates and luminance of the region searched for by the extreme value search unit, and different conditions from the same region from the data in the coordinate memory
  • a distance calculation unit that selects a frame taken in step (b) and calculates estimated distance information using a luminance ratio.
  • the distance estimation method of the present disclosure is a distance calculation method by the motion sensor device described above, and is an extreme value for selectively selecting a region having relatively high light intensity from the data of the imaging frame and calculating the coordinates and light intensity.
  • a luminance ratio calculating step for calculating a ratio of luminance selected from frames photographed under different conditions among the luminance selected in the search step, the extreme value searching step, and the luminance ratio calculating step.
  • a distance conversion step for converting to a distance using the luminance ratio and the coordinates searched in the extreme value search step.
  • a computer program of the present disclosure is a computer program for operating the motion sensor device described above, and selectively selects a region having a relatively high light intensity from data of an imaging frame, and coordinates and light of the motion sensor device.
  • An extreme value search step for calculating intensity a luminance ratio calculation step for calculating a ratio of luminance selected from frames shot under different conditions among the luminances selected in the extreme value search step, and the luminance Using the brightness ratio calculated in the ratio calculation step and the coordinates searched in the extreme value search step, a distance conversion step for converting into a distance is executed.
  • the embodiment of the motion sensor device of the present disclosure can suppress the occurrence of a distance measurement error.
  • FIG. 1A The figure which shows typically the cross section of a motion sensor apparatus provided with two light sources.
  • Top view of the apparatus of FIG. 1A Graph showing the relationship between the radiation angle of LED light source and relative radiation intensity
  • the figure which shows the radiation angle of the LED light source The figure which shows a mode that the target object 104 is irradiated with the light radiated
  • FIG. The figure which shows a mode that the target object 104 is irradiated with the light radiated
  • luminance Graph showing the relationship between brightness ratio and distance at a certain radiation angle The figure which shows a mode that the target object 104 moved slightly with the light radiated
  • Configuration diagram of motion sensor device according to Embodiment 1 of the present disclosure 1 is a block diagram illustrating a configuration example of a motion sensor device according to a first embodiment of the present disclosure.
  • FIG. 1A is a diagram schematically showing a cross section of the motion sensor device
  • FIG. 1B is a top view of FIG. 1A.
  • the apparatus shown in FIGS. 1A and 1B includes an image sensor 101 located in the center and two LED light sources 102 and 103 located on both sides of the image sensor 101.
  • the image sensor 101 and the LED light sources 102 and 103 are mounted on a single substrate 100.
  • the image sensor is a solid-state imaging device in which a large number of fine light detection cells (photodiodes) are arranged in rows and columns, and is typically a CCD (Charge Coupled Device) type or a CMOS type.
  • CCD Charge Coupled Device
  • FIG. 1A schematically shows light 102 a emitted from the first light source 102 and light 103 a emitted from the second light source 103.
  • This apparatus can measure the distance to the measurement target object (target object) by performing imaging while alternately turning on the LED light sources 102 and 103.
  • the “distance measurement” includes obtaining an estimated value of the distance from the image sensor to the object or an estimated value of the position of the object in the space.
  • the object may include, for example, a person's hand, a finger, a pen held by the person, and the like. The object may move.
  • a three-dimensional motion sensor device capable of acquiring a distance to a fingertip of a person who is moving at high speed or an estimated value of the position of the fingertip in real time includes a computer, a tablet terminal, a smartphone, a game device, and a home appliance It can be used as an “input device” for various electronic devices.
  • FIG. 2 is a graph showing a radiation pattern (light distribution characteristic) of light emitted from each of the LED light sources 102 and 103.
  • the horizontal axis of the graph is an angle ⁇ that the direction of radiation forms with respect to the normal direction N of the substrate 100 as shown in FIG.
  • the vertical axis of the graph is the relative radiation intensity.
  • the radiation angle ⁇ may be referred to as a “radiation angle”.
  • the value of the relative radiant intensity corresponds to the illuminance (irradiance) of an object placed at a position away from the light source in the direction of a specific angle.
  • the radiation emitted from each of the LED light sources 102 and 103 exhibits the highest intensity when the angle ⁇ is 0 °.
  • the LED light sources 102 and 103 have such light distribution characteristics that the radiation intensity can be approximated by I 0 ⁇ cos ⁇ .
  • the light distribution characteristics of the LED light sources 102 and 103 are not limited to the example of FIG.
  • the radiation emitted from the LED light sources 102 and 103 is not limited to visible light, but may be electromagnetic waves in a wavelength region that cannot be felt by human vision such as infrared rays. In this specification, for the sake of simplicity, radiation emitted from a light source may be simply referred to as “light”.
  • the term “light” is not limited to visible light, but widely includes electromagnetic waves that can be detected by an image sensor.
  • FIG. 4A shows a state in which the object 104 is irradiated with the light emitted from the first LED light source 102 and a part of the light reflected by the object 104 is incident on the image sensor 101.
  • FIG. 4B shows a state in which the object 104 is irradiated with the light emitted from the second LED light source 103 and a part of the light reflected by the object 104 enters the image sensor 101. .
  • the position of the object 104 is substantially the same in FIGS. 4A and 4B.
  • the first imaging by the image sensor 101 is performed with the LED light source 102 turned on and the LED light source 103 turned off at the first time.
  • the second image pickup by the image sensor 101 is performed with the LED light source 103 turned on and the LED light source 102 turned off. It is assumed that each period (exposure time) of the first and second imaging is sufficiently short enough to handle the object 104 as substantially stopped.
  • a part of the light emitted from the LED light source 102 is reflected by the object 104 and enters the image sensor 101, so that a luminance image corresponding to the intensity of the light incident on the image sensor 101 is obtained. It is done.
  • a part of the light emitted from the LED light source 103 is reflected by the object 104 and enters the image sensor 101, it corresponds to the intensity of the light incident on the image sensor 101. A luminance image is obtained.
  • luminance in this specification is not a psychophysical quantity having a unit of [candela / m 2 ], but “relative luminance” determined for each pixel of the image sensor, and corresponds to a light quantity or a radiation quantity.
  • luminance value corresponding to the amount of received light.
  • the image of the object 104 in each image is usually composed of a plurality of pixels.
  • the “luminance” of the object 104 can be determined by various methods from the luminance values of a plurality of pixels constituting the image of the object 104.
  • the brightness of the brightest “pixel” or “pixel block” can be set as the brightness of the object 104, and the average brightness of all the pixels constituting the image of the object 104 can be obtained.
  • the brightness of the object 104 can also be used.
  • FIG. 5 is a graph showing the luminance value of one horizontal line that crosses the image of the object 104 in each of the two-frame images acquired by the above method.
  • the horizontal axis is the pixel position on a specific horizontal line in the image, and the vertical axis is the luminance.
  • a curve 301 in the graph is a luminance when the LED light source 102 is lit, and a curve 302 is a luminance when the LED light source 103 is lit.
  • each of the curve 301 and the curve 302 has a unimodal peak. That is, the curve 301 shows an extreme value 303 at a certain pixel position, and the curve 302 shows an extreme value 304 at another pixel position.
  • the horizontal coordinate spacing between the extreme value 303 of the curve 301 and the extreme value 304 of the curve 302 is indicated by a width 305.
  • the object 104 is substantially stationary between the two frames. Therefore, the difference between the curve 301 and the curve 302 is due to the difference between the radiation pattern produced by the LED light source 102 and the radiation pattern produced by the LED light source 103.
  • the light emitted from the LED light source 102 is reflected by the object 104 and incident on the image sensor 101, and the brightness of the image acquired and the light emitted from the LED light source 103 is reflected by the object 104 and incident on the image sensor 101.
  • the ratio of the brightness of the acquired image depends on the relationship between the distance from the LED light source 102 to the object 104 and the distance from the LED light source 103 to the object 104.
  • FIG. 6 is a graph showing an example of the relationship between the distance from the image sensor 101 in the direction of an angle of 45 degrees and the luminance ratio.
  • the graph of FIG. 6 shows the relative distance to the object on the horizontal axis and the luminance ratio on the vertical axis when the LED light source having the characteristics of FIG. 2 is arranged at a predetermined distance from the image sensor 101 to the left and right. Show.
  • the “distance” on the horizontal axis is based on the distance between the image sensor 101 and the LED light source, and the distance “1” means a size equal to the distance between the image sensor 101 and the LED light source.
  • the brightness (or illuminance) of the object attenuates in inverse proportion to the square of the distance from the LED light source to the object. For this reason, the ratio of luminance changes according to the distance. Since the radiation characteristic shown in FIG. 2 is known, based on this radiation characteristic, it is possible to detect or estimate the distance with high accuracy.
  • FIG. 6 shows an example of the relationship between the distance and the luminance ratio when the radiation angle ⁇ is 45 degrees, but the relationship between the distance and the luminance ratio can be obtained in advance in the same manner for a plurality of different angles.
  • the angle of the object can be obtained based on the imaging position of the object acquired by the image sensor.
  • the distance between the target object and the image sensor is approximately more than 1, the distance can be measured from the ratio between the extreme value 303 and the extreme value 304.
  • a light source whose relative radiation intensity changes according to the radiation angle is used.
  • this measurement method can be used even with a light source that does not have such characteristics.
  • the light intensity exhibits some light distribution characteristics in the three-dimensional space, and such light sources can also be used for distance measurement.
  • a “point light source” in which light distribution is isotropic the illuminance and luminance on the object attenuate in inverse proportion to the square of the distance from the light source, and therefore, a light source having a radiation pattern that is three-dimensionally spatially different It can be said.
  • FIG. 7A and FIG. 7B show a state where imaging is performed on the object 104 moved from the position shown in FIGS. 4A and 4B. If high-speed imaging and distance estimation can be performed, the distance can be measured by the above-described method even for a moving object.
  • the position of the moving object 104 can be detected by repeating alternate illumination with the light sources 102 and 103 and imaging with the image sensor 101. As a result, it is possible to detect a change in the position or movement of the object 104.
  • the distance measurement accuracy decreases in the region where the distance from each of the two LED light sources 102 and 103 to the object 104 is equal.
  • a region is referred to as a “low sensitivity region”.
  • the brightness ratio increases as the distance is shortened. Therefore, the distance to the target object is in the “close range” where the distance to the target object is 1 or less. It cannot be determined whether or not.
  • FIG. 8 is a diagram schematically showing a low sensitivity region by the above-described apparatus.
  • FIG. 8 shows a low-sensitivity region 504 that occurs when the distance is too short, and a low-sensitivity region 505 that occurs when the luminance ratio is close to 1 regardless of the distance.
  • the motion sensor device of the present embodiment includes three light sources.
  • FIG. 9A is a diagram schematically illustrating an arrangement configuration example of light sources in a motion sensor device including three light sources (first light source 102, second light source 103, and third light source 104).
  • FIG. 9B is a time chart showing the control timing of the light source and the image sensor in this motion sensor device.
  • the periods 802, 803, and 804 shown in FIG. 9B correspond to periods in which the LED light sources 102, 103, and 104 are turned on, respectively.
  • the first exposure period 805, the second exposure period 806, and the third exposure period 807 correspond to imaging of the first frame, the second frame, and the third frame by the image sensor 101, respectively.
  • the LED light sources 102, 103, and 104 are lit in this order, but the lighting order is arbitrary. However, if the lighting period of the LED light source 102 is set at the center of the lighting periods of the three light sources, there is an effect that it is possible to suppress a decrease in measurement accuracy due to the movement of the object.
  • a normal image sensor captures one frame by one exposure, reads the obtained image data to the outside, and then captures the next frame. That is, an image data read operation is executed for each frame.
  • an image sensor after the exposure in the nth frame (n is an integer) is finished, the entire charge obtained by the imaging of the nth frame is started before the exposure of the (n + 1) th frame is started. It takes time for the operation to transfer and output to the outside.
  • the second exposure period 806 starts immediately after the first exposure period 805.
  • the charge of each pixel generated by imaging the first frame in the first exposure period 805 is transferred to the storage unit before the second exposure period 806 starts and accumulated in the storage unit.
  • the third exposure period 807 starts immediately after the second exposure period 806.
  • the charge of each pixel generated by imaging the second frame in the second exposure period 806 is transferred to another storage unit before the third exposure period 807 starts and accumulated in the storage unit. After that, the charge accumulated in the storage unit and the charge signal generated in the third exposure period 807 are read out in the period Tt and output to the outside.
  • the time Tt depends on the number of pixels, but can be set to a size of, for example, about 20 milliseconds in consideration of the data transfer rate.
  • the time Te can be set to a short period of 1 millisecond or less, for example, 25 microseconds. If imaging of three frames is continuously performed within a short period, distance measurement can be performed even when the object moves at high speed like a human fingertip. For example, when 3 ⁇ Te is 75 microseconds, even if the object moves at a speed of 1 meter / second, the object moves only 0.075 millimeters during the first to third imaging. On the other hand, if imaging is performed at a normal frame rate (for example, 60 frames / second), the object moves as much as 50 millimeters.
  • the object moves as much as 3 millimeters.
  • the period from the start time of the first frame to the end time of the third frame can be shortened to, for example, 3 milliseconds or less, it is practical for various uses as a motion sensor device.
  • the distance to the object can be calculated based on two images out of the three images acquired in the first to third frames. There are three combinations of two of the three images. The position of the low sensitivity region is different in each of the three types. By using a pair of images according to two or three combinations, it is possible to remove the low sensitivity region.
  • the low-sensitivity area is mainly removed using two images acquired in the first and second frames and two images acquired in the second and third frames. Assume that
  • FIG. 10 shows a low-sensitivity area when distance information is obtained from two images acquired in the first and second frames, and distance information from the two images acquired in the second and third frames. It is a figure which shows typically the low sensitivity area
  • the low sensitivity region 605 is generated around a region where the distance from each of the light sources 102 and 103 is equal.
  • a low-sensitivity region 606 is generated around a region where the distance is equal from each of the light sources 103 and 104. .
  • the light source 103 is disposed in the vicinity of the image sensor 101, the low sensitivity region 504 at a close distance as shown in FIG. 8 does not occur.
  • the brightness of a frame shot under a strong light emission condition in a sufficiently short time is almost proportional to the intensity of reflected light.
  • the brightness of the object shown in the first frame is “first brightness”
  • the brightness of the object shown in the second frame is “second brightness”
  • the target is shown in the third frame. Will be referred to as “third luminance”.
  • Each brightness is determined according to an angle and a distance determined by the positional relationship between the object and each light source. As described above, the distance of the object can be estimated from the ratio of these luminances.
  • the distance measurement accuracy is lowered.
  • the second luminance is higher than the first luminance, it can be estimated that there is an object on the right side (side closer to the light source 103) than the low sensitivity region 605.
  • the first luminance is higher than the second luminance, it can be estimated that there is an object on the left side (side closer to the light source 102) than the low sensitivity region 605.
  • the second luminance and the third luminance are compared, in the low sensitivity region 606, these luminances are almost equal (luminance ratio is close to 1), so that the distance measurement accuracy is lowered.
  • the second luminance is higher than the third luminance, it can be estimated that there is an object on the left side (side closer to the light source 103) than the low sensitivity region 606.
  • the third luminance is higher than the second luminance, it can be estimated that there is an object on the right side (side closer to the light source 104) than the low sensitivity region 606.
  • the motion sensor device obtains the first estimated distance information from the ratio between the first luminance and the second luminance, and obtains the first estimated distance information from the ratio between the second luminance and the third luminance.
  • the estimated distance information of 2 is obtained, and the distance information of the object is generated by selecting or combining them.
  • the ratio between the first luminance and the second luminance is within a preset range
  • the distance information to the object is obtained using only the second estimated distance information
  • the second When the ratio between the luminance and the third luminance is within a preset range, distance information to the object is obtained using only the first estimated distance information.
  • the “preset range” is, for example, a predetermined range close to 1 (0.8 to 1.2, etc.).
  • the “when the ratio is within a preset range” of the two luminances includes the case where the “difference” is not within the preset range but the “ratio” of the two luminances.
  • the first estimation distance information is used only when the second luminance is larger than the first luminance, and the second estimation is performed only when the second luminance is larger than the third luminance.
  • the estimated distance information may be obtained based on a comparison result between the first luminance and the third luminance.
  • an area that is highly sensitive may be synthesized by weighting and averaging them. By such processing, it is possible to remove the low sensitivity region and perform highly sensitive distance measurement.
  • the value of the luminous intensity (radiation intensity) or the luminous flux (radiant flux) may be reduced, or the emission angle may be set narrow. Therefore, as the LED light source 104, a low-cost light source with low price can be adopted. By adopting such a light source, it is possible to suppress increases in component costs and power consumption. That is, according to the present embodiment, it is possible to realize a motion sensor device with a small low sensitivity region by adding only one LED light source having a relatively low price.
  • the distance to the object moving at high speed or the three-dimensional motion of the object is detected. Can do.
  • a normal one-frame exposure image sensor may be used.
  • FIG. 11 the configuration and operation of the motion sensor device according to the present embodiment will be described in more detail with reference to FIG. 11, FIG. 12, and FIG.
  • FIG. 11 is a diagram schematically showing the configuration of the motion sensor device according to the present embodiment.
  • This apparatus includes an image sensor 101, a lens system 110 that forms a subject image on the imaging surface of the image sensor 101, three LED light sources 102, 103, and 104, an image sensor 101, and LED light sources 102, 103, and 104.
  • a control unit 1000 configured to control.
  • the image sensor 101 and the LED light sources 102, 103, 104 are mounted on the substrate 100.
  • Part or all of the control unit 1000 may be mounted on the substrate 100 or may be mounted on another substrate. Further, a part of the function of the control unit 1000 may be realized by a device placed at a remote position.
  • the LED light source 103 is disposed closest to the image sensor 101.
  • the directions of the LED light sources 102 to 104 with respect to the image sensor 101 are defined as first to third directions, respectively, and the distances to the LED light sources 102 to 104 are defined as first to third distances, respectively.
  • the second direction and the third direction are opposite to the first direction. Further, the second distance is shorter than the first and third distances. In the present embodiment, the second and third distances are set equal to each other.
  • the LED light sources 102, 103, and 104 are all configured to emit light in the same wavelength region.
  • the image sensor 101 is configured to be able to detect light having at least some wavelengths of light emitted from the LED light sources 102, 103, and 104.
  • the LED light sources 102, 103, and 104 those that emit invisible light such as near infrared rays can be suitably used from the viewpoint of practicality. However, in applications where there is no problem with emitting visible light, such as industrial use, mounting with visible light is also possible.
  • the light source is not limited to the LED light source, and any light source having a three-dimensionally biased intensity distribution such as a point light source can be used.
  • the LED light sources 102, 103, and 104 are configured to emit light having a first wavelength (for example, 800 nm) that is near infrared, and the image sensor 101 detects light having the first wavelength. It shall be configured so that it can.
  • the “near infrared region” refers to a wavelength range of approximately 700 nm to 2.5 ⁇ m. Further, “near infrared” means light (electromagnetic wave) having a wavelength in the near infrared region. In addition, “emitting light of the first wavelength” includes emitting light of a wide wavelength range including the first wavelength. In the present embodiment, the light sources 102, 103, and 104 do not need to emit light in the exact same wavelength range, and the wavelength range may be shifted within a range where distance measurement based on the luminance ratio is possible. .
  • the light sources 102 and 103 can stably measure the distance from the left side of the image sensor 101 to the object located in the entire area on the right side.
  • the light sources 103 and 104 can stably measure the distance from the right side of the light source 103 to the object located in the entire region on the left side. In this way, by using the luminance ratio by the light sources 102 and 103 and the luminance ratio by the light sources 103 and 104, it is possible to eliminate the low sensitivity region and increase the stability of distance detection.
  • the image sensor 101 has a storage unit that temporarily accumulates charges in units of pixels. Therefore, the imaging of the (n + 1) th frame can be performed without waiting for the reading of the image data obtained by the imaging of the nth frame. If the storage unit in the image sensor 101 is increased, continuous exposure of three frames or more is possible.
  • the image sensor 101 may be a special sensor that can be separately exposed on even / odd lines.
  • the image sensor in the present embodiment is a CMOS image sensor or a CCD image sensor, but the image sensor is not limited to these.
  • the control unit 1000 captures the first frame with the image sensor 101 while causing the first light source 102 to emit light at the first time, and causes the image sensor 101 to emit light while causing the second light source 103 to emit light at the second time.
  • the second frame is imaged, and the image sensor 101 is configured to image the third frame while emitting the third light source 104 at a third time.
  • the control part 1000 is comprised so that the estimated distance information to the target object 104 may be obtained based on the several image acquired by imaging of the 1st-3rd flame
  • FIG. 12 is a block diagram illustrating a configuration example of the motion sensor device according to the present embodiment.
  • the imaging device 1101 is a monocular imaging device and includes the image sensor 101 and the lens system 110 shown in FIG.
  • the lens system 110 may be a set of a plurality of lenses arranged on the same optical axis.
  • the light source device 1102 includes the light sources 102, 103, and 104 in FIG.
  • the control unit 1000 in this embodiment includes a CPU 1103 and a semiconductor integrated circuit 1104.
  • the semiconductor integrated circuit 1104 has a distance calculation block 1105 and an image filter block 1106.
  • the distance calculation block 1105 includes an extreme value search unit 1107, a timing control unit 1108, a coordinate memory 1109, and a distance calculation unit 1110.
  • the light sources 102, 103, and 104 in this embodiment are all LED light sources, and have a relationship between the radiation angle and the relative radiation intensity shown in FIG. Note that for the implementation of the present disclosure, the light sources 102, 103, and 104 do not have to have a characteristic that the relative radiation intensity changes according to the radiation angle. However, in reality, many light sources have a relative radiation intensity that varies depending on the radiation angle. Therefore, this embodiment takes this point into consideration.
  • the timing control unit 1108 in FIG. 12 issues a lighting instruction signal for the LED light source 102 to the light source device 1102.
  • the timing control unit 1108 outputs an exposure instruction signal for the image sensor 101 to the imaging device 1101.
  • an image with the light source 102 turned on is acquired in the first frame and sent to the semiconductor integrated circuit 1104.
  • the timing control unit 1108 outputs a lighting instruction signal for the light source 103 to the light source device 1102 and outputs an exposure instruction signal for the image sensor 101 to the imaging device 1101. By doing so, an image when the light source 103 is turned on is acquired in the second frame and sent to the semiconductor integrated circuit 1104.
  • timing control unit 1108 outputs a lighting instruction signal for the light source 104 to the light source device 1102 and outputs an exposure instruction signal for the image sensor 101 to the imaging device 1101. By doing so, an image when the light source 104 is turned on is acquired in the third frame and sent to the semiconductor integrated circuit 1104.
  • the image frame output from the imaging device 1101 is processed by the image filter block 1106.
  • the image filter block 1106 is not essential, in the present embodiment, preprocessing such as a noise removal filter is performed by the image filter block 1106 in image processing.
  • the image processed by the image filter block 1106 is sent to the distance calculation block 1105.
  • the extreme value search unit 1107 processes the image.
  • An example of data processed by the extreme value search unit 1107 is as shown in FIG.
  • FIG. 5 the brightness
  • FIG. 5 the luminance distribution on the same line is shown for two frame images, but in this embodiment, the luminance distribution on the same line is obtained for three frame images.
  • two graphs are obtained as shown in FIG.
  • a graph as shown in FIG. 5 can be created from the image of the first frame and the image of the second frame.
  • a graph as shown in FIG. 5 can be created from the image of the second frame and the image of the third frame.
  • the extreme value search unit 1107 first searches for an area where an object to be detected exists. There are many search methods. For example, it is easy to search for the extreme values 303 and 304 of the luminance from the luminance 301 and the luminance 302 in FIG. In addition, when an extreme value that is stable with respect to movement is desired, there is a method in which a region where the luminance is equal to or higher than a certain value is specified and the median value is used as the extreme value.
  • extreme values 303 and 304 are taken from the same object, and extreme values are paired. This may be a simple method of simply pairing those having close coordinates, or by previously obtaining an area of a certain luminance or higher from the value obtained by adding the luminance 301 and the luminance 302 and searching for an extreme value within that range. Also good.
  • the extreme value search unit 1107 outputs the coordinates and extreme values of the detected object.
  • the coordinates may be the center or the center of gravity of the region 306, or may be the coordinates of the center between the extreme value 303 and the extreme value 304.
  • the one-dimensional straight line may be an axis other than the horizontal line for imaging, and it is also possible to search for coordinates and luminance of a region having a two-dimensional high relative luminance level.
  • the coordinates and extreme values of the object output by the extreme value search unit 1107 are stored in the coordinate memory 1109 and then sent to the distance calculation unit 1110.
  • the distance calculation unit 1110 calculates the distance based on the ratio between the luminance obtained from the first frame image and the luminance obtained from the second frame image.
  • the orientation of the object as viewed from the image sensor 101 is determined from the coordinates of the object. This orientation can be uniquely determined in consideration of the characteristics of an optical system such as a lens.
  • the arrangement and radiation characteristics of the LED light source as shown in FIG. 6 described above are obtained for each direction.
  • the data in FIG. 6 is based on the fact that the light intensity decreases in inverse proportion to the square of the distance between the LED light source and the object. Further, in order to improve accuracy, the angle generated between the LED light source at each distance is corrected according to the radiation characteristic of FIG. With the data shown in FIG. 6, the distance of the object can be calculated from the luminance ratio.
  • the data in FIG. 6 may be calculated using trigonometric function calculation by the distance calculation unit 1110. Further, a graph that has been calculated or measured in advance may be provided as a table, and calculation may be performed by a method of referring to the graph while complementing as necessary.
  • the result of the distance calculation block 1105 is sent to the CPU 1103 and used as 3D motion information.
  • the extreme values 303 and 304 can be used as the luminance ratio for the distance calculation if the material of the object is substantially uniform in the target region. is there. Focusing on this characteristic, the measurement unit may be performed only in units of an object having a certain width. In the present embodiment, extreme value search is performed first, and distance calculation is performed on the obtained extreme value. By doing so, it is possible to reduce the amount of calculation processing and increase the speed.
  • FIG. 13 shows a processing flowchart of the software program in that case. This process includes an extreme value search step 1201, a threshold determination step 1202, a luminance ratio calculation step 1203, and a distance conversion step 1204.
  • the extreme value search step 1201 a region having a relatively high luminance value, that is, a region including the extreme value is searched from the image data. Subsequently, in the threshold determination step 1202, it is determined whether the extreme value search step 1201 is an object to be tracked. If the luminance or area size is below a certain value, it is regarded as noise and judged as “no object” and discarded.
  • the threshold determination step 1202 is not essential, but is generally an important step in order to increase robustness. Subsequently, when it is determined in the threshold determination step 1202 that there is an object, the corresponding extreme values are paired and associated to calculate the luminance ratio. Subsequently, in the distance conversion step 1204, the distance is converted using the luminance ratio and the captured image position.
  • This function can also be realized by storing a program defining the above procedure in a magnetic recording medium or a semiconductor recording medium and executing the program by the CPU.
  • the calculation can be completed at high speed by using this procedure. Become.
  • the motion sensor device of this embodiment can be applied to various uses. By applying it to a video camera, it is possible to control autofocus in moving images at high speed. It can also be applied as a motion sensor device for gesture recognition by individually recognizing human fingers at a short distance or recognizing the body or five human bodies at a long distance.
  • each of the light sources 102, 103, and 104 does not need to be configured by one LED chip, and an LED array in which a plurality of LED chips are arranged may be used as each light source.
  • each light source 102, 103, 104 may be provided with optical components such as lenses and filters. These matters are the same for the light sources of the other embodiments.
  • the light sources 102, 103, 104 and the image sensor 101 do not need to be arranged on a straight line.
  • 14A and 14B are top views showing other arrangement examples of the light sources 102, 103, and 104 and the image sensor 101. As shown in FIG. 14A, some of the light sources 102, 103, and 104 (in this example, the light source 103) may be arranged out of a straight line, or one light source as shown in FIG. 14B. And another light source may not be arranged on a straight line passing through the image sensor 101.
  • the two light sources 102 and 104 are arranged at the same distance in the opposite directions with respect to the image sensor 101, but these distances may be different.
  • the three light sources 102, 103, and 104 are arranged in different directions as viewed from the image sensor 101. If the directions are different in this way, the distances from the image sensor 101 to the light sources 102, 103, and 104 do not need to be different and may be equal to each other.
  • the control unit 1000 uses the first estimated distance information based on the ratio between the luminance of the object obtained from the first image and the luminance of the object obtained from the second image. And the second estimated distance information is generated based on the ratio between the luminance of the object obtained from the second image and the luminance of the object obtained from the third image. Then, distance information to the target object is obtained by selecting or combining the first and second estimated distance information.
  • the control unit 1000 may obtain the distance information to the object not by such an operation but by another operation.
  • the distance of the object may be obtained by selecting or synthesizing luminance information of a plurality of images before conversion into distance.
  • a mixture of the first luminance and the third luminance at a predetermined mixing ratio is set as the fourth luminance, and the object is determined based on the ratio between the second luminance and the fourth luminance.
  • Distance information can be obtained.
  • the first luminance is P1
  • the third luminance is P3
  • the mixing ratio is a (0 ⁇ a ⁇ 1)
  • the fourth luminance is P1 ⁇ a + P3 ⁇ (1 ⁇ a).
  • the luminance mixing ratio a may be determined for each pixel position in the image sensor 101.
  • either the first luminance or the third luminance may be selected, the selected luminance may be the fourth luminance, and the distance may be calculated by the same method as described above. This corresponds to the case where the mixing ratio a is 0 or 1. Whether to select the first luminance or the third luminance can be determined based on, for example, whether the ratio or difference between the two luminances is within a predetermined range.
  • the motion sensor device of this embodiment includes four light sources (a first light source 702, a second light source 703, a third light source 704, and a fourth light source 705).
  • the apparatus of this embodiment also has the same configuration as the lens system 110 and the control unit 1000 in the above-described embodiment described with reference to FIG. Therefore, these descriptions are not repeated here.
  • FIG. 15A is a diagram showing an arrangement configuration of light sources in the motion sensor device of the present embodiment.
  • FIG. 15B is a time chart showing the control timing of the light source and the image sensor in this motion sensor device.
  • the motion sensor device of this embodiment includes an image sensor 701 mounted on a substrate 700 and four LED light sources 702, 703, 704, and 705.
  • LED light sources 702 and 703 are configured to emit light having a first wavelength.
  • LED light sources 704 and 705 are configured to emit light of the second wavelength.
  • the image sensor 701 is configured to detect at least light of the first and second wavelengths.
  • the first wavelength and the second wavelength may be arbitrary wavelengths, but in the following description, they are 780 nm and 850 nm, respectively. These are both wavelengths in the near infrared region.
  • the first and second wavelengths are not limited to wavelengths in the near infrared region, and may be visible light wavelengths, for example. From the viewpoint of practicality, it is preferable to set the first and second wavelengths to wavelengths in the near-infrared region. However, in applications where there is no problem in emitting visible light, such as industrial use, Implementation is also possible.
  • the directions of the light sources 702 to 705 are the first to fourth directions, and the distances to the light sources 702 to 705 are the first to fourth distances, respectively.
  • the second direction and the fourth direction are opposite to the first direction, and the third direction is the same direction as the first direction. Further, the second and third distances are both shorter than the first and fourth distances. In the present embodiment, the second and third distances are equal to each other, and the first and fourth distances are equal to each other. However, such an arrangement is not necessarily required.
  • the image sensor 701 is a special sensor that performs two exposures in succession and can capture two frames.
  • a special sensor capable of performing three exposures continuously is required, which is effective in principle, but actual production can be expensive.
  • distance measurement can be performed with a lower cost configuration. Furthermore, in the present embodiment, it is possible to determine not only the distance measurement but also the material of the object as will be described later.
  • periods 812, 813, 814, and 815 correspond to periods in which the LED light sources 702, 703, 704, and 705 are turned on, respectively.
  • the first exposure period 816 and the second exposure period 817 correspond to imaging of the first frame and the second frame by the image sensor 701, respectively.
  • the LED light sources 702 and 705 emit light simultaneously, and then the LED light sources 703 and 704 emit light simultaneously.
  • the present invention is not limited to this example, and one of the LED light sources 702 and 703 that emit light of the first wavelength and one of the LED light sources 704 and 705 that emit light of the second wavelength emit light simultaneously. It is sufficient that the light emission is controlled.
  • the control unit captures the luminance of the first wavelength component of the target obtained from the first image acquired by imaging the first frame and the imaging of the second frame.
  • the first estimated distance information is acquired from the ratio with the luminance of the first wavelength component of the target obtained from the second image acquired by the above. Further, from the ratio of the luminance of the second wavelength component of the object obtained from the first image and the luminance of the second wavelength component of the object obtained from the second image, the second Get estimated distance information. Then, by selecting or synthesizing the first estimated distance information and the second estimated distance information, the distance information to the object is generated and output.
  • FIG. 16 is a diagram schematically showing a low sensitivity region in the first estimated distance information and the second estimated distance information.
  • the low sensitivity region 711 is generated around the region where the distance from each of the light sources 702 and 703 is equal.
  • a low sensitivity region 712 is generated around a region where the distance from each of the light sources 704 and 705 is equal.
  • the light sources 703 and 704 are arranged in the vicinity of the image sensor 101, the low sensitivity region 504 at a close distance as shown in FIG. 8 does not occur.
  • the control unit calculates the luminance of the first wavelength component of the object obtained from the first image and the luminance of the first wavelength component of the object obtained from the second image.
  • the ratio is within a preset range (for example, 0.8 to 1.2)
  • the distance information to the object is obtained using only the second estimated distance information.
  • the ratio between the luminance of the second wavelength component of the object obtained from the first image and the luminance of the second wavelength component of the object obtained from the second image is preset.
  • the first estimated distance information is used to obtain the distance information to the object.
  • the first only when the luminance of the first wavelength component of the object obtained from the second image is larger than the luminance of the first wavelength component of the object obtained from the first image.
  • the luminance of the second wavelength component of the object obtained from the second image is larger than the luminance of the second wavelength component of the object obtained from the first image.
  • the second estimated distance information may be used.
  • the image sensor 701 may be a sensor having a plurality of types of pixels having different spectral sensitivity characteristics, such as a known color image sensor.
  • a sensor with a Bayer arrangement in which four pixels of R, G, G, and B are arranged as a unit, or one that can acquire signal charges of a plurality of color components with one pixel by utilizing the fact that transmission characteristics differ depending on the wavelength
  • a prism that separates light for each color by a prism and receives light for each color component by a plurality of imaging devices. Any of these color image sensors can be used as the image sensor 701 because it can receive light having different spectral sensitivity characteristics depending on the color components.
  • FIG. 17 is a graph showing an example of spectral sensitivity characteristics for each color component of the image sensor 701 in the present embodiment.
  • the horizontal axis represents the wavelength
  • the vertical axis represents the relative value of sensitivity.
  • the image sensor 701 includes an R pixel that mainly detects a red component of light, a G pixel that mainly detects a green component, and a B pixel that mainly detects a blue component.
  • the spectral sensitivity characteristic 901 of the R pixel, the spectral sensitivity characteristic 902 of the G pixel, and the spectral sensitivity characteristic 903 of the B pixel all have sensitivity to wavelengths in the near infrared region.
  • the R pixel sensitivity 911 and the B pixel sensitivity 913 with respect to the first wavelength light, and the R pixel sensitivity 912 and the B pixel sensitivity 914 with respect to the second wavelength light are used to obtain the first and An example of obtaining the luminance value of each component of the second wavelength will be described.
  • R pixel sensitivity 911 for the first wavelength a R pixel sensitivity 912 for the second wavelength b, B pixel sensitivity 913 for the first wavelength c, B pixel sensitivity for the second wavelength
  • the luminance corresponding to the light intensity of the first wavelength component incident on a pixel in one frame is ⁇
  • the luminance corresponding to the light intensity of the second wavelength component is ⁇ .
  • the red component r and the blue component b out of the luminance in a certain pixel of one frame are expressed by the following formula (1).
  • the luminance ⁇ of the first wavelength component and the luminance ⁇ of the second wavelength component in the pixel can be obtained by the following equation (2).
  • the luminance of each component of the first and second wavelengths in each frame can be obtained.
  • the spectral sensitivity characteristics of the R pixel and the B pixel are used, but the same calculation may be performed by replacing one of them with the spectral sensitivity characteristic of the G pixel.
  • an image sensor that can acquire signal charges of a plurality of color components with one pixel by utilizing the fact that transmission characteristics differ depending on the wavelength, and a prism that separates light for each color, and a plurality of imaging devices for each color component Even when an image sensor that receives light is used, the same calculation may be performed based on the spectral sensitivity characteristic for each color component of incident light.
  • the control unit in this embodiment uses the luminance of the first wavelength component extracted from the first frame and the luminance of the first wavelength component extracted from the second frame, From the luminance ratio, the distance of the object is calculated as first estimated distance information. At this time, accurate distance measurement cannot be performed in the low sensitivity region 711 having a luminance ratio close to 1. On the other hand, since the LED light source 703 is located sufficiently close to the image sensor 701, there is almost no region where the relationship of light intensity is reversed in the region on the right side of the low sensitivity region 711, and a wide area can be measured satisfactorily.
  • the control unit also uses the light intensity component of the second wavelength extracted from the first frame and the light intensity component of the second wavelength extracted from the second frame, and calculates the object from the ratio of the light intensity. Is calculated as second estimated distance information. At this time, accurate distance measurement cannot be performed in the low sensitivity region 712 having a luminance ratio close to 1. On the other hand, since the LED light source 704 is located sufficiently close to the image sensor 701, there is almost no region where the relationship of light intensity is reversed in the region on the left side of the low sensitivity region 712, and a wide area can be measured well.
  • the first estimated distance information obtained based on the luminance ratio of the first wavelength component and the second estimated distance information obtained based on the luminance ratio of the second wavelength component are low in sensitivity to each other. You can see that they complement each other. Therefore, the control unit supplements the low-sensitivity area on one side of the estimated distance information with the other information, and performs synthesis such as averaging both areas while weighting the high-sensitivity area. By such processing, all areas can be seamlessly integrated, and highly sensitive distance measurement is possible.
  • the object since the object is photographed using the first wavelength and the second wavelength, not only the distance information but also the material determination of the object can be performed. .
  • the principle of material determination in this embodiment will be described.
  • the thing that exists in the natural world has different absorptance depending on the wavelength, and the reflectance of light that has not been absorbed also differs. Therefore, even when light is emitted with the same intensity, the intensity of the reflected light can be different if the wavelength is different. In the visible light region, the difference relationship is recognized as a color difference. Even in the invisible light region, it is possible to estimate the material of the object by detecting the difference in intensity of the reflected light.
  • Non-Patent Document 1 it is known that human skin has a low reflectivity for near infrared rays near 970 nm. Therefore, whether or not the object is human skin can be determined by simply comparing the magnitude relationship between the reflected light intensity of near infrared light near 970 nm and the reflected light intensity of near infrared light near 870 nm, which has a relatively high reflectance. Can be estimated. This estimation is not limited to wavelengths near 970 nm and 870 nm, but can be performed using other wavelengths.
  • the control unit is configured such that the difference (difference or ratio) between the luminance of the first wavelength component of the target object and the luminance of the second wavelength component in at least one of the first and second images.
  • the material of the object is determined.
  • the difference between the luminance of the first wavelength component and the luminance of the second wavelength component of the object matches the difference in the reflectance of the human skin with respect to the light of each of the first and second wavelengths. It is determined whether or not to do.
  • it can be determined whether or not the object is a human hand.
  • a light source for material estimation can be added separately from the distance measurement.
  • the light source for material estimation may be configured to emit light having a third wavelength (for example, 970 nm) different from the two wavelengths for distance measurement (first wavelength and second wavelength).
  • the light source for material estimation may be a combination of a plurality of light sources that emit light of different wavelengths.
  • the material of the object can be determined based on the difference in reflected light intensity between at least two lights having different wavelengths. For example, the two wavelengths for distance measurement are ⁇ 1 and ⁇ 2, the wavelength for material estimation is ⁇ 3, and the material of the object can be determined based on the ratio of the luminance of these three wavelengths.
  • the material of the object can be determined based on the ratio of the luminance of these three wavelengths using three light sources that emit light of wavelengths ⁇ 1, ⁇ 2, and ⁇ 3, respectively, for material determination.
  • three light sources that emit light of wavelengths ⁇ 1, ⁇ 2, and ⁇ 3, respectively.
  • the material can be determined from the luminance ratio of the three components. With regard to the ratio of the luminance of these three components, if a plurality of conditions are set in advance in association with a plurality of materials, it is also possible to selectively determine a plurality of materials.
  • the light source for material estimation is different from the light source for distance measurement, but both may be integrated. That is, as a light source for distance measurement and material estimation, a light source having a wide emission band including the third wavelength in addition to the first or second wavelength may be used. If at least one of the first to fourth light sources 702 to 705 is such a light source, the same material determination as when the fifth light source is added is possible.
  • the 3D motion sensor for example, there is an application in which only a human finger or a pointing stick is detected and used as a user interface.
  • tracking a pointing stick or the like there is a case where it is desired to exclude human fingers as erroneous information.
  • the motion sensor of the present embodiment it is possible to determine whether the object is a pointing stick or a finger based on the difference in luminance between at least two wavelength components.
  • the pointer bar is made of a dedicated material having characteristic spectral reflection characteristics, it is possible to realize a pointer bar with few false detections.
  • the object is added to the distance measurement without adding a new resource based on the difference in light intensity (luminance) of at least two wavelength components obtained in the same frame. It is possible to estimate the material.
  • a plurality of types of materials can be determined by using light having different wavelengths as required.
  • the first wavelength and the second wavelength are both wavelengths in the near infrared region, but this is only an example. Since it is more convenient to use non-visible light that cannot be visually recognized by humans due to the characteristics of the motion sensor, the wavelength is set as described above. However, there is no problem even if the measurement itself is visible light. For example, in applications where objects other than humans are to be measured, applications such as using the wavelength region of visible light with high sensitivity are possible.
  • the infrared cut filter is usually cut by including an infrared cut filter in the optical system, but the infrared cut filter can be omitted in this embodiment. For this reason, a motion sensor device can be realized with an inexpensive configuration. Also in this embodiment, a normal color image sensor for visible light photography can be used. Of course, it is possible to use an image sensor in which a color filter with good characteristics is arranged exclusively for this embodiment, but it is usually expensive.
  • an LED is used as the light source, but any light source can be used as long as the light intensity changes three-dimensionally, such as a point light source.
  • Use of a laser light source is also useful because it is necessary to limit the wavelength. Since the laser light source emits parallel light, the light intensity does not change three-dimensionally, but it can be used by converting it into scattered light in combination with a diffusion plate or the like.
  • the second LED light source 703 and the third LED light source 704 are handled as separate ones, but they may be integrated. Since these light sources can be arranged to emit light at the same timing, the second and third light sources emit one light source device that emits light in a wide wavelength band including the first wavelength and the second wavelength. Can be used as
  • the control unit 1000 uses the luminance of the first wavelength component of the object obtained from the first image and the first wavelength component of the object obtained from the second image.
  • the first estimated distance information is obtained from the ratio to the luminance of the second wavelength component of the object obtained from the first image and the second of the object obtained from the second image.
  • the second estimated distance information is acquired from the ratio of the wavelength component to the luminance.
  • the control unit 1000 is not limited to such an operation, and may obtain distance information to the object by other operations.
  • the luminance of the first wavelength component of the object obtained from the first image is the first luminance
  • the first wavelength of the object obtained from the second image acquired by imaging the second frame is the second luminance
  • the luminance of the second wavelength component of the object obtained from the first image is the third luminance
  • the second wavelength component of the object obtained from the second image Is set to the fourth luminance
  • the control unit 1000 selects the fifth luminance, the third luminance, and the fourth luminance obtained by selecting or combining the first luminance and the second luminance.
  • the distance information to the object may be obtained based on the ratio to the sixth luminance obtained by selecting or combining the two.
  • the first luminance and the second luminance mixed at a predetermined mixing ratio are set as the fifth luminance, and the third luminance and the fourth luminance are mixed at a predetermined mixing ratio.
  • the obtained information is set as the sixth luminance, and the distance information to the object can be obtained based on the ratio between the fifth luminance and the sixth luminance.
  • a luminance mixing ratio may be determined for each pixel position in the image sensor 101.
  • one luminance selected from the first luminance and the second luminance is set as the fifth luminance
  • one luminance selected from the third luminance and the fourth luminance is set as the sixth luminance.
  • the distance may be calculated by a method. Which of the two luminances is selected can be determined based on, for example, whether the ratio or difference between the two luminances is within a predetermined range.
  • FIG. 18 shows a display 1001 equipped with the motion sensor device according to the first embodiment. Since this display 1001 is equipped with three LED light sources 102, 103, and 104, motion detection with a low sensitivity region is possible. For this reason, gesture input can be performed toward the center of the display 1001.
  • FIG. 18 schematically shows a hand for performing gesture input for reference. The hand shown is moving in the direction of the arrow. In the display shown in FIG. 18, gesture input can be performed by detecting such hand movement with high sensitivity.
  • the motion sensor device can also be used for a user interface such as channel switching by gesture input. It can also be applied to a dance game that recognizes the movement of each part of a human.
  • the present disclosure provides an electronic device including the motion sensor device according to any one of the above embodiments and a display that changes display content in response to the motion of the object detected by the motion sensor device. Including.
  • each embodiment of the motion sensor device According to each embodiment of the motion sensor device according to the present disclosure, false detection of distance measurement is reduced, and high-speed operation becomes possible. According to the present disclosure, it is possible to provide a 3D motion sensor device that requires real-time detection. Moreover, in a certain aspect, in addition to distance measurement, the material determination of a target object is also possible. As a result, a motion sensor device with few false detections can be realized in an application for detecting a human hand or a pointing stick.
  • motion sensor device may be realized by another device connected via a wired or wireless network.
  • the embodiment of the motion sensor device has a function capable of measuring the three-dimensional position of an object in real time, and thus is useful for a non-contact gesture user interface of various electric products such as a display device.
  • a non-contact gesture user interface of various electric products such as a display device.
  • an in-vehicle device it can be applied to the detection of passenger status, people outside the vehicle, and obstacles. It can also be applied to applications such as video camera autofocus.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本開示のある実施形態におけるモーションセンサ装置は、イメージセンサ(101)と、LED光源(102)と、LED光源(103)と、LED光源(104)とを備える。LED光源(102)のみを発光させた時にイメージセンサ(101)が取得した画像と、LED光源(103)のみを発光させた時にイメージセンサ(101)が取得した画像と、LED光源(104)のみを発光させた時にイメージセンサ(101)が取得した画像とを用い、被写体の輝度比から被写体までの距離を推定する。

Description

複数の光源を有するモーションセンサ装置
 本願は、複数の光源を備えたモーションセンサ装置に関する。
 特許文献1は、静止または運動中の物体(対象物)に対して複数の光源から時分割で投光し、1つのイメージセンサによって取得した複数の画像に基づいて対象物までの距離を測定する技術を開示している。
 非特許文献1は、近赤外線を用いて人間の手を検出する手振りインターフェースシステムを開示している。非特許文献1には、人間の肌では970nmの波長の赤外線よりも870nmの波長の赤外線の方が反射率が高いことが記載されている。
特開2001-12909号公報
竹内麻梨子、加藤邦人、山本和彦、"近赤外肌検出を用いた手振りインターフェースシステムの構築"、社団法人映像情報メディア学会技術報告、ITE Technical Report Vol.34、No.34 ME2010-122(Aug.2010)
 従来の技術には、対象物の位置によっては測定された距離の精度または感度が低下するという問題がある。本開示の実施形態は、この問題を解決し得る新しいモーションセンサ装置を提供する。
 本開示のモーションセンサ装置は、ある態様において、イメージセンサと、第1、第2、および第3の光源と、前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部とを備える。前記制御部は、第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度との比に基づいて、第1の推定距離情報を生成し、前記第1の画像から得られる前記対象物の輝度と、前記第3のフレームの撮像によって取得した第3の画像から得られる前記対象物の輝度との比に基づいて、第2の推定距離情報を生成し、前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている。
 本開示の他の態様に係るモーションセンサ装置は、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、前記第1の波長の光を出射する第1および第2の光源と、前記第2の波長の光を出射する第3および第4の光源と、前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、を備える。前記制御部は、第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度との比から、第1の推定距離情報を取得し、前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度との比から、第2の推定距離情報を取得し、前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている。
 本開示の他の態様に係るモーションセンサ装置は、イメージセンサと、第1、第2、および第3の光源と、前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部と、を備える。前記制御部は、第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度を第2の輝度、前記第3のフレームの撮像によって取得した第3の画像から得られる対象物の輝度を第3の輝度とするとき、前記制御部は、前記第1の輝度と前記第3の輝度とを合成または選択することによって得られる第4の輝度と、前記第2の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている。
 本開示の他の態様に係るモーションセンサ装置は、第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、前記第1の波長の光を出射する第1および第2の光源と、前記第2の波長の光を出射する第3および第4の光源と、前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、を備える。前記制御部は、第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度を第2の輝度、前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度を第3の輝度、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度を第4の輝度とするとき、前記制御部は、前記第1の輝度と前記第2の輝度とを選択または合成することによって得られる第5の輝度と、前記第3の輝度と前記第4の輝度とを選択または合成することによって得られる第6の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている。
 本開示の電子装置は、上記のモーションセンサ装置と、前記モーションセンサ装置によって検出された対象物の運動に応答して表示内容を変化させるディスプレイとを備える。
 本開示の集積回路は、上記のモーションセンサ装置に使用される集積回路であって、前記イメージセンサおよび前記光源に接続され、露光及び発光のタイミングを制御するタイミング制御部と、撮像データを処理し、相対的に輝度の高い領域を探索する極値探索部と、前記極値探索部で探索された領域の座標と輝度を格納する座標メモリと、前記座標メモリのデータから、同一領域から異なる条件で撮影したフレームを選び出して、輝度比を用いて推定距離情報を算出する距離算出部とを備える。
 本開示の距離推定方法は、上記のモーションセンサ装置による距離計算方法であって、撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップとを含む。
 本開示のコンピュータプログラムは、上記のモーションセンサ装置を動作させるコンピュータプログラムであって、前記モーションセンサ装置に、撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップとを実行させる。
 本開示のモーションセンサ装置の実施形態は、距離測定の誤りの発生を抑制することができる。
2個の光源を備えるモーションセンサ装置の断面を模式的に示す図 図1Aの装置の上面図 LED光源の放射角と相対放射強度との関係を示すグラフ LED光源の放射角を示す図 第1のLED光源102から放射された光で対象物104が照射される様子を示す図 第2のLED光源103から放射された光で対象物104が照射される様子を示す図 撮像データの1ラインの画素位置と輝度との関係を示すグラフ ある放射角における輝度比と距離との関係を示すグラフ 第1のLED光源102から放射された光で僅かに移動した対象物104が照射される様子を示す図 第2のLED光源103から放射された光で僅かに移動した対象物104が照射される様子を示す図 2個の光源を備えるモーションセンサ装置の感度領域を模式的に示す図 本開示の実施形態1における光源装置とイメージセンサの配置図 本開示の実施形態1における光源及びイメージセンサのタイミングチャート 本開示の実施形態1における低感度領域を示す図 本開示の実施形態1におけるモーションセンサ装置の構成図 本開示の実施形態1におけるモーションセンサ装置の構成例を示すブロック図 本開示の実施形態1における距離計算手順のフローチャート 本開示の実施形態1の他の配置例を示す上面図 本開示の実施形態1のさらに他の配置例を示す上面図 本開示の実施形態2の光源装置とイメージセンサの配置図 本開示の実施形態2の光源及びイメージセンサのタイミングチャート 本開示の実施形態2における低感度領域を示す図 本開示の実施形態2におけるイメージセンサの感度特性を示す図 本開示の実施形態1のモーションセンサ装置を製品に組み込んだ例を示す図
 本開示によるモーションセンサ装置によって対象物(被写体)までの距離を測定することができる基本原理を説明する。
 まず、図1Aおよび図1Bを参照する。図1Aは、モーションセンサ装置の断面を模式的に示す図であり、図1Bは、図1Aの上面図である。
 図1Aおよび図1Bに示されている装置は、中央に位置するイメージセンサ101と、イメージセンサ101の両側に位置する2個のLED光源102、103とを備えている。図示されている例では、イメージセンサ101およびLED光源102、103は、1個の基板100に搭載されている。イメージセンサは、多数の微細な光検知セル(フォトダイオード)が行および列状に配列された固体撮像素子であり、典型的にはCCD(Charge Coupled Device)型またはCMOS型である。
 図1Aには、第1の光源102から出た光102aと第2の光源103から出た光103aとが模式的に示されている。この装置は、LED光源102、103を交互に点灯させながら、撮像を行うことにより、計測対象物体(対象物)までの距離を測定することができる。なお、「距離の測定」は、イメージセンサから対象物までの距離の推定値、あるいは、空間内の対象物の位置の推定値を求めることを含む。対象物には、例えば、人の手、指、人が持つペンなどが含まれ得る。対象物は移動してもよい。高速で移動しつつある人の指先までの距離、または指先の位置の推定値をリアルタイムで取得することができる3次元モーションセンサ装置は、コンピュータ、タブレット端末、スマートフォン、ゲーム機器、および家電機器を含む多様な電子機器の「入力デバイス」として使用され得る。
 図2は、LED光源102、103の各々から出た光の放射パターン(配光特性)を表すグラフである。グラフの横軸は、図3に示されるように、放射の方向が基板100の法線方向Nに対して形成する角度θである。グラフの縦軸は、相対放射強度である。以下、放射の角度θを「放射角」と称する場合がある。なお、相対放射強度の値は、光源から特定角度の方向に離れた位置に置かれた対象物の照度(放射照度)に対応している。
 図2からわかるように、LED光源102、103の各々から出た放射は、角度θが0°のとき、最も高い強度を示す。図2の例において、LED光源102、103は、その放射強度がI0×cosθで近似できるような配光特性を示している。LED光源102、103の配光特性は、図2の例に限定されない。また、LED光源102、103から出る放射は、可視光に限定されず、赤外線のように人間の視覚によって感じとれない波長域の電磁波であってもよい。本明細書では、簡単のため、光源から出る放射を単に「光」と称する場合がある。この「光」の用語は、可視光に限定されず、イメージセンサで検出可能な電磁波を広く含むものとする。
 次に、上記の装置で対象物までの距離を測定する方法を説明する。
 まず、図4Aおよび図4Bを参照する。図4Aには、第1のLED光源102から放射された光で対象物104が照射され、対象物104で反射された光の一部がイメージセンサ101に入射する様子が示されている。一方、図4Bには、第2のLED光源103から放射された光で対象物104が照射され、対象物104で反射された光の一部がイメージセンサ101に入射する様子が示されている。対象物104の位置は、図4Aおよび図4Bで実質的に同じであるとする。
 この装置によれば、第1の時刻において、図4Aに示すように、LED光源102を点灯し、LED光源103を消灯させた状態でイメージセンサ101による第1の撮像を行う。次に、第2の時刻において、図4Bに示されるように、LED光源103を点灯し、LED光源102を消灯させた状態でイメージセンサ101による第2の撮像を行う。第1および第2の撮像の各々の期間(露光時間)は、対象物104が実質的に停止していると扱える程度に十分に短いと仮定する。
 第1の撮像を行うとき、LED光源102から出た光の一部が対象物104によって反射されてイメージセンサ101に入射するため、イメージセンサ101に入射する光の強度に応じた輝度画像が得られる。同様に、第2の撮像を行うときは、LED光源103から出た光の一部が対象物104によって反射されてイメージセンサ101に入射するため、イメージセンサ101に入射する光の強度に応じた輝度画像が得られる。
 第1および第2の撮像によって取得した2フレームの画像の各々に基づいて、対象物104の輝度(輝度分布または輝度像)を求めることができる。なお、本明細書における「輝度」とは、[カンデラ/m2]の単位を有する心理物理量ではなく、イメージセンサの画素ごとに定まる「相対輝度」であり、光量または放射量に相当する。各フレームの画像を構成する各画素は、受光量に応じた「輝度値」を有する。
 対象物104には大きさがあるため、各画像における対象物104の像は、通常、複数の画素によって構成される。対象物104の「輝度」は、対象物104の像を構成する複数の画素の輝度値から種々の方法によって決定することができる。対象物104の像のうち、最も明るい「画素」または「画素ブロック」の輝度を対象物104の輝度とすることも可能であるし、対象物104の像を構成する全ての画素の平均輝度を対象物104の輝度とすることもできる。
 図5は、上述の方法で取得した2フレームの画像の各々において、対象物104の像を横切る一本の水平ラインの輝度値を示すグラフである。横軸が画像内の特定の水平ライン上における画素位置であり、縦軸は輝度である。グラフ中の曲線301はLED光源102が点灯しているときの輝度であり、曲線302はLED光源103が点灯しているときの輝度である。
 図5の例では、曲線301および曲線302は、それぞれ、単峰性のピークを有している。すなわち、曲線301は、ある画素位置で極値303を示し、曲線302は、他の画素位置で極値304を示している。曲線301の極値303と曲線302の極値304との間の水平方向の座標間隔は、幅305によって示されている。
 前述したように、2フレームの間に対象物104は実質的に静止している。したがって、曲線301と曲線302との間にある相違は、LED光源102が作る放射のパターンとLED光源103が作る放射のパターンとが異なることに起因している。LED光源102から出た光が対象物104で反射されてイメージセンサ101に入射して取得される像の輝度と、LED光源103から出た光が対象物104で反射されてイメージセンサ101に入射して取得される像の輝度との比率は、LED光源102から対象物104までの距離とLED光源103から対象物104までの距離との関係に依存する。
 撮影画像の輝度比から、物体の距離が計測できる。図6は、イメージセンサ101から45度の角度の方向における距離と輝度比との関係の一例を示すグラフである。図6のグラフは、図2の特性を示すLED光源をイメージセンサ101から左右に所定の距離だけ離して配置した場合において、横軸に対象物までの相対的な距離、縦軸に輝度比を示している。横軸の「距離」は、イメージセンサ101とLED光源との距離を基準としており、「1」の距離は、イメージセンサ101とLED光源との距離に等しい大きさを意味している。
 対象物の輝度(または照度)は、LED光源から対象物までの距離の二乗に反比例して減衰する。このため、距離に応じて輝度の比は変化する。図2に示す放射特性が既知であるため、この放射特性に基づけば、精度の高い距離の検出または推定が可能となる。
 図6は、放射角θが45度のときの距離と輝度比との関係の一例であるが、異なる複数の角度について、同様に距離と輝度比との関係を事前に得ることができる。対象物の角度は、イメージセンサで取得される対象物の撮像位置に基づいて求めることができる。
 図6からわかるように、対象物体とイメージセンサとの距離が概ね1より離れている場合、極値303と極値304の比から距離を計測できる。
 上記の例では、放射角に応じて相対放射強度が変化する光源を用いている。しかし、この測定方法は、このような特性を有しない光源を用いても可能である。平行光線を発する光源以外であれば、光強度は3次元空間内で何らかの配光特性を示すため、そのような光源も距離測定に利用可能である。例えば、配光が等方的な「点光源」でも、対象物上の照度および輝度は、光源からの距離の2乗に反比例して減衰するため、3次元空間的に異なる輻射パターンを持つ光源と言える。
 次に、図7Aおよび図7Bを参照する。これらの図は、図4Aおよび図4Bに示される位置から移動した対象物104に対する撮像を行う様子を示している。高速な撮像および距離の推定を行うことができれば、移動する対象物に対しても、前述した方法で距離の測定が可能である。光源102、103による交互の照明とイメージセンサ101による撮像を繰り返すことにより、移動する対象物104の位置を検出することができる。その結果、対象物104の位置の変化、または運動を検知することが可能になる。
 本発明者によると、上述した装置では、2個のLED光源102、103の各々から対象物104までの距離が等しくなる領域において、距離の測定精度が低下することがわかった。本明細書では、このような領域を「低感度領域」と称することにする。また、図6のグラフの横軸に示す距離が1以下のとき、距離が短くなるほど輝度比が上昇するため、輝度比だけでは、対象物体までの距離が1以下の「至近距離領域」にあるのか否かを判別できない。
 図8は、上記の装置による低感度領域を模式的に示す図である。図8には、距離が短すぎて発生する低感度領域504と、距離に関わらず輝度比が1に近くなることによって発生する低感度領域505とが示されている。
 以下に説明する本開示の各実施形態によれば、これらの低感度領域で計測結果が不安定になることを抑制することが可能になる。
 (実施形態1)
 本開示によるモーションセンサ装置の第1の実施形態を説明する。本実施形態のモーションセンサ装置は、3個の光源を備える。
 図9Aは、3個の光源(第1の光源102、第2の光源103、第3の光源104)を備えるモーションセンサ装置における光源の配置構成例を模式的に示す図である。図9Bは、このモーションセンサ装置における光源とイメージセンサの制御タイミングを示すタイムチャートである。まず、図9Aおよび図9Bを参照しながら、本実施形態の構成によれば低感度領域で計測結果が不安定になる問題を解決できる理由を説明する。
 図9Bに示される期間802、803、804は、それぞれ、LED光源102、103、104が点灯する期間に相当する。第1の露光期間805、第2の露光期間806、第3の露光期間807は、それぞれ、イメージセンサ101による第1フレーム、第2フレーム、第3フレームの撮像に対応する。図9Bのタイムチャートでは、LED光源102、103、104は、この順序で点灯しているが、点灯の順序は任意である。ただし、LED光源102の点灯期間を3つの光源の点灯期間の中央に設定すれば、対象物の動きに起因する測定精度の低下を抑制できるという効果がある。
 通常のイメージセンサは1回の露光により1フレームの撮像を行い、得られた画像データを外部に読み出してから次のフレームの撮像を行う。すなわち、フレームごとに画像データの読み出し動作が実行される。そのようなイメージセンサによると、第nフレーム(nは整数)における露光が終了した後、第n+1のフレームの露光を開始するまでの間に、第nフレームの撮像によって得られた全部の電荷を転送して外部に出力する動作のための時間を要する。
 しかし、本実施形態では、図9Bに示されるように、第1の露光期間805のあと、すぐに第2の露光期間806が始まる。第1の露光期間805において第1フレームの撮像が行われて生じた各画素の電荷は、第2の露光期間806が始まる前に記憶部に移され、その記憶部に蓄積される。また、第2の露光期間806のあと、すぐに第3の露光期間807が始まる。第2の露光期間806において第2フレームの撮像が行われて生じた各画素の電荷は、第3の露光期間807が始まる前に別の記憶部に移され、その記憶部に蓄積される。その後、これらの記憶部に蓄積されていた電荷および第3の露光期間807に発生した電荷の信号が期間Ttに読み出され、外部に出力される。
 本実施形態では、第1~第3の露光期間の各長さを「Te」とするとき、「3×Te+Tt」に等しい長さTfの逆数(1/Tf)で決まるレートで、3枚のフレーム画像のデータが読み出される。
 時間Ttは、画素数にも依存するが、データ転送レートを考慮して、例えば20ミリ秒程度の大きさに設定され得る。一方、時間Teは、1ミリ秒以下の短い期間、例えば25マイクロ秒に設定され得る。3枚のフレームの撮像を短い期間内に連続して実行すれば、対象物が人の指先のように高速に移動する場合でも、距離計測を行うことが可能になる。例えば3×Teが75マイクロ秒の場合、対象物が1メートル/秒の速度で移動しても、第1~第3の撮像中に対象物は0.075ミリメートルしか移動しない。一方、通常のフレームレート(例えば60フレーム/秒)で撮像を行えば、対象物は50ミリメートルも移動してしまう。仮に1000フレーム/秒の高速度撮影を行っても、対象物は3ミリメートルも移動する。本実施形態では、第1のフレームの開始時点から第3のフレームの終了時点までの期間を例えば3ミリ秒以下に短縮できるため、モーションセンサ装置として各種の用途に実用的である。
 本実施形態の構成では、第1から第3のフレームで取得された3枚の画像のうちの2枚の画像に基づいて対象物までの距離を算出することができる。3枚の画像のうちの2枚の組み合わせは3通りある。3通りの各々で低感度領域の位置が異なる。2通りまたは3通りの組み合わせに係る画像のペアを利用することにより、低感度領域の除去が可能となる。本実施形態では、主に、第1および第2のフレームで取得された2枚の画像と、第2および第3のフレームで取得された2枚の画像とを利用して低感度領域を除去する場合を想定する。
 図10は、第1および第2のフレームで取得された2枚の画像から距離情報を求めた場合の低感度領域と、第2および第3のフレームで取得された2枚の画像から距離情報を求めた場合の低感度領域を模式的に示す図である。第1および第2のフレームで取得された2枚の画像に基づいて対象物の距離を算出する場合、光源102、103の各々からの距離が等しい領域を中心に低感度領域605が発生する。一方、第2および第3のフレームで取得された2枚の画像に基づいて対象物の距離を算出する場合、光源103、104の各々から距離が等しい領域を中心に低感度領域606が発生する。本実施形態では、光源103がイメージセンサ101の近傍に配置されているため、図8に示すような至近距離における低感度領域504は発生しない。
 十分に短い時間に強い発光条件の元で撮影されたフレームの輝度は、ほぼ反射光の強度に比例する。ここで、第1のフレームに写った対象物の輝度を「第1の輝度」、第2のフレームに写った対象物の輝度を「第2の輝度」、第3のフレームに写った対象物の輝度を「第3の輝度」と呼ぶことにする。対象物と各光源との位置関係によって定まる角度および距離に応じて各輝度が決定される。前述のように、これらの輝度の比から対象物の距離を推定できる。
 第1の輝度と第2の輝度とを比較した場合、低感度領域605では、これらの輝度がほぼ等しい(輝度比が1に近い)ため、距離計測精度が低下する。第2の輝度が第1の輝度よりも大きい場合、低感度領域605よりも右側(光源103に近い側)に対象物があると推定できる。逆に、第1の輝度が第2の輝度よりも大きい場合、低感度領域605よりも左側(光源102に近い側)に対象物があると推定できる。
 一方、第2の輝度と第3の輝度とを比較した場合、低感度領域606では、これらの輝度がほぼ等しい(輝度比が1に近い)ため、距離計測精度が低下する。第2の輝度が第3の輝度よりも大きい場合、低感度領域606よりも左側(光源103に近い側)に対象物があると推定できる。逆に、第3の輝度が第2の輝度よりも大きい場合、低感度領域606よりも右側(光源104に近い側)に対象物があると推定できる。
 以上のことから、本実施形態のモーションセンサ装置は、第1の輝度と第2の輝度との比から第1の推定距離情報を求め、第2の輝度と第3の輝度との比から第2の推定距離情報を求め、これらを選択または合成することにより、対象物の距離情報を生成する。例えば、第1の輝度と第2の輝度との比が予め設定された範囲内にある場合には、第2の推定距離情報のみを利用して対象物までの距離情報を求め、第2の輝度と第3の輝度との比が予め設定された範囲内にある場合には、第1の推定距離情報のみを利用して対象物までの距離情報を求める。ここで、「予め設定された範囲」とは、例えば、1に近い所定の範囲(0.8~1.2など)である。2つの輝度の「比が予め設定された範囲内にある場合」には、2つの輝度の「比」ではなく「差」が予め設定された範囲内にある場合も含まれるものとする。
 あるいは、第2の輝度が第1の輝度よりも大きい場合に限定して第1の推定距離情報を利用し、第2の輝度が第3の輝度よりも大きい場合に限定して第2の推定距離情報を利用するようにしてもよい。一方の輝度が他方の輝度よりも大きいか否かは、例えば両者の差の絶対値が所定の閾値よりも大きいか否か、または、両者の比と1との差分が所定の閾値よりも大きいか否かによって判断され得る。このような制御により、低感度領域605または606に対象物が位置する場合でも、いずれかの推定距離情報に基づいて対象物の距離を測定することができる。なお、本実施の形態では利用していないが、第1の輝度と第3の輝度との比較結果に基づいて推定距離情報を求めてもよい。
 第1の推定距離情報および第2の推定距離情報の両者ともに高感度な領域については、重みをつけつつ両者の平均をとるなどの合成を行なってもよい。このような処理により、低感度領域を除去し、高感度な距離測定が可能である。
 イメージセンサ101に近い位置に配置されるLED光源103については、光度(放射強度)または光束(放射束)の値を小さくしたり、放射角度を狭く設定したりしてもよい。従って、LED光源104としては、価格の低い低出力の光源を採用できる。そのような光源を採用すれば、部品コストや消費電力の増加を抑制可能である。すなわち、本実施形態によれば、相対的に価格が低い1個のLED光源を増設するだけで、低感度領域の少ないモーションセンサ装置を実現できる。
 本実施形態では、連続して3フレームの撮像が可能な、やや高価なイメージセンサを使用することにより、高速で移動する対象物までの距離、または対象物の3次元的な運動を検出することができる。計測対象である物体の移動速度が十分に低いことが想定される場合は、通常の1フレーム露光のイメージセンサを用いても良い。
 次に、図11、図12および図13を参照して、本実施形態に係るモーションセンサ装置の構成および動作をより詳しく説明する。
 図11は、本実施形態に係るモーションセンサ装置の構成を模式的に示す図である。この装置は、イメージセンサ101と、イメージセンサ101の撮像面に被写体像を形成するレンズ系110と、3個のLED光源102、103、104と、イメージセンサ101およびLED光源102、103、104を制御するように構成された制御部1000とを備えている。イメージセンサ101およびLED光源102、103、104は、基板100上に搭載されている。制御部1000の一部または全部は、基板100上に実装されていてもよいし、他の基板上に実装されていてもよい。また、制御部1000の機能の一部が、離れた位置に置かれた装置によって実現されていてもよい。
 LED光源103は、イメージセンサ101の最も近くに配置されている。イメージセンサ101を基準としたときのLED光源102~104の方向をそれぞれ第1~第3の方向、LED光源102~104までの距離をそれぞれ第1~第3の距離とする。第2の方向および第3の方向は第1の方向とは反対の方向である。また、第2の距離は、第1および第3の距離よりも短い。本実施形態では、第2および第3の距離は相互に等しく設定されている。
 LED光源102、103、104は、いずれも同じ波長域の光を出射するように構成されている。イメージセンサ101は、LED光源102、103、104から出射された光の少なくとも一部の波長の光を検出できるように構成されている。LED光源102、103、104としては、実用性の観点から、近赤外線などの不可視光を発するものを好適に用いることができる。ただし、工業用など、可視光を出射しても問題のない用途では、可視光での実装も可能である。光源としては、LED光源に限らず、点光源などの3次元的に強度分布に偏りのある光源であればどのようなものでも利用可能である。以下の説明では、LED光源102、103、104は、近赤外線である第1の波長(例えば800nm)の光を出射するように構成され、イメージセンサ101は、当該第1の波長の光を検出できるように構成されているものとする。
 なお、本明細書において「近赤外領域」とは、概ね700nmから2.5μmの波長の範囲を指す。また、「近赤外線」とは、近赤外領域の波長をもつ光(電磁波)を意味する。また、「第1の波長の光を出射する」ことには、第1の波長を含む広い波長域の光を出射することを含むものとする。本実施形態において、光源102、103、104は、厳密に同じ波長域の光を出射している必要はなく、輝度比に基づく距離計測が可能な範囲で波長域にずれが生じていてもよい。
 本実施形態では、光源102、103により、イメージセンサ101のすぐ左側から右側全体の領域に位置する対象物までの距離測定が安定的に可能になる。一方、光源103、104により、光源103のすぐ右側から左側全体の領域に位置する対象物までの距離測定が安定的に可能になる。このように、光源102、103による輝度比と、光源103、104による輝度比とを利用することにより、低感度領域を排除し、距離検出の安定度を高めることが可能になる。
 イメージセンサ101は、画素単位で電荷をいったん蓄積しておく記憶部を有している。従って、第nフレームの撮像によって得られた画像データの読み出しを待たずに第n+1フレームの撮像が行える。イメージセンサ101内の記憶部を増やせば、3フレーム以上の連続した露光が可能である。イメージセンサ101としては、偶数/奇数ラインで別々に露光できる特殊センサであってもよい。なお、本実施形態におけるイメージセンサは、CMOSイメージセンサまたはCCDイメージセンサであるが、イメージセンサはこれらに限定されない。
 制御部1000は、第1の時間で第1の光源102を発光させながらイメージセンサ101で第1のフレームの撮像を行い、第2の時間で第2の光源103を発光させながらイメージセンサ101で第2のフレームの撮像を行い、第3の時間で第3の光源104を発光させながらイメージセンサ101で第3のフレームの撮像を行うように構成されている。そして、制御部1000は、第1から第3のフレームの撮像によって取得した複数の画像に基づいて、対象物104までの推定距離情報を得るように構成されている。
 図12は、本実施形態におけるモーションセンサ装置の構成例を示すブロック図である。
 撮像装置1101は、単眼レンズ型の撮像装置であり、図11のイメージセンサ101およびレンズ系110を有する。レンズ系110は、同一光軸上に配列された複数のレンズの組であってもよい。光源装置1102は、図11の光源102、103、104を有する。
 本実施形態における制御部1000は、CPU1103と半導体集積回路1104とを有している。半導体集積回路1104は、距離計算ブロック1105、画像フィルタブロック1106を有している。距離計算ブロック1105は、極値探索部1107、タイミング制御部1108、座標メモリ1109、および距離算出部1110を有している。
 本実施形態における光源102、103、104は、いずれもLED光源であり、それぞれ、図2に示される放射角と相対放射強度との関係を有している。なお、本開示の実施には、各光源102、103、104が放射角に応じて相対放射強度が変化する特性を有している必要は無い。しかし、現実には、多くの光源が放射角に応じて変化する相対放射強度を有するため、本実施形態では、この点を考慮する。
 本実施形態において、図12のタイミング制御部1108は、光源装置1102に対しLED光源102の点灯指示信号を出す。また、タイミング制御部1108は、撮像装置1101に対してイメージセンサ101の露光指示信号を出す。こうすることにより、光源102が点灯した状態での画像が第1のフレームで取得され、半導体集積回路1104に送られる。
 続けて、タイミング制御部1108は、光源装置1102に対して光源103の点灯指示信号を出力し、撮像装置1101に対してイメージセンサ101の露光指示信号を出力する。こうすることにより、光源103が点灯した場合の画像が第2のフレームで取得され、半導体集積回路1104に送られる。
 更に続けて、タイミング制御部1108は、光源装置1102に対して光源104の点灯指示信号を出力し、撮像装置1101に対してイメージセンサ101の露光指示信号を出力する。こうすることにより、光源104が点灯した場合の画像が第3のフレームで取得され、半導体集積回路1104に送られる。
 半導体集積回路1104では、撮像装置1101から出力された画像フレームが、画像フィルタブロック1106で処理される。画像フィルタブロック1106は必須ではないが、本実施形態では、画像処理にあたってノイズ除去フィルタなどの前処理を画像フィルタブロック1106で行う。
 画像フィルタブロック1106で処理された画像は、距離計算ブロック1105に送られる。距離計算ブロック1105内では、極値探索部1107で画像が処理される。極値探索部1107で処理されるデータの一例は、前述の図5に示される通りである。図5では、撮像画像の所定ライン上の輝度が示されている。なお、図5では、2つのフレーム画像について、同一ライン上の輝度分布が示されているが、本実施形態では、3つのフレーム画像について、同一ライン上の輝度分布が得られる。言い換えると、3つのフレーム画像から、2対のフレーム画像を選択すれば、各々が図5に示されるような2つのグラフが得られる。例えば、第1フレームの画像および第2フレームの画像から、図5に示されるようなグラフを作ることができる。同様に、第2フレームの画像および第3フレームの画像からも、図5に示されるようなグラフを作ることができる。
 極値探索部1107では、まず検出する物体の存在する領域を探索する。探索方法は多数存在する。例えば図5の輝度301と輝度302から輝度の極値303や304を探索するのは容易である。さらに動きに対して安定した極値がほしい場合は、輝度が一定の値以上の領域を特定し、その中央値を極値とする方法もある。
 次に、極値303と304を同一物体からのものとして極値同士をペアリングする。これは単に座標の近いもの同士をペアリングする簡単な方法でも良いし、予め輝度301と輝度302とを加算した値から一定輝度以上の領域を求めておき、その範囲内で極値を探しても良い。
 図5の輝度301と輝度302との差分に着目すると、差分が無いにもかかわらず輝度レベルの存在する領域がある。それは本装置の外部に存在するシステム外の光源によるものと考えられるので、外乱要素として除外することが考えられる。コストが許せば、本システムの光源をすべて消灯した状態での撮像を行ってこれを減じても同様の効果が得られる。
 極値探索部1107は、検出した物体の座標と極値を出力する。座標は領域306の中心や重心とすることもできるし、極値303と極値304との中央の座標であってもよい。また、輝度は極値303、304をそのまま使う方法もあるし、領域の積分値を求める方法もある。
 ここでは、簡単のため、特定ラインの1次元上のデータについて説明を行なった。しかし、1次元の直線は撮像の水平ライン以外の軸であってもよいし、2次元的に相対輝度レベルの高い領域の座標と輝度を探すことも可能である。
 極値探索部1107で出力された物体の座標と極値は、座標メモリ1109に格納された後、距離算出部1110に送られる。
 距離算出部1110は、第1のフレーム画像から得た輝度と第2のフレーム画像から得た輝度との比に基づいて、距離を算出する。まず、物体の座標から、物体がイメージセンサ101からみてどの方位にあるかを決定する。この方位は、レンズなどの光学系の特性を加味して一意に決定可能である。
 次に、その方位のどの距離に物体があるかがわかれば物体の3次元位置を推定することが可能である。
 前述した図6に示されるようなLED光源の配置と放射特性が各方位について得られている。図6のデータは、LED光源と物体との距離の2乗に反比例して光強度が弱まることに基づいている。また、精度を高めるために、各距離でLED光源との間に発生する角度を図2の放射特性に応じて補正している。図6に示されるデータがあれば、輝度比によって物体の距離が算出可能である。
 図6のデータは、距離算出部1110で三角関数計算を用いて算出しても良い。また、予め計算や計測を行ったグラフをテーブルとして備えておき、必要に応じて補完等しながら参照する方法で計算しても良い。
 距離計算ブロック1105の結果は、CPU1103に送られて3Dモーション情報として利用される。
 以上の構成では、画像データに対してライン単位で処理が進行できる。このため、1パスで物体の検出が完了し、レイテンシの少ないモーションセンサ装置が実現可能である。
 極値303と極値304の座標が必ずしも一致しなくとも、対象物の材質が対象領域内で概ね均一であれば、距離計算の輝度比としてこれらの極値303、304を用いることが可能である。この特性に着目し、計測単位をある程度幅を持った物体の単位でのみ行なってもよい。本実施形態では、極値探索を先に行ない、得られた極値に対して、距離計算を行なう。こうすることにより、計算処理量の削減および高速化を実現できる。
 人間の5体の状況を計測する場合、撮像されたデータのうち、ある1ラインのデータから、腕や足や首という単位で、撮像された各領域の輝度の極値を求めることになる。このため、各ピクセルでなんらかの距離演算を行なう方式に比べて計算回数が飛躍的に減少する。
 ここまでの処理はすべてCPUとソフトウェアプログラムのみで処理することも可能である。その場合のソフトウェアプログラムの処理フロー図を図13に示す。この処理は、極値探索ステップ1201、閾値判定ステップ1202、輝度比算出ステップ1203、距離換算ステップ1204を含む。
 極値探索ステップ1201では、画像データの中から輝度値の相対的に高い領域、すなわち極値を含む領域を探索する。続けて、閾値判定ステップ1202にて極値探索ステップ1201が追跡対象とすべき物体か判定する。輝度や領域サイズが一定値以下であればノイズとみなして「物体無し」であると判定して破棄する。閾値判定ステップ1202は必須ではないが一般にロバスト性をあげるためには重要なステップである。続けて、閾値判定ステップ1202で物体ありと判定された場合、対応する極値同士をペアリングして対応付けて輝度比を算出する。続けて距離換算ステップ1204で輝度比と撮像画像位置とを用いて距離に換算する。
 以上の手順を規定したプログラムを磁気記録媒体や半導体記録媒体などに格納し、CPUでプログラムを実行することでも本機能は実現できる。
 本実施形態によれば、極値探索ステップ1201で1度だけ画像を走査し、計算対象となる輝度値と座標をピックアップできるため、この手順を用いることで高速に計算を完了することが可能となる。
 本実施形態のモーションセンサ装置は、各種の用途に応用できる。ビデオカメラに応用することにより、動画像におけるオートフォーカスを高速に制御することが可能となる。また、近距離において人間の指を個別に認識したり、遠距離において身体や人間の5体を認識したりして、ジェスチャー認識用のモーションセンサ装置としても応用可能である。
 なお、本実施形態において、光源102、103、104の高さおよび大きさが等しい必要は無く、異なっていても良い。また、光源102、103、104の各々が、1つのLEDチップから構成されている必要はなく、複数のLEDチップを配列したLEDアレイを各光源として利用してもよい。更に、図示されていないが、各光源102、103、104にはレンズおよびフィルタなどの光学部品が配置されていてもよい。これらの事項は、他の実施形態の光源についても同様である。
 光源102、103、104およびイメージセンサ101は、直線上に配置されている必要は無い。図14A、14Bは、光源102、103、104およびイメージセンサ101の他の配置例を示す上面図である。光源102、103、104は、図14Aに示されるように、一部の光源(この例では光源103)が直線の外に配置されてもよいし、図14Bに示されるように、1つの光源とイメージセンサ101とを通る直線上に他の光源が配置されないようにしてもよい。
 図14Aの例では、イメージセンサ101に対して2個の光源102、104は、互いに反対の方向に同じ距離だけ離れて配置されているが、これらの距離は異なっていてもよい。一方、図14Bの例では、3個の光源102、103、104は、イメージセンサ101から見て相互に異なる方向に配置されている。このように方向が異なれば、イメージセンサ101からの各光源102、103、104までの距離は異なる必要はなく、相互に等しくてもよい。
 上記のように、本実施形態における制御部1000は、第1の画像から得られる対象物の輝度と第2の画像から得られる当該対象物の輝度との比に基づいて第1の推定距離情報を生成し、第2の画像から得られる対象物の輝度と第3の画像から得られる当該対象物の輝度との比に基づいて第2の推定距離情報を生成する。そして、第1および第2の推定距離情報を選択または合成することにより、当該対象物までの距離情報を得る。しかし、制御部1000は、このような動作ではなく、他の動作によって対象物までの距離情報を得てもよい。例えば、距離に換算する前の複数の画像の輝度情報を選択または合成することにより、対象物の距離を求めてもよい。
 具体的には、第1の輝度と第3の輝度とを予め定めた混合比率で混合したものを第4の輝度とし、第2の輝度と第4の輝度との比に基づいて対象物までの距離情報を得ることができる。例えば、第1の輝度をP1、第3の輝度をP3、混合比率をa(0<a<1)とし、第4の輝度をP1×a+P3×(1-a)とする。第4の輝度と第2の輝度P2との比(P1×a+P3×(1-a))/P2から、既知の輝度比と距離との関係を用いて、対象物までの距離情報を得ることができる。この方法においては、イメージセンサー101における画素位置ごとに輝度の混合比率aを定めてもよい。
 また、第1の輝度および第3の輝度のいずれかを選択し、その選択した輝度を第4の輝度とし、上記と同様の方法で距離を算出してもよい。これは、上記の混合比率aが0または1である場合に相当する。第1の輝度および第3の輝度のいずれを選択するかは、例えば、両者の輝度の比または差が所定の範囲内にあるか否かに基づいて判断され得る。
 (実施形態2)
 本開示によるモーションセンサ装置の第2の実施形態を説明する。本実施形態のモーションセンサ装置は、4個の光源(第1の光源702、第2の光源703、第3の光源704、第4の光源705)を備える。本実施形態の装置も、図11を参照しながら説明した前述の実施形態におけるレンズ系110および制御部1000と同様の構成を備えている。このため、これらの説明はここでは重複して行わない。
 図15Aは、本実施形態のモーションセンサ装置における光源の配置構成を示す図である。図15Bは、このモーションセンサ装置における光源とイメージセンサの制御タイミングを示すタイムチャートである。
 本実施形態のモーションセンサ装置は、基板700上に搭載されたイメージセンサ701と、4つのLED光源702、703、704、705とを備えている。LED光源702および703は、第1の波長の光を出射するように構成されている。LED光源704および705は、第2の波長の光を出射するように構成されている。イメージセンサ701は、少なくとも第1および第2の波長の光を検出できるように構成されている。
 第1の波長および第2の波長は、任意の波長でよいが、以下の説明では、それぞれ780nmおよび850nmとする。これらはともに近赤外領域の波長である。第1および第2の波長は、近赤外領域の波長に限らず、例えば可視光の波長であってもよい。実用性の観点からは、第1および第2の波長を近赤外領域の波長に設定することが好ましいが、工業用など、可視光を出射しても問題のない用途では、可視光での実装も可能である。
 イメージセンサ701を基準としたときの光源702~705の方向をそれぞれ第1~第4の方向、光源702~705までの距離をそれぞれ第1~第4の距離とする。第2の方向および第4の方向は第1の方向とは反対の方向であり、第3の方向は第1の方向と同一の方向である。また、第2および第3の距離は、ともに第1および第4の距離よりも短い。本実施形態では、第2および第3の距離は互いに等しく、第1および第4の距離は互いに等しいが、必ずしもこのような配置である必要はない。
 イメージセンサ701は、連続して2回の露光を行ない、2つのフレームの撮像を行える特殊センサである。実施形態1では続けて3回の露光を行なえる特殊センサを必要としており、原理的には有効であるが、実際の作成は高コストになり得る。本実施形態では、より低コストの構成で距離測定を行うことができる。さらに、本実施形態では、後述のように距離測定だけでなく対象物の材質の判定も可能である。
 図15Bに示される期間812、813、814、815は、それぞれLED光源702、703、704、705が点灯する期間に相当する。第1の露光期間816および第2の露光期間817は、それぞれ、イメージセンサ701による第1フレームおよび第2フレームの撮像に対応する。図15Bのタイムチャートでは、まずLED光源702、705が同時に発光し、続いてLED光源703、704が同時に発光する。しかし、この例に限定されず、第1の波長の光を出射するLED光源702、703の一方と、第2の波長の光を出射するLED光源704、705の一方とが同時に発光するように発光が制御されていればよい。
 図15Bのタイムチャートにしたがって撮像する場合、制御部は、第1のフレームの撮像によって取得した第1の画像から得られる対象物の第1の波長の成分の輝度と、第2のフレームの撮像によって取得した第2の画像から得られる当該対象物の第1の波長の成分の輝度との比から、第1の推定距離情報を取得する。また、第1の画像から得られる当該対象物の第2の波長の成分の輝度と、第2の画像から得られる当該対象物の第2の波長の成分の輝度との比から、第2の推定距離情報を取得する。そして、第1の推定距離情報と第2の推定距離情報とを、選択または合成することにより、対象物までの距離情報を生成して出力する。
 図16は、第1の推定距離情報および第2の推定距離情報における低感度領域を模式的に示す図である。第1の推定距離情報のみを用いた場合、光源702、703の各々からの距離が等しい領域を中心に低感度領域711が発生する。一方、第2の推定距離情報のみを用いた場合、光源704、705の各々からの距離が等しい領域を中心に低感度領域712が発生する。本実施形態では、光源703、704がイメージセンサ101の近傍に配置されているため、図8に示すような至近距離における低感度領域504は発生しない。
 本実施形態のモーションセンサ装置は、第1の推定距離情報と第2の推定距離情報とを選択または合成するため、低感度領域711、712に対象物が存在する場合でも、対象物までの距離を計測できる。具体的には、制御部は、第1の画像から得られる対象物の第1の波長の成分の輝度と、第2の画像から得られる当該対象物の第1の波長の成分の輝度との比が、予め設定された範囲内(例えば0.8~1.2)にあるとき、第2の推定距離情報のみを利用して対象物までの距離情報を求める。一方、第1の画像から得られる対象物の第2の波長の成分の輝度と、第2の画像から得られる当該対象物の第2の波長の成分の輝度との比が、予め設定された範囲内にあるとき、第1の推定距離情報のみを利用して対象物までの前記距離情報を求める。あるいは、第2の画像から得られる対象物の第1の波長の成分の輝度が、第1の画像から得られる当該対象物の第1の波長の成分の輝度よりも大きい場合に限って第1の推定距離情報を利用し、第2の画像から得られる対象物の第2の波長の成分の輝度が、第1の画像から得られる当該対象物の第2の波長の成分の輝度よりも大きい場合に限って第2の推定距離情報を利用するようにしてもよい。このような処理により、対象物の位置に限らず正確に対象物までの距離を計測できる。
 イメージセンサ701は、公知のカラーイメージセンサのように、分光感度特性の異なる複数種類の画素をもつセンサであり得る。カラーイメージセンサには、様々な種類のものが存在する。例えば、R、G、G、Bの4画素を1単位として並べたベイヤー配列のセンサや、波長によって透過特性が異なることを利用して1つの画素で複数の色成分の信号電荷を取得できるものや、プリズムで光を色ごとに分離し、複数の撮像デバイスで色成分ごとに受光するものなどがある。これらのいずれのカラーイメージセンサを用いても、色成分に応じて分光感度特性の異なる受光が出来るため、イメージセンサ701として利用できる。
 図17は、本実施の形態におけるイメージセンサ701の色成分ごとの分光感度特性の一例を示すグラフである。図17のグラフにおける横軸は波長、縦軸は感度の相対値を表している。このイメージセンサ701は、光の赤色成分を主に検出するR画素、緑色成分を主に検出するG画素、青色成分を主に検出するB画素を有しているものとする。図17に示すように、R画素の分光感度特性901、G画素の分光感度特性902、およびB画素の分光感度特性903は、いずれも近赤外領域の波長にも感度を有している。ここでは、第1の波長の光に対するR画素の感度911およびB画素の感度913と、第2の波長の光に対するR画素の感度912およびB画素の感度914とを利用して、第1および第2の波長の各成分の輝度値を求める例を説明する。
 第1の波長の光に対するR画素の感度911をa、第2の波長に対するR画素の感度912をb、第1の波長に対するB画素の感度913をc、第2の波長に対するB画素の感度914をdとする。また、1つのフレームにおけるあるピクセルに入射する第1の波長の成分の光の強度に対応する輝度をα、第2の波長成分の光の強度に対応する輝度をβとする。すると、1つのフレームのあるピクセルにおける輝度のうち、赤成分rおよび青成分bは、以下の式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 したがって、式(1)における行列の逆行列を求めることにより、以下の式(2)により、そのピクセルにおける第1の波長成分の輝度αおよび第2の波長成分の輝度βを求めることができる。
Figure JPOXMLDOC01-appb-M000002
 以上の演算を第1のフレームおよび第2のフレームの各々について行うことにより、各フレームにおける第1および第2の波長の各成分の輝度を求めることができる。なお、この例では、R画素およびB画素の分光感度特性を利用したが、これらの一方をG画素の分光感度特性に置換して同様の演算を行ってもよい。また、波長によって透過特性が異なることを利用して1つの画素で複数の色成分の信号電荷を取得できるイメージセンサや、プリズムで光を色ごとに分離し、複数の撮像デバイスで色成分ごとに受光するイメージセンサを用いる場合も、入射光の色成分ごとの分光感度特性に基づいて同様の演算を行えばよい。
 前述のように、本実施形態における制御部は、第1のフレームから抽出した第1の波長の成分の輝度と、第2のフレームから抽出した第1の波長の成分の輝度とを用いて、それらの輝度比から対象物の距離を第1の推定距離情報として算出する。この際、輝度比が1に近い低感度領域711では、正確な距離測定ができない。一方、LED光源703がイメージセンサ701に十分近い位置にあるため、低感度領域711よりも右側の領域においては光強度の関係が反転する領域は殆ど無く、良好に広域を計測可能である。
 制御部はまた、第1のフレームから抽出した第2の波長の光強度成分と、第2のフレームから抽出した第2の波長の光強度成分とを用いて、その光強度の比から対象物の距離を第2の推定距離情報として算出する。この際、輝度比が1に近い低感度領域712では、正確な距離測定ができない。一方、LED光源704がイメージセンサ701に十分近い位置にあるため、低感度領域712よりも左側の領域においては光強度の関係が反転する領域は殆ど無く、良好に広域を計測可能である。
 このように、第1の波長成分の輝度比に基づいて得られる第1の推定距離情報と、第2の波長成分の輝度比に基づいて得られる第2の推定距離情報とは、互いに低感度領域を補完し合っていることがわかる。したがって、制御部は、これらの推定距離情報の一方では低感度な領域を他方の情報で補完し、両者ともに高感度な領域については重みをつけつつ両者の平均をとるなどの合成を行なう。このような処理により、全領域をシームレスに統合でき、高感度な距離測定が可能である。
 本実施形態によれば、第1の波長と第2の波長の2つを利用して対象物を撮影しているため、距離情報の推定だけでなく、対象物の材質判定を行うこともできる。以下、本実施形態における材質判定の原理を説明する。
 自然界に存在するものは、波長によって吸収率が異なり、吸収されなかった光の反射率も異なる。したがって、同じ強度で発光した場合でも、波長が異なれば反射光の強度が異なり得る。可視光領域においてはその差分の関係は色の差として認識される。非可視光領域においても反射光の強度の差を検出することにより、対象物の材質の推定が可能である。
 非特許文献1に記載されているように、人間の肌は970nm付近の近赤外線に対する反射率が低いことが知られている。このため、970nm付近の近赤外線による反射光強度と、反射率の比較的高い870nm付近の近赤外線による反射光強度との大小関係を比較するだけで、対象物が人間の肌であるか否かを推定することが可能である。この推定は、970nm付近および870nm付近の波長に限らず、他の波長を用いて行うこともできる。
 そこで、本実施形態における制御部は、第1および第2の画像の少なくとも一方における対象物の第1の波長の成分の輝度と、第2の波長の成分の輝度との差異(差または比)に基づいて、当該対象物の材質を判定する。例えば、対象物の第1の波長の成分の輝度と、第2の波長の成分の輝度との差異が、第1および第2の波長の各々の光に対する人間の肌の反射率の差異と合致するか否かを判定する。このような処理により、対象物が人間の手であるか否かを判定することができる。ここでは、人間の手を検出する場合を想定したが、指し棒などの他の対象物について同様の判定を行ってもよい。
 さらに高度な方法として、距離計測用とは別に材質推定用の光源(第5の光源)を追加することも可能である。材質推定用の光源は、距離計測用の2つの波長(第1の波長および第2の波長)とは異なる第3の波長(例えば970nm)の光を出射するように構成され得る。材質推定用の光源は、異なる波長の光を出射する複数の光源の組み合わせであってもよい。波長の異なる少なくとも2つの光の反射光強度の差異に基づいて対象物の材質を判定することができる。例えば、距離計測用の2つの波長をλ1、λ2、材質推定用の波長をλ3とし、これらの3つの波長の輝度の比に基づいて対象物の材質を判定することができる。あるいは、材質判定用に波長λ1、λ2、λ3の光をそれぞれ出射する3つの光源を用いて、これらの3つの波長の輝度の比に基づいて対象物の材質を判定することもできる。より具体的な例として、R、G、Bの各波長域の光を検出するカラーのイメージセンサと、R、G、Bの各波長域の光を出射する3つの光源とを用いて、これらの3成分の輝度の比から材質を判定することができる。これらの3成分の輝度の比について、複数の材質に関連付けて複数の条件を予め設定しておけば、複数の材質について選択的に判定を行なうことも可能である。
 上記の例では、材質推定用の光源を距離計測用の光源とは異なるものとしたが、両者を統合してもよい。すなわち、距離計測用および材質推定用の光源として、第1または第2の波長に加えて第3の波長を含む広い発光帯域の光源を利用してもよい。第1から第4の光源702~705の少なくとも1つがそのような光源であれば、第5の光源を追加した場合と同様の材質判定が可能である。
 3Dモーションセンサの用途としては、例えば、人間の指や指し棒のみを検知し、ユーザーインターフェースとして利用する用途がある。指し棒などを追跡しているときには人間の指などを誤情報として排除したい場合がある。このような場合、本実施形態のモーションセンサによれば、少なくとも2つの波長成分の輝度の差異に基づいて、対象物が指し棒なのか指なのかを判定することができる。また、特徴的な分光反射特性をもつ専用の材料で指し棒を構成すれば、誤検出の少ない指し棒を実現することも可能である。
 以上のように、本実施形態においては、同一フレーム内で得られる少なくとも2つの波長成分の光強度(輝度)の差異に基づいて、新たなリソースを追加することなく、距離計測に加えて対象物の材質の推定が可能である。必要に応じてさらに異なる波長の光を利用することにより、複数種類の材質の判定を行うこともできる。
 なお、本実施形態では、第1の波長および第2の波長は、ともに近赤外領域の波長としたが、これは一例である。モーションセンサの特性上、人間に視認できない非可視光を用いた方が都合の良いことが多いため、上記のような波長の設定にしたが、計測自体は可視光であっても問題ない。例えば人間以外を計測対象とする用途では、感度の高い可視光の波長領域を利用するといった応用が可能である。
 また、カラーイメージセンサを用いたカメラでは、通常、その光学系に赤外カットフィルタを含めることで赤外領域の光をカットするが、本実施形態では赤外カットフィルタを省略できる。このため、安価な構成でモーションセンサ装置を実現できる。本実施形態でも可視光撮影用の通常のカラーイメージセンサを利用することができる。当然ながら本実施形態専用に特性の良いカラーフィルタが配置されたイメージセンサを用いることも可能だが、通常高価となる。
 本実施形態では、光源にLEDを用いているが、点光源など3次元的に光強度が変わるものであればどのような光源でも利用可能である。波長を限定する必要があることからレーザー光源の利用も有用である。レーザー光源は平行光を出射するため、3次元的に光強度が変わらないが、拡散板などと組み合わせて散乱光に変換することで利用可能になる。
 また、本実施形態では、第2のLED光源703と第3のLED光源704とを別々のものとして扱っているが、両者を一体化してもよい。これらの光源は配置が近く同じタイミングで発光させる形態も可能であるため、第1の波長および第2の波長を含む広い波長帯域の光を出射する1つの光源装置を第2および第3の光源として使用することができる。
 上記のように、本実施形態における制御部1000は、第1の画像から得られる対象物の第1の波長の成分の輝度と、第2の画像から得られる対象物の第1の波長の成分の輝度との比から、第1の推定距離情報を取得し、第1の画像から得られる対象物の第2の波長の成分の輝度と、第2の画像から得られる対象物の第2の波長の成分の輝度との比から、第2の推定距離情報を取得する。そして、第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、対象物までの距離情報を得るように構成されている。しかし、制御部1000は、このような動作に限らず、他の動作によって対象物までの距離情報を得てもよい。例えば、第1の画像から得られる対象物の第1の波長の成分の輝度を第1の輝度、第2のフレームの撮像によって取得した第2の画像から得られる対象物の前記第1の波長の成分の輝度を第2の輝度、第1の画像から得られる対象物の第2の波長の成分の輝度を第3の輝度、第2の画像から得られる対象物の第2の波長の成分の輝度を第4の輝度とするとき、制御部1000は、第1の輝度と第2の輝度とを選択または合成することによって得られる第5の輝度と、第3の輝度と第4の輝度とを選択または合成することによって得られる第6の輝度との比に基づいて、対象物までの距離情報を得るように構成されていてもよい。
 具体的には、第1の輝度と第2の輝度とを予め定めた混合比率で混合したものを第5の輝度とし、第3の輝度と第4の輝度とを予め定めた混合比率で混合したものを第6の輝度とし、第5の輝度と第6の輝度との比に基づいて対象物までの距離情報を得ることができる。この方法においては、イメージセンサー101における画素位置ごとに輝度の混合比率を定めてもよい。
 また、第1の輝度および第2の輝度から選択した一方の輝度を第5の輝度とし、第3の輝度および第4の輝度から選択した一方の輝度を第6の輝度とし、上記と同様の方法で距離を算出してもよい。2つの輝度のいずれを選択するかは、例えば、両者の輝度の比または差が所定の範囲内にあるか否かに基づいて判断され得る。
 (他の実施形態)
 以上、本開示の技術の例示として、実施形態1、2を説明した。しかし、本開示の技術はこれらの実施形態に限定されない。以下、他の実施形態を例示する。
 図18は、実施形態1に係るモーションセンサ装置を搭載したディスプレイ1001を示している。このディスプレイ1001は、3つのLED光源102、103、104を搭載しているため、低感度領域の少ない動き検知が可能である。このため、ディスプレイ1001の中心に向かってジェスチャー入力を行うことができる。図18には、参考のため、ジェスチャー入力を行う手が模式的に示されている。図示されている手は、矢印の方向に移動しつつある。図18に示されるディスプレイでは、このような手の動きを高い感度で検知してジェスチャー入力を行うことができる。
 本実施形態に係るモーションセンサ装置をディスプレイなどに利用すれば、ジェスチャー入力によるチャンネルの切り替えなどのユーザーインターフェースに用いることもできる。また、人間の各部の動きを認識したダンスゲームなどへの応用も可能である。
 図18のディスプレイには、実施形態2などの他の実施形態に係るモーションセンサ装置を組み込んでも良い。このように、本開示は、上記のいずれかの実施形態に係るモーションセンサ装置と、当該モーションセンサ装置によって検出された対象物の運動に応答して表示内容を変化させるディスプレイとを備える電子装置を含む。
 本開示によるモーションセンサ装置の各実施形態によれば、距離計測の誤検出を減らし、高速動作が可能になる。本開示によれば、リアルタイムな検出が求められる3Dモーションセンサ装置を提供できる。また、ある態様では、距離計測に加えて対象物の材質判定も可能である。これにより、人間の手や指し棒などを検出する用途において、誤検出の少ないモーションセンサ装置を実現できる。
 なお、本開示によるモーションセンサ装置の一部の機能が有線または無線のネットワークを介して接続された他の装置によって実現されていてもよい。
 本開示によるモーションセンサ装置の実施形態は、リアルタイムに物体の3次元位置を計測できる機能を有するため、表示装置などの各種電気製品の非接触ジェスチャーユーザーインターフェースの用途に有用である。車載機器として搭乗者の状態、車外の人物や障害物の検知へも応用できる。ビデオカメラのオートフォーカス等の用途にも応用できる。
 101、701  イメージセンサ
 102、103、104、702、703、704、705  LED光源
 301、302  輝度
 303、304  極値
 305  輝度極値同士の座標差
 504、505、605、606、711、712  低感度領域
 802、803、804、812、813、814、815  発光期間
 805、806、807、816、817  露光期間
 901、902、903 画素の分光感度特性
 1001  表示装置
 1101  撮像装置
 1102  光源装置
 1103  CPU
 1104  半導体集積回路
 1105  距離計算ブロック
 1106  画像フィルタブロック
 1107  極値探索部
 1109  座標メモリ
 1110  距離算出部

Claims (19)

  1.  イメージセンサと、
     第1、第2、および第3の光源と、
     前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部と、
    を備え、
     前記制御部は、
     第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
     第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
     第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、
     前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度との比に基づいて、第1の推定距離情報を生成し、
     前記第1の画像から得られる前記対象物の輝度と、前記第3のフレームの撮像によって取得した第3の画像から得られる前記対象物の輝度との比に基づいて、第2の推定距離情報を生成し、
     前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている、
    モーションセンサ装置。
  2.  前記第1の光源は、前記イメージセンサから第1の方向に第1の距離だけ離れた位置に配置され、
     前記第2の光源は、前記イメージセンサから第2の方向に第2の距離だけ離れた位置に配置され、
     前記第3の光源は、前記イメージセンサから第3の方向に第3の距離だけ離れた位置に配置され、
     前記第2の方向および前記第3の方向は、前記第1の方向の反対の方向であり、
     前記第2の距離は、前記第1の距離および前記第3の距離よりも短い、
    請求項1に記載のモーションセンサ装置。
  3.  前記制御部は、
     前記第1の画像から得られる前記対象物の輝度と、前記第2の画像から得られる前記対象物の輝度との比が、予め設定された範囲内にあるとき、前記第2の推定距離情報のみを利用して前記対象物までの前記距離情報を得て、
     前記第2の画像から得られる前記対象物の輝度と、前記第3の画像から得られる前記対象物の輝度との比が、予め設定された範囲内にあるとき、前記第1の推定距離情報のみを利用して前記対象物までの前記距離情報を得るように構成されている、
    請求項2に記載のモーションセンサ装置。
  4.  前記制御部は、
     前記第2の画像から得られる前記対象物の輝度が、前記第1の画像から得られる前記対象物の輝度よりも大きい場合のみ、前記第1の推定距離情報を利用して前記対象物までの前記距離情報を得て、
     前記第2の画像から得られる前記対象物の輝度が、前記第3の画像から得られる前記対象物の輝度よりも大きい場合のみ、前記第2の推定距離情報を利用して前記対象物までの前記距離情報を得るように構成されている、
    請求項3に記載のモーションセンサ装置。
  5.  前記イメージセンサは、近赤外線である第1の波長の光を検出可能に構成され、
     前記第1から第3の光源は、前記第1の波長の光を出射するように構成されている、
    請求項1から4のいずれかに記載のモーションセンサ装置。
  6.  第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、
     前記第1の波長の光を出射する第1および第2の光源と、
     前記第2の波長の光を出射する第3および第4の光源と、
     前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、
    を備え、
     前記制御部は、
     第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
     第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
     前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度と、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度との比から、第1の推定距離情報を取得し、
     前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度との比から、第2の推定距離情報を取得し、
     前記第1の推定距離情報と前記第2の推定距離情報とを、選択または合成することにより、前記対象物までの距離情報を得るように構成されている、
    モーションセンサ装置。
  7.  前記第1の光源は、前記イメージセンサから第1の方向に第1の距離だけ離れた位置に配置され、
     前記第2の光源は、前記イメージセンサから第2の方向に第2の距離だけ離れた位置に配置され、
     前記第3の光源は、前記イメージセンサから第3の方向に第3の距離だけ離れた位置に配置され、
     前記第4の光源は、前記イメージセンサから第4の方向に第4の距離だけ離れた位置に配置され、
     前記第2の方向および前記第4の方向は、前記第1の方向の反対の方向であり、
     前記第3の方向は、前記第1の方向と同一の方向であり、
     前記第2および第3の距離の各々は、前記第1および第4の距離よりも短い、
    請求項6に記載のモーションセンサ装置。
  8.  前記制御部は、
     前記第1の画像から得られる前記対象物の前記第1の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第1の波長の成分の輝度との比が、予め設定された範囲内にあるとき、前記第2の推定距離情報のみを利用して前記対象物までの前記距離情報を得て、
     前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度と、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度との比が、予め設定された範囲内にあるとき、前記第1の推定距離情報のみを利用して前記対象物までの前記距離情報を得るように構成されている、
    請求項6または7に記載のモーションセンサ装置。
  9.  前記第2の光源および前記第3の光源は、一体化された単一の光源装置によって実現されている、請求項6から8のいずれかに記載のモーションセンサ装置。
  10.  前記第1の波長および前記第2の波長は、ともに近赤外領域の波長である、請求項6から9のいずれかに記載のモーションセンサ装置。
  11.  前記制御部は、前記第1および第2の画像の少なくとも一方における前記対象物の前記第1の波長の成分の輝度と前記第2の波長の成分の輝度との差異に基づいて、前記対象物の材質を判定するように構成されている、請求項6から10のいずれかに記載のモーションセンサ装置。
  12.  前記第1および第2の波長とは異なる第3の波長の光を出射する第5の光源をさらに備え、
     前記イメージセンサは、さらに前記第3の波長の光を検出可能に構成され、
     前記制御部は、
     前記第1および第2の時間の少なくとも一方において、さらに前記第5の光源を発光させながら前記イメージセンサで撮像を行い、
     前記第1および第2の画像の少なくとも一方から得られる前記対象物の前記第3の波長の成分の輝度と、前記第1および第2の波長の少なくとも一方の成分の輝度との差または比に基づいて、前記対象物の材質を判定するように構成されている、
    請求項6から11のいずれかに記載のモーションセンサ装置。
  13.  前記第5の光源は、前記第1から第4の光源の1つと一体化されている、請求項12に記載のモーションセンサ装置。
  14.  イメージセンサと、
     第1、第2、および第3の光源と、
     前記イメージセンサおよび前記第1から第3の光源を制御するように構成された制御部と、
    を備え、
     前記制御部は、
     第1の時間で前記第1の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
     第2の時間で前記第2の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
     第3の時間で前記第3の光源を発光させながら前記イメージセンサで第3のフレームの撮像を行い、
     前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の輝度を第2の輝度、前記第3のフレームの撮像によって取得した第3の画像から得られる対象物の輝度を第3の輝度とするとき、
     前記制御部は、前記第1の輝度と前記第3の輝度とを合成または選択することによって得られる第4の輝度と、前記第2の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている、
    モーションセンサ装置。
  15.  第1の波長の光、および前記第1の波長とは異なる第2の波長の光を検出可能なイメージセンサと、
     前記第1の波長の光を出射する第1および第2の光源と、
     前記第2の波長の光を出射する第3および第4の光源と、
     前記イメージセンサおよび前記第1から第4の光源を制御するように構成された制御部と、
    を備え、
     前記制御部は、
     第1の時間で前記第1および第4の光源を発光させながら前記イメージセンサで第1のフレームの撮像を行い、
     第2の時間で前記第2および第3の光源を発光させながら前記イメージセンサで第2のフレームの撮像を行い、
     前記第1のフレームの撮像によって取得した第1の画像から得られる対象物の前記第1の波長の成分の輝度を第1の輝度、前記第2のフレームの撮像によって取得した第2の画像から得られる前記対象物の前記第1の波長の成分の輝度を第2の輝度、前記第1の画像から得られる前記対象物の前記第2の波長の成分の輝度を第3の輝度、前記第2の画像から得られる前記対象物の前記第2の波長の成分の輝度を第4の輝度とするとき、
     前記制御部は、前記第1の輝度と前記第2の輝度とを選択または合成することによって得られる第5の輝度と、前記第3の輝度と前記第4の輝度とを選択または合成することによって得られる第6の輝度との比に基づいて、前記対象物までの距離情報を得るように構成されている、
    モーションセンサ装置。
  16.  請求項1から15に記載のモーションセンサ装置と、
     前記モーションセンサ装置によって検出された対象物の運動に応答して表示内容を変化させるディスプレイと、
    を備える電子装置。
  17.  請求項1から15に記載のモーションセンサ装置に使用される集積回路であって、
     前記イメージセンサおよび前記光源に接続され、露光及び発光のタイミングを制御するタイミング制御部と、
     撮像データを処理し、相対的に輝度の高い領域を探索する極値探索部と、
     前記極値探索部で探索された領域の座標と輝度を格納する座標メモリと、
     前記座標メモリのデータから、同一領域から異なる条件で撮影したフレームを選び出して、輝度比を用いて推定距離情報を算出する距離算出部と、
    を備える集積回路。
  18.  請求項1から15に記載のモーションセンサ装置による距離計算方法であって、
     撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、
     前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、
     前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップと、
    を含む距離推定方法。
  19.  請求項1から15に記載のモーションセンサ装置を動作させるコンピュータプログラムであって、前記モーションセンサ装置に、
     撮像フレームのデータから相対的に光強度の高い領域を選択的に選び出し、その座標と光強度を算出する極値探索ステップと、
     前記極値探索ステップで選び出された輝度のうち、異なる条件で撮影したフレーム同士から選び出された輝度の比を算出する輝度比算出ステップと、
     前記輝度比算出ステップで算出された輝度比と、前記極値探索ステップで探索された座標とを用いて、距離に換算する距離換算ステップと、
    を実行させるコンピュータプログラム。
PCT/JP2014/002002 2013-04-26 2014-04-08 複数の光源を有するモーションセンサ装置 WO2014174779A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014550586A JP6302414B2 (ja) 2013-04-26 2014-04-08 複数の光源を有するモーションセンサ装置
CN201480001650.6A CN104395694B (zh) 2013-04-26 2014-04-08 具有多个光源的运动传感器装置
US14/410,168 US9978148B2 (en) 2013-04-26 2014-04-08 Motion sensor apparatus having a plurality of light sources

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-093458 2013-04-26
JP2013093458 2013-04-26

Publications (1)

Publication Number Publication Date
WO2014174779A1 true WO2014174779A1 (ja) 2014-10-30

Family

ID=51791368

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/002002 WO2014174779A1 (ja) 2013-04-26 2014-04-08 複数の光源を有するモーションセンサ装置

Country Status (4)

Country Link
US (1) US9978148B2 (ja)
JP (1) JP6302414B2 (ja)
CN (1) CN104395694B (ja)
WO (1) WO2014174779A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9192029B2 (en) * 2013-03-14 2015-11-17 Abl Ip Holding Llc Adaptive optical distribution system
US9581696B2 (en) * 2014-12-22 2017-02-28 Google Inc. Image sensor and light source driver integrated in a same semiconductor package
TW201800901A (zh) * 2016-06-17 2018-01-01 原相科技股份有限公司 偵測動作資訊的方法及感光陣列
US10742088B2 (en) 2016-12-30 2020-08-11 Panosense Inc. Support assembly for rotating body
US10109183B1 (en) * 2016-12-30 2018-10-23 Panosense Inc. Interface for transferring data between a non-rotating body and a rotating body
US10122416B2 (en) 2016-12-30 2018-11-06 Panosense Inc. Interface for transferring power and data between a non-rotating body and a rotating body
JP7252755B2 (ja) * 2018-12-27 2023-04-05 株式会社小糸製作所 アクティブセンサ、物体識別システム、車両、車両用灯具
US20220067949A1 (en) * 2020-08-25 2022-03-03 Htc Corporation Object tracking method and object tracking device
WO2022170325A1 (en) * 2021-02-02 2022-08-11 Ringo Ai, Inc. Nonlinearity correction and range fitting for stereoscopy through illumination and approaches to using the same for noncontact color determination
US11662828B2 (en) * 2021-05-28 2023-05-30 Pixart Imaging Inc. Method for identifying object, optical sensing apparatus and system
CN113607064A (zh) * 2021-08-06 2021-11-05 广联达科技股份有限公司 目标物体的间距测算方法、装置、设备及可读存储介质
DE102021132716A1 (de) * 2021-12-10 2023-06-15 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Entfernungssensor und verfahren zum detektieren eines objekts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642915A (ja) * 1992-06-03 1994-02-18 Stanley Electric Co Ltd 光学的測定装置
JP2001165655A (ja) * 1999-12-06 2001-06-22 Oki Electric Ind Co Ltd 距離推定装置及び距離推定方法
JP2002062111A (ja) * 2000-08-16 2002-02-28 Fuji Photo Film Co Ltd 情報獲得方法、撮像装置及び、画像処理装置
JP2004117235A (ja) * 2002-09-27 2004-04-15 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法および3次元形状計測装置
JP2013024653A (ja) * 2011-07-19 2013-02-04 Toyota Central R&D Labs Inc 距離測定装置及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999061948A1 (fr) * 1998-05-25 1999-12-02 Matsushita Electric Industrial Co., Ltd. Telemetre et appareil photographique
JP3415070B2 (ja) 1998-05-25 2003-06-09 松下電器産業株式会社 レンジファインダ装置
EP1126412B1 (en) 2000-02-16 2013-01-30 FUJIFILM Corporation Image capturing apparatus and distance measuring method
JP4166083B2 (ja) * 2002-12-26 2008-10-15 株式会社トプコン 測距装置
JP5073273B2 (ja) * 2006-11-21 2012-11-14 スタンレー電気株式会社 遠近判定方法およびその装置
EP1985969B1 (en) * 2007-04-26 2017-10-25 Sick IVP AB Method and apparatus for determining the amount of scattered light in a maschine vision system
US8788676B2 (en) * 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
CN102822618B (zh) * 2009-11-26 2017-02-15 沃思测量技术股份有限公司 用于接触‑光学确定测量物体的几何形状的方法和装置
DE102010041390B4 (de) * 2010-07-28 2017-12-07 pmdtechnologies ag Lichtlaufzeitkamera mit Signalpfadüberwachung
JP5033270B2 (ja) * 2010-11-10 2012-09-26 パナソニック株式会社 非接触ポジションセンシング装置及び非接触ポジションセンシング方法
JP2012117896A (ja) * 2010-11-30 2012-06-21 Saxa Inc 測距装置、侵入者監視装置、距離計測方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642915A (ja) * 1992-06-03 1994-02-18 Stanley Electric Co Ltd 光学的測定装置
JP2001165655A (ja) * 1999-12-06 2001-06-22 Oki Electric Ind Co Ltd 距離推定装置及び距離推定方法
JP2002062111A (ja) * 2000-08-16 2002-02-28 Fuji Photo Film Co Ltd 情報獲得方法、撮像装置及び、画像処理装置
JP2004117235A (ja) * 2002-09-27 2004-04-15 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法および3次元形状計測装置
JP2013024653A (ja) * 2011-07-19 2013-02-04 Toyota Central R&D Labs Inc 距離測定装置及びプログラム

Also Published As

Publication number Publication date
CN104395694A (zh) 2015-03-04
US20150193934A1 (en) 2015-07-09
CN104395694B (zh) 2017-08-11
JP6302414B2 (ja) 2018-03-28
JPWO2014174779A1 (ja) 2017-02-23
US9978148B2 (en) 2018-05-22

Similar Documents

Publication Publication Date Title
JP6302414B2 (ja) 複数の光源を有するモーションセンサ装置
JP6299983B2 (ja) 複数の光源を有するモーションセンサ装置
TWI585436B (zh) 深度資訊量測方法及裝置
JP6270808B2 (ja) 複数の光源を有するモーションセンサ装置
Matsuda et al. Mc3d: Motion contrast 3d scanning
JP6270813B2 (ja) 複数の光源を有するモーションセンサ装置
US20140037135A1 (en) Context-driven adjustment of camera parameters
US9383549B2 (en) Imaging system
US20200082160A1 (en) Face recognition module with artificial intelligence models
KR20160124669A (ko) 주변광을 차단하는 3차원 이미징 및 깊이 측정을 위한 씨모스 이미지 센서
US9699377B2 (en) Depth detecting apparatus and method, and gesture detecting apparatus and gesture detecting method
JP7502316B2 (ja) 少なくとも1つの物体を照射するためのプロジェクタを備えた検出器
JP6799155B2 (ja) 情報処理装置、情報処理システム、および被写体情報特定方法
WO2020066637A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
US20180322647A1 (en) Systems and Methods For Forming Models of Three-Dimensional Objects
US10055881B2 (en) Video imaging to assess specularity
TWI536209B (zh) 具高追蹤速度的光學導航裝置
CN112204961A (zh) 从动态视觉传感器立体对和脉冲散斑图案投射器进行半密集深度估计
JP2015049200A (ja) 計測装置、方法及びプログラム
US20190051005A1 (en) Image depth sensing method and image depth sensing apparatus
TWI725279B (zh) 利用雙魚眼影像計算所攝物體座標的方法及影像擷取裝置
CN110021044B (zh) 利用双鱼眼图像计算所摄物体坐标的方法及图像获取装置
JP2014174101A (ja) 物体検出装置
US20190289188A1 (en) System and method of adjusting power of a light source

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014550586

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14787945

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14410168

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14787945

Country of ref document: EP

Kind code of ref document: A1