WO2014115397A1 - 光センサおよび電子機器 - Google Patents

光センサおよび電子機器 Download PDF

Info

Publication number
WO2014115397A1
WO2014115397A1 PCT/JP2013/080247 JP2013080247W WO2014115397A1 WO 2014115397 A1 WO2014115397 A1 WO 2014115397A1 JP 2013080247 W JP2013080247 W JP 2013080247W WO 2014115397 A1 WO2014115397 A1 WO 2014115397A1
Authority
WO
WIPO (PCT)
Prior art keywords
ratio
light
light receiving
optical sensor
detection target
Prior art date
Application number
PCT/JP2013/080247
Other languages
English (en)
French (fr)
Inventor
木村 直正
清水 隆行
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201380071012.7A priority Critical patent/CN104937438B/zh
Priority to JP2014558443A priority patent/JP5985663B2/ja
Priority to US14/762,120 priority patent/US9562922B2/en
Publication of WO2014115397A1 publication Critical patent/WO2014115397A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver

Definitions

  • the present invention relates to an optical sensor suitably used as a proximity sensor or a gesture sensor, and an electronic device using the optical sensor.
  • the optical sensor has a function of detecting a detection object and detecting a distance from the detection object, and the field of application is expanding.
  • Electronic devices such as mobile phones (including smartphones) and digital cameras are equipped with a liquid crystal panel for displaying images.
  • a liquid crystal panel for displaying images.
  • electronic devices that include a touch panel so that a touch operation can be performed on a liquid crystal panel.
  • some mobile phones are equipped with a proximity sensor that detects that a person's face is approaching the mobile phone in a sound output unit that is touched by an ear. This proximity sensor is used to turn off the touch panel operation when the face approaches the liquid crystal panel in order to reduce the power consumption of the mobile phone and prevent the malfunction of the touch panel.
  • an optical sensor that detects the movement of a human hand in addition to the proximity sensor as described above.
  • Such a gesture sensor detects the movement of the hand on the touch panel in a non-contact manner.
  • the liquid crystal panel can be operated in the same manner even when a glove or the like that is difficult to react to the touch panel is attached.
  • Patent Document 1 discloses a reflective optical sensor as an optical sensor that detects the movement of an object.
  • this optical sensor includes a light emitting element 301 and two light receiving elements 302 and 303, and the light receiving elements 302 and 303 are arranged on both sides of the light emitting element 301.
  • the detection target 304 is on the right side, the reflected light from the detection target is strongly applied to the light receiving element 301.
  • the detection target 304 is on the left side, the reflected light from the detection target 304 strikes the light receiving elements 302 and 303 strongly. Then, the position and movement of the detection object 304 can be detected by reading the difference between the photocurrents generated by the two light receiving elements 302 and 303.
  • Patent Document 2 discloses a gesture sensor including a plurality of sections of optical sensors and a control circuit that processes current output from each of the optical sensors.
  • the conventional optical sensor has a problem that it is difficult to accurately detect the movement of the detection target without depending on the change in the relative arrangement relationship between the optical sensor and the detection target.
  • an electronic device equipped with a gesture sensor as described above uses a human hand as a detection target
  • the amount of light received by the optical sensor changes depending on a change in the relative angle of the human hand with respect to the gesture sensor. So you need to react to such hand movements.
  • the reflected light input to the optical sensor is significantly reduced when the distance between the hands, which are detection objects, increases. Even in such a case, the gesture sensor accurately detects the movement of the object. It is required that it can be determined.
  • the optical sensor is a specific for accurately detecting the motion of an object regardless of a change in the relative positional relationship between the optical sensor and the object to be detected. No measures are shown.
  • the present invention has been made in view of the above problems, and its purpose is to accurately detect the movement of the detection object without depending on the change in the relative positional relationship between the optical sensor and the detection object. It is to provide an optical sensor or the like that can be used.
  • an optical sensor is blocked by reflected light generated by irradiating a detection target with light emitted from a light-emitting element or by the detection target.
  • a plurality of light receiving elements that generate a photocurrent when incident light from the outside that has not entered is included, and among the plurality of light receiving elements, the sum of the photocurrents of at least two light receiving elements arranged in parallel along a specific direction
  • the absolute value of the ratio between the photocurrents of the at least two light receiving elements is compared with a predetermined threshold value, and the comparison means determines that the absolute value of the ratio is larger than the predetermined threshold value.
  • a moving direction determining means for determining that the specific direction is the moving direction of the detection object.
  • FIG. 1 It is a block diagram which shows the structure of the principal part of the optical sensor which concerns on Embodiment 1 (or Embodiment 3) of this invention. It is a longitudinal cross-sectional view which shows the mounting structure of the light receiving / emitting unit which concerns on the optical sensor which concerns on Embodiment 1 (or Embodiment 3) of this invention, (a) is the reflection type light emitting / receiving based on Embodiment 1 of this invention. The mounting structure of a unit is shown, (b) shows the mounting structure of the transmission type light emitting / receiving unit according to Embodiment 3 of the present invention.
  • FIG. 4 is a plan view for explaining a detection target of the optical sensor of FIG. 3 and a moving direction of a detection target detected by the optical sensor, wherein (a) and (c) are views from a light emitting element in the optical sensor of FIG. 3 shows changes in the positional relationship between the light spot formed by the emitted light and the detection target;
  • FIGS. 4 are views from a light emitting element in the optical sensor of FIG. 3 shows changes in the positional relationship between the light spot formed by the emitted light and the detection target;
  • 3B and 3D show reflected light from the detection target of the light spot on the light receiving element in the optical sensor of FIG.
  • (E) shows an example (four directions) of the moving direction of the detection object detected by the optical sensor, and (f) shows the moving direction of the detection object detected by the optical sensor. Another example (8 directions) is shown.
  • FIG. 6 is a flowchart showing a flow of operation of the optical sensor according to the embodiment (Embodiments 1 to 3) of the present invention.
  • Embodiments of the present invention will be described with reference to FIGS. 1 to 8 as follows. Descriptions of configurations other than those described in the following specific embodiments may be omitted as necessary, but are the same as those configurations when described in other embodiments. For convenience of explanation, members having the same functions as those shown in each embodiment are given the same reference numerals, and the explanation thereof is omitted as appropriate. In addition, the shape of the configuration described in each drawing and the dimensions such as length, size, and width do not reflect the actual shape and dimensions, and are appropriately set for clarity and simplification of the drawings. It has changed.
  • a proximity sensor mounted on a smartphone or the like will be described as an example of the optical sensor according to the embodiment of the present invention, but the present invention is not limited to such a form.
  • the present invention can be applied to a gesture sensor that detects the movement of a human hand.
  • Embodiment 1 according to the present invention will be described below with reference to FIGS. 1 and 2A to 6.
  • FIG. 1 Embodiment 1 according to the present invention will be described below with reference to FIGS. 1 and 2A to 6.
  • FIG. 2A is a longitudinal sectional view showing a mounting structure of light emitting elements LED and light receiving elements DPD (light receiving elements PD1 to PD4) in a light receiving and emitting unit 90 provided in the optical sensor 101 of the present embodiment to be described later.
  • the light emitting / receiving unit 90 of this embodiment is a reflection type optical sensor
  • the form which can apply this invention is not limited to such a reflection type optical sensor.
  • a transmission type optical sensor such as a light emitting / receiving unit 90A according to Embodiment 3 of the present invention described later is also included in the scope of the present invention.
  • the light receiving / emitting unit 90 includes a light emitting element LED, a light receiving element DPD (light receiving elements PD1 to PD4), a substrate 91, a sealing member 92, a light emitting lens portion 92a, and a light receiving lens portion 92b.
  • a light emitting element LED is mounted on the substrate 91 at an appropriate interval.
  • the light emitting element LED is constituted by a light emitting diode.
  • the light receiving element PDP is configured by OPIC (Optical IC) (registered trademark) in which a plurality of photodiodes or phototransistors and a signal processing circuit or an LED driver circuit are integrated.
  • the sealing member 92 is formed on the substrate 91 so as to cover the light emitting element LED or the light receiving element DPD.
  • the sealing member 92 is formed of a transparent resin material or a visible light cut resin material that transmits a light emission wavelength of the light emitting element LED and cuts a visible light component, and has a light emitting lens portion 92a and a light receiving lens portion on the surface. 92b.
  • the light emitting lens portion 92a is a convex lens formed in a hemispherical shape on the light emitting side of the light emitting element LED, and focuses light emitted from the light emitting element LED to a predetermined position or converts it into parallel light. The light is emitted as follows.
  • the light receiving lens portion 92b is a convex lens formed in a hemispherical shape on the light incident side of the light receiving element DPD, and focuses the reflected light reflected from the detection target 100 onto the light receiving elements PD1 to PD4.
  • the light emitting lens portion 92a and the light receiving lens portion 92b are not necessarily required.
  • Patent Document 2 by providing directionality with a metal layer or the like on the light receiving element, it is possible to change the photocurrent output amount of each light receiving element depending on the position of the object to be detected. It is. However, in such a structure that creates a shadow on the light receiving element, the signal light component emitted from the light emitting element is significantly reduced.
  • the light receiving element DPD includes light receiving elements PD1 to PD4 arranged in a grid (matrix), and each light receiving element is a detection target as described later.
  • the photocurrent changes according to the position of the object 100. That is, the light receiving element DPD of the present embodiment is a four-divided light receiving element, and is composed of four light receiving elements PD1 to PD4.
  • the structure of the light receiving element PDP is not limited to the structure of the present embodiment. In any structure, the operation of the detection object accurately without depending on the positional relationship between the optical sensor 101 and the detection object 100 (including the distance between these components and the relative angle of the human hand). Can be determined. Further, for example, although the moving direction to be detected is limited to one direction, the light receiving element DPD may be a light receiving element in which at least two PDs are arranged in an array.
  • FIG. 3 is a block diagram showing the overall configuration of the optical sensor 101 according to the present embodiment.
  • the optical sensor 101 includes a light receiving / emitting unit 90 (including a light receiving element DPD (light receiving elements PD1 to PD4), a light emitting element LED (Light Emitting Diode), etc.), an integrating circuit 1a to 1d, and an AD converter 2a. 2d, arithmetic circuit 3, register 4, control circuit 5, interface 6, control unit 7, LED driving circuit 8 and oscillator 9.
  • the integrating circuits 1a to 1d are circuits that integrate the photocurrents input from the light receiving elements PD1 to PD4 constituting the light receiving element DPD.
  • the AD converters 2a to 2d have a function of performing AD conversion (analog / digital conversion) on the output signal from the integration circuit.
  • the integrating circuits 1a to 1d and AD converters 2a to 2d accurately convert the photocurrent signals input from the light receiving elements PD1 to 4, respectively, and easily process the signals output from the light receiving elements DPD in electronic equipment. Any circuit and AD converter can be used as long as they are converted into digital values, and there is no particular limitation.
  • a double integration circuit or the like can be listed as an example of the integration circuits 1a to 1d
  • a ⁇ conversion circuit or the like can be listed as an example of the AD converters 2a to 2d.
  • the control circuit 5 is a circuit that controls the operation of the entire optical sensor 101 based on the reference clock from the oscillator 9. For example, the control circuit 5 generates a control signal to the LED drive circuit 8 for driving the light emitting element LED, and controls each of the integration circuits 1a to 1d and the AD converters 2a to 2d so as to be synchronized with this signal. A signal is also generated. It is also used when operating the arithmetic circuit 3 to be described later in time series, and has a function of transmitting a data capture signal to the register 4 when the measurement period in the integration circuits 1a to 1d is over. . The details of the configuration and operation of the control circuit 5 will be described later.
  • the register 4 has a function of holding a digital value corresponding to the AD-converted photoelectric flow rate.
  • the register 4 can be configured by a sequential circuit (flip-flop), for example, but is not particularly limited. As shown in FIG. 3A, in this embodiment, the register 4 is connected to the AD converters 2a to 2d via the arithmetic circuit 3. However, it is not necessary to be limited to such a form. For example, only a digital value corresponding to the photoelectric flow rate directly converted by the AD converters 2a to 2d is held in the register 4, and the calculation is performed via an interface 6 described later.
  • the control unit 7 (CPU) capable of performing arithmetic processing or the like may be used.
  • FIG. 3B is a configuration diagram showing the configuration of the arithmetic circuit 3.
  • the arithmetic circuit 3 includes addition circuits 31a to 31e (addition circuits 1 to 5), subtraction circuits 32a and 32b (subtraction circuits 1 and 2), and division circuits 33a and 33b (division circuit 1). , 2).
  • the adder circuits 31a to 31d output the sum of the inputs A and B, respectively.
  • the adder circuit 31e is a circuit that outputs the sum of inputs A, B, C, and D.
  • the subtraction circuits 32a and 32b output the difference between the input A and the input B.
  • the output of the subtractor circuit 32a is output AB ⁇ (IN1 + IN2) ⁇ (IN3 + IN4).
  • the output of the subtraction circuit 32b is output AB ⁇ (IN2 + IN3) ⁇ (IN1 + IN4).
  • the division circuits 33a and 33b output the division of the input A and the input B.
  • the configuration of the interface 6 is not particularly limited.
  • a circuit that outputs a digital value output from the register 4 in synchronization with an external serial clock SCL as I2C as serial data SDA may be used.
  • an optical pulse signal for example, a PWM (Pulse Width Modulation) signal
  • the light emitting element LED of the present embodiment emits light at a predetermined period based on the light pulse signal, and outputs an infrared light pulse.
  • the main part of the optical sensor 101 includes the register 4, the control circuit 5, the interface 6, and the control unit 7 (CPU: Central Processing Unit).
  • the control circuit 5 includes a first comparator (another comparison means) 51, a storage circuit 52, and a second comparator (comparison means) 53.
  • the control unit 7 includes a determination rejection determination unit 71, an FLG setting unit 72, and a movement direction determination unit (movement direction determination means) 73.
  • the first comparator 51 compares the input Z (sum of photocurrents) input from the register 4 with a predetermined current value Z_th, and the result (Z comparison result) of the control unit 7 via the interface 6. The data is transferred to the determination rejection determination unit 71.
  • ⁇ Second comparator 53> The second comparator 53 compares the output Ratio_X, Y (ratio) input from the register 4 with a predetermined threshold Ratio_th, and the result (R comparison result) is moved by the control unit 7 via the interface 6. It passes to the direction determination part 73.
  • the sign of the ratio (Ratio_X, etc.) can be positive or negative.
  • the comparison in the second comparator 53 which will be described later, theoretically requires setting a threshold Ratio_th having a positive sign. become.
  • Ratio_X if the sign of Ratio_X is positive, it is directly compared with a threshold Ratio_th having a positive sign, and if the sign of Ratio_X is negative, the absolute value of Ratio_X is taken. Compared with the threshold Ratio_th having a positive sign, it may be determined whether or not the absolute value of Ratio_X exceeds the threshold Ratio_th having a positive sign regardless of the sign of Ratio_X.
  • the determination rejection determination unit 71 determines whether or not to perform a process of determining the movement direction of the detection target 100 based on the Z comparison result. More specifically, if the output Z ⁇ Z_th, the determination process is performed. On the other hand, if the output Z ⁇ Z_th, the determination process is not performed.
  • the FLG setting unit 72 sets the values of S_FLG and ME_FLG.
  • ⁇ Moving direction determination unit 73> After the second comparator 53 determines that the output Ratio_X is larger than the threshold Ratio_th having the same sign as the output Ratio_X, the moving direction determination unit 73 further determines that the absolute value of another output Ratio_X having a sign different from that of the output Ratio_X is When it is determined that the threshold value Ratio_th of the same code is larger than the absolute value of -Ratio_th (another threshold value) having a different code, the moving direction of the detection target 100 is determined. According to said structure, the moving direction determination part 73 is comprised so that the moving direction of the detection target object 100 may be determined using the determination result of 2 times.
  • the moving direction of the detection target object 100 can be determined more accurately than the configuration in which the moving direction of the detection target object 100 is determined by only one of the comparisons of the output Ratio_X and the threshold Ratio_th.
  • an optical pulse signal for example, a PWM signal
  • the light emitting element LED emits light at a predetermined period based on the light pulse signal, and outputs an infrared light pulse.
  • the detection object 100 When the detection object 100 is not located in the optical path of the light emitted from the light emitting element LED, the light emitted from the light emitting element LED proceeds as it is. For this reason, the light receiving element DPD does not receive the reflected light from the detection object 100 and only the ambient light is incident thereon, so that the incident light amounts of the light receiving elements PD1 to PD4 are small. In this case, the detection object 100 is not detected.
  • the detection object 100 approaches the light emitting / receiving unit 90 and reaches the position of the optical path of the light emitted from the light emitting element LED, the light emitted from the light emitting element LED is reflected by the detection object 100.
  • the detection target 100 When the detection target 100 reaches the position where the light path is completely blocked and all the light from the light emitting element LED is reflected, the detection target 100 comes closest to the light emitting / receiving unit 90, so that the amount of reflected light is maximized in this state.
  • the light receiving elements PD1 to PD4 receive the reflected light from the detection target 100, thereby increasing the amount of incident light and generating a photocurrent proportional to the amount of incident light.
  • the photocurrents generated by the light receiving elements PD1 to PD4 are integrated by the integrating circuits 1a to 1d.
  • the integrated values from the integrating circuits 1a to 1d are converted into digital integrated values by the AD converters 2a to 2d, respectively.
  • the arithmetic circuit 3 outputs a detection signal for detecting the proximity of the detection target 100 based on the digital integration values from the AD converters 2a to 2d. Further, the detection signal is output from the interface 6 to the control unit 7.
  • the optical sensor 101 When the optical sensor 101 is used as a proximity sensor, it outputs a detection signal when the detection object 100 approaches. On the other hand, the optical sensor 101 detects the movement of the detection target 100 when used as a gesture sensor.
  • FIG. 4 and (c) in FIG. 4 are plan views showing changes in the positional relationship between the light spot S formed by the emitted light (irradiated light) from the light emitting element LED and the detection object 100. It is. 4B and 4D are plan views showing a state in which the reflected light from the detection target 100 of the light spot S is incident on the light receiving element DPD in the light receiving and emitting unit.
  • the light receiving element DPD is a four-divided light receiving element, and is composed of four light receiving elements, the light receiving elements PD1 to PD4 (see FIG. 4B and FIG. 4D). .
  • the reflected light from the detection target object 100 depends on the position of the detection target object 100 as shown in FIGS. 4 (a) to 4 (d).
  • the shape of the image in which the (light spot S) is projected onto the light receiving element DPD changes. Therefore, it is possible to detect at which position the detection object 100 is present with respect to the light emitting / receiving unit 90 by measuring the amount of light incident on each of the light receiving elements PD1 to PD4 constituting the light receiving element DPD.
  • the light receiving element DPD a split type DPD having a total of four light receiving elements PD1 to PD4 is adopted as the light receiving element DPD.
  • the number of PDs constituting the light receiving element DPD is limited to four.
  • the light receiving element DPD may include at least two or more PDs.
  • the detection target 100 moves from the right to the left with respect to the light spot S formed by the light emitted from the light emitting element LED will be described.
  • the reflected light of the light spot S from the detection target 100 is projected onto the light receiving element DPD as an inverted image by the light receiving lens portion 92 b (convex lens) of the light receiving and emitting unit 90.
  • the reflected light is projected onto the light receiving elements PD2 and PD3 when the detection object 100 is approaching from the right direction.
  • the light receiving elements PD2 and PD3 generate a photocurrent proportional to the intensity of the incident light.
  • the reflected light is projected onto all the light receiving elements PD1 to PD4.
  • the light receiving elements PD1 to PD4 generate a photocurrent proportional to the intensity of the incident light.
  • the reflected light is projected onto the light receiving elements PD1 and PD4 when the detection object 100 moves away to the left. At this time, the light receiving elements PD1 and PD4 generate a photocurrent proportional to the intensity of incident light.
  • the detection target 100 moves from the upper right to the lower left with respect to the light spot S formed by the light emitted from the light emitting element LED will be described.
  • the reflected light of the light spot S from the detection target 100 is projected onto the light receiving element DPD as an inverted image by the light receiving lens portion 92 b of the light receiving and emitting unit 90.
  • the reflected light is mainly projected onto the light receiving element PD3 when the detection target 100 is approaching from the upper right.
  • the light receiving element PD3 generates a photocurrent proportional to the intensity of the incident light.
  • the reflected light is projected onto all the light receiving elements PD1 to PD4.
  • the light receiving elements PD1 to PD4 generate a photocurrent proportional to the intensity of the incident light.
  • the reflected light is projected onto the light receiving element PD1 in a state where the detection object 100 moves diagonally downward to the left. At this time, the light receiving element PD1 generates a photocurrent proportional to the intensity of the incident light.
  • each of the light receiving elements PD1 to PD4 of the light receiving element DPD changes according to the position of the detection target 100 with respect to the light spot S
  • each of the light receiving elements PD1 to PD4 of the light receiving element DPD accordingly.
  • Each of the photocurrents also changes.
  • the relative positional relationship between the light emitting / receiving unit 90 and the detection target 100 can be determined based on the photocurrents of the light receiving elements PD1 to PD4.
  • the moving speed and direction of the detection target object 100 can also be detected.
  • the black portion and the hatched portion of the image projected onto the light receiving element DPD indicate a portion having a high light intensity and a portion having a low light intensity, respectively.
  • the movement direction of the detection object detected by the optical sensor 101 is two directions [detection of (a) in FIG. 4 and (b) in FIG. 4] such as directions X and Y shown in FIG. Correspond to the pattern], and as shown in FIG. 4 (f), there are 8 directions D1 to D8 (corresponding to the detection patterns of FIG. 4 (a) to FIG. 4 (d)). May be.
  • the maximum value is 1 and the minimum value is ⁇ 1
  • the threshold value for determining the moving direction can be shared with the X direction and the Y direction.
  • the hardware scale for setting the threshold can be reduced.
  • the amount of received light signal (the amount of received light) changes depending on whether the detection object 100 is near or far.
  • 5 (a) to 5 (c) show changes in the amount of received light signal when the detection target 100 crosses the light receiving / emitting unit 90 at a constant speed.
  • FIG. 5 (a) shows a case where the total of the photoelectric flow rates I1 to I4 corresponding to the output photocurrents of the light receiving elements PD1 to PD4 is measured at a sufficient speed using the light emitting / receiving unit 90.
  • It is a graph of. 5A is a time axis when the detection target 100 is moving. That is, it represents a change in the amount of received light signal due to a change in the relative positional relationship between the light emitting / receiving unit 90 and the detection target 100.
  • the solid line in FIG. 5A indicates a state in which the detection target 100 crosses the vicinity of the light emitting / receiving unit 90.
  • the broken line indicates a state in which the detection object 100 has crossed the distance of the light emitting / receiving unit 90.
  • the amount of received light signal increases when the detection target 100 is at a short distance, and the amount of received light signal decreases when the detection target 100 is far away.
  • the amplitude of the difference X changes depending on whether the detection object 100 crosses a short distance or a long distance. This leads to a difference in determination of the moving direction between a long distance and a short distance. For example, when a certain threshold value is set for the difference X and the movement direction of the detection target 100 is determined when the threshold value is exceeded, the threshold value needs to be lowered so that it can be determined even with a small amplitude at a long distance.
  • an optical sensor reacts under the influence of ambient light.
  • the S / N ratio may deteriorate due to noise in the light receiving element or the sensor circuit. If the threshold value is lowered, an event may occur in which the moving direction of the detection target 100 cannot be erroneously determined or determined due to the influence of such disturbance light or noise.
  • FIG. 5C shows the value of Ratio_X.
  • the vertical axis is the vertical axis and the time axis is the horizontal axis, and the change in Ratio_X is graphed.
  • the waveform of the graph shown in the figure does not depend on the distance of the detection target 100 and hardly changes.
  • the maximum amplitude is 1 and the minimum is -1.
  • Ratio_th is set for Ratio_X, the moving direction of the detection target object 100 can be accurately determined without depending on the detection distance.
  • the optical sensor is made of an IC chip and has manufacturing variations. Even if the light receiving sensitivity increases or decreases due to manufacturing variations, the value for determining the moving direction is determined by the ratio, so that the variation component is compressed.
  • Ratio_X corresponds to the output OUT2 of the arithmetic circuit 3 described above
  • Ratio_Y corresponds to OUT1.
  • Z corresponds to the output OUT3 of the arithmetic circuit 3.
  • the human hand when crossing the light sensor by hand, the human hand does not necessarily move horizontally on the light sensor. For example, even when the distance between the optical sensor and the hand is not kept constant, that is, when the hand crosses the optical sensor obliquely in the vertical direction, the Ratio_X or Ratio_Y value is output regardless of the distance of the detection object. Therefore, the moving direction of the hand can be accurately determined.
  • (d) of FIG. 5 shows a case where the moving speed of the detection object 100 is faster than that of (c) of FIG.
  • the time interval t1'-t2 ' is shorter than the time interval t1-t2.
  • Each of the time interval t1-t2 and the time interval t1'-t2 ' indicates a time interval at which the sign of the threshold Ratio_X is inverted.
  • the speed that is, the moving speed of the detection target object 100
  • the movement speed of the detection target object 100 can be specified by dividing the distance between two PDs arranged in parallel by the time interval.
  • the optical sensor 101 is activated.
  • the optical sensor 101 incorporates a digital circuit
  • the initial setting from the control unit 7 is also executed at this time.
  • control unit 7 acquires data corresponding to the received light signal and executes arithmetic processing.
  • the optical sensor 101 performs arithmetic processing, and the control unit 7 reads out the result from the interface.
  • the control unit 7 determines the moving direction of the detection target object 100 using the raw data of each received light signal. Basically, measurement, data acquisition, and calculation processing are repeatedly executed regardless of whether or not the determination is made.
  • Z_th is a threshold value (current value) for Z and is determined in consideration of the S / N ratio of the optical sensor 101 and the like.
  • Ratio_X is the ratio of the difference in photocurrent to the sum of the photocurrents described above.
  • Ratio_th assumes the determination in two directions in FIG. 4E, and sets a threshold value of Ratio_X and / or Ratio_Y.
  • the storage circuit 52 shown in FIG. 1 is a storage circuit for storing the states of S_FLG and ME_FLG.
  • X + and X- may be set to 1 or 2 on the program. In order to represent the initial state, there is a state in which the initial value of ME_FLG is 0.
  • the determination rejection determination unit 71 receives the Z comparison result from the first comparator 51 via the interface 6, and determines whether or not to determine the moving direction of the detection target 100 (S2).
  • Ratio_X when the Ratio_X is positive, the moving direction determination unit 73 compares Ratio_X with Ratio_th (positive value), and if Ratio_X ⁇ Ratio_th, the process proceeds to S10. At this time, it may be determined from which side the detection object 100 comes. On the other hand, if Ratio_X ⁇ Ratio_th, the process proceeds to S12.
  • the moving direction determination unit 73 compares Ratio_X with ⁇ Ratio_th (negative value) when Ratio_X is negative, and proceeds to S13 if Ratio_X ⁇ ⁇ Ratio_th. At this time, it may be determined from which side the detection object 100 comes. On the other hand, if Ratio_X ⁇ Ratio_th, the process proceeds to S8.
  • the moving direction determination unit 73 compares Ratio_X with Ratio_th (positive value) when Ratio_X is positive, and proceeds to S5 if Ratio_X ⁇ Ratio_th. On the other hand, if Ratio_X ⁇ Ratio_th, the process proceeds to S14.
  • the movement direction determination unit 73 confirms the value of ME_FLG read from the storage circuit 52. If X ⁇ is set in ME_FLG, the process proceeds to S6, and the movement direction determination unit 73 determines that the detection target is left. It is determined that it has moved to the right. Thereafter, the process proceeds to S7, where the FLG setting unit 72 initializes all the FLGs and proceeds to S8.
  • the movement direction determination unit 73 compares Ratio_X with -Ratio_th (negative value) when Ratio_X is negative, and proceeds to S15 if Ratio_X ⁇ -Ratio_th. On the other hand, if Ratio_X ⁇ Ratio_th, the process proceeds to S8.
  • the movement direction determination unit 73 confirms the value of ME_FLG read from the storage circuit 52. If X + is set in ME_FLG, the process proceeds to S16, and the movement direction determination unit 73 determines that the detection target is from the right. It is determined that it has moved to the left. Thereafter, the process proceeds to S7, where the FLG setting unit 72 initializes all the FLGs and proceeds to S8.
  • Ratio_X in which the sign is reversed is obtained (S4, S5, S14, S15).
  • X + is first set to ME_FLG (S10).
  • the moving direction determination part 73 uses ratio Ratio_X with respect to the sum of the said photocurrent for determination of the moving direction of the detection target object 100, and sets predetermined
  • the change with respect to time of the sum of the photocurrents is the amount of light received due to a change in the relative arrangement relationship between the light receiving element DPD and the detection object 100 (such as an error in the amount of light received due to a change in the distance or the angle of the human hand). [See FIG. 5 (a)].
  • the difference in the photocurrent varies depending on whether the detection object 100 crosses a short distance or a long distance (see FIG. 5B).
  • the relative arrangement relationship (distance, hand angle, etc.) between the light receiving element DPD and the detection object 100 can be determined from the amplitude of the detected photocurrent.
  • the influence of the change in the amount of received light due to the change can be eliminated.
  • the moving direction of the detection target 100 is determined by the above Ratio_X, and thus the variation component is compressed. . Further, the sum and difference of the photocurrents may deteriorate the S / N ratio due to disturbances such as noise. However, since the moving direction of the detection target 100 is determined by the above Ratio_X, the influence of these disturbances Will also be offset. As described above, the movement of the detection object 100 can be accurately detected without depending on the change in the relative arrangement relationship between the light receiving element DPD and the detection object 100.
  • Embodiment 2 Embodiment 2 according to the present invention will be described below with reference to FIG.
  • the optical sensor of the present embodiment is different from the optical sensor 101 of the first embodiment only in that a control unit 7a and a timer 75 are provided instead of the control unit 7. For this reason, since the configuration other than the control unit 7a is as described in the first embodiment, the description thereof is omitted here.
  • the control unit 7a is different from the control unit 7 in that it includes a moving speed determination unit (moving speed specifying means) 74. For this reason, since it is as having demonstrated the structure other than the moving speed determination part 74 of the control part 7a in Embodiment 1, description is abbreviate
  • the moving speed determination unit 74 refers to the length of the period in which the sign of Ratio_X is inverted (see time interval t1-t2 in FIG. 5C or time interval t1′-t2 ′ in FIG. 5D). ) May specify the moving speed of the detection object 100.
  • the moving speed determination unit 74 starts the timer 75. Thereafter, the movement speed can be determined by measuring the time (S6, S16) required for determining the right direction or the left direction.
  • the data of the light emitting / receiving unit 90 is acquired from the control unit 7a via the interface 6, it has a certain sampling rate. This is equivalent to determining the moving speed based on how many times the sampling direction has been determined after exceeding the threshold value first.
  • the figure shows a form (the light emitting / receiving unit 90A) in which the present invention is applied to a transmission type light emitting / receiving unit.
  • the reflective light emitting / receiving unit included in the optical sensor of the first or second embodiment may be a transmissive light emitting / receiving unit.
  • the change with respect to time of the sum of the photocurrents is a change in the relative arrangement relationship between the light receiving element DPD and the detection object 100 (such as a human hand).
  • the detection object 100 such as a human hand.
  • it has a correlation with a change in the amount of received light due to a change in the angle of a human hand.
  • the difference of the photocurrents is divided by the sum of the photocurrents, it is caused by the change in the amount of received light due to the change in the relative arrangement relationship between the light receiving element DPD and the detection object 100 from the amplitude of the detected photocurrent. The influence can be removed.
  • the moving direction of the detection target 100 is determined by the above Ratio_X, and thus the variation component is compressed. . Further, the sum and difference of the photocurrents may deteriorate the S / N ratio due to disturbances such as noise. However, since the moving direction of the detection target 100 is determined by the above Ratio_X, the influence of these disturbances Will also be offset.
  • Embodiment 4 Embodiment 4 according to the present invention will be described below with reference to FIG.
  • FIG. 8 is a plan view showing the configuration of the smartphone 201 according to Embodiment 4 of the present invention.
  • a smartphone 201 as an electronic device is configured by incorporating a liquid crystal panel 203 and a touch panel 204 in a housing 202.
  • the liquid crystal panel 203 is provided on the operation surface side of the housing 202.
  • the touch panel 204 is provided on the liquid crystal panel 203.
  • the audio output unit 205 and the light emitting / receiving unit 90 or the light emitting / receiving unit 90A are arranged on the upper part of the operation surface of the housing 202.
  • the audio output unit 205 is provided for outputting audio when using the smartphone 201 as a telephone and various sounds according to the operation of the application program.
  • the light emitting / receiving units 90 and 90A are light emitting / receiving units provided to detect the proximity of the detection target 100 (for example, the user's face) or to detect a gesture operation.
  • an electronic device including the light emitting and receiving units 90 and 90A that can accurately detect the movement of the detection target 100 without depending on the distance from the detection target 100 can be realized.
  • control blocks of the optical sensor 101 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU It may be realized by software using
  • the optical sensor 101 includes a CPU that executes instructions of a program that is software that realizes each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU), or A storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
  • a computer or CPU
  • the recording medium a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the optical sensor (101) according to the first aspect of the present invention is blocked by reflected light generated by irradiating the detection target (100) with light emitted from the light emitting element (LED) or by the detection target.
  • a moving method for determining that the specific direction is the moving direction of the detection object when the comparison means determines that the absolute value of the ratio is larger than the predetermined threshold value.
  • a specifying means (movement direction determining section 74).
  • the moving direction determining means uses the ratio of the difference with respect to the sum of the photocurrents to determine the moving direction of the detection target, sets a predetermined threshold for the ratio, and compares these values. Is configured to do.
  • the change with respect to time of the sum of the photocurrents described above is the amount of light received due to a change in the relative positional relationship between the optical sensor and the detection target (such as an error in the amount of light received due to a change in the distance or the angle of the human hand) Correlates with changes [see FIG. 5 (a)].
  • the difference in the photocurrent varies depending on whether the detection target crosses a short distance or a long distance (see FIG. 5B).
  • the influence of the change in the amount of received light due to the change in the relative positional relationship between the photosensor and the detection target object is detected from the amplitude of the detected photocurrent. Can be removed.
  • the moving direction of the detection target is determined by the above ratio, so that the variation component is compressed. Further, the sum and difference of the photocurrents may deteriorate the S / N ratio due to disturbances such as noise. However, since the moving direction of the detection target is determined by the above ratio, the influence of these disturbances is also affected. Will be offset.
  • An optical sensor according to aspect 2 of the present invention is the optical sensor according to aspect 1, further comprising another comparison unit that compares the sum of the photocurrents with a predetermined current value.
  • the comparison means determines that the sum of the photocurrents is smaller than the predetermined current value, the moving direction of the detection target may not be determined.
  • the moving direction of the detection target is determined by the above ratio, the variation component is compressed and the influence of the disturbance is also offset.
  • the effect of offsetting the effects of is high. Therefore, according to the above configuration, for example, it is possible to more accurately determine the moving direction of the detection target by reducing the manufacturing variation of the light receiving element, the error in the amount of received light due to the hand angle, and the influence of disturbance. it can.
  • An optical sensor according to aspect 3 of the present invention is the above-described aspect 1 or 2, wherein there are two types of sign of the ratio, positive and negative, and the moving direction determination means includes the comparison means, After determining that the absolute value of the ratio is greater than a threshold having a positive sign, and further determining that the absolute value of another ratio having a different sign from the ratio is greater than the threshold having a positive sign The moving direction of the detection object may be determined.
  • the moving direction determination means determines the moving direction of the detection object using the comparison result between the absolute value of the ratio of at least two degrees until the sign of the ratio is inverted and the threshold value having a positive sign. It is configured to determine. For this reason, it is possible to determine the moving direction of the detection object more accurately than the configuration in which the movement direction of the detection object is determined by only one of the above comparisons.
  • the optical sensor according to aspect 4 of the present invention may further include a moving speed specifying unit that specifies the moving speed of the detection target object from the length of the period in which the sign of the ratio is inverted in the aspect 3. .
  • the moving speed of the detection target can be accurately specified with a simple configuration.
  • the optical sensor according to aspect 5 of the present invention may include any one of the optical sensors according to aspects 1 to 4.
  • the optical sensor according to each of the above aspects of the present invention may be realized by a computer.
  • the light that causes the computer to realize the optical sensor by operating the computer as each unit included in the optical sensor may be realized by a computer.
  • a sensor control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention can be suitably used for a proximity sensor using a reflective or transmissive optical sensor and a gesture sensor used for the purpose of detecting the movement of an object.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Power Engineering (AREA)
  • Geophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

 特定の方向に沿って並列する少なくとも2つの受光素子の光電流の和に対する、当該少なくとも2つの受光素子の光電流の差の比の絶対値が、所定の閾値よりも大きいと第2コンパレータ(53)によって判定された場合に、上記特定の方向を検知対象物の移動方向と判定する移動方向判定部(73)を備える。

Description

光センサおよび電子機器
 本発明は、近接センサやジェスチャーセンサとして好適に用いられる光センサおよびそれを用いた電子機器に関する。
 光センサは、検知対象物を検知したり、検知対象物との距離等を検出したりする機能を備えており、応用の分野が広がっている。
 携帯電話(スマートフォンを含む)やデジタルカメラ等の電子機器は、画像を表示するための液晶パネルを備えている。また、このような電子機器には、液晶パネル上でタッチ操作が可能となるように、タッチパネルを備えた機種がある。さらに、携帯電話の中には、耳を当てる音声出力部に、携帯電話に対する人の顔が近づいたことを検知する近接センサが搭載されたものもある。この近接センサは、携帯電話の低消費電力化およびタッチパネルの誤動作防止のために、液晶パネルに顔が近づいたときに、タッチパネル動作をオフさせるためなどに利用されている。
 また、物体の動きを検知するセンサの技術分野では、上記のような近接センサの他、人の手の動きを検知するジェスチャーセンサとして光センサを利用する要望もある。このようなジェスチャーセンサは、タッチパネル上の手の動きを非接触で検知する。これにより、濡れた手や汚れた手でも、液晶パネルの表面を汚さずに、液晶パネルに表示された画面をスクロールするように操作することができる。またタッチパネルに反応しづらい手袋等を付けた状態でも同様に液晶パネルを操作することが可能になる。
 物体の動きを検知する光センサとして、例えば、特許文献1には、反射型の光センサが開示されている。この光センサは、図9に示すように、発光素子301と、2つの受光素子302,303を備えており、受光素子302,303が発光素子301の両側に配置されている。検知対象物304が右側にある場合、受光素子301に検知対象物からの反射光が強く当たる。一方、検知対象物304が左側にある場合、受光素子302,303に検知対象物304からの反射光が強く当たる。そして、2つの受光素子302,303で発生する光電流の差を読み取って、検知対象物304の位置や動きを検出することができる。
 また、特許文献2には、複数区分の光センサと、各光センサから出力される電流を処理する制御回路と、を備えるジェスチャーセンサが開示されている。
日本国公開特許公報「特開2000-75046号公報(2000年3月14日公開)」 米国公開特許公報「第2012/280904号公報(2012年11月8日公開)」
 しかしながら、上記従来の光センサでは、光センサと検知対象物との相対的な配置関係の変化に依存することなく検知対象物の動きを正確に検知することが困難であるという問題点がある。
 例えば、上記のようなジェスチャーセンサを搭載した電子機器は、人の手を検知対象物としているため、ジェスチャーセンサに対する人の手の相対的な角度の変化によって、光センサに入射する受光量が変化するので、そのような手の動作に反応する必要がある。また、手の形には個人差があり、使用時にジェスチャーセンサと手の距離が一定では無いことも多い。
 また、反射型の光センサの場合、検知対象物である手の距離が離れた場合、光センサに入力される反射光が著しく減少するが、そのような場合でもジェスチャーセンサは物体の動作を正確に判定できることが要求される。
 しかしながら、上記特許文献1および2のいずれの文献においても、光センサついて、光センサと検知対象物との相対的な配置関係の変化に関わらず、物体の動作を正確に検知するための具体的施策は示されていない。
 本発明は、上記問題点に鑑みてなされたものであり、その目的は、光センサと検知対象物との相対的な配置関係の変化に依存することなく検知対象物の動きを正確に検知することができる光センサなどを提供することにある。
 上記の課題を解決するために、本発明の一態様に係る光センサは、発光素子から出射された光が検知対象物に照射されることによって生じた反射光、または、検知対象物によって遮断されなかった外部からの光が入射することによって光電流を発生する複数の受光素子を備え、上記複数の受光素子のうち、特定の方向に沿って並列する少なくとも2つの受光素子の光電流の和に対する、当該少なくとも2つの受光素子の光電流の差の比の絶対値と、所定の閾値とを比較する比較手段と、上記比較手段によって上記比の絶対値が上記所定の閾値よりも大きいと判定された場合に、上記特定の方向を上記検知対象物の移動方向と判定する移動方向判定手段とを備えることを特徴とする。
 本発明の一態様によれば、光センサと検知対象物との相対的な配置関係の変化に依存することなく検知対象物の動きを正確に検知することができるという効果を奏する。
 本発明の他の目的、特徴、および優れた点は、以下に示す記載によって十分分かるであろう。また、本発明の利点は、添付図面を参照した次の説明で明白になるであろう。
本発明の実施形態1(または実施形態3)に係る光センサの主要部の構成を示すブロック図である。 本発明の実施形態1(または実施形態3)に係る光センサに係る受発光ユニットの実装構造を示す縦断面図であり、(a)は、本発明の実施形態1に係る反射型の受発光ユニットの実装構造を示し、(b)は、本発明の実施形態3に係る透過型の受発光ユニットの実装構造を示す。 本発明の実施形態1(または実施形態3)に係る光センサの全体構成および該光センサが備える演算回路を示すブロック図であり、(a)は、該光センサの全体構成を示し、(b)は、該光センサが備える演算回路の構成を示す。 図3の光センサの検出対象および該光センサが検知する検知対象物の移動方向を説明するための平面図であり、(a)および(c)は、図3の光センサにおける発光素子からの出射光が形成する光スポットと検知対象物との位置関係の変化を示し、(b)および(d)は、図3の光センサにおける受光素子に上記光スポットの上記検知対象物からの反射光が入射した状態を示し、(e)は、上記光センサが検知する検知対象物の移動方向の一例(4方向)を示し、(f)は、上記光センサが検知する検知対象物の移動方向の別の例(8方向)を示す。 検知対象物の移動によって受光素子が検出する光電流の時間に対する変化の一例を示し、(a)は、各受光素子から出力される光電流の和の時間に対する変化の一例を示し、(b)は、特定の方向に並列する少なくとも2つの受光素子から出力される光電流の差の時間に対する変化の一例を示し、(c)は、上記光電流の和に対する上記光電流の差の比の時間に対する変化の一例を示し、(d)は、上記比の時間に対する変化の一例を示す。 本発明の実施形態(実施形態1~3)に係る光センサの動作の流れを示すフローチャートである。 本発明の実施形態2に係る光センサの主要部の構成を示すブロック図である。 本発明の実施形態4に係るスマートフォンの外観を示す正面図である。 従来のジェスチャーセンサの構成を示す縦断面図である。
 本発明の実施の形態について図1~図8に基づいて説明すれば以下のとおりである。以下の特定の実施形態で説明する構成以外の構成については、必要に応じて説明を省略する場合があるが、他の実施形態で説明されている場合は、その構成と同じである。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。また、各図面に記載した構成の形状、ならびに、長さ、大きさおよび幅などの寸法は、実際の形状や寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜に変更している。
 以下に示す各実施形態では、本発明の実施の形態に係る光センサの例として、スマートフォンなどに搭載される近接センサを例にとって説明するが、本発明はこのような形態に限定されない。例えば、人の手の動きを検知するジェスチャーセンサなどにも本発明を適用することが可能である。
〔実施形態1〕
 本発明に係る実施形態1について、図1、図2の(a)~図6を参照して以下に説明する。
 <受発光ユニットの実装構造>
 図2の(a)は、後述する本実施形態の光センサ101が備える受発光ユニット90における発光素子LEDおよび受光素子DPD(受光素子PD1~PD4)の実装構造を示す縦断面図である。なお、本実施形態の受発光ユニット90は、反射型の光センサであるが、本発明を適用することが可能な形態は、このような反射型の光センサに限定されない。例えば、後述する本発明の実施形態3の受発光ユニット90Aのように透過型の光センサも本発明の範疇に含まれる。
 図2の(a)に示すように、受発光ユニット90は、発光素子LED、受光素子DPD(受光素子PD1~PD4)、基板91、封止部材92、発光レンズ部92aおよび受光レンズ部92bを備える。発光素子LED、および、受光素子DPDを構成する受光素子PD1~4、のそれぞれは、基板91上に適当な間隔をおいて実装されている。発光素子LEDは、発光ダイオードによって構成されている。また、受光素子PDPは、複数のフォトダイオードまたはフォトトランジスタと信号処理用回路やLEDドライバ回路とを一体化したOPIC(Optical IC)(登録商標)によって構成されている。
 封止部材92は、発光素子LEDまたは受光素子DPDを覆うように、基板91上に形成されている。封止部材92は、透明な樹脂材料、あるいは、発光素子LEDの発光波長を透過させて可視光成分をカットする可視光カット樹脂材料によって形成されており、表面に発光レンズ部92aおよび受光レンズ部92bを有している。発光レンズ部92aは、発光素子LEDの光出射側に半球状をなすように形成された凸レンズであり、発光素子LEDから放射される光を所定位置に集束するか、または、平行光に変換するように出射する。受光レンズ部92bは、受光素子DPDの光入射側に半球状をなすように形成された凸レンズであり、検知対象物100から反射された反射光を受光素子PD1~PD4に集束する。なお、発光レンズ部92aおよび受光レンズ部92bは必ずしも必要ではない。上記特許文献2に示されているように、受光素子上に金属層等で方向性を持たせることで、検知対象物の位置に依ってそれぞれの受光素子の光電流出力量を変化させることが可能である。但し、そのような受光素子上に影を作る構造では発光素子から発射される信号光成分が著しく減少してしまう。
 図4の(b)および図4の(d)に示すように、受光素子DPDは、受光素子PD1~PD4が格子状(マトリクス状)に配列され、後述するようにそれぞれの受光素子は検知対象物100の位置に応じて光電流が変化する構造を有している。すなわち、本実施形態の受光素子DPDは、4分割型の受光素子であり、受光素子PD1~PD4の4つの受光素子で構成されている。なお、受光素子PDPの構造は、本実施形態の構造に限定されない。どのような構造においても光センサ101と検知対象物100との配置関係(これらの構成間の距離や人の手の相対的な角度などを含む)に依存することなく正確に検知対象物の動作を判定することができる。また、例えば、検知する移動方向は、一方向に限定されるものの、受光素子DPDは、少なくとも2つのPDがアレイ状に配列した受光素子などであっても良い。
 <光センサの構成>
 図3は、本実施形態に係る光センサ101の全体構成を示すブロック図である。同図に示すように、光センサ101は、受発光ユニット90〔受光素子DPD(受光素子PD1~PD4)、発光素子LED(Light Emitting Diode)などを含む〕、積分回路1a~1d、ADコンバータ2a~2d、演算回路3、レジスタ4、制御回路5、インターフェース6、制御部7、LED駆動回路8および発振器9を含む。
 <回路の構成>
 積分回路1a~1d(積分回路1~4)は、受光素子DPDを構成する受光素子PD1~4のそれぞれから入力された光電流を積分する回路である。ADコンバータ2a~2d(ADコンバータ1~4)は積分回路からの出力信号をAD変換(アナログ・デジタル変換)する機能を備えている。
 <積分回路、ADコンバータ>
 積分回路1a~1dおよびADコンバータ2a~2dは、それぞれ、受光素子PD1~4から入力された光電流信号を正確にAD変換し、受光素子DPDから出力される信号を電子機器での処理が容易なデジタル値に変換する回路およびADコンバータであれば良く、特に限定されない。例えば、積分回路1a~1dの例として、2重積分回路など、ADコンバータ2a~2dの例として、ΔΣ変換回路などを挙示することができる。
 <制御回路、発振器>
 制御回路5は、発振器9からの基準クロックに基づいて、光センサ101全体の動作を制御する回路である。制御回路5は、例えば、発光素子LEDを駆動するためのLED駆動回路8への制御信号を生成し、この信号に同期するように積分回路1a~1dおよびADコンバータ2a~2dのそれぞれを制御する信号も生成する。また、後述する演算回路3を時系列で動作させる場合にも使用し、積分回路1a~1dでの測定期間が終わったときにレジスタ4にデータ取り込み用の信号を送信する機能も有している。なお、制御回路5の構成および動作の詳細については後述する。
 <レジスタ>
 レジスタ4は、AD変換された光電流量に応じたデジタル値を保持する機能を有している。レジスタ4は、例えば、順序回路(フリップフロップ)で構成することができるが、特に限定されない。図3の(a)に示すように、本実施形態では、レジスタ4は、演算回路3を介してADコンバータ2a~2dに接続されている。しかしながら、このような形態に限定される必要はなく、例えば、ADコンバータ2a~2dで直接変換された光電流量に応じたデジタル値のみをレジスタ4で保持し、演算は後述するインターフェース6を介して、演算処理等が可能な制御部7(CPU)で実施しても良い。
 <演算回路>
 次に、演算回路3は、ADコンバータ2a~2dから出力されるデジタル値を演算する機能を備えている。図3の(b)は、演算回路3の構成を示す構成図である。同図に示すように、演算回路3は、加算回路31a~31e(加算回路1~5)、減算回路32a,32b(減算回路1,2)、および割算回路33a,33b(割算回路1,2で)を含む。
 加算回路31a~31dは、それぞれ入力AおよびBの和を出力する。加算回路31eは入力A、B、CおよびDの和を出力する回路である。
 演算回路3の入力をIN1~IN4とすると、加算回路31aの出力は、出力A+B=IN1+IN2である。また、加算回路31bの出力は、出力A+B=IN3+IN4、加算回路31cの出力は、出力A+B=IN2+IN3、加算回路31dの出力は、出力A+B=IN1+IN4となる。
 また、加算回路31eの出力は、出力A+B+C+D=IN1+IN2+IN3+IN4の全合計(和)を出力する。
 次に、減算回路32a,32bは、入力Aと入力Bとの差を出力する。例えば、上記の加算回路からの出力を入力として、減算回路32aの出力は、出力A-B=(IN1+IN2)-(IN3+IN4)となる。一方、減算回路32bの出力は、出力A-B=(IN2+IN3)-(IN1+IN4)となる。
 次に、割算回路33a,33bは、入力Aと入力Bの除算を出力する。例えば、上記の加算回路および減算回路からの出力結果を用いて、割算回路33aの出力は、出力A/B=〔(IN1+IN2)-(IN3+IN4)〕/(IN1+IN2+IN3+IN4)となる。
 一方、割算回路33bの出力は、出力A/B=〔(IN2+IN3)-(IN1+IN4)〕/(IN1+IN2+IN3+IN4)となる。
 <インターフェース>
 インターフェース6の構成は特に限定されない。例えば、I2Cで外部からのシリアルクロックSCLと同期してレジスタ4から出力されるデジタル値をシリアルデータSDAとして出力する回路で構成しても良い。
 <LED駆動回路、発光素子LED>
 制御回路5が発振器9からの基準クロックでLED駆動信号を生成すると、LED駆動回路から光パルス信号〔例えば、PWM(Pulse Width Modulation)信号など〕が出力される。本実施形態の発光素子LEDは、光パルス信号に基づいて所定周期で発光して、赤外線の光パルスを出力する。
 <光センサの主要部>
 次に、図1に基づき、光センサ101の主要部の構成の詳細について説明する。同図に示すように、光センサ101の主要部は、上記のレジスタ4、制御回路5、インターフェース6、および制御部7(CPU:Central Processing Unit)を含む。同図に示すように、制御回路5は、第1コンパレータ(別の比較手段)51、記憶回路52、および第2コンパレータ(比較手段)53を含む。また、制御部7は、判定拒否決定部71、FLG設定部72、および移動方向判定部(移動方向判定手段)73を含む。
 <第1コンパレータ51>
 第1コンパレータ51は、レジスタ4から入力される入力Z(光電流の和)と、所定の電流値Z_thとを比較し、その結果(Z比較結果)を、インターフェース6を介して制御部7の判定拒否決定部71に受け渡す。
 <記憶回路52>
 記憶回路52には、制御部7のFLG設定部72が設定するフラグであるS_FLGおよびME_FLGの値が、インターフェース6を介して記録される。
 <第2コンパレータ53>
 第2コンパレータ53は、レジスタ4から入力される出力Ratio_X,Y(比)と、所定の閾値Ratio_thとを比較し、その結果(R比較結果)を、インターフェース6を介して、制御部7の移動方向判定部73に受け渡す。なお、比(Ratio_Xなど)の符号の種類は正・負の2種類が考えられるが、後述する第2コンパレータ53における比較は、理論上は、正の符号を有する閾値Ratio_thを設定すれば良いことになる。より具体的には、以下で説明する比較は、Ratio_Xの符号が正であれば、正の符号を有する閾値Ratio_thとそのまま比較し、Ratio_Xの符号が負であれば、Ratio_Xの絶対値をとって、正の符号を有する閾値Ratio_thと比較し、Ratio_Xの符号に関わらず、Ratio_Xの絶対値が正の符号を有する閾値Ratio_thを超えるか否かを判定すれば良い。
 <判定拒否決定部71>
 判定拒否決定部71は、Z比較結果に基づき、検知対象物100の移動方向を判定する処理を行うか否かを決定する。より具体的には、出力Z≧Z_thならば、上記判定処理を行う。一方、出力Z<Z_thならば、上記判定処理を行わない。
 後述するように、出力Zが大きい程、ばらつき成分の圧縮や外乱の影響の相殺効果が高い。よって、上記構成によれば、例えば、受光素子DPD(または受光素子PD1~PD4)の製造ばらつきや手の角度による受光量の誤差、ならびに、外乱の影響などを縮小して、検知対象物100の移動方向をより正確に判定することができる。
 <FLG設定部72>
 FLG設定部72は、S_FLGおよびME_FLGの値を設定する。S_FLGの初期値は「0」であるが、S_FLG=0のときに、出力Ratio_X≦-Ratio_th、または、出力Ratio_X≦-Ratio_thと判定されると、「1」に設定され、検知対象物100の移動方向の判定が終了すると初期化される。
 ME_FLGは、例えば、S_FLG=1のとき、出力Ratio_X≧Ratio_thならば、「X+」、出力Ratio_X≦-Ratio_thならば、「X-」に設定される。一方、S_FLG=1のとき、出力Ratio_X≧Ratio_thならば、「X-」、出力Ratio_X≦-Ratio_thならば、「X+」に設定される。また、ME_FLGは、検知対象物100の移動方向の判定が終了するとすべて初期化される。
 <移動方向判定部73>
 移動方向判定部73は、第2コンパレータ53が、上記出力Ratio_Xが出力Ratio_Xと同一符号の閾値Ratio_thよりも大きいと判定した後に、さらに、出力Ratio_Xと符号の異なる別の出力Ratio_Xの絶対値が、上記同一符号の閾値Ratio_thと符号の異なる-Ratio_th(別の閾値)の絶対値よりも大きいと判定した場合に、検知対象物100の移動方向を判定する。上記の構成によれば、移動方向判定部73は、2度の判定結果を用いて検知対象物100の移動方向を判定するように構成されている。このため、出力Ratio_Xと閾値Ratio_thの比較の一方のみにより、検知対象物100の移動方向を判定する構成よりも、より正確に検知対象物100の移動方向を判定することができる。
〔光センサの動作〕
 <基本動作>
 制御回路5が、発振器9からの基準クロックを用いてLED駆動信号を生成すると、LED駆動回路から光パルス信号(例えば、PWM信号)が出力される。発光素子LEDは、光パルス信号に基づいて所定周期で発光して、赤外線の光パルスを出力する。
 検知対象物100が発光素子LEDから出射される光の光路に位置していないとき、発光素子LEDから出射される光はそのまま進行していく。このため、受光素子DPDは、検知対象物100からの反射光を受けることがなく、周囲光が入射するのみであるので、受光素子PD1~PD4の入射光量は小さい。この場合、検知対象物100が検知されないことになる。
 一方、検知対象物100が、受発光ユニット90に近づいて、発光素子LEDから出射される光の光路の位置に達すると、発光素子LEDから出射される光は検知対象物100によって反射される。検知対象物100が受発光ユニット90に近づくほど、検知対象物100からの反射光の光量が増大していく。
 検知対象物100は、上記の光路を完全に遮断し、発光素子LEDからの光を全て反射する位置に達すると、受発光ユニット90に最も近づくので、この状態では反射光量が最大となる。受光素子PD1~PD4は、検知対象物100からの反射光を受けることにより、入射光量が増大して、入射光量に比例した光電流を発生する。
 光センサ101において、受光素子PD1~PD4が発生した光電流は積分回路1a~1dによって積分される。積分回路1a~1dからの積分値は、ADコンバータ2a~2dによってそれぞれ、デジタル積分値に変換される。そして、演算回路3によって、ADコンバータ2a~2dからのデジタル積分値に基づいて、検知対象物100の近接を検知する検知信号が出力される。さらに、検知信号は、インターフェース6から制御部7へ出力される。
 光センサ101は、近接センサとして用いられる場合、検知対象物100が近づくと、検知信号を出力する。一方、光センサ101は、ジェスチャーセンサとして用いられる場合、検知対象物100の移動を検知する。
 <受光素子による光検出>
 次に、図4の(a)および図4の(c)は、発光素子LEDからの出射光(照射光)が形成する光スポットSと検知対象物100との位置関係の変化を示す平面図である。図4の(b)および図4の(d)は、受発光ユニットにおける受光素子DPDに上記の光スポットSの検知対象物100からの反射光が入射した状態を示す平面図である。
 上記のように、受光素子DPDは、4分割型の受光素子であり、受光素子PD1~PD4の4つの受光素子で構成されている〔図4の(b)および図4の(d)参照〕。このように、4分割型の受光素子DPDを用いることにより、図4の(a)~図4の(d)に示すように、検知対象物100の位置によって、検知対象物100からの反射光(光スポットS)が受光素子DPDに投影される像の形が変化する。したがって、受光素子DPDを構成する各受光素子PD1~PD4への入射光の光量を測定することにより、検知対象物100が受発光ユニット90に対して、どの位置に存在するかを検知することができる。なお、本実施形態では、受光素子DPDとして受光素子PD1~PD4の合計4つのPDを備えた分割型のDPDを採用しているが、受光素子DPDを構成するPDの数は、4つに限定されない。例えば、本発明の原理上、受光素子DPDは、少なくとも2つ以上のPDを含んでいれば良い。
 ここで、図4の(a)に示すように、検知対象物100が発光素子LEDの出射光が形成する光スポットSに対して右方向から左方向に移動する場合について説明する。まず、検知対象物100からの光スポットSの反射光は、受発光ユニット90の受光レンズ部92b(凸レンズ)によって倒立像として受光素子DPDに投影される。
 図4の(a)の左端およびその右側に示すように、検知対象物100が右方向から近づいている状態では、反射光が受光素子PD2,PD3に投影される。このとき、受光素子PD2,PD3は、入射光の強度に比例した光電流を発生する。また、図4の(a)の真ん中に示すように、検知対象物100が光スポットSを完全に反射する位置に達した状態では、反射光が受光素子PD1~PD4のすべてに投影される。このとき、受光素子PD1~PD4は、入射光の強度に比例した光電流を発生する。図4の(a)の右端およびその左側に示すように、検知対象物100が左方向へ遠ざかる状態では、反射光が受光素子PD1,PD4に投影される。このとき、受光素子PD1,PD4は、入射光の強度に比例した光電流を発生する。
 次に、図4の(c)に示すように、検知対象物100が発光素子LEDの出射光が形成する光スポットSに対して右斜め上から左斜め下に移動する場合について説明する。まず、検知対象物100からの光スポットSの反射光は、受発光ユニット90の受光レンズ部92bによって倒立像として受光素子DPDに投影される。
 図4の(c)の左端およびその右側に示すように、検知対象物100が右斜め上から近づいている状態では、反射光が主として受光素子PD3に投影される。このとき、受光素子PD3は、入射光の強度に比例した光電流を発生する。また、図4の(c)の真ん中に示すように、検知対象物100が光スポットSを完全に反射する位置に達した状態では、反射光が受光素子PD1~PD4のすべてに投影される。このとき、受光素子PD1~PD4は、入射光の強度に比例した光電流を発生する。図4の(c)の右端およびその左側に示すように、検知対象物100が左斜め下へ遠ざかる状態では、反射光が受光素子PD1に投影される。このとき、受光素子PD1は、入射光の強度に比例した光電流を発生する。
 以上のように、光スポットSに対する検知対象物100の位置に応じて、受光素子DPDに投影される反射光の像の形状が変化すると、それに応じて、受光素子DPDの各受光素子PD1~PD4のそれぞれの光電流も変化する。したがって、各受光素子PD1~PD4の光電流に基づいて、受発光ユニット90と検知対象物100との相対的な位置関係が判る。また、検知対象物100の位置の時間変化を算出することにより、検知対象物100の移動速度および移動方向も検出することができる。但し、正確に検知対象物100の位置を検知するには、照明光や太陽光等の外乱光の影響を受けることなく、動作させる必要がある。なお、図4の(b)において、受光素子DPDに投影される像の黒い部分および斜線で示す部分は、それぞれ光強度の高い部分および光強度の低い部分を示す。
 <光センサが検知する検知対象物の移動方向>
 次に、光センサ101が検知する検知対象物の移動方向は、図4の(e)に示す方向X,Yのように2方向〔図4の(a)および図4の(b)の検出パターンに対応〕であっても良く、図4の(f)に示すように、方向D1~D8の8方向〔図4の(a)~図4の(d)の検出パターンに対応〕であっても良い。
 なお、図4の(c)および図4の(d)に示すように、方向d2からd6への移動を検知する場合、比=(光電流の差)/(光電流の和)=(I1-I3)/(I1+I2+I3+I4)を算出しても良いし、比=(I1-I3)/(I1+I3)を算出しても良い。後者の場合、最大値が1、最小値が-1となり移動方向判定のための閾値をX方向、Y方向と共用することが可能となる。これにより、閾値を別々の異なる値に設定する必要がなくなるため、処理に必要なパラメータの数を減らすことができる。また、光センサ101で判定する場合は閾値を設定するハードウェアの規模を縮小することができる。
 <検知対象物の近距離、遠距離での受光信号>
 反射型の光センサの場合、検知対象物100が近くか遠くかで、受光信号量(受光量)が変化する。図5の(a)~図5の(c)は検知対象物100が受発光ユニット90を一定速度で横切った時の、受光信号量の変化を表している。
 図5の(a)は、受光素子PD1~4の出力光電流に応じた光電流量I1~I4の合計Z=I1+I2+I3+I4を、受発光ユニット90を用いて、十分な速度で光電流量を測定した場合のグラフである。図5の(a)の横軸は検知対象物100が動いている場合は時間軸である。つまり、受発光ユニット90と検知対象物100の相対的な位置関係の変化による受光信号量の変化を表している。また、図5の(a)の実線は検知対象物100が受発光ユニット90の近くを横切った状態を示している。一方、破線は検知対象物100が受発光ユニット90の遠くを横切った状態を示している。反射型センサの場合、検知対象物100が近距離にある場合、受光信号量が大きくなり、検知対象物100が遠くなると受光信号量が小さくなる。
 次に、図5の(b)は、図4の(a)のように検知対象物100が横切ったとき、受光素子PD1~4を検知対象物100の位置に依って変化量が変わるように演算した結果である。例えば、図4の(a)および図4の(b)で示したようにPD1およびPD4側から検知対象物が近づき、PD2およびPD3方向に抜けていく場合、検知対象物100の移動方向を判定するためには、差X=(I2+I3)-(I1+I4)の演算を実行すれば良い。
 図5の(b)から、検知対象物100が近距離を横切るか遠距離を横切るかによって、差Xの振幅が変化していることが分かる。これは、遠距離と近距離で移動方向の判定に差が出てしまうことにつながる。例えば、差Xに対してある閾値を設定し、その閾値を超えたら検出対象物100の移動方向を判定するとした場合、遠距離の小さい振幅でも判定できるように閾値を下げる必要がある。一般的に光センサは外乱光の影響を受けて反応してしまう。また、受光素子やセンサ回路の雑音によってS/N比が悪化する場合がある。閾値を下げるとそのような外乱光や雑音の影響で検知対象物100の移動方向を誤判定または判定できないといった事象が発生し得る。
 このような問題を解決するために、光センサ101では、例えば、Ratio_X=〔(I2+I3)-(I1+I4)〕/(I1+I2+I3+I4)を算出しているが、図5の(c)は、Ratio_Xの値を縦軸に、時間軸を横軸として、Ratio_Xの変化をグラフにしたものである。同図に示すグラフの波形は、検知対象物100の距離に依存せず、ほとんど変化しない。振幅の最大値は1で最小値は-1となる。これにより、Ratio_Xに対して所定の閾値Ratio_thを設定したとき、検知距離に依存することなく検知対象物100の移動方向を正確に判定することが可能となる。例えば、光センサはICチップで作られ、製造ばらつきを持つ。製造ばらつきによって受光感度が増減したとしても、移動方向を判定するための値は比で判定されるため、ばらつき成分が圧縮されことになる。Ratio_Xは上述した演算回路3の出力OUT2に対応し、Ratio_YがOUT1に対応する。なお、Zは、演算回路3の出力OUT3に対応する。
 また、光センサの上を手で横切る時、人の手は光センサの上を必ずしも水平に移動しない。例えば、光センサと手の距離が一定に保たれていない状態、つまり、手が光センサと垂直方向に斜めに横切った場合でも、Ratio_XまたはRatio_Y値は検知対象物の距離に依らず出力されるため、手の移動方向を正確に判定することができる。
 次に、図5の(d)は、検知対象物100の移動速度が、図5の(c)と比較して速い場合を示している。これらの図に示すように、時間間隔t1’-t2’は、時間間隔t1-t2と比較して短くなっている。時間間隔t1-t2および時間間隔t1’-t2’のそれぞれは、閾値Ratio_Xの符号が反転する時間間隔を示している。このように閾値Ratio_Xの符号が反転する時間間隔を測定することで、その速度(すなわち、検知対象物100の移動速度)を特定することも可能である。より具体的には、並列する2つのPD間の距離を、上記時間間隔で除算すれば、検知対象物100の移動速度を特定できる。
 <検知対象物の移動方向の判定方法>
 次に、検知対象物100の移動方向の判定方法の概念を説明する。なお、以下の説明では、検知対象物100の移動方向の判定を実施するのはインターフェース6を介して接続された制御部7が実行するものとして説明する。
 最初に光センサ101を起動する。光センサ101がデジタル回路を内蔵するとき、制御部7からの初期設定もこのときに実行される。
 次に、実際の受光信号の測定が十分に実施される期間待機する。この測定期間が短ければ短いほど、検知対象物100の移動速度が速くても十分なデータサンプリングが可能になる。しかしながら、測定期間が長くなると検知対象物100の移動に対応できない。例えば、図5の(c)のグラフに示すような、検知対象物100の位置に応じたピーク値を検出できない可能性がある。なお、実際に想定される人の手の移動速度は1m/s程度なので、受光素子の検知角度、発光素子の発光角度にも依存するものの、最低でも10msec以内で測定が完了することが望ましい。この測定期間は検出対象物100の移動方向を判定する制御部7側から見た場合、サンプリングレートになり、光センサ101がデータを更新するまで待機する期間と言える。
 その後、制御部7は受光信号に応じたデータを取得し、演算処理を実行する。上述したように光センサ101が演算処理を実施し、その結果をインターフェースから制御部7が読み出す。上記の演算処理の結果、それぞれの受光信号の生データを用いて、制御部7は、検知対象物100の移動方向を判定する。基本的には判定が為されるかどうかに関わらず、測定、データ取得そして演算処理は繰り返し実行されるものとする。
 次に、図1および図6に基づき、光センサ101による検知対象物100の移動方向の判定手順について説明する。
 なお、以下で説明する判定方法は、図1に示す制御部7(コンピュータ)を光センサ101の各手段として動作させるための制御プログラムでの実施を想定しているが、これはデジタル回路を有する光センサでも容易に実現できる。
 まず、記号について説明する。Zは上述した、受光信号すべての合算値であり、Z=I1+I2+I3+I4で表される。また、Z_thはZに対する閾値(電流値)であり、光センサ101のS/N比などを考慮して決定する。Ratio_Xは、上述した光電流の和に対する光電流の差の比である。Ratio_thは、図4の(e)の2方向の判定を想定し、Ratio_Xおよび/またはRatio_Yの閾値を設定する。上記のように図1に示す記憶回路52は、S_FLGおよびME_FLGの状態を記憶するための記憶回路である。S_FLG=1であれば一回目の判定で、Ratio_Xの絶対値が、閾値Ratio_th(の絶対値)を超えた状態を示しており、初期値はS_FLG=0となる。プログラム上では2値状態を表現できる変数である。ME_FLGは最初に正の閾値Ratio_thを超えたとき、ME_FLG=X+とし、最初に負の閾値-Ratio_thを下回ったとき、ME_FLG=X-を設定する。X+、X-はプログラム上1または2と値を設定しても良い。初期状態を表すためME_FLGの初期値は0という状態も存在する。
 図1に示す制御部7が光センサ101を起動すると判定処理が開始される(図6のS1)。判定拒否決定部71は、第1コンパレータ51からインターフェース6を介してZ比較結果を受け取り、検知対象物100の移動方向の判定を行うか否かを決定する(S2)。
 次に、移動方向判定部73は、記憶回路52からS_FLGを読出し、S_FLG=1であれば既に一回目の判定で閾値Ratio_thを超えた状態からの遷移であるので、S4に進む。一方、S_FLG=0であれば、S9に進む。
 次に、S9では、移動方向判定部73は、Ratio_Xが正のとき、Ratio_Xを、Ratio_th(正の値)と比較し、Ratio_X≧Ratio_thならS10に進む。なお、この時点で検知対象物100がどちら側から来たかを判定しても良い。一方、Ratio_X<Ratio_thならS12に進む。
 S10では、FLG設定部72が、ME_FLG=X+と設定し、記憶回路52に記録してS11に進む。S11では、FLG設定部72がS_FLG=1と設定し、記憶回路52に記録して、S8に進む。
 S12では、移動方向判定部73は、Ratio_Xが負のとき、Ratio_Xを、-Ratio_th(負の値)と比較し、Ratio_X≦-Ratio_thならS13に進む。なお、この時点で検知対象物100がどちら側から来たかを判定しても良い。一方、Ratio_X<Ratio_thならS8に進む。
 S13では、FLG設定部72が、S_FLG=1と設定し、記憶回路52に記録してS8に進む。
 次に、図5の(c)の横軸を時間軸とみて、本実施形態の検知対象物100の移動方向を判定する方法を説明する。検知対象物100が図4の(a)の受光素子PD1およびPD4の方向から近づいてくる。受光素子DPDの受光素子PD1~PD4の全受光素子の合算値Zは、閾値Z_thを超えるまで、図6のS2に示すZ≧Z_thを満たさないため、演算結果等は判定しない。ここでは、受光電流はデジタル変換された値を出力しているものとする。この場合、例えばI1に対応する値のみがI1=1カウントを出力し、それ以外のI2=I3=I4=0となった場合、Ratio_Xを計算すると、Ratio_X=-1となってしまう、光センサ回路または受光素子のそれぞれのばらつきに依存して、一つの受光信号のみ感度が高いということも想定される。検出対象物100が、人の手の場合、横方向(X方向)に手を動かしているつもりでも、手の傾きに依って一部の受光素子PD1~PD4に反射信号が入りやすくなる可能性もある。そのようなばらつきや誤差要因を省くために、閾値Z_thを設けることが効果的となる。
 次に、S1(2回目の判定開始)からS3まで進み、移動方向判定部73は、記憶回路52から読み出したS_FLGの値を確認し、上記1回目の判定から遷移した2回目の判
定では、S_FLG=1と確認されるため、S4に進む。
 S4では、移動方向判定部73は、Ratio_Xが正のとき、Ratio_Xを、Ratio_th(正の値)と比較し、Ratio_X≧Ratio_thならS5に進む。一方、Ratio_X<Ratio_thならS14に進む。
 S5では、移動方向判定部73は、記憶回路52から読み出したME_FLGの値を確認し、ME_FLGにX-が設定されている場合、S6に進み、移動方向判定部73は、検知対象物が左から右方向に移動したことを判定する。その後、S7に進み、FLG設定部72が、すべてのFLGを初期化して、S8に進む。
 S14では、移動方向判定部73は、Ratio_Xが負のとき、Ratio_Xを、-Ratio_th(負の値)と比較し、Ratio_X≦-Ratio_thならS15に進む。一方、Ratio_X<Ratio_thならS8に進む。
 S15では、移動方向判定部73は、記憶回路52から読み出したME_FLGの値を確認し、ME_FLGにX+が設定されている場合、S16に進み、移動方向判定部73は、検知対象物が右から左方向に移動したことを判定する。その後、S7に進み、FLG設定部72が、すべてのFLGを初期化して、S8に進む。
 以上のように、検出対象物100の移動方向をより正確に判定するためには、次に正負が反転したRatio_Xの結果を得られたかどうかで判定する方が望ましい(S4、S5、S14、S15)。例えば、図5の(c)の時間軸ではまずME_FLGにX+が設定されることになる(S10)。そして、S_FLG=1を設定し(S11)、次の受光信号データを取得、演算を繰り返す。一回目の処理でME_FLG=X+が設定された場合(S10)、次に期待される値は、Ratio_X≦-Ratio_thとなる(S14)。その条件を満たさなかった場合は再測定を実施する(S8)。その条件が満たされた場合、初めて検知対象物100が右から左方向に移動したことを判定する(S16)。また、逆方向も同様に、一回目の処理でME_FLG=X-が設定された場合(S13)、次に期待される値は、Ratio_X≧Ratio_thとなる(S4)。条件が満たされた場合、初めて検知対象物が左から右方向に移動したことを判定できる(S6)。Ratio_Yについても同様に判定し、Y方向を同時に判定することが可能である。判定後はFLGをすべてクリアし次の移動方向の判定に備える(S7)。
 なお、上記のS4、S14、S9、S12では、出力Ratio_Xの符号に関わらず、|出力Ratio_X|≧Ratio_th(正の符号を有する)の条件を満たすならば、すべて「YES」(それぞれ、S5、S15、S10、S13)に進むと考えても良い。
 <光センサの作用効果>
 上記の構成によれば、移動方向判定部73は、検知対象物100の移動方向の判定に上記光電流の和に対する差の比Ratio_Xを用い、この比に対して所定の閾値Ratio_thを設定し、これらの値を比較するように構成されている。
 ここで、上記光電流の和の時間に対する変化は、受光素子DPDと検知対象物100の相対的な配置関係の変化(距離、人の手の角度の変化による受光量の誤差など)による受光量の変化と相関をもつ〔図5の(a)参照〕。また、上記光電流の差は、検知対象物100が近距離を横切るか遠距離を横切るかによって振幅が変化する〔図5の(b)参照〕。
 よって、上記光電流の差を上記光電流の和で除算すれば、検出される光電流の振幅から、受光素子DPDと検知対象物100の相対的な配置関係(距離、手の角度など)の変化による受光量の変化による影響を除去することができる。
 また、受光素子DPDを構成する受光素子PD1~PD4の製造ばらつきによって受光感度が増減したとしても、検知対象物100の移動方向は上記のRatio_Xで判定されるため、ばらつき成分が圧縮されことになる。さらに、上記光電流の和および差は、雑音などの外乱によってS/N比が悪化する場合があるが、検知対象物100の移動方向は上記のRatio_Xで判定されるため、これらの外乱の影響も相殺されることになる。以上より、受光素子DPDと検知対象物100との相対的な配置関係の変化に依存することなく検知対象物100動きを正確に検知することができる。
〔実施形態2〕
 本発明に係る実施形態2について、図7を参照して以下に説明する。本実施形態の光センサは、上記の実施形態1の光センサ101と比較して、制御部7に替えて、制御部7aおよびタイマー75を備えている点のみが異なっている。このため、制御部7a以外の構成は、実施形態1で説明したとおりなので、ここでは、説明を省略する。また、制御部7aは、上記の制御部7と比較して、移動速度判定部(移動速度特定手段)74を備えている点で異なる。このため、制御部7aの移動速度判定部74以外の構成については、実施形態1で説明したとおりなので、ここでは、説明を省略する。
 <移動速度の判定>
 移動速度判定部74は、例えば、Ratio_Xの符号が反転する期間の長さ(図5の(c)の時間間隔t1-t2、または、図5の(d)の時間間隔t1’-t2’参照)から検知対象物100の移動速度を特定しても良い。
 例えば、最初にRatio_X≧Ratio_thまたはRatio_X≦-Ratio_thを判定したとき(S10、S13)、移動速度判定部74は、タイマー75を起動する。その後、右方向または左方向を判定するにいたった時間(S6、S16)を計測することで、移動速度の判定が可能になる。制御部7aからインターフェース6を介して受発光ユニット90のデータを取得している場合、あるサンプリングレートを持っていることになる。最初に閾値を超えてから、何回目のサンプリングにて移動方向が判定できたかで移動速度を判定することと等価である。
〔実施形態3〕
 本発明に係る実施形態3について、図2の(b)を参照して以下に説明する。同図は、本発明を、透過型の受発光ユニットに適用した形態(受発光ユニット90A)を示している。本実施形態のように、上記の実施形態1または2の光センサが備える反射型の受発光ユニットを透過型の受発光ユニットとしても良い。
 ここで、本実施形態の透過型の受発光ユニット90Aでは、上記光電流の和の時間に対する変化は、受光素子DPDと検知対象物100(人の手など)との相対的な配置関係の変化のうち、例えば、人の手の角度の変化などによる受光量の変化と相関をもつ。
 よって、上記光電流の差を上記光電流の和で除算すれば、検出される光電流の振幅から、受光素子DPDと検知対象物100との相対的な配置関係の変化による受光量の変化による影響を除去することができる。
 また、受光素子DPDを構成する受光素子PD1~PD4の製造ばらつきによって受光感度が増減したとしても、検知対象物100の移動方向は上記のRatio_Xで判定されるため、ばらつき成分が圧縮されことになる。さらに、上記光電流の和および差は、雑音などの外乱によってS/N比が悪化する場合があるが、検知対象物100の移動方向は上記のRatio_Xで判定されるため、これらの外乱の影響も相殺されることになる。
 以上より、人の手の角度の変化などの受光素子DPDと検知対象物100の相対的な配置関係の変化によらず、検知対象物100の動きを正確に検知することができる。加えて、本実施形態の受発光ユニット90Aによれば、透過型の光センサであるというメリット、すなわち、検出距離が長い、検出精度が高い、検知対象物100が不透明体であれば、形状・色・材質に関係なく検出できる。レンズの汚れ、ゴミに強いなどのメリットが得られる。
〔実施形態4〕
 本発明に係る実施形態4について、図8を参照して以下に説明する。なお、本実施形態のスマートフォン(電子機器)201は、上記の実施形態1~3のいずれの受発光ユニットを搭載しても良い。図8は、本発明の実施形態4に係るスマートフォン201の構成を示す平面図である。
 図8に示すように、電子機器としてのスマートフォン201は、筐体202に液晶パネル203およびタッチパネル204が組み込まれることによって構成されている。このスマートフォン201において、液晶パネル203は、筐体202の操作面側に設けられている。また、タッチパネル204は、液晶パネル203の上に設けられている。
 筐体202における操作面の上部には、音声出力部205と受発光ユニット90または受発光ユニット90Aとが配置されている。音声出力部205は、スマートフォン201を電話として使用する場合の音声や、アプリケーションプログラムの動作に応じた各種の音を出力するために設けられている。
 受発光ユニット90,90Aは、検知対象物100(例えばユーザの顔)の近接を検知したり、ジェスチャー動作を検知したりするために設けられている受発光部である。
 本実施形態のスマートフォン201によれば、検知対象物100からの距離に依存することなく検知対象物100の動きを正確に検知することができる受発光ユニット90,90Aを備えた電子機器を実現できる。
 〔ソフトウェアによる実現例〕
 光センサ101の制御ブロック(特に制御回路5、制御部7,7aの各制御ブロック)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPUを用いてソフトウェアによって実現してもよい。
 後者の場合、光センサ101は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る光センサ(101)は、発光素子(LED)から出射された光が検知対象物(100)に照射されることによって生じた反射光、または、検知対象物によって遮断されなかった外部からの光が入射することによって光電流を発生する複数の受光素子(PD1~PD4)と、を備え、上記複数の受光素子のうち、特定の方向に沿って並列する少なくとも2つの受光素子の光電流の和に対する、当該少なくとも2つの受光素子の光電流の差の比(Ratio_Xなど)の絶対値と、所定の閾値(Ratio_thなど)とを比較する比較手段(第2コンパレータ53)と、上記比較手段によって上記比の絶対値が上記所定の閾値よりも大きいと判定された場合に、上記特定の方向を上記検知対象物の移動方向と判定する移動方向特定手段(移動方向判定部74)とを備える。
 上記構成によれば、移動方向判定手段は、検知対象物の移動方向の判定に上記光電流の和に対する差の比を用い、この比に対して所定の閾値を設定し、これらの値を比較するように構成されている。
 ここで、上記光電流の和の時間に対する変化は、光センサと検知対象物との相対的な配置関係の変化(距離、人の手の角度の変化による受光量の誤差など)による受光量の変化と相関をもつ〔図5の(a)参照〕。また、上記光電流の差は、検知対象物が近距離を横切るか遠距離を横切るかによって振幅が変化する〔図5の(b)参照〕。
 よって、上記光電流の差を上記光電流の和で除算すれば、検出される光電流の振幅から、光センサと検知対象物との相対的な配置関係の変化による受光量の変化による影響を除去することができる。
 また、受光素子の製造ばらつきによって受光感度が増減したとしても、検知対象物の移動方向は上記の比で判定されるため、ばらつき成分が圧縮されことになる。さらに、上記光電流の和および差は、雑音などの外乱によってS/N比が悪化する場合があるが、検知対象物の移動方向は上記の比で判定されるため、これらの外乱の影響も相殺されることになる。
 以上より、光センサと検知対象物との相対的な配置関係の変化に依存することなく検知対象物の動きを正確に検知することができる。
 また、本発明の態様2に係る光センサは、上記態様1において、上記光電流の和と、所定の電流値とを比較する別の比較手段を備え、上記移動方向判定手段は、上記別の比較手段によって上記光電流の和が上記所定の電流値よりも小さいと判定された場合に、上記検知対象物の移動方向を判定しないように構成しても良い。
 上記のように、検知対象物の移動方向は上記の比で判定されるため、ばらつき成分が圧縮され、外乱の影響も相殺されるが、光電流の和が大きい程、ばらつき成分の圧縮や外乱の影響の相殺効果が高い。よって、上記構成によれば、例えば、受光素子の製造ばらつきや手の角度による受光量の誤差、ならびに、外乱の影響などを縮小して、検知対象物の移動方向をより正確に判定することができる。
 また、本発明の態様3に係る光センサは、上記態様1または2において、上記比の符号の種類に正および負の2種類が存在し、上記移動方向判定手段は、上記比較手段が、上記比の絶対値が正の符号を有する閾値よりも大きいと判定した後に、さらに、上記比と符号の異なる別の比の絶対値が、上記正の符号を有する閾値よりも大きいと判定した場合に、上記検知対象物の移動方向を判定しても良い。
 上記の構成によれば、移動方向判定手段は、比の符号が反転するまでの少なくとも2度の比の絶対値と正の符号を有する閾値との比較結果を用いて検知対象物の移動方向を判定するように構成されている。このため、上記の比較の一方のみにより、検知対象物の移動方向を判定する構成よりも、より正確に検知対象物の移動方向を判定することができる。
 また、本発明の態様4に係る光センサは、上記態様3において、上記比の符号が反転する期間の長さから上記検知対象物の移動速度を特定する移動速度特定手段を備えていても良い。
 上記の構成によれば、簡単な構成で検知対象物の移動速度を正確に特定することができる。
 また、本発明の態様5に係る光センサは、上記態様1~4のいずれかの光センサを備えていても良い。
 上記構成によれば、光センサと検知対象物との相対的な配置関係の変化に依存することなく検知対象物の動きを正確に検知することができる電子機器を実現できる。
 本発明の上記の各態様に係る光センサは、コンピュータによって実現してもよく、この場合には、コンピュータを上記光センサが備える各手段として動作させることにより上記光センサをコンピュータにて実現させる光センサの制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 〔付記事項〕
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、反射型または透過型の光センサを用いた近接センサや、物体の動きを検知する目的で使用されるジェスチャーセンサに好適に利用することができる。
51      第1コンパレータ(別の比較手段)
53      第2コンパレータ(比較手段)
73      移動方向判定部(移動方向判定手段)
74      移動速度判定部(移動速度特定手段)
100     検知対象物
101     光センサ
201     スマートフォン(電子機器)
PD1~PD4 受光素子
DPD     受光素子
LED     発光素子

Claims (5)

  1.  発光素子から出射された光が検知対象物に照射されることによって生じた反射光、または、検知対象物によって遮断されなかった外部からの光が入射することによって光電流を発生する複数の受光素子を備え、
     上記複数の受光素子のうち、特定の方向に沿って並列する少なくとも2つの受光素子の光電流の和に対する、当該少なくとも2つの受光素子の光電流の差の比の絶対値と、所定の閾値とを比較する比較手段と、
     上記比較手段によって上記比の絶対値が上記所定の閾値よりも大きいと判定された場合に、上記特定の方向を上記検知対象物の移動方向と判定する移動方向判定手段とを備えることを特徴とする光センサ。
  2.  上記光電流の和と、所定の電流値とを比較する別の比較手段を備え、
     上記移動方向判定手段は、
     上記別の比較手段によって上記光電流の和が上記所定の電流値よりも小さいと判定された場合に、上記検知対象物の移動方向を判定しないことを特徴とする請求項1に記載の光センサ。
  3.  上記比の符号の種類に正および負の2種類が存在し、
     上記移動方向判定手段は、
     上記比較手段が、上記比の絶対値が正の符号を有する閾値よりも大きいと判定した後に、さらに、上記比と符号の異なる別の比の絶対値が、上記正の符号を有する閾値よりも大きいと判定した場合に、上記検知対象物の移動方向を判定することを特徴とする請求項1または2に記載の光センサ。
  4.  上記比の符号が反転する期間の長さから上記検知対象物の移動速度を特定する移動速度特定手段を備えていることを特徴とする請求項3に記載の光センサ。
  5.  請求項1から4までのいずれか1項に記載の光センサを備えていることを特徴とする電子機器。
PCT/JP2013/080247 2013-01-25 2013-11-08 光センサおよび電子機器 WO2014115397A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380071012.7A CN104937438B (zh) 2013-01-25 2013-11-08 光传感器和电子设备
JP2014558443A JP5985663B2 (ja) 2013-01-25 2013-11-08 光センサおよび電子機器
US14/762,120 US9562922B2 (en) 2013-01-25 2013-11-08 Light sensor and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-012642 2013-01-25
JP2013012642 2013-01-25

Publications (1)

Publication Number Publication Date
WO2014115397A1 true WO2014115397A1 (ja) 2014-07-31

Family

ID=51227201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080247 WO2014115397A1 (ja) 2013-01-25 2013-11-08 光センサおよび電子機器

Country Status (4)

Country Link
US (1) US9562922B2 (ja)
JP (1) JP5985663B2 (ja)
CN (1) CN104937438B (ja)
WO (1) WO2014115397A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190014977A (ko) * 2017-08-04 2019-02-13 엘지이노텍 주식회사 ToF 모듈
JP2019032259A (ja) * 2017-08-09 2019-02-28 Necプラットフォームズ株式会社 物体検出装置、物体検出装置の制御方法及び制御プログラム
CN111829573A (zh) * 2020-06-01 2020-10-27 惠州市德赛西威汽车电子股份有限公司 一种光感传感器耐久测试设备及方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10359929B2 (en) * 2015-11-09 2019-07-23 Analog Devices, Inc. Slider and gesture recognition using capacitive sensing
TWI751144B (zh) * 2016-03-24 2022-01-01 美商陶氏全球科技責任有限公司 光電子裝置及使用方法
JP6641469B2 (ja) * 2016-05-17 2020-02-05 シャープ株式会社 近接センサ、近接照度センサ、電子機器、および近接センサのキャリブレーション方法
FR3055426B1 (fr) * 2016-08-31 2018-08-17 Peugeot Citroen Automobiles Sa Dispositif de detection de la position angulaire d'un doigt au moyen de photons infrarouges
WO2022080538A1 (ko) * 2020-10-16 2022-04-21 엘지전자 주식회사 이동 단말기

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62120922A (ja) * 1985-11-20 1987-06-02 Sanyo Electric Co Ltd 加工孔位置測定装置
JPH05100024A (ja) * 1991-10-03 1993-04-23 Yamatake Honeywell Co Ltd 移動体検出方法
JP2001028134A (ja) * 1999-07-14 2001-01-30 Sharp Corp 光ディスク装置
JP2005065131A (ja) * 2003-08-20 2005-03-10 National Institute Of Information & Communication Technology 空間レーザ通信用捕捉追尾装置
JP2008052796A (ja) * 2006-08-23 2008-03-06 Funai Electric Co Ltd 光ディスク再生装置
JP2011226952A (ja) * 2010-04-21 2011-11-10 Sharp Corp 方向検知デバイスおよび電子機器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075046A (ja) 1998-08-31 2000-03-14 Rohm Co Ltd 反射型センサおよび回転動作検出器
JP2001343211A (ja) * 2000-06-02 2001-12-14 Nec Corp 変位検出器及び変位制御装置
JP4783670B2 (ja) * 2006-05-23 2011-09-28 株式会社日立製作所 フォーカス外れ検出装置およびそれを用いた光ディスク装置
CN100485593C (zh) * 2006-06-30 2009-05-06 凌阳科技股份有限公司 一种光标控制装置与方法、及其应用的便携式电子装置
WO2011042749A1 (en) * 2009-10-07 2011-04-14 Elliptic Laboratories As User interfaces
US8384559B2 (en) * 2010-04-13 2013-02-26 Silicon Laboratories Inc. Sensor device with flexible interface and updatable information store
JP5610847B2 (ja) * 2010-05-26 2014-10-22 三菱電機株式会社 角速度推定装置及びコンピュータプログラム及び角速度推定方法
JP5635870B2 (ja) 2010-10-22 2014-12-03 新日本無線株式会社 反射型フォトセンサを用いた位置検出装置
US9229581B2 (en) 2011-05-05 2016-01-05 Maxim Integrated Products, Inc. Method for detecting gestures using a multi-segment photodiode and one or fewer illumination sources

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62120922A (ja) * 1985-11-20 1987-06-02 Sanyo Electric Co Ltd 加工孔位置測定装置
JPH05100024A (ja) * 1991-10-03 1993-04-23 Yamatake Honeywell Co Ltd 移動体検出方法
JP2001028134A (ja) * 1999-07-14 2001-01-30 Sharp Corp 光ディスク装置
JP2005065131A (ja) * 2003-08-20 2005-03-10 National Institute Of Information & Communication Technology 空間レーザ通信用捕捉追尾装置
JP2008052796A (ja) * 2006-08-23 2008-03-06 Funai Electric Co Ltd 光ディスク再生装置
JP2011226952A (ja) * 2010-04-21 2011-11-10 Sharp Corp 方向検知デバイスおよび電子機器

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190014977A (ko) * 2017-08-04 2019-02-13 엘지이노텍 주식회사 ToF 모듈
KR102402477B1 (ko) 2017-08-04 2022-05-27 엘지이노텍 주식회사 ToF 모듈
JP2019032259A (ja) * 2017-08-09 2019-02-28 Necプラットフォームズ株式会社 物体検出装置、物体検出装置の制御方法及び制御プログラム
CN111829573A (zh) * 2020-06-01 2020-10-27 惠州市德赛西威汽车电子股份有限公司 一种光感传感器耐久测试设备及方法

Also Published As

Publication number Publication date
JPWO2014115397A1 (ja) 2017-01-26
CN104937438A (zh) 2015-09-23
US20150316572A1 (en) 2015-11-05
JP5985663B2 (ja) 2016-09-06
US9562922B2 (en) 2017-02-07
CN104937438B (zh) 2017-03-08

Similar Documents

Publication Publication Date Title
JP5985663B2 (ja) 光センサおよび電子機器
JP5869156B2 (ja) 光センサおよび電子機器
US9103658B2 (en) Optical navigation module with capacitive sensor
KR102532487B1 (ko) 포인트 스캔으로 삼각 측량을 이용한 깊이 측정을 위한 씨모스 이미지 센서
US10924703B2 (en) Sensors and systems for the capture of scenes and events in space and time
KR101799604B1 (ko) 오프셋 보상을 갖는 광학 근접 센서
US9058081B2 (en) Application using a single photon avalanche diode (SPAD)
TWI434059B (zh) 光學式測距感測器及電子機器
US8212794B2 (en) Optical finger navigation utilizing quantized movement information
JP6072928B2 (ja) 光センサおよび電子機器
CN112235522B (zh) 成像方法和成像系统
WO2014061512A1 (ja) 光センサおよび電子機器
JP2010257089A (ja) 光学式位置検出装置
US20190277690A1 (en) Sensor for motion information, illumination information and proximity information, and operating method of central processing unit (cpu) using the sensor
TW202119809A (zh) 相位偵測自動對焦(pdaf)感測器
JP2011138503A (ja) 物体検出装置
CN104281256A (zh) 具有热感应器的导航装置
US9201511B1 (en) Optical navigation sensor and method
US9952092B2 (en) Matrix arrangement of photodetector for use as a proximity sensor and ambient light sensor
JP4478559B2 (ja) 座標入力装置、座標入力方法、プログラムおよび記憶媒体
CN104731403A (zh) 坐标输入装置及其方法
CN104461175A (zh) 触控物件与光学触控组件
US8896553B1 (en) Hybrid sensor module
US20150193019A1 (en) Mobile apparatus with optical indexer, and method for indexing using the same
JPH1091324A (ja) ポインティング装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13872659

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014558443

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14762120

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13872659

Country of ref document: EP

Kind code of ref document: A1