WO2023053898A1 - ユーザインタフェース装置 - Google Patents

ユーザインタフェース装置 Download PDF

Info

Publication number
WO2023053898A1
WO2023053898A1 PCT/JP2022/033738 JP2022033738W WO2023053898A1 WO 2023053898 A1 WO2023053898 A1 WO 2023053898A1 JP 2022033738 W JP2022033738 W JP 2022033738W WO 2023053898 A1 WO2023053898 A1 WO 2023053898A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical sensor
detection range
light emitting
sensor
Prior art date
Application number
PCT/JP2022/033738
Other languages
English (en)
French (fr)
Inventor
滉平 菅原
博 渡邊
浩一 井上
貴敏 加藤
Original Assignee
株式会社村田製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社村田製作所 filed Critical 株式会社村田製作所
Priority to JP2023550519A priority Critical patent/JPWO2023053898A1/ja
Publication of WO2023053898A1 publication Critical patent/WO2023053898A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a technique of using an optical sensor in a user interface device held by a user.
  • Patent Document 1 discloses a controller that detects a finger shape such as a hand sign using an optical sensor.
  • This controller has a gripping member gripped by a user's hand, a sensor array including optical sensors corresponding to each of a plurality of fingers, and grip buttons and the like provided separately from the optical sensors.
  • the optical sensor is arranged as a non-contact sensor, and the optical axes of the light-emitting part and the light-receiving part are set so as to pass through the positions when the respective fingers are bent.
  • the light receiving section does not receive the reflected light. is received.
  • An object of the present invention is to provide a user interface device that can easily detect the state of being held by a user using an optical sensor.
  • a user interface device to be gripped by a user comprises a gripping member extending longitudinally with a radial direction and a circumferential direction, and at least one optical sensor provided on the gripping member.
  • Each optical sensor includes a proximity sensor section including a light-emitting element and a light-receiving element, and a force sensor section that detects contact force by an object.
  • the proximity sensor section emits light from the light emitting element to a predetermined detection range around the force sensor section, and the light receiving element receives the incident light from the detection range. Detect proximity.
  • the detection range is set to a range wider in the circumferential direction than in the longitudinal direction, deviating from the position of the force sensor portion in the gripping member toward one of both sides in the circumferential direction toward the outside in the radial direction.
  • the user interface device of the present invention it is possible to easily detect the state of being held by the user using the optical sensor.
  • FIG. 3 is a perspective view illustrating the appearance of the controller according to the first embodiment
  • FIG. 2 is a block diagram illustrating the configuration of a controller according to the first embodiment
  • FIG. 4 is a diagram illustrating a state in which a gripping member of the controller is gripped
  • a diagram illustrating a case in which the diameter is smaller than that of the gripping member in FIG. 3 is a perspective view of an optical sensor in the controller of Embodiment 1
  • FIG. 8 is a perspective view illustrating the internal structure of the optical sensor of FIG. 7;
  • FIG. 1 is a circuit diagram illustrating the configuration of an optical sensor according to Embodiment 1;
  • FIG. FIG. 4 is a perspective view showing the configuration of an optical sensor according to Embodiment 2;
  • Cross-sectional view of the optical sensor of FIG. Sectional view showing the configuration of the controller according to the third embodiment Side view of the optical sensor in the controller of Embodiment 3
  • FIG. 11 is a side view of an optical sensor in the controller of Modification 1 of Embodiment 3; Sectional view showing the configuration of a controller according to Modification 2 of Embodiment 3 The side view which shows the structure of the controller based on the modified example 3 of Embodiment 3.
  • FIG. 4 is a perspective view showing the configuration of an optical sensor according to Embodiment 2;
  • Cross-sectional view of the optical sensor of FIG. Sectional view showing the configuration of the controller according to the third embodiment Side view of the optical sensor in the controller of Embodi
  • FIG. 10 is a perspective view of an optical sensor according to Embodiment 4;
  • FIG. 11 is a circuit diagram illustrating the configuration of an optical sensor according to Embodiment 4; Sectional drawing which illustrates the modification of the optical sensor in a controller
  • Embodiment 1 a controller using an optical sensor will be described as an example of a user interface device according to the present invention.
  • FIG. 1 is a perspective view illustrating the appearance of a controller 6 according to this embodiment.
  • FIG. 2 is a block diagram illustrating the configuration of the controller 6. As shown in FIG.
  • the controller 6 of this embodiment is an example of a user interface device held by the user to input various operations with the hand 7 .
  • the controller 6 of this embodiment includes, for example, a gripping member 61 gripped by the hand 7 and a plurality of optical sensors 1 provided on the gripping member 61, as shown in FIG.
  • a human-machine interface HMI
  • the controller 6 can be applied to various uses such as games and control of various equipment.
  • the gripping member 61 of the controller 6 is, for example, as shown in FIG. 1, formed in a grip shape with a defined position to be gripped by the hand 7, and has, for example, a substantially cylindrical shape.
  • the gripping member 61 has, for example, a radial direction Dr and a circumferential direction D ⁇ defining a substantially circular cross-sectional shape, and a longitudinal direction Dz corresponding to the direction in which the fingers 71 of the hand 7 are arranged.
  • the gripping member 61 extends in the longitudinal direction Dz in a cross-sectional shape having a radial direction Dr and a circumferential direction D ⁇ .
  • the user of the controller 6 grips the controller 6 so as to wrap the fingers 71 of the hand 7 around the gripping member 61 along the circumferential direction D ⁇ .
  • the optical sensor 1 of the present embodiment includes a proximity sensor unit 12 that detects the proximity of an object in an optical detection method, and a force that acts when the object contacts (that is, a contact force). ) is integrated with the force sensor unit 13 for detecting the force.
  • the four optical sensors 1 detect the four fingers 71 of the hand 7 as respective objects. is arranged at a position where the tip of each finger 71 touches the .
  • the controller 6 of the present embodiment continuously performs a series of processes such as, for example, each finger 71 of the hand 7 coming close to the gripping member 61 and exerting a force on the gripping member 61 by setting the arrangement of the optical sensor 1. can be detected.
  • the number of optical sensors 1 arranged in the controller 6 is not particularly limited to the example in FIG. 1, and may be, for example, 3 or less or 5 or more. Also, the number of fingers 71 to be detected in the controller 6 is not particularly limited.
  • the optical sensor 1 may be incorporated into various operation members provided in the controller 6.
  • the controller 6 may be provided with various operating members such as buttons, switches, or tiltable levers.
  • the controller 6 may include a cover member that covers the optical sensor 1 .
  • the cover member may constitute an operating member of the controller 6 .
  • the optical sensor 1 can continuously detect the state before and after contact when the user operates the operation member with the finger 71, for example.
  • the proximity sensor section 12 includes a light emitting section 21 and a light receiving section 22 to realize optical proximity sensing.
  • the light emitting unit 21 emits light for detecting proximity of an object (hereinafter referred to as “detection light”).
  • the light-receiving unit 22 receives the detection light from the light-emitting unit 21 and is reflected by the object, and generates a signal corresponding to the amount of received light, for example, to detect the approaching state of the object.
  • the force sensor section 13 can employ various force detection methods to detect the force from the object.
  • Various force sensing schemes include, for example, piezoelectric, optical, strain-resistive, and capacitive.
  • the force sensor unit 13 detects forces in multiple axes such as three axes or six axes.
  • the force sensor section 13 may detect a uniaxial force.
  • the proximity sensing function and the force sensing function are realized integrally. It can be done easily. A configuration example of the optical sensor 1 will be described later.
  • the controller 6 of this embodiment may further include a control circuit 60, for example, as shown in FIG.
  • the control circuit 60 generates a control signal according to the user's operation content based on detection signals indicating proximity and force detection results by the optical sensors 1 .
  • the control signal may be output to a device outside the controller 6 or may be used for controlling the inside of the controller 6 .
  • the control circuit 60 may control driving of each optical sensor 1 .
  • the control circuit 60 is composed of, for example, a CPU, and cooperates with software to realize a predetermined function.
  • the control circuit 60 has internal memories such as ROM and RAM, reads data and programs stored in the ROM to the RAM, performs various arithmetic processing, and realizes various functions.
  • the control circuit 60 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to achieve a predetermined function.
  • the control circuit 60 may be composed of various semiconductor integrated circuits such as a CPU, MPU, DSP, FPGA, and ASIC. Note that the control circuit 60 may be an external component of the controller 6 (or user interface device).
  • Detection Range of Optical Sensor The setting of the detection range, ie, the range in which the optical sensor 1 of the controller 6 of the present embodiment detects a state in which an object such as the finger 71 approaches, will be described with reference to FIGS. 3 to 6.
  • FIG. 1 The setting of the detection range, ie, the range in which the optical sensor 1 of the controller 6 of the present embodiment detects a state in which an object such as the finger 71 approaches, will be described with reference to FIGS. 3 to 6.
  • the optical sensor 1 of this embodiment has a detection range A10 defined by the directivity of detection light emitted and received by the light emitting unit 21 and the light receiving unit 22 of the proximity sensor unit 12 (FIG. 2).
  • the optical sensor 1 also has a major surface that is arranged, for example, along the outer surface of the gripping member 61 .
  • the two directions corresponding to the main surface of the optical sensor 1 are the X and Z directions, and the normal direction orthogonal to the X and Z directions is the Y direction.
  • the X direction of the optical sensor 1 in the controller 6 corresponds to the circumferential direction D ⁇ of the gripping member 61 near the arrangement position of the optical sensor 1 .
  • the ⁇ X sides corresponding to both sides of the circumferential direction D ⁇ , one side from which the fingers 71 of the hand 7 gripping the gripping member 61 come is the +X side.
  • the outer side of the grip member 61 in the radial direction Dr corresponds to the +Y side of the optical sensor 1
  • the inner side in the radial direction Dr corresponds to the -Y side.
  • the Z direction of the optical sensor 1 corresponds to the longitudinal direction Dz of the grip member 61 .
  • the detection range A10 of the optical sensor 1 is, for example, as shown in FIG. , and is inclined with respect to the Y direction. According to the detection range A10 inclined to the +X side in this way, the finger 71 reaching the gripping member 61 when the user operates the controller 6 with the hand 7 is likely to be included in the detection range A10. various states can be easily detected.
  • the detection range A10 of the optical sensor 1 is defined by an angular width A1 on the XY plane corresponding to the circumferential direction D ⁇ of the gripping member 61 and an angular width A2 on the YZ plane corresponding to the longitudinal direction Dz.
  • the angular width A1 in the circumferential direction ⁇ is set to a relatively wide angle
  • the angular width A2 in the longitudinal direction Dz is set to a relatively narrow angle.
  • the wide-angle angle width A1 in the detection range A10 of the optical sensor 1 in the circumferential direction D ⁇ when the specific finger 71 to be detected in the hand 7 holding the gripping member 61 has various degrees of bending, It is easy to change the amount of light received in the detection range A10 in response to . This makes it easier for each optical sensor 1 to detect the state of the finger 71 to be detected, such as the degree of bending.
  • the wide angle width A1 is 45 degrees or more, for example, about 90 degrees.
  • the wide angle width A1 is not used, only a specific position in the circumferential direction D ⁇ can be detected.
  • the wide-angle angle width A1 set in the optical sensor 1 of the present embodiment may be 120° or less from the viewpoint of suppressing power consumption for emitting detection light, for example.
  • a finger 71 different from the finger 71 to be detected by a specific optical sensor 1 among the plurality of optical sensors 1 It can be easily removed from the detection range A10 of the optical sensor 1 .
  • the narrow angle width A2 set in the optical sensor 1 of the present embodiment is 1° or more and 60° or less.
  • the angular width A2 can be appropriately set from various viewpoints such as the distance from the finger 71 to the optical sensor 1 to avoid erroneous detection by the optical sensor 1 or the degree to eliminate erroneous detection.
  • the angle width A2 may be set to 20° or less from the viewpoint of removing the adjacent finger 71 from the detection range A10.
  • the angular width A2 may be 40° or less in order to avoid false detection of a relatively nearby finger (see FIG. 4(B)).
  • the setting of the angular width A2 can be appropriately changed according to the assumed size and bending state of the fingers 71 of the hand 7, the outer diameter of the gripping member 61, the arrangement of the optical sensor 1, and the like.
  • the optical sensor 1 is mounted, for example, within an angle range of 90° or more and 180° or less from a predetermined reference position P0 indicating an angle of 0° in the circumferential direction D ⁇ of the gripping member 61 .
  • the reference position P0 is set as a reference for maintaining contact with the hand 7 that grips the gripping member 61 even when the finger 71 is extended. is set to
  • FIG. 4(A) to (C) illustrate a series of states of the fingers 71 when gripping the gripping member 61.
  • FIG. FIG. 4A illustrates a state in which the fingers 71 of the hand 7 (holding the gripping member 61) are extended.
  • FIG. 4B illustrates a state in which the fingers 71 are bent while gripping the gripping member 61 from the state of FIG. 4A.
  • FIG. 4C illustrates a state in which the fingers 71 are further bent from the state of FIG.
  • the optical sensor 1 in the controller 6 of the present embodiment for example, as shown in FIGS.
  • the angular portion overlapping the finger 71 in the angular width A1 of the detection range A10 gradually widens.
  • the amount of light received changes significantly more than the increase in the amount of light received when the distance between the object and the optical sensor 1 becomes shorter, for example, and the amount of light received changes according to the degree of bending of the finger. can be continuously detected with improved accuracy.
  • the finger 71 is in the detection range A10 from the extended state, and the optical sensor 1 can detect such a state.
  • FIG. 5 illustrates a case where the outer diameter of the gripping member 61 is larger than that in FIG.
  • FIG. 5(A) illustrates a state in which the finger 71 is extended as in FIG. 4(A).
  • FIG. 5(B) illustrates a state in the middle of gripping the grip member 61 after FIG. 5(A).
  • FIG. 5(C) illustrates a state in which the grasping member 61 is gripped after FIG. 5(B).
  • the mounting position of the optical sensor 1 is set at the reference position P0. may be brought closer.
  • the mounting position of the optical sensor 1 in the circumferential direction D ⁇ may be near an angle of 90°.
  • the overlapping portion of the detection range A10 and the finger 71 in the angle width A1 changes according to the bending state of the finger. Continuous detection of the bending process can be facilitated.
  • FIG. 6 illustrates a case where the outer diameter of the gripping member 61 is smaller than that in FIG.
  • FIG. 6A illustrates a state in which the fingers 71 are slightly bent at the initial stage of gripping the gripping member 61 .
  • FIG. 6(B) illustrates a state in the middle of grasping the gripping member 61 after FIG. 6(A).
  • FIG. 6(C) illustrates a state in which the grasping member 61 is gripped after FIG. 6(B).
  • the attachment position of the optical sensor 1 is moved away from the reference position P0.
  • the mounting position of the optical sensor 1 in the circumferential direction D ⁇ may be around 180°. Even in this case, the optical sensor 1 in the controller 6 can continuously detect how the finger is bent from the initial state in which the finger 71 is slightly bent, for example.
  • the mounting position of the optical sensor 1 in the gripping member 61 must be at an angle of 133° or less in the circumferential direction D ⁇ . good too.
  • the mounting position of the optical sensor 1 is not limited to the above examples.
  • the gripping member 61 may be attached at an angle of 90° or more and 270° or less in the circumferential direction D ⁇ .
  • the optical sensor 1 may be arranged in the middle between the fingertips and the base of the hand. Further, the optical sensor 1 may be attached near various operation members provided on the gripping member 61 within a range where the fingers 71 of the hand 7 gripping the gripping member 61 can touch.
  • Such an optical sensor 1 is not particularly limited to an angle of 90° or more in the circumferential direction D ⁇ , and may be attached at a position less than that.
  • the shape of the gripping member 61 is not particularly limited to the examples shown in FIGS.
  • the cross-sectional shape of the gripping member 61 may not be a perfect circle.
  • the outer diameter of the gripping member 61 may not be uniform. The size of the outer diameter may vary along the longitudinal direction Dz depending on the difference in length. Also, the attachment position of the optical sensor 1 can be individually adjusted according to the difference in the length of the finger 71 .
  • FIG. 7 is a perspective view of the optical sensor 1 in the controller 6 of this embodiment.
  • the optical sensor 1 is configured, for example, by assembling a proximity sensor section 12 and a force sensor section 13 so as to line up on a substrate 11 in the X direction.
  • the two directions parallel to the principal surface of the substrate 11 are defined as the X direction and the Y direction, respectively, and the normal direction to the principal surface is defined as the Y direction.
  • the +Y side where the force sensor section 13 protrudes from the substrate 11 may be referred to as the upper side, and the opposite -Y side may be referred to as the lower side.
  • the force sensor section 13 includes the force sensor element 3 and a dome section 41 made of an elastic material covering the force sensor element 3 from above (+Y).
  • the optical proximity sensor section 12 includes a light emitting section 21 , a light receiving section 22 , and a wall section 42 configured to surround the light emitting section 21 and the light receiving section 22 .
  • the dome portion 41 for the force sensor and the wall portion 42 for the proximity sensor are integrally formed by the elastic member 4, for example.
  • the proximity sensor section 12 is arranged on the +X side where the finger 71 comes, and the force sensor section 13 is arranged on the opposite -X side. This makes it easier to detect proximity such as when the finger 71 comes to apply a contact force to the force sensor portion 13 .
  • the proximity sensor wall portion 42 is an example of a light guide member that defines the above-described detection range A10 (see FIG. 3) on the +X side.
  • FIG. 1 Details of Optical Sensor Details of the optical sensor 1 according to the present embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 7 Details of Optical Sensor Details of the optical sensor 1 according to the present embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 7 Details of Optical Sensor Details of the optical sensor 1 according to the present embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 7 Details of Optical Sensor Details of the optical sensor 1 according to the present embodiment will be described below with reference to FIGS. 7 and 8.
  • FIG. 8 is a perspective view illustrating the internal structure of the optical sensor 1 of FIG. FIG. 8 shows a state without the elastic member 4 in the optical sensor 1 illustrated in FIG.
  • the light emitting unit 21 and the light receiving unit 22 constituting the proximity sensor unit 12 are +X more than the force sensor unit 13 on the substrate 11 such as a rigid substrate. side by side in the Z direction.
  • the position of the light emitting unit 21 on the substrate 11 is on the +Z side and the position of the light receiving unit 22 is on the -Z side will be described below.
  • the light emitting section 21 includes, for example, a light emitting element 23 and a sealing body 25 that seals the light emitting element 23 with resin or the like, as shown in FIG.
  • the light emitting element 23 includes a light source element such as an LED (light emitting diode).
  • the light emitting element 23 emits light having a predetermined wavelength band such as an infrared region as detection light.
  • the light emitting element 23 has a light emitting surface for emitting emitted detection light, and is arranged with the light emitting surface facing upward.
  • the light emitting elements 23 are not limited to LEDs, and may include various solid-state light source elements such as LDs (semiconductor lasers) or VCSELs (surface emitting lasers).
  • the light emitting element 23 may include multiple light source elements.
  • the light emitting element 23 may be provided with an optical system such as a lens and a mirror for collimating the light from the light source element.
  • the light receiving section 22 in the proximity sensor section 12 detects the proximity of the target by receiving the reflected light of the detection light from the light emitting section 21 reflected by the target.
  • the light receiving section 22 includes a light receiving element 24 and a sealing body 26 that seals the light receiving element 24 with resin or the like.
  • the light receiving element 24 includes one or more light receivers such as PDs (photodiodes), and has a light receiving surface composed of the light receivers.
  • the light-receiving element 24 receives light, such as reflected light, which is the detection light reflected by the object, at its light-receiving surface, and generates a light-receiving signal indicating, for example, the amount of received light as a light-receiving result.
  • the light-receiving element 24 is not limited to a PD, and may include various light-receiving devices such as a phototransistor, a PSD (position detection element), a CIS (CMOS image sensor), or a CCD.
  • Photodetectors 24 may consist of a linear array or a two-dimensional array of photodetectors.
  • the light receiving element 24 may be provided with an optical system such as a lens for condensing the reflected light.
  • a band-pass filter or the like that blocks light in a wavelength band different from the wavelength band of the detection light may be provided on the light-receiving surface of the light-receiving element 24 . As a result, the influence of disturbance light due to the external environment can be suppressed.
  • the sealing body 25 of the light-emitting part 21 and the sealing body 26 of the light-receiving part 22 are formed by appropriately molding a resin or the like having translucency with respect to the wavelength band of the detection light in the proximity sensor part 12 .
  • the upper surfaces of the sealing bodies 25 and 26 respectively define the heights of the light emitting section 21 and the light receiving section 22, respectively.
  • Each encapsulant 25, 26 may have wavelength filter characteristics that selectively transmit a specific wavelength band.
  • the force sensor element 3 is composed of various sensor elements according to the force detection method employed in the force sensor section 13.
  • the force sensor element 3 is an example of a force sensor in this embodiment.
  • the elastic member 4 includes, for example, a force sensor dome portion 41 , a proximity sensor wall portion 42 , and a base portion 40 connected to the dome portions 41 and 42 .
  • the dome portion 41 for the force sensor and the wall portion 42 for the proximity sensor are arranged so as to form a groove with the base portion 40 therebetween.
  • the dome portion 41 for the force sensor and the wall portion 42 for the proximity sensor may not be formed integrally with the elastic member 4, and may be formed separately.
  • the elastic member 4 is made of an elastic material such as silicone resin.
  • the elastic member 4 has a hardness of Shore A 20 or more and 80 or less, for example.
  • the elastic member 4 is not particularly limited to silicone-based resin, and may be made of various elastic materials, such as epoxy-based resin.
  • the base portion 40 is a portion of the elastic member 4 that extends downward (-Y side).
  • the base 40 forms the bottom of the groove between the force sensor dome 41 and the proximity sensor wall 42 (see FIG. 3).
  • the base portion 40 of the elastic member 4 may be omitted.
  • the force sensor dome portion 41 is formed in a convex shape toward the upper side (+Y side) so as to cover the force sensor element 3 .
  • the force sensor dome portion 41 is elastically deformable, for example, in response to application of a contact force, and can be restored when the contact force is removed.
  • the convex shape of the dome portion 41 for the force sensor can be formed separately from the wall portion 42 for the proximity sensor. According to the shape of the dome portion 41 for the force sensor, the position to which the contact force is applied in the force sensor portion 13 can be uniquely defined as the position where the dome portion 41 protrudes, and the force of the object is detected. can be made easier.
  • the force sensor dome part 41 has, for example, a tapered shape in which the outer diameter in the XZ cross section decreases toward the upper side (+Y side).
  • FIG. 7 illustrates a truncated cone shape as an example of the shape of the force sensor dome portion 41, the shape is not particularly limited to this.
  • the shape of the force sensor dome portion 41 may be a cone, a square pyramid, a polygonal pyramid, a rectangular parallelepiped, a semi-cylindrical shape, or the like.
  • the interior of the force sensor dome portion 41 may be filled with the same elastic body as the elastic member 4 or other material.
  • the proximity sensor wall 42 defines an opening area A1 for light emission and an opening area A2 for light reception.
  • the light-emitting opening region A1 surrounds the light-emitting portion 21 so as to regulate the angle range in which light can be emitted from the light-emitting portion 21, that is, the viewing angle (or light distribution angle).
  • the light-receiving opening area A2 surrounds the light-receiving section 22 so as to regulate the viewing angle of the light-receiving section 22 .
  • the common range between the light distribution angle of the light emitting section 21 and the viewing angle of the light receiving section 22 defines the detection range A10 ( FIG. 3 ) by the proximity sensor section 12 of the optical sensor 1 .
  • the elastic member 4 forms an open end 45 on the side opposite to the force sensor section 13 (that is, the +X side), as shown in FIG.
  • the open end 45 in this embodiment is formed by extending the proximity sensor wall 42 except for the +X side, and defines the opening areas A1 and A2 together with the proximity sensor wall 42 .
  • the opening regions A1 and A2 of the present embodiment reach the substrate 11 because the +X side is the open end 45, that is, the height from the substrate 11 is the minimum on the +X side.
  • the viewing angle of the proximity sensor section 12 is directed from the Y direction to the +X side due to the opening areas A1 and A2 having the open ends 45 . According to the optical sensor 1 of this embodiment, it is easy to realize the detection range A10 biased toward the +X side. can be made easier.
  • the central portion of the wall portion 42 for the proximity sensor extends so as to separate the light emitting portion 21 and the light receiving portion 22, and blocks light between the light emitting portion 21 and the light receiving portion 22 (see FIG. 7). ).
  • the -X side portion of the proximity sensor wall portion 42 extends so as to separate the light emitting portion 21 and the light receiving portion 22 from the force sensor portion 13 .
  • the ⁇ X side of the detection range A10 of the proximity sensor section 12 can be restricted, and various kinds of interference caused by an object or the like in contact with the force sensor section 13 can be suppressed. For example, it is possible to avoid a situation in which the force sensor dome portion 41 deformed by contact force hits the light emitting portion 21 or the light receiving portion 22 .
  • the +Z side portion is located on the opposite side of the light receiving portion 22 when viewed from the light emitting portion 21, and the ⁇ Z side portion is located on the side opposite to the light emitting portion 21 when viewed from the light receiving portion 22.
  • the angular width A2 of the detection range A10 in the Z direction can be set to a narrow angle. For example, even when there is an adjacent external light source such as another optical sensor 1 arranged in the Z direction, the light from the external light source is blocked to suppress interference between the external light source and the proximity sensor unit 12. can be done.
  • the elastic member 4 in the optical sensor 1 as described above may be configured so that the dome portion 41 and the wall portion 42 have different hardness.
  • the elastic member 4 may be formed by two-color molding using a plurality of types of materials having different hardnesses.
  • the hardness of the force sensor dome portion 41 may be set more flexibly than the hardness of the proximity sensor wall portion 42 .
  • the flexibility of the dome portion 41 for the force sensor makes it easy to give an intuitive sensory feedback of deformation according to pressing of the force sensor portion 13 in applications such as HMI.
  • the elastic member 4 may have an optical characteristic of reflecting the detection light from the light emitting section 21, and may be made of a material with a reflectance of 50% or more, for example. This makes it easier to guide the detection light in the proximity sensor section 12 .
  • FIG. 9 is a circuit diagram illustrating an electrical configuration of the optical sensor 1 according to this embodiment.
  • the optical sensor 1 of this embodiment may further include a sensor control section 15 as shown in FIG.
  • the sensor control unit 15 includes, for example, a light emission control circuit 51, a light reception control circuit 52, a force sensor control circuit 53, and an interface circuit 54, as shown in FIG.
  • the light emission control circuit 51 includes, for example, a light source driver electrically connected to the light emitting element 23 .
  • the light source drive unit supplies the light emitting element 23 with a drive signal for emitting detection light.
  • the light emission control circuit 51 may include a modulator such as AM modulation.
  • the light emission control circuit 51 may modulate the detected light using a specific frequency, such as 10 Hz to 1 MHz, as a modulation frequency for periodically varying the amplitude of the light. The modulation of the detection light makes it easier to distinguish the detection light and its reflected light from the ambient light.
  • the light receiving control circuit 52 includes, for example, an amplifier electrically connected to the light receiving element 24 and an A/D (analog/digital) converter connected to the amplifier.
  • the light receiving control circuit 52 performs various signal processing on the light receiving signal output from the light receiving element 24 and outputs the processed signal to the interface circuit 54, for example.
  • the light reception control circuit 52 performs processing for detecting proximity of an object based on the amount of reflected light received in the light reception signal.
  • the proximity detection processing in the optical sensor 1 is not limited to the amount of received reflected light, and may be performed based on, for example, the phase difference between the reflected light and the detected light. Further, such proximity detection processing itself does not necessarily have to be performed in the optical sensor 1 and may be performed in an arithmetic circuit or the like outside the optical sensor 1 .
  • proximity detection of an object such as a target can be realized by generating a light receiving signal including reflected light of the detection light in synchronization with driving of the light emitting section 21. FIG.
  • the light reception control circuit 52 may perform filter processing such as a bandpass filter that passes signal components including the modulation frequency of the detection light, or may perform synchronous detection in synchronization with the light emission control circuit 51 .
  • filter processing such as a bandpass filter that passes signal components including the modulation frequency of the detection light
  • the reflected light can be analyzed separately from the disturbance light.
  • the modulation frequency of the detected light can be appropriately set by avoiding frequencies used in existing external systems, such as 38 kHz used as a carrier for infrared remote controls. As a result, malfunction of the optical sensor 1 caused by an external system can be suppressed.
  • the force sensor control circuit 53 includes a control circuit for driving and controlling various sensor elements forming the force sensor element 3 in the force sensor section 13, an amplifier for output signals from the sensor elements, and the like.
  • the force sensor control circuit 53 may include, for example, a circuit configuration that generates a force detection signal indicating force detection results in multiple axes based on the above output signals.
  • the force sensor control circuit 53 may output the force detection signal of the force detection result of not only multi-axis but also uniaxial force.
  • the force detection method is a piezoelectric type
  • the piezoelectric effect of one or more piezoelectric elements arranged on the substrate in the force sensor unit 13 is used to detect the force sensor unit when an object (FIG. 7) touches it.
  • a piezoelectric element converts the stress generated in 13 into an electric charge, and the force is sensed from the change.
  • the optical type one or more light emitting elements and one or more light receiving elements arranged on a substrate in the force sensor section 13 are used to detect the force inside the force sensor section 13 caused by deformation due to contact with an object. The change in the distribution of the reflected light is sensed by the light receiving element.
  • the strain resistance type utilizes one or more strain gauges arranged on the substrate in the force sensor unit 13, and the strain transmitted to the strain gauge via the force sensor unit 13 due to the deformation caused by the contact of the object. is regarded as a change in resistance, and the change is used for force sensing.
  • the capacitive type uses one or more capacitance sensing electrodes arranged on a substrate in the force sensor unit 13, and changes the electrostatic Force sensing is performed from the change in coupling capacitance between the capacitive sensing electrode and the reference potential. In each method, by using a plurality of various sensor elements such as piezoelectric elements, light emitting/receiving elements, strain gauges, and capacitance detection electrodes arranged in the force sensor section 13, multi-axis force sensing becomes possible.
  • the interface circuit 54 is connected to the light emission control circuit 51, the light reception control circuit 52 and the force sensor control circuit 53.
  • the interface circuit 54 connects the optical sensor 1 to an external device and inputs/outputs various signals.
  • any one of the circuits 51 to 54 of the sensor control unit 15 may be configured externally, or provided as a separate module from the circuits 51 to 54 of the sensor control unit 15. may be Also, part or all of the functions of the sensor control section 15 may be incorporated into the control circuit 60 of the controller 6 .
  • the controller 6 in this embodiment is an example of a user interface device that is held by the hand 7 of the user.
  • the controller 6 comprises: a gripping member 61 extending in a longitudinal direction Dz with a radial direction Dr and a circumferential direction D ⁇ ;
  • the optical sensor 1 includes a proximity sensor section 12 including a light-emitting element 23 and a light-receiving element 24, and a force sensor section 13 for detecting contact force of an object such as a finger 71 of the hand 7.
  • the proximity sensor unit 12 emits light from the light emitting element 23 to a predetermined detection range A10 around the force sensor unit 13, and the light receiving element 24 receives the incident light from the detection range A10.
  • the detection range A10 is biased toward the +X side, which is one of both sides in the circumferential direction D ⁇ , from the position of the force sensor portion 13 in the gripping member 61 outward in the radial direction Dr, and is wider in the circumferential direction D ⁇ than in the longitudinal direction Dz. set to range.
  • the detection range A10 of the proximity sensor unit 12 of the optical sensor 1 is biased toward the +X side and set to a wider range in the circumferential direction D ⁇ than in the longitudinal direction Dz. It is easy to detect the state of an object such as the finger 71 that is close to the . As a result, the state of being held by the user can be easily detected using the optical sensor 1 .
  • the controller 6 includes a plurality of optical sensors 1 arranged at different positions in the longitudinal direction Dz.
  • the detection range A10 of each optical sensor 1 has a first angular width ⁇ 1 in the circumferential direction D ⁇ and a second angular width ⁇ 2 smaller than the first angular width in the longitudinal direction Dz.
  • the force sensor section 13 and the proximity sensor section 12 are arranged adjacent to each other in the circumferential direction D ⁇ .
  • a detection range A10 by the proximity sensor unit 12 is biased to the side opposite to the force sensor unit 13 in the circumferential direction D ⁇ . This makes it easier for the proximity sensor unit 12 to detect the process of the arrival of an object such as the finger 71 that attempts to apply a contact force to the force sensor unit 13 .
  • the optical sensor 1 is arranged at a position where the fingers 71 of the hand 7 can touch the gripping member 61 held by the hand 7 . This makes it easy for the optical sensor 1 to detect various operations performed by the user of the controller 6 with the fingers 71 of the hand 7 holding the gripping member 61 .
  • the proximity sensor unit 12 surrounds the light emitting element 23 so as to guide the light emitted by the light emitting element 23 to the detection range A10, and/or receives light incident from the detection range A10. Further provided is a wall portion 42 which is an example of a light guide member surrounding the light receiving element 24 so as to guide light to the element 24 . With such a wall portion 42 of the optical sensor 1, directivity of the detection range A10 by the proximity sensor portion 12 can be easily realized.
  • Embodiment 2 has described the controller 6 in which the directivity corresponding to the detection range A10 of the optical sensor 1 is set by the proximity sensor wall portion 42 .
  • the sealing resin of the optical sensor is used for setting the directivity will be described with reference to FIGS. 10 and 11.
  • FIG. 10 an example in which the sealing resin of the optical sensor is used for setting the directivity will be described with reference to FIGS. 10 and 11.
  • FIG. 10 shows the configuration of the optical sensor 1A according to the second embodiment.
  • FIG. 11 shows a cross-sectional view of the optical sensor 1A of FIG. 10 taken along line A-A'.
  • the optical sensor 1A of the present embodiment is provided in the controller 6 of the present embodiment instead of the optical sensor 1 of the first embodiment.
  • the optical sensor 1A of this embodiment has the same configuration as the optical sensor 1 of Embodiment 1, for example, but as shown in FIG. consists of
  • the sealing bodies 25A and 26A are examples of the first and second translucent members, respectively.
  • the sealing body 25A of the light emitting section 21A has a lens shape that refracts the detection light emitted from the light emitting element 23 (FIG. 11) from the Y direction toward the +X side.
  • the sealing body 25A is inclined so that the +X side is upward in the XY cross section.
  • the directivity such as the light distribution angle of the light emitting section 21A, can be biased toward the +X side.
  • the inclination of the sealing body 25A is not limited to be linear, but may be curved, and may be convex toward the +Y side, for example.
  • the sealing body 25A may have a light collecting function that narrows the light distribution angle of the light flux emitted to the +X side in the Z direction.
  • a sealing body 25A can be realized in a curved surface shape having a curvature in the YZ cross section, as shown in FIG. 10, for example.
  • the curvature in the Z direction is larger than the curvature in the X direction in the sealing body 25A.
  • the sealing body 25A is not limited to a particularly symmetrical shape as long as it has a curvature on the +X side where the finger 71 comes, and may be configured in various shapes.
  • sealing body 26A of the light receiving section 22A can be configured in the same manner as the sealing body 25A of the light emitting section 21A, for example. Both the sealing body 25A of the light emitting section 21A and the sealing body 26A of the light receiving section 22A may not have a lens shape, and either one may have a lens shape.
  • the degree of freedom in directivity control of the proximity sensor section 12 can be improved in the optical sensor 1A. Therefore, appropriate directivity can be set according to various uses to which the optical sensor 1A is applied.
  • the proximity sensor section 12 of the optical sensor 1A includes the sealing body 25A, which is an example of the first light-transmitting member, and the second light-transmitting member. It further includes at least one of a sealing body 26A, which is an example.
  • the sealing body 25A seals the light emitting element 23 so as to guide the light emitted by the light emitting element 23 to the detection range A10.
  • the sealing body 26A seals the light receiving element 24 so as to guide the light incident from the detection range A10 to the light receiving element 24.
  • directivity control of the proximity sensor section 12 can be easily performed by using the respective sealing bodies 25A and 26A in consideration of coexistence with force detection.
  • Embodiment 3 In the first and second embodiments, the controller 6 that controls the directivity by the configuration of the optical sensor 1 has been described. In Embodiment 3, a controller that controls directivity by means of a cover member for optical sensor 1 will be described with reference to FIGS. 12 to 17. FIG.
  • FIG. 12 is a cross-sectional view showing the configuration of the controller 6A according to this embodiment.
  • the cross section of FIG. 12 corresponds to the A-A' cross section of the second embodiment.
  • FIG. 13 shows a side view of the optical sensor 1A viewed from the +X side in the controller 6A of this embodiment.
  • a cover member 62 covering the optical sensor 1A is provided with a structural portion 63 for controlling the directivity of detection light.
  • the cover member 62 may be various members that cover the optical sensor 1A, and may be configured integrally with the grip member 61, for example.
  • the optical sensor 1A is arranged, for example, in contact with the cover member 62 on the upper surface of the dome portion 41 for the force sensor.
  • the cover member 62 is transparent to the wavelength of the light detected by the light emitting element 23 of the proximity sensor section 12 in the optical sensor 1A, and is made of a material having a higher refractive index than air.
  • the cover member 62 can be made of optical glass such as BK7, plastic such as polycarbonate and acrylic, or silicone.
  • the cover member 62 includes a structural portion 63 as a portion that is cut so as to be inclined downward toward the +X side in the vicinity of the upper portion of the proximity sensor portion 12 .
  • the optical path of the detection light by the proximity sensor portion 12 is bent toward the +X side where the finger 71 reaches the optical sensor 1A in the controller 6A, and the detection range A10 is inclined to the +X side. easy.
  • the structural portion 63 of the cover member is arranged above the light emitting portion 21A and the light receiving portion 22A so as to narrow the directivity of light in the Z direction perpendicular to the X direction in which the finger 71 moves. It has a lens shape with curvature.
  • the structure portion 63 of the cover member 62 may be provided only above one of the light emitting portion 21A and the light receiving portion 22A.
  • the controller 6A of this embodiment further includes the cover member 62.
  • the cover member 62 guides the light emitted by the light emitting element 23 in the optical sensor 1A to the detection range A10 and/or guides the light incident from the detection range A10 to the light receiving element 24. cover. Even with such a cover member 62, the directivity of the detection range A10 by the proximity sensor section 12 of the optical sensor 1A can be easily achieved.
  • the structure for controlling the directivity of the detection light with the cover member 62 is not particularly limited to the above example, and various structures may be employed.
  • the structural portion 63 of the cover member 62 is not limited to the example shown in FIG. may continue. Also, the structure portion 63 of the cover member 62 may be provided for either one of the light emitting portion 21A and the light receiving portion 22A.
  • FIG. 14 is a cross-sectional view showing the configuration of the controller 6B in Modification 1 of Embodiment 3.
  • FIG. FIG. 13 shows a side view of the optical sensor 1A in the controller 6B of this modification.
  • the structural portion 63 of the cover member 62 may be configured in a shape that engages with the elastic member 4 of the optical sensor 1A.
  • the structural portion 63 of the cover member 62 functions as a positioning portion for the optical sensor 1, eliminating the need for providing a separate positioning mechanism.
  • FIG. 16 is a cross-sectional view showing the configuration of a controller 6C according to Modification 2 of Embodiment 3.
  • the cover member 62 includes a light diffusion portion 64 that functions as a diffusion plate above the light emitting portion 21A in the optical sensor 1A.
  • the light diffusing portion 64 diffuses the detection light generated in the light emitting portion 21A of the optical sensor 1 when passing through, and facilitates the detection light to be widely diffusely distributed in the wide detection range A10.
  • Such a light diffusion portion 64 can be realized, for example, by etching the surface of the corresponding portion of the cover member 62 (holographic diffuser).
  • the light diffusion portion 64 may be realized by adding a reflective filler to the resin forming the cover member 62 (white diffusion glass), sandblasting (frosted glass), or the like.
  • the cover member 62 may include the light diffusion section 64 that diffuses the light emitted by the light emitting element 23 and guides the light to the detection range A10. This makes it easier to widely distribute the detection light of the optical sensor 1A over the detection range A10.
  • the cover member 62 includes a transparent portion 65 that transmits light detected by the proximity sensor portion 12 and a light shielding portion 66 that does not transmit the light.
  • the transparent portions 65 are provided, for example, above the light emitting portion 21A and above the light receiving portion 22A.
  • the light blocking portion 66 is provided as the transparent portion 65 of the cover member 62 so as to define a slit-shaped transmission region, and blocks light in the wavelength band of the detection light outside the transmission region.
  • the transmissive regions have, for example, a relatively narrow width in the Z direction and a relatively wide width in the X direction.
  • the light shielding portion 66 may define a transmissive region of either the light emitting portion 21A or the light receiving portion 22A.
  • the light shielding portion 66 of the cover member 62 is realized by, for example, adding an absorbent filler to the resin forming the cover member 62, applying an absorbent paint to the surface of the cover member 62, or adhering it. According to the cover member 62 of the present embodiment, it is easy to regulate the detection range A10, and for example, it is possible to easily suppress erroneous detection between a plurality of optical sensors 1 or a plurality of fingers by a narrow transmission area in the Z direction.
  • the cover member 62 blocks light emitted from the light emitting element 23 outside the detection range A10, and blocks light entering the light receiving element 24 from outside the detection range A10.
  • a portion 66 may be provided. This makes it easier to regulate the detection range A10 of the optical sensor 1A.
  • FIG. 18 shows a perspective view of the optical sensor 1B in Embodiment 4.
  • FIG. FIG. 19 shows a cross-sectional view of the optical sensor 1B along the B-B' cross section of FIG.
  • the B-B' cross section is a cross section passing through the force sensor section 13B along the XY plane.
  • the force sensor section 13B is configured optically.
  • the optical force sensor section 13B includes a light emitting element 31 and a light receiving element 32 as the force sensor element 3B.
  • the light-emitting element 31 and the light-receiving element 32 may be sealed with a sealing body 33 made of, for example, transparent resin.
  • the inside of the dome section 41 for the force sensor may have a hollow structure, or may be filled with a transparent resin or the like that is more flexible than the sealing body 33, for example. Further, the inside of the dome portion 41 is configured to be able to reflect light from the light emitting element 31, for example.
  • the light emitting element 31 includes a light emitting source such as a single or multi-emitter VCSEL.
  • the light emitting element 31 emits light having a predetermined wavelength band such as an infrared region, and emits the light as detection light for force detection.
  • the light-emitting element 31 is not limited to a VCSEL, and may include various solid-state light source elements such as LDs and LEDs.
  • the light emitting element 31 may include multiple light source elements.
  • the light emitting element 31 may be provided with an optical system such as a lens and a mirror for collimating the light from the light emitting element.
  • the light receiving element 32 includes a light receiver such as a PD, and is configured by arranging a plurality of light receivers so as to surround the light emitting element 31, for example.
  • the light receiving element 32 receives light such as the reflected light of the detection light at the light receiver and generates a light reception signal indicating, for example, the amount of light received as a light reception result.
  • the light-receiving element 32 is not limited to a PD, and may include various light-receiving devices such as a phototransistor, PSD, CIS, or CCD.
  • the dome portion 41 for the force sensor is composed of an elastic member having a light shielding characteristic with respect to the frequency band of light detected by the light emitting element 31, for example.
  • the detection light emitted from the light emitting element 31 in response to the force from the contacting object is reflected by the reflector 35 and reflected by the light receiving element 32.
  • the contact force of the object is detected by using the change in the light receiving state due to A known technique can be appropriately applied as an optical method for measuring the contact force.
  • the same manufacturing process as that for the proximity sensor section 12 can be adopted, and the manufacturing can be performed collectively, so that the manufacturing of the optical sensor 1B can be facilitated.
  • the sealing bodies 25A and 26A in the proximity sensor section 12 and the sealing body 33 of the light emitting element 31 and the light receiving element 32 in the force sensor section 13B may be formed in the same process.
  • FIG. 20 is a circuit diagram illustrating the electrical configuration of the optical sensor 1B according to the fourth embodiment.
  • the force sensor control circuit 53 is configured separately from the light emission control circuit 51 and the light reception control circuit 52 for controlling the proximity sensor section 12 .
  • the sensor control section 15B of the optical sensor 1B of the present embodiment has the same configuration as that of the first embodiment, but instead of the separate force sensor control circuit 53 (FIG. 9), the control function of the force sensor section 13B is controlled by the proximity sensor section 12. are provided in the light emission control circuit 51B and the light reception control circuit 52B.
  • the light emission control circuit 51B of this embodiment includes, for example, a switch matrix or the like so as to control the light emitting elements 23 of the proximity sensor section 12 and the light emitting elements 31 of the force sensor section 13B. be done.
  • the light receiving control circuit 52B of this embodiment includes, for example, a switch matrix or the like so as to control the light receiving elements 24 of the proximity sensor section 12 and the light receiving elements 32 of the force sensor section 13B.
  • the sensor control section 15B of the optical sensor 1B of the present embodiment can be configured with a single IC or the like that is shared by the control function of the proximity sensor section 12 and the control function of the force sensor section 13B. In this way, the optical sensor 1B of this embodiment can be miniaturized and reduced in cost.
  • the optical force sensor section 13B includes, as the force sensor element 3B, the light emitting element 31 different from the light emitting element 23 of the proximity sensor section 12, and the proximity sensor section A photodetector 32 separate from the twelve photodetectors 24 is included.
  • the sensor control section 15B of the optical sensor 1B includes a light emission control circuit 51B that controls the light emitting section 21 of the proximity sensor section 12 and the light emitting element 31 of the force sensor section 13B, and the light receiving section 22 of the proximity sensor section 12 and the force sensor section 13B.
  • a light receiving control circuit 52B for controlling the light receiving element 32 is provided.
  • the optical sensor 1 in which the proximity sensor wall 42 has the open end 45 has been described.
  • the proximity sensor wall portion 42 may not have the open end 45 and may surround the entire periphery of the light emitting portion 21 and the light receiving portion 22 .
  • the detection range A10 can be tilted and set by means other than the open end 45 .
  • Such a modified example will be described with reference to FIG. 21 .
  • FIG. 21 is a cross-sectional view illustrating a modification of the optical sensor 1C in the controller.
  • the optical sensor 1C of this modified example has a flexible substrate 11C in the same configuration as the optical sensor 1 of the first embodiment, for example.
  • the substrate 11C is, for example, a flexible substrate or a rigid flexible substrate.
  • the substrate 11C is configured to be bendable at portions corresponding to grooves between the dome portion 41 for the force sensor and the wall portion 42 for the proximity sensor.
  • the elastic member 4 also has a bendable hardness at least at the base portion 40 corresponding to the groove.
  • the direction of the detection range A10 of the proximity sensor section 12 can be tilted, for example, to the +X side with respect to the force sensor section 13. .
  • the proximity sensor unit 12 detects the state in which the object 5 has approached the force sensor unit 13 before it contacts the force sensor unit 13. can be easily detected.
  • the substrate 11C has flexibility at least at a position between the force sensor dome portion 41 and the proximity sensor wall portion 42 of the elastic member 4. may As a result, the direction of the viewing angle of the proximity sensor section 12 can be changed with respect to the arrangement of the force sensor section 13, and both force detection and proximity detection can be easily achieved.
  • the proximity sensor wall portion 42 may be configured to have a height lower than the other portions on the +X side. This also makes it possible to tilt the detection range A10 of the optical sensor 1 toward the +X side. Further, in the optical sensor 1 of the present embodiment, one of the light-emitting portion 21 and the light-receiving portion 22 may be surrounded, or the wall portion 42 may be omitted.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Switches Operated By Changes In Physical Conditions (AREA)

Abstract

ユーザにより把持されるユーザインタフェース装置(6)は、径方向及び周方向を有して長手方向に延在する把持部材(61)と、把持部材において設けられた少なくとも1つの光学センサ(1)とを備える。各光学センサは、発光素子(23)及び受光素子(24)を含む近接センサ部(12)と、対象物による接触力を検知する力センサ部(13)とを備える。近接センサ部は、力センサ部の周囲における所定の検知範囲(A10)に発光素子から光を出射して、受光素子が検知範囲から入射する光を受光する受光結果に応じて、対象物が力センサ部に近接する状態を検知する。検知範囲は、把持部材における力センサ部の位置から径方向の外側に向かって周方向の両側のうちの片側に偏り、長手方向よりも周方向に広い範囲に設定される。

Description

ユーザインタフェース装置
 本発明は、ユーザにより把持されるユーザインタフェース装置において光学センサを用いる技術に関する。
 特許文献1は、光学的センサを用いてハンドサイン等の手指形状を検出するコントローラを開示する。このコントローラは、ユーザの手により把持される把持部材と、複数の手指のそれぞれに対応する光学的センサを含むセンサアレイと、光学的センサとは別途設けられたグリップボタン等とを有する。このコントローラにおいて、光学的センサは非接触センサとして配置され、その発光部および受光部の光軸は、それぞれの指が曲げられたときの位置を通過するように設定されている。これにより、ユーザが意図的に手を開いて指を伸ばすと受光部は反射光を受光しない一方、ユーザが手指を曲げた場合は曲げ量が大きくなるにしたがって、手指において発光部により近い位置からの反射光が受光される。
特開2020-091904号公報
 本発明の目的は、光学センサを用いて、ユーザにより把持される状態を検知し易くすることができるユーザインタフェース装置を提供することにある。
 本発明において、ユーザにより把持されるユーザインタフェース装置は、径方向及び周方向を有して長手方向に延在する把持部材と、把持部材において設けられた少なくとも1つの光学センサとを備える。各光学センサは、発光素子及び受光素子を含む近接センサ部と、対象物による接触力を検知する力センサ部とを備える。近接センサ部は、力センサ部の周囲における所定の検知範囲に発光素子から光を出射して、受光素子が検知範囲から入射する光を受光する受光結果に応じて、対象物が力センサ部に近接する状態を検知する。検知範囲は、把持部材における力センサ部の位置から径方向の外側に向かって周方向の両側のうちの片側に偏り、長手方向よりも周方向に広い範囲に設定される。
 本発明におけるユーザインタフェース装置によると、光学センサを用いて、ユーザにより把持される状態を検知し易くすることができる。
実施形態1に係るコントローラの外観を例示する斜視図 実施形態1に係るコントローラの構成を例示するブロック図 コントローラにおける光学センサの検知範囲を説明するための図 コントローラの把持部材が把持される状態を例示する図 図4の把持部材よりも大径である場合を例示する図 図4の把持部材よりも小径である場合を例示する図 実施形態1のコントローラにおける光学センサの斜視図 図7の光学センサの内部構造を例示する斜視図 実施形態1に係る光学センサの構成を例示する回路図 実施形態2における光学センサの構成を示す斜視図 図10の光学センサの断面図 実施形態3に係るコントローラの構成を示す断面図 実施形態3のコントローラにおける光学センサの側面図 実施形態3の変形例1に係るコントローラの構成を示す断面図 実施形態3の変形例1のコントローラにおける光学センサの側面図 実施形態3の変形例2に係るコントローラの構成を示す断面図 実施形態3の変形例3に係るコントローラの構成を示す側面図 実施形態4における光学センサの斜視図 図19の光学センサの断面図 実施形態4に係る光学センサの構成を例示する回路図 コントローラにおける光学センサの変形例を例示する断面図
 以下、添付の図面を参照して本発明に係るユーザインタフェース装置の実施の形態を説明する。
 各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもない。実施形態2以降では実施形態1と共通の事項についての記述を省略し、異なる点についてのみ説明する。特に、同様の構成による同様の作用効果については、実施形態毎には逐次言及しない。
(実施形態1)
 実施形態1では、本発明に係るユーザインタフェース装置の一例として、光学センサを用いたコントローラについて説明する。
1.コントローラについて
 本実施形態に係るコントローラについて、図1~図2を用いて説明する。図1は、本実施形態に係るコントローラ6の外観を例示する斜視図である。図2は、コントローラ6の構成を例示するブロック図である。
 本実施形態のコントローラ6は、ユーザが手7により種々の操作を入力するために把持するユーザインタフェース装置の一例である。本実施形態のコントローラ6は、例えば図1に示すように、手7により把持される把持部材61と、把持部材61に設けられた複数の光学センサ1とを備える。コントローラ6は、人間の多様な指示や意図を機械や機器に伝えるヒューマンマシンインタフェース(HMI)として、例えばゲーム用あるいは各種機材の制御用など様々な用途に適用可能である。
 コントローラ6の把持部材61は、例えば図1に示すように、手7により把持されるべき位置が規定されたグリップ状に形成され、例えば略円柱形状を有する。把持部材61は、例えば断面形状の略円形を規定する径方向Dr及び周方向Dθと、手7における複数の指71が並んだ方向に対応する長手方向Dzとを有する。把持部材61は、径方向Dr及び周方向Dθを有した断面形状において長手方向Dzに延在する。コントローラ6のユーザは、例えば手7の指71を周方向Dθに沿って把持部材61に巻き付けるようにコントローラ6を把持する。
 本実施形態の光学センサ1は、例えば図2に示すように、光学式の検知方式において対象物の近接を検知する近接センサ部12と、対象物が接触したときに作用する力(即ち接触力)を検知する力センサ部13とが一体的に構成されたセンサモジュールである。図1の例では、コントローラ6の把持部材61において、手7における4本の指71を各々の対象物として検知するべく、4つの光学センサ1が、手7により把持部材61が握られた際に各指71の指先が接触する位置に配置されている。
 本実施形態のコントローラ6は、こうした光学センサ1の配置設定により、例えば手7の各指71が、それぞれ把持部材61に近接して接触に到り力を作用させる等の一連の過程を連続的に検知可能である。なお、コントローラ6において、光学センサ1の配置個数は、特に図1の例に限定されず、例えば3個以下または5個以上であってもよい。又、コントローラ6における検知対象の指71の本数も特に限定されない。
 また、本実施形態において、光学センサ1は、コントローラ6に設けられる各種の操作部材に組み込まれてもよい。例えば、コントローラ6には、ボタン、スイッチあるいは可倒レバー等の各種操作部材が設けられてもよい。又、コントローラ6は、光学センサ1を覆うカバー部材を備えてもよい。カバー部材は、コントローラ6の操作部材を構成してもよい。本実施形態のコントローラ6によると、光学センサ1により、例えばユーザが指71により操作部材を操作する際に接触前後の状態を連続的に検知可能である。
 本実施形態の光学センサ1においては、例えば図2に示すように、近接センサ部12が発光部21と受光部22とを含み、光学式の近接センシングを実現する。発光部21は、対象物の近接を検知するための光(以下「検知光」という)を発光する。受光部22は、発光部21からの検知光が対象物により反射された反射光を受光して、例えば受光量に応じた信号を生成することによって対象物が近接する状態を検知する。
 本実施形態において、力センサ部13には、対象物からの力を検知するために各種の力検知方式を採用可能である。各種の力検知方式は、例えば圧電式、光学式、ひずみ抵抗式及び静電容量式などを含む。力センサ部13は、例えば3軸又は6軸といった多軸における力を検知する。力センサ部13は、一軸の力を検知してもよい。
 本実施形態の光学センサ1によると、近接センシングの機能と力センシングの機能とが一体的に実現されることから、こうした機能をコントローラ6に組み込む際に要する面積を低減でき、コントローラ6を構成し易くできる。光学センサ1の構成例については後述する。
 本実施形態のコントローラ6は、例えば図2に示すように、制御回路60をさらに備えてもよい制御回路60は、例えばコントローラ6の全体動作を制御する。例えば、制御回路60は、各光学センサ1による近接と力の検知結果を示す検知信号に基づいて、ユーザの操作内容に応じた制御信号を生成する。制御信号は、コントローラ6の外部の機器に出力されてもよいし、コントローラ6内部の制御に用いられてもよい。制御回路60は、各光学センサ1の駆動を制御してもよい。
 制御回路60は、例えばCPUで構成され、ソフトウェアと協働して所定の機能を実現する。制御回路60は、例えばROM及びRAMといった内部メモリを有し、ROMに格納されたデータ及びプログラムをRAMに読み出して種々の演算処理を行い、各種の機能を実現する。なお、制御回路60は、所定の機能を実現するように設計された専用の電子回路や再構成可能な電子回路などのハードウェア回路であってもよい。制御回路60は、CPU、MPU、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。なお、制御回路60は、コントローラ6(或いはユーザインタフェース装置)の外部構成であってもよい。
1-1.光学センサの検知範囲について
 本実施形態のコントローラ6において光学センサ1により指71等の対象物が近接する状態が検知される範囲すなわち検知範囲の設定について、図3~図6を用いて説明する。
 本実施形態の光学センサ1は、近接センサ部12(図2)の発光部21及び受光部22による検知光の発受光の指向性により規定される検知範囲A10を有する。又、光学センサ1は、例えば把持部材61の外面に沿って配置される主面を有する。光学センサ1の主面に対応する2方向をX,Z方向とし、X,Z方向に直交する法線方向をY方向とする。
 コントローラ6における光学センサ1のX方向は、光学センサ1の配置位置の近傍において把持部材61の周方向Dθに対応する。周方向Dθの両側に対応する±X側のうち、把持部材61を把持する手7の指71が到来する一側方を+X側とする。又、把持部材61の径方向Drにおける外側が光学センサ1の+Y側に対応し、径方向Dr内側が-Y側に対応する。光学センサ1のZ方向は、把持部材61の長手方向Dzに対応する。
 本実施形態のコントローラ6においては、光学センサ1の検知範囲A10が、例えば図3に示すように、把持部材61の周方向Dθ両側に対応する±X側のうちの-X側よりも+X側に偏った範囲に設定され、Y方向に対して傾斜する。このように+X側へ傾斜した検知範囲A10によると、ユーザが手7でコントローラ6を操作する際に把持部材61に到来する指71が検知範囲A10に含まれ易くなり、操作時等の手7の各種状態を検知し易くできる。
 光学センサ1の検知範囲A10は、把持部材61の周方向Dθに応じたXY平面における角度幅Α1と、長手方向Dzに応じたYZ平面における角度幅Α2とにより規定される。本実施形態では、光学センサ1の検知範囲A10において、周方向θにおける角度幅Α1は比較的に広角に設定され、長手方向Dzにおける角度幅Α2は比較的に狭角に設定される。
 光学センサ1の検知範囲A10において周方向Dθに広角の角度幅Α1によると、把持部材61を把持する手7において検知対象とする特定の指71が、様々な曲がり具合を有する際に、曲がり具合に応じて検知範囲A10での受光量を変化させ易い。これにより、各光学センサ1において検知対象とする指71の曲がり具合等の状態を検知し易くできる。例えば、広角の角度幅Α1は、角度45°以上であり、例えば略90°である。
 これに対して、上記広角の角度幅Α1を用いなければ、周方向Dθにおける特定の位置しか検知対象とできず、例えば指71における検知可能な一部までの距離の変化しか検知できないこととなる。また、本実施形態の光学センサ1に設定される広角の角度幅Α1は、例えば検知光を発光する電力消費の抑制の観点から、角度120°以下であってもよい。
 また、光学センサ1の検知範囲A10において長手方向Dzに狭角の角度幅Α2によると、例えば複数の光学センサ1のうちの特定の光学センサ1の検知対象の指71とは異なる指71を、当該光学センサ1の検知範囲A10から外し易くできる。これにより、例えば各光学センサ1において検知対象外の指71を誤検知する事態を回避し易くすることができる。
 例えば、本実施形態の光学センサ1に設定される狭角の角度幅Α2は、角度1°以上60°以下である。この角度幅A2は、光学センサ1による誤検知を回避したい指71から光学センサ1までの距離、或いは誤検知を排除したい程度などの各種の観点から適宜、設定可能である。例えば、光学センサ1から比較的遠方に存在する指71(図4(A)参照)の誤検知を回避したい場合は、把持部材61を把持した手7における指71同士の間隔などを考慮して、隣接する指71を検知範囲A10から外す観点から、角度幅A2が20°以下に設定されてもよい。あるいは、比較的近傍の指(図4(B)参照)の誤検知を回避する場合、角度幅A2は40°以下であってもよい。こうした角度幅A2の設定は、想定される手7の指71のサイズ及び曲げ状態、把持部材61の外径、光学センサ1の配置等より適宜、変更可能である。
 コントローラ6における光学センサ1の取り付け位置について、図4を用いて説明する。本実施形態のコントローラ6において、光学センサ1は、例えば、把持部材61の周方向Dθにおいて角度0°を示す所定の基準位置P0から角度90°以上180°以下の範囲内に取り付けられる。基準位置P0は、把持部材61を把持する手7において指71を伸ばした状態でも接触が維持される基準として設定され、例えば、把持部材61において当該指の付け根に接触する接点と想定される位置に設定される。
 図4(A)~(C)は、把持部材61を握る際の一連の指71の状態を例示する。図4(A)は、(把持部材61を把持する)手7の指71を伸ばした状態を例示する。図4(B)は、図4(A)の状態から把持部材61を握る途中において指71を曲げた状態を例示する。図4(C)は、図4(B)の状態から更に指71を曲げて把持部材61を握った状態を例示する。
 本実施形態のコントローラ6における光学センサ1によると、例えば図4(A)~(C)に示すように、指71を伸ばした状態から指71を曲げて把持部材61を握るまでの間に、検知範囲A10の角度幅Α1において指71に重畳する角度部分が徐々に広がる。これにより、光学センサ1において、例えば対象物と光学センサ1間の距離が短くなる際の受光量の増加よりも大幅に、指の曲げ具合に応じて受光量が変化し、指71の曲げ状態を連続的に検知する精度を良くすることができる。また、図4(A)の例では、指71が伸びた状態から検知範囲A10内にあり、こうした状態を光学センサ1で検知可能となる。
 図5は、図4よりも把持部材61の外径が大きい場合を例示する。図5(A)は、図4(A)と同様に指71を伸ばした状態を例示する。図5(B)は、図5(A)の後に把持部材61を握る途中の状態を例示する。図5(C)は、図5(B)の後に把持部材61を握った状態を例示する。
 把持部材61が比較的大径である場合、或いは把持部材61の外径と比較してユーザの指71が短いことが想定される場合には、光学センサ1の取り付け位置が、基準位置P0に近付けられてもよい。例えば、周方向Dθにおける光学センサ1の取り付け位置が、角度90°近傍であってもよい。この場合であっても、例えば図5(A)~(C)に示すように、角度幅Α1において検知範囲A10と指71とが重なる部分が、指の曲げ状態に応じて変化し、指の曲げ過程の連続的な検知を実現し易くできる。
 図6は、図4よりも把持部材61の外径が小さい場合を例示する。図6(A)は、把持部材61を握る初期に指71が僅かに曲がった状態を例示する。図6(B)は、図6(A)の後に把持部材61を握る途中の状態を例示する。図6(C)は、図6(B)の後に把持部材61を握った状態を例示する。
 把持部材61が比較的小径である場合、或いは把持部材61の外径と比較してユーザの指71が長いことが想定される場合には、光学センサ1の取り付け位置が、基準位置P0から遠ざけられてもよい。例えば、周方向Dθにおける光学センサ1の取り付け位置が、角度180°近傍であってもよい。この場合であっても、コントローラ6における光学センサ1は、例えば指71を僅かに曲げたような初期状態から指の曲げ具合を連続的に検知可能である。
 又、コントローラ6において、指71を伸ばした状態を光学センサ1の検知範囲A10内に含める観点からは、把持部材61における光学センサ1の取り付け位置が、周方向Dθにおいて角度133°以下であってもよい。
 本実施形態のコントローラ6において、光学センサ1の取り付け位置は、以上の例に限らない。例えば、把持部材61が相当に小径である場合、周方向Dθにおける角度90°以上270°以下の範囲内で取り付けられてもよい。又、手7の指先に加えて、指先と付け根の途中の部分に対応する光学センサ1が配置されてもよい。又、把持部材61を把持した手7の指71が接触可能な範囲内で、把持部材61に設けられた各種操作部材の近傍等に光学センサ1が取り付けられてもよい。こうした光学センサ1は、特に周方向Dθにおける角度90°以上に限定されず、それ以下の位置に取り付けられてもよい。
 本実施形態のコントローラ6において、把持部材61の形状は、特に図2,3の例に限らず、種々の概円柱形状であってもよい。例えば、把持部材61の断面形状は、真円でなくともよい。又、例えば複数の光学センサ1を長手方向Dz等に並べて複数の指71を検知対象として利用する場合、把持部材61の外径は一様な大きさでなくてもよく、例えば各指71の長さの違いに応じて外径の大きさが長手方向Dzに沿って変わってもよい。又、光学センサ1の取り付け位置は、指71の長さの違いに応じて個別に調整可能である。
2.光学センサについて
 以下、本実施形態のコントローラ6における光学センサ1の構成例について説明する。
2-1.光学センサの概要
 実施形態1に係る光学センサの構成例の概要を、図7を参照して説明する。図7は、本実施形態のコントローラ6における光学センサ1の斜視図である。
 光学センサ1は、例えば基板11上においてX方向に並ぶように近接センサ部12と力センサ部13とを組み付けて構成される。以下、基板11の主面に平行な2方向をそれぞれX方向及びY方向とし、当該主面の法線方向をY方向とする。又、基板11から力センサ部13が突出する+Y側を上側といい、反対側となる-Y側を下側という場合がある。
 本実施形態の光学センサ1において、力センサ部13は、力センサ素子3と、上側(+Y)から力センサ素子3を覆う弾性体で構成されるドーム部41とを含む。光学式の近接センサ部12は、発光部21と、受光部22と、発光部21及び受光部22を囲むように構成される壁部42とを含む。力センサ用のドーム部41と近接センサ用の壁部42とは、例えば弾性部材4により一体的に形成される。
 本実施形態の光学センサ1においては、指71が到来する+X側に近接センサ部12が配置され、その反対側の-X側に力センサ部13が配置される。これにより、指71が力センサ部13に接触力を加えるために到来する際などの近接を検知し易くすることができる。本実施形態の光学センサ1において、近接センサ用の壁部42は、上述した検知範囲A10(図3参照)を+X側に規定する導光部材の一例である。
2-2.光学センサの詳細
 以下、本実施形態に係る光学センサ1の詳細を、図7~図8を用いて説明する。
 図8は、図7の光学センサ1の内部構造を例示する斜視図である。図8では、図7に例示した光学センサ1において、弾性部材4がない状態を示している。
 本実施形態の光学センサ1においては、例えば図8に示すように、近接センサ部12を構成する発光部21と受光部22とが、リジッド基板などの基板11上で力センサ部13よりも+X側において、Z方向に並んで配置される。以下では、基板11上で発光部21の位置が+Z側であり、受光部22の位置が-Z側である例を説明する。
 光学センサ1における近接センサ部12において、発光部21は、例えば図8に示すように、発光素子23と、発光素子23を樹脂等で封止する封止体25とを含む。
 発光素子23は、例えばLED(発光ダイオード)等の光源素子を含む。例えば、発光素子23は、赤外領域などの所定の波長帯を有する光を検知光として発光する。発光素子23は、発光した検知光を出射する光出射面を有し、光出射面を上側に向けて配置される。
 発光素子23は、LEDに限らず、例えばLD(半導体レーザ)或いはVCSEL(面発光レーザ)など種々の固体光源素子を含んでもよい。発光素子23は、複数の光源素子を含んでもよい。発光素子23には、光源素子からの光をコリメートするレンズ及びミラー等の光学系が設けられてもよい。
 近接センサ部12における受光部22は、発光部21からの検知光が対象物により反射された反射光を受光して、対象物の近接を検知する。受光部22は、例えば図8に示すように、受光素子24と、受光素子24を樹脂等で封止する封止体26とを含む。
 受光素子24は、PD(フォトダイオード)等の1つ又は複数の受光器を含み、受光器で構成される受光面を有する。受光素子24は、検知光が対象物において反射した反射光等の光を受光面にて受光して、例えば受光された光量を受光結果として示す受光信号を生成する。
 受光素子24は、PDに限らず、例えばフォトトランジスタ、PSD(位置検出素子)、CIS(CMOSイメージセンサ)或いはCCDなど種々の受光器を含んでもよい。受光素子24は、受光器のリニアアレイ或いは2次元アレイで構成されてもよい。受光素子24には上記反射光を集光するためのレンズ等の光学系が設けられてもよい。また、受光素子24の受光面には、検知光の波長帯とは異なる波長帯の光を遮断するバンドパスフィルタ等が設けられてもよい。これにより、外部環境による外乱光の影響を抑制できる。
 発光部21の封止体25及び受光部22の封止体26は、それぞれ近接センサ部12における検知光の波長帯について透光性を有する樹脂等を適宜、成形して構成される。各封止体25,26の上面は、例えばそれぞれ発光部21及び受光部22の高さを規定する。各封止体25,26は、特定の波長帯を選択的に透過する波長フィルタ特性を有してもよい。
 本実施形態において、力センサ素子3は、力センサ部13に採用される力検知方式に応じた各種のセンサ素子で構成される。力センサ素子3は、本実施形態における力センサの一例である。
 弾性部材4は、例えば、力センサ用のドーム部41と、近接センサ用の壁部42と、各ドーム部41,42に連結した基底部40とを含む。弾性部材4においては、例えば、力センサ用のドーム部41と近接センサ用の壁部42とが、基底部40を介して溝をあけるように配置される。力センサ用のドーム部41と近接センサ用の壁部42とは、特に弾性部材4により一体的に形成されなくてもよく、別体で形成されてもよい。
 弾性部材4は、例えばシリコーン系樹脂等の弾性体材料で構成される。弾性部材4は、例えばショアA20以上80以下の硬度を有する。弾性部材4は特にシリコーン系樹脂に限らず、種々の弾性体材料で構成されてもよく、例えばエポキシ系樹脂であってもよい。
 基底部40は、弾性部材4において下側(-Y側)に延在する部分である。基底部40は、力センサ用のドーム部41と近接センサ用の壁部42との間における溝の底部を形成する(図3参照)。弾性部材4の基底部40は、省略されてもよい。
 力センサ用のドーム部41は、力センサ素子3を覆うように、上側(+Y側)に向けて凸状に形成される。力センサ用のドーム部41は、例えば接触力の印加に応じて弾性的に変形し、接触力がなくなると復元可能である。力センサ用のドーム部41の凸形状は、特に近接センサ用の壁部42とは分離して形成できる。こうした力センサ用のドーム部41の形状によると、力センサ部13において接触力の対象とする位置が、ドーム部41が突出する位置として一義的に定義可能であり、対象物の力検知を行い易くすることができる。
 力センサ用のドーム部41は、例えば、上側(+Y側)に向かうにつれてXZ断面における外径が小さくなるテーパー形状を有する。図7では、力センサ用のドーム部41の形状の一例として、円錐台形状を例示しているが、特にこれに限定されない。力センサ用のドーム部41の形状は、円錐、四角錐、多角錐、直方体、又は半筒形状などであってもよい。力センサ用のドーム部41の内部は、弾性部材4と同じ弾性体又はその他の材料で充填されてもよい。
 近接センサ用の壁部42は、例えば図7に示すように、発光用の開口領域A1と、受光用の開口領域A2とを規定する。発光用の開口領域A1は、発光部21から光が出射可能な角度範囲すなわち視野角(或いは配光角)を規制するように、発光部21の周囲を囲む。受光用の開口領域A2は、受光部22の視野角を規制するように、受光部22の周囲を囲む。例えば、発光部21の配光角と受光部22の視野角とで共通する範囲が、光学センサ1の近接センサ部12による検知範囲A10(図3)を規定する。
 本実施形態の光学センサ1において、弾性部材4は、力センサ部13とは反対側(即ち+X側)において、図7に示すように、開放端45を構成する。本実施形態における開放端45は、近接センサ用の壁部42が、+X側を除いて延在することにより形成され、近接センサ用の壁部42と共に開口領域A1,A2を規定する。本実施形態の各開口領域A1,A2は、+X側が開放端45であることから基板11に到る、すなわち、+X側において基板11からの高さが最小となる。
 本実施形態の弾性部材4では、開放端45がある各開口領域A1,A2により、近接センサ部12の視野角が、Y方向から+X側に向けられる。こうした本実施形態の光学センサ1によると、+X側に偏った検知範囲A10を実現し易く、例えば近接する対象物がY方向よりも+X側から到来するような状況において対象物の近接検知を行い易くすることができる。
 近接センサ用の壁部42において、中央の部分は、発光部21と受光部22とを隔てるように延在して、発光部21と受光部22との間で光を遮光する(図7参照)。これにより、発光部21から発光した検知光が、特に対象物等に反射されずに直接、受光部22に入射してしまうような直接カップリングを防ぐことができ、発光部21と受光部22との間の干渉を抑制できる。
 近接センサ用の壁部42において、-X側の部分は、発光部21及び受光部22と、力センサ部13との間を仕切るように延在する。これにより、近接センサ部12の検知範囲A10の-X側を規制すると共に、力センサ部13に接触中の対象物等による各種干渉を抑制することができる。例えば、例えば接触力により変形した力センサ用のドーム部41が、発光部21又は受光部22に当たってしまう事態を回避できる。
 又、近接センサ用の壁部42において、+Z側の部分は発光部21から見て受光部22とは反対側に位置し、-Z側の部分は受光部22から見て発光部21とは反対側に位置する。こうした壁部42の±Z側の部分によると、Z方向における検知範囲A10の角度幅Α2を狭角に設定可能である。例えばZ方向に並ぶ他の光学センサ1など隣接した外部光源が存在するような場合であっても、外部光源からの光を遮光して、外部光源と近接センサ部12との干渉を抑制することができる。
 以上のような光学センサ1における弾性部材4は、ドーム部41と壁部42において異なる硬度を有するように構成されてもよい。例えば、弾性部材4は、別々の硬度を有した複数種類の材料による2色成形で構成されてもよい。例えば、力センサ用のドーム部41の硬度は、近接センサ用の壁部42の硬度よりも柔軟に設定されてもよい。力センサ用のドーム部41の柔軟性により、例えばHMI等の用途において、力センサ部13の押圧に応じた変形という直感的な感覚フィードバックを与え易くすることができる。
 また、弾性部材4は、発光部21からの検知光を反射する光学特性を有してもよく、例えば反射率50%以上の材料で構成されてもよい。これにより、近接センサ部12において検知光を導光し易くすることができる。
2-3.センサ制御部
 図9は、本実施形態に係る光学センサ1の電気的な構成を例示する回路図である。本実施形態の光学センサ1は、上述した構造的な構成に加えて、図9に示すように、センサ制御部15をさらに備えてもよい。
 センサ制御部15は、例えば図9に示すように、発光制御回路51と、受光制御回路52と、力センサ制御回路53と、インタフェース回路54とを備える。
 発光制御回路51は、例えば、発光素子23に電気的に接続される光源駆動部を含む。光源駆動部は、検知光を発光させる駆動信号を発光素子23に供給する。発光制御回路51は、例えばAM変調などの変調器を含んでもよい。例えば、発光制御回路51は、10Hzから1MHz等における特定の周波数を、光の振幅を周期的に変動させる変調周波数に用いて、検知光を変調してもよい。検知光の変調により、外乱光から検知光及びその反射光を区別し易くなる。
 受光制御回路52は、例えば、受光素子24に電気的に接続される増幅器、及び増幅器に接続されるA/D(アナログ/デジタル)変換器を含む。受光制御回路52は、受光素子24から出力される受光信号に各種の信号処理を行って、例えばインタフェース回路54に出力する。
 例えば、受光制御回路52は、受光信号における反射光の受光量に基づいて、対象物の近接の検知処理を行う。光学センサ1における近接の検知処理は、反射光の受光量に限らず、例えば反射光と検知光間の位相差に基づき行われてもよい。又、こうした近接の検知処理自体は、必ずしも光学センサ1内で行われなくてもよく、光学センサ1外部の演算回路等で行われてもよい。光学センサ1においては、発光部21の駆動に同期して検知光の反射光を含む受光信号を生成することによって、対象物等の物体の近接検知を実現可能である。
 受光制御回路52は、例えば検知光の変調周波数を含む信号成分を通過させるバンドパスフィルタ等のフィルタ処理を行ってもよいし、発光制御回路51と同期して同期検波を行ってもよい。例えば、受光制御回路52において、定常的なDC成分を遮断することにより、外乱光から分離して上記反射光の解析を行うことができる。検知光の変調周波数は、例えば赤外線リモコンのキャリアとして利用される38kHzなど、既存の外部システムにおいて利用される周波数を避けて適宜、設定可能である。これにより、外部システムに起因するような光学センサ1の誤動作を抑制することができる。
 力センサ制御回路53は、力センサ部13中で力センサ素子3を構成する各種センサ素子を駆動制御する制御回路、及び当該センサ素子からの出力信号の増幅器などを含む。力センサ制御回路53は、例えば上記の出力信号に基づき多軸における力の検知結果を示す力検知信号を生成する回路構成を含んでもよい。力センサ制御回路53は、多軸に限らず、一軸の力の検知結果の力検知信号を出力してもよい。
 例えば力検知方式が圧電式であれば、力センサ部13内の基板上に配置された1つ以上の圧電素子の圧電効果を利用し、対象物(図7)が接触したことによる力センサ部13内に生じる応力を圧電素子にて電荷に換算し、その変化から力をセンシングする。光学式の場合は、力センサ部13内の基板上に配置された1つ以上の発光素子と1つ以上の受光素子を利用し、対象物が接触したことによる変形によって生じる力センサ部13内の反射光分布の変化を受光素子によって読み取り力センシングする。
 ひずみ抵抗式は、力センサ部13内の基板上に配置された1つ以上のひずみゲージを利用し、対象物が接触したことによる変形によって、力センサ部13内を経由しひずみゲージに伝わるひずみを抵抗変化として捉え、その変化を利用し力センシングをする。静電容量式は、力センサ部13内の基板上に配置された1つ以上の静電容量検知電極を利用し、対象物が接触したことによる力センサ部13の変形によって、変化する静電容量検知電極と基準電位との結合容量変化から力センシングをする。なお、各方式において、力センサ部13内に配置する圧電素子や受発光素子、ひずみゲージ、静電容量検知電極といった各種センサ素子を複数用いることで、力センシングの多軸化が可能となる。
 インタフェース回路54は、発光制御回路51、受光制御回路52及び力センサ制御回路53に接続する。インタフェース回路54は、光学センサ1を外部機器に接続して各種信号の入出力を行う。
 なお、以上に説明した構成は一例であり、光学センサ1は、特に上記の構成に限定されない。例えば、本実施形態の光学センサ1は、センサ制御部15の各回路51~54の何れかを外部構成としてもよいし、センサ制御部15の各回路51~54とは別体のモジュールとして提供されてもよい。また、センサ制御部15の機能の一部又は全体が、コントローラ6の制御回路60に組み込まれてもよい。
3.まとめ
 以上のように、本実施形態におけるコントローラ6は、ユーザにより手7で把持されるユーザインタフェース装置の一例である。コントローラ6は、 径方向Dr及び周方向Dθを有して長手方向Dzに延在する把持部材61と、 把持部材61において設けられた少なくとも1つの光学センサ1とを備える。前記光学センサ1は、発光素子23及び受光素子24を含む近接センサ部12と、手7の指71などの対象物による接触力を検知する力センサ部13とを備える。近接センサ部12は、力センサ部13の周囲における所定の検知範囲A10に発光素子23から光を出射して、受光素子24が検知範囲A10から入射する光を受光する受光結果に応じて、対象物が力センサ部13に近接する状態を検知する。検知範囲A10は、把持部材61における力センサ部13の位置から径方向Drの外側に向かって周方向Dθの両側のうちの片側である+X側に偏り、長手方向Dzよりも周方向Dθに広い範囲に設定される。
 以上のコントローラ6によると、光学センサ1の近接センサ部12による検知範囲A10が+X側に偏って、長手方向Dzよりも周方向Dθに広い範囲に設定されることから、+X側から光学センサ1に近接する指71等の対象物の状態を検知し易い。これにより、学センサ1を用いてユーザにより把持される状態を検知し易くすることができる。
 本実施形態において、コントローラ6は、長手方向Dzにおいて互いに異なる位置に配置された複数の光学センサ1を備える。各光学センサ1における検知範囲A10は、周方向Dθにおける第1の角度幅α1と、長手方向Dzにおいて第1の角度幅よりも小さい第2の角度幅α2とを有する。これにより、複数の光学センサ1の間で干渉する等の誤検知を抑制し易い。例えば、手7における複数の指71を別々の光学センサ1の検知対象とする場合の誤検知を抑制し易くできる。
 本実施形態のコントローラ6では、光学センサ1において、力センサ部13と近接センサ部12とは、周方向Dθにおいて互いに隣接して並置される。近接センサ部12による検知範囲A10は、周方向Dθにおいて力センサ部13とは反対側に偏る。これにより、力センサ部13に接触力を印加しようとする指71等の対象物が、到来する過程を近接センサ部12により検知し易くできる。
 本実施形態のコントローラ6では、把持部材61が手7に把持された状態において手7の指71が接触可能な位置に、光学センサ1が配置される。これにより、コントローラ6のユーザが把持部材61を把持した手7において指71で行う各種の操作を、光学センサ1により検知し易い。
 本実施形態のコントローラ6において、近接センサ部12は、発光素子23が発光する光を検知範囲A10に導光するように発光素子23を囲み、及び/又は、検知範囲A10から入射する光を受光素子24に導光するように受光素子24を囲む導光部材の一例の壁部42をさらに備える。こうした光学センサ1の壁部42により、近接センサ部12による検知範囲A10の指向性を容易に実現できる。
(実施形態2)
 実施形態1では、光学センサ1の検知範囲A10に対応する指向性が近接センサ用の壁部42により設定されるコントローラ6について説明した。実施形態2では、上記指向性の設定に光学センサの封止樹脂を利用する例について、図10~図11を用いて説明する。
 図10は、実施形態2における光学センサ1Aの構成を示す。図11は、図10の光学センサ1Aの、A-A’断面における断面図を示す。
 本実施形態の光学センサ1Aは、実施形態1の光学センサ1の代わりに本実施形態のコントローラ6に設けられる。本実施形態の光学センサ1Aは、例えば実施形態1の光学センサ1と同様の構成から、図10に示すように、発光部21A及び受光部22Aの各封止体25A,26Aの形状を変更して構成される。本実施形態において、各封止体25A,26Aは、それぞれ第1及び第2透光部材の一例である。
 本実施形態において、発光部21Aの封止体25Aは、発光素子23(図11)から出射する検知光を、Y方向から+X側に向けて屈折させるようなレンズ形状を有する。例えば、封止体25Aは、図11に示すようにXY断面において+X側ほど上方となるように傾斜する。こうしたレンズ形状によると、例えば発光部21Aの配光角といった指向性を+X側に偏らせることができる。封止体25Aの傾斜は、直線的に限らず曲線的であってもよく、例えば+Y側に向けて凸状であってもよい。
 又、封止体25Aは、+X側に出射する光束の配光角を、Z方向において狭めるような集光機能を有してもよい。こうした封止体25Aは、例えば図10に示すようにYZ断面において曲率を有するような曲面形状で実現できる。例えば、封止体25AにおいてZ方向の曲率はX方向の曲率よりも大きい。また、封止体25Aは、指71が到来する+X側において曲率を有していれば特に対称な形状に限らず、各種の形状で構成されてもよい。
 また、受光部22Aの封止体26Aは、例えば発光部21Aの封止体25Aと同様に構成できる。なお、発光部21Aの封止体25Aと受光部22Aの封止体26Aとの双方以上のようにレンズ形状を有していなくてもよく、何れか一方がレンズ形状を有してもよい。
 上記のような発光部21A及び受光部22Aの各封止体25A,26Aのレンズ形状によると、光学センサ1Aにおいて、近接センサ部12の指向性制御の自由度を向上できる。よって、光学センサ1Aを適用する各種用途に応じて、適切な指向性を設定可能にすることができる。
 以上のように、本実施形態の光学センサ1Aのコントローラ6において、光学センサ1Aの近接センサ部12は、第1の透光部材の一例である封止体25Aと、第2の透光部材の一例である封止体26Aとの少なくとも一方をさらに備える。封止体25Aは、発光素子23が発光する光を、検知範囲A10に導光するように発光素子23を封止する。封止体26Aは、検知範囲A10から入射する光を受光素子24に導光するように受光素子24を封止する。こうした光学センサ1Aによると、各封止体25A,26Aを利用して、力検知との両立を考慮した近接センサ部12の指向性制御を容易に行える。
(実施形態3)
 実施形態1,2では、光学センサ1における構成によって指向性を制御するコントローラ6について説明した。実施形態3では、光学センサ1に対するカバー部材によって指向性を制御するコントローラについて、図12~図17を用いて説明する。
 図12は、本実施形態に係るコントローラ6Aの構成を示す断面図である。図12の断面は、実施形態2のA-A’断面に対応する。図13は、本実施形態のコントローラ6Aにおいて+X側から光学センサ1Aを見た側面図を示す。
 本実施形態のコントローラ6Aでは、例えば実施形態2と同様の構成において、光学センサ1Aを覆うカバー部材62が、検知光の指向性を制御するための構造部63を備える。カバー部材62は、光学センサ1Aを覆う各種部材であってもよく、例えば把持部材61と一体的に構成されてもよい。本実施形態のコントローラ6Aにおいて、光学センサ1Aは、例えば力セン用のドーム部41上面においてカバー部材62と接触するように配置される。
 カバー部材62は、光学センサ1Aにおける近接センサ部12の発光素子23による検知光の波長に対して透明である透光性を有し、空気よりも大きい屈折率を有する材料で構成される。例えば、カバー部材62は、BK7等の光学ガラス、ポリカーボネート及びアクリル等のプラスチック、あるいはシリコーン等で構成できる。
 図12の例において、カバー部材62は、近接センサ部12の上方近傍において、+X側に向かって下方に傾斜するように切削された部分として構造部63を備える。こうしたカバー部材62の構造部63によると、コントローラ6Aにおいて指71が光学センサ1Aに到来する+X側に向けて近接センサ部12による検知光の光路を屈曲させ、検知範囲A10を+X側に傾斜させ易い。
 また、図13の例において、カバー部材の構造部63は、発光部21A及び受光部22A各々の上方において、指71が往来するX方向に直交するZ方向には光の指向性を狭めるように曲率を有したレンズ形状を有する。カバー部材62の構造部63は、発光部21Aと受光部22Aの何れか一方の上方のみに設けられてもよい。
 以上のように、本実施形態のコントローラ6Aは、カバー部材62をさらに備える。カバー部材62は、光学センサ1Aにおける発光素子23が発光する光を検知範囲A10に導光し、及び/又は、検知範囲A10から入射する光を受光素子24に導光するように光学センサ1Aを覆う。こうしたカバー部材62によっても、光学センサ1Aの近接センサ部12による検知範囲A10の指向性を容易に実現できる。
(実施形態3の変形例)
 本実施形態のコントローラ6Aにおいて、カバー部材62で検知光の指向性を制御する構造は、特に上記の例に限定されず種々の構造であってもよい。
 例えば、カバー部材62の構造部63は、図12の例に限らず、例えば近接センサ部12の上方近傍よりも+X側において、-X側よりも厚い厚みを有してもよいし、更に傾斜が続く形状であってもよい。又、カバー部材62の構造部63は、発光部21A及び受光部22Aのうちの何れか一方に対して設けられてもよい。
 図14は、実施形態3の変形例1におけるコントローラ6Bの構成を示す断面図である。図13は、本変形例のコントローラ6Bにおける光学センサ1Aの側面図を示す。本変形例のコントローラ6Bにおいて、カバー部材62の構造部63は、光学センサ1Aの弾性部材4と係合する形状で構成されてもよい。
 例えば図14に示すように、構造部63が近接センサ部12の壁部42を挟持する形状によると、X方向における位置ずれを規制できる。また、15に示すように、構造部63において凸状のレンズ形状の内径を、近接センサ部12の開口領域A1,A2に嵌合する小径とすることで、カバー部材62のYZ平面における移動を抑制することができる。こうした構成によると、カバー部材62の構造部63が光学センサ1との位置決め部として機能し、別途の位置決め機構を設けるような必要をなくすことができる。
 図16は、実施形態3の変形例2に係るコントローラ6Cの構成を示す断面図である。本変形例のコントローラ6Cにおいて、カバー部材62が、光学センサ1Aにおける発光部21Aの上方において拡散板として機能する部分である光拡散部64を備える。光拡散部64によると、光学センサ1の発光部21Aにおいて生成された検知光が通過する際に拡散させ、広域の検知範囲A10に広範囲に拡散的に検知光を分布し易くできる。
 こうした光拡散部64は、例えばカバー部材62において対応する部分の表面に対するエッチング処理(ホログラフィックディフューザ)で実現できる。あるいは、光拡散部64は、カバー部材62を構成する樹脂への反射性フィラーの添加(ホワイト拡散ガラス)、又はサンドブラスト加工(摺りガラス)等で実現されてもよい。
 以上のように、本実施形態のコントローラ6Cにおいて、カバー部材62は、発光素子23が発光する光を拡散して検知範囲A10に導光する光拡散部64を備えてもよい。これにより、光学センサ1Aの検知光を検知範囲A10に広く分布させ易くすることができる。
 図17は、実施形態3の変形例3に係るコントローラ6Dの構成を示す側面図である。本変形例のコントローラ6Dにおいて、カバー部材62は、近接センサ部12による検知光を透過する透明部65と、透過しない遮光部66とを備える。透明部65は、例えば発光部21Aの上方と受光部22Aの上方とにそれぞれ設けられる。
 遮光部66は、カバー部材62における透明部65としてスリット状の透過領域を規定するように設けられ、透過領域外において検知光の波長帯の光を遮光する。透過領域は、例えばZ方向において比較的狭い幅を有し、X方向において比較的広い幅を有する。遮光部66は、発光部21Aと受光部22Aの何れか一方の透過領域を画定してもよい。
 こうしたカバー部材62の遮光部66は、例えばカバー部材62を構成する樹脂への吸収性フィラーの添加や、カバー部材62表面への吸収性塗料の塗布、接着などを施すことによって実現される。本実施形態のカバー部材62によると、検知範囲A10を規制し易く、例えばZ方向において狭幅の透過領域によって複数の光学センサ1又は複数指の間での誤検知を抑制し易くできる。
 以上のように、本実施形態のコントローラ6Dにおいて、カバー部材62は、発光素子23から検知範囲A10外に出射する光を遮光し、検知範囲A10外から受光素子24に入射する光を遮光する遮光部66を備えてもよい。これにより、光学センサ1Aの検知範囲A10を規制し易くすることができる。
(実施形態4)
 実施形態4では、コントローラにおける光学センサの力検知方式として光学式を採用する例について、図18~図20を用いて説明する。
 図18は、実施形態4における光学センサ1Bの斜視図を示す。図19は、図18のB-B’断面における光学センサ1Bの断面図を示す。B-B’断面は、XY平面に沿って力センサ部13Bを通る断面である。
 本実施形態の光学センサ1Bでは、例えば実施形態2の光学センサ1Aと同様の構成において、力センサ部13Bが光学式で構成される。光学式の力センサ部13Bは、例えば図19に示すように、力センサ素子3Bとして、発光素子31と、受光素子32とを含む。発光素子31及び受光素子32は、例えば透明樹脂等による封止体33で封止されてもよい。
 又、光学式の力センサ部13Bにおいて、力センサ用のドーム部41内部は、中空構造であってもよいし、例えば封止体33よりも柔軟な透明樹脂等で充填されてもよい。また、ドーム部41内部は、例えば発光素子31からの光を反射可能に構成される。
 光学式の力センサ部13Bにおいて、発光素子31は、例えばシングル又はマルチエミッタのVCSEL等の発光光源を含む。例えば、発光素子31は、赤外領域などの所定の波長帯を有する光を発光し、力検知のための検知光として出射する。発光素子31は、VCSELに限らず、例えばLD或いはLEDなど種々の固体光源素子を含んでもよい。発光素子31は、複数の光源素子を含んでもよい。発光素子31には、発光素子からの光をコリメートするレンズ及びミラー等の光学系が設けられてもよい。
 受光素子32は、PD等の受光器を含み、例えば発光素子31の周囲を取り囲むように複数の受光器を配置して構成される。受光素子32は、受光器において検知光の反射光等の光を受光して、例えば受光された光量を受光結果として示す受光信号を生成する。受光素子32は、PDに限らず、例えばフォトトランジスタ、PSD、CIS或いはCCDなど種々の受光器を含んでもよい。
 力センサ用のドーム部41は、例えば発光素子31による検知光の周波数帯について遮光特性を有する弾性部材で構成される。
 以上のように構成される光学式の力センサ部13Bは、接触する対象物からの力に応じて、発光素子31から発光する検知光が、反射体35において反射された反射光の受光素子32による受光状態が変化することを利用して、対象物の接触力を検知する。光学式における接触力の測定方法としては適宜、公知技術を適用可能である。
 こうした光学式の力センサ部13Bによると、近接センサ部12と同じ製造プロセスを採用して、一括して作り込みを行えることから、光学センサ1Bの製造を容易化することができる。例えば、近接センサ部12における封止体25A,26Aと、力センサ部13Bにおける発光素子31及び受光素子32の封止体33とが、同じプロセスで形成されてもよい。
 図20は、実施形態4に係る光学センサ1Bの電気的な構成を例示する回路図である。実施形態1では、光学センサ1のセンサ制御部15において、力センサ制御回路53が、近接センサ部12を制御するための発光制御回路51及び受光制御回路52とは別個に構成された。本実施形態の光学センサ1Bのセンサ制御部15Bは、実施形態1と同様の構成において、別個の力センサ制御回路53(図9)の代わりに、力センサ部13Bの制御機能を近接センサ部12の発光制御回路51B及び受光制御回路52Bに持たせる。
 例えば図20に示すように、本実施形態の発光制御回路51Bは、近接センサ部12の発光素子23と共に、力センサ部13Bの発光素子31を制御するように、例えばスイッチマトリクス等を備えて構成される。又、本実施形態の受光制御回路52Bは、近接センサ部12の受光素子24と共に、力センサ部13Bの受光素子32を制御するように、例えばスイッチマトリクス等を備えて構成される。これにより、近接センサ部12と力センサ部13Bとの双方の制御機能が、同じ回路テクノロジで構成でき、光学センサ1Bの部品点数を削減したり、回路の集積化を容易化したりできる。
 例えば、本実施形態の光学センサ1Bのセンサ制御部15Bは、近接センサ部12の制御機能と力センサ部13Bの制御機能とで共通化された単一のIC等で構成できる。このように、本実施形態の光学センサ1Bは、小型化及びコスト低減を図ることができる。
 以上のように、本実施形態の光学センサ1Bにおいて、光学式の力センサ部13Bは、その力センサ素子3Bとして、近接センサ部12の発光素子23とは別の発光素子31、及び近接センサ部12の受光素子24とは別の受光素子32を含む。光学センサ1Bのセンサ制御部15Bは、近接センサ部12の発光部21及び力センサ部13Bの発光素子31を制御する発光制御回路51Bと、近接センサ部12の受光部22及び力センサ部13Bの受光素子32を制御する受光制御回路52Bとを備える。光学センサ1Bの近接センサ部12と力センサ部13Bとを光学式で構成することで、センサ構造の製造を容易化することに加えて、回路構成も簡単化でき、光学センサ1Bを製造し易くすることができる。
(他の実施形態)
 上記の各実施形態では、近接センサ用の壁部42が開放端45を有する光学センサ1を説明した。本実施形態において、近接センサ用の壁部42は開放端45を有していなくてもよく、発光部21と受光部22との全周を囲ってもよい。こうした場合であっても、開放端45とは別の手段で検知範囲A10を傾けて設定可能である。こうした変形例について、図21を用いて説明する。
 図21は、コントローラにおける光学センサ1Cの変形例を例示する断面図である。本変形例の光学センサ1Cは、例えば上述した実施形態1の光学センサ1と同様の構成において、可撓性を有する基板11Cを備える。
 本変形例の光学センサ1Cにおいて、基板11Cは、例えばフレキシブル基板またはリジッドフレキシブル基板などである。基板11Cは、力センサ用のドーム部41と近接センサ用の壁部42間の溝に対応する部分等において、屈曲可能に構成される。また、本変形例において、弾性部材4も、少なくとも上記の溝に対応する基底部40において屈曲可能な硬度を有する。
 こうした光学センサ1Cによると、図21に示すように、基板11Cを屈曲させることで、例えば力センサ部13に対して、近接センサ部12の検知範囲A10の方向を+X側等に傾けることができる。これにより、例えば対象物5が力センサ部13に近接する際に+X側から到来するような状況において、対象物5が力センサ部13に接触する前に近接した状態を、近接センサ部12によって検知し易くすることができる。
 以上のように、本実施形態の光学センサ1Cにおいて、基板11Cは、少なくとも弾性部材4における力センサ用のドーム部41と近接センサ用の壁部42との間の位置において可撓性を有してもよい。これにより、力センサ部13の配置に対して近接センサ部12の視野角の向きを変更でき、力検知と近接検知との両立を行い易くできる。
 或いは、本実施形態の光学センサ1において、近接センサ用の壁部42は、+X側において他の部分よりも低い高さで構成されてもよい。これによっても、光学センサ1の検知範囲A10を+X側に傾けて設定できる。又、本実施形態の光学センサ1において、発光部21と受光部22との一方の周囲を囲うように構成されてもよいし、壁部42は省略されてもよい。
  1,1A~1C  光学センサ
  12  近接センサ部
  13,13B  力センサ部
  21,21A  発光部
  22,22A  受光部
  23  発光素子
  24  受光素子
  25,25A  封止体
  26,26A  封止体
  3,3B  力センサ素子
  41  ドーム部
  42  壁部
  51,51B  発光制御回路
  52,52B  受光制御回路
  6,6A~6D コントローラ
  61  把持部材
  62  カバー部材
  63  構造部
  64  光拡散部
  65  透明部
  66  遮光部

Claims (10)

  1.  ユーザにより把持されるユーザインタフェース装置であって、
     径方向及び周方向を有して長手方向に延在する把持部材と、
     前記把持部材において設けられた少なくとも1つの光学センサとを備え、
     前記光学センサは、
     発光素子及び受光素子を含む近接センサ部と、
     対象物による接触力を検知する力センサ部とを備え、
     前記近接センサ部は、前記力センサ部の周囲における所定の検知範囲に前記発光素子から光を出射して、前記受光素子が前記検知範囲から入射する光を受光する受光結果に応じて、前記対象物が前記力センサ部に近接する状態を検知し、
     前記検知範囲は、前記把持部材における前記力センサ部の位置から前記径方向の外側に向かって前記周方向の両側のうちの片側に偏り、前記長手方向よりも前記周方向に広い範囲に設定される
    ユーザインタフェース装置。
  2.  前記長手方向において互いに異なる位置に配置された複数の光学センサを備え、
     各光学センサにおける前記検知範囲は、前記周方向における第1の角度幅と、前記長手方向において前記第1の角度幅よりも小さい第2の角度幅とを有する
    請求項1に記載のユーザインタフェース装置。
  3.  前記光学センサにおいて、前記力センサ部と前記近接センサ部とは、前記周方向において互いに隣接して並置され、
     前記近接センサ部による前記検知範囲は、前記周方向において前記力センサ部とは反対側に偏る
    請求項1又は2に記載のユーザインタフェース装置。
  4.  前記把持部材が手に把持された状態において前記手の指が接触可能な位置に、前記光学センサが配置された
    請求項1~3の何れか1項に記載のユーザインタフェース装置。
  5.  前記近接センサ部は、前記発光素子が発光する光を前記検知範囲に導光するように前記発光素子を囲み、及び/又は、前記検知範囲から入射する光を前記受光素子に導光するように前記受光素子を囲む導光部材をさらに備える
    請求項1~4の何れか1項に記載のユーザインタフェース装置。
  6.  前記近接センサ部は、
     前記発光素子が発光する光を前記検知範囲に導光するように前記発光素子を封止する第1の透光部材と、
     前記検知範囲から入射する光を前記受光素子に導光するように前記受光素子を封止する第2の透光部材との少なくとも一方をさらに備える
    請求項1~5の何れか1項に記載のユーザインタフェース装置。
  7.  前記光学センサにおける前記発光素子が発光する光を前記検知範囲に導光し、及び/又は、前記検知範囲から入射する光を前記受光素子に導光するように前記光学センサを覆うカバー部材をさらに備える
    請求項1~6の何れか1項に記載のユーザインタフェース装置。
  8.  前記カバー部材は、前記発光素子が発光する光を拡散して前記検知範囲に導光する光拡散部を備える
    請求項7に記載のユーザインタフェース装置。
  9.  前記カバー部材は、前記発光素子から前記検知範囲外に出射する光を遮光し、及び/又は、前記検知範囲外から前記受光素子に入射する光を遮光する遮光部を備える
    請求項7又は8に記載のユーザインタフェース装置。
  10.  前記力センサ部は、前記近接センサ部の発光素子とは別の発光素子、及び前記近接センサ部の受光素子とは別の受光素子を含み、
     前記光学センサは、
     前記近接センサ部の発光素子及び前記力センサ部の発光素子を制御する発光制御回路と、
     前記近接センサ部の受光素子及び前記力センサ部の受光素子を制御する受光制御回路とをさらに備える
    請求項1~9の何れか1項に記載のユーザインタフェース装置。
PCT/JP2022/033738 2021-09-28 2022-09-08 ユーザインタフェース装置 WO2023053898A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023550519A JPWO2023053898A1 (ja) 2021-09-28 2022-09-08

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-158194 2021-09-28
JP2021158194 2021-09-28

Publications (1)

Publication Number Publication Date
WO2023053898A1 true WO2023053898A1 (ja) 2023-04-06

Family

ID=85782363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/033738 WO2023053898A1 (ja) 2021-09-28 2022-09-08 ユーザインタフェース装置

Country Status (2)

Country Link
JP (1) JPWO2023053898A1 (ja)
WO (1) WO2023053898A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005428A (ja) * 2015-06-08 2017-01-05 ローム株式会社 近接センサ
WO2017150127A1 (ja) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置及び制御プログラム
WO2020079853A1 (ja) * 2018-10-19 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラ装置、情報処理装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005428A (ja) * 2015-06-08 2017-01-05 ローム株式会社 近接センサ
WO2017150127A1 (ja) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置及び制御プログラム
WO2020079853A1 (ja) * 2018-10-19 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、コントローラ装置、情報処理装置、及びプログラム

Also Published As

Publication number Publication date
JPWO2023053898A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
CN112105900B (zh) 触觉以及接近传感器和传感器阵列
EP2659282B1 (en) Opto-electronic module and devices comprising the same
JP2017011120A (ja) 近接センサ及びそれを用いた電子機器
US10908283B2 (en) Sensor and portable terminal comprising same
US20010007449A1 (en) Input device
JPH0510615B2 (ja)
TWI433009B (zh) 光學式觸控裝置
US20020080117A1 (en) Optical mouse
WO2021033455A1 (ja) 力センサ、及びそれを含むセンサアレイ並びに把持装置
KR101634805B1 (ko) 내부 전반사를 이용한 터치 센서
WO2023053898A1 (ja) ユーザインタフェース装置
US11953351B2 (en) Tactile and proximity sensor
US10896314B2 (en) Fingerprint identification module
WO2023002866A1 (ja) センサ装置
WO2021005952A1 (ja) 光学センサ、及び、それを備えた近接センサ
JP7302671B2 (ja) 光学センサ
JPH1153102A (ja) 入力装置
WO2021085098A1 (ja) 光学式センサおよび光学式センサモジュール
WO2022230410A1 (ja) センサ装置
RU2594992C2 (ru) Оптический министик
WO2021005953A1 (ja) 光学センサ、及び、それを備えた近接センサ
JP2015095210A (ja) 操作入力装置
RU2724791C2 (ru) Оптический министик с герконами
WO2023234075A1 (ja) 力覚センサ、センサモジュールおよびロボットハンド
JPH04204103A (ja) 触覚センサ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22875770

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550519

Country of ref document: JP