WO2023190592A1 - ヘッドセット - Google Patents

ヘッドセット Download PDF

Info

Publication number
WO2023190592A1
WO2023190592A1 PCT/JP2023/012658 JP2023012658W WO2023190592A1 WO 2023190592 A1 WO2023190592 A1 WO 2023190592A1 JP 2023012658 W JP2023012658 W JP 2023012658W WO 2023190592 A1 WO2023190592 A1 WO 2023190592A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
arm
biological
biosensor
headset
Prior art date
Application number
PCT/JP2023/012658
Other languages
English (en)
French (fr)
Inventor
泰彦 今村
Original Assignee
Vie Style株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vie Style株式会社 filed Critical Vie Style株式会社
Publication of WO2023190592A1 publication Critical patent/WO2023190592A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/251Means for maintaining electrode contact with the body
    • A61B5/256Wearable electrodes, e.g. having straps or bands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/291Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones

Definitions

  • the disclosed technology relates to a headset.
  • an audio headset equipped with a biosignal sensor is provided with an arm that is a separate member from the arm of normal headphones, and that biosignals on the user's forehead are acquired by the biosensor on the arm that is a separate member. (For example, see Patent Document 1).
  • the disclosed technology aims to provide a headset that can easily acquire brain waves of each part of the head.
  • a headset includes a pair of sound output devices including a driver unit, an arm that connects the pair of sound output devices to each other, and the arm is provided with
  • the device includes a positioning mechanism that moves in a direction to position the user, and a biosensor that is provided on the arm and that contacts the head of the user to obtain biometric information.
  • FIG. 3 is a diagram showing an example of a top view when each electroencephalogram signal is acquired by arranging electrodes according to the 10-20 method.
  • FIG. 3 is a diagram showing an example of a side view when each electroencephalogram signal is acquired by arranging electrodes according to the 10-20 method.
  • FIG. 2 is a diagram showing electrode symbols and site names for the 10-20 method.
  • FIG. 2 is a cross-sectional view of a biosensor disposed on an arm in this embodiment.
  • FIG. 3 is a diagram showing an example of the external shape of the earpiece in this embodiment. 7 is a sectional view showing the IV-IV cross section in FIG. 6.
  • FIG. 2 is a diagram illustrating an example of a processing configuration of a headset according to the present embodiment. It is a figure showing example 1 of use of a headset in this embodiment. It is a figure which shows the example 2 of use of the headset 1 in this embodiment. It is a figure which shows the example 3 of use of the headset 1 in this embodiment. It is a block diagram showing an example of a communication terminal concerning this embodiment. It is a flow chart which shows an example of processing of a communication terminal in this embodiment.
  • FIG. 1 is a perspective view showing an example of a headset 1 in this embodiment.
  • the headset 1 includes a pair of sound output devices 2R and 2L, an arm 4 that connects the pair of sound output devices 2R and 2L, and an arm 4 that is connected to the head of the user.
  • Positioning mechanisms 8R and 8L that move in the front-back direction to position the arm 4, a biosensor 6 that is provided on the arm 4 and that contacts the user's head to acquire biometric information, and a microphone set 10.
  • It includes a pair of length adjusting mechanisms 12R and 12L that adjust the length of the arm 4 in the longitudinal direction, and a moving mechanism 14 that moves the position of the biosensor 6.
  • the microphone set 10, the adjustment mechanisms 12R and 12L, and the movement mechanism 14 are not necessarily components of the headset 1.
  • FIG. 1 shows an example in which ear pieces (or earphones) are used as the sound output devices 2R and 2L
  • sound may be output from a device having a normal headphone type ear pad or housing.
  • the RL notation will be omitted if left and right are not distinguished.
  • a positioning mechanism that does not distinguish between left and right is referred to as a positioning mechanism 8.
  • the positioning mechanisms 8R and 8L make it possible to move a portion of the arm 4 including the biosensor 6 in the front-rear direction of the user's head. This makes it possible to position the biosensor 6 in each part of the user's head from the prefrontal cortex to the occipital lobe, and it is possible to acquire biometric information (eg, electroencephalogram signals) at a desired position. Further, since the positioning mechanisms 8R and 8L are provided as part of the arm 4, a separate member for positioning the biosensor 6 is not required, and the cost of the headset 1 can be reduced. Furthermore, according to the configuration shown in FIG. 1, the arm 4 that supports the mounting of the sound output devices 2R, 2L includes the biosensor 6 and the positioning mechanisms 8R, 8L, so the appearance is similar to that of a normal audio headset. This makes it possible to reduce the psychological burden during use.
  • the positioning mechanisms 8R, 8L are provided in a pair at predetermined positions on the side of each sound output device 2R, 2L between the approximate center position in the longitudinal direction of the arm 4 and each sound output device 2R, 2L. It's okay.
  • the positioning mechanisms 8R, 8L may be provided at the connection site between the end of each sound output device 2R, 2L and the arm 4, or at the connection site between the arm 4 and an extension portion extending from this end. Any mechanism may be used as the positioning mechanisms 8R and 8L as long as the angle of the arm 4 can be adjusted.
  • the positioning mechanisms 8R and 8L are not necessarily the same mechanism, and may be provided in different mechanisms or at different positions.
  • At least one of the pair of positioning mechanisms 8R and 8L may include a bellows mechanism.
  • the other may be a hinge having a locking mechanism whose angle is adjustable. More preferably, both of the pair of positioning mechanisms 8R and 8L are bellows mechanisms.
  • the bellows mechanism allows the arm 4 to be stably positioned at any angle in the front-back direction of the head.
  • the pair of length adjustment mechanisms 12R, 12L includes, for example, a slide mechanism, and adjusts the length of the arm 4 in the longitudinal direction. This makes it possible to bring the biosensor 6 of the arm 4 into appropriate contact with the user's head in accordance with the shape of the user's head.
  • the arm 4 may include a moving mechanism 14 that changes the position of the biosensor 6 in the longitudinal direction of the arm 4.
  • the moving mechanism 14 may be a slide mechanism that slides the biosensor 6 along the longitudinal direction of the arm 4, or a detachable mechanism that once removes the biosensor 6 and attaches it to an arbitrary predetermined position.
  • one of a pair of structures that fit together or are screwed together may be arranged at a plurality of positions within the arm 4.
  • the biosensor 6 has the other structure of a pair of detachable structures that are mated together or screwed together.
  • the other structure of the biosensor 6 is attached to one structure disposed at a predetermined position of the arm 4, so that the biosensor 6 is positioned. Further, when the biosensor 6 is attached to the arm 4, it is electrically connected to a wire 112 inside the arm 4, which will be described later.
  • biosensor 6 there is one biosensor 6, but an arbitrary number of biosensors 6 can be added, and the plurality of biosensors 6 can acquire a plurality of biosignals at a plurality of predetermined positions. Good too.
  • FIG. 2 is a diagram showing an example of a top view when each electroencephalogram signal is acquired by arranging electrodes according to the 10-20 method.
  • FIG. 3 is a diagram showing an example of a side view when each electroencephalogram signal is acquired by arranging electrodes according to the 10-20 method.
  • FIG. 4 is a diagram showing electrode symbols and site names for the 10-20 method.
  • the biosensor 6 is provided at the center position in the longitudinal direction of the arm 4, and the arm 4 can be positioned by moving in the front-rear direction of the user's head using the positioning mechanism 8. It is. With this positioning mechanism 8, the biosensor 6 can correspond to each electrode of the median frontal region Fz, the median central region electrode Cz, and the median parietal region Pz shown in FIGS. 2 and 4.
  • the above-mentioned moving mechanism 14 allows the biosensor 6 to move in the left and right directions of the user's head.
  • This moving mechanism 14 allows the biosensor 6 to move, for example, the frontal electrodes F3 and F4, the central electrodes C3 and C4, the parietal electrodes P3 and P4, and the occipital electrodes O1 and O2 shown in FIGS. 3 and 4. It is possible to correspond to each electrode, etc.
  • the plurality of biosensors 6 can be arranged such as electrodes F3 and F4 on the forehead, electrodes C3 and C4 on the center, and electrodes on the top of the head, as shown in FIGS. 3 and 4. It becomes possible to acquire at the same timing each piece of biological information corresponding to each piece of biological information from both the left and right electrodes, such as the electrodes P3 and P4 or the electrodes O1 and O2 on the back of the head.
  • FIG. 5 is a sectional view of the biosensor 6 disposed on the arm 4 in this embodiment.
  • FIG. 5 is a diagram showing a VV cross section including the center of the biosensor 6 shown in FIG.
  • the biosensor 6 shown in FIG. 5 includes, for example, an elastic bioelectrode 102, a screw A104, a spacer 106 made of a conductive member, and a screw B108.
  • the bioelectrode 102 is made of conductive resin, for example, and includes one or more convex portions and a cylindrical portion. Since one or more convex portions (three in the example shown in FIG. 1) contact the user's head while entwining with the user's hair, the shape of the bioelectrode 102 is similar to that of the biosensor 6 disposed on the arm 4. This helps prevent misalignment. Note that in the example shown in FIG. 5, a cross section of one of the three convex portions of the bioelectrode 102 is illustrated. Inside the cylindrical portion of the bioelectrode 102, a spacer 106 is provided in the vertical Z direction from the approximate center position of the bioelectrode 102 in the X direction (approximately the center point of the circle of the cylindrical portion).
  • the spacer 106 is made of a conductive material and includes, for example, a brass spacer. Spacer 106 is in contact with bioelectrode 102. For example, in the example shown in FIG. 5, the lower surface of the spacer 106 in the Z2 direction contacts the bioelectrode 102, thereby establishing electrical conduction. Note that the side surface of the spacer 106 may also be in contact with the bioelectrode 102.
  • the screw A104 is rotated in the Z1 direction from the center hole in the Z2 direction of the cylindrical portion of the bioelectrode 102 and screwed to the spacer 106, thereby fixing the bioelectrode 102 and the spacer 106.
  • the screw A104 is, for example, a low-profile screw, and may be electrically conductive.
  • the screw B108 is rotated from the center hole in the Z1 direction of the cylindrical portion of the bioelectrode 102 in the Z2 direction and screwed to the spacer 106, thereby fixing the arm 4 and the biosensor 6.
  • the screw B108 is, for example, a brass countersunk screw, and has conductivity.
  • the elastic member 110 is provided between the biosensor 6 (or bioelectrode 102) and the arm 4.
  • the elastic member 110 has a function as a cushioning material.
  • the elastic member 110 deforms at an arbitrary position, and the convex part sways to some extent, so that the convex part of the bioelectrode 102 is positioned. enable.
  • the elastic member 110 may be made of, for example, an elastic resin or a porous material such as sponge. Further, the elastic member 110 has a cylindrical shape, and the inner wall of the center hole of the elastic member 110 does not need to contact the spacer 106 in order to increase the movement width of the bioelectrode 102.
  • the bioelectrode 102 swings and comes into contact with the scalp, which increases the fit to the scalp and allows the bioelectrode 102 to properly contact the scalp. By doing so, it becomes possible to measure biological information with high precision.
  • a conductive wire 112 is arranged inside the arm 4.
  • the wire 112 is electrically connected to the head portion of the screw B108.
  • the screw B108 is, for example, a flat head brass screw. Thereby, the flat part of the upper surface of the head of the countersunk screw comes into contact with the wire 112, and the contact area with the wire 112 can be widened, and the conductivity can be stabilized. Further, when the arm 4 does not include the moving mechanism 14, the head of the screw B108 and the wire 112 may be connected by soldering. Note that the wire 112 may be connected to substrates disposed inside the earpieces 2 on both sides, or may be connected to either the first earpiece 2R or the second earpiece 2L.
  • the convex portion of the bioelectrode 102 comes into contact with the scalp to detect biometric information.
  • the detected biological information is transmitted to the convex part of the biological electrode 102, the cylindrical part, the spacer 106, the screw B108, and the wire 112 in this order, so that the biological information can be transmitted to the substrate, etc. at the end of the wire 112. It becomes possible.
  • the configuration of the biosensor 6 is not limited to the example shown in FIG. 5, and may have a configuration in which biometric information detected using the bioelectrode 102 is transmitted to a predetermined device, board, etc. by wire or wirelessly. That's fine.
  • the biosensor 6 may be an electrode pad or the like having a bioelectrode.
  • the sound output devices 2R and 2L will be described with reference to FIGS. 6 and 7.
  • the sound output devices 2R and 2L in this embodiment will be described using an earpiece as an example, so hereinafter they will also be referred to as a first earpiece 2R and a second earpiece 2L.
  • FIG. 6 is a diagram showing an example of the external shape of the earpiece in this embodiment.
  • FIG. 7 is a cross-sectional view taken along the line IV-IV in FIG.
  • the first earpiece 2R and the second earpiece 2L have the same basic structure, except for the shape that is suitable for being placed in the left and right ears. Therefore, the first earpiece 2R will be explained as an example.
  • the first earpiece 2R includes a housing 21.
  • the housing 21 is a member having a cavity inside, and a driver unit 24 including a speaker and a battery 25 are housed in this cavity. Further, the ear tip 22 is attached to a nozzle 26 that protrudes from the housing 21.
  • the nozzle 26 has a shape in which a flange is formed at one end of a cylindrical member. Specifically, the nozzle 26 includes a cylindrical portion 31 positioned in the ear canal of the wearer when the first earpiece 2R is worn, a flange portion 32 fixed to the housing 21, and a cylindrical portion 31 and a cylindrical portion 31 in the first direction X. It has a sound guiding part 33 that connects the inside of each flange part 32.
  • the cylindrical portion 31 extends in the first direction T so as to protrude from the housing 21, and has a locking protrusion 35 on the distal end side of the cylindrical portion 31 for removably locking the ear tip 22. is formed.
  • the flange portion 32 is formed on the proximal end side of the cylindrical portion 31.
  • the sound guide portion 33 functions as a passage through which sound from the driver unit 24 passes.
  • Such a nozzle 26 is formed as a rigid body.
  • the material for forming the nozzle 26 is not limited as long as it has this property, but one example is hard ABS resin.
  • the housing 21 includes a nozzle fixing part 40 to which the flange part 32 of the nozzle 26 is fixed, and an extended part 42 extending from the nozzle fixing part 40 to the side opposite to the nozzle 26 and extending beyond the nozzle fixing part 40.
  • the nozzle fixing part 40 includes an opening 50 through which the cylindrical part 31 of the nozzle 26 is inserted, a regulating part 52 that comes into contact with the flange part 32 of the nozzle 26 to prevent the nozzle 26 from falling out of the opening 50, and a regulating part 52. It has a surrounding part 54 that is a part that connects the extended part 42 and surrounds the flange part 32.
  • the nozzle 26 can be fixed in the nozzle fixing part 40 by, for example, fitting the flange part 32 into the surrounding part 54, or by gluing the flange part 32 to the regulating part 52 or the surrounding part 54. can.
  • the expanding portion 42 as a whole is formed to gradually expand as it moves away from the nozzle fixing portion 40.
  • the driver unit 24 is housed on the nozzle 26 side, and the battery 25 is housed in a part that is larger than the housing part of the driver unit 24.
  • the expansion portion 42 has an opening 60 for wiring at the end portion 42a where the expansion ends.
  • the driver unit 24 and battery 25 are wired to the board 70 through this opening 60 .
  • the opening 60 is also used to insert the driver unit 24 and battery 25 into the housing 21 when assembling the first earpiece 2R.
  • the end face 42b of the expanded portion 42 where the expansion ends is formed into a flat surface.
  • a plate 72 to which the substrate 70 is fixed is placed on the end surface 42b, and a cover 74 that covers the substrate 70 and plate 72 is attached.
  • the board 70 is provided with an antenna for wireless communication.
  • the antenna is compatible with wireless communication standards such as Bluetooth (registered trademark), for example. Therefore, the first earpiece 2R is configured as a wireless earphone, and is wirelessly connected to devices such as a mobile terminal and a laptop, and communicates data such as sound with these devices.
  • the board 70 is provided with a first time acquisition section 271, a first communication section 276, and the like.
  • An annular attachment portion 80 that is fitted into the circumferential surface of the cover 74 is provided. An end of the attachment portion 80 in the Z1 direction is connected to the arm 4. Cover 74 and attachment portion 80 may be described as part of housing 21 .
  • the ear tip 22 is formed of a first member 22A and a second member 22B that are electrically conductive.
  • the first member 22A and the second member 22B are formed of different materials, and are each removable.
  • the shape of the first member 22A is not limited to the examples shown in FIGS. 6 and 7, and may be any structure as long as it has a portion that contacts the inner wall of the user's external auditory canal and that this contact portion appropriately contacts the external auditory canal. . Further, it is preferable that the surface area of this contact portion be large.
  • the ear tip 22 includes a first member 22A located on the eardrum side and a second member 22B located on the housing 21 side.
  • the first member 22A is made of, for example, conductive rubber, and this conductive rubber contains silver or silver chloride.
  • silver or silver chloride is contained in a predetermined mass % or more of the conductive substance contained in the conductive rubber.
  • the first member 22A may be formed of a silicon material containing a metal filler.
  • the first member 22A can be made of a highly conductive material by appropriately blending silver, copper, gold, aluminum, zinc, nickel, or the like as a metal filler into a silicon material.
  • the second member 22B is preferably formed of an inexpensive non-conductive elastic material (for example, silicone rubber).
  • the housing 21 or a part of the housing 21 is made of, for example, conductive rubber, and this conductive rubber contains silver or silver chloride.
  • silver or silver chloride is contained in a predetermined mass % or more of the conductive substance contained in the conductive rubber.
  • the housing 21 or a part of the housing 21 may be formed of a silicon material containing a metal filler.
  • the first member 22A can be made of a highly conductive material by appropriately blending silver, copper, gold, aluminum, zinc, nickel, or the like as a metal filler into a silicon material.
  • the first member 22A of the ear tip 22 and at least a portion of the housing 21 have electrical conductivity.
  • the first member 22A is used as the ear sensor 272 of the bioelectrode
  • the housing 21 is used as the ground sensor 274 of the bioelectrode, but the present invention is not limited to this example.
  • the conductive material of the housing 21 and the conductive material of the first member 22A may be the same or different.
  • the electrical conductivity of the first member 22A may be higher than that of the housing 21.
  • FIG. 8 is a diagram showing an example of the processing configuration of the headset 1 in this embodiment.
  • the sound output device 2 includes a first earpiece 2R and a second earpiece 2L.
  • the first earpiece 2R is attached to the user's right ear.
  • the second earpiece 2L is attached to the user's left ear.
  • the first earpiece 2R and the second earpiece 2L are configured to be able to communicate with the smartphone M.
  • the smart phone M is an example of an external communication terminal different from the headset 1.
  • the first earpiece 2R and the second earpiece 2L are configured to be able to receive a GNSS signal transmitted from a GNSS (Global Navigation Satellite System) satellite Sa or the like.
  • GNSS Global Navigation Satellite System
  • the first earpiece 2R includes a first time acquisition section 271, an ear sensor 272, a signal acquisition section 273, a ground sensor 274, a first A/D conversion section 275, and a first communication section 276.
  • the first time acquisition unit 271 receives a GNSS signal transmitted from a GNSS satellite Sa, and acquires absolute time information included in the GNSS signal.
  • the first time acquisition section 271 outputs the acquired absolute time information to the first A/D conversion section 275.
  • the first time acquisition unit 271 includes, for example, a GPS (Global Positioning System) chip.
  • the ear sensor 272 which is a biological sensor, uses the conductive first member 22 of the ear tip 22 described above to contact the user's ear and acquire biological information (third biological information) as an electrical signal.
  • the ear sensor 272 outputs the sensed biological information (third biological information) to the first A/D converter 275.
  • the signal acquisition unit 273 acquires an electrical signal of the user's biological information (first biological information) acquired from the biological sensor 6.
  • the signal acquisition section 273 outputs the acquired first biological information to the first A/D conversion section 275.
  • the signal acquisition section 273 may be a signal line connected to the wire 112 arranged inside the arm 4 and connected to the first A/D conversion section 275.
  • the ground sensor 274 is a sensor that acquires ground potential information as an electrical signal.
  • the ground sensor 274 is arranged, for example, in the housing 21 or a part of the housing 21.
  • the ground sensor 274 outputs sensed ground potential information to the first A/D converter 275.
  • the first A/D converter 275 samples each piece of information in accordance with the timing of the absolute time information. For example, as a method of matching sampling to the timing of the absolute time information, sampling may be performed in accordance with the absolute time information every time, or sampling may be performed in accordance with the absolute time information at regular timing such as every second.
  • the first A/D conversion section 275 outputs each piece of sampled information to the first communication section 276.
  • the first communication unit 276 transmits the third biological information output from the ear sensor 272 and the first biological information output from the signal acquisition unit 273 to the communication terminal M in association with absolute time information.
  • the first communication unit 276 also generates third difference information that is the difference between the third biological information output from the ear sensor 272 and the ground potential information output from the ground sensor 274, and associates it with the absolute time information. It may also be transmitted to the communication terminal M.
  • the first communication unit 276 generates first difference information that is the difference between the first biological information output from the signal acquisition unit 273 and the ground potential information output from the ground sensor 274, and generates first difference information that is the difference between the first biological information output from the signal acquisition unit 273 and the ground potential information output from the ground sensor 274, and It may also be transmitted to the communication terminal M in association.
  • associating absolute time information with each piece of information eg, adding a timestamp
  • the first communication unit 276 associates the first biological information or the first difference information with the absolute time information and transmits the correlated information to the communication terminal M over the first channel.
  • the absolute time information associated with the first biological information or the first difference information is synchronized with the timing sensed by the biological sensor 6.
  • the first communication unit 276 associates the third biological information or the third difference information with the absolute time information and transmits the correlated information to the communication terminal M over the third channel.
  • the absolute time information associated with the third biological information or the third difference information is synchronized with the timing sensed by the ear sensor 272.
  • the third channel may be the same channel as the first channel or a different channel.
  • each of the above-mentioned biological information or ground potential information includes information sampled by the first A/D converter 275.
  • the second earpiece 2L includes a second time acquisition section 281, an ear sensor 282, a signal acquisition section 283, a ground sensor 284, a second A/D conversion section 285, and a second communication section 286.
  • the second time acquisition unit 281 receives the GNSS signal transmitted from the GNSS satellite Sa, and acquires the absolute time information included in the GNSS signal.
  • the second time acquisition section 281 outputs the acquired absolute time information to the second A/D conversion section 285.
  • the ear sensor 282 uses the electrically conductive first member 22 of the ear tip 22 described above to acquire the user's biological information (fourth biological information) as an electrical signal.
  • the ear sensor 282 outputs the sensed fourth biological information to the second A/D converter 285.
  • the signal acquisition unit 283 acquires an electrical signal of the user's biological information (second biological information) acquired from the biological sensor 6.
  • the signal acquisition unit 283 outputs the acquired second biological information to the second A/D conversion unit 285.
  • the signal acquisition section 283 may be a signal line connected to the wire 112 arranged inside the arm 4 and connected to the second A/D conversion section 285.
  • the ground sensor 284 is a sensor that acquires ground potential information as an electrical signal.
  • the ground sensor 284 is arranged, for example, in the housing 21 or a part of the housing 21.
  • the ground sensor 284 outputs sensed ground potential information to the second A/D converter 285.
  • the second A/D converter 285 samples each piece of information in accordance with the timing of the absolute time information. For example, as a method of matching sampling to the timing of the absolute time information, sampling may be performed in accordance with the absolute time information every time, or sampling may be performed in accordance with the absolute time information at regular timing such as every second.
  • the second A/D conversion section 285 outputs each piece of sampled information to the second communication section 286.
  • the second communication unit 286 transmits the fourth biological information output from the ear sensor 282 and the second biological information output from the signal acquisition unit 283 to the communication terminal M in association with absolute time information.
  • the second communication unit 286 also generates fourth difference information, which is the difference between the fourth biological information output from the ear sensor 282 and the ground potential information output from the ground sensor 284, and associates it with the absolute time information. It may also be transmitted to the communication terminal M.
  • the second communication unit 286 generates second difference information that is the difference between the second biological information output from the signal acquisition unit 283 and the ground potential information output from the ground sensor 284, and generates second difference information that is the difference between the second biological information output from the signal acquisition unit 283 and the ground potential information output from the ground sensor 284, and combines it with absolute time information. It may also be transmitted to the communication terminal M in association. Note that associating absolute time information with each piece of information (eg, adding a timestamp) may be performed by the second A/D converter 285.
  • the second communication unit 286 associates the second biological information or the second difference information with the absolute time information and transmits the correlated information to the communication terminal M over the second channel.
  • the absolute time information associated with the second biological information or the second difference information is synchronized with the timing sensed by the biological sensor 6.
  • the second communication unit 286 associates the fourth biological information or the fourth difference information with the absolute time information and transmits the associated information to the communication terminal M on the fourth channel.
  • the absolute time information associated with the fourth biological information or the fourth difference information is synchronized with the timing sensed by the ear sensor 282.
  • the fourth channel may be the same channel as the second channel or a different channel.
  • each of the above-mentioned biological information or ground potential information includes information sampled by the second A/D converter 285.
  • the first biometric information and the second biometric information have been exemplified as the information acquired from the biosensor 6, only one of them may be transmitted to the communication terminal M.
  • biometric information sensed by the biosensor 6 located on the right side of the center of the headset 1 is input to the signal acquisition section 273 of the first earpiece 2R, and Biometric information sensed by the biosensor 6 located on the left side is input to the signal acquisition unit 283 of the second earpiece 2L.
  • the first communication unit 276 receives the first biological information acquired by the biological sensor 6 of the arm 4 and the third biological information acquired by the ear sensor 272 on the right ear side wearing the first earpiece 2R.
  • the biological information is transmitted to the communication terminal in association with absolute time information. Thereby, the communication terminal can appropriately grasp at what time or timing the biometric information was acquired.
  • the second communication unit 286 transmits the second biological information acquired by the biological sensor 6 of the arm 4 and the second biological information acquired by the ear sensor 282 on the left ear side wearing the second earpiece 2L at an absolute time. Link the information and send it to the communication terminal. Thereby, the communication terminal can appropriately grasp at what time or timing the biometric information was acquired.
  • Earpieces are worn in the ear, so even if multiple sensors are installed in the same earpiece to acquire biological information, there is little potential difference between the signals acquired, and each signal cancels out, making it difficult to improve the accuracy of biological information. .
  • a sensor is provided in each of the different earpieces and biological information is acquired by each sensor, the problem of not being able to secure a potential difference can be solved.
  • biometric information acquired by different earpieces is transmitted to a communication terminal for information processing, a new problem arises in that errors may occur due to communication delays and the like. Therefore, in this embodiment, by associating absolute time information with each piece of biometric information acquired by each earpiece and transmitting it to the communication terminal, errors caused by communication delays are eliminated and accurate biometric information can be acquired while ensuring the potential difference. It is considered possible.
  • the absolute time information included in the GNSS signal is used as an example of the reference time information, but other times may be used as long as they have the accuracy necessary for specifying the time of each biological information acquired by each earpiece.
  • the information can be used as reference time information.
  • the first time acquisition unit 271 and the second time acquisition unit 281 may acquire a signal such that the error in the reference time of each earpiece is 1 ms or less.
  • the reference time information indicates the acquisition time of each piece of biological information, and can also be used as information for synchronizing with each piece of biological information acquired by other earpieces.
  • the reference time information can also be replaced with synchronization information for synchronizing with biological information acquired by other earpieces.
  • the first time acquisition section 271 and the second time acquisition section 281 may function as a synchronization information generation section that generates synchronization information.
  • the first time acquisition unit 271 and the second time acquisition unit 281 may generate identification information (synchronization information) corresponding to the reference time information.
  • the identification information preferably has a smaller amount of data than the reference time information.
  • the headset 1 includes the biosensor 6 that acquires the first biometric information at a different position from the ear sensor 272 of the first earpiece 2R.
  • the first communication unit 276 associates the first biometric information, the third biometric information, and absolute time information, which is an example of reference time information, and transmits them to the communication terminal.
  • the headset 1 includes a biosensor 6 that acquires second biometric information at a different position from the ear sensor 282 of the second earpiece 2L.
  • the second communication unit 286 associates the second biometric information, the fourth biometric information, and absolute time information, which is an example of reference time information, and transmits them to the communication terminal.
  • the biometric information acquired at three different locations is associated with absolute time information and sent from the two earpieces to the communication terminal, so the acquisition time is accurately recorded at the communication terminal using the absolute time information. At least three types of biometric information can be obtained.
  • the communication terminal M processes the first biometric information and the fourth biometric information as the main biometric information and the reference biometric information, respectively, using the absolute time information, and processes the second biometric information and the third biometric information as the main biometric information, respectively.
  • cross processing such as processing as biological information and reference biological information
  • cross reference processing that increases signal components or increases potential difference becomes possible.
  • the first time acquisition unit 271 receives the GNSS signal transmitted from the GNSS satellite Sa and acquires the reference time information including absolute time information
  • the second time acquisition unit 281 receives the GNSS signal transmitted from the GNSS satellite Sa.
  • GNSS signals are received and reference time information including absolute time information is obtained.
  • the first earpiece 2R has the ground sensor 274 that acquires ground potential information at a different position from the ear sensor 272 and the ear sensor 272.
  • the first communication unit 276 associates the first difference information between the first biological information and the ground potential information, the third difference information between the third biological information and the ground potential information, and the reference time information and transmits them to the communication terminal. do.
  • the second earpiece 2L has a ground sensor 284 that acquires ground potential information at a position different from that of the ear sensor 282.
  • the second communication unit 286 associates second difference information between the second biological information and ground potential information, fourth difference information between the fourth biological information and ground potential information, and reference time information, and transmits them to the communication terminal. do.
  • first difference information or the third difference information may be calculated by the first A/D converter 275 as a difference between the first biological information or the third biological information sampled at the same timing and the ground potential information.
  • the second difference information and the fourth difference information may also be calculated by the second A/D converter 285 similarly to the first difference information.
  • the communication terminal M By associating difference information, which is the difference between a potential indicating biological information and an installed potential, with reference time information and transmitting it to the communication terminal, the communication terminal M obtains biological information with improved signal accuracy in association with the reference time. be able to.
  • the first earpiece 2R includes the first A/D converter 275 that samples the third electrical signal measured by the ear sensor 272 based on reference time information
  • the first communication unit 276 includes: The third biological information sampled by the first A/D converter 275 and the reference time information may be associated with each other and transmitted to the communication terminal M.
  • the second earpiece 2L also includes a second A/D converter 285 that samples the fourth electrical signal measured by the ear sensor 282 based on reference time information
  • the second communication unit 286 includes a second A/D converter 285 that samples the fourth electrical signal measured by the ear sensor 282 based on reference time information.
  • the fourth biological information sampled by the conversion unit 285 and the reference time information may be associated with each other and transmitted to the communication terminal M.
  • brain wave information acquired from the ears and head is acquired, but biological information that can be acquired from the human body is estimated from brain wave information or biological information that can be acquired from the ears and head. It is also possible to do so.
  • biological signals that can be obtained from the vicinity of the head include, in addition to electroencephalograms, electro-oculography signals, heartbeat signals from the carotid artery, etc., and myoelectric potential signals from the masseter muscle or temporalis muscle.
  • examples of biological signals that can be obtained from the human body include electrocardiogram signals. These biological information may be measured using a biological sensor that measures the corresponding biological information.
  • an earphone having a pair of earpieces is used as an example of a device that acquires biometric information, but the present disclosure also applies to at least two biometric information measuring devices that measure biometric information at different positions. It is possible to apply technology.
  • one device is one half of the earpiece of the present disclosure, and the other device is, for example, eyewear (glasses) and has a configuration similar to that of the other earpiece of the present disclosure. Further, the two devices are connected by the arm 4 described above.
  • the biological information measuring device includes a first device that is capable of communicating with a communication terminal and is attached to a first predetermined part of the user, and a second device that is capable of communicating with the communication terminal and is attached to a first predetermined part of the user. and a second device attached to the site.
  • the first device includes a first sensor that acquires first biometric information, a first time acquisition section that acquires reference time information, and a first communication that associates the first biometric information and reference time information and transmits them to the communication terminal. It has a section and a.
  • the second device includes a second sensor that acquires the second biological information, a second time acquisition unit that acquires the reference time information, and a second communication device that associates the second biological information and the reference time information and transmits them to the communication terminal. It has a section and a. Further, the two devices are connected by the arm 3 mentioned above. This enables cross-reference signal processing using synchronization technology of each biological information acquired by the two devices and the arm 4. The configuration and processing in the embodiment described above can also be applied to this biological information measuring device.
  • FIG. 9 is a diagram showing a first usage example of the headset 1 in this embodiment.
  • the positioning mechanism 8 is attached to the user's head in a default position.
  • the biological sensor 6 provided on the arm 4 acquires biological information around the median center shown in FIGS. 2 to 4.
  • FIG. 10 is a diagram showing a second usage example of the headset 1 in this embodiment.
  • the positioning mechanism 8 is positioned so that the arm 4 is located in front of the user's head.
  • the biological sensor 6 provided on the arm 4 acquires biological information around the median frontal region shown in FIGS. 2 to 4.
  • FIG. 11 is a diagram showing usage example 3 of the headset 1 in this embodiment.
  • the positioning mechanism 8 is positioned so that the arm 4 is positioned behind the user's head.
  • the biological sensor 6 provided on the arm 4 acquires biological information around the median parietal region shown in FIGS. 2 to 4.
  • the user can position the biosensor 6 at the location of the biometric information he or she wishes to measure.
  • FIG. 12 is a block diagram showing an example of the communication terminal M according to this embodiment.
  • the communication terminal M is constituted by an information processing device, and is, for example, a terminal such as a mobile terminal (such as a smartphone), a computer, or a tablet terminal.
  • the communication terminal M is also referred to as a communication terminal 300.
  • Communication terminal 300 includes one or more processors (e.g., CPUs) 310, one or more network communication interfaces 320, memory 330, user interface 350, and one or more processors for interconnecting these components. Includes a communication bus 370.
  • processors e.g., CPUs
  • the user interface 350 includes a display 351 and an input device 352 (such as a keyboard and/or mouse or some other pointing device). Further, the user interface 350 may be a touch panel.
  • an input device 352 such as a keyboard and/or mouse or some other pointing device. Further, the user interface 350 may be a touch panel.
  • Memory 330 is, for example, a high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state storage, and may also include one or more magnetic disk storage, optical disk storage, flash memory devices, or It may also be a nonvolatile memory such as another nonvolatile solid state storage device.
  • a high speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state storage
  • memory 330 may include one or more storage devices located remotely from processor 310. In some embodiments, memory 330 stores the following programs, modules and data structures, or a subset thereof. Memory 330 may also be a computer readable non-transitory storage medium.
  • One or more processors 310 read and execute programs from the memory 330 as needed. For example, one or more processors 310 may configure an application control unit (hereinafter also referred to as an “application control unit”) 312 by executing a program stored in the memory 330.
  • the application control unit 312 is an application that processes each biological signal, and includes, for example, an application control unit 312, an acquisition unit 313, a specification unit 314, a processing unit 315, and an output unit 316.
  • the acquisition unit 313 acquires each piece of biometric information transmitted from the headset 1 via the network communication interface 320. For example, the acquisition unit 313 acquires the first biological information and the third biological information associated with the reference time information transmitted from the first communication unit 276, or the first difference information and the third difference information associated with the reference time information. Get information in order. Note that the reference time information may be synchronous information.
  • the acquisition unit 313 obtains the second biological information and fourth biological information associated with the reference time information transmitted from the second communication unit 286, or the second difference information and the fourth difference information associated with the reference time information. Get information in order.
  • the reference time information may be synchronous information.
  • the identification unit 314 For each piece of information acquired by the acquisition unit 313, the identification unit 314 uses reference time information (or synchronization information) to identify information acquired at the same timing. For example, the identifying unit 314 individually identifies the first biological information and third biological information transmitted from the first communication unit 276 and the second biological information and fourth biological information transmitted from the second communication unit 286. Each piece of information having the same reference time information is identified using the associated reference time information.
  • reference time information or synchronization information
  • the specifying unit 314 identifies the first difference information and third difference information transmitted from the first communication unit 276 and the second difference information and fourth difference information transmitted from the second communication unit 286, respectively. You may specify each piece of information of the same reference time information using the reference time information associated with the reference time information.
  • the acquisition unit 313 specifies that the identification unit 314 , there is no need to perform the specific processing using the synchronization information described above.
  • the processing unit 315 performs predetermined processing on each piece of biometric information having the same reference time information (or synchronization information).
  • the predetermined processing includes, for example, generating one piece of biometric information using each piece of biometric information, and calculating an average value over a predetermined time for each region.
  • the processing unit 315 may calculate the average value of each piece of biological information, or calculate the average value from the cross-reference information after generating the above-mentioned cross-reference information. Good too.
  • the processing unit 315 may include, as the predetermined process, inputting each piece of biometric information or one piece of biometric information generated by the above-described process into a learned emotion estimation model to estimate the emotion.
  • the learned emotion estimation model may use a known technique.
  • the processing unit 315 may obtain the inference result using a learning model for each predetermined region. For example, since the first biological information and/or the second biological information are biological information of a different part from the third biological information and the fourth biological information, the processing unit 315 The information may be input into a learning model different from the third biometric information and the fourth biometric information. As the learning model, a model desired by the user may be appropriately selected.
  • the processing unit 315 may generate one piece of biometric information using each piece of biometric information, and specify an operation command for a predetermined application based on the generated biometric information. For example, the processing unit 315 may determine an operation command corresponding to a predetermined time-series pattern by referring to time-series data of biological information for a predetermined time.
  • the operation command may be, for example, an operation command for a predetermined media (video, music, etc.) that is being output, an operation command for the communication terminal 300, or an operation command for an external device that is communicating with the communication terminal 300.
  • the output unit 316 outputs the results processed by the processing unit 315. For example, when the processing unit 315 performs emotion estimation using each biological information, the output unit 316 outputs the estimation result to the display 351 as image data, the earpiece 2, etc. as audio data.
  • the output unit 316 may output the specified operation command to the OS of its own device or an external device.
  • FIG. 13 is a flowchart showing an example of processing of the communication terminal 300 in this embodiment.
  • the communication terminal 300 processes biometric information.
  • step S102 the acquisition unit 313 acquires each piece of biological information from the headset 1 worn by the user.
  • the acquisition unit 313 acquires biological information measured by a biological electrode provided on an ear tip of an earphone or biological information measured by a biological electrode provided on the arm 4.
  • each biological information is associated with reference time information.
  • reference time information may be replaced with synchronization information.
  • step S104 the identifying unit 314 uses the reference time signal to identify each piece of biological information sensed (or sampled) at the same timing for each acquired piece of biological information.
  • the specifying unit 314 specifies pieces of biological information having the same reference time signal as a pair.
  • step S106 the processing unit 315 performs a predetermined process on each piece of biological information identified as having the same reference time information.
  • the predetermined processing includes, for example, emotion estimation and operation command determination.
  • step S108 the output unit 316 outputs the processing result by the processing unit 315 to the output destination set according to the processing result. For example, if the processing result is an estimation result of emotion estimation, the output unit 316 outputs the estimation result to the display 351 or the like, and if the processing result is an operation command, the output unit 316 outputs the operation command to the OS or the like.
  • biometric information is transmitted from multiple devices via wireless communication, etc., and different communication delays occur in each device, by using the reference time information (or synchronization information), the same biometric information can be transmitted from multiple devices. It is possible to specify the biological information sensed (or sampled) at the right timing, and it becomes possible to appropriately execute subsequent processing.
  • the moving mechanism 14 When the moving mechanism 14 is provided to move the biosensor 6 in the longitudinal direction with respect to the arm 4, the moving mechanism 14 may be provided with markings that allow identification of which part of the electrode can be measured. For example, numbers 1 to 8 corresponding to the electrode symbols shown in FIG. 4 may be engraved at a predetermined position on the inside of the arm 4 (the side where the biosensor 6 is provided).
  • the user may input into the communication terminal M which part of the biometric information is currently being acquired.
  • the user may be able to select the site being measured from the site name and electrode symbol shown in FIG. 4 displayed on the communication terminal M, or the schematic diagram shown in FIG. 3.
  • the communication terminal M may associate the body part information input by the user with the biological signal acquired from the headset 1.
  • the first A/D converter 275 and the second A/D converter 285 of the headset 1 provide identification information of the biosensor so as to identify which biosensor has measured the biometric information. may be added to the biometric information.
  • the communication terminal M becomes able to identify and process biometric information for each biosensor.
  • the first time acquisition section 271 and the second time acquisition section 281 are not necessarily required. Further, the first A/D converter 275 and the second A/D converter 285 may be provided in the communication terminal M.
  • the ear sensors 272, 282 and/or the ground sensor 274 provided on the earpiece 2 are not necessarily required. In this case, information acquired from one of the plurality of biosensors 6 provided on the arm 4 may be used as ground potential information.
  • the sound output device 2 may be of a headphone type instead of an earpiece type. Further, the sound output device 2 may be a device that does not output sound and can fix the position of the arm 4.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

ヘッドセットは、ドライバユニットを含む一対の音出力デバイスと、一対の音出力デバイスを互いに接続するアームと、アームに備えられ、アームが使用者の頭部の前後方向に移動して位置決めする位置決め機構と、アームに備えられ、使用者の頭部に接触して生体情報を取得する生体センサと、を備える。

Description

ヘッドセット
 開示技術は、ヘッドセットに関する。
 従来、生体信号センサを備えたオーディオヘッドセットが知られている。例えば、生体信号センサを備えたオーディオヘッドセットは、通常のヘッドホンのアームとは別部材のアームを設け、別部材のアームの生体センサによりユーザの額の生体信号を取得することが開示されている(例えば特許文献1参照)。
特表2011-514745号公報
 しかしながら、従来の生体信号センサを備えたオーディオヘッドセットは、通常のヘッドホンのアームとは別部材のアームを設けたり、額の脳波信号を取得したりするが、簡便に頭部の各部位の脳波を取得することができなかった。
 そこで、開示技術は、簡便に頭部の各部位の脳波を取得することができるヘッドセットを提供することを目的とする。
 開示技術の一態様におけるヘッドセットは、ドライバユニットを含む一対の音出力デバイスと、前記一対の音出力デバイスを互いに接続するアームと、前記アームに備えられ、前記アームが使用者の頭部の前後方向に移動して位置決めする位置決め機構と、前記アームに備えられ、前記使用者の頭部に接触して生体情報を取得する生体センサと、を備える。
 開示技術によれば、簡便に頭部の各部位の脳波を取得することができる。
本実施形態におけるヘッドセットの一例を示す斜視図である。 10-20法により電極を配置して各脳波信号を取得する場合の上面図の一例を示す図である。 10-20法により電極を配置して各脳波信号を取得する場合の側面図の一例を示す図である。 10-20法の電極記号と部位名称とを示す図である。 本実施形態におけるアームに配置される生体センサの断面図である。 本実施形態におけるイヤーピースの外観形状の一例を示す図である。 図6のIV-IV断面を示す断面図である。 本実施形態におけるヘッドセットの処理構成の一例を示す図である。 本実施形態におけるヘッドセットの使用例1を示す図である。 本実施形態におけるヘッドセット1の使用例2を示す図である。 本実施形態におけるヘッドセット1の使用例3を示す図である。 本実施形態に係る通信端末の一例を示すブロック図である。 本実施形態における通信端末の処理の一例を示すフローチャートである。
 以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、開示技術は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
 [実施形態]
 以下、実施形態におけるヘッドセットの一例を、図面を用いて説明する。
 <ヘッドセットの構成>
 まず、図1を用いて、実施形態におけるヘッドセットの構成の一例について説明する。図1は、本実施形態におけるヘッドセット1の一例を示す斜視図である。
 図1において、ヘッドセット1は、一対の音出力デバイス2R,2Lと、一対の音出力デバイス2R、2Lを互いに接続するアーム4と、アーム4に備えられ、アーム4が使用者の頭部の前後方向に移動して、前記アーム4を位置決めする位置決め機構8R,8Lと、アーム4に備えられ、使用者の頭部に接触して生体情報を取得する生体センサ6と、マイクセット10と、アーム4の長手方向の長さを調節する一対の長さ調節機構12R,12Lと、生体センサ6の位置を移動させる移動機構14とを備える。なお、マイクセット10と、調節機構12R,12Lと、移動機構14とは、ヘッドセット1に必ずしも必要な構成ではない。
 図1では、音出力デバイス2R,2Lとしてイヤーピース(又はイヤホン)を用いる例を示すが、通常のヘッドホンタイプのイヤーパッドやハウジングを有するデバイスから音を出力してもよい。以下、左右のRL表記について、左右を区別しない場合はRL表記を省略する。例えば、左右を区別しない位置決め機構は、位置決め機構8と表記される。
 図1に示す構成によれば、位置決め機構8R,8Lにより、生体センサ6を含むアーム4の一部分を使用者の頭部の前後方向に移動させることが可能になる。これにより、使用者の頭部の前頭前野から後頭葉までの各部において、生体センサ6を位置決めすることが可能になり、所望位置での生体情報(例、脳波信号)を取得することができる。また、位置決め機構8R,8Lはアーム4の一部として設けられるため、生体センサ6を位置決めするための別部材は不要であり、ヘッドセット1のコスト削減を図ることか可能になる。また、図1に示す構成によれば、音出力デバイス2R,2Lの装着をサポートするアーム4に、生体センサ6と位置決め機構8R,8Lとを有するため、通常のオーディオヘッドセットと同様の外観になり、使用時の心理的負担を軽減することなどが可能である。
 また、位置決め機構8R,8Lは、アーム4の長手方向の略中心位置から各音出力デバイス2R,2Lまでの間であって、各音出力デバイス2R,2Lの側の所定位置に一対に設けられてもよい。例えば、位置決め機構8R,8Lは、各音出力デバイス2R,2Lの端部とアーム4との接続部位、又はこの端部から延伸する延伸部分とアーム4との接続部位に設けられてもよい。位置決め機構8R,8Lは、アーム4の角度を調整可能な機構であればいずれの機構が用いられてもよい。また、位置決め機構8R,8Lは必ずしも同じ機構ではなく、それぞれ異なる機構や別の位置に設けられてもよい。
 上記構成により、アーム4のうち、使用者の頭部に沿う楕円状の大部分を、使用者の頭部の前後方向に形状を変えずに移動させることができ、使用者に違和感なくアーム4を移動させて生体センサ6を位置決めすることが可能になる。
 また、一対の位置決め機構8R,8Lのうち、少なくとも1つは蛇腹機構を含んでもよい。なお、一対の位置決め機構8R,8Lの片方を蛇腹機構とする場合、他方は、角度調整可能であるロック機構を有するヒンジなどでもよい。より好ましくは、一対の位置決め機構8R,8Lの両方を蛇腹機構にするとよい。蛇腹機構は、頭部の前後方向などに、アーム4を任意の角度に安定して位置決めすることが可能になる。
 上記構成により、位置決め機構8R,8Lとして蛇腹機構を用いることで、使用者によりアーム4の生体センサ6の位置を自由に調整して位置決めすることができるようになる。
 また、一対の長さ調節機構12R,12Lは、例えばスライド機構などを有し、アーム4の長手方向の長さを調整する。これにより、使用者の頭部の形状に合わせて、アーム4の生体センサ6を頭部に適切に接触させることが可能になる。
 また、アーム4は、アーム4の長手方向における生体センサ6の位置を変更する移動機構14を有してもよい。例えば、移動機構14は、生体センサ6をアーム4の長手方向に沿ってスライドするスライド機構や、生体センサ6を一度取り外して、任意の所定位置に取り付ける着脱機構などでもよい。
 着脱機構として、例えば、篏合したり、ねじ止めしたりする一対の構造のうちの片方の構造が、アーム4内の複数の位置に配置されてもよい。生体センサ6は、篏合したり、ねじ止めしたりする一対の着脱構造のうちの他方の構造を有する。生体センサ6の他方の構造は、アーム4の所定位置に配置された片方の構造に装着されることで、生体センサ6は位置決めされる。また、生体センサ6は、アーム4に装着されると、後述するアーム4内部のワイヤ112に導通される。
 また、図1に示す例では、生体センサ6は1つであるが、任意の数の生体センサ6を追加して、複数の生体センサ6が複数の所定位置で複数の生体信号を取得してもよい。
 ここで、図2乃至図4を用いて、実施形態におけるヘッドセット1の生体センサ6により取得可能な生体情報の一例としての脳波信号(EEG:electroencephalogram)を説明する。図2は、10-20法により電極を配置して各脳波信号を取得する場合の上面図の一例を示す図である。図3は、10-20法により電極を配置して各脳波信号を取得する場合の側面図の一例を示す図である。図4は、10-20法の電極記号と部位名称とを示す図である。
 図1に示す例によれば、生体センサ6は、アーム4の長手方向の中心位置に設けられており、アーム4は、位置決め機構8により使用者の頭部の前後方向に移動して位置決め可能である。この位置決め機構8により、生体センサ6は、図2及び図4に示す正中前頭部の電極Fz、正中中心部の電極Cz、正中頭頂部Pzの各電極に相当することが可能である。
 また、上述した移動機構14により、生体センサ6は、使用者の頭部の左右方向にも移動することが可能になる。この移動機構14により、生体センサ6は、例えば図3及び図4に示す前頭部の電極F3,F4、中心部の電極C3,C4、頭頂部の電極P3,P4、後頭部の電極O1,O2の各電極等に相当することが可能である。
 また、アーム4に複数の生体センサ6を設けることで、複数の生体センサ6は、例えば図3及び図4に示す前頭部の電極F3及びF4、中心部の電極C3及びC4、頭頂部の電極P3及びP4、又は後頭部の電極O1及びO2等の左右の両電極からの各生体情報に対応する各生体情報を同じタイミングで取得することなどが可能になる。
 <生体センサの構成>
 図5は、本実施形態におけるアーム4に配置される生体センサ6の断面図である。図5は、図1に示す生体センサ6の中心を含むV-V断面を示す図である。図5に示す生体センサ6は、例えば、弾性を有する生体電極102と、ネジA104と、導電性部材から構成されるスペーサ106と、ネジB108とを有する。
 図5に示す例では、生体電極102は、例えば導電性樹脂で形成され、1又は複数の凸状部と、円筒部とを含む。1又は複数の凸状部(図1に示す例では3つ)が、使用者の毛髪に絡みつつ頭部に接触するため、この生体電極102の形状は、アーム4に配置される生体センサ6の位置ずれ防止につながる。なお、図5に示す例では、生体電極102の3つの凸状部のうちの1つの断面が図示されている。生体電極102の円筒部の内部には、生体電極102のX方向の略中心位置(円筒部の円の略中心点)から鉛直Z方向にスペーサ106が設けられる。
 スペーサ106は、導電性の材料で形成され、例えば、黄銅スペーサを含む。スペーサ106は、生体電極102に接触している。例えば、図5に示す例では、スペーサ106のZ2方向の下面が生体電極102に接触することで導通している。なお、スペーサ106の側面も生体電極102に接触してもよい。
 ネジA104は、生体電極102の円筒部のZ2方向の中心孔から、Z1方向に回転されてスペーサ106にねじ止めされ、生体電極102とスペーサ106とを固定する。ネジA104は、例えば低頭ネジであり、導電性を有してもよい。
 ネジB108は、生体電極102の円筒部のZ1方向の中心孔から、Z2方向に回転されてスペーサ106にねじ止めされ、アーム4と生体センサ6とを固定する。ネジB108は、例えば黄銅の皿ネジであり、導電性を有する。
 弾性部材110は、生体センサ6(又は生体電極102)とアーム4との間に設けられる。弾性部材110は、緩衝材としての機能を有する。弾性部材110は、生体電極102の凸状部が使用者の頭皮に接触する際、任意の位置が変形したりし、凸状部が多少揺れ動いて生体電極102の凸状部が位置決めされることを可能にする。弾性部材110は、例えば、弾性を有する樹脂や、スポンジのような多孔質材料により形成されてもよい。また、弾性部材110は、円筒形状をしており、弾性部材110の中心孔の内壁は、生体電極102の移動幅を大きくするため、スペーサ106に接触しなくてもよい。
 弾性部材110が生体センサ6とアーム4との間に設けられることにより、生体電極102が揺動して頭皮に接触することで頭皮へのフィット感が増し、生体電極102が適切に頭皮に接触することで、生体情報を精度よく測定することが可能になる。
 アーム4は、内部に導電性のワイヤ112が配置される。ワイヤ112は、ネジB108の頭部部分と導通可能なように接続される。ネジB108は、例えば黄銅の皿ネジである。これにより、皿ネジの頭部の上面の平らな部分がワイヤ112に接触し、ワイヤ112との接触面積を広くすることができ、導電性を安定させることが可能である。また、アーム4は移動機構14を含まない場合、ネジB108の頭部とワイヤ112とを半田結合してもよい。なお、ワイヤ112は、両側のイヤーピース2内部に配置される基板に接続されてもよいし、第1イヤーピース2R又は第2イヤーピース2Lのいずれかに接続されてもよい。
 図5に示す生体センサ6によれば、生体電極102の凸状部が頭皮に接触して生体情報を検知する。検知された生体情報は、生体電極102の凸状部、円筒部、スペーサ106、ネジB108、ワイヤ112と順に伝達されることで、ワイヤ112の先にある基板等に生体情報を伝達することが可能になる。なお、生体センサ6の構成は、図5に示す例に限られず、生体電極102を用いて検知された生体情報が、有線又は無線で所定の装置又は基板等に送信される構成を有していればよい。また、生体センサ6は、生体電極を有する電極パッド等でもよい。
 <音出力デバイスの構成>
 続いて、図6および図7を参照しながら、音出力デバイス2R,2Lについて説明する。本実施形態における音出力デバイス2R,2Lは、イヤーピースを例にして説明するため、以下、第1イヤーピース2R,第2イヤーピース2Lとも表記する。
 まず、イヤーピースの外観形状および各センサの配置態様の一例について説明する。図6は、本実施形態におけるイヤーピースの外観形状の一例を示す図である。図7は、図6のIV-IV断面を示す断面図である。第1イヤーピース2Rと第2イヤーピース2Lとは、左右の耳に入れるのに適した形態が異なるのみで基本的な構造は共通しているので、第1イヤーピース2Rを例にとって説明する。
 第1イヤーピース2Rは、ハウジング21を備える。ハウジング21は、内部に空洞を有する部材であり、この空洞部分には、スピーカを含むドライバユニット24およびバッテリ25が収容されている。また、イヤーチップ22は、ハウジング21から突出したノズル26に取り付けられている。
 ノズル26は、筒状部材の一端にフランジを形成したような形状を有している。具体的には、ノズル26は、第1イヤーピース2Rの装着時に着用者の外耳道に位置付けられる筒状部31と、ハウジング21に固定されたフランジ部32と、第1方向Xに筒状部31及びフランジ部32のそれぞれの内部をつなぐ音導部33と、を有している。
 筒状部31は、ハウジング21から突出するように第1方向Tに延在しており、筒状部31の先端側には、イヤーチップ22を着脱可能に係止するための係止突起35が形成されている。フランジ部32は、筒状部31の基端側に形成されている。音導部33は、ドライバユニット24からの音が通る通路として機能する。このようなノズル26は、剛体として形成されている。この特性を有する限り、ノズル26を形成する材料は限定されるものではないが、一例としては、硬質のABS樹脂を挙げることができる。
 ハウジング21は、ノズル26のフランジ部32を固定したノズル固定部40と、ノズル固定部40からノズル26とは反対側に延びて且つノズル固定部40よりも拡張した拡張部42と、を備えている。ノズル固定部40は、ノズル26の筒状部31を挿通させる開口50と、ノズル26のフランジ部32に当接して開口50からのノズル26の抜け落ちを規制する規制部52と、規制部52と拡張部42との間をつなぐ部分であってフランジ部32を囲う囲繞部54と、を有している。ノズル固定部40におけるノズル26の固定は、例えば、フランジ部32を囲繞部54に嵌め込むことで行うこともできるし、フランジ部32を規制部52又は囲繞部54に接着することで行うこともできる。
 拡張部42は、全体として、ノズル固定部40から離れるにつれて徐々に拡張するように形成されている。拡張部42の内部には、ノズル26側にドライバユニット24が収容されていると共に、このドライバユニット24の収容部分よりも拡大したところにバッテリ25が収容されている。また、拡張部42は、拡張が終了する端部42aに配線用の開口60を有している。この開口60を通じて、ドライバユニット24及びバッテリ25が基板70に配線接続されている。また、開口60は、第1イヤーピース2Rの組み立ての際にドライバユニット24及びバッテリ25をハウジング21内に入れるのにも使われる。
 拡張部42は、拡張が終了する端面42bが平坦面に形成されている。端面42bには、基板70を固定したプレート72が載置されていると共に、基板70及びプレート72を覆うカバー74が取り付けられている。基板70には、無線通信を行うためのアンテナが設けられている。アンテナは、例えば、Bluetooth(登録商標)などの無線通信の規格に対応している。したがって、第1イヤーピース2Rは、ワイヤレスのイヤホンとして構成されており、モバイル端末、ラップトップなどの機器と無線で接続され、これら機器と音などのデータを通信する。基板70には、第1時刻取得部271及び第1通信部276等が設けられている。
 カバー74の周面に嵌め込まれる環状の取付け部80が設けられる。取付け部80のZ1方向の端部は、アーム4に接続されている。カバー74及び取付け部80は、ハウジング21の一部として表記されてもよい。
 イヤーチップ22は、導電性を有する第1部材22Aと、第2部材22Bとにより形成されている。例えば、第1部材22Aと第2部材22Bとは異なる素材により形成され、それぞれ着脱可能である。なお、第1部材22Aの形状は、図6,7に示す例に限られず、使用者の外耳道の内壁に接触する部分があり、この接触部分が外耳道に適切に接するような構成であればよい。また、この接触部分の表面積は大きい方が好ましい。
 イヤーチップ22は、鼓膜側に位置する第1部材22Aと、ハウジング21側に位置する第2部材22Bとを含む。第1部材22Aは、例えば、導電性ゴムにより作成され、この導電性ゴムには、銀又は塩化銀が含有される。好ましくは、適切な導電性を確保するため、銀又は塩化銀を、導電性ゴムに含まれる導電性物質の所定質量%以上を含有させる。
 第1部材22Aは、金属系フィラーを含むシリコン素材で形成されてもよい。例えば、第1部材22Aは、金属系フィラーとして、銀、銅、金、アルミニウム、亜鉛、ニッケル等をシリコン素材に適切に配合することで導電性の高い素材を作成することができる。また、含有されるフィラーの全てを銀又は塩化銀にする必要はなく、フィラーの一部が銀又は塩化銀であればよい。これにより、銀又は塩化銀の含有率を減らせるため、ゴムの硬度を下げて、適度な硬度の導電性ゴムを作成することができる。
 第2部材22Bは、安価な非導電性の弾性体(例えばシリコンゴムなど)で形成されることが好ましい。
 ハウジング21又はハウジング21の一部は、例えば、導電性ゴムにより作成され、この導電性ゴムには、銀又は塩化銀が含有される。好ましくは、適切な導電性を確保するため、銀又は塩化銀を、導電性ゴムに含まれる導電性物質の所定質量%以上を含有させる。
 ハウジング21又はハウジング21の一部は、金属系フィラーを含むシリコン素材で形成されてもよい。例えば、第1部材22Aは、金属系フィラーとして、銀、銅、金、アルミニウム、亜鉛、ニッケル等をシリコン素材に適切に配合することで導電性の高い素材を作成することができる。また、含有されるフィラーの全てを銀又は塩化銀にする必要はなく、フィラーの一部が銀又は塩化銀であればよい。これにより、銀又は塩化銀の含有率を減らせるため、ゴムの硬度を下げて、適度な硬度の導電性ゴムを作成することができる。
 上記のように構成することで、イヤーチップ22の第1部材22A、及びハウジング21の少なくとも1部は、導電性を有する。本実施形態に示す例では、第1部材22Aを生体電極の耳センサ272として使用し、ハウジング21は、生体電極のグランドセンサ274として使用するが、この例に限られない。また、ハウジング21の導電性の素材と、第1部材22Aの導電性の素材とは、それぞれ同じでもよいし、異なってもよい。また、第1部材22Aの導電性を、ハウジング21の導電性よりも高くしてもよい。
 <ヘッドセットの処理構成>
 図8は、本実施形態におけるヘッドセット1の処理構成の一例を示す図である。図8に示す例では、音出力デバイス2は、第1イヤーピース2Rと、第2イヤーピース2Lとを備える。第1イヤーピース2Rは、使用者の右耳に装着される。第2イヤーピース2Lは、使用者の左耳に装着される。第1イヤーピース2Rおよび第2イヤーピース2Lは、スマートホンMと通信可能なように構成される。
 スマートホンMは、ヘッドセット1とは異なる外部の通信端末の一例である。第1イヤーピース2Rおよび第2イヤーピース2Lは、GNSS(Global Navigation Satellite System)衛星Sa等から送信されるGNSS信号を受信可能なように構成される。
 第1イヤーピース2Rは、第1時刻取得部271、耳センサ272、信号取得部273、グランドセンサ274、第1A/D変換部275、および第1通信部276を備える。
 第1時刻取得部271は、GNSS衛星Saから送信されるGNSS信号を受信し、GNSS信号に含まれる絶対時刻情報を取得する。第1時刻取得部271は、取得した絶対時刻情報を第1A/D変換部275に出力する。第1時刻取得部271は、例えばGPS(Global Positioning System)チップを含む。
 生体センサである耳センサ272は、上述したイヤーチップ22の導電性を有する第1部材22を用いて、使用者の耳に接触して生体情報(第3生体情報)を電気信号として取得する。耳センサ272は、センシングした生体情報(第3生体情報)を第1A/D変換部275に出力する。
 信号取得部273は、生体センサ6から取得される使用者の生体情報(第1生体情報)の電気信号を取得する。信号取得部273は、取得された第1生体情報を第1A/D変換部275に出力する。また、信号取得部273は、アーム4の内部に配置されたワイヤ112に接続され、第1A/D変換部275に接続される信号線でもよい。
 グランドセンサ274は、接地電位情報を電気信号として取得するセンサである。グランドセンサ274の配置位置については、例えばハウジング21、又はハウジング21の一部とする。グランドセンサ274は、センシングした接地電位情報を第1A/D変換部275に出力する。
 第1A/D変換部275は、絶対時刻情報のタイミングに合わせて各情報のサンプリングを行う。例えば、サンプリングを絶対時刻情報のタイミングに合わせる方法として、毎回絶対時刻情報に合わせてサンプリングしてもよいし、一秒ごとなどの定期的なタイミングで絶対時刻情報に合わせてサンプリングしてもよい。第1A/D変換部275は、サンプリングした各情報を第1通信部276に出力する。
 第1通信部276は、耳センサ272から出力される第3生体情報および信号取得部273から出力される第1生体情報を、それぞれ絶対時刻情報と関連付けて通信端末Mに送信する。また、第1通信部276は、耳センサ272から出力される第3生体情報とグランドセンサ274から出力される接地電位情報との差分である第3差分情報を生成し、絶対時刻情報と関連付けて通信端末Mに送信してもよい。
 同様に、第1通信部276は、信号取得部273から出力される第1生体情報とグランドセンサ274から出力される接地電位情報との差分である第1差分情報を生成し、絶対時刻情報と関連付けて通信端末Mに送信してもよい。なお、各情報に絶対時刻情報を関連付ける(例、タイムスタンプを付与する)ことは、第1A/D変換部275で行われてもよい。
 上述した例において、第1通信部276は、第1生体情報または第1差分情報と絶対時刻情報とを関連付けて第1チャンネルで通信端末Mに送信する。第1生体情報または第1差分情報と関連付けられる絶対時刻情報は、生体センサ6がセンシングしたタイミングと同期される。
 また、第1通信部276は、第3生体情報または第3差分情報と絶対時刻情報とを関連付けて第3チャンネルで通信端末Mに送信する。第3生体情報または第3差分情報と関連付けられる絶対時刻情報は、耳センサ272がセンシングしたタイミングと同期される。なお、第3チャンネルは、第1チャンネルと同じチャンネルでも異なるチャンネルでもよい。また、上述した各生体情報又は接地電位情報は、第1A/D変換部275によりサンプリングされた情報を含む。
 第2イヤーピース2Lは、第2時刻取得部281、耳センサ282、信号取得部283、グランドセンサ284、第2A/D変換部285および第2通信部286を備える。
 第2時刻取得部281は、GNSS衛星Saから送信されるGNSS信号を受信し、GNSS信号に含まれる絶対時刻情報を取得する。第2時刻取得部281は、取得した絶対時刻情報を第2A/D変換部285に出力する。
 耳センサ282は、上述したイヤーチップ22の導電性を有する第1部材22を用いて、使用者の生体情報(第4生体情報)を電気信号として取得する。耳センサ282は、センシングした第4生体情報を第2A/D変換部285に出力する。
 信号取得部283は、生体センサ6から取得される使用者の生体情報(第2生体情報)の電気信号を取得する。信号取得部283は、取得された第2生体情報を第2A/D変換部285に出力する。また、信号取得部283は、アーム4の内部に配置されたワイヤ112に接続され、第2A/D変換部285に接続される信号線でもよい。
 グランドセンサ284は、接地電位情報を電気信号として取得するセンサである。グランドセンサ284の配置位置については、例えばハウジング21、又はハウジング21の一部とする。グランドセンサ284は、センシングした接地電位情報を第2A/D変換部285に出力する。
 第2A/D変換部285は、絶対時刻情報のタイミングに合わせて各情報のサンプリングを行う。例えば、サンプリングを絶対時刻情報のタイミングに合わせる方法として、毎回絶対時刻情報に合わせてサンプリングしてもよいし、一秒ごとなどの定期的なタイミングで絶対時刻情報に合わせてサンプリングしてもよい。第2A/D変換部285は、サンプリングした各情報を第2通信部286に出力する。
 第2通信部286は、耳センサ282から出力される第4生体情報および信号取得部283から出力される第2生体情報を、それぞれ絶対時刻情報と関連付けて通信端末Mに送信する。また、第2通信部286は、耳センサ282から出力される第4生体情報とグランドセンサ284から出力される接地電位情報との差分である第4差分情報を生成し、絶対時刻情報と関連付けて通信端末Mに送信してもよい。
 同様に、第2通信部286は、信号取得部283から出力される第2生体情報とグランドセンサ284から出力される接地電位情報との差分である第2差分情報を生成し、絶対時刻情報と関連付けて通信端末Mに送信してもよい。なお、各情報に絶対時刻情報を関連付ける(例、タイムスタンプを付与する)ことは、第2A/D変換部285で行われてもよい。
 上述した例において、第2通信部286は、第2生体情報または第2差分情報と絶対時刻情報とを関連付けて第2チャンネルで通信端末Mに送信する。第2生体情報または第2差分情報と関連付けられる絶対時刻情報は、生体センサ6がセンシングしたタイミングと同期されている。
 また、第2通信部286は、第4生体情報または第4差分情報と絶対時刻情報とを関連付けて第4チャンネルで通信端末Mに送信する。第4生体情報または第4差分情報と関連付けられる絶対時刻情報は、耳センサ282がセンシングしたタイミングと同期されている。なお、第4チャンネルは、第2チャンネルと同じチャンネルでも異なるチャンネルでもよい。また、上述した各生体情報又は接地電位情報は、第2A/D変換部285によりサンプリングされた情報を含む。
 なお、生体センサ6から取得される情報として、第1生体情報と第2生体情報とを例に挙げたが、いずれか一つのみが通信端末Mに送信されるようにしてもよい。また、生体センサ6が複数ある場合は、ヘッドセット1の中央より右側に位置する生体センサ6によりセンシングされる生体情報が、第1イヤーピース2Rの信号取得部273に入力され、ヘッドセット1の中央より左側に位置する生体センサ6によりセンシングされる生体情報が、第2イヤーピース2Lの信号取得部283に入力される。
 上述した構成によれば、第1通信部276は、アーム4の生体センサ6により取得される第1生体情報と、第1イヤーピース2Rを装着した右耳側の耳センサ272により取得される第3生体情報とを、絶対時刻情報を関連付けて通信端末に送信する。これにより、通信端末においてはどの時刻又はどのタイミングにおいて取得された生体情報なのかを適切に把握することができる。
 第2通信部286は、アーム4の生体センサ6により取得される第2生体情報と、第2イヤーピース2Lを装着した左耳側の耳センサ282により取得される第2生体情報とを、絶対時刻情報を関連付けて通信端末に送信する。これにより、通信端末においてはどの時刻又はどのタイミングにおいて取得された生体情報なのかを適切に把握することができる。
 イヤーピースは耳に装着するものなので、同一のイヤーピース内で生体情報を取得するセンサを複数設けても、取得する信号の電位差が少なく各信号が打ち消しあって生体情報としての精度を向上することが難しい。一方、異なるイヤーピースそれぞれにセンサを設け、それぞれのセンサによって生体情報を取得すれば電位差が確保できない問題は解消されうる。しかしながら、異なるイヤーピースにおいて取得した生体情報を通信端末に送信して情報処理を行おうとすれば、通信遅延等によって誤差が発生してしまうという新たな課題がある。そこで本実施形態では、各イヤーピースで取得する生体情報それぞれに絶対時刻情報を関連付けて通信端末に送信することで、通信遅延に起因する誤差を解消し、電位差を確保した正確な生体情報の取得を可能なものとしている。
 なお、本実施形態では基準時刻情報の一例としてGNSS信号に含まれる絶対時刻情報を用いたが、各イヤーピースで取得する各生体情報の時刻特定に必要な精度を有していれば、他の時刻情報を基準時刻情報として用いることができる。例えば、それぞれのイヤーピースの基準時刻の誤差が1ms以下となるような信号を第1時刻取得部271及び第2時刻取得部281が取得してもよい。また、基準時刻情報は、各生体情報の取得時刻を示すとともに、他のイヤーピースにより取得される各生体情報との同期をとるための情報としても利用することができる。
 なお、基準時刻情報は、他のイヤーピースにより取得される生体情報との同期をとるための同期情報に代替することも可能である。この場合、第1時刻取得部271及び第2時刻取得部281は、同期情報を生成する同期情報生成部として機能してもよい。例えば、第1時刻取得部271及び第2時刻取得部281は、基準時刻情報に対応する識別情報(同期情報)を生成してもよい。なお、識別情報は基準時刻情報よりもデータ量が少ないとよい。
 上記説明したように、ヘッドセット1は、第1イヤーピース2Rの耳センサ272とは異なる位置で、第1生体情報を取得する生体センサ6を有している。第1通信部276は、第1生体情報と第3生体情報と基準時刻情報の一例としての絶対時刻情報とを関連付けて通信端末に送信する。
 また、ヘッドセット1は、第2イヤーピース2Lの耳センサ282とは異なる位置で、第2生体情報を取得する生体センサ6を有している。第2通信部286は、第2生体情報と第4生体情報と基準時刻情報の一例としての絶対時刻情報とを関連付けて通信端末に送信する。
 このようにすることで、3つの異なる位置で取得された生体情報に絶対時刻情報を関連付けて2つのイヤーピースから通信端末に送信するので、通信端末においては、絶対時刻情報によって取得時刻が正確に記録された生体情報を少なくとも3つ取得することできる。
 例えば、通信端末Mは、絶対時刻情報を用いて、第1生体情報と第4生体情報とをそれぞれメイン生体情報、リファレンス生体情報として処理し、第2生体情報と第3生体情報とをそれぞれメイン生体情報、リファレンス生体情報として処理するといった交差処理を行うことで、信号成分を増やしたり、又は電位差を増加させたりするクロスリファレンス処理が可能となる。
 上記説明したように、第1時刻取得部271はGNSS衛星Saから送信されるGNSS信号を受信して絶対時刻情報を含む基準時刻情報を取得し、第2時刻取得部281はGNSS衛星Saから送信されるGNSS信号を受信して絶対時刻情報を含む基準時刻情報を取得する。
 上記説明したように、第1イヤーピース2Rは、耳センサ272及とは異なる位置で接地電位情報を取得するグランドセンサ274を有している。第1通信部276は、第1生体情報と接地電位情報との第1差分情報と、第3生体情報と接地電位情報との第3差分情報と、基準時刻情報とを関連付けて通信端末に送信する。
 第2イヤーピース2Lは、耳センサ282とは異なる位置で接地電位情報を取得するグランドセンサ284を有している。第2通信部286は、第2生体情報と接地電位情報との第2差分情報と、第4生体情報と接地電位情報との第4差分情報と、基準時刻情報とを関連付けて通信端末に送信する。
 なお、第1差分情報又は第3差分情報は、第1A/D変換部275により、同タイミングでサンプリングされた第1生体情報又は第3生体情報と接地電位情報との差分が算出されてもよい。第2差分情報や第4差分情報も、第1差分情報と同様に、第2A/D変換部285により算出されてもよい。
 生体情報を示す電位と設置電位との差分である差分情報を基準時刻情報と関連付けて通信端末に送信することで、通信端末Mは、信号精度を高めた生体情報を基準時刻と関連付けて取得することができる。
 上記説明したように、第1イヤーピース2Rは、耳センサ272により測定される第3電気信号を基準時刻情報に基づいてサンプリングする第1A/D変換部275を有し、第1通信部276は、第1A/D変換部275によりサンプリングされた第3生体情報と基準時刻情報とを関連付けて通信端末Mに送信してもよい。
 また、第2イヤーピース2Lは、耳センサ282により測定される第4電気信号を基準時刻情報に基づいてサンプリングする第2A/D変換部285を有し、第2通信部286は、第2A/D変換部285によりサンプリングされた第4生体情報と基準時刻情報とを関連付けて通信端末Mに送信してもよい。
 これにより、中央及び左右のサンプリングタイミングを合わせることができ、中央及び左右の生体情報をより適切に同期させることが可能になる。例えば、各生体情報に正確なタイムスタンプを付与していたとしても、中央及び左右のセンサによるサンプリングのタイミングが同期していなければ、中央及び左右の生体情報で適切に同期をとることが難しくなる。しかし、中央及び左右のサンプリングのタイミングを基準時刻情報に基づいて合わせることで、この問題は解消する。なお、第1生体情報、第2生体情報、及び各接地電位情報においても基準時刻情報に基づいてサンプリングのタイミングを合わせるとよい。
 上述した本実施形態では、耳や頭部から取得される脳波情報(脳波信号)を取得するが、人体から取得可能な生体情報を、耳や頭部から取得可能な脳波情報又は生体情報から推定することも可能である。具体例として、頭部付近から取得可能な生体信号は、脳波以外に、眼電位信号、頸動脈等からの心拍信号、咬筋又は側頭筋からの筋電位信号などがある。また、人体から取得可能な生体信号として、例えば心電図信号などがある。これらの生体情報は、対応する生体情報を測定する生体センサを用いて測定されればよい。
 上述した本実施形態では、生体情報を取得するデバイスとして、一対のイヤーピースを有するイヤホンを一例にして説明したが、それぞれ異なる位置で生体情報を測定する少なくとも2つの生体情報測定デバイスでも、本開示の技術を適用することは可能である。例えば、1つのデバイスは、本開示のイヤーピースの片方であり、他方のデバイスは、例えばアイウエア(メガネ)であり、本開示の他方のイヤーピースの構成と同様の構成を有する。また、2つのデバイスは、上述したアーム4により接続される。
 上記例によれば、生体情報測定装置は、通信端末と通信可能であって使用者の第1所定部位に装着される第1デバイスと、通信端末と通信可能であって使用者の第2所定部位に装着される第2デバイスと、を備える。第1デバイスは、第1生体情報を取得する第1センサと、基準時刻情報を取得する第1時刻取得部と、第1生体情報と基準時刻情報とを関連付けて通信端末に送信する第1通信部と、を有する。第2デバイスは、第2生体情報を取得する第2センサと、基準時刻情報を取得する第2時刻取得部と、第2生体情報と基準時刻情報とを関連付けて通信端末に送信する第2通信部と、を有する。また、2つのデバイスは、上述したアーム3により接続される。これにより、2つのデバイスとアーム4とにより取得される各生体情報の同期技術を活用したクロスリファレンス信号処理を可能にする。この生体情報測定装置についても、上述した実施形態における構成及び処理を適用することが可能である。
 <使用例>
 図9乃至図11を用いて、ヘッドセット1の使用例を説明する。図9は、本実施形態におけるヘッドセット1の使用例1を示す図である。図9に示す例では、位置決め機構8は、デフォルトの位置の状態で使用者の頭部に装着される。図9に示す例では、アーム4に設けられる生体センサ6は、図2乃至図4に示す正中中心部周辺における生体情報を取得する。
 図10は、本実施形態におけるヘッドセット1の使用例2を示す図である。図10に示す例では、位置決め機構8は、アーム4が使用者の頭部の前方の位置に来るように位置決めされている。図10に示す例では、アーム4に設けられる生体センサ6は、図2乃至図4に示す正中前頭部周辺における生体情報を取得する。
 図11は、本実施形態におけるヘッドセット1の使用例3を示す図である。図11に示す例では、位置決め機構8は、アーム4が使用者の頭部の後方の位置に来るように位置決めされている。図11に示す例では、アーム4に設けられる生体センサ6は、図2乃至図4に示す正中頭頂部周辺における生体情報を取得する。
 上述したとおり、使用者は、自ら位置決め機構8を操作することで、測定したい生体情報の部位に生体センサ6を配置することが可能になる。
 <通信端末の構成>
 図12は、本実施形態に係る通信端末Mの一例を示すブロック図である。通信端末Mは、情報処理装置により構成され、例えば、携帯端末(スマートフォンなど)、コンピュータ、タブレット端末などの端末である。通信端末Mは、通信端末300とも表記する。
 通信端末300は、1つ又は複数のプロセッサ(例、CPU)310、1つ又は複数のネットワーク通信インタフェース320、メモリ330、ユーザインタフェース350及びこれらの構成要素を相互接続するための1つ又は複数の通信バス370を含む。
 ユーザインタフェース350は、ディスプレイ351及び入力装置(キーボード及び/又はマウス又は他の何らかのポインティングデバイス等)352を備える。また、ユーザインタフェース350は、タッチパネルでもよい。
 メモリ330は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。
 また、メモリ330の他の例は、プロセッサ310から遠隔に設置される1つ又は複数の記憶装置を挙げることができる。ある実施例において、メモリ330は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。また、メモリ330はコンピュータ読み取り可能な非一時的な記憶媒体でもよい。
 1つ又は複数のプロセッサ310は、メモリ330から、必要に応じてプログラムを読み出して実行する。例えば、1つ又は複数のプロセッサ310は、メモリ330に格納されているプログラムを実行することで、アプリケーションの制御部(以下「アプリ制御部」とも称す。)312を構成してもよい。このアプリ制御部312は、各生体信号を処理するアプリケーションであり、例えば、アプリ制御部312、取得部313、特定部314、処理部315、出力部316を有する。
 取得部313は、ヘッドセット1から送信された各生体情報を、ネットワーク通信インタフェース320を介して取得する。例えば、取得部313は、第1通信部276から送信された基準時刻情報が関連付けられた第1生体情報及び第3生体情報、又は、基準時刻情報が関連付けられた第1差分情報及び第3差分情報を順に取得する。なお、基準時刻情報は同期情報でもよい。
 また、取得部313は、第2通信部286から送信された基準時刻情報が関連付けられた第2生体情報及び第4生体情報、又は、基準時刻情報が関連付けられた第2差分情報及び第4差分情報を順に取得する。なお、基準時刻情報は同期情報でもよい。
 特定部314は、取得部313により取得された各情報について、基準時刻情報(又は同期情報)を用いて、同じタイミングで取得された情報を特定する。例えば、特定部314は、第1通信部276から送信された第1生体情報及び第3生体情報と、第2通信部286から送信された第2生体情報及び第4生体情報とについて、それぞれに関連付けられた基準時刻情報を用いて、同じ基準時刻情報の各情報を特定する。
 同様に、特定部314は、第1通信部276から送信された第1差分情報及び第3差分情報と、第2通信部286から送信された第2差分情報及び第4差分情報とについて、それぞれに関連付けられた基準時刻情報を用いて、同じ基準時刻情報の各情報を特定してもよい。また、取得部313は、ヘッドセット1の生体センサ6、耳センサ272、282から取得された各生体情報が、ヘッドセット1により同期されてまとめられた情報として取得される場合、特定部314は、上述の同期情報を用いた特定処理を行う必要はない。
 処理部315は、同じ基準時刻情報(又は同期情報)を有する各生体情報に対して、所定の処理を行う。所定の処理は、例えば、各生体情報を利用して1つの生体情報を生成したり、部位ごとの所定時間の平均値を算出したりすることを含む。各生体情報から1つの生体情報が生成される場合、処理部315は、各生体情報の平均値を求めてもよいし、上述したクロスリファレンス情報を生成した後にクロスリファレンス情報から平均値を求めてもよい。
 また、処理部315は、所定の処理として、各生体情報又は上述の処理により生成された1つの生体情報を、学習済みの感情推定モデルに入力して感情を推定したりすることを含んでもよい。学習済みの感情推定モデルは、公知の技術を用いてもよい。
 また、処理部315は、所定部位ごとの学習モデルを利用して、推論結果を取得してもよい。例えば、第1生体情報及び/又は第2生体情報は、第3生体情報及び第4生体情報とは異なる部位の生体情報であるため、処理部315は、第1生体情報及び/又は第2生体情報を、第3生体情報及び第4生体情報とは異なる学習モデルに入力してもよい。学習モデルは、使用者が所望するモデルが適宜選択されてもよい。
 また、処理部315は、所定の処理として、各生体情報を利用して1つの生体情報を生成し、生成された生体情報に基づき所定のアプリケーションに対する操作コマンドを特定してもよい。例えば、処理部315は、所定時間の生体情報の時系列データを参照して、所定の時系列パターンに対応する操作コマンドを判定してもよい。操作コマンドは、例えば、出力中の所定のメディア(動画、音楽など)に対する操作コマンドでもよいし、通信端末300に対する操作コマンドでもよいし、通信端末300と通信中の外部装置に対する操作コマンドでもよい。
 出力部316は、処理部315により処理された結果を出力する。例えば、出力部316は、処理部315により各生体情報を用いて感情推定がされた場合、推定結果を、画像データとしてディスプレイ351や、音声データとしてイヤーピース2等に出力する。
 また、出力部316は、処理部315により操作コマンドが特定された場合、特定された操作コマンドを自装置のOSや、外部装置に出力してもよい。
 <処理手順>
 次に、本実施形態における通信端末300の動作について説明する。図13は、本実施形態における通信端末300の処理の一例を示すフローチャートである。図13に示す例では、通信端末300が、生体情報を処理する例について説明する。
 ステップS102において、取得部313は、使用者に装着されたヘッドセット1から、各生体情報を取得する。例えば、取得部313は、イヤホンのイヤーチップに設けられる生体電極により測定される生体情報や、アーム4の生体電極により測定される生体情報を取得する。このとき、各生体情報には、基準時間情報が関連付けられている。以下、基準時間情報は、同期情報に読み替えてもよい。
 ステップS104において、特定部314は、取得された各生体情報に対して、基準時間信号を用いて、同じタイミングでセンシング(又はサンプリング)された各生体情報を特定する。例えば、特定部314は、同じ基準時間信号を有する各生体情報をペアとして特定する。
 ステップS106において、処理部315は、同じ基準時間情報を有するとして特定された各生体情報に対して所定の処理を実行する。所定の処理は、例えば、感情推定や操作コマンド判定などを含む。
 ステップS108において、出力部316は、処理部315により処理結果を、処理結果に応じて設定された出力先に出力する。例えば、処理結果が感情推定の推定結果であれば、出力部316は推定結果をディスプレイ351等に出力し、処理結果が操作コマンドであれば、出力部316は操作コマンドをOS等に出力する。
 以上の処理によれば、無線通信等で複数のデバイスから各生体情報が送信され、それぞれのデバイスで異なる通信遅延等が生じたとしても、基準時間情報(又は同期情報)を用いることで、同タイミングでセンシング(又はサンプリング)された生体情報を特定することができ、後段の処理を適切に実行することが可能になる。
 以上、具体例を参照しつつ本実施形態について説明した。しかし、本開示はこれらの具体例に限定されるものではない。これら具体例に、当業者が適宜設計変更を加えたものも、本開示の特徴を備えている限り、本開示の範囲に包含される。前述した各具体例が備える各要素およびその配置、条件、形状などは、例示したものに限定されるわけではなく適宜変更することができる。前述した各具体例が備える各要素は、技術的な矛盾が生じない限り、適宜組み合わせを変えることができる。
 例えば、以下の変形例が挙げられる。
 <変形例1>
 アーム4に対して長手方向に生体センサ6が移動するように移動機構14が設けられる場合、移動機構14に、どの部位の電極が測定可能か識別できる表記がなされてもよい。例えば、アーム4の内側(生体センサ6が設けられる側)の所定位置に、図4に示す電極記号に対応する番号の1~8を刻印等してもよい。
 上記に対応し、使用者は、今どの部分の生体情報を取得しているかを、通信端末Mに入力してもよい。例えば、使用者は、通信端末Mに表示される図4に示す部位名称、電極記号、又は図3に示す模式図から、測定中の部位を選択できるようにするとよい。このとき、通信端末Mは、使用者により入力された部位に関する情報と、ヘッドセット1から取得される生体信号とを関連付けてもよい。また、ヘッドセット1の第1A/D変換部275及び第2A/D変換部285は、生体情報に対してどの生体センサにより測定された情報であるかを識別できるように、生体センサの識別情報を生体情報に付与してもよい。
 以上の処理により、使用者はどの部分で測定すればよいかを容易に把握することができる。また、通信端末Mは、生体センサごとの生体情報を特定して処理することが可能になる。
 <変形例2>
 ヘッドセット1から通信端末Mに生体情報を伝達する方法が有線の場合、必ずしも第1時刻取得部271及び第2時刻取得部281は必要ではない。また、第1A/D変換部275及び第2A/D変換部285は、通信端末Mに設けられてもよい。
 <変形例3>
 イヤーピース2に設けられる耳センサ272,282及び/又はグランドセンサ274は、必ずしも必要ではない。この場合、アーム4に設けられる複数の生体センサ6のうちの1つの生体センサ6から取得される情報を接地電位情報とすればよい。
 <変形例4>
 また、上述したとおり、音出力デバイス2は、イヤーピース型ではなくヘッドホン型でもよい。また、音出力デバイス2は、音を出力せず、アーム4の位置を固定できるようなデバイスでもよい。
1 ヘッドセット
2 音出力デバイス
2R:第1イヤーピース
2L:第2イヤーピース
4 アーム
6 生体センサ
8 位置決め機構
12 スライド機構
14 移動機構
21:ハウジング
22:イヤーチップ
24:ドライバユニット
25:バッテリ
26:ノズル
42:拡張部
60:開口
70:基板
272,282:耳センサ
274,274:グランドセンサ
Sa:衛星

Claims (9)

  1.  ドライバユニットを含む一対の音出力デバイスと、
     前記一対の音出力デバイスを互いに接続するアームと、
     前記アームに備えられ、使用者の頭部の前後方向に移動して前記アームを位置決めする位置決め機構と、
     前記アームに備えられ、前記使用者の頭部に接触して生体情報を取得する生体センサと、
     を備えるヘッドセット。
  2.  前記位置決め機構は、
     前記アームの中心位置から各音出力デバイスまでの間であって、前記各音出力デバイスの側の所定位置に一対に設けられる、請求項1に記載のヘッドセット。
  3.  前記一対の位置決め機構のうち、少なくとも1つは蛇腹機構を含む、請求項1に記載のヘッドセット。
  4.  前記アームと前記生体センサとの間に設けられる弾性部材をさらに備える、請求項1に記載のヘッドセット。
  5.  前記一対の音出力デバイスは、前記使用者の各耳に接触して生体情報を取得する各生体センサを備える、請求項1に記載のヘッドセット。
  6.  前記一対の音出力デバイスに備えられる前記各生体センサは、外耳道に接触して生体情報を取得することを含む、請求項5に記載のヘッドセット。
  7.  前記アームに備えられる前記生体センサと、前記一対の音出力デバイスに備えられる前記各生体センサとにより測定される各生体情報を、有線通信又は無線通信により外部装置に送信する通信部をさらに備える請求項5に記載のヘッドセット。
  8.  前記通信部は、
     同期情報が付与された各生体情報を前記外部装置に送信することを含む、請求項7に記載のヘッドセット。 
  9.  前記アームは、
     当該アームの長手方向における前記生体センサの位置を変更する移動機構を有する請求項1から8のいずれか一項に記載のヘッドセット。
PCT/JP2023/012658 2022-03-31 2023-03-28 ヘッドセット WO2023190592A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022059181 2022-03-31
JP2022-059181 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023190592A1 true WO2023190592A1 (ja) 2023-10-05

Family

ID=88201877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/012658 WO2023190592A1 (ja) 2022-03-31 2023-03-28 ヘッドセット

Country Status (1)

Country Link
WO (1) WO2023190592A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118401A (ja) * 2006-11-02 2008-05-22 Keiichi Uchiyama ヘッドホン
JP2018504719A (ja) * 2014-11-02 2018-02-15 エヌゴーグル インコーポレイテッド スマートオーディオヘッドホンシステム
JP2019000405A (ja) * 2017-06-15 2019-01-10 パナソニックIpマネジメント株式会社 脳波計
US20200029881A1 (en) * 2016-09-29 2020-01-30 Mindset Innovation Inc. Biosignal headphones
CN110897638A (zh) * 2018-09-14 2020-03-24 比亚迪股份有限公司 可调节的穿戴装置及脑电波采集设备
CN113456088A (zh) * 2021-08-04 2021-10-01 赵项 一种多动症儿童用脑电采集装置及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118401A (ja) * 2006-11-02 2008-05-22 Keiichi Uchiyama ヘッドホン
JP2018504719A (ja) * 2014-11-02 2018-02-15 エヌゴーグル インコーポレイテッド スマートオーディオヘッドホンシステム
US20200029881A1 (en) * 2016-09-29 2020-01-30 Mindset Innovation Inc. Biosignal headphones
JP2019000405A (ja) * 2017-06-15 2019-01-10 パナソニックIpマネジメント株式会社 脳波計
CN110897638A (zh) * 2018-09-14 2020-03-24 比亚迪股份有限公司 可调节的穿戴装置及脑电波采集设备
CN113456088A (zh) * 2021-08-04 2021-10-01 赵项 一种多动症儿童用脑电采集装置及方法

Similar Documents

Publication Publication Date Title
US20230070490A1 (en) Multifunctional earphone system for sports activities
US11871172B2 (en) Stand-alone multifunctional earphone for sports activities
CN210835473U (zh) 耳戴式电极结构以及穿戴式生理感测装置
US11583215B2 (en) Generic ear device with electrodes
CN101933805B (zh) 耳廓安装设备和生物信号测量装置
Jin et al. Enabling individualized virtual auditory space using morphological measurements
WO2009100654A1 (en) Ear-worn eeg monitoring device
US20170112444A1 (en) Bio-signal sensor
Pisha et al. A wearable, extensible, open-source platform for hearing healthcare research
JP7343160B2 (ja) 生体情報測定装置及び生体情報測定システム
US20240122526A1 (en) Minimal material ear sensor system
WO2023190592A1 (ja) ヘッドセット
JP7361428B2 (ja) イヤホン
WO2019225244A1 (ja) 生体信号取得用電極、生体信号取得用電極対及び生体信号測定システム
CN210019326U (zh) 入耳式脑电采集装置
US20220394396A1 (en) Control of parameters of hearing instrument based on ear canal deformation and concha emg signals
CN112753231A (zh) 包括传感器的听力装置以及包括听力装置的听力系统
WO2023062669A1 (ja) イヤホン及び生体情報測定装置
WO2021205422A1 (en) Multi-body earpiece
JP7394502B1 (ja) イヤホン
JP2023152839A (ja) 生体電位計測システム
CN218772357U (zh) 一种耳机
US20220386048A1 (en) Methods and systems for assessing insertion position of hearing instrument
Paul In-Ear Electrophysiology for Unobtrusive Auditory Brain-Machine Interfaces
CN210043993U (zh) 心电检测装置和系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780601

Country of ref document: EP

Kind code of ref document: A1