WO2009156145A1 - Hearing aid apparatus, and hearing aid method - Google Patents

Hearing aid apparatus, and hearing aid method Download PDF

Info

Publication number
WO2009156145A1
WO2009156145A1 PCT/EP2009/004567 EP2009004567W WO2009156145A1 WO 2009156145 A1 WO2009156145 A1 WO 2009156145A1 EP 2009004567 W EP2009004567 W EP 2009004567W WO 2009156145 A1 WO2009156145 A1 WO 2009156145A1
Authority
WO
WIPO (PCT)
Prior art keywords
wearer
acoustic signal
hearing aid
optical information
acoustic
Prior art date
Application number
PCT/EP2009/004567
Other languages
German (de)
French (fr)
Inventor
Simon Thiele
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Publication of WO2009156145A1 publication Critical patent/WO2009156145A1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/009Teaching or communicating with deaf persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F11/00Methods or devices for treatment of the ears or hearing sense; Non-electric hearing aids; Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense; Protective devices for the ears, carried on the body or in the hand
    • A61F11/04Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense, e.g. through the touch sense
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/06Hearing aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels

Definitions

  • the present invention relates to a hearing aid, such as a hearing aid. a hearing aid for the deaf or hearing impaired.
  • a visual hearing aid in the form of spectacles, wherein the visual hearing aid is an aid for speech perception for the deaf and hard of hearing people, that stimulates the sound visual canal with a sound visualization, so that the wearer of the glasses the learning of a sound speech perception over the visual channel would be possible.
  • a representation is favored, according to which the volume is mapped to the brightness and a frequency-to-location assignment is used.
  • two powerful microphones are mounted, which are preferably provided on the back of the carrying handle, so that they are as close as possible to the ear canal end when carrying, ie at the natural sound receiving opening of the person. It is also a stereo operation in connection with a spectacle-shaped display described in which the sound from the right and left microphone is processed separately for each eye, ie right for right and left for left.
  • the US 4,972,486 also describes a pair of glasses, are displayed in the icons that represent automatically recognized phonemes. It also shows that the display can be superimposed on the normal field of view.
  • the former has the disadvantage that the stereo operation proposed there requires dpm brain: to analyze the visualized sound-speech perception so precisely in real-time that a spatial impression is also created. If it is even possible for the hearing to achieve such an externalization, then this is obviously accompanied by a high effort for the wearer of the glasses, which is likely to quickly tire the wearer, so that a visualized "directional hearing” is scarcely possible or even impossible.
  • the latter two solutions do not go into any visualized or tactile "directional hearing” at all. Therefore, it would also be desirable to have a hearing aid scheme that allows or facilitates direction-sensitive "listening".
  • the object of the present invention is to provide a hearing aid which can be used for a wider group of people, can be used with less effort and / or fewer dangers and / or enables a more cost-effective implementation while also facilitating directional sensitivity for sound or made possible in the first place.
  • a finding of the present invention is that a hearing improvement can be achieved with less effort, with less danger in the application and, if applicable, with a broader applicability, if it is not attempting to "eradicate" the residual hearing ability of the person in question or by an implant to address the otherwise useless nerve endings of the auditory sense of perception, but instead acoustic signals are detected and used to address one and / or several other perceptual senses of the person concerned, such as the visual, haptic, olfactory or guild perception, and thus on this "detour" to help the user to an improved hearing.
  • a further realization of the present invention is that the human brain is able to learn complex facts or to associate associations between the most diverse perceptions, so that the human brain is in particular able to acquire speech information in a different way than via the human brain auditory perception organ. Especially with permanent stimulation of one or more of the other non- auditive perception of the human being as a function of acoustic signals, the brain may be able to extract speech information from this stimulation.
  • a further realization of the present invention is that one possibility for the non-invasive but permanent stimulation of a perception organ other than the auditory perceptive organ is to use a pair of spectacles as the basis for the stimulation of visual perception as a function of acoustic signals .
  • the wearing of glasses is accepted in society and a wearer of glasses is therefore not unpleasant.
  • the acousto-dependent stimulation of the visual perception via a pair of spectacles therefore makes possible a permanent application and thus makes it possible, in particular, for the human brain to adapt to the acquisition of language by means of the optical stimulation.
  • the lack of the need for an invasive procedure opens up the possibility of use in a larger group of people and this also without possible side effects or dangers.
  • the device for detecting the acoustic signal comprises a plurality of acoustic sensors which are offset from one another when projected into the horizontal plane while the user is standing upright, a direction being determined from the output signals of the acoustic sensors the acoustic signal comes from, and this direction is used to vary the stimulation of the other senses depending on the direction, so that the user can conclude from the variation on the direction of the acoustic signal. In this way it is possible for the user to experience the direction of acoustic signals despite hearing loss or even hearing loss.
  • the output signals of a plurality of acoustic sensors are evaluated in order to determine the direction from which the acoustic signal originates, whereby Consequently, a directional filtering is performed depending on the detected direction, for example, to increase the signal / noise ratio of the detected acoustic signal, wherein the corresponding filtered acoustic signal is used to stimulate the other senses of perception.
  • the optical information is encoded in a color coded in the view of the wearer, which depends on the detected direction, the acoustic sensors are arranged, for example, at the transverse ends of the spectacle frame.
  • a further realization of the present invention is to have realized that using one or more of the above-mentioned approaches it is also possible to facilitate a directional sensitivity for sound, such as in the case of a police officer, avalanche searcher or the like in one Use, or even to allow, as in the case of a deaf.
  • direction-indicating information is therefore superimposed in the view of a spectacle wearer.
  • the direction determination can, as mentioned above, be made possible by the appropriate arrangement of microphones.
  • the insertion of the direction-indicating information can also be carried out in addition to the insertion of the optical information dependent on the detected acoustic signal.
  • vibrators or other haptic actuators are arranged on earrings or hearing aids for binaural hearing aid and are depending on the detected direction, from which a detected sound signal comes, different driven, such as stronger on the side from which the signal comes, For example, a frequency of a pulse-like drive could be used to indicate an angle relative to the sagittal axis.
  • FIG. 2 shows a block diagram of a hearing aid device according to a further exemplary embodiment
  • FIG. 3 shows a hearing aid device according to another
  • Figure 4 is a schematic representation of a hearing aid glasses according to an embodiment
  • FIG. 5 shows an exemplary representation of a spectrogram of an acoustic signal
  • Figure 6 is an exemplary representation of a temporal intensity curve of an acoustic signal
  • FIG. 7 shows a schematic drawing of a field of view of a spectacle wearer with a visual aid inserted Information dependent on detected acoustic signals according to an embodiment
  • FIG. 8 shows a three-panel image of a hearing aid with multiple acoustic sensors according to an embodiment
  • FIG. 9 shows a block diagram of a hearing aid device with a plurality of acoustic sensors according to an exemplary embodiment
  • FIG. 10 shows a block diagram of a hearing aid device with a plurality of acoustic sensors according to a further exemplary embodiment.
  • FIG. 11a and 11b are schematic drawings of a field of view of a spectacle wearer with information displayed in direction indicating according to various embodiments;
  • FIG. 12 shows a schematic illustration of a hearing aid device that is integrated in earrings, according to an exemplary embodiment
  • FIG. 13 shows a schematic illustration of a hearing aid device which allows directional sensitivity for hearing aids, according to an exemplary embodiment.
  • FIG. 1 shows a hearing aid device 10 with a detection device 12 for detecting acoustic signals and a stimulation device 14.
  • the stimulation device 14 is coupled to the detection device 12 in order to receive the detected acoustic signals from the same.
  • the stimulation device 14 uses the detected acoustic signals Signals to other perception senses 16 as the auditory perception 18 of a user 20 depending on the detected acoustic signals stimulate.
  • the person 20 is allowed to "experience" an auditory signal 22 originating from an acoustic source 24, namely via the detour the acoustic detection device 12 and the stimulation device 14, in that the latter converts the acoustic signal 22 detected by the detection device 12 into a stimulation of one or more of the other perception senses 16 in a suitable manner.
  • the user's brain 20 may learn speech recognition based on this "detour pacing".
  • the other sensory senses 16 are different from the auditory perception 18 and include, for example, the visual, haptic, olfactory or gustatory perception of the user 20.
  • the detection device 12 and the stimulation device 14 can be accommodated in a pair of glasses which the user 20 can wear on a daily basis.
  • the stimulation device 14 comprises, for example, a piezo-element which is intended to be worn or fastened to the skin of the user.
  • an implantation would be possible.
  • the use of combinations of detours is also conceivable.
  • the detection device 12 may include one or more acoustic sensors.
  • the detection device 12 can be connected to the stimulation device 14 in a wired or cordless manner in a communicative manner.
  • the detection sung device 12 is carried by the user 20 elsewhere, such as. B. on the ear or in the ear canal itself.
  • FIG. 2 shows that the detection device 12 can comprise one or more acoustic sensors 12a or 12b and that the stimulation device can optionally also include a processing device 14b in addition to an actuator 14a.
  • the actuator 14a comprises, for example, an LCD, OLED, LED or CCD display, the image of which is imaged onto the retina of the user 20 via suitable optics or which is activated in such a way that it when the user's eye is a-coded to a distant object despite positioning in the lens plane, a sharp image of the optical information, which depends on the detected acoustic signal, results on the user's retina.
  • the actuator 14a in the case of stimulating the user's haptic perception, includes a stylus tip, such as a stylus. B. a piezoelectrically operated probe tip.
  • the actuator 14a for example, consist of a number of Piezoele- elements. Electrical irritation of the skin is also possible.
  • FIG. 2 shows by way of example also the possibility that both the output signal of each acoustic sensor 12a or 12b and the input signal or control signal of the actuator 14a are digital.
  • the actuator 14a is designed so that it allows a maximum number of actuator adjustment options per unit time, so that he total with a maximum uncompressed data rate R 2 is controllable.
  • the two data rates are the same.
  • the data rates can also be different.
  • the data rate R 2 is, for example, more than 10 percent of the data rate Ri.
  • a processing device 14b can be arranged between the actuator 14a and the detection device 12.
  • this processing device 14b can be a spectrally weighting filter which, for example, weakens less important acoustic frequencies.
  • the actuator 14a may be adjusted with a control signal corresponding to the temporal intensity profile of the acoustic signal 22 or a filtered version thereof.
  • the processing device 14b can be designed such that the mapping of possible sensor output signals of the sensor or sensors 12 to the maximum number of actuator setting options is surjective.
  • the processing means 14b may also be arranged to convert the amount of information contained in the acoustic signal 22 into a more compact signal based on semantic analysis.
  • the processing means comprises a feature extractor 30, a database 32, and optionally a processor 34.
  • the feature extractor 34 is adapted to extract features from the incoming detected acoustic signal, and to extract characteristics from a table 36 in FIG to look up the database 32 which has entries 38 which associate features 40 with information 42.
  • the features 40 may be phonemes, in which case the information 42 associated with the lookup table 36 may be the corresponding phoneme indices.
  • a further look-up table could be provided to look up the sequence of phonemes thus obtained in a further look-up table which assigns phoneme sequences a sequence of words in alphanumeric representation.
  • the feature extractor 30 forms a fingerprint from the detected acoustic signal, such as a piece of music or an alarm signal, for example using the Look up fingerprint in the look-up table, and by this look up information 42 about it indicating what kind of audio signal it is, such as siren, etc., or what piece of music is the acoustic signal.
  • the optionally downstream processor 34 may be provided to appropriately translate the information 42 obtained by the lookup into the stimulation of the non-auditory sense of perception.
  • the processor 34 may comprise, for example, a graphics processor which, for example, fades in an alphanumeric character which has been read from the database 32 onto the retina of the hearing impaired person.
  • FIG. 4 shows a hearing aid device which has a pair of spectacles 50, an acoustic detection device 52 with, for example, a plurality of acoustic sensors 52a, 52b and 52c and an insertion device 54.
  • the acoustic sensors 52a-52c are distributed over the glasses 50 on the same.
  • the insertion device 54 is designed so that it is capable, upon accommodation of an eye of the user (not shown) through the spectacle lenses 56 of the spectacles 50 on a sharp plane 58 behind the spectacle lenses 56 for the user's eye optical information 60, which suitably depends on the detected acoustic signal detected by the acoustic sensors 52a-52c.
  • FIG. 4 shows by way of example that the optical information 60 can be a temporal intensity profile of the acoustic signal, this and alternative exemplary embodiments being explained in more detail below.
  • the fader 54 uses the detected acoustic signal.
  • the hearing aid glasses according to FIG. 4 make it possible to perceive acoustic signals 22 with the help of the eye.
  • the insertion device optically displays the acoustic signal 22, as recorded by the device 52 or the acoustic sensors 52a-52c, on an inner side of the lenses 56, for example with the aid of an intensity over time Signal, as explained with reference to FIG.
  • the acoustic sensors 52a-52c record an acoustic signal and pass it on to the insertion device, which then reproduces the signal in a manner that makes sense for the recipient or wearer of the spectacles 50 on the inside of the spectacles 50.
  • this is exemplary for a time-over-intensity signal for the German-language sentence "The Free Encyclopedia" shown.
  • spectacles such as those described on the website www. lumos-optical.com is described.
  • the various possible variations described above with reference to FIGS also apply to the embodiment of Figure 4 apply.
  • the three acoustic sensors instead of the three acoustic sensors, only one acoustic sensor, such as only the centrally located acoustic sensor 52b is used, or alternatively only two acoustic sensors, such as the acoustic sensors 52a and 52c located at the lateral ends of the spectacle frame ,
  • the acoustic sensors 52a-52c may be wired or wirelessly coupled to the fader 54.
  • the insertion device 54 can be completely accommodated in the spectacles 50 or only partially.
  • the fader 54 includes a display such as an optic which images the image of the display sharply on the retina of the wearer.
  • the fade-in device 54 may have a display which, for example in the non-active state, is transparent or optically transparent and is arranged in the spectacle lens plane.
  • the fader 54 includes a display on one of the major sides of the lenses 56, the display being suitably driven to display a crisp image of the optical information that depends on the detected acoustic signals.
  • the fader 54 may optionally include a processing device, a look-up table and / or have a processor, the latter also being able to be arranged outside the glasses in order to be worn by the user elsewhere.
  • processor it may be configured to execute software that implements the functionality described herein.
  • the software may be stored in an associated memory, optionally together with data such as the aforementioned look-up tables or reference references mentioned below, which memory may also be located in or external to the goggle and also rewritable, write-once and can only be formed readable.
  • acoustic signals by the insertion device 54 there are various possibilities, for which embodiments are presented below.
  • One possible presentation would be the use of speech recognition, such as by means of speech recognition software, in the fade-in device 54, with the aid of which words obtained by speech analysis are projected onto the spectacles or imaged onto the retina of the spectacle wearer, which reflect the content of the acoustic signal.
  • FIG. 5 shows an example of such a time-over-intensity depiction or temporal information.
  • intensity course From the temporal representation of the intensity profile of the acoustic signal, the brain of the spectacle wearer is able to recognize by a learning process different linguistic patterns in the acoustic signals and finally to form them into words and sentences. In this depiction, the brain of the user or of the spectacle wearer would thus learn to recognize words on the basis of the illustrated temporal intensity representation, just as one would a new language learns.
  • FIG. 5 shows an example of such a time-over-intensity depiction or temporal information.
  • FIG. 5 shows, for example, the temporal intensity profile diagram for four consecutively spoken articulated words / delusion /, / course /, / tooth / and / Lahn /, wherein it can clearly be seen that the individual temporal intensity progressions despite the Distinguish similarity of phonemes clearly.
  • Figure 5 illustrates that similar sounding words can be distinguished in this approach.
  • An advantage of the temporal intensity profile representation according to FIG. 5 is therefore also that the spectacle wearer could perceive sounds other than words, such as a bang or a horn. This meant for the hearing impaired persons who use glasses according to Figure 4, a higher level of safety in dangerous situations.
  • FIG. 6 Another example of a representation, which is superimposed by the insertion device 54 into the view of the spectacle wearer depending on the detected acoustic signals, is shown in FIG.
  • FIG. 6 for example, a frequency-over-time representation of the acoustic signal is superimposed on the user's view, wherein, for example, the degree of shading or the color at a specific position of the spectrogram reflects the intensity of the signal.
  • the advantage of using the spectrogram over the temporal intensity profile representation according to FIG. 5 is that the information density is higher, so that the recipient may be provided with a more accurate decoding of the semantic content of the acoustic signal than by merely displaying the temporal intensity profile according to FIG 5.
  • the insertion device fades the visual representation of the detected acoustic signal into the view of the spectacle wearer in such a way that the smallest possible influence on the visual field of the spectacle wearer is ensured.
  • the optical information signal in the field of view at the bottom, as indicated in FIG. 7, which shows an exemplary field of view limited by the spectacle frame in which a field 70 is located in the lower section, into which the fader 54 fades in the optical information.
  • the fader 54 for example, inserts alpha-numeric characters into the field 70 representing the content of the acoustic signal or a temporal intensity profile of the acoustic signal as in FIG. 5 or a spectrogram of the acoustic signal as in FIG static with an intermittent abrupt change of content in the field 70, or the optical fader 54 fades in the visual representation of the detected acoustic signal scrolling from one side of the panel 70 so that the optical representation disappears at the opposite end of the panel 70, wherein the scrolling speed may be in accordance with the normal progression of time.
  • the fade-in device 54 could be designed to display optical information obtained continuously from the detected audio signal in the field 70.
  • the fader 54 could be configured to allow the user to switch between a fade-in mode of FIG. 7 and a standard goggle mode in which the field of view is not affected by the field 70 and the fade-in of the optical information is inhibited, for example by manual actuation of a corresponding input device on the spectacles, such as a button or the like (not shown). shows) .
  • the fader 54 could be configured to automatically switch between such a normal and fade mode, for example by analyzing the detected acoustic signal itself. Further, a fade-in mode other than that shown in FIG. 7 would also be possible.
  • the optical information representing the content of the acoustic signal may be superimposed so as to occupy the entire field of view of the spectacle wearer, in which case the spectacle wearer sees nothing during the fade-in mode except for the optical representation of the acoustic Signals, but for example, manually switch to normal glasses mode, if he just wants.
  • the hearing aid glasses according to Figure 4 could be any sounds of nature, road traffic and other potentially dangerous environments perceived and thus banned as a danger.
  • the device of Figure 4 could also be used, for example, to facilitate the learning of languages.
  • the insertion device 54 is for example able to be operated in a slightly modified operating mode.
  • the fade-in device fades, for example, an optical representation of a previously detected word, such as 7th, e-. the word articulated to a mother, until the child or spectacle wearer has said the word in a sufficiently precise manner, such as in terms of form and intensity.
  • the user could learn language despite possible hearing damage or hearing impairment.
  • a just-indicated learning mode could for example be configured as follows.
  • the insertion device 54 could be designed to visually represent acoustic signals detected in the normal operating mode in one of the manners described above. In particular, it could be designed to use one of the time-resolved representations according to, for example, FIGS. 5 and 6 in order to optically convert the acoustic signals.
  • the fader 54 could then be converted into a learning mode, in which the same acoustically utterances of the user next to or in a superimposed manner with pre-stored optical representations visually displays, so that the user can recognize deviations between the pre-stored representation and the visual representation of what he voiced or spoken by his eye.
  • the pre-stored optical representation may have been obtained in a recording mode in which the fader 54 is for example displaceable in a similar manner as in the Lprnipodus.
  • a one-time default storage of such reference representations could also be provided.
  • a temporal reference intensity profile could thus be displayed, for example in the view of the user during the learning mode, for example above or below the currently recorded temporal intensity profile.
  • the temporal alignment of the two representations could be realized by the fader 54 by correlation of the two intensity profiles, in which, for example, it selects the temporal relative position which leads to the best correlation.
  • the superimposition device 54 superimposes the two intensity profiles and For example, highlights the differences in color or otherwise. In this way, the user can tell if he spoke too loudly or indistinctly.
  • the fade-in device 54 firstly displays a word to be repeated in alpha-numeric characters and then the visual representation of the user's speech as just described simultaneously with the previously stored reference display displays. In this case, the fade-in device 54 provides, for example, a number of repetitions of the retransmission, before proceeding to the next word in this way.
  • the fader 54 In a slightly modified learning mode, it would also be possible for the fader 54 to provide the user with various visual representations of different acoustic signals that the user may be making
  • the fade-in device 54 successively fades in different semantic but not word-wise articulated signals, such as signal horns, horns, sirens or other characteristic unspoken audio signals, or words optically, which the user is to recognize, the user assuming his guess or
  • the fade-in device 54 could then fade in the correctness or incorrectness of the conjecture subsequently into the user's view, for example by suspending it in accordance with FIG s semantic content of the user answered and compared with the actually displayed in the optical representation of the word or signal.
  • a user could also first learn "optical hearing" by having the spectator sequentially fade the user into pre-stored representations of words that the user should then recognize, similar to vocabulary learning.
  • the user could thus be helped by means of a software running on the hearing aid to learn how to handle the hearing glasses.
  • a learning process could be realized, which instructs the user to learn words, to learn to estimate the volume and detect danger signals in, for example, background noise.
  • FIG. 8 this is illustrated, for example, in the case of two acoustic sensors which are arranged along the spectacle frame 80 made of spectacle frame 82 and brackets 84 at the lateral ends of the spectacle frame 82 and indicated by the reference symbol 86.
  • the acoustic sensors 86 could also be arranged differently than shown in FIG.
  • the acoustic sensors 86 are preferably arranged as shown so that they are offset when projected into the horizontal plane of the spectacle wearer - in the case of standing upright - as can be seen from the top view of the three-panel image of FIG. 8 below.
  • the acoustic sensors 86 are arranged offset in this projection along or on the transverse axis 88 to each other, so that acoustic signals originating from a direction 90, which are inclined to the sagittal axis 92 to the acoustic sensors 86 meet with different phase offset.
  • the acoustic sensors 86 could also be arranged in the region of the ends of the brackets 84, which face away from the spectacle frame 82 and thus are closer to the ears of the spectacle wearer .
  • the obscuration also means an increased effort for direction detection, since the occlusion in the direction detection must be taken into account in any case.
  • the mounting on the spectacle frame shown in FIG. 8 can therefore be a simplification in terms of the necessary computing power for direction detection, which can provide cost advantages and / or power consumption advantages, so that a battery discharge time can be longer.
  • Figure 9 shows one way in which the output signals of several acoustic sensors could be exploited.
  • the insertion device 54 comprises a direction detector 100 and a processing device 102. Both are connected to the acoustic sensors 86.
  • the direction detector 100 is configured to determine from the output signals of the acoustic sensors 86 the direction 90 from which originates the acoustic signal that the acoustic sensors detect 86, wherein the processing device 102 uses the determined direction to an actuator 104, such as the aforementioned display, depending on the determined direction to drive.
  • the spectacle wearer obtains information about where or from which direction the acoustic signal originates, which is described by the visual information which the insertion device 54 inserts into the view of the spectacle wearer.
  • the insertion of a specially provided character for indicating the direction from which the detected audio signal originates, such as the loudest portion, such as by means of an arrow or a color-coded background color in the information indicating the detected optical signal is also possible.
  • Fig. IIa shows an exemplary embodiment for a fade in a field of view of the spectacle wearer, after which the detected direction is indicated by an arrow 140, which is superimposed in the user's view and points in the direction from which the detected acoustic sound, such as eg the loudest contribution comes.
  • Fig. IIa is indicated by way of example that the arrow 140 points in the direction of a door 142, which sees the spectacle wearer.
  • 11a further indicates that, according to the exemplary embodiment of FIG. 3, the acoustic signal may possibly have been analyzed semantically in order to detect which type or type of noise is involved. For example, a distinction is made between rippling, crackling, whistling, etc. noises.
  • the detected type of noise can be indicated by a corresponding symbol 144 and / or by a corresponding inscription 146 of the arrow 140, as illustrated in FIG. IIa illustratively for both cases.
  • FIG. IIb shows yet another alternative, according to which the direction of the spectacle wearer against the detected direction is not indicated by an arrow, but by highlighting or marking an object or a point in the view of the wearer, from or from the acoustic Signal comes.
  • Fig. IIb illustratively shows a case where the eyeglass wearer sees in front of him a meadow 150 followed by bushes 152, a bush 154 being indicated by a mark 156, such as a border or flashing portion of the field of view corresponding to the bush 156 is highlighted to indicate that the acoustic signal or noise detected by the acoustic sensors originates from this direction.
  • FIG. 11b again shows by way of example that the type of the noise could be indicated by a symbol 158, here by way of example a crackling noise.
  • FIGS. 11 a and 11 b further make it clear that spectacles according to, for example, FIG. 8 with acoustic sensors 86 can also be used to support a wearer of glasses. to facilitate a directional sensitivity for sound or to enable it only without passing on the sound information for further analysis visually to the wearer.
  • the spectacle wearer does not necessarily have to be given the option of speech perception.
  • an indication of a direction from which a particular sound comes is helpful. This applies to the deaf or the deaf as well as to people who are used in dangerous, life-threatening or similar situations, such as police officers, avalanche searchers, rescue workers or the like.
  • the additional semantic indication of the type of sound is also optional, but it helps the user, who may perhaps, although he may hear, need his concentration for other things than for distinguishing different sounds.
  • FIG. 9 thus shows that it is possible to detect a phase shift of the acoustic signal with a plurality of acoustic sensors mounted on a pair of glasses and thus to effect direction coding of incoming acoustic signals in such a way that, for example, blue acoustic signals arriving from the front , acoustic signals arriving from behind could be coded with red, acoustic signals arriving from the left with green and acoustic signals arriving from the right could be coded with yellow, whereby the recipient or spectacle wearer would always know from which direction the noises are coming from Visual field are represented.
  • FIG. 10 shows by way of example a further alternative and / or additional possibility as to how it would be possible to benefit from the use of a plurality of acoustic sensors 86.
  • the fader 54 may include a direction detector 110, a directional filter 112, and optionally a processing unit. direction 114 have.
  • Directional detector 110 and directional filter 112 are coupled to the outputs of the acoustic sensors 86, the directional detector 110 detecting the direction from which the acoustic signal originates, while the directional filter 112 filtering the output signals of the acoustic sensors 86 so that the signal / Noise ratio of the acoustic signal originating from the detected direction, is increased or even optimized, based on this signal, an actuator 116 of the Einblendein- direction 54, such as a display could optionally be controlled by means of the optional processing device 114. In this way, a selective noise filtering could be carried out, for example, would have advantages in the case of a troubled school class or a pub.
  • the direction-dependent, variable noise amplification implemented by the directional filter 112 could, for example, better understand a teacher or generally a counterpart despite background noise from the recipient or spectacle wearer.
  • the embodiments described above provide, for example, for deaf-mutes a hitherto unprecedented possibility of hearing and speech. With the above embodiments, hearing-impaired people could virtually lead a normal life, which proves the educational and integrative element of the above exemplary embodiments. Moreover, embodiments illustrated above are also superior to the hearing-amplifying methods described in the introduction to the description for people with limited hearing, since complications that may arise due to an implant are not given in most embodiments mentioned above. In road traffic and in other dangerous situations, the above-described exemplary embodiments mostly enable a considerable reduction of the potential danger. In background noise situations, the embodiments described with respect to FIGS. 8 to 10 provide for example, the possibility of selective noise filtering as described above.
  • the above embodiments show a manner in which acoustic signals, such as e.g. Loud, words or sounds, are translated into visual, giving rise to the advantages mentioned above.
  • acoustic signals such as e.g. Loud, words or sounds
  • directional stimulation is not limited to the stimulation of visual perception, but may of course also be applied to the stimulation of other non-auditory perceptions, such as vibrations via an earring.
  • the stimulation of haptic perception at different skin sites could be performed, depending on the direction in which the acoustic signal originated.
  • Two earrings, each with an acoustic detection device, could for example be coupled to one another via a wireless interface, so that the direction-dependent processing according to FIGS. 9 and / or 10 would be made possible in connection with the acousto-dependent irritation of the ear lobes.
  • FIG. 9 and / or 10 could for example be coupled to one another via a wireless interface, so that the direction-dependent processing according to FIGS. 9 and / or 10 would be made possible in connection with the acousto-dependent irritation of the ear lobes.
  • FIG. 9 and / or 10 could for example be coupled to one another via a wireless interface, so that the direction-dependent processing according to FIGS. 9 and
  • each of the earrings 160a and 160b could be provided with a haptic actuator, such as a vibrator 166a and 166b, respectively, which are capable of haptically stimulating the ear 162a or 162b or at least the earlobe.
  • the stimulation could be dependent on the detected direction.
  • the ear facing away from the sound source (not shown) could, for example, be haptically stimulated with a lower level than the ear facing the sound source.
  • a frequency of pulsed excitation of the hidden and / or uncovered ear could be used to indicate to the earring carrier 164 a relative angle to the sagittal axis below which the noise arrives.
  • FIG. 13 shows that hearing aids 180a and 180b, respectively, for the binaural hearing aid simulation of the auditory nerve to be worn on the left and right ears 182a and 182b of a user 184 may each be provided with an acoustic sensor 86 - and in addition with haptic actuators, such as Vibrators, 186a and 186b, respectively.
  • haptic actuators such as Vibrators, 186a and 186b, respectively.
  • the user whose damaged auditory nerve is binaurally excited via the hearing aids 180a and 180b, is very unlikely to have directional sensitivity to sound via this horn excitation.
  • the actuators 186a, 186b the user 184 could be shown the direction of the currently existing noise or of the acoustic signal currently present, namely in circumvention of the auditory nerve.
  • a corresponding processing device or a corresponding direction detector can be integrated in the earrings or hearing devices, as can the acoustic sensors and the haptic actuators.
  • the hearing aids may be in-the-ear, behind-the-ear or implantable hearing aids.
  • the above spectacle embodiments could optionally be coupled with a device which stimulates haptic human perception as a function of the detected acoustic signals. This is illustrated by way of example in Fig.
  • FIG. 8 which illustrates that possibly at that part of the bracket 84 of the glasses, which touches the head of the wearer in the vicinity of the ears of the same vibrators or other haptic perception of the spectacle wearer stimulating facilities arranged can be controlled depending on the acoustic signal detected by the acoustic sensors.
  • Such devices can also be arranged on nose support surfaces of the spectacle frame, as shown by reference numerals 122a and 122b.
  • Such devices 120a-122b arranged on the inside of the spectacle frame, such as vibration pads, could also be controlled in another way as a function of the detected acoustic signal than the optical insertion device.
  • the processing means 54 evaluates the phase shift of the incoming Signals from the noise source and / or loudness of the incoming signals to obtain a measure of the speed and / or a distance to the recipient or just a measure of the volume r loudness threshold and / or dropping below a minimum distance and / or exceeding a speed limit Then, the devices 120a-122b could warn the reciever, in fact, depending on the direction, as shown in FIG.
  • a pair of glasses as a hearing aid with only one of the devices 120a-122b, so only a haptic perception excitation without optical fade would be an aid to a wearer of glasses and thus represents a possible embodiment.
  • the scheme according to the invention can also be implemented in software.
  • the implementation can be carried out on a digital storage medium, in particular a floppy disk or a CD with electronically readable control signals. gene, which can cooperate with a programmable computer system so that the corresponding method is performed.
  • the invention thus also consists in a computer program product with program code stored on a machine-readable carrier for carrying out the method according to the invention when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Abstract

An improvement to hearing and even an improvement in the directional sensitivity to sound can be achieved with little complexity, with little risk in the application and possibly with broader usability by virtue of an attempt not being made, by way of example, to “exhaust” the residual hearing capability of the person in question but rather capturing and using audible signals in order to address one and/or more other senses of the person in question, such as the sense of sight, touch, smell or taste, and hence to help the user to achieve an improved hearing result by means of this “circuitous route”. For the purpose of noninvasive but lasting stimulation of a sensory organ other than the auditory sensory organ, it is possible to use a pair of glasses as a basis for stimulating the visual perception as a function of audible signals.

Description

Hörhilfevorrichtung und -verfahren Hearing aid device and method
Beschreibungdescription
Die vorliegende Erfindung bezieht sich auf eine Hörhilfe, wie z.B. eine Hörhilfe für Gehörlose oder Gehörgeschädigte.The present invention relates to a hearing aid, such as a hearing aid. a hearing aid for the deaf or hearing impaired.
Die Wahrnehmung von Geräuschen in ihrer Umwelt stellt für viele Menschen mit eingeschränkter Hörfähigkeit ein großes Problem dar. Bisher wurde versucht, diesen Menschen dadurch zu helfen, dass die „Resthörfähigkeit" verstärkt wird, also eine Unterstützung der vorhandenen, aber geschädigten Gehörorgane vorgesehen wird. Beispiele hierfür sind in den Gehörgang steckbare Hörgeräte, die die akustischen Signale auf dem Weg zum Trommelfell hin verstärken. Im Falle von komplett funktionsuntüchtigen Gehörorganen allerdings versagen diese Methoden. Hier kann die Anwendung von Implantaten Abhilfe schaffen. Allerdings gibt es bei diesen Lösun- gen teilweise sehr große Wahrscheinlichkeiten einer vom Immunsystem bedingten Unverträglichkeit und damit für eine Abstoßung des Implantats. Außerdem stellt ein operativer Eingriff zur Implantierung des Implantats natürlich auch ein nicht zu unterschätzendes Gesundheitsrisiko dar.The perception of sounds in their environment is a major problem for many people with impaired hearing. So far, an attempt has been made to help these people by increasing the "residual hearing ability", ie providing support for existing but damaged hearing organs Hearing aids plugged into the ear canal amplify the audible signals on their way to the eardrum, but in the case of completely inoperable auditory organs, these methods fail.This can be remedied by using implants, although some of these solutions are very helpful Of course, a surgical intervention to implant the implant is also a health risk that should not be underestimated.
Ein weiteres Problem, das bei Hörgeräten auftritt, die individuell für einen bestimmten Gehörgang, wie z. B. links oder rechts arbeiten, besteht darin, dass dieselben die Verstärkung der akustischen Signale so vornehmen, dass gleichzeitig auftretende Geräuschquellen zu einem schlechten Signal-/Rausch-Verhältnis der auditiven Nutzinformation an dem Rezipienten führen.Another problem that occurs in hearing aids that individually for a specific auditory canal, such. B. left or right, is that they make the amplification of the acoustic signals so that simultaneously occurring noise sources lead to a poor signal / noise ratio of the auditory payload on the recipient.
Die DE 103 39 072 Al beschreibt ein visuelles Hörgerät in Form einer Brille, wobei das visuelle Hörgerät eine Hilfe zur Sprachwahrnehmung für Gehörlose und schwerhörige Menschen darstellt, dass den gesunden Sehkanal mit einer Schallvisualisierung stimuliert, so dass dem Brillenträger das Erlernen einer Lautsprachewahrnehmung über den Sehkanal ermöglicht werde. Dabei wird eine Darstellung favorisiert, wonach die Lautstärke auf die Helligkeit abgebildet wird und eine Frequenz-zu-Ort-Zuordnung verwendet wird. An der Brille sind zwei leistungsstarke Mikrofone montiert, die vorzugsweise hinten auf dem Tragebügeln vorgesehen seien, so dass diese beim Tragen sich möglichst nah an dem Gehörgangenden befinden, d.h. an der natürlichen Schallaufnahmeöffnung des Menschen. Es wird ferner ein Stereobetrieb im Zusammenhang mit einem brillenförmigen Display beschrieben, bei dem der Schall aus dem rechten bzw. linken Mikrofon getrennt für das jeweilige Auge aufbereitet wird, d.h. rechts für rechts und links für links.DE 103 39 072 A1 describes a visual hearing aid in the form of spectacles, wherein the visual hearing aid is an aid for speech perception for the deaf and hard of hearing people, that stimulates the sound visual canal with a sound visualization, so that the wearer of the glasses the learning of a sound speech perception over the visual channel would be possible. In this case, a representation is favored, according to which the volume is mapped to the brightness and a frequency-to-location assignment is used. On the glasses two powerful microphones are mounted, which are preferably provided on the back of the carrying handle, so that they are as close as possible to the ear canal end when carrying, ie at the natural sound receiving opening of the person. It is also a stereo operation in connection with a spectacle-shaped display described in which the sound from the right and left microphone is processed separately for each eye, ie right for right and left for left.
Die US 4,972,486 beschreibt ebenfalls eine Brille, in die Symbole eingeblendet werden, die automatisch erkannte Phoneme darstellen. Es geht ebenfalls hervor, dass die Einblendung dem normalen Gesichtsfeld überblendet werden kann.The US 4,972,486 also describes a pair of glasses, are displayed in the icons that represent automatically recognized phonemes. It also shows that the display can be superimposed on the normal field of view.
Die DE 35 10 508 Al beschreibt ein taktiles Hörgerät. Vibrierende Ringe an den Fingern des Trägers geben den Zeitverlauf des Audiosignals an die Haut weiter.DE 35 10 508 A1 describes a tactile hearing aid. Vibrating rings on the wearer's fingers transmit the timing of the audio signal to the skin.
Unter den zuletzt genannten drei Lösungen zur Hörhilferea- lisierung weist die erstgenannte den Nachteil auf, dass der dort vorgeschlagene Stereobetrieb dpm Gehirn abverlangt:, die visualisierte Lautsprachewahrnehmung sogar so genau in Echtzeit zu analysieren, dass auch ein Raumeindruck entsteht. Wenn es dem Gehör überhaupt möglich ist, eine solche Externalisation zu erzielen, dann geht dies aber für den Brillenträger offenbar mit einer hohen Anstrengung einher, die den Brillenträger schnell ermüden dürfte, so dass ein visualisiertes „Richtungshören" kaum oder gar nicht möglich ist. Die zuletzt genannten zwei Lösungen gehen auf ein vi- sualisiertes bzw. taktiles „Richtungshören" überhaupt nicht ein. Wünschenswert wäre deshalb auch ein Hörhilfeschema, das ein richtungsempfindliches „Hören" ermöglicht bzw. erleichtern.Among the three solutions mentioned above for hearing aid cancellation, the former has the disadvantage that the stereo operation proposed there requires dpm brain: to analyze the visualized sound-speech perception so precisely in real-time that a spatial impression is also created. If it is even possible for the hearing to achieve such an externalization, then this is obviously accompanied by a high effort for the wearer of the glasses, which is likely to quickly tire the wearer, so that a visualized "directional hearing" is scarcely possible or even impossible The latter two solutions do not go into any visualized or tactile "directional hearing" at all. Therefore, it would also be desirable to have a hearing aid scheme that allows or facilitates direction-sensitive "listening".
Die Aufgabe der vorliegenden Erfindung besteht deshalb dar- in, eine Hörhilfe bereit zu stellen, die für einen breiteren Personenkreis einsetzbar, mit weniger Aufwand und/oder weniger Gefahren einsetzbar ist und/oder eine kostengünstigere Implementierung ermöglicht und dabei auch eine Richtungsempfindlichkeit für Schall erleichtert oder überhaupt erst ermöglicht.Therefore, the object of the present invention is to provide a hearing aid which can be used for a wider group of people, can be used with less effort and / or fewer dangers and / or enables a more cost-effective implementation while also facilitating directional sensitivity for sound or made possible in the first place.
Diese Aufgabe wird durch eine Vorrichtung gemäß Anspruch 1, 14 oder 15 und ein Verfahren gemäß Anspruch 17, 18 oder 19 gelöst.This object is achieved by a device according to claim 1, 14 or 15 and a method according to claim 17, 18 or 19.
Eine Erkenntnis der vorliegenden Erfindung besteht darin, dass eine Hörverbesserung mit weniger Aufwand, mit weniger Gefahr bei der Anwendung und gegebenenfalls mit breiterer Einsetzbarkeit erzielt werden kann, wenn nicht etwa ver- sucht wird, die Resthörfähigkeit der betreffenden Person „auszureizen" beziehungsweise durch ein Implantat die ansonsten nutzlos gewordenen Nervenenden des auditiven Wahrnehmungssinnes anzusprechen, sondern stattdessen akustische Signale erfasst und verwendet werden, um einen und/oder mehrere andere Wahrnehmungssinne der betreffenden Person anzusprechen, wie z. B. den optischen, haptischen, olfaktorischen oder guΞtatorischen Wahrnehmungssinn, und somit auf diesem „Umweg" dem Benutzer zu einem verbesserten Hörergebnis zu verhelfen.A finding of the present invention is that a hearing improvement can be achieved with less effort, with less danger in the application and, if applicable, with a broader applicability, if it is not attempting to "eradicate" the residual hearing ability of the person in question or by an implant to address the otherwise useless nerve endings of the auditory sense of perception, but instead acoustic signals are detected and used to address one and / or several other perceptual senses of the person concerned, such as the visual, haptic, olfactory or guild perception, and thus on this "detour" to help the user to an improved hearing.
Eine weitere Erkenntnis der vorliegenden Erfindung besteht darin, dass das menschliche Gehirn in der Lage ist, komplexe Sachverhalte zu lernen beziehungsweise Assoziationen zwischen den verschiedensten Wahrnehmungen zu knüpfen, so dass es dem menschlichen Gehirn insbesondere möglich ist, Sprachinformationen auf anderem Wege zu erfassen als über das auditive Wahrnehmungsorgan. Insbesondere bei dauerhafter Stimulierung einer oder mehrerer der anderen nicht- auditiven Wahrnehmungen des Menschen in Abhängigkeit von akustischen Signalen kann das Gehirn in der Lage sein, aus dieser Stimulation Sprachinformationen zu extrahieren.A further realization of the present invention is that the human brain is able to learn complex facts or to associate associations between the most diverse perceptions, so that the human brain is in particular able to acquire speech information in a different way than via the human brain auditory perception organ. Especially with permanent stimulation of one or more of the other non- auditive perception of the human being as a function of acoustic signals, the brain may be able to extract speech information from this stimulation.
In diesem Zusammenhang besteht eine weitere Erkenntnis der vorliegenden Erfindung darin, dass eine Möglichkeit zur nicht-invasiven, aber dauerhaften Stimulation eines anderen Wahrnehmungsorgans als dem auditiven Wahrnehmungsorgan darin besteht, eine Brille als Grundlage für die Stimulation der optischen Wahrnehmung in Abhängigkeit von akustischen Signalen zu verwenden. Das Tragen einer Brille ist in der Gesellschaft akzeptiert und ein Brillenträger fällt deshalb nicht unangenehm auf. Die akusto-abhängige Stimulation der optischen Wahrnehmung über eine Brille ermöglicht deshalb eine dauerhafte Anwendung und ermöglicht damit insbesondere, dass sich das menschliche Gehirn auf den Spracherwerb vermittels der optischen Stimulation einstellt. Das Ausbleiben der Notwendigkeit für einen invasiven Eingriff eröffnet die Möglichkeit der Anwendung bei einer größeren Personengruppe und dies zudem ohne mögliche Nebenwirkungen beziehungsweise Gefahren.In this context, a further realization of the present invention is that one possibility for the non-invasive but permanent stimulation of a perception organ other than the auditory perceptive organ is to use a pair of spectacles as the basis for the stimulation of visual perception as a function of acoustic signals , The wearing of glasses is accepted in society and a wearer of glasses is therefore not unpleasant. The acousto-dependent stimulation of the visual perception via a pair of spectacles therefore makes possible a permanent application and thus makes it possible, in particular, for the human brain to adapt to the acquisition of language by means of the optical stimulation. The lack of the need for an invasive procedure opens up the possibility of use in a larger group of people and this also without possible side effects or dangers.
Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung umfasst die Einrichtung zur Erfassung des akustischen Sig- nals mehrere akustische Sensoren, die bei Projektion in die Horizontalebene bei aufrechtem Stand des Benutzers versetzt zueinander angeordnet sind, wobei aus den Ausgangssignalen der akustischen Sensoren eine Richtung ermittelt wird, aus der das akustische Signal stammt, und diese Richtung ver- wendet wird, um die Stimulation der anderen Sinne abhängig von der Richtung zu variieren, so dass der Benutzer aus der Variation auf die Richtung des akustischen Signals schließen kann. Auf diese Weise wird es ermöglicht, dass der Benutzer trotz Hörschwäche oder sogar Hörunvermögen die Rich- tung akustischer Signale erfahren kann. Gemäß einem weiteren Ausführungsbeispiel werden die Ausgangssignale mehrerer akustischer Sensoren ausgewertet, um die Richtung festzustellen, aus der das akustische Signal stammt, wobei dar- aufhin eine richtungsabhängige Filterung abhängig von der erfassten Richtung durchgeführt wird, um beispielsweise das Signal-/Rauschverhältnis des erfassten akustischen Signals zu erhöhen, wobei das entsprechend gefilterte akustische Signal zur Stimulation der anderen Wahrnehmungssinne herangezogen wird. Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung werden beispielsweise die optischen Informationen in einer Farbe codiert in die Sicht des Brillenträgers eingeblendet, die von der erfassten Richtung ab- hängt, wobei die akustischen Sensoren dabei beispielsweise an den queren Enden der Brillenfassung angeordnet sind.According to one exemplary embodiment of the present invention, the device for detecting the acoustic signal comprises a plurality of acoustic sensors which are offset from one another when projected into the horizontal plane while the user is standing upright, a direction being determined from the output signals of the acoustic sensors the acoustic signal comes from, and this direction is used to vary the stimulation of the other senses depending on the direction, so that the user can conclude from the variation on the direction of the acoustic signal. In this way it is possible for the user to experience the direction of acoustic signals despite hearing loss or even hearing loss. According to a further embodiment, the output signals of a plurality of acoustic sensors are evaluated in order to determine the direction from which the acoustic signal originates, whereby Consequently, a directional filtering is performed depending on the detected direction, for example, to increase the signal / noise ratio of the detected acoustic signal, wherein the corresponding filtered acoustic signal is used to stimulate the other senses of perception. According to an embodiment of the present invention, for example, the optical information is encoded in a color coded in the view of the wearer, which depends on the detected direction, the acoustic sensors are arranged, for example, at the transverse ends of the spectacle frame.
Eine weitere Erkenntnis der vorliegenden Erfindung besteht darin, erkannt zu haben, dass es unter Verwendung einer o- der mehrerer der oben genannten Ansätze auch möglich ist, eine Richtungsempfindlichkeit für Schall zu erleichtern, wie z.B. in dem Fall eines Polizisten, Lawinensuchers oder dergleichen in einem Einsatz, oder gar erst zu ermöglichen, wie z.B. in dem Fall eines Gehörlosen. Gemäß einem Ausfüh- rungsbeispiel wird deshalb eine richtungsangebende Information in die Sicht eines Brillenträgers eingeblendet. Die Richtungsermittlung kann dabei wie im Vorhergehenden erwähnt, durch die geeignete Anordnung von Mikrofonen ermöglicht werden. Die Einblendung der richtungsangebenden In- formation kann auch zusätzlich zur Einblendung der optischen und von dem erfassten akustischen Signal abhängigen Informationen vorgenommen werden. Möylich ist auch eine Kombination der Einblendung der von dem erfassten akustischen Signal abhängigen optischen Informationen in die Sicht des Brillenträgers mit einer anderweitigen Stimulation bzw. der Stimulation eines anderen Sinnes als dem Sehsinn, wie z.B. mittels Vibratoren. Diese können an einem Teil Bügels der Brille angeordnet sein, der einen Kopf des Brillenträgers in der Gegend von Ohren desselben berührt, oder an Naseauflageflächen einer Brillenfassung der Brille. Der Sehsinn wird somit entlastet und kann sich auf das „semantische" Hören konzentrieren, wohingegen die Richtungsempfindlichkeit über einen anderen nicht-auditiven Ersatz- sinn erfolgt. Letzterer Gedanke wird gemäß einem Ausführungsbeispiel aufgegriffen, um die Richtungsempfindlichkeit ganz allgemein über den haptischen Wahrnehmungssinn anstelle des auditiven Wahrnehmungssinnes einem Benutzer zugäng- lieh zu machen. Gemäß Ausführungsbeispielen sind dazu Vib- ratoren oder andere haptische Aktuatoren an Ohrringen oder Hörgeräten zur binauralen Hörhilfe angeordnet und werden je nach der erfassten Richtung, aus der ein erfasstes Schallsignal kommt, unterschiedlich angesteuert, wie z.B. stärker auf der Seite, von der das Signal kommt, wobei beispielsweise eine Frequenz einer impulsartigen Ansteuerung dazu verwendet werden könnte, einen Winkel relativ zu der sagit- talen Achse anzuzeigen.A further realization of the present invention is to have realized that using one or more of the above-mentioned approaches it is also possible to facilitate a directional sensitivity for sound, such as in the case of a police officer, avalanche searcher or the like in one Use, or even to allow, as in the case of a deaf. According to one exemplary embodiment, direction-indicating information is therefore superimposed in the view of a spectacle wearer. The direction determination can, as mentioned above, be made possible by the appropriate arrangement of microphones. The insertion of the direction-indicating information can also be carried out in addition to the insertion of the optical information dependent on the detected acoustic signal. It is also possible for a combination of the insertion of the optical information dependent on the detected acoustic signal into the spectacle wearer's perspective with another stimulation or the stimulation of a sense other than the sense of sight, for example by means of vibrators. These can be arranged on a part of the strap of the spectacles, which touches a head of the spectacle wearer in the vicinity of ears thereof, or on nose contact surfaces of an eyeglass frame of the spectacles. The sense of sight is thus relieved and can focus on the "semantic" hearing, whereas the directional sensitivity over another non-auditory replacement made sense. The latter idea is taken up according to an embodiment in order to make the directional sensitivity generally accessible to the user via the haptic perception sense instead of the auditory sense of perception. According to embodiments, vibrators or other haptic actuators are arranged on earrings or hearing aids for binaural hearing aid and are depending on the detected direction, from which a detected sound signal comes, different driven, such as stronger on the side from which the signal comes, For example, a frequency of a pulse-like drive could be used to indicate an angle relative to the sagittal axis.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:Preferred embodiments of the present invention will be explained in more detail below with reference to the accompanying drawings. Show it:
Figur 1 eine schematische Darstellung einer Hörhilfevor- richtung gemäß einem Ausführungsbeispiel;1 shows a schematic representation of a Hörhilfevor- direction according to an embodiment;
Figur 2 ein Blockschaltbild einer Hörhilfevorrichtung gemäß einem weiteren Ausführungsbeispiel;FIG. 2 shows a block diagram of a hearing aid device according to a further exemplary embodiment;
Figur 3 eine Hörhilfevorrichtung gemäß einem weiterenFIG. 3 shows a hearing aid device according to another
Figur 4 eine schematische Darstellung einer Hörhilfebrille gemäß einem Ausführungsbeispiel;Figure 4 is a schematic representation of a hearing aid glasses according to an embodiment;
Figur 5 eine exemplarische Darstellung eines Spektro- gramms eines akustischen Signals;FIG. 5 shows an exemplary representation of a spectrogram of an acoustic signal;
Figur 6 eine exemplarische Darstellung eines zeitlichen Intensitätsverlaufes eines akustischen Signals;Figure 6 is an exemplary representation of a temporal intensity curve of an acoustic signal;
Figur 7 eine schematische Zeichnung eines Gesichtsfelds eines Brillenträgers mit eingeblendeter optischer Information, die von erfassten akustischen Signalen abhängen, gemäß einem Ausführungsbeispiel;FIG. 7 shows a schematic drawing of a field of view of a spectacle wearer with a visual aid inserted Information dependent on detected acoustic signals according to an embodiment;
Figur 8 ein 3-Tafel-Bild einer Hörhilfebrille mit mehreren akustischen Sensoren gemäß einem Ausführungsbeispiel;8 shows a three-panel image of a hearing aid with multiple acoustic sensors according to an embodiment;
Figur 9 ein Blockdiagramm einer Hörhilfevorrichtung mit mehreren akustischen Sensoren gemäß einem Ausführungsbeispiel;FIG. 9 shows a block diagram of a hearing aid device with a plurality of acoustic sensors according to an exemplary embodiment;
Figur 10 ein Blockdiagramm einer Hörhilfevorrichtung mit mehreren akustischen Sensoren gemäß einem weiteren Ausführungsbeispiel; undFIG. 10 shows a block diagram of a hearing aid device with a plurality of acoustic sensors according to a further exemplary embodiment; and
Fig. IIa und IIb schematische Zeichnungen eines Gesichtsfeldes eines Brillenträgers mit eingeblendeter richtungsanzeigender Information gemäß verschiedenen Ausführungsbeispielen;11a and 11b are schematic drawings of a field of view of a spectacle wearer with information displayed in direction indicating according to various embodiments;
Fig. 12 eine schematische Darstellung einer Hörhilfevorrichtung, die in Ohrringen integriert ist, gemäß einem Ausführungsbeispiel; und12 shows a schematic illustration of a hearing aid device that is integrated in earrings, according to an exemplary embodiment; and
Fig. 13 eine schematische Darstellung einer Hörhilfevorrichtung, die eine Richtungssensitivität für Hϋr- gcräte ermöglicht, gemäß einem Ausführungsbei- spiel.13 shows a schematic illustration of a hearing aid device which allows directional sensitivity for hearing aids, according to an exemplary embodiment.
Figur 1 zeigt eine Hörhilfevorrichtung 10 mit einer Erfassungseinrichtung 12 zur Erfassung akustischer Signale und einer Stimulationseinrichtung 14. Die Stimulationseinrichtung 14 ist mit der Erfassungseinrichtung 12 gekoppelt, um von der selben die erfassten akustischen Signale zu erhal- ten. Insbesondere verwendet die Stimulationseinrichtung 14 die erfassten akustischen Signale dazu, andere Wahrnehmungssinne 16 als die auditive Wahrnehmung 18 eines Benutzers 20 abhängig von den erfassten akustischen Signalen zu stimulieren. Auf diese Weise wird es der Person 20 ermöglicht, selbst dann, wenn ihre auditive Wahrnehmung 18 gestört ist ode.r sogar vollständig funktionsuntüchtig ist, ein akustisches Signal 22, das von einer akustischen Quelle 24 stammt, zu „erfahren", nämlich über den Umweg der akustischen Erfassungseinrichtung 12 und der Stimulationseinrichtung 14, indem letztere das durch die Erfassungseinrichtung 12 erfasste akustische Signal 22 auf geeignete Weise in eine Stimulation eines oder mehrerer der anderen Wahrnehmungssinne 16 umsetzt.FIG. 1 shows a hearing aid device 10 with a detection device 12 for detecting acoustic signals and a stimulation device 14. The stimulation device 14 is coupled to the detection device 12 in order to receive the detected acoustic signals from the same. In particular, the stimulation device 14 uses the detected acoustic signals Signals to other perception senses 16 as the auditory perception 18 of a user 20 depending on the detected acoustic signals stimulate. In this way, even if their auditory perception 18 is disturbed or even completely inoperative, the person 20 is allowed to "experience" an auditory signal 22 originating from an acoustic source 24, namely via the detour the acoustic detection device 12 and the stimulation device 14, in that the latter converts the acoustic signal 22 detected by the detection device 12 into a stimulation of one or more of the other perception senses 16 in a suitable manner.
Insbesondere kann das Gehirn des Benutzers 20 auf Basis dieser „Umwegstimulation" eine Spracherkennung erlernen.In particular, the user's brain 20 may learn speech recognition based on this "detour pacing".
Die anderen Wahrnehmungssinne 16 unterscheiden sich von der auditiven Wahrnehmung 18 und umfassen beispielsweise die optische, haptische, olfaktorische oder gustatorische Wahrnehmung des Benutzers 20. Für die optische Wahrnehmung werden im folgenden noch Ausführungsbeispiele geliefert, die sich auf eine Hörhilfebrille beziehen. In diesem Fall können die Erfassungseinrichtung 12 und die Stimulationseinrichtung 14 in einer Brille untergebracht sein, die der Benutzer 20 täglich tragen kann. In dem Fall einer beispielsweise taktilen Stimulation der haptischen Wahrnehmung des Benutzers 20 umfasst die Stimulationseinrichtung 14 beispielsweise ein Piezo-Element, das dazu vorgesehen ist, an der Haut des Benutzers ?0 getragen beziehungsweise befestigt zu werden. Alternativ wäre natürlich auch eine Implantierung möglich. Auch die Verwendung von Kombinationen von Umwegwahrnehmungssinnen ist denkbar.The other sensory senses 16 are different from the auditory perception 18 and include, for example, the visual, haptic, olfactory or gustatory perception of the user 20. For the purposes of optical perception, embodiments which relate to hearing aid goggles are still provided below. In this case, the detection device 12 and the stimulation device 14 can be accommodated in a pair of glasses which the user 20 can wear on a daily basis. In the case of, for example, tactile stimulation of the haptic perception of the user 20, the stimulation device 14 comprises, for example, a piezo-element which is intended to be worn or fastened to the skin of the user. Alternatively, of course, an implantation would be possible. The use of combinations of detours is also conceivable.
Wie es anhand der folgenden Ausführungsbeispiele noch näher veranschaulicht wird, kann die Erfassungseinrichtung 12 einen oder mehrere akustische Sensoren umfassen. Die Erfas- sungseinrichtung 12 kann mit der Stimulationseinrichtung 14 kabelgebunden oder schnurlos kommunikativ verbunden sein. Neben der Unterbringung der Erfassungseinrichtung 12 an einer Brille des Benutzers 20 ist es möglich, dass die Erfas- sungseinrichtung 12 von dem Benutzer 20 anderswo getragen wird, wie z. B. am Ohr beziehungsweise im Gehörgang selbst.As will be further illustrated by the following embodiments, the detection device 12 may include one or more acoustic sensors. The detection device 12 can be connected to the stimulation device 14 in a wired or cordless manner in a communicative manner. In addition to housing the detection device 12 on a pair of eyeglasses of the user 20, it is possible that the detection sung device 12 is carried by the user 20 elsewhere, such as. B. on the ear or in the ear canal itself.
Figur 2 zeigt, dass die Erfassungseinrichtung 12 einen oder mehrere akustische Sensoren 12a beziehungsweise 12b umfassen kann, und dass die Stimulationseinrichtung neben einem Aktuator 14a optional auch eine Verarbeitungseinrichtung 14b umfassen kann. In dem Fall der Stimulation der optischen Wahrnehmung umfasst der Aktuator 14a beispielsweise eine LCD-, OLED-, LED- oder CCD-Anzeige, deren Bild über eine geeignete Optik auf die Netzhaut des Benutzers 20 abgebildet wird, oder die so angesteuert wird, dass sie bei A- komodation des Auges des Benutzers auf einen entfernten Gegenstand trotz Positionierung in der Brillenglasebene ein scharfes Bild der optischen Information, die von dem er- fassten akustischen Signal abhängt, auf der Netzhaut des Benutzers ergibt. In dem Fall der Stimulation der hapti- schen Wahrnehmung des Benutzers umfasst der Aktuator 14a beispielsweise eine Tastspitze, wie z. B. eine piezoelekt- risch betriebene Tastspitze. In dem Fall der Stimulation der haptischen Wahrnehmung des Benutzers ist aber ferner auch eine lateral variierende taktile Stimulation der Haut über ein Array von Vibratoren möglich, in welchem Fall der Aktuator 14a beispielsweise aus einer Reihe von Piezoele- menten bestehen kann. Elektrische Reizungen der Haut sind ebenfalls möglich.FIG. 2 shows that the detection device 12 can comprise one or more acoustic sensors 12a or 12b and that the stimulation device can optionally also include a processing device 14b in addition to an actuator 14a. In the case of stimulation of the optical perception, the actuator 14a comprises, for example, an LCD, OLED, LED or CCD display, the image of which is imaged onto the retina of the user 20 via suitable optics or which is activated in such a way that it when the user's eye is a-coded to a distant object despite positioning in the lens plane, a sharp image of the optical information, which depends on the detected acoustic signal, results on the user's retina. For example, in the case of stimulating the user's haptic perception, the actuator 14a includes a stylus tip, such as a stylus. B. a piezoelectrically operated probe tip. In the case of the stimulation of the haptic perception of the user but also a laterally varying tactile stimulation of the skin via an array of vibrators is possible, in which case the actuator 14a, for example, consist of a number of Piezoele- elements. Electrical irritation of the skin is also possible.
In Figur 2 ist exemplarisch auch die Möglichkeit dargestellt, das sowohl das Ausgangssignal jeden akustischen Sensors 12a bzw. 12b als auch das Eingangssignal bzw. Steuersignal des Aktuators 14a digital ist. Beispielsweise ist der akustische Sensor 12a dazu ausgelegt, das akustische Signal 22 mit einer Frequenz f und einer Bittiefe t pro Audioabtastwert abzutasten, so dass das Ausgangssignal des akustischen Sensors 12a unkomprimiert eine Datenrate Ri = f t aufweist. Umgekehrt ist beispielsweise der Aktuator 14a so ausgelegt, dass er pro Zeiteinheit eine maximale Anzahl von Aktuatoreinstellungsmöglichkeiten zulässt, so dass er insgesamt mit einer maximalen unkomprimierten Datenrate R2 ansteuerbar ist. Gemäß einem Äusführungsbeispiel kann es nun beispielsweise sein, dass die beiden Datenraten gleich sind. Allerdings können die Datenraten auch unterschiedlich sein. Insbesondere beträgt die Datenrate R2 gemäß einem Ausführungsbeispiel beispielsweise mehr als 10 Prozent der Datenrate Ri.FIG. 2 shows by way of example also the possibility that both the output signal of each acoustic sensor 12a or 12b and the input signal or control signal of the actuator 14a are digital. For example, the acoustic sensor 12a is configured to sample the acoustic signal 22 at a frequency f and a bit depth t per audio sample so that the output of the acoustic sensor 12a has a data rate Ri = f t uncompressed. Conversely, for example, the actuator 14a is designed so that it allows a maximum number of actuator adjustment options per unit time, so that he total with a maximum uncompressed data rate R 2 is controllable. For example, according to an embodiment, it may be that the two data rates are the same. However, the data rates can also be different. In particular, according to one exemplary embodiment, the data rate R 2 is, for example, more than 10 percent of the data rate Ri.
Wie es in Figur 2 ebenfalls gezeigt ist, kann zwischen Ak- tuator 14a und Erfassungseinrichtung 12 eine Verarbeitungseinrichtung 14b angeordnet sein. Diese Verarbeitungseinrichtung 14b kann beispielsweise ein spektralgewichtendes Filter sein, das unwichtigere akustische Frequenzen beispielsweise schwächt. Dem entsprechend kann der Aktuator 14a mit einem Steuersignal eingestellt werden, das dem zeitlichen Intensitätsverlauf des akustischen Signals 22 oder einer gefilterten Version davon entspricht. Insbesondere kann die Verarbeitungseinrichtung 14b so ausgebildet sein, dass die Abbildung von möglichen Sensorausgangssigna- len des bzw. der Sensoren 12 auf die maximale Anzahl von Aktuatoreinstellungsmöglichkeiten surjektiv ist.As also shown in FIG. 2, a processing device 14b can be arranged between the actuator 14a and the detection device 12. By way of example, this processing device 14b can be a spectrally weighting filter which, for example, weakens less important acoustic frequencies. Accordingly, the actuator 14a may be adjusted with a control signal corresponding to the temporal intensity profile of the acoustic signal 22 or a filtered version thereof. In particular, the processing device 14b can be designed such that the mapping of possible sensor output signals of the sensor or sensors 12 to the maximum number of actuator setting options is surjective.
Anstelle eines einfachen Filters kann die Verarbeitungseinrichtung 14b allerdings auch so ausgebildet sein, dass sie die Informationsmenge, die in dem akustischen Signal 22 enthalten ist, aufgrund einer semantischen Analyse in ein kompakteres Signal umwandelt. Eine Möglichkeit hierzu ist beispielsweise in Figur 3 gezeigt. Dort umfasst die Verarbeitungseinrichtung einen Merkmalsextraktor 30, eine Daten- bank 32 und optional einen Prozessor 34. Der Merkmalsextraktor 34 ist dazu ausgelegt, aus dem eingehenden erfass- ten akustischen Signal Merkmale zu extrahieren, und um auf Basis der extrahierten Merkmale in einer Tabelle 36 in der Datenbank 32 nachzuschlagen, die Einträge 38 aufweist, die Merkmalen 40 Informationen 42 zuordnen. So können beispielsweise die Merkmale 40 Phoneme sein, in welchem Fall die in der Nachschlagtabelle 36 zugeordneten Informationen 42 die entsprechenden Phonemindices sein können. In diesem Fall könnte eine weitere Nachschlagtabelle dazu vorgesehen sein, um mit der so erhaltenen Folge von Phonemen in einer weiteren Nachschlagtabelle nachzuschlagen, die Phonemfolgen eine Folge von Worten in alphanumerischer Darstellung zu- ordnet. Da es sich bei dem akustischen Signal allerdings nicht unbedingt immer um ein Sprachsignal handeln muss, kann es auch sein, dass der Merkmalsextraktor 30 beispielsweise einen Fingerabdruck aus dem erfassten akustischen Signal bildet, wie z.B. einem Musikstück oder einem Alarm- signal, um beispielsweise anhand des Fingerabdruckes in der Nachschlagtabelle nachzuschlagen, und durch dieses Nachschlagen eine Information 42 darüber zu erhalten, die angibt, um welche Art von Audiosignal es sich handelt, wie z.B. Martinshorn usw., oder um welches Musikstück es sich bei dem akustischen Signal handelt. Der optional nachgeschaltete Prozessor 34 kann vorgesehen sein, um die Information 42, die durch das Nachschlagen erhalten worden ist, geeignet in die Stimulation des nicht-auditiven Wahrnehmungssinnes umzusetzen. Insofern kann der Prozessor 34 bei- spielsweise einen Grafikprozessor umfassen, der beispielsweise ein alphanumerisches Zeichen, das aus der Datenbank 32 ausgelesen worden ist, auf die Netzhaut des Hörgeschädigten einblendet.However, rather than a simple filter, the processing means 14b may also be arranged to convert the amount of information contained in the acoustic signal 22 into a more compact signal based on semantic analysis. One possibility for this is shown for example in FIG. There, the processing means comprises a feature extractor 30, a database 32, and optionally a processor 34. The feature extractor 34 is adapted to extract features from the incoming detected acoustic signal, and to extract characteristics from a table 36 in FIG to look up the database 32 which has entries 38 which associate features 40 with information 42. For example, the features 40 may be phonemes, in which case the information 42 associated with the lookup table 36 may be the corresponding phoneme indices. In this In this case, another look-up table could be provided to look up the sequence of phonemes thus obtained in a further look-up table which assigns phoneme sequences a sequence of words in alphanumeric representation. However, since the acoustic signal does not necessarily always have to be a voice signal, it may also be that the feature extractor 30 forms a fingerprint from the detected acoustic signal, such as a piece of music or an alarm signal, for example using the Look up fingerprint in the look-up table, and by this look up information 42 about it indicating what kind of audio signal it is, such as siren, etc., or what piece of music is the acoustic signal. The optionally downstream processor 34 may be provided to appropriately translate the information 42 obtained by the lookup into the stimulation of the non-auditory sense of perception. In this respect, the processor 34 may comprise, for example, a graphics processor which, for example, fades in an alphanumeric character which has been read from the database 32 onto the retina of the hearing impaired person.
Nachdem im vorhergehenden Ausführungsbeispiel Beispiele beschrieben worden sind, die nicht auf die Art des Wahrnehmungssinns eingeschränkt waren, der alternativ zu dem auditiven Wahrnehmungssinn stimuliert worden ist, beziehen sich die nachfolgend beschriebenen Ausführungsbeispiele, die be- zugnehmend auf die Figuren 4 bis 10 beschrieben werden, zunächst auf eine Hörhilfe, die eine Brille umfasst, wobei akustische Signale in eine Stimulation der optischen Wahrnehmung des Brillenträgers umgesetzt werden. Dabei sind allerdings einige der Aspekte, die bei diesen Ausführungsbei- spielen angeschnitten werden, ebenso auf Ausführungsbeispiele übertragbar, bei denen anstelle der Stimulation der optischen Wahrnehmung eine Stimulation eines anderen zu der auditiven Wahrnehmung alternativen Wahrnehmungssinnes stimuliert wird.Having described in the foregoing embodiment examples that were not limited to the type of sense of perception stimulated alternatively to the auditory sense of perception, the embodiments described below, which are described with reference to FIGS. 4 to 10, relate first to a hearing aid that includes a pair of glasses, wherein acoustic signals are converted into a stimulation of the visual perception of the wearer of the spectacle. However, some of the aspects touched upon in these embodiments are equally applicable to embodiments in which, instead of stimulating the visual perception, stimulation of another to the Auditory perception alternative sense of perception is stimulated.
Figur 4 zeigt eine Hörhilfevorrichtung, die eine Brille 50, eine akustische Erfassungseinrichtung 52 mit hier exemplarisch mehreren akustischen Sensoren 52a, 52b und 52c und eine Einblendeinrichtung 54 aufweist. Die akustischen Sensoren 52a - 52c sind verteilt über die Brille 50 an der selben angebracht. Die Einblendeinrichtung 54 ist so ausge- bildet, dass sie in der Lage ist, bei Akomodation eines Auges des Benutzers (nicht gezeigt) durch die Brillengläser 56 der Brille 50 auf eine scharfe Ebene 58 hinter den Brillengläsern 56 für das Auge des Benutzers eine optische Information 60 sichtbar bzw. optisch erkennbar zu machen, die in geeigneter Weise von dem erfassten akustischen Signal abhängt, das durch die akustischen Sensoren 52a - 52c er- fasst worden ist. In Figur 4 ist exemplarisch dargestellt, dass es sich bei der optischen Information 60 um einen zeitlichen Intensitätsverlauf des akustischen Signals han- dein kann, wobei dieses sowie alternative Ausführungsbeispiele im folgenden noch näher erläutert werden. Zur Bestimmung der optischen Information 60 verwendet die Einblendeinrichtung 54 das erfasste akustische Signal.FIG. 4 shows a hearing aid device which has a pair of spectacles 50, an acoustic detection device 52 with, for example, a plurality of acoustic sensors 52a, 52b and 52c and an insertion device 54. The acoustic sensors 52a-52c are distributed over the glasses 50 on the same. The insertion device 54 is designed so that it is capable, upon accommodation of an eye of the user (not shown) through the spectacle lenses 56 of the spectacles 50 on a sharp plane 58 behind the spectacle lenses 56 for the user's eye optical information 60, which suitably depends on the detected acoustic signal detected by the acoustic sensors 52a-52c. FIG. 4 shows by way of example that the optical information 60 can be a temporal intensity profile of the acoustic signal, this and alternative exemplary embodiments being explained in more detail below. To determine the optical information 60, the fader 54 uses the detected acoustic signal.
Die Hörhilfebrille nach Figur 4 ermöglicht es, akustische Signale 22 mit Hilfe des Auges wahrzunehmen. Die Einblendeinrichtung stellt beispielsweise das akustische Signal 22, wie es durch die Einrichtung 52 beziehungsweise die akustischen Sensoren 52a - 52c aufgenommen worden ist, auf geeig- nete Weise optisch auf einer Gläserinnenseite der Brillengläser 56 dar, wie z.B. mit Hilfe eines Intensitäts-Über- Zeit-Ssignals, wie es bezugnehmend auf Figur 5 erläutert wird. Insbesondere nehmen beispielsweise die akustischen Sensoren 52a - 52c ein akustisches Signal auf und leiten dieses an die Einblendeinrichtung weiter, die dann das Signal auf eine für den Rezipienten beziehungsweise Träger der Brille 50 sinnvolle Art und Weise auf der Innenseite der Brille 50 wiedergibt. In Figur 4 ist dies exemplarisch für ein Zeit-Über-Intensitäts-Signal für den deutschsprachigen Satz „Die freie Enzyklopädie" dargestellt.The hearing aid glasses according to FIG. 4 make it possible to perceive acoustic signals 22 with the help of the eye. By way of example, the insertion device optically displays the acoustic signal 22, as recorded by the device 52 or the acoustic sensors 52a-52c, on an inner side of the lenses 56, for example with the aid of an intensity over time Signal, as explained with reference to FIG. In particular, for example, the acoustic sensors 52a-52c record an acoustic signal and pass it on to the insertion device, which then reproduces the signal in a manner that makes sense for the recipient or wearer of the spectacles 50 on the inside of the spectacles 50. In FIG. 4, this is exemplary for a time-over-intensity signal for the German-language sentence "The Free Encyclopedia" shown.
Als eine Brille 50 mit der Einblendeinrichtung 54 kann bei- spielsweise eine Brille verwendet werden, wie sie auf der Web-Site www. lumos-optical.com beschrieben wird.For example, spectacles such as those described on the website www. lumos-optical.com is described.
Bevor im folgenden weitere Details bezüglich möglicher Ausführungsbeispiele für die Art der optischen Informationen beschrieben werden, die durch die Hörhilfe gemäß Figur 4 dem Brillenträger angezeigt werden, wird darauf hingewiesen, dass viele der verschiedenen Variationsmöglichkeiten, die im Vorhergehenden allgemein bezugnehmend auf die Figuren 1 bis 3 beschrieben worden sind, auch für das Ausfüh- rungsbeispiel von Figur 4 gelten. Beispielsweise ist es möglich, dass anstelle der drei akustischen Sensoren lediglich ein akustischer Sensor, wie z.B. lediglich der mittig angeordnete akustische Sensor 52b verwendet wird oder alternativ nur beispielsweise zwei akustische Sensoren, wie z.B. die an den seitlichen Enden der Brillenfassung angeordneten akustischen Sensoren 52a und 52c. Die akustischen Sensoren 52a - 52c können mit der Einblendeinrichtung 54 drahtgebunden oder schnurlos gekoppelt sein. Die Einblendeinrichtung 54 kann vollständig in der Brille 50 unterge- bracht sein oder nur teilweise. Beispielsweise umfasst die Einblendeinrichtung 54 eine Anzeige wie eine Optik- die das Bild der Anzeige scharf auf die Netzhaut des Brillenträgers abbildet. Alternativ kann die Einblendeinrichtung 54 eine Anzeige aufweisen, die beispielsweise in nicht-aktivem Zu- stand transparent beziehungsweise optisch durchlässig ist und in der Brillenglasebene angeordnet ist. Beispielsweise umfasst die Einblendeinrichtung 54 eine Anzeige auf einer der Hauptseiten der Brillengläser 56, wobei die Anzeige geeignet angesteuert wird, um ein scharfes Bild der optischen Informationen anzuzeigen, die von den erfassten akustischen Signalen abhängen. Wie bezugnehmend auf Figuren 2 und 3 beschrieben kann die Einblendeinrichtung 54 optional noch eine Verarbeitungseinrichtung, eine Nachschlagtabelle und/oder einen Prozessor aufweisen, wobei letztere auch außerhalb der Brille angeordnet sein können, um von dem Benutzer anderswo getragen zu werden. In dem Fall eines Prozessors kann selbiger ausgebildet sein, um Software auszu- führen, die die hier beschrieben Funktionalität realisiert. Die Software kann in einem zugeordneten Speicher gespeichert sein, gegebenenfalls zusammen mit Daten, wie z.B. den zuvor erwähnten Nachschlagtabellen oder den im folgenden erwähnten Referenzdarstellungen, wobei der Speicher eben- falls in der Brille oder extern dazu angeordnet sein kann und zudem wiederbeschreibbar, einmal beschreibbar und nurlesbar ausgebildet sein kann.Before describing further details regarding possible embodiments of the type of optical information displayed to the wearer by the hearing aid of FIG. 4, it is to be understood that many of the various possible variations described above with reference to FIGS also apply to the embodiment of Figure 4 apply. For example, it is possible that instead of the three acoustic sensors, only one acoustic sensor, such as only the centrally located acoustic sensor 52b is used, or alternatively only two acoustic sensors, such as the acoustic sensors 52a and 52c located at the lateral ends of the spectacle frame , The acoustic sensors 52a-52c may be wired or wirelessly coupled to the fader 54. The insertion device 54 can be completely accommodated in the spectacles 50 or only partially. For example, the fader 54 includes a display such as an optic which images the image of the display sharply on the retina of the wearer. Alternatively, the fade-in device 54 may have a display which, for example in the non-active state, is transparent or optically transparent and is arranged in the spectacle lens plane. For example, the fader 54 includes a display on one of the major sides of the lenses 56, the display being suitably driven to display a crisp image of the optical information that depends on the detected acoustic signals. As described with reference to FIGS. 2 and 3, the fader 54 may optionally include a processing device, a look-up table and / or have a processor, the latter also being able to be arranged outside the glasses in order to be worn by the user elsewhere. In the case of a processor, it may be configured to execute software that implements the functionality described herein. The software may be stored in an associated memory, optionally together with data such as the aforementioned look-up tables or reference references mentioned below, which memory may also be located in or external to the goggle and also rewritable, write-once and can only be formed readable.
Für die Darstellung der akustischen Signale durch die Ein- blendeinrichtung 54 gibt es verschiedene Möglichkeiten, wofür Ausführungsbeispiele im folgenden vorgestellt werden. Eine mögliche Darstellung wäre die Nutzung einer Spracherkennung, wie z.B. mittels einer Spracherkennungssoftware, in der Einblendeinrichtung 54, mit deren Hilfe durch Sprach-Analyse erhaltene Wörter auf die Brille projiziert beziehungsweise auf die Netzhaut des Brillenträgers abgebildet werden, die den Inhalt des akustischen Signals widerspiegeln.For the representation of the acoustic signals by the insertion device 54, there are various possibilities, for which embodiments are presented below. One possible presentation would be the use of speech recognition, such as by means of speech recognition software, in the fade-in device 54, with the aid of which words obtained by speech analysis are projected onto the spectacles or imaged onto the retina of the spectacle wearer, which reflect the content of the acoustic signal.
Eine weitere Möglichkeit der optischen Darstellung des a- kustischen Signals 22 in optischer Weise ist das Einblenden einer Zeit-Überltensität-Darstellung durch die Einblendeinrichtung 54, wobei in Figur 5 ein Beispiel einer solchen Zeit-Uber-Intensität-Darstellung bzw. eines zeitlichen In- tensitätsverlaufs dargestellt ist. Aus der zeitlichen Darstellung des Intensitätsverlaufs des akustischen Signals ist das Gehirn des Brillenträgers in der Lage, durch einen Lernvorgang verschiedene sprachliche Muster in den akustischen Signalen zu erkennen und diese schließlich zu Wörtern und Sätzen zu formen. Bei dieser Darstellungsmöglichkeit würde also das Gehirn des Benutzers bzw. des Brillenträgers lernen, anhand der dargestellten zeitlichen Intensitätsdarstellung Wörter zu erkennen, so wie man eine neue Sprache lernt. In Figur 5 ist beispielsweise das zeitliche Intensi- tätsverlaufsdiagramm für vier hintereinander gesprochene artikulierte Worte /Wahn/, /Bahn/, /Zahn/ und /Lahn/, gezeigt, wobei deutlich zu erkennen ist, dass sich die ein- zelnen zeitlichen Intensitätsverläufe trotz der Ähnlichkeit der Phoneme deutlich unterscheiden. Somit verdeutlicht Figur 5, dass sich bei dieser Vorgehensweise auch ähnlich klingende Wörter unterscheiden lassen. Ein Vorteil der zeitlichen Intensitätsverlaufsdarstellung nach Figur 5 be- steht also auch darin, dass der Brillenträger auch andere Geräusche als Wörter wahrnehmen könnte, wie z.B. einen Knall oder ein Hupen. Dies bedeutete für hörbehinderte Personen, die eine Brille gemäß Figur 4 verwenden, eine höhere Sicherheit in gefährlichen Situationen.A further possibility of the optical representation of the acoustic signal 22 in an optical manner is the fading in of a time-excessity representation by the fader 54, FIG. 5 showing an example of such a time-over-intensity depiction or temporal information. is shown intensity course. From the temporal representation of the intensity profile of the acoustic signal, the brain of the spectacle wearer is able to recognize by a learning process different linguistic patterns in the acoustic signals and finally to form them into words and sentences. In this depiction, the brain of the user or of the spectacle wearer would thus learn to recognize words on the basis of the illustrated temporal intensity representation, just as one would a new language learns. FIG. 5 shows, for example, the temporal intensity profile diagram for four consecutively spoken articulated words / delusion /, / course /, / tooth / and / Lahn /, wherein it can clearly be seen that the individual temporal intensity progressions despite the Distinguish similarity of phonemes clearly. Thus, Figure 5 illustrates that similar sounding words can be distinguished in this approach. An advantage of the temporal intensity profile representation according to FIG. 5 is therefore also that the spectacle wearer could perceive sounds other than words, such as a bang or a horn. This meant for the hearing impaired persons who use glasses according to Figure 4, a higher level of safety in dangerous situations.
Ein weiteres Beispiel für eine Darstellung, die abhängig von den erfassten akustischen Signalen durch die Einblendeinrichtung 54 in die Sicht des Brillenträgers eingeblendet wird, ist in Figur 6 gezeigt. Gemäß Figur 6 wird beispiels- weise eine Frequenz-Uber-Zeit-Darstellung des akustischen Signals in die Sicht des Benutzers eingeblendet, wobei bei der Darstellung beispielsweise der Grad der Schattierung oder die Farbe an einer bestimmten Position des Spektrogramms die Intensität des Signals wiedergibt. Der Vorteil der Verwendung des Spektrogramms gegenüber der zeitlichen Intensitätsverlaufsdarstellung gemäß Figur 5 besteht darin, dass die Informationsdichte' höher ist, so dass dem Rezipienten gegebenenfalls eine genauere Entschlüsselung des semantischen Inhalts des akustischen Signals er- möglicht wird als durch reine Darstellung des zeitlichen Intensitätsverlaufs nach Fig. 5.Another example of a representation, which is superimposed by the insertion device 54 into the view of the spectacle wearer depending on the detected acoustic signals, is shown in FIG. According to FIG. 6, for example, a frequency-over-time representation of the acoustic signal is superimposed on the user's view, wherein, for example, the degree of shading or the color at a specific position of the spectrogram reflects the intensity of the signal. The advantage of using the spectrogram over the temporal intensity profile representation according to FIG. 5 is that the information density is higher, so that the recipient may be provided with a more accurate decoding of the semantic content of the acoustic signal than by merely displaying the temporal intensity profile according to FIG 5.
In Figur 6 ist exemplarisch das Spektrogramm für den deutschsprachigen Satz „Das gute Boot" dargestellt. Wie zu- sehen ist, entspricht eine Achse der Zeitachse, in Fig. 6 nämlich die horizontale Achse, und eine dazu senkrechte Achse eine spektrale Achse. Vorzugsweise blendet die Einblendeinrichtung 54 die optische Darstellung des erfassten akustischen Signals so in die Sicht des Brillenträgers ein, dass eine möglichst geringe Beeinflussung des Gesichtsfeldes des Brillenträgers gewährleistet ist. Beispielsweise könnte man das optische Informationssignal im Gesichtsfeld unten anordnen, wie es in Figur 7 angedeutet ist, die ein exemplarisch durch die Brillenfassung eingeschränktes Gesichtsfeld zeigt, in dem sich im unteren Abschnitt ein Feld 70 befindet, in die die Einblendeinrichtung 54 die optischen Informationen einblendet, die das akustische Signal, das durch die Erfassungseinrichtung 52 erfasst worden ist, repräsentieren. Wie im vorhergehenden erwähnt blendet die Einblendeinrichtung 54 beispielsweise alphanumerische Zeichen in das Feld 70 ein, die den Inhalt des akustischen Signals repräsentieren, oder einen zeitlichen Intensitätsverlauf des akustischen Signals wie in Figur 5 oder ein Spektrogramm des akustischen Signals wie in Figur 6. Das Einblenden kann statisch geschehen mit einem intermittierenden abrupten Wechsel des Inhalts in dem Feld 70, oder die optische Einblendeinrichtung 54 blendet die optische Repräsentation des erfassten akustischen Signals scrollend von einer Seite des Feldes 70 ein, so dass an dem gegenüberliegenden Ende des Feldes 70 die optische Darstellung verschwindet, wobei die Scrollgeschwindig- keit gemäß dem normalen Fortschreiten der Zeit geschehen kann.6 shows by way of example the spectrogram for the German sentence "Das gute Boot." As can be seen, one axis corresponds to the time axis, in FIG. 6 namely the horizontal axis, and a vertical axis corresponds to one spectral axis. Preferably, the insertion device fades the visual representation of the detected acoustic signal into the view of the spectacle wearer in such a way that the smallest possible influence on the visual field of the spectacle wearer is ensured. For example, one could arrange the optical information signal in the field of view at the bottom, as indicated in FIG. 7, which shows an exemplary field of view limited by the spectacle frame in which a field 70 is located in the lower section, into which the fader 54 fades in the optical information. which represent the acoustic signal detected by the detector 52. As mentioned above, the fader 54, for example, inserts alpha-numeric characters into the field 70 representing the content of the acoustic signal or a temporal intensity profile of the acoustic signal as in FIG. 5 or a spectrogram of the acoustic signal as in FIG static with an intermittent abrupt change of content in the field 70, or the optical fader 54 fades in the visual representation of the detected acoustic signal scrolling from one side of the panel 70 so that the optical representation disappears at the opposite end of the panel 70, wherein the scrolling speed may be in accordance with the normal progression of time.
Die Einblendeinrichtung 54 könnte dazu ausgebildet sein, ständig aus dem erfassten Audiosignal erhaltene optische Informationen in das Feld 70 einzublenden. Alternativ könnte die Einblendeinrichtung 54 dazu ausgelegt sein, dem Benutzer zu ermöglichen, zwischen einem Einblendmodus gemäß Figur 7 und einem Normalbrillenmodus, bei dem das Gesichtsfeld nicht durch das Feld 70 beeinträchtigt ist und die Einblendung der optischen Informationen unterbunden wird, zu wechseln, und zwar beispielsweise durch eine manuelle Betätigung einer entsprechenden Eingabeeinrichtung an der Brille, wie z.B. einem Knopf oder dergleichen (nicht ge- zeigt) . Alternativ könnte die Einblendeinrichtung 54 dazu ausgelegt sein, automatisch zwischen einem solchen Normalbrillenmodus und Einblendmodus zu wechseln, beispielsweise durch Analyse des erfassten akustischen Signals selbst. Ferner wäre ein anderer Einblendmodus als der in Figur 7 gezeigte ebenfalls möglich. Beispielsweise könnte es sein, dass die optischen Informationen, die den Inhalt des akustischen Signals repräsentieren, so eingeblendet werden, dass sie das gesamte Gesichtsfeld des Brillenträgers ein- nehmen, in welchem Fall der Brillenträger während des Einblendmodus zwar nichts sieht außer der optischen Repräsentation des akustischen Signals, aber beispielsweise manuell in den Normalbrillenmodus wechseln kann, wenn er dies gerade möchte.The fade-in device 54 could be designed to display optical information obtained continuously from the detected audio signal in the field 70. Alternatively, the fader 54 could be configured to allow the user to switch between a fade-in mode of FIG. 7 and a standard goggle mode in which the field of view is not affected by the field 70 and the fade-in of the optical information is inhibited, for example by manual actuation of a corresponding input device on the spectacles, such as a button or the like (not shown). shows) . Alternatively, the fader 54 could be configured to automatically switch between such a normal and fade mode, for example by analyzing the detected acoustic signal itself. Further, a fade-in mode other than that shown in FIG. 7 would also be possible. For example, the optical information representing the content of the acoustic signal may be superimposed so as to occupy the entire field of view of the spectacle wearer, in which case the spectacle wearer sees nothing during the fade-in mode except for the optical representation of the acoustic Signals, but for example, manually switch to normal glasses mode, if he just wants.
Mit der Hörhilfebrille gemäß Figur 4 könnten beliebige Geräusche der Natur, des Straßenverkehrs und andere potenziell gefährliche Umgebungen wahrgenommen und somit als Gefahr gebannt werden. Die Vorrichtung nach Figur 4 könnte aber auch beispielsweise verwendet werden, um das Lernen von Sprachen zu erleichtern. Dazu ist die Einblendeinrichtung 54 beispielsweise in der Lage, in einem etwas abgewandelten Betriebsmodus betrieben zu werden. In diesem Betriebsmodus blendet die Einblendeinrichtung 54 beispiels- weise eine optische Darstellung eines zuvor erfassten Wortes, wie 7. ,E-. das einer Mutter artikulierten Wortes, so lange ein, bis das Kind beziehungsweise der Brillenträger das Wort in hinreichend genauer Weise nachgesagt hat, wie z.B. im Hinblick auf Form und Intensität. Mit einem solchen Betriebs- bzw. Lernmodus könnte der Benutzer trotz eines eventuellen Hörschadens beziehungsweise einer eventuell vorliegenden Hörunfähigkeit Sprache lernen. Dies bedeutete auch, dass ein gehörgeschädigtes Kind beispielsweise eine völlig normale Schule besuchen könnte und damit nicht auf eine Taubstummen-Schule gehen müsste, da es mit einer solchen Brille, wie sie in Figur 4 gezeigt ist, weder taub wäre, noch stumm bleiben müsste, da ja das Kind in eine reflexive Sprachwechselwirkung mit der Umgebung treten könn- te, und zwar auf eine einfachere Art und Weise als mit Gebärdensprache .With the hearing aid glasses according to Figure 4 could be any sounds of nature, road traffic and other potentially dangerous environments perceived and thus banned as a danger. However, the device of Figure 4 could also be used, for example, to facilitate the learning of languages. For this purpose, the insertion device 54 is for example able to be operated in a slightly modified operating mode. In this operating mode, the fade-in device fades, for example, an optical representation of a previously detected word, such as 7th, e-. the word articulated to a mother, until the child or spectacle wearer has said the word in a sufficiently precise manner, such as in terms of form and intensity. With such an operating or learning mode, the user could learn language despite possible hearing damage or hearing impairment. This also meant that a hearing-impaired child, for example, could attend a completely normal school and thus not have to go to a deaf-mute school, since with such spectacles as shown in Figure 4, it would neither be deaf nor remain silent, since the child can enter into a reflexive language interaction with the environment. te, in a simpler way than with sign language.
Ein soeben angedeuteter Lernmodus könnte beispielsweise folgendermaßen ausgestaltet sein. Die Einblendeinrichtung 54 könnte ausgebildet sein, in dem Normalbetriebsmodus er- fasste akustische Signale auf eine der oben beschriebenen Weisen optisch darzustellen. Insbesondere könnte sie ausgebildet sein, eine der zeitaufgelösten Darstellungen nach beispielsweise Figur 5 und 6 zu verwenden, um die akustischen Signale optisch umzusetzen. Durch eine geeignete Eingabevorrichtung (nicht gezeigt), wie z.B. eine Taste an dem Brillengestell oder durch eine Spracheingabemöglichkeit vermittels der Erfassungseinrichtung 52, die in diesem Fall ferner als Teil der Eingabeeinrichtung fungiert, könnte die Einblendeinrichtung 54 dann in einen Lernmodus überführbar sein, in welchem dieselbe akustische Äußerungen des Benutzers neben oder in überlagerter Weise mit vorab gespeicherten optischen Darstellungen optisch anzeigt, so dass der Benutzer über sein Auge Abweichungen zwischen der vorgespeicherten Darstellung und der optischen Darstellung des von ihm Geäußerten bzw. Gesprochenen erkennen kann. Die vorab gespeicherte optische Darstellung kann in einem Aufzeichnungsmodus erhalten worden sein, in den die Einblend- einrichtung 54 beispielsweise auf ähnliche Weise versetzbar ist wie in den Lprnipodus. Allerdings könnte auch eine einmalige vorgabemäßige Speicherung von solchen Referenzdarstellungen vorgesehen sein. In dem Fall der optischen Darstellung gemäß Figur 6 könnte also beispielsweise in die Sicht des Benutzers während des Lernmodus ein zeitlicher Referenz-Intensitätsverlauf beispielsweise über oder unter dem aktuell erfassten zeitlichen Intensitätsverlauf angezeigt werden. Die zeitliche Ausrichtung der beiden Darstellungen könnte die Einblendeinrichtung 54 durch Korrelation der beiden Intensitätsverläufe realisieren, in dem beispielsweise sie die zeitliche relative Lage auswählt, die zu der besten Korrelation führt. Alternativ überlagert die Einblendeinrichtung 54 die beiden Intensitätsverläufe und hebt dabei beispielsweise die Unterschiede derselben farblich oder auf andere Weise hervor. Auf diese Weise kann der Benutzer erkennen, ob er zu laut oder undeutlich gesprochen hat. Um den Benutzer durch den Lernmodus zu führen, kann es vorgesehen sein, dass die Einblendeinrichtung 54 beispielsweise in alpha-numerischen Zeichen zunächst ein nachzusprechendes Wort anzeigt und daraufhin die optische Darstellung des von dem Benutzer gesprochenen wie soeben dargestellt gleichzeitig mit der vorab gespeicherten Referenzdarstel- lung anzeigt. Dabei sieht die Einblendeinrichtung 54 beispielsweise mehrere Wiederholungen des Nachsprechens vor, bevor auf diese Weise zum nächsten Wort fortgeschritten wird. Auf die soeben dargelegte Art und Weise lernt der Benutzer Sprechen und gegebenenfalls auch das „sehend Hören" mit der Hörbrille. In einem etwas abgewandelten Lernmodus wäre es ferner möglich, dass die Einblendeinrichtung 54 dem Benutzer verschiedene optische Darstellungen unterschiedlicher akustischer Signale vorgibt, die der Benutzer erkennen soll. Beispielsweise blendet die Einblendeinrichtung 54 nacheinander unterschiedliche semantische aber nicht wortmäßig artikulierte Signale, wie z.B. Signalhörner, Hupen, Sirenen oder andere charakteristische ungesprochene Audiosignale, oder aber Worte optisch ein, die dann der Benutzer erkennen soll, wobei der Benutzer seine Vermutung bzw. sein vermeintlich richtiges Wissen beispielsweise über Spracheingabe eingibt. Die Einblendeinrichtung 54 könnte dann die Richtigkeit oder Inkorrektheit der Vermutung im Anschluss in die Sicht des Benutzers einblenden, indem sie beispielsweise gemäß Fig. 3 oder per Spracherkennung auf den vermu- teten semantischen Gehalt des von dem Benutzer Geantworteten schließt und mit dem tatsächlich in der optischen Darstellung eingeblendeten Wort bzw. Signal vergleicht. Auf die soeben dargelegte Art und Weise könnte ein Benutzer natürlich auch erst das „optische Hören" lernen, indem die Brille dem Benutzer nacheinander ähnlich wie beim Vokabellernen vorab gespeicherte Darstellungen von Wörtern einblendet, die der Benutzer dann erkennen soll. Auf die soeben beschriebene Art und Weise könnte also mittels einer auf der Hörbrille ablaufenden Software dem Benutzer geholfen werden, den Umgang mit der Hörbrille zu erlernen. In mehreren pädagogisch sinnvollen Schritten könnte so ein Lernverfahren realisiert werden, das den Benutzer dazu anleitet, Wörter zu lernen, Lautstärken einschätzen zu lernen und Gefahrensignale in beispielsweise Hintergrundrauschen zu erkennen etc.A just-indicated learning mode could for example be configured as follows. The insertion device 54 could be designed to visually represent acoustic signals detected in the normal operating mode in one of the manners described above. In particular, it could be designed to use one of the time-resolved representations according to, for example, FIGS. 5 and 6 in order to optically convert the acoustic signals. By a suitable input device (not shown), such as a button on the eyeglass frame or by a voice input option by means of the detection device 52, which in this case also acts as part of the input device, the fader 54 could then be converted into a learning mode, in which the same acoustically utterances of the user next to or in a superimposed manner with pre-stored optical representations visually displays, so that the user can recognize deviations between the pre-stored representation and the visual representation of what he voiced or spoken by his eye. The pre-stored optical representation may have been obtained in a recording mode in which the fader 54 is for example displaceable in a similar manner as in the Lprnipodus. However, a one-time default storage of such reference representations could also be provided. In the case of the optical representation according to FIG. 6, a temporal reference intensity profile could thus be displayed, for example in the view of the user during the learning mode, for example above or below the currently recorded temporal intensity profile. The temporal alignment of the two representations could be realized by the fader 54 by correlation of the two intensity profiles, in which, for example, it selects the temporal relative position which leads to the best correlation. Alternatively, the superimposition device 54 superimposes the two intensity profiles and For example, highlights the differences in color or otherwise. In this way, the user can tell if he spoke too loudly or indistinctly. In order to guide the user through the learning mode, it may be provided that the fade-in device 54 firstly displays a word to be repeated in alpha-numeric characters and then the visual representation of the user's speech as just described simultaneously with the previously stored reference display displays. In this case, the fade-in device 54 provides, for example, a number of repetitions of the retransmission, before proceeding to the next word in this way. In a slightly modified learning mode, it would also be possible for the fader 54 to provide the user with various visual representations of different acoustic signals that the user may be making For example, the fade-in device 54 successively fades in different semantic but not word-wise articulated signals, such as signal horns, horns, sirens or other characteristic unspoken audio signals, or words optically, which the user is to recognize, the user assuming his guess or The fade-in device 54 could then fade in the correctness or incorrectness of the conjecture subsequently into the user's view, for example by suspending it in accordance with FIG s semantic content of the user answered and compared with the actually displayed in the optical representation of the word or signal. Of course, in the manner just outlined, a user could also first learn "optical hearing" by having the spectator sequentially fade the user into pre-stored representations of words that the user should then recognize, similar to vocabulary learning. In the manner just described, the user could thus be helped by means of a software running on the hearing aid to learn how to handle the hearing glasses. In several pedagogically meaningful steps such a learning process could be realized, which instructs the user to learn words, to learn to estimate the volume and detect danger signals in, for example, background noise.
Wie im Vorhergehenden bezugnehmend auf Figur 4 bereits beschrieben kann es sein, dass mehr als ein akustischer Sensor entlang der Brille angeordnet ist. In Figur 8 ist dies beispielsweise für den Fall von zwei akustischen Sensoren dargestellt, die entlang des Brillengestells 80 aus Bril- lenfassung 82 und Bügeln 84 an den seitlichen Enden der Brillenfassung 82 angeordnet und mit dem Bezugszeichen 86 angezeigt sind. Natürlich könnten die akustischen Sensoren 86 auch anders angeordnet sein als in Figur 8 dargestellt. Vorzugsweise sind die akustischen Sensoren 86 allerdings wie darδgestellt so angeordnet, dass sie bei Projektion in die Horizontalebene des Brillenträgers - in dem Fall des Aufrechtstehens - versetzt angeordnet sind, wie es der Draufsicht des Dreitafelbildes von Figur 8 unten zu entnehmen ist. Insbesondere ist es bevorzugt, wenn die akusti- sehen Sensoren 86 in dieser Projektion entlang bzw. auf der queren Achse 88 versetzt zueinander angeordnet sind, so dass akustische Signale, die aus einer Richtung 90 stammen, die zu der sagittalen Achse 92 geneigt sind, an den akustischen Sensoren 86 mit unterschiedlichem Phasenversatz ein- treffen.As already described above with reference to FIG. 4, it is possible for more than one acoustic sensor to be arranged along the spectacles. In FIG. 8 this is illustrated, for example, in the case of two acoustic sensors which are arranged along the spectacle frame 80 made of spectacle frame 82 and brackets 84 at the lateral ends of the spectacle frame 82 and indicated by the reference symbol 86. Of course, the acoustic sensors 86 could also be arranged differently than shown in FIG. However, the acoustic sensors 86 are preferably arranged as shown so that they are offset when projected into the horizontal plane of the spectacle wearer - in the case of standing upright - as can be seen from the top view of the three-panel image of FIG. 8 below. In particular, it is preferable if the acoustic sensors 86 are arranged offset in this projection along or on the transverse axis 88 to each other, so that acoustic signals originating from a direction 90, which are inclined to the sagittal axis 92 to the acoustic sensors 86 meet with different phase offset.
Es wird darauf hingewiesen, dass alternativ zu dem Ausführungsbeispiel von Fig. 8, die akustischen Sensoren 86 auch in der Gegend der Enden der Bügel 84 angeordnet sein könn- ten, die der Brillenfassung 82 abgewandt sind und sich somit näher zu den Ohren des Brillenträgers befinden. Zur Richtungserfassung könnte in diesem Fall auch Nutzen aus der Verdeckung des der Schallquelle abgewandten bzw. des durch den Knopf abgeschatteten Ohres gezogen werden. Andererseits bedeutet aber die Verdeckung auch einen erhöhten Aufwand zur Richtungserfassung, da die Verdeckung bei der Richtungserfassung auf jeden Fall berücksichtigt werden muss. Die in Fig. 8 gezeigte Anbringung an der Brillenfassung kann deshalb bezüglich der notwendigen Rechenleistung zur Richtungserfassung eine Vereinfachung bedeuten, was Kostenvorteile und/oder Leistungsverbrauchsvorteile liefern kann, so dass eine Batterieentladezeit länger sein kann.It should be noted that as an alternative to the exemplary embodiment of FIG. 8, the acoustic sensors 86 could also be arranged in the region of the ends of the brackets 84, which face away from the spectacle frame 82 and thus are closer to the ears of the spectacle wearer , For direction detection in this case could benefit from the concealment of the sound source facing away from or be pulled by the button shadowed ear. On the other hand, the obscuration also means an increased effort for direction detection, since the occlusion in the direction detection must be taken into account in any case. The mounting on the spectacle frame shown in FIG. 8 can therefore be a simplification in terms of the necessary computing power for direction detection, which can provide cost advantages and / or power consumption advantages, so that a battery discharge time can be longer.
Figur 9 zeigt beispielsweise eine Möglichkeit, wie die Ausgangssignale mehrerer akustischer Sensoren ausgenutzt werden könnten. Gemäß Figur 9 umfasst die Einblendeinrichtung 54 einen Richtungsdetektor 100 und eine Verarbeitungsein- richtung 102. Beide sind mit den akustischen Sensoren 86 verbunden. Der Richtungsdetektor 100 ist ausgebildet, um aus den Ausgangssignalen der akustischen Sensoren 86 die Richtung 90 zu ermitteln, aus der das akustische Signal stammt, dass die akustischen Sensoren 86 erfassen, wobei die Verarbeitungseinrichtung 102 die ermittelte Richtung verwendet, um einen Aktuator 104, wie z.B. die vorerwähnte Anzeige, abhängig von der ermittelten Richtung anzusteuern. Insbesondere bedeutet dies, dass die Verarbeitungseinrichtung 102 beispielsweise die optische Information farbco- diert mit einer Farbe anzeigt, die von der Richtung abhängt, die der Richtungsdetektor 100 ermittelt hat. Auf diese Weise erhält der Brillenträger eine Information darüber, woher beziehungsweise aus welcher Richtung das akustische Signal stammt, das durch die optische Information beschrieben wird, die die Einblendeinrichtung 54 in die Sicht des Brillenträgers einblendet. Das Einblenden einer eigens vorgesehenen Zeichens zur Anzeige der Richtung, aus der das erfasste Audiosignal stammt, wie z.B. der lauteste Anteil, wie z.B. mittels eines Pfeils oder einer farbco- dierten Hintergrundfarbe in die das erfasste optische Signal anzeigende Information ist aber ebenfalls möglich. Zum Beispiel zeigt Fig. IIa ein Ausführungsbeispiel für eine Einblendung in ein Gesichtsfeld des Brillenträgers, wonach die erfasste Richtung mittels eines Pfeils 140 angezeigt wird, der in die Sicht des Benutzers eingeblendet wird und in die Richtung deutet, aus der der erfasste akustische Schall, wie z.B. der lauteste Beitrag, stammt. In Fig. IIa ist exemplarisch angedeutet, dass der Pfeil 140 in die Richtung einer Tür 142 zeigt, die der Brillenträger sieht. Fig. IIa deutet ferner an, dass gemäß dem Ausfüh- rungsbeispiel von Fig. 3 das akustische Signal ggf. semantisch analysiert worden sein kann, um zu erkennen, um welchen Typ bzw. welche Art von Geräusch es sich handelt. Zum Beispiel wird zwischen plätschernden, knackenden, pfeifenden usw. Geräuschen unterschieden. Der erkannte Geräuschtyp kann mit einem entsprechenden Symbol 144 und/oder durch eine entsprechende Beschriftung 146 des Pfeiles 140 angedeutet werden, wie es in Fig. IIa illustrativ für beide Fälle dargestellt ist. Fig. IIb zeigt noch eine Alternative, wonach zur Richtungsanzeige dem Brillenträger gegenüber die erkannte Richtung nicht etwa durch einen Pfeil angezeigt wird, sondern durch Hervorhebung bzw. Markierung eines Objektes oder einer Stelle in der Sicht des Brillenträgers, von dem bzw. von der das akustische Signal stammt. Fig. IIb zeigt beispielsweise illustrativ einen Fall, wonach der Brillenträger vor sich eine Wiese 150 sieht, an die sich Büsche 152 anschließen, wobei ein Busch 154 durch eine Markierung 156, wie z.B. eine Umrandung oder ein Blinken des dem Busch 156 entsprechenden Teils des Sichtfeldes hervorgehoben ist, um anzuzeigen, dass aus dieser Richtung das akustische Signal bzw. das Geräusch stammt, das durch die akustischen Sensoren erfasst worden ist. Fig. IIb zeigt wieder exemplarisch, dass durch ein Symbol 158 der Typ des Geräusches angezeigt werden könnte, hier exemplarisch ein knackendes Geräusch.For example, Figure 9 shows one way in which the output signals of several acoustic sensors could be exploited. According to FIG. 9, the insertion device 54 comprises a direction detector 100 and a processing device 102. Both are connected to the acoustic sensors 86. The direction detector 100 is configured to determine from the output signals of the acoustic sensors 86 the direction 90 from which originates the acoustic signal that the acoustic sensors detect 86, wherein the processing device 102 uses the determined direction to an actuator 104, such as the aforementioned display, depending on the determined direction to drive. In particular, this means that the processing device 102 displays, for example, the color-coded optical information with a color that depends on the direction that the direction detector 100 has detected. In this way, the spectacle wearer obtains information about where or from which direction the acoustic signal originates, which is described by the visual information which the insertion device 54 inserts into the view of the spectacle wearer. The insertion of a specially provided character for indicating the direction from which the detected audio signal originates, such as the loudest portion, such as by means of an arrow or a color-coded background color in the information indicating the detected optical signal is also possible. For example, Fig. IIa shows an exemplary embodiment for a fade in a field of view of the spectacle wearer, after which the detected direction is indicated by an arrow 140, which is superimposed in the user's view and points in the direction from which the detected acoustic sound, such as eg the loudest contribution comes. In Fig. IIa is indicated by way of example that the arrow 140 points in the direction of a door 142, which sees the spectacle wearer. 11a further indicates that, according to the exemplary embodiment of FIG. 3, the acoustic signal may possibly have been analyzed semantically in order to detect which type or type of noise is involved. For example, a distinction is made between rippling, crackling, whistling, etc. noises. The detected type of noise can be indicated by a corresponding symbol 144 and / or by a corresponding inscription 146 of the arrow 140, as illustrated in FIG. IIa illustratively for both cases. Fig. IIb shows yet another alternative, according to which the direction of the spectacle wearer against the detected direction is not indicated by an arrow, but by highlighting or marking an object or a point in the view of the wearer, from or from the acoustic Signal comes. For example, Fig. IIb illustratively shows a case where the eyeglass wearer sees in front of him a meadow 150 followed by bushes 152, a bush 154 being indicated by a mark 156, such as a border or flashing portion of the field of view corresponding to the bush 156 is highlighted to indicate that the acoustic signal or noise detected by the acoustic sensors originates from this direction. FIG. 11b again shows by way of example that the type of the noise could be indicated by a symbol 158, here by way of example a crackling noise.
Die Fig. IIa und IIb machen ferner deutlich, dass eine Brille gemäß beispielsweise Fig. 8 mit akustischen Sensoren 86 auch dazu verwendet werden kann, einen Brillenträger Ie- diglich eine Richtungsempfindlichkeit für Schall zu erleichtern bzw. erst zu ermöglichen, ohne die Schallinformationen zur weitergehenden Analyse visuell an den Brillenträger weiterzugeben. Anders ausgedrückt, muss dem Brillen- träger gemäß einem Ausführungsbeispiel nicht zwangsläufig die Möglichkeit zur Sprachwahrnehmung gegeben werden. In vielen Fällen ist bereits ein Hinweis auf eine Richtung, aus der ein bestimmtes Geräusch kommt, hilfreich. Das gilt für Gehörlose bzw. Gehörbehinderte ebenso wie für Menschen, die in gefährlichen, lebensbedrohlichen oder ähnlichen Situationen zum Einsatz kommen, wie z.B. Polizisten, Lawinensucher, Rettungskräfte oder dergleichen. Die zusätzliche semantische Angabe der Art des Geräusches ist dabei ebenfalls lediglich optional, hilft aber dem Nutzer, der even- tuell, obwohl er vielleicht hören kann, seine Konzentration für ganze andere Dinge benötigt als für die Unterscheidung verschiedener Geräusche.FIGS. 11 a and 11 b further make it clear that spectacles according to, for example, FIG. 8 with acoustic sensors 86 can also be used to support a wearer of glasses. to facilitate a directional sensitivity for sound or to enable it only without passing on the sound information for further analysis visually to the wearer. In other words, according to one exemplary embodiment, the spectacle wearer does not necessarily have to be given the option of speech perception. In many cases, an indication of a direction from which a particular sound comes is helpful. This applies to the deaf or the deaf as well as to people who are used in dangerous, life-threatening or similar situations, such as police officers, avalanche searchers, rescue workers or the like. The additional semantic indication of the type of sound is also optional, but it helps the user, who may perhaps, although he may hear, need his concentration for other things than for distinguishing different sounds.
Das Ausführungsbeispiel von Figur 9 zeigt also, dass es möglich ist, mit mehreren auf einer Brille angebrachten a- kustischen Sensoren eine Phasenverschiebung des akustischen Signals zu detektieren und somit eine Richtungscodierung ankommender akustischer Signale derart zu bewirken, dass beispielsweise von vorne ankommende akustische Signale mit blau, von hinten ankommende akustische Signale mit rot, von links ankommende akustische Signale mit grün und von rechts ankommende akustische Signale mit gelb codiert werden könnten, wodurch der Rezipient beziehungsweise Brillenträger stets wüsste, aus welcher Richtung die Geräusche kommen, die durch die optische Darstellung in seinem Gesichtsfeld repräsentiert werden.The exemplary embodiment of FIG. 9 thus shows that it is possible to detect a phase shift of the acoustic signal with a plurality of acoustic sensors mounted on a pair of glasses and thus to effect direction coding of incoming acoustic signals in such a way that, for example, blue acoustic signals arriving from the front , acoustic signals arriving from behind could be coded with red, acoustic signals arriving from the left with green and acoustic signals arriving from the right could be coded with yellow, whereby the recipient or spectacle wearer would always know from which direction the noises are coming from Visual field are represented.
Figur 10 zeigt exemplarisch eine weitere Alternative und/oder zusätzliche Möglichkeit, wie aus der Verwendung mehrerer akustischer Sensoren 86 Nutzen gezogen werden könnte. Wie es in Figur 10 gezeigt ist, kann die Einblendeinrichtung 54 beispielsweise einen Richtungsdetektor 110, ein Richtungsfilter 112 und optional eine Verarbeitungsein- richtung 114 aufweisen. Richtungsdetektor 110 und Richtungsfilter 112 sind an die Ausgänge der akustischen Sensoren 86 gekoppelt, wobei der Richtungsdetektor 110 die Richtung detektiert, aus der das akustische Signal stammt, wäh- rend das Richtungsfilter 112 die Ausgangssignale der akustischen Sensoren 86 so filtert, dass das Signal-/Rausch- Verhältnis des akustischen Signals, das aus der erfassten Richtung stammt, erhöht oder sogar optimiert wird, wobei auf Basis dieses Signals ein Aktuator 116 der Einblendein- richtung 54, wie z.B. eine Anzeige gegebenenfalls vermittels der optionalen Verarbeitungseinrichtύng 114 angesteuert werden könnte. Auf diese Weise ließe sich eine selektive Geräuschfilterung durchführen, die z.B. Vorteile in dem Fall einer unruhigen Schulklasse oder einer Kneipe hätte. Durch die durch das Richtungsfilter 112 implementierte richtungsabhängige, variable Geräuschverstärkung könnte beispielsweise ein Lehrer oder generell ein Gegenüber trotz Hintergrundgeräuschen von dem Rezipienten beziehungsweise Brillenträger besser verstanden werden.FIG. 10 shows by way of example a further alternative and / or additional possibility as to how it would be possible to benefit from the use of a plurality of acoustic sensors 86. For example, as shown in FIG. 10, the fader 54 may include a direction detector 110, a directional filter 112, and optionally a processing unit. direction 114 have. Directional detector 110 and directional filter 112 are coupled to the outputs of the acoustic sensors 86, the directional detector 110 detecting the direction from which the acoustic signal originates, while the directional filter 112 filtering the output signals of the acoustic sensors 86 so that the signal / Noise ratio of the acoustic signal originating from the detected direction, is increased or even optimized, based on this signal, an actuator 116 of the Einblendein- direction 54, such as a display could optionally be controlled by means of the optional processing device 114. In this way, a selective noise filtering could be carried out, for example, would have advantages in the case of a troubled school class or a pub. The direction-dependent, variable noise amplification implemented by the directional filter 112 could, for example, better understand a teacher or generally a counterpart despite background noise from the recipient or spectacle wearer.
Die im Vorhergehenden beschriebenen Ausführungsbeispiele liefern beispielsweise für Taubstumme eine bisher noch nie da gewesene Möglichkeit der Hörfähigkeit und des Sprechvermögens. Mit obigen Ausführungsbeispielen könnten hörbehin- derte Menschen quasi ein normales Leben führen, was das pädagogische und integrative Element obiger Ausführungsbeispiele belegt. Zudem sind oben dargestellte Ausführungsbeispiele auch für Menschen mit nur eingeschränkter Hörfähigkeit den in der Beschreibungseinleitung beschriebenen ge- hörverstärkenden Methoden überlegen, da Komplikationen, die durch ein Implantat entstehen können, bei den meisten oben erwähnten Ausführungsbeispielen nicht gegeben sind. Auch im Straßenverkehr und in anderen gefahrenträchtigen Situationen ermöglichen oben beschriebene Ausführungsbeispiele zu- meist eine erhebliche Reduktion des Gefahrenpotenzials. In Situationen mit lautem Hintergrundpegel bieten die bezüglich Figuren 8 bis 10 beschriebenen Ausführungsbeispiele beispielsweise die Möglichkeit einer selektiven Geräuschfilterung, wie es im vorhergehenden beschrieben worden ist.The embodiments described above provide, for example, for deaf-mutes a hitherto unprecedented possibility of hearing and speech. With the above embodiments, hearing-impaired people could virtually lead a normal life, which proves the educational and integrative element of the above exemplary embodiments. Moreover, embodiments illustrated above are also superior to the hearing-amplifying methods described in the introduction to the description for people with limited hearing, since complications that may arise due to an implant are not given in most embodiments mentioned above. In road traffic and in other dangerous situations, the above-described exemplary embodiments mostly enable a considerable reduction of the potential danger. In background noise situations, the embodiments described with respect to FIGS. 8 to 10 provide for example, the possibility of selective noise filtering as described above.
Somit zeigen obige Ausführungsbeispiele eine Art und Weise, wonach akustische Signale, wie z.B. Laute, Wörter oder Geräusche, in visuelle umgesetzt werden, wodurch die oben genannten Vorteile entstehen.Thus, the above embodiments show a manner in which acoustic signals, such as e.g. Loud, words or sounds, are translated into visual, giving rise to the advantages mentioned above.
Lediglich der Vollständigkeit halber wird darauf hingewie- sen, dass die Möglichkeit der Verwendung mehrerer akustischer Sensoren natürlich nicht auf das Ausführungsbeispiel mit einer Brille beschränkt ist, vor welchem Hintergrund die Verwendung mehrerer akustischer Sensoren in den Figuren 8 bis 10 beschrieben worden ist. Vielmehr ist es natürlich möglich, die akustischen Sensoren nicht etwa an einer Brille angebracht versetzt zueinander von dem Benutzer der Hörhilfevorrichtung tragen zu lassen, sondern es wäre beispielsweise ferner möglich, dass der Benutzer mehrere akustische Sensoren auf sonstige Weise mit sich trägt, wie z.B. als Ohrringe am Ohr oder dergleichen. Dementsprechend ist eine richtungsabhängige Stimulation, wie sie in Figur 9 beschrieben worden ist auch nicht auf die Stimulation der visuellen Wahrnehmung beschränkt, sondern kann natürlich auch auf die Stimulation anderer nicht-auditiver Wahrnehmungen übertragen werden, wie z.B. durch Vibrationen über einen Ohrring. So könnte beispielsweise die Stimulation der hap- tischen Wahrnehmung an unterschiedlichen Hautstellen durchgeführt werden, je nach Richtung, aus der das akustische Signal stammte. Zwei Ohrringe mit je einer akustischen Er- fassungseinrichtung könnten beispielsweise über eine drahtlose Schnittstelle miteinander gekoppelt sein, so dass die richtungsabhängige Verarbeitung nach Fig. 9 und/oder 10 in Zusammenhang mit der akustoabhängigen Reizung der Ohrläppchen ermöglicht würde. Fig. 12 zeigt beispielsweise ein Ausführungsbeispiel, wonach zwei Ohrringe 160a und 160b für das rechte bzw. linke Ohr 162a bzw. 162b eines Ohrringträgers 164 jeweils mit einem akustischen Sensor 86 versehen sein könnten, um die zuvor beschriebene Richtungserkennung zu ermöglichen. Ferner könnte jeder der Ohrringe 160a und 160b mit einem haptischen Aktuator, wie z.B. einem Vibra- tor, 166a bzw. 166b versehen sein, die in der Lage sind, das Ohr 162a bzw. 162b oder zumindest das Ohrläppchen hap- tisch zu stimulieren. Die Stimulation könnte abhängig von der erkannten Richtung sein. Das der Schallquelle (nicht gezeigt) abgewandte Ohr könnte beispielsweise mit einem geringeren Pegel haptisch stimuliert werden als das der Schallquelle zugewandte Ohr. Zudem könnte beispielsweise eine Frequenz einer impulsartigen Anregung des verdeckten und/oder nicht-verdeckten Ohres dazu verwendet werden, dem Ohrringträger 164 einen relativen Winkel zur sagittalen Achse anzuzeigen, unter dem das Geräusch eintrifft.Of course, for the sake of completeness, it is pointed out that the possibility of using a plurality of acoustic sensors is of course not limited to the exemplary embodiment with spectacles, against which background the use of a plurality of acoustic sensors has been described in FIGS. 8 to 10. Rather, it is of course possible to have the acoustic sensors not attached to glasses offset from each other by the user of the hearing aid wear, but it would also be possible, for example, that the user carries several acoustic sensors in any other way, such as earrings at the ear or the like. Accordingly, directional stimulation, as described in Figure 9, is not limited to the stimulation of visual perception, but may of course also be applied to the stimulation of other non-auditory perceptions, such as vibrations via an earring. For example, the stimulation of haptic perception at different skin sites could be performed, depending on the direction in which the acoustic signal originated. Two earrings, each with an acoustic detection device, could for example be coupled to one another via a wireless interface, so that the direction-dependent processing according to FIGS. 9 and / or 10 would be made possible in connection with the acousto-dependent irritation of the ear lobes. For example, FIG. 12 shows an embodiment whereby two earrings 160a and 160b for the right and left ears 162a and 162b, respectively, of an earring carrier 164 could each be provided with an acoustic sensor 86 for the directional detection described above to enable. Further, each of the earrings 160a and 160b could be provided with a haptic actuator, such as a vibrator 166a and 166b, respectively, which are capable of haptically stimulating the ear 162a or 162b or at least the earlobe. The stimulation could be dependent on the detected direction. The ear facing away from the sound source (not shown) could, for example, be haptically stimulated with a lower level than the ear facing the sound source. In addition, for example, a frequency of pulsed excitation of the hidden and / or uncovered ear could be used to indicate to the earring carrier 164 a relative angle to the sagittal axis below which the noise arrives.
Ähnlich zu dem Ausführungsbeispiel von Fig. 12 zeigt Fig. 13, dass Hörgeräte 180a bzw. 180b zur binauralen Hörhilfestimulation des Hörnervs, die am linken und rechten Ohr 182a und 182b eines Benutzers 184 getragen werden sollen, jeweils mit einem akustischen Sensor 86 versehen sein könn- ten sowie zusätzlich mit haptischen Aktuatoren, wie z.B. Vibratoren, 186a bzw. 186b. Der Benutzer, dessen geschädigter Hörnerv über die Hörgeräte 180a und 180b binaural angeregt wird, besitzt über diese Hornervanregung sehr wahrscheinlich keine Richtungssensitivität für Schall. Vermit- tels der Aktuatoren 186a, 186b könnte dem Benutzer 184 aber die Richtung des gerade vorliegenden Geräusches bzw. des gerade vorliegenden akustischen Signals angezeigt werden, nämlich in Umgehung des Hörnervs.Similar to the embodiment of FIG. 12, FIG. 13 shows that hearing aids 180a and 180b, respectively, for the binaural hearing aid simulation of the auditory nerve to be worn on the left and right ears 182a and 182b of a user 184 may each be provided with an acoustic sensor 86 - and in addition with haptic actuators, such as Vibrators, 186a and 186b, respectively. The user, whose damaged auditory nerve is binaurally excited via the hearing aids 180a and 180b, is very unlikely to have directional sensitivity to sound via this horn excitation. By means of the actuators 186a, 186b, however, the user 184 could be shown the direction of the currently existing noise or of the acoustic signal currently present, namely in circumvention of the auditory nerve.
Obwohl bezüglich der Fig. 12 und 13 nicht explizit darauf hingewiesen worden ist, sei noch einmal erwähnt, dass in den Ohrringen bzw. Hörgeräten eine entsprechende Verarbeitungseinrichtung bzw. ein entsprechender Richtungsdetektor, wie sie im Vorhergehenden beschrieben wurden, integriert sein kann, ebenso wie die akustischen Sensoren und die haptischen Aktuatoren. Die Hörgeräte können Im-Ohr-Geräte, Hinter-dem-Ohr-Geräte oder implantierbare Hörgeräte sein. In diesem Zusammenhang wird auch darauf hingewiesen, dass obige Brillenausführungsbeispiele optional mit einer die haptische menschliche Wahrnehmung abhängig von den erfass- ten akustischen Signalen stimulierenden Einrichtung gekop- pelt werden könnte. Dies wird exemplarisch in Fig. 8 veranschaulicht, in der dargestellt ist, dass möglicherweise an demjenigen Teil der Bügel 84 der Brille, der den Kopf des Brillenträgers in der Gegend der Ohren desselben berührt, Vibratoren oder sonstigen die haptische Wahrnehmung des Brillenträgers stimulierende Einrichtungen angeordnet sein können, die abhängig von dem durch die akustischen Sensoren erfassten akustischen Signal angesteuert werden können. Solche Einrichtungen können auch an Nasenauflageflächen der Brillenfassung angeordnet sein, wie es mit den Bezugszei- chen 122a und 122b gezeigt ist. Solche an der Innenseite des Brillengestells angeordneten Einrichtungen 120a-122b, wie z.B. Vibrationspads, könnten auch auf andere Weise abhängig von dem erfassten akustischen Signal angesteuert werden als die optische Einblendeinrichtung. Während die optische Einblendung beispielsweise wie im vorhergehenden erwähnt dem Brillenträger das „Hören" ermöglichen soll, werden zur Ansteuerung der Vibratoren beispielsweise nur sehr laute Geräusche ausgewertet, die eine bestimmte Lautheitsschwelle überschreiten. Vibrationsfrequenz und Stärke könnten beispielsweise abhängig von einer Lautheit des akustischen Signals und/oder einer RelaLivgeschwmdig- keit oder einem Abstand der Geräuschquelle zum Rezipienten eingestellt werden, um den Rezipienten beispielsweise vor Gefahren zu warnen, wie z.B. in Autos im Straßenverkehr, oder eine Teilnahme im normalen Sportunterricht zu ermöglichen. Die Verarbeitungseinrichtung 54 wertet dazu beispielsweise die Phasenverschiebung der ankommenden Signale von der Geräuschquelle und/oder eine Lautheit der ankommenden Signale aus, um ein Maß für die Geschwindigkeit und/oder einen Abstand zum Rezipienten oder einfach nur ein Maß für die Lautstärke zu erhalten. Bei überschreiten einer Lautheitsschwelle und/oder Unterschreitung eines Mindest- abstands und/oder Überschreitung eines Geschwindigkeits- schwelle könnten dann die Einrichtungen 120a-122b den Rezi- pienten warnen, und zwar gemäß Fig. 9 sogar richtungsabhängig. Natürlich wäre eine Brille als Hörhilfe auch schon mit lediglich einer der Einrichtungen 120a-122b, also lediglich einer haptischen Wahrnehmungsanregung ohne optische Einblendung eine Hilfe für einen Brillenträger und stellt somit ein mögliches Ausführungsbeispiel dar.Although no explicit reference has been made to FIGS. 12 and 13, it should be mentioned once again that a corresponding processing device or a corresponding direction detector, as described above, can be integrated in the earrings or hearing devices, as can the acoustic sensors and the haptic actuators. The hearing aids may be in-the-ear, behind-the-ear or implantable hearing aids. In this connection, it should also be pointed out that the above spectacle embodiments could optionally be coupled with a device which stimulates haptic human perception as a function of the detected acoustic signals. This is illustrated by way of example in Fig. 8, which illustrates that possibly at that part of the bracket 84 of the glasses, which touches the head of the wearer in the vicinity of the ears of the same vibrators or other haptic perception of the spectacle wearer stimulating facilities arranged can be controlled depending on the acoustic signal detected by the acoustic sensors. Such devices can also be arranged on nose support surfaces of the spectacle frame, as shown by reference numerals 122a and 122b. Such devices 120a-122b arranged on the inside of the spectacle frame, such as vibration pads, could also be controlled in another way as a function of the detected acoustic signal than the optical insertion device. For example, as mentioned above, while the optical display should allow the wearer to "hear", only very loud noises that exceed a certain loudness threshold are evaluated to trigger the vibrators. or at a distance from the noise source to the recipient, for example to warn the recipient of dangers, such as in cars on the road, or to allow participation in normal physical education, for example, the processing means 54 evaluates the phase shift of the incoming Signals from the noise source and / or loudness of the incoming signals to obtain a measure of the speed and / or a distance to the recipient or just a measure of the volume r loudness threshold and / or dropping below a minimum distance and / or exceeding a speed limit Then, the devices 120a-122b could warn the reciever, in fact, depending on the direction, as shown in FIG. Of course, a pair of glasses as a hearing aid with only one of the devices 120a-122b, so only a haptic perception excitation without optical fade would be an aid to a wearer of glasses and thus represents a possible embodiment.
Aber nicht nur die Richtungsabhängigkeit ist auf die ande- ren, nicht auf den optischen Umweg bezogenen Ausführungsbeispiele übertragbar. Obwohl im Vorhergehenden Lernmodi vr dem Hintergrund der Hörbrille beschrieben wurden, sind solche Lernmodi in etwas abgewandelter Form auch auf die anderen Ausführungsbeispiele mit Stimulation eines anderen Al- ternativsinns als dem visuellen übertragbar.But not only the directionality is transferable to the other, not on the optical detour related embodiments. Although the prior learning modes have been described in the background of the hearing glasses, such learning modes are also somewhat modified in their transferability to the other embodiments with stimulation of a different age sense than the visual one.
Ferner wird darauf hingewiesen, dass im vorhergehenden bezugnehmend auf die Figuren 4 und 8 zwei Brillengestelle gezeigt worden sind, bei denen das Gestell neben der Brillen- fassung Bügel besaß, dass aber auch andere Beispiele von Brillen möglich sind, die sich von der gezeigten Brillenform z.B. auch dadurch unterscheiden können, dass die Brille als Zwicker ausgeführt ist oder als Monokel oder als Brille mit die Brillengläser nur teilweise oder gar nicht umfassenden Brillenfassung.It should also be noted that in the foregoing with reference to Figures 4 and 8, two eyeglass frames have been shown in which the frame adjacent the eyeglass frame has stirrups, but other examples of eyeglasses other than the eyeglass shape shown are also possible. can also distinguish by the fact that the glasses is designed as a pinch or as a monocle or glasses with the lenses only partially or not at all comprehensive spectacle frame.
Zur Anbringung der akustischen Sensoren an oder Unterbringung der Einblendeinrichtung in der Brille sei erwähnt, dass hier keine Einschränkungen im Hinblick auf die Art der Anbringung oder Unterbringung bestehen. Befestigungen mittels Haftmittels sind ebenso möglich wie ein Vergießen mit dem Material das Brillengestells.To attach the acoustic sensors to or housing the blinding device in the glasses should be noted that there are no restrictions on the type of attachment or placement. Attachments by means of adhesive are just as possible as a casting with the material of the spectacle frame.
Es wird darauf hingewiesen, dass abhängig von den Gegeben- heiten das erfindungsgemäße Schema auch in Software implementiert sein kann. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder einer CD mit elektronisch auslesbaren Steuersignalen erfol- gen, die so mit einem programmierbaren Computersystem zusammenwirken können, daß das entsprechende Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computerprogrammprodukt mit auf einem maschinenlesba- ren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computerprogrammprodukt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens rea- lisiert werden, wenn das Computerprogramm auf einem Computer abläuft. It should be noted that, depending on the circumstances, the scheme according to the invention can also be implemented in software. The implementation can be carried out on a digital storage medium, in particular a floppy disk or a CD with electronically readable control signals. gene, which can cooperate with a programmable computer system so that the corresponding method is performed. In general, the invention thus also consists in a computer program product with program code stored on a machine-readable carrier for carrying out the method according to the invention when the computer program product runs on a computer. In other words, the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Claims

Patentansprüche claims
1. Hörhilfevorrichtung mit1. Hearing aid with
einer Brille (50);a pair of glasses (50);
einer Erfassungseinrichtung (52) zur Erfassen eines akustischen Signals, die eine Mehrzahl von akustischen Sensoren aufweist, die bei Projektion in die horizon- tale Ebene versetzt zueinander an der Brille angeordnet sind; unda detection device (52) for detecting an acoustic signal, which has a plurality of acoustic sensors, which are arranged offset to each other on the glasses when projected in the horizontal plane; and
einer an der Brille (50) befestigten oder in der selben integrierten Einblendeinrichtung (54) zum Einblen- den von optischen Informationen, die von dem erfassten akustischen Signal abhängen, in eine Sicht eines Trägers der Brille,a fade-in device (54) attached to the spectacles (50) or integrated therein for fading in optical information which depends on the detected acoustic signal into a view of a wearer of the spectacles,
wobei die Einrichtung (54) zum Einblenden ausgebildet ist, um auf Basis von Ausgangssignalen der Mehrzahl von akustischen Sensoren eine Richtung zu ermitteln, aus der das erfasste akustische Signal stammt, und einen Aktuator abhängig von der Richtung anzusteuern, um dem Benutzer die Richtung anzuzeigen.wherein the fade-in means (54) is adapted to determine, based on output signals from the plurality of acoustic sensors, a direction from which the detected acoustic signal originated, and to drive an actuator depending on the direction to indicate the direction to the user.
2. Hörhilfevorrichtung gemäß Anspruch I, bei der der Aktuator eine Anzeige der Einblendeinrichtung (54), über die die optischen Informationen in die Sicht des Brillenträgers eingeblendet werden, oder eine Einrichtung zur Stimulation einer haptischen menschlichen Wahrnehmung des Brillenträgers ist.2. Hearing aid according to claim I, wherein the actuator is an indicator of the insertion device (54), via which the optical information is superimposed in the view of the wearer, or a device for stimulating a haptic human perception of the wearer.
3. Hörhilfevorrichtung gemäß Anspruch 1 oder 2, bei der die Einrichtung (54) zum Einblenden ausgebildet ist, um die optischen Informationen abhängig von der Richtung anzuzeigen, so dass der Brillenträger eine Information darüber erhält, aus welcher Richtung das akustische Signal stammt, das durch die optische Informa- tion beschrieben wird, oder eines eigens vorgesehenes Zeichens zur Anzeige der Richtung in die Sicht des Brillenträgers einzublenden.3. Hearing aid device according to claim 1 or 2, wherein the means (54) for fading is adapted to display the optical information depending on the direction, so that the wearer receives information about which direction the acoustic signal originates from the optical information tion or a specially provided sign to indicate the direction in the view of the wearer.
4. Hörhilfevorrichtung gemäß Anspruch 3, bei der die Einrichtung (54) zum Einblenden ausgebildet ist, um als das eigens vorgesehenes Zeichen einen Pfeil, eine farbcodierte Hintergrundfarbe, ein Kreissegment oder eine Markierung eines Objekts oder einer Stelle in der Sicht des Brillenträgers, von dem bzw. von der das a- kustische Signal stammt, in die Sicht des Brillenträgers einzublenden.The hearing aid device according to claim 3, wherein the fade-in means (54) is adapted to display, as the designated character, an arrow, a color-coded background color, a circle segment or a mark of an object or a point in the view of the wearer of the spectacle or from which the acoustic signal originates, to be faded into the view of the spectacle wearer.
5. Hörhilfevorrichtung gemäß Anspruch 3, bei der die Ein- richtung (54) zum Einblenden ausgebildet ist, um die optischen Informationen farbcodiert mit einer Farbe anzuzeigen, die von der Richtung abhängt.5. Hearing aid device according to claim 3, wherein the means (54) for fading is adapted to display the optical information in color coded with a color that depends on the direction.
6. Hörhilfevorrichtung gemäß Anspruch 1, bei der der Ak- tor Vibratoren (120a-122b) umfasst, die an einem Teil eines Bügels (84) der Brille, der einen Kopf des Brillenträgers in der Gegend von Ohren desselben berührt, oder an Naseauflageflächen einer Brillenfassung der Brille angeordnet sind.6. Hearing aid device according to claim 1, wherein the actuator comprises vibrators (120a-122b) which touches on a part of a bracket (84) of the glasses which touches a head of the wearer in the vicinity of ears thereof or on nose pads of a Spectacle frame of the glasses are arranged.
7. Hörhilfevorrichtung gemäß einem der Ansprüche 1 bis 6, bei der die Mehrzahl von akustischen Sensoren zwei a- kustische Sensoren aufweisen, die an seitlichen Enden einer Brillenfassung (82) eines Brillengestells (80) der Brille angeordnet sind, das neben der Brillenfassung (82) Bügel (84) aufweist.7. Hearing aid device according to one of claims 1 to 6, wherein the plurality of acoustic sensors having two a- acoustic sensors which are arranged at lateral ends of a spectacle frame (82) of a spectacle frame (80) of the spectacles, which next to the spectacle frame (82 ) Has brackets (84).
8. Hörhilfevorrichtung gemäß einem der Ansprüche 1 bis 7, die ferner eine Nachschlagtabelle (36) aufweist, die akustischen Merkmalen (40) Informationen (42) zuordnet, wobei die Einrichtung (54) zum Einblenden ausgebildet ist, um aus dem erfassten akustischen Signal ein oder mehr akustische Merkmale zu extrahieren, auf Basis des einen oder der mehreren extrahierten akustischen Merkmale in der Nachschlagtabelle (36) nachzuschlagen und das Einblenden der optischen Informationen abhängig von den zugeordneten Informationen (42) durchzuführen.The hearing aid according to any one of claims 1 to 7, further comprising a look-up table (36) associating information (42) to acoustic features (40), wherein the means (54) is adapted to blend in from the detected acoustic signal or to extract more acoustic features Base the one or more extracted acoustic features in the look-up table (36) and perform fade-in of the optical information dependent on the associated information (42).
9. Hörhilfevorrichtung gemäß einem der Ansprüche 1 bis 8, wobei die Einrichtung (54) zum Einblenden ausgebildet ist,9. Hearing aid according to one of claims 1 to 8, wherein the means (54) is designed for fade,
um die optischen Informationen in Schriftform einzublenden,to show the optical information in written form,
eine Spracherkennung an dem erfassten akustischen Sig- nal durchzuführen, um aus dem erfassten akustischen Signal auf ein Wort zu schließen, und das Wort als zumindest einen Teil der optischen Informationen einzublenden,perform speech recognition on the detected acoustic signal to deduce a word from the detected acoustic signal and to display the word as at least a portion of the optical information;
als zumindest einen Teil der optischen Informationen einen zeitlichen Intensitätsverlauf des erfassten a- kustischen Signals anzuzeigen, oderas at least a part of the optical information to display a temporal intensity profile of the detected a- acoustic signal, or
als zumindest einen Teil der optischen Informationen ein Spektrogramm des erfassten akustischen Signals anzuzeigen.as at least a part of the optical information to display a spectrogram of the detected acoustic signal.
10. Hörhilfevorrichtung gemäß einem der vorhergehenden Ansprüche, bei der die Einrichtung (54) zum Einblenden ausgebildet ist, um in einem Einblendbmodus die optischen Informationen so in die Sicht des Trägers einzublenden, dass der Brillenträger sowohl durch die Brille sehen kann als auch die optischen Informationen sieht, oder10. Hearing aid according to one of the preceding claims, wherein the means (54) is designed for fading to hide in a Einblendbmodus the optical information in the view of the wearer that the wearer can see both through the glasses and the optical information sees, or
so, dass der Brillenträger nicht durch die Brille sehen kann, sondern statt dessen die optischen Informationen sieht, und in einem Brillenmodus die Einblen- dung der optischen Informationen auszusetzen, um dem Brillenträger zu ermöglichen, durch die Brille zu sehen,so that the spectacle wearer can not see through the glasses, but instead sees the optical information, and in a spectacle mode, the exposure of the optical information to allow the wearer to see through the glasses,
wobei die Einrichtung (54) zum Einblenden ausgebildet ist, um abhängig von einer Eingabe des Brillenträgers oder abhängig von dem erfassten akustischen Signal zwischen dem Brillenmodus und dem Einblendmodus zu wechseln.wherein the means (54) for fading is adapted to switch between the spectacle mode and the fade-in mode depending on an input of the spectacle wearer or on the detected acoustic signal.
11. Hörhilfevorrichtung gemäß einem der vorhergehenden Ansprüche, wobei die Einrichtung (54) zum Einblenden ausgebildet ist, um eine richtungsabhängige Filterung des erfassten akustischen Signals derart durchzufüh- ren, dass sich das Signal/Rausch-Verhältnis des erfassten akustischen Signals verbessert, und die Einblendung auf Basis des gefilterten Signals durchzuführen.11. Hearing aid device according to one of the preceding claims, wherein the means (54) for fading is designed to perform a direction-dependent filtering of the detected acoustic signal in such a way that improves the signal / noise ratio of the detected acoustic signal, and the fade based on the filtered signal.
12. Hörhilfevorrichtung gemäß einem der vorhergehenden Ansprüche, bei der die Einblendeinrichtung (54) in einen Lernmodus umschaltbar ist, in welchem die Einblendeinrichtung die optischen Informationen gleichzeitig mit vorab gespeicherten optischen Informationen anzeigt, so dass der Träger der Brille die unterschiedlichen optischen Informationen miteinander vergleichen kann.12. Hearing aid device according to one of the preceding claims, wherein the fade-in device (54) is switchable to a learning mode, in which the fading device displays the optical information simultaneously with pre-stored optical information, so that the wearer of the glasses can compare the different optical information ,
13. Hörhilfevorrichtung gemäß einem der vorhergehenden Ansprüche, bei der die Einblendeinrichtung (54) in einen Lernmodus umschaltbar ist, in welchem die Einblendeinrichtung (54) vorab gespeicherte optische Informationen in die Sicht des Trägers der Brille einblendet, eine Reaktion des Trägers der Brille auf das Einblenden der vorab gespeicherten optischen Informationen hin erfasst und abhängig von der erfassten Reaktion dem Brillenträger ein Signal in seine Sicht einblendet, das eine Korrektheit oder Inkorrektheit der Reaktion anzeigt. 13. Hearing aid device according to one of the preceding claims, wherein the fade-in device (54) is switchable to a learning mode, in which the fade-in device (54) fades in advance stored optical information in the view of the wearer of the glasses, a reaction of the wearer of the glasses on the Fade in the pre-stored optical information recorded and depending on the detected reaction the spectacle wearer fades a signal in his view that indicates a correctness or incorrectness of the reaction.
14. Hörhilfevorrichtung mit14. Hearing aid with
einer Brille (50) ;a pair of glasses (50);
einer Erfassungseinrichtung (52) zur Erfassen eines akustischen Signals, die eine Mehrzahl von akustischen Sensoren aufweist, die bei Projektion in die horizontale Ebene versetzt zueinander an der Brille angeordnet sind; unddetection means (52) for detecting an acoustic signal comprising a plurality of acoustic sensors arranged offset to each other on the glasses when projected in the horizontal plane; and
einer an der Brille (50) befestigten oder in der selben integrierten Einblendeinrichtung (54) zum Ermitteln einer Richtung, aus der das erfasste akustische Signal stammt, auf Basis von Ausgangssignalen der Mehrzahl von akustischen Sensoren und Einblenden eines Zeichens, das die Richtung anzeigt, in eine Sicht des Brillenträgers .a fade-in device (54) attached to or integrated in the eyeglass (50) for determining a direction from which the detected acoustic signal originates, based on output signals of the plurality of acoustic sensors and fading in a sign indicating the direction in FIG a view of the spectacle wearer.
15. Hörhilfevorrichtung mit15. Hearing aid with
einer Einrichtung zum Erfassen eines akustischen Signals in einer Umgebung eines Benutzers, die eine Mehrzahl von akustischen Sensoren aufweist und dazu vorgesehen sind, von dem Benutzer so getragen zu werden, dass dieselben bei Aufrechtstehen des Benutzers bei Projektion in die horizontale Ebene versetzt zueinander angeordnet sind; unda device for detecting an acoustic signal in a user's environment comprising a plurality of acoustic sensors and arranged to be carried by the user so as to be staggered when the user stands upright when projected in the horizontal plane; and
einer Einrichtung zum Ermitteln einer Richtung, aus der das erfasste akustische Signal stammt, auf Basis von Ausgangssignalen der Mehrzahl von akustischen Sensoren und Stimulieren einer haptischen Wahrnehmung des Benutzers in Abhängigkeit von der Richtung.means for determining a direction from which the detected acoustic signal originates based on output signals of the plurality of acoustic sensors and stimulating a haptic perception of the user depending on the direction.
16. Hörhilfevorrichtung gemäß Anspruch 15, bei der die Einrichtung zum Erfassen und die Einrichtung zum Ermitteln in Ohrringe oder Hörgeräte zum Tragen an den Ohren des Benutzers integriert sind. 16. A hearing aid device according to claim 15, wherein the means for detecting and the means for detecting in earrings or hearing aids are integrated to be worn on the ears of the user.
17. Hörhilfeverfahren mit17. hearing aid method with
Erfassen eines akustischen Signals mittels einer Mehr- zahl von akustischen Sensoren, die bei Projektion in die horizontale Ebene versetzt zueinander an einer Brille angeordnet sind;Detecting an acoustic signal by means of a plurality of acoustic sensors, which are arranged on a pair of spectacles offset from one another when projected in the horizontal plane;
Einblenden von optischen Informationen, die von dem erfassten akustischen Signal abhängen, in eine Sicht eines Trägers der Brille mittels einer an der Brille (50) befestigten oder in der selben integrierten Einblendeinrichtung (54);Fading optical information, which depends on the detected acoustic signal, into a view of a wearer of the spectacles by means of a fade-in device (54) attached to the spectacles (50) or incorporated in the same;
Ermitteln, auf Basis von Ausgangssignalen der Mehrzahl von akustischen Sensoren, einer Richtung, aus der das erfasste akustische Signal stammt; undDetermining, based on output signals of the plurality of acoustic sensors, a direction from which the detected acoustic signal originated; and
Ansteuern eines Aktuator abhängig von der Richtung, um dem Benutzer die Richtung anzuzeigen.Driving an actuator depending on the direction to indicate the direction to the user.
18. Hörhilfeverfahren mit18. hearing aid method with
Erfassen eines akustischen Signals mittels einer Mehr- zahl von akustischen Sensoren, die bei Projektion in die horizontale Ebene versetzt zueinander an einer Brille angeordnet sind; undDetecting an acoustic signal by means of a plurality of acoustic sensors, which are arranged on a pair of spectacles offset from one another when projected in the horizontal plane; and
Ermitteln einer Richtung, aus der das erfasste akusti- sehe Signal stammt, auf Basis von Ausgangssignalen der Mehrzahl von akustischen Sensoren; undDetermining a direction from which the detected acoustic signal originates based on output signals of the plurality of acoustic sensors; and
Einblenden eines Zeichens, das die Richtung anzeigt, in eine Sicht des Brillenträgers.Showing a sign indicating the direction in a view of the wearer.
19. Hörhilfeverfahren mit Erfassen eines akustischen Signals in einer Umgebung eines Benutzers mittels einer Mehrzahl von akustischen Sensoren, die von dem Benutzer so getragen werden, dass dieselben bei Aufrechtstehen des Benutzers bei Projektion in die horizontale Ebene versetzt zueinander angeordnet sind; und19. hearing aid method with Detecting an acoustic signal in a user's environment by means of a plurality of acoustic sensors carried by the user so as to be staggered when the user stands upright when projected in the horizontal plane; and
Ermitteln einer Richtung, aus der das erfasste akustische Signal stammt, auf Basis von Ausgangssignalen der Mehrzahl von akustischen Sensoren; undDetermining a direction from which the detected acoustic signal originates based on output signals of the plurality of acoustic sensors; and
Stimulieren einer haptischen Wahrnehmung des Benutzers in Abhängigkeit von der Richtung.Stimulate a haptic perception of the user depending on the direction.
20. Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 17 bis 19, wenn das Computer-Programm auf einem Computer abläuft 20. Computer program with a program code for carrying out the method according to one of claims 17 to 19, when the computer program runs on a computer
PCT/EP2009/004567 2008-06-26 2009-06-24 Hearing aid apparatus, and hearing aid method WO2009156145A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200810030404 DE102008030404A1 (en) 2008-06-26 2008-06-26 Hearing aid device and method
DE102008030404.2 2008-06-26

Publications (1)

Publication Number Publication Date
WO2009156145A1 true WO2009156145A1 (en) 2009-12-30

Family

ID=41020784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/004567 WO2009156145A1 (en) 2008-06-26 2009-06-24 Hearing aid apparatus, and hearing aid method

Country Status (2)

Country Link
DE (1) DE102008030404A1 (en)
WO (1) WO2009156145A1 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2469323A1 (en) * 2010-12-24 2012-06-27 Sony Corporation Sound information display device, sound information display method, and program
CN104966433A (en) * 2015-07-17 2015-10-07 江西洪都航空工业集团有限责任公司 Intelligent glasses assisting deaf-mute conversation
US9161113B1 (en) 2012-02-17 2015-10-13 Elvin Fenton Transparent lens microphone
US9980054B2 (en) 2012-02-17 2018-05-22 Acoustic Vision, Llc Stereophonic focused hearing
DE102017005129A1 (en) 2017-05-30 2018-12-06 Frank Lochmann Device for converting acoustic direction information into a perceptible form
US10768738B1 (en) 2017-09-27 2020-09-08 Apple Inc. Electronic device having a haptic actuator with magnetic augmentation
US10768747B2 (en) 2017-08-31 2020-09-08 Apple Inc. Haptic realignment cues for touch-input displays
US10890978B2 (en) 2016-05-10 2021-01-12 Apple Inc. Electronic device with an input device having a haptic engine
US10936071B2 (en) 2018-08-30 2021-03-02 Apple Inc. Wearable electronic device with haptic rotatable input
US10942571B2 (en) 2018-06-29 2021-03-09 Apple Inc. Laptop computing device with discrete haptic regions
US10966007B1 (en) 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly
US11054932B2 (en) 2017-09-06 2021-07-06 Apple Inc. Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module
WO2023101802A1 (en) * 2021-12-01 2023-06-08 Snap Inc. Eyewear with direction of sound arrival detection

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012113646A1 (en) * 2011-02-22 2012-08-30 Siemens Medical Instruments Pte. Ltd. Hearing system
FR3066634A1 (en) * 2017-05-16 2018-11-23 Orange METHOD AND EQUIPMENT FOR HEARING ASSISTANCE
EP3432606A1 (en) * 2018-03-09 2019-01-23 Oticon A/s Hearing aid system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029216A (en) * 1989-06-09 1991-07-02 The United States Of America As Represented By The Administrator Of The National Aeronautics & Space Administration Visual aid for the hearing impaired
WO1999021400A1 (en) * 1997-10-20 1999-04-29 Technische Universiteit Delft Hearing aid comprising an array of microphones
EP1083769A1 (en) * 1999-02-16 2001-03-14 Yugen Kaisha GM & M Speech converting device and method
US20020103649A1 (en) * 2001-01-31 2002-08-01 International Business Machines Corporation Wearable display system with indicators of speakers
US20080010068A1 (en) * 2006-07-10 2008-01-10 Yukifusa Seita Method and apparatus for language training

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4972486A (en) * 1980-10-17 1990-11-20 Research Triangle Institute Method and apparatus for automatic cuing
DE3510508A1 (en) * 1985-03-22 1986-10-02 Siemens AG, 1000 Berlin und 8000 München TACTILE HOERGER
DE10339027A1 (en) * 2003-08-25 2005-04-07 Dietmar Kremer Visually representing sound involves indicating acoustic intensities of frequency groups analyses in optical intensities and/or colors in near-real time for recognition of tone and/or sound and/or noise patterns

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029216A (en) * 1989-06-09 1991-07-02 The United States Of America As Represented By The Administrator Of The National Aeronautics & Space Administration Visual aid for the hearing impaired
WO1999021400A1 (en) * 1997-10-20 1999-04-29 Technische Universiteit Delft Hearing aid comprising an array of microphones
EP1083769A1 (en) * 1999-02-16 2001-03-14 Yugen Kaisha GM & M Speech converting device and method
US20020103649A1 (en) * 2001-01-31 2002-08-01 International Business Machines Corporation Wearable display system with indicators of speakers
US20080010068A1 (en) * 2006-07-10 2008-01-10 Yukifusa Seita Method and apparatus for language training

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10353198B2 (en) 2010-12-24 2019-07-16 Sony Corporation Head-mounted display with sound source detection
CN102543099A (en) * 2010-12-24 2012-07-04 索尼公司 Sound information display device, sound information display method, and program
EP2469323A1 (en) * 2010-12-24 2012-06-27 Sony Corporation Sound information display device, sound information display method, and program
US9161113B1 (en) 2012-02-17 2015-10-13 Elvin Fenton Transparent lens microphone
US9470910B2 (en) 2012-02-17 2016-10-18 Acoustic Vision, Llc Transparent lens microphone
US9980054B2 (en) 2012-02-17 2018-05-22 Acoustic Vision, Llc Stereophonic focused hearing
CN104966433A (en) * 2015-07-17 2015-10-07 江西洪都航空工业集团有限责任公司 Intelligent glasses assisting deaf-mute conversation
US10890978B2 (en) 2016-05-10 2021-01-12 Apple Inc. Electronic device with an input device having a haptic engine
US11762470B2 (en) 2016-05-10 2023-09-19 Apple Inc. Electronic device with an input device having a haptic engine
DE102017005129A1 (en) 2017-05-30 2018-12-06 Frank Lochmann Device for converting acoustic direction information into a perceptible form
US10768747B2 (en) 2017-08-31 2020-09-08 Apple Inc. Haptic realignment cues for touch-input displays
US11054932B2 (en) 2017-09-06 2021-07-06 Apple Inc. Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module
US11460946B2 (en) 2017-09-06 2022-10-04 Apple Inc. Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module
US10768738B1 (en) 2017-09-27 2020-09-08 Apple Inc. Electronic device having a haptic actuator with magnetic augmentation
US10942571B2 (en) 2018-06-29 2021-03-09 Apple Inc. Laptop computing device with discrete haptic regions
US10936071B2 (en) 2018-08-30 2021-03-02 Apple Inc. Wearable electronic device with haptic rotatable input
US10966007B1 (en) 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US11805345B2 (en) 2018-09-25 2023-10-31 Apple Inc. Haptic output system
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly
US11756392B2 (en) 2020-06-17 2023-09-12 Apple Inc. Portable electronic device having a haptic button assembly
WO2023101802A1 (en) * 2021-12-01 2023-06-08 Snap Inc. Eyewear with direction of sound arrival detection

Also Published As

Publication number Publication date
DE102008030404A1 (en) 2009-12-31

Similar Documents

Publication Publication Date Title
WO2009156145A1 (en) Hearing aid apparatus, and hearing aid method
DE102008010515B4 (en) Sleep warning device
DE19549297C2 (en) Method and device for influencing the human psyche
Dooley et al. Combined electrical and acoustical stimulation using a bimodal prosthesis
Corso Presbyacusis, hearing aids and aging
Mussoi et al. Age-related changes in temporal resolution revisited: Electrophysiological and behavioral findings from cochlear implant users
Ertmer et al. A comparison of vowel production by children with multichannel cochlear implants or tactile aids: Perceptual evidence
AT518441B1 (en) Apparatus for assisting speech and / or auditory training after cochlear implantation
Billings et al. Acoustic change complex in background noise: phoneme level and timing effects
Saija et al. Visual and auditory temporal integration in healthy younger and older adults
CH709873A2 (en) Hearing system with user-specific programming.
Turner et al. Formant transition duration and speech recognition in normal and hearing-impaired listeners
Reed et al. Analytic study of the Tadoma method: improving performance through the use of supplementary tactual displays
Ifukube Sound-based assistive technology
Gagne et al. Simulation of sensorineural hearing impairment
DE102019218802A1 (en) System and method of operating a system
Coez et al. Hearing loss severity: Impaired processing of formant transition duration
DE10231406A1 (en) Interactive visual display for giving analogy of hearing loss uses degradation of text typed into computer adjacent to graph of sound intensity plotted against frequency
Dietze Psychophysical Measurements of Temporal Integration Effects in Cochlear Implant Users
DE10063123B4 (en) Biofeedback method for relaxation therapy and apparatus for carrying out the method
DE102011116983A1 (en) Delivery device e.g. mobile telephone, for delivering perceptible remainder signal to patient, has control device actuating transmitter to emits signals, where one of signals is different from other signal to avoid loss of remainder effect
Morris Effects of simulated cataracts on speechreading
Lamminsalo Noise detection thresholds after exposure to pulse-train sounds
DE10110945A1 (en) Simulation of hearing process of individual uses date measured in series of tests
DE10339027A1 (en) Visually representing sound involves indicating acoustic intensities of frequency groups analyses in optical intensities and/or colors in near-real time for recognition of tone and/or sound and/or noise patterns

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09768994

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09768994

Country of ref document: EP

Kind code of ref document: A1