KR20170111450A - Hearing aid apparatus, portable apparatus and controlling method thereof - Google Patents

Hearing aid apparatus, portable apparatus and controlling method thereof Download PDF

Info

Publication number
KR20170111450A
KR20170111450A KR1020160036926A KR20160036926A KR20170111450A KR 20170111450 A KR20170111450 A KR 20170111450A KR 1020160036926 A KR1020160036926 A KR 1020160036926A KR 20160036926 A KR20160036926 A KR 20160036926A KR 20170111450 A KR20170111450 A KR 20170111450A
Authority
KR
South Korea
Prior art keywords
speaker
hearing aid
voice
voice signal
wearer
Prior art date
Application number
KR1020160036926A
Other languages
Korean (ko)
Inventor
안진왕
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160036926A priority Critical patent/KR20170111450A/en
Priority to PCT/KR2016/006383 priority patent/WO2017171137A1/en
Publication of KR20170111450A publication Critical patent/KR20170111450A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/405Arrangements for obtaining a desired directivity characteristic by combining a plurality of transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/06Hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/558Remote control, e.g. of amplification, frequency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Neurosurgery (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 보청장치, 휴대장치 및 그 제어방법에 관한 것으로서, 휴대장치는, 음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부 및 영상데이터를 수신하는 영상입력부가 마련된 보청장치로부터 음성신호 및 영상데이터를 수신하는 통신부와; 음성 데이터베이스가 저장되는 저장부와; 수신된 음성신호의 발화 위치를 결정하고, 수신된 영상데이터를 이용하여 결정된 발화 위치에 화자가 존재하는지 여부를 결정하고, 발화 위치에 화자가 존재하는 것으로 결정되면 수신된 음성신호로부터 음성 데이터베이스를 이용하여 식별된 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 식별된 음성신호를 조정하고, 조정된 음성신호가 통신부를 통해 보청장치로 송신되도록 제어하는 적어도 하나의 프로세서를 포함하며, 조정된 음성신호는 보청장치에 의해 출력될 수 있다. 이에 의하여, 음성신호의 발화 위치에 존재하는 화자의 음성신호를 선택적으로 증폭시켜 출력함으로써, 난청인이 대화 상대방의 음성을 불편함 없이 청취하여 대화의 집중도를 높일 수 있게 된다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hearing aid, a portable device, and a control method thereof, and a portable device includes a sound input unit including a plurality of microphones for receiving a sound signal and a hearing aid provided with a video input unit for receiving image data, A communication unit for receiving data; A storage unit for storing a voice database; Determines whether or not a speaker is present at the ignition position determined using the received image data, and if it is determined that a speaker is present at the ignition position, uses the voice database from the received voice signal And at least one processor for adjusting the identified voice signal so that the level of the hearing loss frequency region is increased with respect to the voice signal corresponding to the identified speaker and controlling the adjusted voice signal to be transmitted to the hearing aid through the communication unit, The adjusted voice signal can be output by the hearing aid. Thereby, by selectively amplifying and outputting the speech signal of the speaker existing at the speech position of the speech signal, the hearing impaired person can listen to the speech of the conversation partner without inconvenience, thereby increasing the concentration of conversation.

Description

보청장치, 휴대장치 및 그 제어방법{HEARING AID APPARATUS, PORTABLE APPARATUS AND CONTROLLING METHOD THEREOF}[0001] HEARING AID APPARATUS, PORTABLE APPARATUS AND CONTROLLING METHOD THEREOF [0002]

본 발명은 보청장치, 휴대장치 및 그 제어방법에 관한 것으로, 보다 상세하게는 대화중인 화자의 음성신호를 증폭할 수 있도록 하는 보청장치, 휴대장치 및 그 제어방법을 제공한다.The present invention relates to a hearing aid, a portable device, and a control method thereof, and more particularly to a hearing aid, a portable device, and a control method thereof capable of amplifying a voice signal of a speaker in conversation.

전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 예를 들어, 스마트 폰, 스마트 패드(태블릿), PDA 등과 같은 다양한 모바일 휴대장치들의 사용이 점차 확대되고 있으며, 이러한 휴대장치들은 신체 착용형 장치로서 제공될 수 있다.Various types of electronic products are being developed and distributed by the development of electronic technology. For example, the use of a variety of mobile portable devices such as smart phones, smart pads (tablets), PDAs and the like is increasing and these portable devices can be provided as body wearable devices.

신체 착용형 장치의 일례로서 보청장치는 청력 검사상 난청으로 진단된 환자에게 장착되어 사운드를 증폭하여 주는 기구로, 난청인의 주파수 별 청력에 맞추어 동작하는 것이 일반적이다.As an example of a body wearing device, a hearing aid is a device for amplifying sound attached to a patient diagnosed with hearing loss by a hearing test, and it is generally operated in accordance with hearing power of a hearing impaired person.

따라서, 복수의 화자를 포함한 다양한 음원으로부터 동시에 사운드가 입력되는 경우, 모든 입력된 신호에 대해 난청 주파수 영역이 증폭되어, 난청인이 필요한 음성을 듣고 이해하는데 어려움이 발생할 수 있다.Therefore, when a sound is simultaneously input from various sound sources including a plurality of speakers, the hearing loss frequency region is amplified with respect to all input signals, and it may be difficult to hear and understand the sound that requires hearing loss.

그에 따라, 다양한 사운드가 발생되는 환경에서도 난청인이 혼란 없이 대화의 상대방에게 집중할 수 있도록 도와주는 수단이 마련될 필요가 있다.Accordingly, it is necessary to provide a means for helping the hearing impaired person to concentrate on the conversation partner without confusion even in an environment where various sounds are generated.

본 발명 일실시예에 따른 휴대장치는, 음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부 및 영상데이터를 수신하는 영상입력부가 마련된 보청장치로부터 음성신호 및 영상데이터를 수신하는 통신부와; 음성 데이터베이스가 저장되는 저장부와; 수신된 음성신호의 발화 위치를 결정하고, 수신된 영상데이터를 이용하여 결정된 발화 위치에 화자가 존재하는지 여부를 결정하고, 발화 위치에 화자가 존재하는 것으로 결정되면 수신된 음성신호로부터 음성 데이터베이스를 이용하여 식별된 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 식별된 음성신호를 조정하고, 조정된 음성신호가 통신부를 통해 보청장치로 송신되도록 제어하는 적어도 하나의 프로세서를 포함하며, 난청 주파수 영역의 레벨이 증가되도록 조정된 음성신호는 보청장치에 의해 출력될 수 있다. 이에 의해, 음성신호의 발화위치에 존재하는 화자를 대화의 상대방으로 보아, 그 상대방의 음성신호가 선택적으로 증폭되어 출력되므로, 보청장치 착용자가 상대방의 음성을 불편함 없이 청취하는데 보다 용이하다.A portable device according to an embodiment of the present invention includes a communication unit for receiving voice signals and image data from a hearing device provided with a voice input unit including a plurality of microphones for receiving voice signals and a video input unit for receiving video data; A storage unit for storing a voice database; Determines whether or not a speaker is present at the ignition position determined using the received image data, and if it is determined that a speaker is present at the ignition position, uses the voice database from the received voice signal And at least one processor for adjusting the identified voice signal so that the level of the hearing loss frequency region is increased with respect to the voice signal corresponding to the identified speaker and controlling the adjusted voice signal to be transmitted to the hearing aid through the communication unit, The speech signal adjusted to increase the level of the hearing loss frequency region can be output by the hearing aid. Thus, the speaker present at the utterance position of the voice signal is regarded as the opponent of the conversation, and the voice signal of the opponent is selectively amplified and output, so that the wearer can easily listen to the voice of the opponent without inconvenience.

보청장치는 신체 착용형 장치이고, 영상입력부는 보청장치의 전면에 설치된 전면 카메라를 포함하며, 프로세서는, 전면 카메라에 의해 보청장치 착용자의 전면에 대해 촬영된 영상데이터를 이용하여 결정된 발화 위치에 화자가 존재하는지 여부를 결정할 수 있다. 이에, 영상데이터로부터 사용자가 대화 중인지 여부를 결정하고, 대화 상대방을 특정하는데 활용할 수 있다. The hearing aid is a body wearing device, and the image input unit includes a front camera installed on the front face of the hearing aid. The processor uses the image data photographed on the front face of the wearer with the front camera, Can be determined. Thus, it is possible to determine whether or not the user is conversing from the video data, and utilize it to specify the conversation partner.

영상입력부는 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 착용자의 안구 정보를 획득하는 후면 카메라를 더 포함하며, 프로세서는, 획득된 안구 정보를 이용하여 착용자가 화자를 응시하는지 여부를 더 결정할 수 있다. 이에, 사용자가 상대방을 응시하는지 여부까지 확인할 수 있어, 보다 정확하게 대화 상대방을 특정할 수 있게 된다.The image input unit further includes a rear face camera provided at a position through which at least one line of sight of the wearer of the hearing aid passes and acquires eye information of the wearer. The processor uses the obtained eye information to determine whether or not the wearer stared at the speaker You can decide more. Thus, it is possible to confirm whether or not the user is gazing at the other party, and it is possible to specify the communication party more accurately.

보청장치에는 방향센서가 더 설치되며, 프로세서는, 보청장치로부터 방향센서의 센싱값을 수신하도록 통신부를 제어하고, 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는데 수신된 센싱값을 더 이용할 수 있다. 이에, 상대방의 위치에 대한 정확도가 향상된다.The hearing aid is further provided with a direction sensor and the processor can further use the received sensing value to control the communication part to receive the sensing value of the direction sensor from the hearing aid and to determine whether a speaker is present at the determined speech position . This improves the accuracy of the position of the other party.

프로세서는, 음성신호가 복수의 마이크로폰에 도달하는 시간차, 복수의 마이크로폰 사이의 이격 거리 및 마이크로폰의 개수 중 적어도 하나를 이용하여 음성신호의 발화 위치를 추정할 수 있다. 이에, 음성신호의 발화 위치를 추정하는 다양한 알고리즘을 대화 상대방을 특정하는데 활용할 수 있다.The processor can estimate the speech position of the speech signal using at least one of a time difference in which the speech signal reaches the plurality of microphones, a distance between the plurality of microphones, and a number of the microphones. Accordingly, various algorithms for estimating the speech position of the speech signal can be utilized to specify the conversation partner.

음성 데이터베이스에는 복수의 화자 및 복수의 화자에 대응하는 음성신호에 대한 정보가 저장되고, 프로세서는, 음성 데이터베이스에 기초하여 수신된 음성신호로부터 화자의 음성신호를 식별 및 분리하고, 분리된 화자의 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 조정할 수 있다. 이에, 대화에 필요한 음성이 선택적으로 조정되어, 난청인의 대화 집중도가 향상되는데 도움을 줄 수 있다.The speech database stores information on speech signals corresponding to a plurality of speakers and a plurality of speakers. The processor identifies and separates the speaker's speech signal from the received speech signal based on the speech database, The level of the hearing loss frequency region with respect to the signal can be increased. Thus, the voice required for the conversation can be selectively adjusted, which can help improve the conversation concentration of the hearing impaired person.

프로세서는, 수신된 음성신호에 대응하는 정보가 음성 데이터베이스에 존재하는지 여부를 결정하고, 정보가 존재하지 않는 것으로 결정되면 음성신호에 대한 정보를 데이터베이스에 저장할 수 있다. 이에, 난청인의 주변인들에 대한 정보가 지속적으로 업데이트되어, 추후의 화자 인식에 다시 활용될 뿐 아니라 사용자 고유의 음성 데이터베이스를 구축할 수 있게 된다.The processor may determine whether information corresponding to the received voice signal is present in the voice database and store information about the voice signal in the database if it is determined that the information does not exist. Accordingly, the information about the perimeters of the hearing impaired person is constantly updated, so that it can be utilized not only for future speaker recognition but also can build a user's own speech database.

사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 프로세서는, 사용자 입력부를 통해 수신되는 정보를 음성신호에 대응시켜 음성 데이터베이스에 저장할 수 있다. 이에, 사용자에게 대화 상대방을 쉽게 식별할 수 있는 다양한 정보를 제공할 수 있다.The apparatus further includes a user input section for receiving user input, and the processor can store the information received through the user input section in the voice database in correspondence with the voice signal. Accordingly, it is possible to provide various information that allows the user to easily identify the communication partner.

한편, 본 발명 일실시예에 따른 보청장치는, 음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부와; 영상데이터를 수신하는 영상입력부와; 수신된 음성신호 및 영상데이터를 휴대장치로 송신하는 통신부와; 음성신호를 출력하는 음성출력부와; 휴대장치로부터 소정 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 조정된 음성신호를 수신하도록 통신부를 제어하고, 조정된 음성신호를 출력하도록 음성출력부를 제어하는 적어도 하나의 프로세서를 포함하며, 영상입력부는 보청장치의 전면에 설치된 전면 카메라를 포함하며, 전면 카메라에서 촬영된 영상데이터를 이용하여 음성신호의 발화 위치에 화자가 존재하는지 여부가 결정되고, 발화 위치에 화자가 존재하는 것으로 결정되면 음성 데이터베이스를 이용하여 식별된 화자에 대응하는 음성신호가 조정되어 휴대장치로부터 보청장치로 송신될 수 있다. 이에 따라, 보청장치를 착용하고 상대방을 쳐다보는 것만으로도 대화의 상대방을 확인하고, 그 음성신호가 증폭되어 출력되므로, 시끄러운 환경에서도 대화의 집중도가 향상될 수 있다.According to another aspect of the present invention, there is provided a hearing aid comprising: a voice input unit including a plurality of microphones for receiving voice signals; A video input unit for receiving video data; A communication unit for transmitting the received voice signal and video data to a portable device; An audio output unit for outputting a voice signal; And at least one processor for controlling the communication unit to receive the voice signal adjusted to increase the level of the hearing loss frequency region with respect to the voice signal corresponding to a predetermined speaker from the portable device and to control the voice output unit to output the adjusted voice signal The image input unit includes a front camera installed on the front of the hearing aid. Using the image data captured by the front camera, it is determined whether or not a speaker is present at a speaking position of a speech signal, and a speaker is present at a speaking position The voice signal corresponding to the identified speaker can be adjusted using the voice database and transmitted from the portable device to the hearing aid. Accordingly, by simply looking at the other party wearing the hearing aid, the other party of the conversation is confirmed, and the voice signal is amplified and output, so that conversation concentration can be improved even in a noisy environment.

영상입력부는 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 착용자의 안구 정보를 획득하는 후면 카메라를 더 포함하며, 획득된 안구 정보를 이용하여 착용자가 화자를 응시하는지 여부가 더 결정될 수 있다. 이에, 사용자가 상대방을 응시하는지 여부까지 활용하므로, 화자 인식의 정확도가 보다 향상된다.The image input unit further includes a rear camera provided at a position through which at least one line of sight of the wearer's wearer passes and acquires eye information of the wearer, and it may be further determined whether the wearer looks at the speaker using the acquired eye information have. Accordingly, since the user utilizes whether or not the user is gazing at the other party, the accuracy of the speaker recognition is further improved.

착용자의 적어도 하나의 시선이 통과하는 위치에 마련되는 디스플레이부를 더 포함하며, 프로세서는, 발화 위치에 대한 정보 및 음성 데이터베이스를 이용하여 식별된 화자에 대한 정보를 표시하도록 디스플레이부를 제어할 수 있다. 이에, 사용자에게 대화 상대방에 대한 다양한 정보를 제공하여, 그 편의를 돕는다.The display unit may further include a display unit provided at a position where at least one line of sight of the wearer passes, and the processor may control the display unit to display information on the speaker identified using the speech database and the speech database. Accordingly, various information on the communication partner is provided to the user, thereby facilitating the convenience.

한편, 본 발명 일실시예에 따른 휴대장치의 제어방법은, 음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부 및 영상데이터를 수신하는 영상입력부가 마련된 보청장치로부터 음성신호 및 영상데이터를 수신하는 단계와; 수신된 음성신호의 발화 위치를 결정하는 단계와; 수신된 영상데이터를 이용하여 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는 단계와; 발화 위치에 화자가 존재하는 것으로 결정되면 수신된 음성신호로부터 음성 데이터베이스를 이용하여 식별된 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 식별된 음성신호를 조정하는 단계와; 조정된 음성신호를 보청장치에 의해 출력되도록 휴대장치로부터 보청장치로 송신하는 단계를 포함할 수 있다. 이에 의해, 음성신호의 발화위치에 존재하는 화자를 대화의 상대방으로 보아, 그 상대방의 음성신호가 선택적으로 증폭되어 출력되므로, 보청장치 착용자가 상대방의 음성을 불편함 없이 청취하는데 보다 용이하다.According to another aspect of the present invention, there is provided a method for controlling a portable device, the method comprising: receiving a voice signal and image data from a hearing device provided with a voice input unit including a plurality of microphones for receiving voice signals and a video input unit for receiving image data; ; Determining an utterance position of the received voice signal; Determining whether a speaker is present at a determined firing position using the received image data; Adjusting the identified speech signal so that the level of the hearing loss frequency region is increased with respect to the speech signal corresponding to the speaker identified using the speech database from the received speech signal when the speaker is determined to be present at the speech position; And transmitting the adjusted voice signal from the portable device to the hearing aid so as to be outputted by the hearing aid. Thus, the speaker present at the utterance position of the voice signal is regarded as the opponent of the conversation, and the voice signal of the opponent is selectively amplified and output, so that the wearer can easily listen to the voice of the opponent without inconvenience.

보청장치는 신체 착용형 장치이고, 영상입력부는 보청장치의 전면에 설치된 전면 카메라를 포함하며, 화자가 존재하는지 여부를 결정하는 단계는, 전면 카메라에 의해 보청장치 착용자의 전면에 대해 촬영된 영상데이터를 이용하여 결정된 발화 위치에 화자가 존재하는지 여부를 결정할 수 있다. 이에, 영상데이터로부터 사용자가 대화 중인지 여부를 결정하고, 대화 상대방을 특정하는데 활용할 수 있다.The step of determining whether or not a speaker is present includes the step of determining whether or not a speaker is present in the image input unit, To determine whether a speaker is present at the determined firing position. Thus, it is possible to determine whether or not the user is conversing from the video data, and utilize it to specify the conversation partner.

영상입력부는 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 착용자의 안구 정보를 획득하는 후면 카메라를 더 포함하며, 획득된 안구 정보를 이용하여 착용자가 화자를 응시하는지 여부를 결정하는 단계를 더 포함할 수 있다. 이에, 사용자가 상대방을 응시하는지 여부까지 확인할 수 있어, 보다 정확하게 대화 상대방을 특정할 수 있게 된다.The image input unit further includes a rear camera provided at a position through which at least one line of sight of the wearer's wearer passes and acquiring eye information of the wearer and determining whether the wearer looks at the speaker using the acquired eye information As shown in FIG. Thus, it is possible to confirm whether or not the user is gazing at the other party, and it is possible to specify the communication party more accurately.

발화 위치를 결정하는 단계는, 음성신호가 복수의 마이크로폰에 도달하는 시간차, 복수의 마이크로폰 사이의 이격 거리 및 마이크로폰의 개수 중 적어도 하나를 이용하여 음성신호의 발화 위치를 추정할 수 있다. 이에, 음성신호의 발화 위치를 추정하는 다양한 알고리즘을 대화 상대방을 특정하는데 활용할 수 있다.The step of determining the firing position may estimate the firing position of the speech signal using at least one of a time difference in which the speech signal reaches the plurality of microphones, a distance between the plurality of microphones, and a number of the microphones. Accordingly, various algorithms for estimating the speech position of the speech signal can be utilized to specify the conversation partner.

음성 데이터베이스에는 복수의 화자 및 복수의 화자에 대응하는 음성신호에 대한 정보가 저장되고, 음성 데이터베이스에 기초하여 수신된 음성신호로부터 화자의 음성신호를 식별 및 분리하는 단계를 더 포함하고, 음성신호를 조정하는 단계는, 분리된 화자의 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 조정할 수 있다. 이에, 대화에 필요한 음성이 선택적으로 조정되어, 난청인의 대화 집중도가 향상되는데 도움을 줄 수 있다.Wherein the speech database further stores information on speech signals corresponding to a plurality of speakers and a plurality of speakers and further comprises the step of identifying and separating the speaker's speech signal from the received speech signal based on the speech database, The adjusting step can be adjusted so that the level of the hearing loss frequency region is increased with respect to the voice signal of the separated speaker. Thus, the voice required for the conversation can be selectively adjusted, which can help improve the conversation concentration of the hearing impaired person.

수신된 음성신호에 대응하는 정보가 음성 데이터베이스에 존재하는지 여부를 결정하는 단계와; 정보가 존재하지 않는 것으로 결정되면 음성신호에 대한 정보를 데이터베이스에 저장하는 단계를 더 포함할 수 있다. 이에, 난청인의 주변인들에 대한 정보가 지속적으로 업데이트되어, 추후의 화자 인식에 다시 활용될 뿐 아니라 사용자 고유의 음성 데이터베이스를 구축할 수 있게 된다.Determining whether information corresponding to the received voice signal is present in the voice database; And if the information is determined not to exist, storing information on the voice signal in the database. Accordingly, the information about the perimeters of the hearing impaired person is constantly updated, so that it can be utilized not only for future speaker recognition but also can build a user's own speech database.

한편, 본 발명 일실시예에 따른 보청장치와 휴대장치를 포함하는 보청 시스템의 제어방법은, 복수의 마이크로폰으로부터 음성신호를 수신하는 단계와; 보청장치의 전면에 설치된 전면 카메라로부터 영상데이터를 수신하는 단계와; 수신된 음성신호의 발화 위치를 결정하는 단계와; 수신된 영상데이터를 이용하여 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는 단계와; 발화 위치에 화자가 존재하는 것으로 결정되면 수신된 음성신호로부터 음성 데이터베이스를 이용하여 식별된 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 식별된 음성신호를 조정하는 단계와; 조정된 음성신호를 보청장치에 의해 출력하는 단계를 포함할 수 있다. 이에 따라, 보청장치를 착용하고 상대방을 쳐다보는 것만으로도 대화의 상대방을 확인하고, 그 음성신호가 증폭되어 출력되므로, 시끄러운 환경에서도 대화의 집중도가 향상될 수 있다.According to another aspect of the present invention, there is provided a method of controlling a hearing aid system including a hearing aid and a portable device, the method comprising: receiving a voice signal from a plurality of microphones; Receiving image data from a front face camera installed on a front face of the hearing aid; Determining an utterance position of the received voice signal; Determining whether a speaker is present at a determined firing position using the received image data; Adjusting the identified speech signal so that the level of the hearing loss frequency region is increased with respect to the speech signal corresponding to the speaker identified using the speech database from the received speech signal when the speaker is determined to be present at the speech position; And outputting the adjusted voice signal by the hearing aid. Accordingly, by simply looking at the other party wearing the hearing aid, the other party of the conversation is confirmed, and the voice signal is amplified and output, so that conversation concentration can be improved even in a noisy environment.

보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 착용자의 안구 정보를 획득하는 후면 카메라로부터 착용자의 안구 정보를 획득하는 단계를 더 포함하며, 획득된 안구 정보를 이용하여 착용자가 화자를 응시하는지 여부를 결정하는 단계를 더 포함할 수 있다. 이에, 사용자가 상대방을 응시하는지 여부까지 활용하므로, 화자 인식의 정확도가 보다 향상된다.Further comprising the step of acquiring eye information of a wearer from a rear camera which is provided at a position through which at least one eye of the wearer of the hearing aid passes and acquires eye information of the wearer, And determining whether or not to perform the step of determining whether or not to perform the process. Accordingly, since the user utilizes whether or not the user is gazing at the other party, the accuracy of the speaker recognition is further improved.

보청장치에는 착용자의 적어도 하나의 시선이 통과하는 위치에 디스플레이부가 더 마련되며, 발화 위치에 대한 정보 및 음성 데이터베이스를 이용하여 식별된 화자에 대한 정보를 디스플레이부에 의해 표시하는 단계를 더 포함할 수 있다. 이에, 사용자에게 대화 상대방에 대한 다양한 정보를 제공하여, 그 편의를 돕는다.The hearing aid may further include a display unit provided at a position where at least one line of sight of the wearer passes through, and displaying information on the speaker identified using the speech database and the speech database by the display unit have. Accordingly, various information on the communication partner is provided to the user, thereby facilitating the convenience.

도 1은 본 발명의 일 실시예에 따른 보청 시스템의 일례를 도시한 도면이며,
도 2는 본 발명 일실시예에 따른 보청장치를 도시한 사시도이며,
도 3은 본 발명 일실시예에 따른 보청장치의 구성을 도시한 블록도이며,
도 4는 본 발명 일실시예에 따른 휴대장치의 구성을 도시한 블록도이며,
도 5는 본 발명 일실시예에 따라 스마트워치로 구현된 휴대장치를 도시한 사시도이며,
도 6과 도 7은 본 발명의 실시예에 따른 휴대장치에서 화자의 위치를 추정하는 방법을 설명하기 위한 도면이며,
도 8은 본 발명 일실시예에 따른 휴대장치에서 안구 정보를 이용하는 방식을 설명하기 위한 도면이며,
도 9는 본 발명 일실시예에 의한 보청 시스템의 제어방법을 도시한 흐름도이며,
도 10 내지 도 12는 도 9에 도시된 제어방법에 따라 보청장치 및 휴대장치를 이용하여 난청인이 상대방과 대화를 하는 과정을 설명하기 위한 도면이다.
1 is a diagram showing an example of a hearing aid system according to an embodiment of the present invention,
2 is a perspective view showing a hearing aid according to an embodiment of the present invention,
3 is a block diagram showing a configuration of a hearing aid according to an embodiment of the present invention,
4 is a block diagram showing the configuration of a portable device according to an embodiment of the present invention,
5 is a perspective view illustrating a portable device implemented with a smart watch according to an embodiment of the present invention,
6 and 7 are diagrams for explaining a method of estimating a speaker's position in a portable device according to an embodiment of the present invention,
8 is a view for explaining a method of using eye information in a portable device according to an embodiment of the present invention,
9 is a flowchart illustrating a method of controlling a hearing aid system according to an embodiment of the present invention,
FIGS. 10 to 12 are views for explaining a process in which the hearing impaired person communicates with the other party using the hearing device and the portable device according to the control method shown in FIG. 9. FIG.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여기에서 설명하는 실시예들에 한정되지 않으며, 여러 가지 상이한 형태로 구현될 수 있다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention is not limited to the embodiments described herein, but may be embodied in various different forms.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

또한, 실시예에서 “포함하다” 또는 “가지다”와 같은 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소 또는 이들의 조합이 존재함을 지정하기 위한 것이며, 하나 이상의 다른 특징, 숫자, 단계, 동작, 구성요소 또는 이들의 조합이 존재하거나 부가되는 가능성을 배제하는 것은 아니다. Also, in the examples, terms such as " comprising " or " having " are used to specify that a feature, a number, a step, an operation, an element, , Steps, operations, components, or combinations thereof, are not intended to be < / RTI >

명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.As used herein, the term "part " refers to a hardware component, such as a software, FPGA, or ASIC, and the" part " However, "part" is not meant to be limited to software or hardware. "Part" may be configured to reside on an addressable storage medium and may be configured to play back one or more processors. Thus, by way of example, and not limitation, "part (s) " refers to components such as software components, object oriented software components, class components and task components, and processes, Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and "parts " may be combined into a smaller number of components and" parts " or further separated into additional components and "parts ".

이하에서는 도면과 관련하여 본 발명을 명확하게 설명하기 위해서 본 발명의 구성과 직접적으로 관련되지 않은 부분은 설명을 생략할 수 있으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 부여하기로 한다. In the following description of the present invention, the same reference numerals will be used throughout the drawings to refer to the same or like parts throughout the specification. .

도 1은 본 발명의 일 실시예에 따른 보청 시스템(1)의 일례를 도시한 도면이다.1 is a diagram showing an example of a hearing aid system 1 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명 일 실시예의 보청 시스템(1)은 보청장치(hearing aid apparatus)(10) 및 보청장치(10)와 통신 가능하도록 제공되는 휴대장치(portable apparatus)(20)를 포함한다.1, a hearing aid system 1 according to an embodiment of the present invention includes a hearing aid apparatus 10 and a portable apparatus 20 provided to be capable of communicating with the hearing aid apparatus 10, .

보청장치(10)는 외부로부터 아날로그 사운드(예를 들어, 음성신호)를 수신하고, 증폭된 사운드를 착용자에게 출력한다. 여기서, 증폭된 사운드는 난청인 즉, 보청장치(10) 착용자의 난청 주파수 영역의 레벨을 증가시킨 음성신호에 대응할 수 있다.The hearing aid apparatus 10 receives an analog sound (for example, a voice signal) from the outside and outputs the amplified sound to the wearer. Here, the amplified sound may correspond to a speech signal in which the level of the hearing loss is increased, that is, the level of the hearing loss frequency region of the hearing aid wearer.

본 발명에 따른 일실시예에서 보청장치(10)는 사운드를 수신하는 음성입력부로서 마련된 마이크로폰과, 증폭된 사운드를 출력하는 음성출력부로서 마련된 이어폰을 포함하는 신체 착용형(즉, 웨어러블 장치(wearable device))으로 예를 들어, 난청인의 머리에 착용하는 머리 착용형, 도 1과 같은 안경형 등의 다양한 형태로 구현될 수 있다. In one embodiment of the present invention, the hearing aid 10 is a body wearable type (i.e., wearable) device including a microphone provided as a sound input portion for receiving sound and an earphone provided as a sound output portion for outputting amplified sound device), for example, a head wearable type which is worn on the head of the hearing impaired person, a type of eyeglasses as shown in Fig. 1, and the like.

일실시예에서 보청장치(10)는 아날로그 신호를 디지털 신호로 변환하여 처리하고, 처리된 디지털 신호를 아날로그 신호로 변환하여 출력하는 디지털 보청장치로 구현될 수 있다. In one embodiment, the hearing aid 10 may be implemented as a digital hearing aid that converts an analog signal into a digital signal, processes the analog signal, converts the processed digital signal into an analog signal, and outputs the converted analog signal.

다른 실시예에서 보청장치(10)는 아날로그 신호를 휴대장치(20)로 송신하고, 휴대장치(20)로부터 조정된 아날로그 신호를 수신하여 출력하도록 구현 가능하다. 이 경우, 난청 주파수 영역의 레벨 조정과 같은 신호 처리는 휴대장치(20)에서 수행될 수 있다.In another embodiment, the hearing aid 10 can be implemented to transmit an analog signal to the portable device 20, and to receive and output the adjusted analog signal from the portable device 20. In this case, signal processing such as level adjustment of the hearing loss frequency region can be performed in the portable device 20. [

본 발명에 따른 일실시예에서 휴대장치(20)는, 도 1에 도시된 바와 같이, 스마트폰(smart phone), 태블릿(tablet)과 같은 스마트 패드(smart pad), PDA(personal digital assistant, 개인 휴대용 정보 단말기) 등의 이동 가능한 다양한 디지털 기기로 구현 가능하다.In one embodiment of the present invention, the portable device 20 may include a smart pad such as a smart phone, a tablet, a personal digital assistant (PDA) Portable information terminals), and the like.

일실시예에서 휴대장치(20)는 스마트 워치(smart watch), 스마트 밴드(smart band) 등의 사용자의 신체에 착용 가능한 웨어러블 장치(디지털 액세서리, 스마트 액세서리, 또는 앱세서리(Appcessory) 라고도 한다)가 될 수 있다. In one embodiment, the portable device 20 is a wearable device (also referred to as a digital accessory, a smart accessory, or an app apparel) that can be worn on the wearer's body, such as a smart watch, a smart band, .

휴대장치(20)와 관련하여서는, 후술하는 도 4 및 5에서 보다 상세하게 설명하기로 한다.The portable device 20 will be described later in more detail with reference to FIGS. 4 and 5. FIG.

도 2는 본 발명 일실시예에 따른 보청장치(100)를 도시한 사시도이다.2 is a perspective view illustrating a hearing aid 100 according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명 일실시예에서 보청장치(100)는 안경과 같이 착용자가 신체에 착용할 수 있는 형태로 제공된다. As shown in FIG. 2, in one embodiment of the present invention, the hearing aid 100 is provided in a form such as a pair of glasses that the wearer can wear on his or her body.

도 2에서는 착용 형태의 예로서 안경형으로 구현되는 것을 예로 들어 도시하였으나, 본 발명은 이에 한정되지 않는다. 즉, 본 발명에서 보청장치(100)는 음성신호를 수신하는 음성입력부(160), 증폭된 음성신호를 출력하는 음성출력부(170) 및 착용자 전면의 영상데이터를 수신하는 영상입력부(180)가 설치 가능한 다양한 형태로서 구현될 수 있다.In FIG. 2, an example of a wearing form is shown as an example of a wearing type, but the present invention is not limited thereto. That is, in the present invention, the hearing aid 100 includes a sound input unit 160 for receiving a sound signal, a sound output unit 170 for outputting an amplified sound signal, and an image input unit 180 for receiving image data on the wearer's front And can be implemented in various forms that can be installed.

도 2를 참조하면, 음성입력부(160)는 복수의 마이크로폰(161, 162, 163)(이하, 마이크 라고도 한다)을 포함하며, 각 마이크로폰(161, 162, 163)은 소정 간격(d)을 두고 보청장치(100)에 설치된다. 2, the voice input unit 160 includes a plurality of microphones 161, 162 and 163 (hereinafter, also referred to as a microphone), and each of the microphones 161, 162 and 163 has a predetermined interval d And is installed in the hearing apparatus 100.

음성출력부(170)는 보청장치(100) 착용자의 난청 주파수 영역의 레벨이 증가된 음성신호를 출력하며, 도 2와 같이 이어폰(171, 172)의 형태를 가질 수 있다.The voice output unit 170 outputs a voice signal whose level of the hearing loss frequency range of the wearer of the hearing aid device 100 is increased and may have the form of earphones 171 and 172 as shown in FIG.

영상입력부(180)는 보청장치(100) 착용자의 전면을 촬영하는 전면 카메라(181)를 포함한다. 전면 카메라(181)를 통해 획득된 영상데이터는 화자의 위치 결정에 이용할 수 있다.The image input unit 180 includes a front camera 181 for photographing the front face of the wearer of the hearing aid. The image data obtained through the front camera 181 can be used for positioning the speaker.

일실시예에서 영상입력부(180)는 보청장치(100) 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 착용자의 안구 정보를 획득하는 후면 카메라(182)를 더 포함할 수 있다. 후면 카메라(182)를 통해 획득된 영상데이터는 착용자가 음성을 발화환 화자를 응시하는지 여부를 결정하는데 활용될 수 있다.In one embodiment, the image input unit 180 may further include a rear camera 182 provided at a position through which at least one line of sight of the wearer of the hearing aid device 100 passes and acquires eye information of the wearer. The image data obtained through the backside camera 182 can be used to determine whether or not the wearer is looking at a voice call ringer.

한편, 본 발명 일실시예에 따른 보청장치(100)에는 착용자의 적어도 하나의 시선이 통화하는 위치에 마련되는 디스플레이부(140)가 더 마련될 수 있다. 디스플레이부(140)는, 도 2에 도시된 바와 같이, 후면카메라(182)가 설치되지 않은 눈의 위치에 대응하여 마련될 수 있다. Meanwhile, the hearing device 100 according to an embodiment of the present invention may further include a display unit 140 provided at a position where at least one line of sight of the wearer is talking. As shown in FIG. 2, the display unit 140 may be provided corresponding to the position of the eyes where the rear camera 182 is not installed.

즉, 일실시예에서는 후면 카메라(182)가 착용자의 어느 하나의 시선이 통과하는 위치에 마련되는 경우, 디스플레이부(140)는 다른 하나의 시선이 통과하는 위치에 마련될 수 있다. 여기서, 다른 실시예로서 2개의 시선이 모두 통과하는 위치에 후면 카레라(182) 및/또는 디스플레이부(140)는 설치될 수도 있을 것이다.That is, in one embodiment, when the rear camera 182 is provided at a position through which one of the eyes of the wearer passes, the display unit 140 may be provided at a position through which the other eye passes. Here, as another embodiment, the rear car- rier 182 and / or the display unit 140 may be installed at a position where both eyes pass through.

또한, 보청장치(100)에는 통신부(120)가 마련되어, 휴대장치(200)와 통신이 가능하도록 구현될 수 있다. 통신부(120)는 다양한 통신모듈을 포함하며, 그 종류는 한정되지 않는다.In addition, the hearing aid apparatus 100 may be provided with a communication unit 120 so as to be capable of communicating with the portable device 200. The communication unit 120 includes various communication modules, and the type thereof is not limited.

이하, 도 3을 참조하여, 보청장치(100)의 구성에 대해 보다 상세하게 설명하기로 한다.Hereinafter, the configuration of the hearing aid apparatus 100 will be described in more detail with reference to FIG.

도 3은 본 발명 일실시예에 따른 보청장치(100)의 구성을 도시한 블록도이다.3 is a block diagram showing the configuration of a hearing aid 100 according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 보청장치(100)는 제어부(110), 통신부(120), 영상처리부(130), 디스플레이부(140), 사용자 입력부(150), 음성입력부(160), 음성출력부(170), 영상입력부(180), 저장부(190) 및 전원공급부(195)를 포함한다. 3, the hearing aid 100 includes a control unit 110, a communication unit 120, an image processing unit 130, a display unit 140, a user input unit 150, a voice input unit 160, An image input unit 180, a storage unit 190, and a power supply unit 195.

음성입력부(160)는 복수의 마이크로서, 제1마이크(161)와 제2마이크(162)를 포함한다. 일실시예에서 음성입력부(160)는 제3마이크(163)를 더 포함할 수 있다. The voice input unit 160 includes a plurality of microphones, a first microphone 161 and a second microphone 162. In one embodiment, the voice input unit 160 may further include a third microphone 163.

음성출력부(170)는 제1이어폰(171)과 제2이어폰(172)를 포함한다. 일실시예에서 음성출력부(170)는 제1이어폰(171)과 제2이어폰(172) 중 어느 하나만 포함할 수 있다.The audio output unit 170 includes a first earphone 171 and a second earphone 172. In one embodiment, the audio output unit 170 may include only one of the first earphone 171 and the second earphone 172.

영상입력부(180)는 전면카메라(181)를 포함한다. 일실시예에서 영상입력부(180)는 후면카메라(182)를 더 포함할 수 있다.The image input unit 180 includes a front camera 181. In one embodiment, the image input unit 180 may further include a rear camera 182.

일실시예에서 보청장치(100)에는, 도 3에 도시된 바와 같이, 커넥터(175)와 방향센서(165)가 더 마련될 수 있다.In one embodiment, the hearing aid 100 may further include a connector 175 and a direction sensor 165, as shown in Fig.

제어부(110)는 보청장치(100)의 전반적인 동작 및 보청장치(100)의 내부 구성요소들(120 내지 195) 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(110)는 전원공급부(195)로부터 내부 구성요소들(120 내지 190)로의 전원 공급을 제어한다. 또한, 사용자의 입력 또는 설정되어 저장된 조건을 만족하는 경우, 제어부(110)는 저장부(190)에 저장된 OS(Operation System) 및 다양한 어플리케이션을 실행할 수 있다.The control unit 110 controls the overall operation of the hearing aid apparatus 100 and the signal flow between the internal components 120 to 195 of the hearing aid apparatus 100 and performs data processing. The control unit 110 controls power supply from the power supply unit 195 to the internal components 120 to 190. In addition, when the input or the set stored condition of the user is satisfied, the control unit 110 can execute an OS (Operation System) and various applications stored in the storage unit 190. [

본 발명의 실시예에서 제어부(110)는 프로세서(111), 롬(112) 및 램(113)을 포함한다. 프로세서(111)는 CPU(Central Processing Unit), AP(Application Processor), 마이컴(Micro Computer, MICOM)과 같은 적어도 하나의 범용 프로세서를 포함하여, 예를 들어, 롬(112)에 저장된 소정 알고리즘에 따라 대응하는 프로그램을 램(113)에 로드하여 실행함으로써 보청장치(100)의 다양한 동작들을 수행하도록 구현 가능하다.In an embodiment of the present invention, the control unit 110 includes a processor 111, a ROM 112, and a RAM 113. [ The processor 111 includes at least one general purpose processor such as a CPU (Central Processing Unit), AP (Application Processor), Microcomputer (MICOM) It is possible to implement various operations of the hearing aid 100 by loading and executing a corresponding program in the RAM 113. [

프로세서(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 서브 프로세서(sub processor)를 포함할 수 있다. 서브 프로세서는 대기전원만 공급되고 보청장치(100)로서 동작하지 않는 대기모드(standby mode, 이하, 슬립모드(sleep mode) 라고도 한다)에서 동작하도록 마련된다. The processor 111 may include single core, dual core, triple core, quad core, and cores thereof. A processor may include a plurality of processors, for example, a main processor and a sub processor. The sub processor is provided to operate in a standby mode (hereinafter also referred to as a sleep mode) in which only standby power is supplied and does not operate as the hearing aid.

상기와 같은 프로세서(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.The processor 111, the ROM 112, and the RAM 113 may be interconnected via an internal bus.

일 실시예에서 프로세서(111)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 예를 들어, 프로세서(111)는 코어(core, 도시되지 아니함) 및 GPU(도시되지 아니함)가 결합된 SoC(System On Chip)의 형태로 구현될 수 있다. In one embodiment, the processor 111 may include a graphics processing unit (GPU) (not shown) for graphics processing. For example, the processor 111 may be implemented in the form of a system on chip (SoC) coupled with a core (not shown) and a GPU (not shown).

한편, 본 발명의 또 다른 실시예에서 제어부(110)는 휴대장치(200)에서 지원되는 특정 기능, 예를 들어, 메인 프로세서를 포함한 소정 구성에서의 오류 발생을 감지하는 기능을 수행하기 위한 프로그램과 해당 프로그램을 실행하는 전용 프로세서로서 마련되는 칩(chip) 예를 들어, IC(integrated circuit) 칩을 더 포함할 수 있다.Meanwhile, in another embodiment of the present invention, the control unit 110 may include a program for performing a function of detecting an error occurrence in a predetermined function including a main processor, for example, a main function supported by the portable device 200 For example, an integrated circuit (IC) chip provided as a dedicated processor for executing the program.

제어부(110)는 통신부(120), 영상처리부(130), 디스플레이부(140), 사용자 입력부(150), 음성입력부(160), 음성출력부(170), 커넥터(175), 영상입력부(180), 방향센서(165), 저장부(190) 및 전원공급부(195)를 제어할 수 있다. The control unit 110 includes a communication unit 120, an image processing unit 130, a display unit 140, a user input unit 150, a voice input unit 160, a voice output unit 170, a connector 175, The direction sensor 165, the storage unit 190, and the power supply unit 195, as shown in FIG.

통신부(120)는 휴대장치(200)와의 통신이 가능한 통신모듈을 포함한다. 예를 들어, 통신부(170)는 블루투스(bluetooth), 블루투스 저 에너지(bluetooth low energy), 적외선 통신(IrDA, infrared data association), 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 지그비(Zigbee), UWB(Ultra Wideband), NFC(Near Field Communication) 등의 무선 통신모듈 중 적어도 하나를 포함할 수 있다. The communication unit 120 includes a communication module capable of communicating with the portable device 200. For example, the communication unit 170 may be a wireless communication unit such as a Bluetooth, a Bluetooth low energy, an IrDA, a Wi-Fi, a Wi-Fi Direct, (Zigbee), UWB (Ultra Wideband), NFC (Near Field Communication), and the like.

일실시예에서 통신부(120)는 자기장을 이용한 인체매질 통신을 지원하도록 마련될 수 있다.In one embodiment, the communication unit 120 may be provided to support human body communication using a magnetic field.

통신부(120)는 음성입력부(160)를 통해 수신된 음성신호를 휴대장치(200)로 송신한다. 여기서, 송신되는 음성신호는 아날로그 신호이거나, 경우에 따라 디지털로 변환된 신호일 수 있다. 디지털로 변환된 신호가 송신되는 경우, 보청장치(100)에는 A/D 컨버터가 더 포함될 수 있다. The communication unit 120 transmits the voice signal received through the voice input unit 160 to the portable device 200. [ Here, the audio signal to be transmitted may be an analog signal or a digital signal. When the digitally converted signal is transmitted, the hearing aid 100 may further include an A / D converter.

통신부(120)는 휴대장치(200)로부터 음성신호를 수신할 수 있다. 수신된 음성신호는 음성출력부(170)를 통해 보청장치(100)의 착용자에게 출력된다. 여기서, 수신된 음성신호는 보청장치(100) 착용자의 난청 주파수 레벨이 조정된 음성신호 및/또는 착용자의 대화의 상대방에 대응하도록 분리된 음성신호로서, 아날로그 신호이거나 경우에 따라 디지털로 변환된 신호일 수 있다. 디지털로 변환된 신호가 수신되는 경우, 보청장치(100)에는 D/A 컨버터가 더 포함될 수 있다. The communication unit 120 can receive a voice signal from the portable device 200. [ The received voice signal is output to the wearer of the hearing aid 100 through the voice output unit 170. Here, the received voice signal is an analog signal or a signal converted into a digital signal in some cases, as a voice signal whose hearing loss frequency level of the wearer of the hearing aid device 100 is adjusted and the voice signal separated to correspond to the other party of the conversation of the wearer . When the digitally converted signal is received, the hearing aid 100 may further include a D / A converter.

영상처리부(130)는 디스플레이부(140)에 영상이 표시되도록 처리한다. The image processing unit 130 processes the image to be displayed on the display unit 140.

디스플레이부(140)는 영상처리부(130)에 의해 처리된 영상을 표시한다. The display unit 140 displays an image processed by the image processing unit 130.

일실시예에서 디스플레이부(140)는, 도 2에 도시된 바와 같이, 보청장치(100)를 착용한 상태에서 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 착용자가 대화 중에 정보를 용이하게 확인할 수 있도록 제공될 수 있다. 2, the display unit 140 may be provided at a position where at least one line of sight of the wearer passes while wearing the hearing aid device 100, so that the wearer can easily And can be provided for confirmation.

일실시예에서 디스플레이부(140)는 사용자의 터치 입력이 수신 가능한 터치 스크린을 포함할 수 있다. 또한, 디스플레이부(140)는 투명 디스플레이로 구현될 수 있을 것이다.In one embodiment, the display unit 140 may include a touch screen capable of receiving a user's touch input. In addition, the display unit 140 may be implemented as a transparent display.

일실시예에서 영상처리부(130)는 제어부(110)의 제어에 따라 보청장치(100)의 착용자에게 텍스트, 아이콘 등을 디스플레이부(140)에 표시하여 다양한 정보(예를 들어, 음성신호를 통해 유추된 화자의 위치 정보)를 제공하도록 영상 처리를 수행할 수 있으며, 표시되는 텍스트, 아이콘 등은 복수로 마련되어 저장부(190)에 미리 저장될 수 있다. In one embodiment, the image processing unit 130 displays text, icons, and the like on the display unit 140 to the wearer of the hearing aid apparatus 100 under the control of the control unit 110 to display various information (for example, And a plurality of displayed texts and icons may be stored in the storage unit 190 in advance.

사용자 입력부(150)는 사용자 입력을 수신하며, 하나 또는 둘 이상의 버튼을 포함할 수 있다. 일실시예에서 사용자 입력부(150)는 보청장치(100)를 소정 위치에 설치되어 전원을 온/오프(ON/OFF)하는 전원 버튼을 포함할 수 있다.The user input unit 150 receives user input and may include one or more buttons. In one embodiment, the user input unit 150 may include a power button provided at a predetermined position of the hearing aid apparatus 100 to turn on / off the power.

일실시예에 따른 보청장치(100)에서 버튼은 물리적 버튼이 아니라 터치스크린을 포함하는 디스플레이부(140)에 마련된 터치 버튼으로 구현될 수 있다. 또한, 보청장치(100)에서 버튼은 터치스크린에 텍스트 또는 아이콘으로 표시될 수 있다.In the hearing aid 100 according to the embodiment, the button may be implemented as a touch button provided on the display unit 140 including a touch screen, not a physical button. In the hearing aid apparatus 100, the button may be displayed as text or an icon on the touch screen.

음성입력부(160)는 복수의 마이크로폰(microphone)(161, 162, 163)을 포함하며, 제어부(110)는 각 마이크로폰(161, 162, 163)를 통해 화자로부터 발화된 음성에 대응하는 음성신호를 수집할 수 있다. 마이크로폰(161, 162, 163)은 제어부(110)의 제어에 따라, 외부에서부터 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다. 각 마이크로폰(161, 162, 163)을 통해 수집된 음성신호는 화자의 위치(방향)를 추정하는데 이용된다.The sound input unit 160 includes a plurality of microphones 161, 162, and 163 and the control unit 110 controls the microphones 161, 162, and 163 to output sound signals corresponding to the sounds uttered by the speakers Can be collected. Under the control of the controller 110, the microphones 161, 162, and 163 receive voice or sound from the outside and generate electrical signals. The voice signals collected through the respective microphones 161, 162, and 163 are used to estimate the position (direction) of the speaker.

음성출력부(170)는 증폭된 음성신호를 출력하는 이어폰(171, 172)를 포함한다. 여기서, 출력되는 음성신호는 보청장치(100) 착용자의 난청 주파수 영역의 레벨을 증가시킨 신호가 된다. 또한, 출력되는 음성신호는 노이즈가 제거된 음성신호가 된다.The audio output unit 170 includes earphones 171 and 172 for outputting amplified audio signals. Here, the output audio signal is a signal that increases the level of the hearing loss frequency region of the wearer of the hearing aid. Further, the output audio signal is a noise-removed audio signal.

일실시예에서 음성입력부(160)를 통해 수신된 음성신호 중 대화의 상대방으로 결정된 화자의 음성신호가 분리되어 음성출력부(170)를 통해 출력될 수 있다. 여기서, 대화의 상대방 결정 및 그에 대응하는 음성신호의 분리와 같은 일련의 음성신호 처리는 휴대장치(200)의 제어부(210)에 의해 수행될 수 있다.In one embodiment, a speech signal of a speaker determined as a conversation partner among the speech signals received through the speech input unit 160 may be separated and output through the speech output unit 170. Here, a series of audio signal processing such as determination of the other party of the conversation and separation of the corresponding audio signal can be performed by the control unit 210 of the portable device 200. [

커넥터(175)는 보청장치(100)와 외부 장치 또는 전원소스를 연결하기 위한 인터페이스로 이용될 수 있다. 일실시예에서 보청장치(100)는 커네터(175)를 통해 휴대장치(200)와 연결될 수 있다.The connector 175 may be used as an interface for connecting the hearing aid 100 to an external device or a power source. In one embodiment, the hearing aid 100 may be connected to the portable device 200 via a connector 175.

보청장치(100)는 커넥터(175)에 연결된 유선 케이블을 통해 전원소스로부터 전원이 입력되거나, 전원공급부(195)로서 마련되는 배터리를 충전할 수 있다.The hearing aid apparatus 100 may be powered from a power source via a wired cable connected to the connector 175 or may be charged with a battery provided as a power supply unit 195. [

영상입력부(180)는 보청장치(100)의 전면에 마련되어 제어부(110)의 제어에 따라 정지영상 또는 동영상을 촬영하는 전면카메라(181)를 포함한다. 전면카메라(181)를 통해 수신된 전면 영상데이터는 통신부(120)를 통해 휴대장치(200)로 송신될 수 있다. 휴대장치(200)의 제어부(210)는 보청장치(100)로부터 수신된 전면 영상데이터를 이용하여 보청장치(100) 착용자의 전면에 화자가 위치하는지 여부를 결정할 수 있으며, 전면에 화자가 위치하는 경우 대화중인 것으로 유추될 수 있다.The image input unit 180 includes a front camera 181 provided on the front of the hearing aid apparatus 100 and capturing a still image or a moving image under the control of the controller 110. Front image data received through the front camera 181 may be transmitted to the portable device 200 through the communication unit 120. [ The controller 210 of the portable device 200 can determine whether or not a speaker is located on the front face of the wearer using the front image data received from the hearing aid device 100, It can be inferred as being in conversation.

일실시예에서 영상입력부(180)는 사용자의 적어도 하나의 눈을 촬영하는 후면카메라(182)를 더 포함할 수 있다. 후면카메라(182)를 통해 수신된 후면 영상데이터는 통신부(120)를 통해 휴대장치(200)로 송신될 수 있다. 휴대장치(200)의 제어부(210)는 보청장치(100)로부터 수신된 후면 데이터를 이용하여 착용자 안구(동체)의 움직임 정보를 획득할 수 있다. 획득된 안구 정보는 착용자가 대화의 상대방 즉, 화자를 응시하는지 여부를 결정하는데 이용된다.In one embodiment, the image input unit 180 may further include a rear camera 182 that photographs at least one eye of the user. The rear image data received through the rear camera 182 can be transmitted to the portable device 200 through the communication unit 120. [ The control unit 210 of the portable device 200 can acquire motion information of the wearer's eye (body) using the backside data received from the hearing aid device 100. [ The acquired eye information is used to determine whether the wearer is looking at the other party, i.e., the speaker, of the conversation.

전면카메라(181)과 후면카메라(182)는 렌즈를 통해 투과된 영상을 감지하는 이미지 센서를 포함하며, 예를 들어 CCD/CMOS 이미지 센서로 구현 가능하다.The front camera 181 and the rear camera 182 include an image sensor for sensing an image transmitted through a lens, and can be implemented as a CCD / CMOS image sensor, for example.

방향센서(165)는 보청장치(100)의 전면에 마련되어, 전면에 대화의 상대방으로 추정되는 화자의 유무를 감지할 수 있다. 일실시예에서 방향센서(165)는 전면에 존재하는 화자의 움직임(예를 들어, 좌 또는 우로의 위치 이동)을 더 감지할 수 있다. 방향센서(165)의 센싱값은 전면 영상데이터를 이용한 화자의 존재 여부의 판단 과정에 이용될 수 있다. The direction sensor 165 is provided on the front surface of the hearing aid device 100 and can detect presence or absence of a speaker estimated as a conversation partner on the front side. In one embodiment, the direction sensor 165 may further sense motion of the speaker present in the foreground (e.g., movement to the left or right). The sensing value of the direction sensor 165 may be used for determining whether or not a speaker is present using the front image data.

한편, 일실시예서 보청장치(100)는 자세변경을 포함하는 보청장치(100)의 움직임을 감지하는 모션 센서(예를 들어, 자이로 센서 또는 가속도 센서)를 더 포함할 수도 있을 것이다.Meanwhile, one embodiment of the hearing aid apparatus 100 may further include a motion sensor (for example, a gyro sensor or an acceleration sensor) for sensing the motion of the hearing aid 100 including the posture change.

저장부(190)는 보청장치(100)의 제어를 위한 제어 프로그램, 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션 또는 관련된 GUI(graphical user interface), GUI를 제공하기 위한 텍스트 또는 이미지들, 이와 관련 데이터들을 저장할 수 있다.The storage unit 190 stores a control program for controlling the hearing aid apparatus 100, an application or an associated graphical user interface provided from a manufacturer or downloaded from the outside, text or images for providing a GUI, Can be stored.

전원공급부(195)는 보청장치(100)의 각 구성들(110 내지 190)에 전원을 공급한다. 전원공급부(195)는 보청장치(100) 내부에 위치하는 하나 또는 둘 이상의 배터리(도시되지 아니함)를 포함하며, 제어부(110)의 제어에 따라 각 구성들(110 내지 190)에 동작 전원을 공급할 수 있다. 또한, 전원공급부(195)는 제어부(110)의 제어에 따라 커넥터(175)와 연결된 유선 케이블(도시되지 아니함)을 통해 외부의 전원 소스(도시되지 아니함)에서부터 입력되는 전원이 보청장치(100)의 동작을 위한 전원으로 공급 즉, 충전되도록 할 수 있다.The power supply unit 195 supplies power to the respective components 110 to 190 of the hearing aid 100. The power supply unit 195 includes one or more batteries (not shown) located inside the hearing aid apparatus 100 and supplies operating power to the respective components 110 to 190 under the control of the controller 110 . The power supply unit 195 supplies power to the hearing aid 100 through an external power source (not shown) through a cable (not shown) connected to the connector 175 under the control of the controller 110. [ I.e., to be charged.

이하, 도 4를 참조하여 휴대장치(200)의 구성에 대하여 설명한다.Hereinafter, the configuration of the portable device 200 will be described with reference to FIG.

도 4는 본 발명 일실시예에 따른 휴대장치(200)의 구성을 도시한 블록도이다.4 is a block diagram showing a configuration of a portable device 200 according to an embodiment of the present invention.

본 실시예의 휴대장치(200)는 후술하는 통신부(230)를 이용하여 보청장치(100)를 포함하는 타 기기와 무선으로 연결되어, 음성신호와 영상데이터를 송/수신할 수 있다. 일 실시예에서 휴대장치(200)는 터치스크린(241)을 가지고, 통신부(230)를 통해 데이터를 송/수신 가능한 장치로서 정의된다.The portable device 200 of the present embodiment can be wirelessly connected to other devices including the hearing aid device 100 using a communication unit 230 described later and can transmit / receive audio signals and video data. In one embodiment, the portable device 200 has a touch screen 241 and is defined as a device capable of transmitting / receiving data through the communication unit 230.

일 실시예의 휴대장치(200)에서는, 물리적인 버튼(251), 터치스크린(241)에 표시되는 키패드, 사용자의 터치 입력이 가능한 별도의 입력장치(포인팅 디바이스)를 포함하는 사용자 입력부(250)를 정의할 수 있으며, 사용자 입력부(250)는 터치스크린(241)에 대한 사용자의 신체(예를 들어, 손가락)에 의한 터치를 수신할 수 있다. 사용자 입력부(250)는 터치 입력을 포함한 사용자의 입력에 따라, 기 설정된 다양한 제어 커맨드 또는 정보를 제어부(110)에 전달한다.The portable device 200 of the embodiment includes a user input unit 250 including a physical button 251, a keypad displayed on the touch screen 241, and a separate input device (pointing device) And the user input unit 250 may receive a touch by the user's body (e.g., a finger) with respect to the touch screen 241. [ The user input unit 250 transmits various preset control commands or information to the control unit 110 according to a user input including a touch input.

도 4에 도시된 바와 같이, 휴대장치(200)는 터치스크린(241)을 포함하는 디스플레이부(240)와, 터치스크린 컨트롤러(245)를 포함한다. 휴대장치(200)는 제어부(210), 통신부(220), 영상처리부(230), 디스플레이부(240), 사용자 입력부(250), 감지부(260), 영상입력부(280), 저장부(290) 및 전원공급부(295)를 포함한다. As shown in FIG. 4, the portable device 200 includes a display unit 240 including a touch screen 241, and a touch screen controller 245. The portable device 200 includes a control unit 210, a communication unit 220, an image processing unit 230, a display unit 240, a user input unit 250, a sensing unit 260, an image input unit 280, And a power supply unit 295.

통신부(220)는 무선랜 유닛(221) 및 근거리 통신부(222) 중 적어도 하나를 포함하고, 영상처리부(230)는 방송통신 유닛(231), 오디오재생 유닛(232) 및 동영상재생 유닛(233) 중 적어도 하나를 포함한다. 사용자 입력부(250)은 버튼(251), 마이크(252), 키패드(263) 및 입력장치(264) 중 적어도 하나를 포함한다. 감지부(270)는 근접센서(271), 조도센서(272) 및 자세센서(273) 중 적어도 하나를 포함한다. 영상입력부(280)는 제1카메라(281) 및 제2카메라(282) 중 적어도 하나를 포함한다. The communication unit 220 includes at least one of a wireless LAN unit 221 and a local communication unit 222. The image processing unit 230 includes a broadcast communication unit 231, an audio reproduction unit 232, and a moving image reproduction unit 233. [ Or the like. The user input unit 250 includes at least one of a button 251, a microphone 252, a keypad 263, and an input device 264. [ The sensing unit 270 includes at least one of a proximity sensor 271, an illuminance sensor 272, and an attitude sensor 273. The image input unit 280 includes at least one of a first camera 281 and a second camera 282.

일실시예에서 저장부(290)에는 음성 데이터베이스(291)(이하, 음성 DB 라고도 한다)가 마련될 수 있다. 또한, 본 발명 일실시예에 따른 휴대장치(200)는 이동통신부(225), 스피커(271), 진동모터(272), GPS 유닛(273), 커넥터(275) 중 적어도 하나를 더 포함할 수 있다.In an embodiment, the storage unit 290 may be provided with a voice database 291 (hereinafter also referred to as voice DB). The portable device 200 according to an embodiment of the present invention may further include at least one of a mobile communication unit 225, a speaker 271, a vibration motor 272, a GPS unit 273, and a connector 275 have.

제어부(210)는 적어도 하나의 프로세서(211), 휴대장치(200)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 212) 및 휴대장치(200)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 휴대장치(200)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램(RAM, 213)을 포함할 수 있다.The control unit 210 stores at least one processor 211, a ROM 212 storing a control program for controlling the portable device 200 and signals or data input from the outside of the portable device 200, And a RAM (RAM) 213 used as a storage area for various operations performed in the portable device 200.

제어부(210)는 휴대장치(200)의 전반적인 동작 및 휴대장치(200)의 내부 구성요소들(220 내지 295) 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(210)는 전원공급부(295)로부터 내부 구성요소들(220 내지 290)로의 전원 공급을 제어한다. 또한, 사용자의 입력 또는 설정되어 저장된 조건을 만족하는 경우, 제어부(210)는 저장부(290)에 저장된 OS(Operation System) 및 다양한 어플리케이션을 실행할 수 있다. The control unit 210 controls the overall operation of the portable device 200 and the signal flow between the internal components 220 to 295 of the portable device 200 and performs a function of processing data. The control unit 210 controls power supply from the power supply unit 295 to the internal components 220 to 290. In addition, when the input or the set stored condition of the user is satisfied, the control unit 210 can execute an operating system (OS) and various applications stored in the storage unit 290. [

일실시예에서 제어부(210)는 수행하는 다양한 동작에 대응하여 음성신호의 방향을 추정하는 방향분석 모듈, 영상데이터로부터 사람 형상을 인지하는 사람 인식 모듈, 입력된 사운드로부터 음성신호를 분리하기 위한 음성신호 판단 모듈, 음성신호로부터 소정 화자에 대응하는 신호를 분리하는 화자 분리 모듈, 음성 데이터베이스(291)를 이용하여 분리된 음성신호에 대응하는 화자를 판단하는 화자 인식 모듈, 후면 영상데이터를 처리하여 사용자의 안구를 추적하는 안구 추적 모듈, 입력된 사운드로부터 노이즈를 제거하는 노이즈 제거 모듈 중 적어도 하나를 포함할 수 있다. 상기의 모듈들 중 적어도 하나는 보청장치(100)의 제어부(110)에 포함될 수 있다.In one embodiment, the control unit 210 includes a direction analysis module for estimating a direction of a voice signal in accordance with various operations to be performed, a person recognition module for recognizing a human shape from image data, a voice for separating a voice signal from the input sound, A speaker separation module for separating signals corresponding to a predetermined speaker from the voice signal, a speaker recognition module for determining a speaker corresponding to the separated voice signal using the voice database 291, An eye tracking module for tracking the eye of the user, and a noise removal module for removing noise from the input sound. At least one of the above modules may be included in the controller 110 of the hearing aid 100.

프로세서(211)는 CPU(Central Processing Unit), AP(Application Processor), 마이컴(Micro Computer, MICOM)과 같은 적어도 하나의 범용 프로세서를 포함하여, 예를 들어, 롬(212)에 저장된 소정 알고리즘에 따라 대응하는 프로그램을 램(213)에 로드하여 실행함으로써 휴대장치(200)의 다양한 동작들을 수행하도록 구현 가능하다.The processor 211 may include at least one general purpose processor such as a CPU (Central Processing Unit), AP (Application Processor), Microcomputer (MICOM) It is possible to implement various operations of the portable device 200 by loading and executing a corresponding program in the RAM 213. [

프로세서(211)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 서브 프로세서(sub processor)를 포함할 수 있다. 서브 프로세서는 대기전원만 공급되고 휴대장치(200)로서 동작하지 않는 대기모드(standby mode, 이하, 슬립모드(sleep mode) 라고도 한다)에서 동작하도록 마련된다. The processor 211 may include single core, dual core, triple core, quad core, and cores thereof. A processor may include a plurality of processors, for example, a main processor and a sub processor. The sub processor is provided to operate in a standby mode (hereinafter also referred to as a sleep mode) in which only standby power is supplied and does not operate as the portable device 200. [

상기와 같은 프로세서(211), 롬(212) 및 램(213)은 내부 버스(bus)를 통해 상호 연결될 수 있다.The processor 211, the ROM 212, and the RAM 213 may be interconnected via an internal bus.

일 실시예에서 프로세서(211)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 예를 들어, 휴대장치(200)가 스마트폰, 스마트 패드 또는 스마트 TV로 구현되는 경우, 프로세서(211)는 코어(core, 도시되지 아니함) 및 GPU(도시되지 아니함)가 결합된 SoC(System On Chip)의 형태로 구현될 수 있다. In one embodiment, the processor 211 may include a graphics processing unit (GPU) (not shown) for graphics processing. For example, when the portable device 200 is implemented as a smart phone, a smart pad, or a smart TV, the processor 211 may be a SoC (System On) system, which is a combination of a core (not shown) and a GPU (not shown) Chip).

다른 실시예에서, 제어부(210)는 그래픽 처리를 위한 별도의 GPU를 더 포함할 수 있다. In another embodiment, the control unit 210 may further include a separate GPU for graphics processing.

한편, 본 발명의 또 다른 실시예에서 제어부(210)는 휴대장치(200)에서 지원되는 특정 기능, 예를 들어, 메인 프로세서를 포함한 소정 구성에서의 오류 발생을 감지하는 기능을 수행하기 위한 프로그램과 해당 프로그램을 실행하는 전용 프로세서로서 마련되는 칩(chip) 예를 들어, IC(integrated circuit) 칩을 더 포함할 수 있다.Meanwhile, in another embodiment of the present invention, the control unit 210 may include a program for performing a function of detecting an error occurrence in a specific configuration including a main processor, for example, a specific function supported by the portable device 200 For example, an integrated circuit (IC) chip provided as a dedicated processor for executing the program.

제어부(210)는 통신부(220), 이동통신부(225), 영상처리부(230), 터치스크린(241)을 포함하는 디스플레이부(240), 터치스크린 컨트롤러(245), 사용자 입력부(250), 감지부(260), 스피커(271), 진동모터(272), GPS 유닛(273), 영상입력부(280), 저장부(290) 및 전원공급부(295)를 제어할 수 있다. The control unit 210 includes a communication unit 220, a mobile communication unit 225, an image processing unit 230, a display unit 240 including a touch screen 241, a touch screen controller 245, a user input unit 250, A speaker unit 271, a vibration motor 272, a GPS unit 273, an image input unit 280, a storage unit 290, and a power supply unit 295, as shown in FIG.

통신부(220)은 무선랜 유닛(221)과 근거리 통신부(222) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 유닛(221)만 포함하거나, 근거리 통신부(222)만 포함하거나 또는 무선랜 유닛(221)과 근거리 통신부(232)를 모두 포함할 수 있다.The communication unit 220 may include at least one of a wireless LAN unit 221 and a local communication unit 222. For example, it may include only the wireless LAN unit 221, only the short range communication unit 222, or both the wireless LAN unit 221 and the short range communication unit 232.

무선랜 유닛(231)은 제어부(210)의 제어에 따라, AP(access point)(도시되지 아니함)가 설치된 장소에서 무선을 이용하여 AP(access point)와 연결될 수 있다. 무선랜 유닛(231)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 또한, 근거리 통신부(232)는 제어부(210)의 제어에 따라, AP(access point)없이 무선으로 타 기기 즉, 보청장치(100)를 포함하는 외부장치와 사이에 근거리 통신을 할 수 있다. 근거리 통신은 블루투스(bluetooth), 블루투스 저 에너지(bluetooth low energy), 적외선 통신(IrDA, infrared data association), 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 지그비(Zigbee), UWB(Ultra Wideband), NFC(Near Field Communication) 등의 근거리 통신모듈 중 적어도 하나를 포함할 수 있다.The wireless LAN unit 231 may be connected to an access point (AP) by using wireless in a place where an access point (AP) (not shown) is installed, under the control of the controller 210. [ The wireless LAN unit 231 supports the IEEE 802.11x standard of the Institute of Electrical and Electronics Engineers (IEEE). In addition, the short-range communication unit 232 can perform short-range communication with other devices including the hearing aid device 100 wirelessly without an access point (AP) under the control of the controller 210. [ Near-field communication can be achieved through Bluetooth, bluetooth low energy, IrDA, Wi-Fi, Wi-Fi Direct, Zigbee, UWB Ultra Wideband), Near Field Communication (NFC), and the like.

일실시예에서 통신부(220)는 자기장을 이용한 인체매질 통신을 지원하도록 마련될 수 있다.In an embodiment, the communication unit 220 may be configured to support human body communication using a magnetic field.

이동통신부(225)는 제어부(210)의 제어에 따라, 하나 또는 둘 이상의 안테나(도시되지 아니함)를 이용하여 이동 통신에 의해 외부장치 즉, 타 기기와 연결할 수 있다. 이동통신부(225)은 휴대장치(200)와 연결 가능한 전화번호를 가지는 휴대폰, 스마트폰, 태블릿 또는 다른 휴대장치(단말장치)와 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신한다. The mobile communication unit 225 can be connected to an external device, i.e., another device, by mobile communication using one or more antennas (not shown) under the control of the controller 210. [ The mobile communication unit 225 is connected to the portable device 200 through a voice communication, a video call, a text message (SMS), a multimedia message (MMS), or the like with a mobile phone, a smart phone, a tablet, And a wireless signal for data communication.

휴대장치(200)는 성능에 따라 이동통신부(225), 무선랜 유닛(221) 및 근거리 통신부(222) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대장치(200)는 성능에 따라 이동통신부(225), 무선랜 유닛(221), 및 근거리 통신부(222)들의 2 이상의 조합을 포함할 수 있다. The portable device 200 may include at least one of a mobile communication unit 225, a wireless LAN unit 221, and a local communication unit 222 according to performance. For example, the portable device 200 may include a combination of two or more of the mobile communication unit 225, the wireless LAN unit 221, and the local communication unit 222 depending on the performance.

본 발명의 실시예에 따른 통신부(220)는 제어부(210)의 제어에 의해 타 기기(예를 들어, 보청장치(100))와 연결되어, 데이터를 송/수신 할 수 있다. 이러한 데이터의 송/수신은 음성신호와 영상데이터의 송수신을 포함한다. The communication unit 220 according to the embodiment of the present invention may be connected to another device (for example, the hearing aid 100) by the control of the control unit 210 to transmit / receive data. The transmission / reception of such data includes transmission and reception of audio signals and video data.

본 실시예에서 통신부라는 용어는 기본적으로 통신부(220)를 나타내지만, 경우에 따라 통신부(220)와 이동통신부(225)를 모두 포함하는 것으로 정의된다. In this embodiment, the term communication unit basically indicates the communication unit 220, but it is defined as including both the communication unit 220 and the mobile communication unit 225 in some cases.

영상처리부(230)는 방송통신 유닛(231), 오디오 재생 유닛(232) 또는 동영상 재생 유닛(233)을 포함할 수 있다. 방송통신 유닛(231)은 제어부의 제어(210)에 따라, 방송통신 안테나(도시되지 아니함)를 통해 외부의 방송국에서부터 송출되는 방송 신호(예를 들어, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예를 들어, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 또한, 제어부(210)는 수신된 방송 신호 및 방송부가 정보를 비디오 코덱 유닛(Codec unit) 및/또는 오디오 코덱 유닛을 이용하여 디스플레이부(240) 및/또는 스피커(271)에서 재생 가능하도록 처리할 수 있다. The image processing unit 230 may include a broadcast communication unit 231, an audio reproducing unit 232, or a moving image reproducing unit 233. [ The broadcast communication unit 231 may transmit a broadcast signal (for example, a TV broadcast signal, a radio broadcast signal, or a data broadcast signal) transmitted from an external broadcast station through a broadcast communication antenna (not shown) ) And the broadcasting unit may receive information (for example, Electric Program Guide (EPS) or Electric Service Guide (ESG)). In addition, the control unit 210 processes the received broadcast signal and the broadcast unit so that the information can be played back on the display unit 240 and / or the speaker 271 using a video codec unit and / or an audio codec unit .

오디오 재생 유닛(232)은 제어부(210)의 제어에 따라, 휴대장치(200)의 저장부(290)에 기 저장되거나 또는 외부에서부터 수신되는 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 오디오 파일)를 스피커(271)에서 재생 가능하도록 처리할 수 있다. The audio reproduction unit 232 is connected to an audio source (for example, mp3, wma, etc.) stored in the storage unit 290 of the portable device 200 or received from the outside, under the control of the control unit 210. [ ogg, or wav) can be reproduced on the speaker 271. [0100]

본 발명의 실시예의 오디오 재생 유닛(232)은 제어부(210)의 제어에 따라 터치스크린(241)에서 검출되는 터치 또는 터치의 연속적인 움직임에 대응되는 청각 피드백(예를 들어, 저장부(290)에 저장된 오디오 소스의 출력 등)을 오디오 코덱 유닛을 통해 재생할 수도 있다. The audio reproduction unit 232 of the embodiment of the present invention controls the auditory feedback (for example, the storage unit 290) corresponding to the continuous movement of the touch or touch detected on the touch screen 241 under the control of the control unit 210, Output of an audio source stored in the audio codec unit) through the audio codec unit.

동영상 재생 유닛(233)은 제어부(210)의 제어에 따라 휴대장치(200)의 저장부(290)에 기 저장되거나 또는 외부에서부터 수신되는 디지털 동영상 소스(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 비디오 코덱 유닛을 이용하여 재생할 수 있다. 휴대장치(200)에 설치 가능한 대부분의 어플리케이션은 오디오 코덱 유닛 및/또는 비디오 코덱 유닛을 이용하여 오디오 소스 및/또는 동영상 파일을 재생할 수 있다. The moving picture reproducing unit 233 may be a digital moving picture source which is stored in the storage unit 290 of the portable device 200 or received from outside according to the control of the controller 210. For example, mp4, avi, mov, or mkv) can be played back using a video codec unit. Most of the applications that can be installed in the portable device 200 can reproduce an audio source and / or a moving picture file using an audio codec unit and / or a video codec unit.

본 발명의 실시예에 따라 동영상 재생 유닛(233)은 제어부(210)의 제어에 따라 터치스크린(241)에서 검출되는 터치 또는 터치의 연속적인 움직임에 대응되는 시각 피드백(예를 들어, 저장부(290)에 저장된 동영상 소스의 출력 등)을 비디오 코덱 유닛을 통해 재생할 수 있다. The moving picture reproducing unit 233 may generate a visual feedback based on the continuous movement of the touch or touch detected by the touch screen 241 under the control of the controller 210 290) can be reproduced through the video codec unit.

아울러, 많은 종류의 비디오 및 오디오 코덱 유닛이 생산 및 판매되고 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다. In addition, it will be readily understood by a person skilled in the art that many kinds of video and audio codec units are produced and sold.

일실시예에서 영상처리부(230)는 휴대장치(200)의 성능 또는 구조에 대응하여 방송통신 유닛(231)을 제외하고 오디오재생 유닛(232)과 동영상재생 유닛(233)을 포함할 수 있다. 또한, 영상처리부(230)의 오디오재생 유닛(232) 및/또는 동영상재생 유닛(233)은 제어부(210)에 포함될 수 있다. 본 발명의 실시예에서 비디오 코덱 유닛 이라는 용어는 하나 또는 둘 이상의 비디오 코덱 유닛을 포함할 수 있다. 또한, 본 발명의 실시예에서 오디오 코덱 유닛 이라는 용어는 하나 또는 둘 이상의 오디오 코덱 유닛을 포함할 수 있다. The image processing unit 230 may include an audio reproduction unit 232 and a moving picture reproduction unit 233 except for the broadcast communication unit 231 in correspondence with the performance or structure of the portable device 200. [ The audio reproduction unit 232 and / or the moving picture reproduction unit 233 of the image processing unit 230 may be included in the control unit 210. In an embodiment of the present invention, the term video codec unit may include one or more video codec units. Further, in the embodiment of the present invention, the term audio codec unit may include one or two or more audio codec units.

디스플레이부(240)는 영상처리부(230)에 의해 처리되는 영상신호에 기초하여 영상을 표시한다. 디스플레이부(240)의 구현 방식은 한정되지 않으며, 예컨대 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.The display unit 240 displays an image based on the image signal processed by the image processing unit 230. The method of implementing the display unit 240 is not limited. For example, a liquid crystal, a plasma, a light-emitting diode, an organic light-emitting diode, electron conduction electron-emitter, carbon nano-tube, nano-crystal, and the like.

디스플레이부(240)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(240)가 액정 방식인 경우, 디스플레이부(240)는 액정 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널구동기판(미도시)을 포함한다. The display unit 240 may further include an additional configuration depending on the implementation method. For example, when the display unit 240 is a liquid crystal type, the display unit 240 includes a liquid crystal display panel (not shown), a backlight unit (not shown) for supplying light thereto, and a panel (Not shown).

일실시예에서 디스플레이부(240)는 사용자의 터치에 따른 입력이 수신되는 터치스크린(touch-screen)(241)을 포함할 수 있다. 터치스크린(241)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.In one embodiment, the display 240 may include a touch-screen 241 on which an input according to a user's touch is received. The touch screen 241 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an acoustic wave method.

터치스크린(241)은 사용자 인터페이스(UI)로서 디스플레이장치(100)의 메뉴항목을 포함하는 오브젝트(object, 예를 들어, 메뉴, 텍스트, 이미지, 비디오, 도형, 아이콘 및 단축아이콘)를 표시할 수 있다. 사용자는 터치스크린(241)에 표시된 오브젝트를 사용자의 신체(예를 들어, 손가락) 또는 스타일러스트와 같은 별도의 포인팅 디바이스(254)로 터치하여, 사용자 입력을 할 수 있다. The touch screen 241 may display an object (e.g., a menu, text, image, video, graphic, icon, and shortcut icon) containing a menu item of the display device 100 as a user interface have. The user can touch the object displayed on the touch screen 241 with a separate pointing device 254 such as a user's body (e.g., a finger) or a star illustration to perform user input.

터치스크린(241)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영, 동영상, 또는 어플리케이션)에 대응되는 GUI(Graphical User Interface)를 제공할 수 있다. 터치스크린(241)은 GUI를 통해 입력되는 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 제어부(110)로 전송한다. The touch screen 241 may provide a GUI (Graphical User Interface) corresponding to various services (for example, call, data transmission, broadcasting, photographing, moving picture, or application) to the user. The touch screen 241 transmits an analog signal corresponding to a single touch or multi-touch input through the GUI to the control unit 110. [

일실시예에서 터치는 터치스크린(241)과 사용자의 신체 또는 터치가능한 포인팅 디바이스의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 스크린(241)과 사용자의 신체 또는 터치스크린(121)과 포인팅 디바이스와의 검출가능한 간격이 30 mm 이하의 호버링(hovering))을 포함할 수 있다. 터치 스크린(241)에서 검출가능한 비접촉 간격은 휴대장치(200)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다. In one embodiment, the touch is not limited to the contact of the touch screen 241 with the user's body or a touchable pointing device, but may be a non-contact (e.g., touch screen 241 and pointing with the user's body or touch screen 121) Hovering with a detectable spacing of 30 mm or less with the device). It will be readily understood by those skilled in the art that the noncontact interval that can be detected by the touch screen 241 can be changed according to the performance or structure of the portable device 200. [

본 실시예에서 터치입력은 드래그(drag), 플릭(flick), 드래그 앤 드롭(drag & drop), 탭(tap), 롱 탭(long tap) 등을 포함한다. In this embodiment, the touch input includes a drag, a flick, a drag and drop, a tap, a long tap, and the like.

사용자 입력부(250)는 하나 또는 둘 이상의 버튼(251), 마이크(252), 키패드(253) 및 입력장치(254) 중 적어도 하나를 포함할 수 있다. The user input unit 250 may include at least one of one or more buttons 251, a microphone 252, a keypad 253, and an input device 254.

버튼(251)은 전면의 하부에 마련되는 메뉴 버튼, 홈 버튼, 및 돌아가기 버튼(back button) 중 적어도 하나을 포함한다. 버튼(251)은 측면의 전원/잠금 버튼 및/또는 볼륨 버튼을 포함할 수 있다. 여기서, 휴대장치(200)에서 버튼(251)은 물리적 버튼이 아니라 터치스크린(241)에 마련된 터치 버튼으로 구현될 수 있다. 또한, 휴대장치(200)에서 버튼(251)은 터치스크린(241)내에 텍스트 또는 아이콘으로 표시될 수 있다.The button 251 includes at least one of a menu button, a home button, and a back button provided at the bottom of the front side. The button 251 may include a side power / lock button and / or a volume button. Here, in the portable device 200, the button 251 may be implemented as a touch button provided on the touch screen 241 instead of a physical button. In the portable device 200, the button 251 may be displayed as text or an icon in the touch screen 241.

일실시예에서 휴대장치(200)의 사용자 입력부(250)는 터치스크린(241)에 표시된 컨텐츠에 대한 인터랙션 즉, 터치 또는 터치 제스처(gesture)에 따른 사용자 입력을 수신할 수 있다.In one embodiment, the user input unit 250 of the portable device 200 may receive user input in response to an interaction with the content displayed on the touch screen 241, that is, a touch or a touch gesture.

마이크(microphone)(252)는 제어부(210)의 제어에 따라, 외부에서부터 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다. 마이크(252)에서 생성된 전기적인 신호는 오디오 코덱 유닛에서 변환되어 저장부(290)에 저장되거나 또는 스피커(271)를 통해 출력될 수 있다. 마이크(252)는 휴대장치(200)의 전면, 측면 및 후면에 하나 또는 둘 이상 위치할 수 있다. A microphone 252 receives voice or sound from the outside under the control of the controller 210 and generates an electrical signal. The electrical signal generated by the microphone 252 may be converted in the audio codec unit and stored in the storage unit 290 or output through the speaker 271. [ The microphone 252 may be located on one or more of the front, side, and rear surfaces of the portable device 200.

키패드(253)는 휴대장치(200)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(253)는 휴대장치(200)에 전면에 형성되는 물리적인 키패드(도시되지 아니함), 터치스크린(241)내에 표시되는 가상 키패드(도시되지 아니함) 및 유선 또는 무선으로 연결가능한 외부 키패드(예를 들어, 키보드 도크(keyboard dock)(도시되지 아니함) 중 적어도 하나를 포함한다. 키패드(253)가 외부 키패드인 경우, 사용자의 키 입력 신호는 통신부(120) 또는 커넥터(275)를 통해 수신될 수 있다.The keypad 253 may receive a key input from a user for control of the portable device 200. [ The keypad 253 includes a physical keypad (not shown) formed on the front surface of the portable device 200, a virtual keypad (not shown) displayed in the touch screen 241, and an external keypad And a keyboard dock (not shown). When the keypad 253 is an external keypad, the key input signal of the user is received through the communication unit 120 or the connector 275 .

휴대장치(200)의 전면에 형성되는 물리적인 키패드는 휴대장치(200)의 성능 또는 구조에 따라 제외될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.It will be easily understood by those skilled in the art that the physical keypad formed on the front surface of the portable device 200 can be excluded depending on the performance or structure of the portable device 200. [

입력장치(254)는 휴대장치(200)의 터치스크린(241)에 표시되는 화면에 표시되는 오브젝트(object, 예를 들어, 메뉴, 텍스트, 이미지, 비디오, 도형, 아이콘 및 단축 아이콘)를 터치하거나 선택할 수 있다. 입력장치(254)는 휴대장치(200)의 터치스크린(241)에 표시되는 오브젝트로서 컨텐츠(content)를 터치하거나 선택할 수 있다. 본 실시예에서, 컨텐츠는 휴대장치(200)에 설치된 어플리케이션, 카메라(261, 262)를 통해 촬영된 영상 데이터, 저장부(190)에 저장된 미디어 데이터, 문서나 연락처 등의 텍스트 데이터 등의 타 기기와 송수신이 가능한 다양한 데이터를 모두 포함한다.The input device 254 may touch an object (e.g., a menu, a text, an image, a video, a graphic, an icon, and a shortcut icon) displayed on a screen displayed on the touch screen 241 of the portable device 200 You can choose. The input device 254 can touch or select content as an object displayed on the touch screen 241 of the portable device 200. [ In the present embodiment, the contents are stored in the portable device 200, such as an application installed in the portable device 200, video data photographed through the cameras 261 and 262, media data stored in the storage unit 190, text data such as documents and contacts, And various data that can be transmitted and received.

입력장치(254)는 예를 들어, 정전 용량 방식, 저항방식 및 전자기 유도(electromagnetic induction) 방식의 터치스크린을 터치하거나 가상 키보드를 이용하여 문자 등을 입력할 수 있다. 입력장치(254)는 예를 들어 포인팅 디바이스, 스타일러스, 휴대장치(200)의 통신부(220)로부터 수신된 제어 정보를 이용하여 내장된 펜 진동 소자(예를 들어, 진동 모터 또는 액추에이터(actuator))가 진동하는 햅틱 펜(haptic pen) 등을 포함할 수 있다. 또한, 휴대장치(200)에서부터 수신되는 제어 정보가 아니라 입력장치(254)에 내장된 센서(예를 들어, 가속도 센서, 도시되지 아니함)에서 검출된 센싱 정보를 이용하여 진동 소자가 진동할 수 있다. 입력장치(254)는 휴대장치(200)의 삽입구에 삽입 가능하게 마련될 수 있으며, 휴대장치(200)의 성능 또는 구조에 따라 제외될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다. The input device 254 can input characters, for example, by touching a touch screen of a capacitive type, a resistance type, and an electromagnetic induction type, or by using a virtual keyboard. The input device 254 may include a built-in pen vibration element (e.g., a vibration motor or actuator) using the control information received from the communication unit 220 of the pointing device, the stylus, A haptic pen or the like which vibrates. Further, the vibration element may vibrate using the sensing information detected by a sensor (for example, an acceleration sensor, not shown) built in the input device 254 instead of the control information received from the portable device 200 . The input device 254 can be inserted into the insertion port of the portable device 200 and can be omitted depending on the performance or structure of the portable device 200. For example, .

감지부(260)는 휴대장치(200)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 감지부(260)는 사용자의 휴대장치(200)의 전면 상부 일측에 위치하고, 휴대장치(200)에 대한 접근여부를 검출하는 근접 센서(261), 휴대장치(200) 주변의 빛의 양을 검출하는 조도 센서(262), 휴대장치(200)의 자세 및 방향을 검출하는 자세 센서(263), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter) 중 적어도 하나를 포함할 수 있다. 자세 센서(263)는 회전관성을 이용하는 자이로 센서, 휴대장치(200)에 가해지는 3축(예를 들어, x축, y축, z축)의 기울기를 검출하는 가속도 센서 등을 포함할 수 있다.The sensing unit 260 includes at least one sensor for detecting the state of the portable device 200. [ For example, the sensing unit 260 may include a proximity sensor 261 located on one side of the front of the user's portable device 200 and detecting whether the portable device 200 is approaching the portable device 200, An attitude sensor 262 for detecting the direction of gravity, a posture sensor 263 for detecting the posture and direction of the portable device 200, a gravity sensor for detecting the direction of action of gravity, And an altimeter for detecting the altitude. The attitude sensor 263 may include a gyro sensor using rotary inertia, an acceleration sensor for detecting inclination of three axes (for example, x axis, y axis, z axis) applied to the portable device 200 .

감지부(260)은 휴대장치의 운동 가속도와 중력 가속도가 더해진 가속도를 측정가능하며, 휴대장치(260)가 움직이지 않는 경우, 중력 가속도만을 측정할 수 있다. 예를 들어, 휴대장치(200)의 전면이 위로 향하는 경우, 중력 가속도는 양(+)방향이고, 휴대장치(200)의 후면이 위로 향하는 경우, 중력가속도는 음(-)의 방향일 수 있다. The sensing unit 260 can measure the acceleration in which the motion acceleration of the portable device is added to the gravitational acceleration, and can measure only the gravitational acceleration in the case where the portable device 260 does not move. For example, when the front face of the portable device 200 faces upward, the gravitational acceleration is in the positive direction, and when the back face of the portable device 200 faces upward, the gravitational acceleration may be in the negative direction .

감지부(260)에 포함되는 적어도 하나의 센서는 휴대장치(200)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(210)로 전송한다. At least one sensor included in the sensing unit 260 detects the state of the portable device 200, generates a signal corresponding to the sensing, and transmits the signal to the control unit 210.

감지부(260)의 센서는 휴대장치(200)의 성능에 따라 추가되거나 삭제될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다. It will be readily understood by those skilled in the art that the sensor of the sensing unit 260 can be added or deleted depending on the performance of the portable device 200. [

스피커(271)는 제어부(210)의 제어에 따라 오디오 코덱 유닛을 이용하여 통신부(220), 이동통신부(225), 영상처리부(230) 또는 영상입력부(280)의 다양한 신호(예를 들어, 무선신호, 방송신호, 오디오 소스, 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 휴대장치(200) 외부로 출력할 수 있다. The speaker 271 receives various signals (for example, wireless signals) from the communication unit 220, the mobile communication unit 225, the image processing unit 230, or the image input unit 280 using the audio codec unit under the control of the control unit 210. [ A sound, a video signal, a picture signal, a broadcast signal, an audio source, a moving picture file, or a picture) to the outside of the portable device 200.

스피커(271)는 휴대장치(200)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 번호 입력에 대응되는 터치 조작음, 사진촬영 버튼 조작음 등)를 출력할 수 있다. 휴대장치(200)의 전면, 측면 및 후면에 적어도 하나의 스피커(271)가 위치할 수 있다. The speaker 271 can output a sound corresponding to the function performed by the portable device 200 (for example, a touch operation sound corresponding to a telephone number input, a photographing button operation sound, etc.). At least one speaker 271 may be positioned on the front, side, and back of the portable device 200.

본 발명의 일실시예에서, 스피커(271)는 제어부(210)의 제어에 따라 터치스크린(241)에서 검출되는 터치 또는 터치의 연속적인 움직임에 대응되는 청각 피드백을 출력할 수 있다. In an embodiment of the present invention, the speaker 271 may output auditory feedback corresponding to the continuous movement of the touch or touch detected by the touch screen 241 under the control of the control unit 210. [

진동 모터(272)는 제어부(210)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모터(272)는 리니어 진동 모터, 바 타입 진동 모터, 코인 타입 진동 모터 또는 압전 소자 진동 모터를 포함할 수 있다. 다른 휴대장치에서부터 음성통화 요청이 수신되는 경우, 제어부(210)의 제어에 따라 진동 모드인 휴대장치(200)의 진동모터(266)가 동작한다. 진동모터(266)는 휴대장치(200)에 하나 또는 둘 이상으로 위치할 수 있다. 또한, 진동모터(266)는 휴대장치(200) 전체를 진동되게 하거나 또는 휴대장치(200)의 일부분만 진동되게 할 수 있다.The vibration motor 272 can convert the electrical signal into mechanical vibration under the control of the control unit 210. [ For example, the vibration motor 272 may include a linear vibration motor, a bar type vibration motor, a coin type vibration motor, or a piezoelectric element vibration motor. When a voice call request is received from another portable device, the vibration motor 266 of the portable device 200 in the vibration mode operates under the control of the control unit 210. [ The vibration motor 266 may be located on the portable device 200 in one or more than two. In addition, the vibration motor 266 can cause the entire portable device 200 to vibrate or vibrate only a part of the portable device 200. [

GPS 유닛(273)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)에서부터 주기적으로 정보(예를 들어, 휴대장치(200)에 수신가능한 GPS위성(도시되지 아니함)의 정확한 위치 정보와 시간 정보)를 수신한다. 휴대장치(200)는 복수의 GPS위성에서부터 수신되는 정보를 이용하여 휴대장치(200)의 위치, 속도 및/또는 시간을 알 수 있다. The GPS unit 273 periodically acquires information (e.g., accurate position information of GPS satellites (not shown) that can be received by the portable device 200) from the plurality of GPS satellites (not shown) Information). The portable device 200 can know the position, speed, and / or time of the portable device 200 using information received from a plurality of GPS satellites.

커넥터(275)는 휴대장치(200)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(210)의 제어에 따라, 휴대장치(200)는 커넥터(275)에 연결된 유선 케이블을 통해 저장부(290)에 저장된 데이터를 외부 장치로 전송하거나 또는 외부 장치로부터 데이터를 수신할 수 있다. 휴대장치(200)는 커넥터(275)에 연결된 유선 케이블을 통해 전원소스에서부터 전원이 입력되거나 전원공급부(295)로서 마련되는 배터리를 충전할 수 있다. 또한, 휴대장치(200)는 커넥터(275)를 통해 외부의 액세서리(예를 들어, 포토 프린터, 도시되지 아니함)와 연결될 수 있다.The connector 275 can be used as an interface for connecting the portable device 200 to an external device (not shown) or a power source (not shown). The portable device 200 can transmit data stored in the storage unit 290 to the external device or receive data from the external device through the cable connected to the connector 275 under the control of the control unit 210. [ The portable device 200 can charge the battery from the power source via the wired cable connected to the connector 275 or from the battery provided as the power supply 295. [ In addition, the portable device 200 can be connected to an external accessory (e.g., a photo printer, not shown) through the connector 275. [

영상입력부(280)는 제어부(210)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 전면의 제1카메라(281) 및 후면의 제2카메라(282) 중 적어도 하나를 포함할 수 있다. 영상입력부(280)는 제1카메라(281)와 제2카메라(282) 중 하나 또는 양자를 모두 포함할 수 있다. 또한, 영상 입력부(280)는 제1카메라(281) 또는 제2카메라(282)의 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(283))을 더 포함할 수 있다.The image input unit 280 may include at least one of a first camera 281 on the front surface and a second camera 282 on the rear surface for capturing still images or moving images under the control of the controller 210. [ The image input unit 280 may include one or both of the first camera 281 and the second camera 282. The image input unit 280 may further include an auxiliary light source (for example, a flash 283) that provides an amount of light necessary for taking a picture of the first camera 281 or the second camera 282.

저장부(290)는 제어부(210)의 제어에 따라 통신부(220), 이동통신부(225), 영상처리부(230), 디스플레이부(240), 사용자 입력부(250), 감지부(260), 스피커(271), 진동 모터(272), GPS 유닛(273), 커넥터(275) 및/또는 영상입력부(280)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(290)는 휴대장치(200)의 제어를 위한 제어 프로그램과 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 이미지들, 사용자 정보, 문서, 데이터 베이스들 또는 관련 데이터들을 저장할 수 있다.The storage unit 290 includes a communication unit 220, a mobile communication unit 225, an image processing unit 230, a display unit 240, a user input unit 250, a sensing unit 260, And may store signals or data input / output corresponding to the operation of the operation unit 271, the vibration motor 272, the GPS unit 273, the connector 275, and / or the image input unit 280. The storage unit 290 stores a control program for controlling the portable device 200, a graphical user interface (GUI) related to an application downloaded from an external source or provided by a manufacturer, images for providing a GUI, user information, Bases or related data.

일실시예에서 휴대장치(200)에는 보청장치(100)와의 연동을 위한 어플리케이션이 설치될 수 있으며, 해당 어플리케이션 및 관련 데이터가 저장부(290)에 저장된다.In one embodiment, an application for interlocking with the hearing aid device 100 may be installed in the portable device 200, and the application and related data are stored in the storage unit 290.

일실시예에서 저장부(290)는 터치 및/또는 터치의 연속적인 움직임에 대응되는 터치 정보(예를 들어, 검출된 터치 위치의 X와 Y좌표, 터치 검출 시간 등)를 저장할 수 있다. 저장부(290)는 터치의 연속적인 움직임의 종류(예를 들어, 플릭, 드래그 또는 드래그 앤 드롭)도 저장할 수 있으며, 제어부(210)는 입력된 사용자 터치를 저장부(290)의 정보와 비교하여, 터치의 종류를 식별할 수 있다. 저장부(290)는 입력되는 터치 또는 터치 제스처에 대응되어 디스플레이부(290)에 출력되는 사용자가 인지가능한 시각 피드백(예를 들어, 비디오 소스 등), 스피커(271)에서 출력되는 사용자가 인지가능한 청각 피드백(예를 들어, 사운드 소스 등) 및 진동 모터(272)에서 출력되는 사용자가 인지가능한 촉각 피드백(예를 들어, 햅틱 패턴 등)을 더 저장할 수 있다. In one embodiment, the storage unit 290 may store touch information corresponding to a continuous movement of a touch and / or a touch (e.g., X and Y coordinates of the detected touch position, touch detection time, etc.). The storage unit 290 may store the type of continuous movement of the touch (e.g., flick, drag, or drag and drop), and the control unit 210 may compare the inputted user touch with the information of the storage unit 290 So that the type of touch can be identified. The storage unit 290 stores visual feedback (for example, a video source or the like) recognizable by a user corresponding to the input touch or touch gesture and output to the display unit 290, (E. G., A haptic pattern, etc.) output from the auditory feedback (e. G., A sound source, etc.) and the vibration motor 272.

본 발명 일실시예에 따른 저장부(290)에는 음성 데이터베이스(291)가 마련된다. 음성 데이터베이스(291)에는 보청장치(100)의 사용자 즉, 난청인인 착용자의 난청 주파수 대역에 대한 정보가 저장될 수 있다.The storage unit 290 according to an embodiment of the present invention is provided with a voice database 291. In the voice database 291, information on the hearing loss frequency band of a wearer who is a user of the hearing aid device 100, that is, a hearing loss, can be stored.

음성 데이터베이스(291)는 복수의 화자 별로 대응되는 정보를 저장할 수 있다. 음성 데이터베이스(291)에 정보가 저장되는 복수의 화자는 보청장치(100) 착용자가 주로 대화를 나누는 가족, 친구 등 주변인들을 포함하며, 저장되는 정보는 각 화자 별 음성신호의 정보(예를 들어, 주파수 대역, 톤(tone), 빠르기(tempo) 등)와 사용자 정보(예를 들어, 영상, 성별, 연령, 이름 등)가 저장될 수 있다. 여기서, 사용자 정보는 사용자 입력부(250)를 통해 입력되거나, 통신부(220)를 통해 외부로부터 수신될 수 있다. 또한, 영상은 영상입력부(280)를 통해 촬영된 영상일 수 있다.The voice database 291 may store information corresponding to a plurality of speakers. A plurality of speakers in which information is stored in the voice database 291 include surrounding persons such as family members and friends who mainly talk with the wearer of the hearing apparatus 100. Information to be stored includes information of voice signals for each speaker (for example, Frequency band, tone, tempo, etc.) and user information (e.g., image, sex, age, name, etc.). Here, the user information may be input through the user input unit 250 or may be received from the outside through the communication unit 220. [ In addition, the image may be an image photographed through the image input unit 280.

음성 데이터베이스(291)에 저장되는 정보는 수신된 음성신호에 대응하는 화자를 식별하는데 이용되며, 새로운 화자의 정보가 추가되는 방시기으로 업데이트 된다. 즉, 수신된 음성신호에 대응하는 화자 정보가 음성 데이터베이스(291)에 존재하지 않는 경우, 제어부(210)는 해당 음성신호에 대한 정보를 음성 데이터베이스(291)에 업데이트 즉, 저장할 수 있다. The information stored in the voice database 291 is used to identify a speaker corresponding to the received voice signal and is updated with a time at which information of a new speaker is added. That is, if the speaker information corresponding to the received voice signal is not present in the voice database 291, the controller 210 may update the voice database 291 with the voice information.

제어부(210)는 정보 저장 과정에서 화자에 대한 정보를 입력하도록 요청할 수 있다. 즉, 제어부(210)는 휴대장치(200) 사용자 즉, 보청장치(100) 착용자에게 해당 화자에 대한 정보를 입력하도록 요청하는 UI를 디스플레이부(240)에 표시할 수 있으며, 착용자는 표시된 UI에 대응하여 사용자 입력부(250)를 이용하여 화자에 대한 정보(예를 들어, 이름, 성별, 관계(가족 또는 친구 등))를 입력할 수 있다. 제어부(110)는 사용자의 조작에 응답하여 영상입력부(280)를 통해 촬영된 영상 또는 저장부(290)에 기저장된 영상을 특정 화자에 대응시켜 음성 데이터베이스(291)에 저장하도록 할 수 있다.The control unit 210 may request to input information about the speaker in the information storage process. That is, the control unit 210 may display on the display unit 240 a UI requesting the wearer of the portable device 200, that is, the wearer of the portable device 200, to input information about the speaker, (E.g., name, gender, relationship (family or friend)) by using the user input unit 250 in response to the request. The control unit 110 may cause the video database unit 291 to store the video shot through the video input unit 280 or the video stored in the storage unit 290 in correspondence with a specific speaker in response to a user's operation.

일실시예에서 음성 데이터베이스(291)에는 음성입력부(160)로부터 수신되는 음성신호에 대한 주파수 영역에 대한 정보뿐 아니라, ITD(Interaural Time Difference), ILD(Interaural Level Difference), 음성의 DoA(direction of arrival)와 관련된 정보가 더 저장될 수 있다.In one embodiment, the voice database 291 includes not only information on the frequency domain of the voice signal received from the voice input unit 160 but also information on the interaural time difference (ITD), interaural level difference (ILD) arrival) can be further stored.

본 발명의 일실시예에서 보청장치(100)와 휴대장치(200)는 동일한 사용자 계정을 가지도록 한다. 즉, 보청장치(100)의 착용자는 보청장치(100)의 제어를 위한 어플리케이션을 휴대장치(200)에 다운로드 하여 설치하고, 자신의 사용자 계정을 이용하여 해당 어플리케이션에 로그인할 수 있다.In one embodiment of the present invention, the hearing aid device 100 and the portable device 200 have the same user account. That is, the wearer of the hearing aid apparatus 100 downloads and installs an application for controlling the hearing aid apparatus 100 in the portable device 200, and can log in to the application using his / her user account.

도 4에 도시된 본 발명 실시예에서는 음성 데이터베이스(291)가 휴대장치(200)에 마련된 경우를 예로 들어 도시하고 있지만, 본 발명은 음성 데이터베이스를 보청장치(100)에 마련하거나, 보청장치(100) 및/또는 휴대장치(200)와 통신 가능한 외부장치(예를 들어, 클라우드 서버)에 마련되도록 구현될 수 있다. 클라우드 서버는 로그인된 사용자 계정에 대응하는 등록된 사용자 즉, 보청장치(100)의 착용자에 대한 정보 및 대화의 상대방이 될 수 있는 복수의 화자에 대한 정보를 저장할 수 있다.4 shows an example in which the voice database 291 is provided in the portable device 200. The present invention can be applied to the case where the voice database is provided in the hearing aid 100 or the hearing aid 100 ) And / or an external device (e.g., a cloud server) capable of communicating with the portable device 200. The cloud server may store information on a registered user corresponding to the logged-in user account, that is, information on the wearer of the hearing aid device 100, and information on a plurality of speakers that can be conversation partners.

본 발명 일실시예에서 휴대장치(200)는 신체 착용 가능한 웨어러블 기기 예를 들어, 스마트워치로 구현될 수 있다. 도 5는 본 발명 일실시예에 따라 스마트워치로 구현된 휴대장치(200)를 도시한 사시도이다.In one embodiment of the present invention, the portable device 200 can be implemented as a wearable device that can be worn on the body, for example, a smart watch. 5 is a perspective view illustrating a portable device 200 implemented as a smart watch according to an embodiment of the present invention.

본 발명 일실시예에 따른 휴대장치(200)의 제어부(210)는 통신부(220)에 의해 보청장치(100)로부터 음성신호가 수신되면, 수신된 음성신호의 발화 위치(음원의 위치)로서 방향을 결정할 수 있다. 이 과정에서 TDOA(time difference of arrival), Delay-and-sum beam forming 과 같은 위치 추적 알고리즘이 사용될 수 있다. The control unit 210 of the portable device 200 according to an embodiment of the present invention receives the voice signal from the hearing device 100 by the communication unit 220 and outputs the direction Can be determined. In this process, location tracking algorithms such as time difference of arrival (TDOA) and delay-and-sum beam forming may be used.

도 6과 도 7은 본 발명의 실시예에 따른 휴대장치(200)에서 화자의 위치를 추정하는 방법을 설명하기 위한 도면이다.6 and 7 are diagrams for explaining a method of estimating the position of a speaker in the portable device 200 according to the embodiment of the present invention.

도 6에 도시된 바와 같이, 보청장치(100)에는 지향성 마이크(directional microphone)로 동작되는 복수의 마이크(161, 162)를 포함하는 마이크 어레이(microphone array)가 음성입력부(160)로서 마련된다. 6, a microphone array including a plurality of microphones 161 and 162 operated as directional microphones is provided as a voice input unit 160 in the hearing aid apparatus 100. As shown in FIG.

도 6은 각 마이크(161, 162)에 도달되는 음파의 시간차를 이용하는 TDOA 알고리즘을 사용하는 경우를 예로 들어 도시한 것이다. 6 shows an example of using the TDOA algorithm using the time difference of the sound waves reaching the respective microphones 161 and 162. [

도 6을 참조하면, 특정 포인트에 위치한 음원(source) 즉, 화자로부터 발생한 소리(음성)가 두 개의 마이크(161, 162)에 평면적으로 입력된다고 가정한다. 여기서, 음원 즉, 화자와의 거리가 좀 더 가까운 제1마이크(161)에 소리(음파)가 먼저 도달하게 되고 제2마이크(162)에는 도착 지연 시간만큼 늦게 도착하게 된다.6, it is assumed that a sound source located at a specific point, that is, a sound generated from a speaker, is input to the two microphones 161 and 162 in a planar manner. Here, sound (sound waves) first arrive at the first microphone 161 closer to the sound source, that is, the speaker, and arrives at the second microphone 162 late by the arrival delay time.

음원의 방향은 두 개의 마이크(161, 162)와 음원 간의 각도를 계산함으로써 알아낼 수 있다. 음원으로부터 제1마이크(161)까지의 음파진행거리와 음원으로부터 제2마이크(162)까지의 음파진행거리의 차(ΔS)는 다음의 수학식 1과 같이 표현될 수 있다.The direction of the sound source can be obtained by calculating the angle between the two microphones 161 and 162 and the sound source. The difference? S between the sound wave traveling distance from the sound source to the first microphone 161 and the sound wave traveling distance from the sound source to the second microphone 162 can be expressed by Equation 1 below.

Figure pat00001
Figure pat00001

여기서, τ는 도착 지연시간(시간 상수), v는 음파의 속도, d는 제1마이크(161) 및 제2 마이크(162) 간의 이격 거리를 각각 나타낸다.Here, τ represents the arrival delay time (time constant), v represents the speed of the sound wave, and d represents the separation distance between the first microphone 161 and the second microphone 162.

그에 따라, 다음의 수학식 2가 성립한다. Accordingly, the following equation (2) is established.

Figure pat00002
Figure pat00002

따라서, 수학식 2를 이용하여 음원의 방향 즉, 화자의 위치를 추정할 수 있게 된다. Accordingly, it is possible to estimate the direction of the sound source, that is, the position of the speaker, using Equation (2).

도 6에서 설명한 기본적인 원리를 3차원 공간 상에 적용하여 마이크 어레이에 포함된 마이크의 수를 늘리게 되면 3차원 공간에도 적용할 수 있다. 또한, 충분한 마이크의 수가 확보되게 되면, 3차원 공간 상에서의 음원의 방향만이 아니라 음원의 위치(즉, 음원까지의 거리)까지 추정할 수 있게 된다.6 can be applied to a three-dimensional space by increasing the number of microphones included in the microphone array by applying the basic principle described in FIG. Further, if a sufficient number of microphones is secured, it is possible to estimate not only the direction of the sound source in the three-dimensional space but also the position of the sound source (i.e., the distance to the sound source).

도 7은 Delay-and-sum beam forming 알고리즘을 이용하는 경우를 예로 들어 도시한 것이다. FIG. 7 shows an example using a delay-and-sum beam forming algorithm.

예를 들어, 도 7에 도시된 바와 같이, 보청장치(100)에 4개의 마이크(161, 162, 163, 164) 를 포함하는 마이크 어레이가 음성입력부(160)로서 마련되고, 3차원 공간에서의 임의의 위치에 대응하는 음원에서 음파가 발생했다고 가정하면, 그 출력신호(output)는 수학식 3으로 표현될 수 있다. For example, as shown in FIG. 7, a microphone array including four microphones 161, 162, 163, and 164 in the hearing apparatus 100 is provided as a voice input unit 160, Assuming that a sound wave has occurred in a sound source corresponding to an arbitrary position, the output signal (output) thereof can be expressed by Equation (3).

Figure pat00003
Figure pat00003

여기서, l은 마이크 사이의 거리(미터), f는 주파수(frequency), θ는 음파가 도착하는 마이크와의 각도, c는 음파의 속도(예를 들어, 343m/s), N은 마이크의 개수를 각각 나타낸다. Where l is the distance between the microphones (in meters), f is the frequency, θ is the angle with which the sound waves arrive, c is the speed of the sound wave (eg 343 m / s), N is the number of microphones Respectively.

따라서, 도 6에서와 같이 각 마이크(161, 162, 163, 164)를 통해 수신되는 음성신호를 수학식 3에 적용하여 음원 즉, 화자의 방향(위치)을 추정할 수 있게 된다.Accordingly, as shown in FIG. 6, the speech signal received through each of the microphones 161, 162, 163, and 164 can be applied to Equation (3) to estimate the sound source, i.e., the direction (position) of the speaker.

휴대장치(200)의 제어부(210)는 보청장치(100)의 영상입력부(180)에 의해 촬영된 영상데이터를 이용하여 추정된 음성신호의 발화 위치(음원의 위치)에 대화의 상대방이 존재하는지 여부를 결정할 수 있다. 여기서, 발화 위치는 착용자의 오른쪽(Right), 왼쪽(Left), 위(Up), 아래(Down), 가운데(Center), 왼쪽 위(Left Up), 오른쪽 위(Right Up), 왼쪽 아래(Left Down), 오른쪽 아래(Right Down) 등으로 구분될 수 있다. 이러한 발화위치의 구분은 예를 들어 설명한 것으로, 경우에 따라 오른쪽(Right), 왼쪽(Left), 위(Up), 아래(Down)로 보다 단순화 되거나, 좀더 상세하게 구분할 수도 있을 것이다.The control unit 210 of the portable device 200 determines whether the other party of the conversation exists in the speech position (sound source position) of the speech signal estimated using the image data photographed by the image input unit 180 of the hearing aid apparatus 100 Can be determined. Here, the firing position is the position of the wearer's right, left, up, down, center, left up, right up, Down, Right Down, and the like. The division of the firing position is described by way of example. In some cases, it may be simplified to the right, left, upper, and down or may be further divided.

상기와 같이 구분된 발화위치 정보는 저장부(190)에 일종의 매칭 데이블로서 미리 저장될 수 있다. 일실시예에서는 음성 데이터베이스(291)가 매칭 테이블을 포함할 수 있다.The ignition position information classified as described above may be stored in advance in the storage unit 190 as a kind of matching table. In one embodiment, the voice database 291 may include a matching table.

여기서, 영상데이터는 전면 카메라(181)에 의해 촬영된 착용자 전면 영상데이터를 포함하며, 제어부(210)는 전면 영상데이터가 추정된 발화 위치에 사람 형상을 포함하는 경우, 발화 위치에 화자가 존재하는 것으로 결정할 수 있다.Here, the image data includes the wearer's front image data photographed by the front camera 181, and when the front image data includes the human shape at the estimated ignition position, the controller 210 determines that the speaker exists at the ignition position .

일실시예에서, 영상입력부(180)가 착용자의 눈 부위를 촬영하는 후면 카메라(182)를 더 포함하는 경우, 제어부(210)는 후면 영상데이터의 안구 정보를 이용하여 착용자가 해당 화자를 응시하는지 여부를 결정할 수 있다.In one embodiment, when the image input unit 180 further includes a rear camera 182 that photographs a wearer's eye region, the controller 210 uses the eye information of the rear image data to determine whether the wearer looks at the corresponding speaker Can be determined.

도 8은 본 발명 일실시예에 따른 휴대장치(200)에서 안구 정보를 이용하는 방식을 설명하기 위한 도면이다.8 is a diagram for explaining a method of using eye information in the portable device 200 according to an embodiment of the present invention.

일실시예에서 안구 정보는 도 8과 같이 안구방향 정보로서, 안구 외측의 상하좌우 길이(L1 내지 L8)를 이용하여 결정될 수 있다. 이를 위해 저장부(290) 내에 마련되는 매칭 테이블에는 L1 내지 L8 각각에 의해 정의된 안구방향이 매칭되어 저장될 수 있다. 예를 들어, L1과 L5가 기준보다 길고, L2와 L6가 기준보다 짧으며, L3, L4, L7, L8가 기준범위 내에 존재하면, 안구방향이 오른쪽(Right)으로 매칭된다. 같은 방식으로, L1과 L5가 기준보다 짧고, L2와 L6가 기준보다 길으며, L3와 L7가 기준보다 길고, L4와 L8가 기준보다 짧으면, 안구방향이 왼쪽 아래(Left Down)으로 매칭된다. In one embodiment, the ocular information can be determined using the up, down, left, and right lengths (L1 to L8) of the outside of the eyeball as ocular direction information as shown in Fig. For this purpose, the matching directions provided by L1 to L8 may be matched and stored in the matching table provided in the storage unit 290. For example, if L1 and L5 are longer than the reference, L2 and L6 are shorter than the reference, and L3, L4, L7, and L8 are within the reference range, the eye direction is matched to the right. In the same manner, if L1 and L5 are shorter than the reference, L2 and L6 are longer than the reference, L3 and L7 are longer than the reference, and L4 and L8 are shorter than the reference, the eye direction is matched to the lower left.

제어부(210)는 보청장치(100)의 후면 카메라(182)를 통해 후면 영상데이터로부터 L1 내지 L8의 값을 획득한다. 제어부(210)는 획득된 L1 내지 L8에 매칭된 안구방향을 매칭 테이블로부터 로드하여, 해당 사용자(보청장치의 착용자)의 안구방향을 결정한다.The control unit 210 obtains the values of L 1 to L 8 from the rear image data through the rear camera 182 of the hearing aid 100. The control unit 210 loads the eye direction matched to the obtained L1 to L8 from the matching table to determine the eye direction of the user (wearer of the hearing aid).

다른 실시예에서, 안구방향의 추적은 보청장치(100)의 제어부(110)에 의해 수행될 수도 있을 것이다.In another embodiment, tracking in the eye direction may be performed by the control unit 110 of the hearing aid 100. [

상기와 같은 본 발명 실시예에서는 L1 내지 L8의 길이를 이용하여 사용자의 안구 방향을 결정하는 경우를 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않으며, 안구방향을 추적(eye tracking)하도록 알려진 다양한 알고리즘을 이용할 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.In the embodiment of the present invention as described above, the user's eyeball direction is determined using the lengths L1 to L8. However, the present invention is not limited to this, and various algorithms known to track eyeballs It will be readily understood by those skilled in the art.

본 발명 일실시예에서는, 휴대장치(200)의 제어부(210)가 수신된 음성신호로부터 노이즈를 제거할 수 있다. 노이즈 제거를 위해서는 음성신호와 주변 노이즈 신호를 분리하는 방식을 포함한 다양한 노이즈 제거 알고리즘이 사용될 수 있다. In an embodiment of the present invention, the control unit 210 of the portable device 200 can remove noise from the received voice signal. Various noise cancellation algorithms can be used to remove noise, including a method for separating voice signals and ambient noise signals.

다른 실시예에서는, 보청장치(100)의 제어부(110)에 의해 노이즈 제거가 수행될 수 있다. 이 경우, 음성신호로부터 노이즈 신호가 제거된 신호가 통신부(120)를 통해 휴대장치(200)로 송신되게 된다. In another embodiment, noise removal may be performed by the control unit 110 of the hearing aid 100. [ In this case, a signal from which the noise signal is removed from the voice signal is transmitted to the portable device 200 through the communication unit 120.

본 발명 실시예에 따른 휴대장치(200)는 보청장치(100)를 통해 수신된 음성신호 및 영상데이터를 이용하여, 보청장치(100)의 착용자(청자)가 대화 중인 상대방 즉, 화자의 음성신호를 선택적으로 증폭하여 출력함으로써, 청자가 혼란 없이 대화의 상대방에게 집중할 수 있도록 한다. The portable device 200 according to the embodiment of the present invention uses the voice signal and the video data received through the hearing aid device 100 to determine whether or not the wearer (listener) of the hearing aid device 100 is speaking So that the listener can concentrate on the other party of the conversation without confusion.

본 발명 일 실시예에서 보청장치(100) 및/또는 휴대장치(200)에는 하드웨어 구성인 적어도 하나의 프로세서(110, 210)에 의해 구동되는 소프트웨어 구성인 난청 사용자를 위해 제공되는 어플리케이션이 설치될 수 있다. 즉, 이하에서 설명하는 동작들은 제어부(100, 200)에 마련된 프로세서(110, 210)에 의해 구동되는 소프트웨어의 실행에 따라 이루어지는 것으로도 볼 수 있다.In an exemplary embodiment of the present invention, an application provided for the hearing impaired user, which is a software configuration driven by at least one processor 110, 210, which is a hardware configuration, may be installed in the hearing aid 100 and / or the portable device 200 have. That is, the operations described below can also be performed according to the execution of the software driven by the processors 110 and 210 provided in the controllers 100 and 200.

그에 따라, 제어부(100, 200)는 다수의 하드웨어 또는 소프트웨어 모듈을 포함할 수 있으며, 각 모듈은 그 수행하는 동작에 따라 음성의 방향분석 모듈, 사람 인식 모듈, 음성신호 판단 모듈, 화자 분리 모듈, 화자 인식 모듈, 안구 추적 모듈, 노이즈 제거 모듈 등을 포함할 수 있으며, 본 실시예에서는 각 모듈에서 수행되는 동작들을 제어부(100, 200)에 의해서도 수행되는 것으로 정의하기로 한다.Accordingly, the control units 100 and 200 may include a plurality of hardware or software modules, and each of the modules may include a voice direction analysis module, a human recognition module, a voice signal determination module, a speaker separation module, A speaker recognition module, an eye tracking module, a noise removal module, and the like. In this embodiment, the operations performed by the respective modules are defined as being performed by the control units 100 and 200 as well.

이하, 관련된 실시예를 도 9 내지 도 12를 참조하여 보다 상세하게 설명하기로 한다.Hereinafter, a related embodiment will be described in detail with reference to Figs. 9 to 12. Fig.

이하, 본 발명의 실시예들에 따른 보청장치(100)와 휴대장치(100)를 포함하는 보청 시스템(1)에서의 제어방법에 관해 도면을 참조하여 설명한다.Hereinafter, a control method in the hearing aid system 1 including the hearing aid device 100 and the portable device 100 according to the embodiments of the present invention will be described with reference to the drawings.

도 9는 본 발명 일실시예에 의한 보청 시스템(1)의 제어방법을 도시한 흐름도이며, 도 10 내지 도 12는 도 9에 도시된 제어방법에 따라 보청장치(100) 및 휴대장치(200)를 이용하여 난청인이 상대방과 대화를 하는 과정을 설명하기 위한 도면이다.FIG. 9 is a flowchart illustrating a control method of the hearing aid system 1 according to an embodiment of the present invention. FIGS. 10 to 12 are flowcharts illustrating a method of controlling the hearing aid apparatus 100 and the portable device 200 according to the control method shown in FIG. FIG. 2 is a diagram illustrating a process of conversation by a person with a hearing impairment using the other party.

도 9 내지 도 12에서 설명하는 실시예에 따르면, 난청인인 사용자(301)는 보청장치(100)를 착용하고 상대방(302)을 포함한 다수의 사람들과 대화를 나눌 수 있다. 본 실시예는 이 과정에서 사용자(301)가 대화중인지 여부를 결정하고, 음성신호의 발화위치에 화자가 존재하는지 여부 및/또는 사용자(301)를 응시하는지 여부에 기반하여 해당 화자를 대화의 상대방(302)으로 결정할 수 있으며, 그에 대응하여 동작을 수행함으로써 난청인인 사용자(301)가 다수의 사람들 중 현재 대화의 당사자인 상대방(302)의 음성에 집중하고, 상대방을 제외한 사람들의 음성을 증폭 대상에서 배제할 수 있도록 한다.9 to 12, a user 301 who is a hearing impaired person can wear a hearing aid apparatus 100 and talk with a large number of people including the other party 302. [ The present embodiment determines whether the user 301 is in a conversation in this process, and determines whether or not a speaker is present at the utterance position of the voice signal and / (302). By performing corresponding actions, the user 301 who is a hearing impaired person concentrates on the voice of the other party 302, which is the party of the current conversation, among the plurality of people, and amplifies the voice of the persons other than the other party So that it can be excluded from the object.

도 9 및 도 10에 도시된 바와 같이, 사용자가 보청장치(100)를 착용하고, 보청장치(100) 및 휴대장치(200)의 전원이 온(ON)된 상태에서 임의의 화자로부터 발화된 음성신호와 영상데이터가 수신될 수 있다(S902). 9 and 10, when the user wears the hearing aid device 100 and the power of the hearing aid device 100 and the portable device 200 is turned on, A signal and image data may be received (S902).

여기서, 음성신호는 보청장치(100)의 음성입력부(160)로서 마련되는 복수의 마이크로폰(161, 162, 163)을 통해 수신되며, 영상데이터는 보청장치(100)의 영상입력부(180)로서 마련되는 전면카메라(181)에 의해 수신될 수 있다. 여기서, 보청장치(100)가 후면카메라(182)를 더 포함하는 경우, 전면카메라(181)에 의해 촬영되는 전면 영상데이터뿐 아니라, 후면카메라(182)에 의해 후면 영상데이터가 더 수신되며, 후면 영상데이터는 사용자의 안구 정보 즉, 안구방향 정보를 포함할 수 있다. Here, the audio signal is received through a plurality of microphones 161, 162, and 163 provided as the audio input unit 160 of the hearing aid apparatus 100, and the video data is provided as the video input unit 180 of the hearing aid apparatus 100 The front camera 181 can be used as a front camera. Here, when the hearing aid 100 further includes the rear camera 182, not only the front image data photographed by the front camera 181, but also the rear image data are further received by the rear camera 182, The image data may include eyeball information of a user, that is, eyeball direction information.

일실시예에서 단계 S902에서 수신된 음성신호와 영상데이터는 보청장치(100)의 통신부(120)를 통해 휴대장치(200)로 송신된다. 또한, 단계 S902에서는 음성신호를 포함하여 다양한 소리가 수신될 수 있으며, 제어부(210)는 음성 데이터베이스(291)를 이용하여 수신된 소리로부터 음성신호를 선택적으로 추출할 수 있다.In one embodiment, the voice signal and the image data received in step S902 are transmitted to the portable device 200 through the communication unit 120 of the hearing aid. In step S902, various sounds including a voice signal may be received, and the control unit 210 may selectively extract a voice signal from the received voice using the voice database 291. [

휴대장치(200)는 통신부(220)를 통해 단계 S902에서 송신된 음성신호 및 영상데이터를 수신하며, 제어부(210)는 수신된 영상데이터(전면 영상데이터)를 이용하여 사용자 즉, 보청장치(100)의 착용자가 대화 중인지 여부를 결정하게 된다(S904). 제어부(210)는, 예를 들어, 전면 영상데이터에서 사람 형상을 인식하여, 영상데이터에 사람이 포함되는 경우 대화 중인 것으로 결정할 수 있다. The portable device 200 receives the voice signal and the image data transmitted in step S902 through the communication unit 220 and the control unit 210 transmits the voice signal and the image data to the user 100 (Step S904). For example, the control unit 210 may recognize the human shape from the front image data, and determine that the image data is in conversation when a person is included in the image data.

여기서, 단계 S904에서 사용자가 대화 중이 아닌 것으로 결정되면, 후술하는 단계 S922으로 진행하여, 음성신호의 난청 주파수 영역의 레벨을 증폭하여 음성출력부(170)를 통해 출력될 수 있으며, 이 과정에서 음성신호로부터 노이즈 제거가 수행될 수 있다.If it is determined in step S904 that the user is not in conversation, the process proceeds to step S922, which will be described later, so that the level of the hearing loss frequency range of the speech signal can be amplified and output through the sound output unit 170, Noise can be removed from the signal.

제어부(210)는 단계 S902에서 수신된 음성신호의 발화 위치 예를 들어, 음파의 방향을 결정할 수 있다(S906). 이 과정에서 도 6 또는 도 7에서 설명한 위치추정 알고리즘이 사용될 수 있다. 단계 S906에서의 결정되는 발화 위치는 사용자의 오른쪽(Right), 왼쪽(Left), 위(Up), 아래(Down), 가운데(Center), 왼쪽 위(Left Up), 오른쪽 위(Right Up), 왼쪽 아래(Left Down), 오른쪽 아래(Right Down) 중 어느 하나에 대응할 수 있다.The control unit 210 may determine the speech position of the speech signal received in step S902, for example, the direction of the sound wave (S906). In this process, the position estimation algorithm described in Fig. 6 or 7 can be used. The determined firing position in step S906 is the user's right, left, top, down, center, left up, right up, And can correspond to any one of a left down (Left Down) and a right down (Right Down).

제어부(210)는 전면 영상데이터를 이용하여 단계 S906에서 결정된 발화 위치에 화자가 존재하는지 여부를 판단할 수 있다(S908). 구체적으로, 단계 S906에서 발화 위치가 결정되면, 전면 영상데이터의 해당 위치에 사람 형상이 촬영된 경우 발화위치에 화자가 존재하는 것으로 결정될 수 있다. 여기서, 제어부(210)는 발화 위치와 영상데이터를 이용하여 추정된 화자 위치가 일치 또는 그 오차가 소정 기준범위 이내에 존재하는 경우 발화위치에 화자가 존재하는 것으로 결정할 수 있다.The control unit 210 may determine whether there is a speaker at the ignition position determined in step S906 using the front image data (S908). Specifically, when the ignition position is determined in step S906, it is determined that the speaker exists at the ignition position when the human shape is photographed at the corresponding position of the front image data. Here, the controller 210 may determine that the speaker exists at the utterance position when the speaker position estimated using the utterance position and the image data coincide or the error exists within the predetermined reference range.

일실시예에서, 단계 S908의 결정 과정에서 방향센서(165)의 센싱값이 더 이용될 수 있다. 예를 들어 제어부(210)는 방향센서(165)의 센싱값을 활용하여 대화의 상대방으로 추정되는 사람 형상에 대응되는 방향을 계산 및 계산 결과를 이용할 수 있다. 방향센서(165)의 센싱값은 통신부(120)를 통해 휴대장치(200)로 전송된다.In one embodiment, the sensing value of the direction sensor 165 may further be used in the determination process of step S908. For example, the control unit 210 may utilize the sensed value of the direction sensor 165 to calculate a direction corresponding to a human shape estimated as a conversation partner and use the calculation result. The sensing value of the direction sensor 165 is transmitted to the portable device 200 through the communication unit 120.

제어부(210)는 후면 영상데이터를 이용하여 보청장치(100) 착용자인 사용자의 안구방향을 결정하고, 결정된 안구방향에 기초하여 사용자가 화자를 응사하는지 여부를 더 판단할 수 있다(S910). 이 과정에서 도 8에서 설명한 안구 추적 알고리즘이 이용될 수 있다. 즉, 제어부(210)는 단계 S906에서 결정된 발화위치가 단계 S910에서 결정된 안구방향과 일치하는 경우, 사용자가 화자를 응시하는 것으로 판단할 수 있다. The controller 210 determines the eye direction of a user wearing the hearing aid apparatus 100 using the rear image data, and further determines whether the user answers the speaker based on the determined eye direction (S910). In this process, the eye tracking algorithm described in Fig. 8 can be used. That is, when the speaking position determined in step S906 matches the eye direction determined in step S910, the control unit 210 can determine that the user gazes at the speaker.

단계 S908과 단계 S910에서 음성신호의 발화위치에 화자가 존재 및 사용자가 화자를 응시하는 것으로 결정되면, 제어부(210)는 화자를 대화 상대방으로 결정한다(S910). If it is determined in step S908 and step S910 that a speaker is present at the utterance position of the voice signal and the user looks at the speaker, the controller 210 determines the speaker as the conversation partner (S910).

제어부(210)는 대화 상대방으로 결정된 화자의 정보가 음성 데이터베이스(291)에 존재하는지 여부를 결정할 수 있다(S914). 이 과정에서 제어부(210)는 음성 데이터베이스(291)에 저장된 화자의 정보(예를 들어, 주파수 대역, 톤(tone), 빠르기(tempo) 등)를 이용하여, 특정 화자에 대응하는 음성신호를 분리하고, 분리된 음성신호로부터 노이즈를 제거하는 등의 일련의 음성신호 처리 프로세스를 수행할 수 있다. 음성신호 처리 프로세스는 입력된 사운드로부터 음성신호를 분리하는 과정을 더 포함할 수 있다.The control unit 210 can determine whether or not the information of the speaker determined as the conversation partner exists in the speech database 291 (S914). In this process, the control unit 210 separates the voice signal corresponding to the specific speaker by using the information (e.g., frequency band, tone, tempo, etc.) of the speaker stored in the voice database 291 And a series of voice signal processing processes such as removing noise from the separated voice signal can be performed. The speech signal processing process may further include separating the speech signal from the input sound.

그리고, 제어부(210)는 단계 S914에서 화자의 정보가 음성 데이터베이스(291)에 존재하는 것으로 결정되면, 음성 데이터베이스(291)를 이용하여 수신된 음성신호에 대응하는 화자를 결정한다(S916). 여기서, 제어부(210)는 화자의 이름, 성별, 사용자와의 관계 등을 결정할 수 있다.If it is determined in step S914 that the speaker information is present in the voice database 291, the control unit 210 determines a speaker corresponding to the received voice signal using the voice database 291 (S916). Here, the control unit 210 can determine the name of the speaker, the sex, and the relationship with the user.

단계 S914에서 화자의 정보가 음성 데이터베이스(291)에 존재하지 않는 것으로 결정되면, 수신된 음성신호에 대응하는 화자의 정보가 음성 데이터베이스(291)가 저장될 수 있다(S918). 여기서, 전면 카메라(181)를 통해 촬영된 영상데이터, 사용자 입력부(250)에 의해 입력될 수 있는 화자에 대한 정보(예를 들어, 이름, 성별, 사용자와의 관계 등)가 음성신호와 매칭되어 저장될 수 있을 것이다.If it is determined in step S914 that the speaker information does not exist in the voice database 291, the speaker database 291 may be stored with the speaker information corresponding to the received voice signal (S918). Here, image data photographed through the front camera 181, information on a speaker (e.g., name, sex, relationship with a user, etc.) that can be input by the user input unit 250 is matched with a voice signal Lt; / RTI >

일실시예에서 단계 S908에서 발화위치에 화자가 존재하지 않거나, 단계 S910에서 착용자가 화자를 응시하지 않도록 결정된 경우에도, 단계 S914 내지 S918의 과정이 수행될 수 있다. In one embodiment, the process of steps S914 to S918 may be performed even if the speaker is not present at the firing position at step S908, or if the wearer is determined not to stare at the speaker at step S910.

상기와 같은, 단계 S904 내지 단계 S916에 따른 결과가, 도 11 또는 도 12와 같이, 보청장치(100)의 디스플레이부(140)에 의해 표시될 수 있다(S920). 이를 위해, 제어부(210)는 단계 S904 내지 단계 S916에서의 판단결과를 통신부(220)을 통해 보청장치(100)로 송신한다. 보청장치(100)의 제어부(110)는 통신부(120)를 통해 이 결과를 수신하고, 그에 대응하는 영상을 표시하도록 영상처리부(130)를 제어할 수 있다. The results of steps S904 to S916 as described above may be displayed by the display unit 140 of the hearing aid apparatus 100 (S920), as shown in FIG. 11 or FIG. To this end, the control unit 210 transmits the determination result in steps S904 to S916 to the hearing aid 100 through the communication unit 220. [ The control unit 110 of the hearing aid apparatus 100 can receive the result through the communication unit 120 and control the image processing unit 130 to display the corresponding image.

예를 들어, 단계 S904에서 보청장치(100)의 착용자 즉, 사용자가 대화 중인 것으로 결정되면, 도 11과 같이 대화모드를 나타내는 텍스트(401)가 디스플레이부(140)에 표시될 수 있다. 또한, 단계 S906에서 결정된 발화위치에 대응하여 그 위치에 소정 아이콘(402)이 디스플레이부(140)에 표시될 수 있다. 도 11은 발화위치가 정면 가운데(Center)인 경우를 예로 들어 도시한 것이다.For example, if it is determined in step S904 that the wearer of the hearing aid apparatus 100, that is, the user is in conversation, the text 401 indicating the conversation mode may be displayed on the display unit 140 as shown in Fig. In addition, a predetermined icon 402 may be displayed on the display unit 140 at the position corresponding to the ignition position determined in step S906. FIG. 11 shows an example where the ignition position is centered on the center.

다른 실시예로서, 도 12와 같이 단계 S916에서 결정된 화자의 정보가 디스플레이부(140)에 의해 표시될 수 있다. 즉, 수신된 음성신호에 대응하는 화자로서 음성 데이터베이스(291)에 존재하는 사용자의 주변인(예를 들어, 이름, 성별 등)을 특정하고, 그를 나타내는 텍스트(403)가 디스플레이부(140)에 표시된다. As another example, the information of the speaker determined in step S916 may be displayed by the display unit 140 as shown in FIG. (For example, name, gender, and the like) existing in the voice database 291 as a speaker corresponding to the received voice signal and displays a text 403 indicating the user on the display unit 140 do.

또한, 도 12와 같이 성별이 여성으로 결정된 경우, 이를 식별할 수 있는 아이콘(404)으로 발화위치를 표시할 수 있다. 여기서, 발화위치가 정면 왼쪽(Left)인 경우, 아이콘(405)의 위치가 대응하여 이동된다.In addition, when the gender is determined to be female as shown in FIG. 12, the location of the utterance can be displayed by the icon 404 that can identify the sex. Here, when the ignition position is the front left, the position of the icon 405 is moved correspondingly.

도 11 및 도 12에 표시되는 텍스트, 아이콘 등은 보청장치(100)의 저장부(190) 또는 휴대장치(200)의 저장부(290)에 미리 저장될 수 있으며, 경우에 따라 접속 가능한 외부의 서버(예를 들어, 클라우드 서버)에 저장될 수도 있을 것이다. 또한, 텍스트나 아이콘의 종류는 사용자 입력 또는 관리자에 의해 추가 가능하다.11 and 12 may be stored in advance in the storage unit 190 of the hearing aid apparatus 100 or the storage unit 290 of the portable device 200 and may be stored in the external Lt; / RTI > server (e. G., A cloud server). In addition, the type of the text or the icon can be added by a user input or an administrator.

그리고, 단계 S902에서 수신된 음성신호에 대해 난청 주파수 영역의 레벨이 증가된 음성신호가 보청장치(100)의 음성출력부(170)에 의해 출력된다(S922). 여기서, 출력되는 음성신호는 단계 S914에서 특정 화자에 대응하여 분리된 음성신호 및/또는 노이즈 제거가 수행된 음성신호가 될 수 있다. 예를 들어, 단계 S916에서 상대방으로 결정된 화자에 대해 음성 데이터베이스(291)에 저장된 정보에 기초하여, 대응되는 음성신호가 사용자의 난청 영역의 주파수 대역에 존재하는 경우, 음성신호의 레벨을 증가시켜 출력할 수 있을 것이다.Then, in step S922, the speech output unit 170 of the hearing aid 100 outputs the speech signal whose level of the hearing loss frequency region is increased with respect to the speech signal received in step S902. Here, the output speech signal may be a speech signal separated in accordance with a specific speaker and / or a speech signal in which noise is removed in step S914. For example, based on the information stored in the voice database 291 for the speaker determined as the other party in step S916, if the corresponding voice signal is present in the frequency band of the user's hearing loss area, the level of the voice signal is increased You can do it.

그에 따라, 대화의 상대방으로 추정되는 음성신호를 분리하고 분리된 음성신호에 대해 난청 주파수 영역의 레벨을 증가시켜 출력함으로써, 시끄러운 환경에서도 보청장치(100)의 착용자가 상대방과의 대화에 집중할 수 있게 된다. Accordingly, by separating the voice signal estimated to be the other party of the conversation and outputting the increased level of the hearing loss frequency region with respect to the separated voice signal, the wearer of the hearing aid 100 can concentrate on the conversation with the other party even in a noisy environment do.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.It is to be understood that each of the features of the various embodiments of the present invention may be combined or combined with each other partially or entirely and technically various interlocking and driving is possible as will be appreciated by those skilled in the art, It may be possible to cooperate with each other in association.

이와 같이, 본 발명의 실시예에 의하면, 보청장치(100)는 복수의 마이크로폰(161, 162, 163)을 통해 수신되는 음성신호 및 전면 카메라(181)를 통해 수신되는 영상데이터를 이용하여 음성신호의 발화위치를 결정하고, 해당 발화위치에 존재하는 화자를 대화의 상대방으로 특정하여, 특정된 상대방의 음성신호를 선택적으로 증폭시켜 출력함으로써 난청인인 사용자가 어떤 환경에서도 대화 상대방의 음성을 불편함 없이 청취할 수 있게 된다.Thus, according to the embodiment of the present invention, the hearing aid 100 uses the audio signal received through the plurality of microphones 161, 162, and 163 and the video data received through the front camera 181, And the speaker present at the uttered position is specified as the other party of the conversation, and the voice signal of the specified counterpart is selectively amplified and output, so that the user who is the hearing impaired speaker discomforts the voice of the conversation partner in any environment It will be possible to listen without it.

또한, 후면 카메라(182)를 통해 사용자가 발화위치의 화자를 응시하는지 여부까지 결정할 수 있도록 함으로써, 다수의 화자가 존재하는 시끄러운 환경에서도 대화의 상대방을 정확하게 특정할 수 있으며, 그에 따라 대화의 집중도가 보다 향상될 수 있다.Also, by allowing the user to determine whether or not to look at the speaker at the utterance position via the rear camera 182, it is possible to accurately specify the other party of the conversation even in a noisy environment in which there are many speakers, Can be improved.

그에 따라, 보청장치(100)를 착용하는 사용자가 상대방을 한번 쳐다보는 것만으로도 필요한 음성을 듣고 이해하는데 도움을 줄 수 있는 향상된 보청 시스템을 제공할 수 있다.Accordingly, it is possible to provide an improved hearing aid system which can help a user wearing the hearing aid apparatus 100 to listen to and understand a necessary voice by just looking at the other party.

또한, 자주 대화하는 상대방들에 대해 저장된 음성 데이터베이스(291)의 정보를 이용하므로 그 정확도가 향상될 뿐 아니라, 정보를 지속적으로 업데이트하는 과정을 통해 사용자 고유의 음성 데이터베이스를 구성할 수 있게 된다.In addition, since the information of the voice database 291 stored in correspondence with the frequent conversation partners is used, accuracy of the voice database 291 is improved, and the voice database unique to the user can be configured through the process of continuously updating the information.

한편, 상기와 같은 본 발명의 다양한 실시예들은 컴퓨터가 판독 가능한 기록매체로 실시될 수 있다. 컴퓨터가 판독 가능한 기록매체는 전송매체 및 컴퓨터 시스템에 의해 판독 가능한 데이터를 저장하는 저장매체를 포함한다. 전송매체는 컴퓨터 시스템이 상호 결합된 유무선 네트워크를 통해 구현 가능하다.Meanwhile, various embodiments of the present invention as described above can be embodied as a computer-readable recording medium. A computer-readable recording medium includes a transmission medium and a storage medium for storing data readable by the computer system. The transmission medium may be implemented over a wired or wireless network in which computer systems are coupled together.

본 발명의 다양한 실시예들은 하드웨어와 하드웨어 및 소프트웨어의 결합에 의해 구현될 수 있다. 하드웨어로서, 프로세서(200)는 소프트웨어인 컴퓨터프로그램이 저장되는 비휘발성메모리와, 비휘발성메모리에 저장된 컴퓨터프로그램이 로딩되는 RAM과, RAM에 로딩된 컴퓨터프로그램을 실행하는 CPU를 포함할 수 있다. 비휘발성메모리는 하드디스크드라이브, 플래쉬메모리, ROM, CD-ROMs, 자기테이프(magnetic tapes), 플로피 디스크, 광기억 장치(optical storage), 인터넷을 이용한 데이터 전송장치 등을 포함하며, 이에 한정되지 않는다. 비휘발성메모리는 본 발명의 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체(computer-readable recording medium)의 일례이다.Various embodiments of the present invention may be implemented by a combination of hardware, hardware, and software. As hardware, the processor 200 may include a non-volatile memory in which a computer program, which is software, is stored, a RAM into which a computer program stored in a non-volatile memory is loaded, and a CPU that executes a computer program loaded in the RAM. Non-volatile memory includes, but is not limited to, a hard disk drive, flash memory, ROM, CD-ROMs, magnetic tapes, floppy disks, optical storage, . The non-volatile memory is an example of a computer-readable recording medium on which a computer-readable program of the present invention is recorded.

컴퓨터프로그램은 CPU가 읽고 실행할 수 있는 코드로서, 도 9에 도시된 단계 S902 내지 S922과 같은 제어부(110, 210)의 동작을 수행하도록 하는 코드를 포함한다.The computer program is a code that can be read and executed by the CPU, and includes a code for causing the control unit 110 and 210 to perform operations such as steps S902 to S922 shown in Fig.

컴퓨터프로그램은 보청장치(100) 또는 휴대장치(200)에 구비된 운영체제(operating system) 또는 어플리케이션을 포함하는 소프트웨어 및/또는 외부장치와 인터페이스하는 소프트웨어에 포함되어 구현될 수 있다.The computer program may be embodied in software including an operating system or an application provided in the hearing aid 100 or the portable device 200 and / or software that interfaces with an external device.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments.

1: 보청 시스템 100: 보청장치
110: 제어부 120: 통신부
130: 영상처리부 140: 디스플레이부
150: 사용자 입력부 160: 음성입력부
170: 음성출력부 180: 영상입력부
190: 저장부 195: 전원공급부
200: 휴대장치 210: 제어부
220: 통신부 230: 영상처리부
240: 디스플레이부 250: 사용자 입력부
260: 감지부 271: 스피커
280: 영상입력부 290: 저장부
295: 전원공급부
1: hearing aid system 100: hearing aid device
110: control unit 120: communication unit
130: image processor 140:
150: user input unit 160: voice input unit
170: audio output unit 180: video input unit
190: storage unit 195: power supply unit
200: portable device 210: control unit
220: communication unit 230: image processing unit
240: display unit 250: user input unit
260: sensing unit 271: speaker
280: image input unit 290:
295: Power supply

Claims (20)

휴대장치에 있어서,
음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부 및 영상데이터를 수신하는 영상입력부가 마련된 보청장치로부터 상기 음성신호 및 영상데이터를 수신하는 통신부와;
음성 데이터베이스가 저장되는 저장부와;
상기 수신된 음성신호의 발화 위치를 결정하고, 상기 수신된 영상데이터를 이용하여 상기 결정된 발화 위치에 화자가 존재하는지 여부를 결정하고, 상기 발화 위치에 상기 화자가 존재하는 것으로 결정되면 상기 수신된 음성신호로부터 상기 음성 데이터베이스를 이용하여 식별된 상기 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 상기 식별된 음성신호를 조정하고, 상기 조정된 음성신호가 상기 통신부를 통해 상기 보청장치로 송신되도록 제어하는 적어도 하나의 프로세서를 포함하며,
상기 난청 주파수 영역의 레벨이 증가되도록 조정된 음성신호는 상기 보청장치에 의해 출력되는 것을 특징으로 하는 휴대장치.
In the portable device,
A communication unit for receiving the audio signal and the video data from a hearing aid provided with a voice input unit including a plurality of microphones for receiving a voice signal and a video input unit for receiving video data;
A storage unit for storing a voice database;
Determining whether or not a speaker is present at the determined firing position using the received image data, and if it is determined that the speaker exists at the firing position, Adjusts the identified voice signal so that the level of the loudspeaker frequency region is increased with respect to the voice signal corresponding to the speaker identified using the voice database from the signal and transmits the adjusted voice signal to the hearing aid And at least one processor for controlling transmission to be transmitted,
And the voice signal adjusted to increase the level of the hearing loss frequency region is output by the hearing aid.
제1항에 있어서,
상기 보청장치는 신체 착용형 장치이고, 상기 영상입력부는 상기 보청장치의 전면에 설치된 전면 카메라를 포함하며,
상기 프로세서는, 상기 전면 카메라에 의해 상기 보청장치 착용자의 전면에 대해 촬영된 영상데이터를 이용하여 상기 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는 것을 특징으로 하는 휴대장치.
The method according to claim 1,
Wherein the hearing aid is a body wearing device, and the image input unit includes a front camera installed on a front surface of the hearing aid,
Wherein the processor determines whether or not a speaker is present at the determined firing position using the image data photographed by the front face camera on the front face of the wearer's wearer.
제2항에 있어서,
상기 영상입력부는 상기 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 상기 착용자의 안구 정보를 획득하는 후면 카메라를 더 포함하며,
상기 프로세서는, 상기 획득된 안구 정보를 이용하여 상기 착용자가 상기 화자를 응시하는지 여부를 더 결정하는 것을 특징으로 하는 휴대장치.
3. The method of claim 2,
Wherein the image input unit further comprises a rear camera provided at a position through which at least one line of sight of the wearer's wearer passes and acquiring eye information of the wearer,
Wherein the processor further determines whether the wearer gazes at the speaker using the acquired eye information.
제2항에 있어서,
상기 보청장치에는 방향센서가 더 설치되며,
상기 프로세서는, 상기 보청장치로부터 상기 방향센서의 센싱값을 수신하도록 상기 통신부를 제어하고, 상기 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는데 상기 수신된 센싱값을 더 이용하는 것을 특징으로 하는 휴대장치.
3. The method of claim 2,
The hearing aid is further provided with a direction sensor,
Wherein the processor controls the communication unit to receive the sensing value of the direction sensor from the hearing aid and further uses the received sensing value to determine whether a speaker exists in the determined speaking position .
제1항에 있어서,
상기 프로세서는, 상기 음성신호가 상기 복수의 마이크로폰에 도달하는 시간차, 상기 복수의 마이크로폰 사이의 이격 거리 및 마이크로폰의 개수 중 적어도 하나를 이용하여 상기 음성신호의 발화 위치를 추정하는 것을 특징으로 하는 휴대장치.
The method according to claim 1,
Wherein the processor estimates the speech position of the speech signal using at least one of a time difference of the speech signal reaching the plurality of microphones, a distance between the plurality of microphones, and a number of microphones. .
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 음성 데이터베이스에는 복수의 화자 및 상기 복수의 화자에 대응하는 음성신호에 대한 정보가 저장되고,
상기 프로세서는, 상기 음성 데이터베이스에 기초하여 상기 수신된 음성신호로부터 상기 화자의 음성신호를 식별 및 분리하고, 상기 분리된 화자의 음성신호에 대하여 상기 난청 주파수 영역의 레벨이 증가되도록 조정하는 것을 특징으로 하는 휴대장치.
6. The method according to any one of claims 1 to 5,
Wherein the voice database stores information on a plurality of speakers and voice signals corresponding to the plurality of speakers,
Wherein the processor identifies and separates the speech signal of the speaker from the received speech signal based on the speech database and adjusts the level of the hearing loss frequency region to increase with respect to the speech signal of the separated speaker Lt; / RTI >
제6항에 있어서,
상기 프로세서는, 상기 수신된 음성신호에 대응하는 정보가 음성 데이터베이스에 존재하는지 여부를 결정하고, 상기 정보가 존재하지 않는 것으로 결정되면 상기 음성신호에 대한 정보를 상기 데이터베이스에 저장하는 것을 특징으로 하는 휴대장치.
The method according to claim 6,
Wherein the processor is configured to determine whether information corresponding to the received voice signal is present in the voice database and to store information about the voice signal in the database if the information is determined not to be present. Device.
제7항에 있어서,
사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
상기 프로세서는, 상기 사용자 입력부를 통해 수신되는 정보를 상기 음성신호에 대응시켜 상기 음성 데이터베이스에 저장하는 것을 특징으로 하는 휴대장치.
8. The method of claim 7,
Further comprising a user input for receiving user input,
Wherein the processor stores information received through the user input unit in the voice database in association with the voice signal.
보청장치에 있어서,
음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부와;
영상데이터를 수신하는 영상입력부와;
상기 수신된 음성신호 및 영상데이터를 휴대장치로 송신하는 통신부와;
음성신호를 출력하는 음성출력부와;
상기 휴대장치로부터 소정 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 조정된 음성신호를 수신하도록 상기 통신부를 제어하고, 상기 조정된 음성신호를 출력하도록 상기 음성출력부를 제어하는 적어도 하나의 프로세서를 포함하며,
상기 영상입력부는 상기 보청장치의 전면에 설치된 전면 카메라를 포함하며, 상기 전면 카메라에서 촬영된 영상데이터를 이용하여 상기 음성신호의 발화 위치에 화자가 존재하는지 여부가 결정되고, 상기 발화 위치에 상기 화자가 존재하는 것으로 결정되면 음성 데이터베이스를 이용하여 식별된 상기 화자에 대응하는 음성신호가 조정되어 상기 휴대장치로부터 상기 보청장치로 송신되는 것을 특징으로 하는 보청장치.
In a hearing aid,
A voice input unit including a plurality of microphones for receiving voice signals;
A video input unit for receiving video data;
A communication unit for transmitting the received voice signal and image data to a portable device;
An audio output unit for outputting a voice signal;
The control unit controls the communication unit to receive the voice signal adjusted so that the level of the hearing loss frequency range is increased with respect to the voice signal corresponding to the predetermined speaker from the portable device and controls the voice output unit to output the adjusted voice signal Lt; / RTI > processor,
Wherein the image input unit includes a front camera installed on a front surface of the hearing aid, and it is determined whether or not a speaker is present at a speaking position of the voice signal using the image data photographed by the front face camera, The voice signal corresponding to the speaker identified using the voice database is adjusted and transmitted from the portable device to the hearing aid.
제9항에 있어서,
상기 영상입력부는 상기 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 상기 착용자의 안구 정보를 획득하는 후면 카메라를 더 포함하며,
상기 획득된 안구 정보를 이용하여 상기 착용자가 상기 화자를 응시하는지 여부가 더 결정되는 것을 특징으로 하는 보청장치.
10. The method of claim 9,
Wherein the image input unit further comprises a rear camera provided at a position through which at least one line of sight of the wearer's wearer passes and acquiring eye information of the wearer,
Wherein whether or not the wearer gazes the speaker using the acquired eye information is further determined.
제10항에 있어서,
상기 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되는 디스플레이부를 더 포함하며,
상기 프로세서는, 상기 발화 위치에 대한 정보 및 상기 음성 데이터베이스를 이용하여 식별된 화자에 대한 정보를 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 보청장치.
11. The method of claim 10,
And a display unit provided at a position through which at least one line of sight of the wearer passes,
Wherein the processor controls the display unit to display information on the speech position and information on a speaker identified using the speech database.
휴대장치의 제어방법에 있어서,
음성신호를 수신하는 복수의 마이크로폰을 포함하는 음성입력부 및 영상데이터를 수신하는 영상입력부가 마련된 보청장치로부터 상기 음성신호 및 영상데이터를 수신하는 단계와;
상기 수신된 음성신호의 발화 위치를 결정하는 단계와;
상기 수신된 영상데이터를 이용하여 상기 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는 단계와;
상기 발화 위치에 상기 화자가 존재하는 것으로 결정되면 상기 수신된 음성신호로부터 음성 데이터베이스를 이용하여 식별된 상기 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 상기 식별된 음성신호를 조정하는 단계와;
상기 조정된 음성신호를 상기 보청장치에 의해 출력되도록 상기 휴대장치로부터 상기 보청장치로 송신하는 단계를 포함하는 것을 특징으로 하는 제어방법.
A control method for a portable apparatus,
The method comprising: receiving the speech signal and the image data from a hearing aid provided with a speech input unit including a plurality of microphones for receiving speech signals and an image input unit for receiving image data;
Determining a speech position of the received speech signal;
Determining whether a speaker exists at the determined firing position using the received image data;
And adjusting the identified voice signal so that the level of the hearing loss frequency region is increased with respect to the voice signal corresponding to the speaker identified using the voice database from the received voice signal when it is determined that the speaker exists in the speaking position ;
And transmitting the adjusted voice signal from the portable device to the hearing aid so as to be outputted by the hearing aid.
제12항에 있어서,
상기 보청장치는 신체 착용형 장치이고, 상기 영상입력부는 상기 보청장치의 전면에 설치된 전면 카메라를 포함하며,
상기 화자가 존재하는지 여부를 결정하는 단계는, 상기 전면 카메라에 의해 상기 보청장치 착용자의 전면에 대해 촬영된 영상데이터를 이용하여 상기 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는 것을 특징으로 하는 제어방법.
13. The method of claim 12,
Wherein the hearing aid is a body wearing device, and the image input unit includes a front camera installed on a front surface of the hearing aid,
Wherein the step of determining whether or not the speaker exists determines whether or not a speaker is present at the determined ignition position using the image data photographed by the front camera on the front face of the wearer of the hearing aid Way.
제13항에 있어서,
상기 영상입력부는 상기 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 상기 착용자의 안구 정보를 획득하는 후면 카메라를 더 포함하며,
상기 획득된 안구 정보를 이용하여 상기 착용자가 상기 화자를 응시하는지 여부를 결정하는 단계를 더 포함하는 것을 특징으로 하는 제어방법.
14. The method of claim 13,
Wherein the image input unit further comprises a rear camera provided at a position through which at least one line of sight of the wearer's wearer passes and acquiring eye information of the wearer,
Further comprising the step of determining whether the wearer gazes at the speaker using the acquired ocular information.
제12항에 있어서,
상기 발화 위치를 결정하는 단계는, 상기 음성신호가 상기 복수의 마이크로폰에 도달하는 시간차, 상기 복수의 마이크로폰 사이의 이격 거리 및 마이크로폰의 개수 중 적어도 하나를 이용하여 상기 음성신호의 발화 위치를 추정하는 것을 특징으로 하는 제어방법.
13. The method of claim 12,
The step of determining the firing position may include estimating a firing position of the speech signal using at least one of a time difference of the speech signal reaching the plurality of microphones, a distance between the plurality of microphones, and a number of microphones Wherein the control method comprises:
제12항 내지 제15항 중 어느 한 항에 있어서,
상기 음성 데이터베이스에는 복수의 화자 및 상기 복수의 화자에 대응하는 음성신호에 대한 정보가 저장되고,
상기 음성 데이터베이스에 기초하여 상기 수신된 음성신호로부터 상기 화자의 음성신호를 식별 및 분리하는 단계를 더 포함하고,
상기 음성신호를 조정하는 단계는, 상기 분리된 화자의 음성신호에 대하여 상기 난청 주파수 영역의 레벨이 증가되도록 조정하는 것을 특징으로 하는 제어방법.
16. The method according to any one of claims 12 to 15,
Wherein the voice database stores information on a plurality of speakers and voice signals corresponding to the plurality of speakers,
Further comprising identifying and separating the speech signal of the speaker from the received speech signal based on the speech database,
Wherein the step of adjusting the speech signal adjusts the level of the hearing loss frequency region to be increased with respect to the speech signal of the separated speaker.
제16항에 있어서,
상기 수신된 음성신호에 대응하는 정보가 음성 데이터베이스에 존재하는지 여부를 결정하는 단계와;
상기 정보가 존재하지 않는 것으로 결정되면 상기 음성신호에 대한 정보를 상기 데이터베이스에 저장하는 단계를 더 포함하는 것을 특징으로 하는 제어방법.
17. The method of claim 16,
Determining whether information corresponding to the received voice signal is present in the voice database;
Further comprising the step of storing information on the voice signal in the database if it is determined that the information does not exist.
보청장치와 휴대장치를 포함하는 보청 시스템의 제어방법에 있어서,
복수의 마이크로폰으로부터 음성신호를 수신하는 단계와;
상기 보청장치의 전면에 설치된 전면 카메라로부터 영상데이터를 수신하는 단계와;
상기 수신된 음성신호의 발화 위치를 결정하는 단계와;
상기 수신된 영상데이터를 이용하여 상기 결정된 발화 위치에 화자가 존재하는지 여부를 결정하는 단계와;
상기 발화 위치에 상기 화자가 존재하는 것으로 결정되면 상기 수신된 음성신호로부터 음성 데이터베이스를 이용하여 식별된 상기 화자에 대응하는 음성신호에 대하여 난청 주파수 영역의 레벨이 증가되도록 상기 식별된 음성신호를 조정하는 단계와;
상기 조정된 음성신호를 상기 보청장치에 의해 출력하는 단계를 포함하는 것을 특징으로 하는 제어방법.
A control method for a hearing aid system including a hearing aid and a portable device,
Receiving a voice signal from a plurality of microphones;
Receiving image data from a front face camera installed on a front face of the hearing aid;
Determining a speech position of the received speech signal;
Determining whether a speaker exists at the determined firing position using the received image data;
And adjusting the identified voice signal so that the level of the hearing loss frequency region is increased with respect to the voice signal corresponding to the speaker identified using the voice database from the received voice signal when it is determined that the speaker exists in the speaking position ;
And outputting the adjusted voice signal by the hearing aid.
제18항에 있어서,
상기 보청장치 착용자의 적어도 하나의 시선이 통과하는 위치에 마련되어, 상기 착용자의 안구 정보를 획득하는 후면 카메라로부터 착용자의 안구 정보를 획득하는 단계를 더 포함하며,
상기 획득된 안구 정보를 이용하여 상기 착용자가 상기 화자를 응시하는지 여부를 결정하는 단계를 더 포함하는 것을 특징으로 하는 제어방법.
19. The method of claim 18,
Further comprising the step of acquiring eye information of the wearer from a rear camera which is provided at a position through which at least one line of sight of the wearer's wearer passes and acquires eye information of the wearer,
Further comprising the step of determining whether the wearer gazes at the speaker using the acquired ocular information.
제18항에 있어서,
상기 보청장치에는 착용자의 적어도 하나의 시선이 통과하는 위치에 디스플레이부가 더 마련되며,
상기 발화 위치에 대한 정보 및 상기 음성 데이터베이스를 이용하여 식별된 화자에 대한 정보를 상기 디스플레이부에 의해 표시하는 단계를 더 포함하는 것을 특징으로 하는 제어방법.
19. The method of claim 18,
Wherein the hearing aid further comprises a display unit at a position through which at least one line of sight of the wearer passes,
Further comprising the step of displaying, by the display unit, information on the firing position and information on a speaker identified using the speech database.
KR1020160036926A 2016-03-28 2016-03-28 Hearing aid apparatus, portable apparatus and controlling method thereof KR20170111450A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160036926A KR20170111450A (en) 2016-03-28 2016-03-28 Hearing aid apparatus, portable apparatus and controlling method thereof
PCT/KR2016/006383 WO2017171137A1 (en) 2016-03-28 2016-06-16 Hearing aid, portable device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160036926A KR20170111450A (en) 2016-03-28 2016-03-28 Hearing aid apparatus, portable apparatus and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20170111450A true KR20170111450A (en) 2017-10-12

Family

ID=59964824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160036926A KR20170111450A (en) 2016-03-28 2016-03-28 Hearing aid apparatus, portable apparatus and controlling method thereof

Country Status (2)

Country Link
KR (1) KR20170111450A (en)
WO (1) WO2017171137A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102086918B1 (en) * 2018-08-28 2020-03-09 한림대학교 산학협력단 A glasses type hearing aid, a method for controlling the same, and computer recordable medium storing program to perform the method
WO2020079485A3 (en) * 2018-10-15 2020-06-25 Orcam Technologies Ltd. Hearing aid systems and methods
WO2022039578A1 (en) * 2020-08-21 2022-02-24 주식회사 아모센스 Voice processing device for processing voices of speakers
WO2022045725A1 (en) * 2020-08-24 2022-03-03 주식회사 아모센스 Electronic device and operating method for electronic device
US11979716B2 (en) 2018-10-15 2024-05-07 Orcam Technologies Ltd. Selectively conditioning audio signals based on an audioprint of an object

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108540661A (en) * 2018-03-30 2018-09-14 广东欧珀移动通信有限公司 Signal processing method, device, terminal, earphone and readable storage medium storing program for executing
CN112150778A (en) * 2019-06-29 2020-12-29 华为技术有限公司 Environmental sound processing method and related device
US11765522B2 (en) 2019-07-21 2023-09-19 Nuance Hearing Ltd. Speech-tracking listening device
US20230336926A1 (en) * 2019-10-16 2023-10-19 Nuance Hearing Ltd. Beamforming devices for hearing assistance

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101055780B1 (en) * 2009-07-28 2011-08-11 김선호 Wireless hearing aid with adjustable output by frequency band
KR101364543B1 (en) * 2011-11-17 2014-02-19 한양대학교 산학협력단 Apparatus and method for receiving sound using mobile phone
KR101250951B1 (en) * 2012-07-23 2013-04-09 정윤석 Two ears insertable hearing aid having a danger detecting function and system for detecting dangerous factors using thereof
WO2014033306A1 (en) * 2012-09-03 2014-03-06 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Head mounted system and method to compute and render a stream of digital images using a head mounted system
KR102127640B1 (en) * 2013-03-28 2020-06-30 삼성전자주식회사 Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102086918B1 (en) * 2018-08-28 2020-03-09 한림대학교 산학협력단 A glasses type hearing aid, a method for controlling the same, and computer recordable medium storing program to perform the method
US11418893B2 (en) 2018-10-15 2022-08-16 Orcam Technologies Ltd. Selective modification of background noises
US11792577B2 (en) 2018-10-15 2023-10-17 Orcam Technologies Ltd. Differential amplification relative to voice of speakerphone user
CN113747330A (en) * 2018-10-15 2021-12-03 奥康科技有限公司 Hearing aid system and method
US11979716B2 (en) 2018-10-15 2024-05-07 Orcam Technologies Ltd. Selectively conditioning audio signals based on an audioprint of an object
US11930322B2 (en) 2018-10-15 2024-03-12 Orcam Technologies Ltd. Conditioning audio signals including overlapping voices
WO2020079485A3 (en) * 2018-10-15 2020-06-25 Orcam Technologies Ltd. Hearing aid systems and methods
US11470427B2 (en) 2018-10-15 2022-10-11 Orcam Technologies Ltd. Lip-tracking hearing aid
US11496842B2 (en) 2018-10-15 2022-11-08 Orcam Technologies Ltd. Selective amplification of speaker of interest
US11638103B2 (en) 2018-10-15 2023-04-25 Orcam Technologies Ltd. Identifying information and associated individuals
US11785395B2 (en) 2018-10-15 2023-10-10 Orcam Technologies Ltd. Hearing aid with voice recognition
US10959027B2 (en) 2018-10-15 2021-03-23 Orcam Technologies Ltd. Systems and methods for camera and microphone-based device
US11843916B2 (en) 2018-10-15 2023-12-12 Orcam Technologies Ltd. Hearing aid with voice or image recognition
WO2022039578A1 (en) * 2020-08-21 2022-02-24 주식회사 아모센스 Voice processing device for processing voices of speakers
WO2022045725A1 (en) * 2020-08-24 2022-03-03 주식회사 아모센스 Electronic device and operating method for electronic device

Also Published As

Publication number Publication date
WO2017171137A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
KR20170111450A (en) Hearing aid apparatus, portable apparatus and controlling method thereof
US10869146B2 (en) Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal
US11288807B2 (en) Method, electronic device and storage medium for segmenting image
US10360907B2 (en) Smart necklace with stereo vision and onboard processing
US9629774B2 (en) Smart necklace with stereo vision and onboard processing
CN105373222B (en) Electronic device and control method thereof
US9915545B2 (en) Smart necklace with stereo vision and onboard processing
CN110764730B (en) Method and device for playing audio data
KR102052153B1 (en) Mobile terminal for controlling a hearing aid and method therefor
CN108881568B (en) Method and device for sounding display screen, electronic device and storage medium
EP3624120A1 (en) Method and device for determining karaoke score
US10635152B2 (en) Information processing apparatus, information processing system, and information processing method
EP3227788A1 (en) Master device for using connection attribute of electronic accessories connections to facilitate locating an accessory
KR20170001125A (en) Headset and controlling mrthod thereof
CN109324739B (en) Virtual object control method, device, terminal and storage medium
KR20120000850A (en) Mobile terminal and operation method thereof
WO2020211607A1 (en) Video generation method, apparatus, electronic device, and medium
CN110109608B (en) Text display method, text display device, text display terminal and storage medium
KR20180012751A (en) Wearable terminal that displays optimized screen according to the situation
CN110933468A (en) Playing method, playing device, electronic equipment and medium
US20230379615A1 (en) Portable audio device
CN111613213B (en) Audio classification method, device, equipment and storage medium
CN108900688B (en) Sound production control method and device, electronic device and computer readable medium
CN109088980A (en) Sounding control method, device, electronic device and computer-readable medium
CN109144461B (en) Sound production control method and device, electronic device and computer readable medium