KR20140118060A - Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal - Google Patents

Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal Download PDF

Info

Publication number
KR20140118060A
KR20140118060A KR1020130033283A KR20130033283A KR20140118060A KR 20140118060 A KR20140118060 A KR 20140118060A KR 1020130033283 A KR1020130033283 A KR 1020130033283A KR 20130033283 A KR20130033283 A KR 20130033283A KR 20140118060 A KR20140118060 A KR 20140118060A
Authority
KR
South Korea
Prior art keywords
sound
sound source
terminal
volume
touch screen
Prior art date
Application number
KR1020130033283A
Other languages
Korean (ko)
Other versions
KR102127640B1 (en
Inventor
이원기
김익수
오영준
김양욱
박정훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130033283A priority Critical patent/KR102127640B1/en
Priority to US14/068,443 priority patent/US9467786B2/en
Priority to EP19193648.3A priority patent/EP3591849B1/en
Priority to EP14773330.7A priority patent/EP2979364A4/en
Priority to CN201480018987.8A priority patent/CN105103457B/en
Priority to CN201710437866.2A priority patent/CN107257525B/en
Priority to PCT/KR2014/001810 priority patent/WO2014157846A1/en
Publication of KR20140118060A publication Critical patent/KR20140118060A/en
Priority to US15/278,549 priority patent/US10091599B2/en
Priority to US16/146,192 priority patent/US10869146B2/en
Application granted granted Critical
Publication of KR102127640B1 publication Critical patent/KR102127640B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/02Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/558Remote control, e.g. of amplification, frequency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/554Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurosurgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Various embodiments of the present invention to provide locations of sound sources have been stated, and according to an embodiment of the present invention, the method to provide locations of sound sources in a portable terminal having a touch screen includes receiving sound signals of a plurality of sound sources; securing distances and directions among the terminal and the sound sources based on each sound signal of the sound sources; determining positions of the sound sources on the touch screen by using the secured distances and the direction of each sound source; and displaying the locations of the sound sources on the touch screen according to the determined positions. Other various applications are also possible.

Description

휴대 단말 및 보청기와 휴대 단말에서 음원의 위치를 제공하는 방법{PORTABLE TERIMINAL AND SOUND OUTPUT APPARATUS AND METHOD FOR PROVIDING LOCATIONS OF SOUND SOURCES IN THE PORTABLE TERIMINAL}TECHNICAL FIELD [0001] The present invention relates to a portable terminal and a method for providing a location of a sound source in a portable terminal and a hearing aid. [0002]

본 발명의 다양한 실시 예들은 휴대 단말 및 보청기와 음원 위치를 제공하기 위한 방법에 관한 것이다. Various embodiments of the present invention are directed to a portable terminal and a method for providing a hearing aid and sound source location.

최근 스마트폰, 휴대폰, 태플릿 PC 등의 단말에서 제공하는 다양한 서비스 및 부가 기능들은 점차 확대되고 있다. 이러한 단말은 카메라, 마이크, 스피커, 디스플레이, 무선 통신 모듈 및 각종 센서들을 구비하고, 사용자들의 다양한 욕구를 만족시키기 위해서 단말에서 실행 가능한 다양한 기능들을 제공하고 있다.Recently, various services and additional functions provided by terminals such as smart phones, mobile phones, and tablet PCs are gradually expanding. Such a terminal includes a camera, a microphone, a speaker, a display, a wireless communication module, and various sensors, and provides various functions that can be executed in the terminal to satisfy various needs of users.

이러한 단말은 특히 디스플레이를 이용하여 각종 시각적인 UI(User Interface)를 제공할 수 있는데, 이러한 단말의 디스플레이를 이용하여 음원을 시각화하여 제공하고, 음원에 대한 제어가 가능하도록 한다면, 일반 사용자뿐만 아니라 청각 장애우들에게 편리함을 줄 수 있을 것이다.Such a terminal can provide various visual UIs (User Interfaces) using a display. By visualizing a sound source using the display of the terminal and providing control over the sound source, It will be convenient for people with disabilities.

예컨대 단말이 주위의 음원을 탐지하여 음원의 위치를 표시하는 기능을 제공한다면 일반 사용자 뿐만아니라 청각에 장애가 있는 사용자들이 보다 편리하게 단말을 사용할 수 있을 것이다. For example, if the terminal detects a surrounding sound source and provides a function of displaying the location of the sound source, not only a general user but also a hearing-impaired user can more conveniently use the terminal.

따라서 본 발명의 다양한 실시 예들의 목적은 주위의 음원들을 탐지하여 음원들의 위치를 표시하는 휴대 단말 및 보청기와 음원의 위치를 제공하는 방법을 제공하는 데 있다. Accordingly, it is an object of various embodiments of the present invention to provide a portable terminal, a hearing aid, and a method for providing a location of a sound source by detecting the surrounding sound sources and displaying the location of the sound sources.

또한 본 발명의 다양한 실시 예들의 다른 목적은 사용자가 주위의 음원들의 위치를 확인하고, 원하는 음원을 선별적으로 들을 수 있도록 하기 위한 휴대 단말 및 보청기와 음원의 위치를 제공하는 방법을 제공하는 데 있다.Another object of the various embodiments of the present invention is to provide a portable terminal, a hearing aid, and a method for providing a location of a sound source for allowing a user to confirm the location of nearby sound sources and selectively listen to a desired sound source .

또한 본 발명의 다양한 실시 예들의 다른 목적은 사용자가 듣고자 하는 음원의 방향 또는 범위 또는 거리 또는 위치를 다양한 제스쳐를 이용하여 선택할 수 있도록 하고 다양한 제스쳐를 이용하여 선택된 음원을 출력할 수 있는 휴대 단말 및 보청기와 음원의 위치를 제공하는 방법을 제공하는 데 있다.It is another object of various embodiments of the present invention to provide a portable terminal capable of selecting a direction or a range or a distance or a position of a sound source to be heard by a user using various gestures and outputting a selected sound source using various gestures, And a method for providing a position of a hearing aid and a sound source.

본 발명의 다양한 실시 예들은 터치 스크린을 가진 휴대 단말에서 음원의 위치를 제공하는 방법에 있어서, 복수 개의 음원들의 소리 신호를 수신하는 동작과, 상기 복수 개의 음원들 각각의 소리 신호에 기초하여 상기 단말과 상기 복수 개의 음원들 간의 거리 및 방향을 획득하는 동작과, 상기 획득한 복수 개의 음원들 각각의 거리 및 방향을 이용하여 상기 복수 개의 음원들의 상기 터치 스크린 상에서의 위치를 결정하는 동작과, 상기 결정된 위치에 따라 상기 터치 스크린에 상기 복수 개의 음원들의 위치들을 표시하는 동작을 포함한다.According to various embodiments of the present invention, there is provided a method of providing a location of a sound source in a portable terminal having a touch screen, the method comprising: receiving a sound signal of a plurality of sound sources; And determining a position of the plurality of sound sources on the touch screen by using the distance and direction of each of the plurality of sound sources obtained; And displaying the positions of the plurality of sound sources on the touch screen according to the position.

또한 본 발명의 다양한 실시 예들은 보청기에서 음향 출력 방법에 있어서, 휴대 단말로부터 터치 스크린을 통해 사용자의 제스쳐에 의해 선택되어 볼륨이 조절된 음원의 소리 신호를 수신하는 동작과, 상기 수신된 선택된 음원의 소리 신호를 출력하는 동작을 포함한다.In addition, various embodiments of the present invention provide an audio output method in a hearing aid, comprising: receiving a sound signal of a sound source selected by a user's gesture from a portable terminal through a touch screen and adjusted in volume; And outputting a sound signal.

또한 본 발명의 다양한 실시 예들은 터치 스크린을 가진 휴대 단말에 있어서, 복수 개의 음원들의 위치들을 표시하는 터치 스크린과, 상기 복수 개의 음원들 각각의 소리 신호에 기초하여 상기 단말과 상기 복수 개의 음원들 간의 거리 및 방향을 획득하고, 상기 획득한 복수 개의 음원들 각각의 거리 및 방향을 이용하여 상기 복수 개의 음원들의 상기 터치 스크린 상에서의 위치를 결정하며, 상기 결정된 위치에 따라 상기 터치 스크린에 상기 복수 개의 음원들의 위치들을 표시하도록 제어하는 제어부를 포함한다.In addition, according to various embodiments of the present invention, there is provided a portable terminal having a touch screen, comprising: a touch screen for displaying positions of a plurality of sound sources; a touch screen for displaying positions of the plurality of sound sources; Determining a position of the plurality of sound sources on the touch screen by using a distance and a direction of each of the obtained plurality of sound sources, and determining, based on the determined position, And a control unit for controlling the display unit.

또한 본 발명의 다양한 실시 예들은 보청기에 있어서, 휴대 단말로부터 터치 스크린을 통해 사용자의 제스쳐에 의해 선택되어 볼륨이 조절된 음원의 소리 신호를 수신하는 무선부와, 상기 수신된 선택된 음원의 소리 신호를 출력하는 출력부를 포함한다.In addition, various embodiments of the present invention are directed to a hearing aid having a wireless unit that receives a sound signal of a sound source selected by a user's gesture from a portable terminal through a touch screen and whose volume is adjusted, And an output unit for outputting.

본 발명의 다양한 실시 예들은 사용자가 단말의 디스플레이를 활용하여 사용자를 중심으로 사방에 존재하는 음원들의 위치를 알 수 있도록 할 수 있다.The various embodiments of the present invention allow a user to utilize the display of the terminal to know the location of sound sources located in all directions with respect to the user.

또한 본 발명의 실시 예들에 따르면 사용자가 음원들 중 듣기를 원하는 음원을 선택하여 선택된 음원의 소리만 들을 수 있도록 할 수 있고, 음원을 듣는 중 음원의 볼륨을 단계적으로 조절하여 들을 수 있도록 할 수 있다. In addition, according to the embodiments of the present invention, a user can select a sound source desired to be heard among the sound sources to only listen to the selected sound source, and can adjust the volume of the sound source while listening to the sound source .

또한 본 발명의 실시 예들에 따르면 보청기를 사용하는 청각 장애우의 경우 보청기와 단말을 연동함으로써, 단말을 통해 음원들의 위치를 알 수 있도록 하고, 보청기를 통해 원하는 음원의 소리를 들을 수 있도록 할 수 있다. In addition, according to embodiments of the present invention, in the case of a hearing-impaired person using a hearing aid, the position of the sound sources can be known through the terminal by interlocking the hearing aid and the terminal, and the desired sound source can be heard through the hearing aid.

또한 본 발명의 실시 예들에 따르면 다양한 사용자 제스쳐를 이용하여 음원들 중 원하는 음원을 들을 수 있도록 함으로써 사용자에게 보다 편리한 UI(User Interface)를 제공할 수 있다.In addition, according to embodiments of the present invention, it is possible to provide a more convenient user interface (UI) to a user by allowing a user to listen to a desired sound source among sound sources using various user gestures.

도 1은 본 발명의 실시 예에 따른 단말과 음향 출력기의 동작 개념을 설명하기 위한 도면
도 2는 본 발명의 실시 예에 따른 단말의 블록 구성도
도 3은 본 발명의 실시 예에 따른 단말이 주변에 존재하는 적어도 하나 이상의 음원들을 디스플레이하는 동작에 대한 흐름도
도 4는 본 발명의 실시 예에 따른 단말 주변에 존재하는 음원들을 표시하기 위한 레이더스코프 화면을 나타낸 도면
도 5는 본 발명의 실시 예에 따른 단말 주변에 존재하는 음원들을 표시하기 위한 음원 위치 표시 화면을 나타낸 도면
도 6은 본 발명의 실시 예에 따른 단말의 음원의 소리 출력 동작에 대한 흐름도
도 7은 본 발명의 실시 예에 따른 단말 화면에 주변의 음원들이 표시된 것을 나타낸 도면
도 8은 본 발명의 실시 예에 따른 단말에서 사용자 제스쳐 인식에 따른 음원 선택 동작에 대한 흐름도
도 9는 본 발명의 실시 예에 따른 음원 선택 방향을 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면
도 10은 본 발명의 실시 예에 따른 음원 선택 범위를 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면
도 11은 본 발명의 실시 예에 따른 음원 선택 거리를 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면
도 12는 본 발명의 실시 예에 따른 음원 선택 위치를 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면
도 13은 본 발명의 실시 예에 따른 보청기의 블록 구성도
도 14는 본 발명의 실시 예에 따른 보청기의 동작 흐름도
1 is a view for explaining a concept of operation of a terminal and an audio output device according to an embodiment of the present invention;
2 is a block diagram of a terminal according to an embodiment of the present invention.
3 is a flowchart illustrating an operation of displaying at least one sound source in the vicinity of a terminal according to an embodiment of the present invention.
4 is a diagram illustrating a radar scope screen for displaying sound sources existing around a terminal according to an embodiment of the present invention;
5 is a view showing a sound source location display screen for displaying sound sources existing in the vicinity of a terminal according to an embodiment of the present invention;
6 is a flowchart illustrating a sound output operation of a sound source of a terminal according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating the surroundings of sound sources displayed on a terminal screen according to an embodiment of the present invention; FIG.
8 is a flowchart illustrating a sound source selection operation according to user gesture recognition in a terminal according to an embodiment of the present invention.
9 is a view for explaining a user gesture input indicating a sound source selection direction according to an embodiment of the present invention;
FIG. 10 is a view for explaining a user gesture input indicating a sound source selection range according to an embodiment of the present invention; FIG.
11 is a view for explaining a user gesture input indicating a sound source selection distance according to an embodiment of the present invention;
12 is a view for explaining a user gesture input indicating a sound source selection position according to an embodiment of the present invention;
13 is a block diagram of a hearing aid according to an embodiment of the present invention.
FIG. 14 is a flowchart of the operation of the hearing aid according to the embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

명세서 전체에서 "사용자 제스쳐 입력"이란 사용자가 단말을 제어하기 위해 터치 스크린에 행하는 제스처에 의한 입력을 의미한다. 예를 들어, 본 명세서에서 기술되는 제스쳐 입력에는 터치, 터치&홀드, 드래그, 플릭, 홀드 등이 있을 수 있다. Throughout the specification, "user gesture input" means input by a gesture performed by the user on the touch screen to control the terminal. For example, the gesture input described herein may include touch, touch & hold, drag, flick, hold, and the like.

" 터치(touch)"는 사용자가 손가락이나 터치 입력 유닛(stylus 또는 pen)을 이용하여 화면을 터치하는 동작을 나타낸다. 즉, 손가락이나 터치 입력 유닛이 화면에 닿는 시점인 터치-인 시점과 손가락이나 터치 도구가 화면에서 떨어지는 시점인 터치-아웃 시점 간의 시간 차이가 미리 정해진 터치 시간인 경우를 의미한다."Touch" indicates an operation in which the user touches the screen using a finger or a touch input unit (stylus or pen). That is, the time difference between the touch-in point, which is the point at which the finger or the touch input unit touches the screen, and the touch-out point, which is the point at which the finger or the touch tool falls off the screen, is a predetermined touch time.

"터치&홀드(touch & hold)"는 사용자가 손가락이나 터치 입력 유닛(stylus 또는 pen)을 이용하여 화면을 터치한 후 임계 시간 이상 터치 입력을 유지하는 동작을 나타낸다. 즉, 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간 이상인 경우를 의미한다. 터치 입력이 터치인지 터치&홀드인지를 사용자에게 인식시키도록 하기 위하여 터치 입력이 임계 시간 이상 유지되면 시각적 또는 청각적으로 피드백 신호를 제공할 수도 있다."Touch & hold" represents an operation in which the user touches the screen using a finger or a touch input unit (stylus or pen) and then maintains the touch input over a critical time. That is, the time difference between the touch-in point and the touch-out point is equal to or greater than the threshold time. In order to allow the user to recognize whether the touch input is a touch or a touch & hold, a feedback signal may be provided visually or audibly when the touch input is maintained for a predetermined time or more.

"드래그(drag)"는 사용자가 손가락이나 터치 입력 유닛을 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 입력 유닛을 화면 내의 다른 위치로 이동시키는 동작을 의미한다. "Drag" means an operation of moving a finger or a touch input unit to another position in the screen while the user holds the touch after touching the finger or the touch input unit with the screen.

"플릭(flick)"은 사용자가 손가락이나 터치 입력 유닛을 이용하여 매우 빠르게 드래그하는 동작을 나타낸다. 손가락이나 터치 입력 유닛의 이동 속도가 임계 속도 이상인지에 기초하여 드래그와 플릭을 구별할 수 있다. "Flick" indicates an operation in which a user drags very quickly using a finger or a touch input unit. It is possible to distinguish the drag and the flick based on whether the moving speed of the finger or the touch input unit is equal to or greater than the threshold speed.

"홀드(hold)"는 사용자가 손가락이나 터치 입력 유닛(stylus 또는 pen)이 이용하여 화면의 일정 지점에 터치된 상태에서 일정 지점에 임계 시간 이상 터치 입력을 유지하는 동작을 나타낸다. 즉, 일정 지점에 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간 이상인 경우를 의미한다. The "hold" represents an operation in which the user holds a touch input over a predetermined time at a certain point in a state where the touch is touched at a certain point on the screen using a finger or a touch input unit (stylus or pen). That is, the time difference between the touch-in point and the touch-out point at a certain point is equal to or greater than the threshold time.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 다양한 실시 예들을 상세하게 설명한다. 다만, 본 발명이 다양한 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다. Hereinafter, various embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited or limited by various embodiments. Like reference numerals in the drawings denote members performing substantially the same function.

도 1은 본 발명의 실시 예에 따른 단말과 음향 출력기의 동작 개념을 설명하기 위한 도면이다. 1 is a view for explaining operation concepts of a terminal and an audio output device according to an embodiment of the present invention.

도 1을 참조하면, 단말(100)은 휴대 단말일 수 있으며, 단말(100)(또는 사용자)의 위치를 기준으로 주변에 존재하는 적어도 하나 이상의 음원(sound source)들의 위치들을 검출하고, 단말(100)을 나타내는 단말(10) 이미지와 단말(100)을 기준으로 적어도 하나 이상의 음원들의 위치에 적어도 하나 이상의 음원들을 나타내는 음원 이미지들(11~17)을 디스플레이할 수 있다. 1, the terminal 100 may be a portable terminal, detects positions of at least one sound source existing around the terminal 100 (or a user) 100) and the sound source images (11 to 17) representing at least one sound source at the position of the at least one sound source based on the terminal (100).

여기서 음원은 소리가 나오는 근원 또는 그 근원이 될 수 있는 것을 의미할 수 있다. 예를 들면, 음원은 음성을 내고 있는 사람, 연주를 하고 있는 연주가, 음악을 출력하고 있는 스피커, 벨소리를 울리는 전화 등을 포함할 수 있고, 이 외에도 소리가 나오는 근원이면 어떤 것이든지 가능하다. Here, a sound source can mean the source from which the sound comes or its source. For example, a sound source may include a person making a sound, a player performing a performance, a speaker outputting music, a phone ringing a ringtone, and the like.

단말(100)은 디스플레이된 적어도 하나 이상의 음원 이미지들(11~17) 중 사용자 제스쳐 입력에 따라 소리를 출력할 음원 이미지를 선택하고, 선택된 음원 이미지에 해당하는 음원의 소리를 출력할 수 있다. 또한 단말(100)은 선택된 음원 이미지에 해당하는 음원의 소리를 음향 출력기(300)(예컨대 보청기, 이어마이크, 헤드셋 등)로 제공할 수 있다. The terminal 100 may select a sound source image to output sound according to a user gesture input among the displayed at least one sound source images 11 to 17 and output a sound of a sound source corresponding to the selected sound source image. Also, the terminal 100 may provide the sound of the sound source corresponding to the selected sound source image to the sound output device 300 (e.g., a hearing aid, an ear microphone, a headset, etc.).

또한 단말(100)은 사용자의 제스쳐 입력에 따라 임의의 음원에 대해 미리 정해진 복수의 볼륨 단계들 중 적어도 하나의 볼륨 단계를 선택받고, 음원의 소리 출력 시 선택받은 볼륨 단계에 따라 음원의 소리를 출력할 수 있다. 또한 단말(100)은 선택 받은 볼륨 단계에 따른 음원의 소리를 음향 출력기(300)로 제공할 수 있다. In addition, the terminal 100 selects at least one volume level among a plurality of preset volume levels for an arbitrary sound source according to a user's gesture input, and outputs sound of the sound source according to the selected volume level upon outputting sound of the sound source can do. Also, the terminal 100 may provide the sound of the sound source according to the selected volume level to the sound output device 300.

음향 출력기(300)는 보청기, 이어마이크, 헤드셋, 등과 같이 음향을 출력할 수 있는 장치가 될 수 있다. 본 발명의 실시 예에서는 음향 출력기(300)가 보청기인 경우를 예를 들어 설명한다. 보청기(300)는 마이크를 이용하여 적어도 하나 이상의 음원들에 의한 소리 신호를 수신하여 증폭한 후 증폭된 소리를 사용자가 들을 수 있도록 스피커를 통해 출력할 수 있다. The audio output device 300 may be a device capable of outputting sounds such as a hearing aid, an ear microphone, a headset, and the like. In the embodiment of the present invention, the case where the sound output device 300 is a hearing aid will be described as an example. The hearing aid 300 can receive a sound signal from at least one sound source using a microphone and amplify it, and output the amplified sound through a speaker so that the user can hear the sound.

이러한 보청기(300)는 단말(100)과 통신(유선 통신 또는 무선 통신)이 가능하며, 단말(100)로부터 적어도 하나 이상의 음원들 중 선택된 음원의 소리를 제공받아 출력할 수 있다. 또한 보청기(300)는 단말(100)로부터 선택된 볼륨 단계에 따라 음원의 소리의 볼륨이 조절된 음원의 소리를 제공받아 출력할 수 있다.The hearing aid 300 can communicate with the terminal 100 (wired communication or wireless communication), and can receive and output sound of a selected sound source from at least one sound source from the terminal 100. Also, the hearing aid 300 can receive and output the sound of the sound source whose volume of the sound source is adjusted according to the volume level selected from the terminal 100.

도 2는 본 발명의 실시 예에 따른 단말(100)의 블록 구성도이다. 도 2를 참조하면, 단말(100)은 제어부(110), 반사파 송수신부(113), 음원 거리 계산부(115), 음원 방향 계산부(117)를 포함할 수 있다. 또한 단말(100)은 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(157), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원 공급부(180)를 포함할 수 있다. 또한 단말(100)은 적어도 하나의 터치 스크린(190) 및 적어도 하나의 터치 스크린 컨트롤러(195)를 포함할 수 있다. 2 is a block diagram of a terminal 100 according to an embodiment of the present invention. 2, the terminal 100 may include a control unit 110, a reflected wave transmission / reception unit 113, a sound source distance calculation unit 115, and a sound source direction calculation unit 117. The terminal 100 includes a mobile communication module 120, a sub communication module 130, a multimedia module 140, a camera module 150, a GPS module 157, an input / output module 160, a sensor module 170 ), A storage unit 175, and a power supply unit 180. The terminal 100 may also include at least one touch screen 190 and at least one touch screen controller 195.

제어부(110)는 CPU(111), 단말(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 단말(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 단말(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다. 제어부(110)는 반사파 송수신부(103), 음원 거리 계산부(105), 음원 방향 계산부(107), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(157), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 터치 스크린(190), 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.The control unit 110 stores a ROM or a ROM 112 storing a control program for controlling the terminal 100 and a signal or data input from the outside of the terminal 100, And a RAM (RAM) 113 used as a storage area for a work to be performed. The CPU 111 may include a single core, a dual core, a triple core, or a quad core. The CPU 111, the ROM 112, and the RAM 113 may be interconnected via an internal bus. The control unit 110 includes a reflected wave transmission / reception unit 103, a sound source distance calculation unit 105, a sound source direction calculation unit 107, a mobile communication module 120, a sub communication module 130, a multimedia module 140, A touch panel 190, a touch panel 190, and a touch screen controller 195. The touch panel 190 is connected to the controller 150, the GPS module 157, the input / output module 160, the sensor module 170, the storage 175, the power supply 180, Can be controlled.

반사파 송수신부(113)는 제어부(110)의 제어에 따라 전자기파 신호를 사방으로 송신하고, 전자기파 신호가 물체에 부딪혀 반사되는 반사파 신호를 수신할 수 있다. 수신된 반사파 신호는 제어부(110)로 전달되어 단말(100) 주변의 물체를 감지하는데 이용될 수 있다. The reflected wave transmitting / receiving unit 113 can transmit the electromagnetic wave signal in all directions under the control of the control unit 110, and can receive the reflected wave signal in which the electromagnetic wave signal collides against the object and is reflected. The received reflected wave signal is transmitted to the controller 110 and can be used to detect an object in the vicinity of the terminal 100.

음원 거리 계산부(115)는 제어부(110)의 제어에 따라 제1 내지 제n 마이크(162-1~162-n)를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 전달받아 적어도 하나 이상의 음원들을 구별하고, 단말(100)로부터 각 음원까지의 거리를 계산한다. 이때 단말(100)로부터 각 음원까지의 거리는 제1 내지 제n 마이크(162-1~162-n) 중 적어도 2개 이상의 마이크를 통해 각각 입력된 음원을 조합하여 복수의 마이크 출력 신호를 생성하고, 복수의 마이크 출력 신호 각각의 거리에 따른 음의 감쇄 비율을 이용하여 각 음원까지의 거리를 계산한다. The sound source distance calculation unit 115 calculates a sound source distance by using various sound sources input through the first to nth microphones 162-1 to 162-n under the control of the controller 110, And distinguishes at least one sound source, and calculates a distance from the terminal 100 to each sound source. At this time, the distances from the terminal 100 to the respective sound sources are obtained by combining a plurality of sound sources inputted through at least two microphones among the first to n-th microphones 162-1 to 162-n to generate a plurality of microphone output signals, The distance to each sound source is calculated using the rate of sound attenuation according to the distance of each of the plurality of microphone output signals.

음원 방향 계산부(117)는 제어부(110)의 제어에 따라 제1 내지 제n 마이크(162-1~162-n)를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 전달받아 적어도 하나 이상의 음원들을 구별하고, 각 음원의 방향을 계산한다. 이때 각 음원의 방향은 제1 내지 제n 마이크(162-1~162-n) 중 적어도 2개 이상의 마이크를 통해 각각 입력된 음원 신호 간의 시간 지연을 이용하여 각 음원의 방향을 계산한다. 계산된 각 음원의 방향은 제어부(110)로 전달된다.The sound source direction calculation unit 117 generates a sound or various sounds by various sound sources input through the first to nth microphones 162-1 to 162-n according to the control of the controller 110. [ And distinguishes at least one sound source, and calculates the direction of each sound source. At this time, the direction of each sound source calculates the direction of each sound source using the time delay between the sound source signals input through the at least two microphones among the first to nth microphones 162-1 to 162-n. The calculated direction of each sound source is transmitted to the controller 110.

제어부(110)는 반사파 송수신부(113)에 의해 수신된 반사파를 이용하여 단말(100)(또는 사용자)의 위치를 기준으로 사방에 존재하는 적어도 하나 이상의 물체들의 위치들을 검출할 수 있다. The control unit 110 can detect the positions of at least one or more objects existing in all directions with reference to the position of the terminal 100 (or the user) using the reflected wave received by the reflected wave transmitting / receiving unit 113. [

제어부(110)는 제1 내지 제n 마이크(162-1~162-n)를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 전달받아 적어도 하나 이상의 음원들을 구별할 수 있다. 이때 제어부(110)는 적어도 하나 이상의 음원들을 구별한 후, 적어도 하나 이상의 음원들의 주파수 성분을 분석하고 적어도 하나 이상의 음원들의 주파수 분석 결과와 미리 정해진 주파수 성분을 비교하여 적어도 하나 이상의 음원들의 종류를 판단할 수 있다. 예를 들면 제어부(110)는 적어도 하나 이상의 음원들이 사람의 목소리인지, 동물의 울음소리인지, 전화벨소리인지, 차량의 소리인지 등을 판단할 수 있다. The control unit 110 receives voice or various sounds from various sound sources input through the first through n-th microphones 162-1 through 162-n to distinguish at least one sound source have. At this time, the controller 110 identifies at least one sound source, and then analyzes frequency components of at least one sound source and compares a frequency analysis result of at least one sound source with a predetermined frequency component to determine at least one type of sound sources . For example, the control unit 110 can determine whether at least one sound source is a human voice, a cry of an animal, a telephone ring tone, or a sound of a vehicle.

또한 제어부(110)는 각 음원의 소리 세기를 계산할 수 있고, 음원 거리 계산부(113)를 통해 단말(100)로부터 각 음원까지의 거리를 수신하고, 음원 방향 계산부(115)를 통해 각 음원의 방향을 수신할 수 있다.The control unit 110 can calculate the sound intensity of each sound source and receives the distances from the terminal 100 to the respective sound sources through the sound source distance calculation unit 113, Lt; / RTI >

한편, 본 발명의 다른 실시 예에 따르면 제어부(110)는 제1 내지 제n 마이크(162-1~162-n)가 아니라 보청기(300)로부터 복수의 마이크를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 전달받아 적어도 하나 이상의 음원들을 구별하고, 각 음원의 세기, 방향 및 단말(100)로부터 음원까지의 거리를 계산할 수도 있다. 이러한 경우 보청기(300)는 적어도 두 개 이상의 마이크를 구비하고, 통신을 통해 단말(100)에 적어도 두 개 이상의 마이크를 통해 입력된 각종 음원들에 의한 음성 또는 각종 소리를 전송할 수 있다.According to another embodiment of the present invention, the control unit 110 may not be the first to the n-th microphones 162-1 to 162-n, but may also be a sound source of various sound sources input through the plurality of microphones from the hearing aid 300 voice, or sound to discriminate at least one sound source, and calculate the intensity and direction of each sound source and the distance from the terminal 100 to the sound source. In this case, the hearing aid 300 may include at least two microphones, and may transmit voice or various sounds by various sound sources input through the at least two microphones to the terminal 100 through communication.

제어부(110)는 검출된 물체들의 위치와 검출된 음원의 세기, 음원의 방향, 단말(100)로부터 각 음원까지의 거리를 이용하여 터치 스크린(190)에 단말(100)을 나타내는 단말 이미지와 검출된 음원들을 나타내는 음원 이미지들이 표시되도록 제어한다. 예를 들면, 제어부(110)는 레이더스코프 화면 상에 단말 이미지와 검출된 음원에 해당하는 음원 이미지들을 표시하고, 단말(100)과 각 음원간의 거리, 각 음원의 방향각, 각 음원의 세기 중 적어도 어느 하나를 함께 표시할 수 있다. The control unit 110 detects a terminal image representing the terminal 100 on the touch screen 190 using the detected positions of the objects, the intensity of the detected sound source, the direction of the sound source, and the distances from the terminal 100 to the respective sound sources, So that the sound source images representing the sound sources are displayed. For example, the control unit 110 displays a terminal image and sound source images corresponding to the detected sound source on the radar scope screen, and displays the distance between the terminal 100 and each sound source, the direction angle of each sound source, At least one of them can be displayed together.

이때 제어부(110)는 음원의 종류가 사람의 음성인 경우, 음성에 해당하는 사람의 위치 정보를 파악하고, 통신 서비스 회사 등 외부 업체로부터 음성에 해당하는 사람의 전화번호 및 이름을 제공받고 음원과 함께 음원에 해당하는 사람의 전화번호와 이름을 함께 표시할 수도 있다. At this time, when the type of the sound source is human voice, the controller 110 grasps the location information of the person corresponding to the voice, receives the phone number and name of the person corresponding to the voice from the external service provider such as a communication service company, Together, they can also display the phone number and name of the person corresponding to the sound source.

여기서 레이더스코프 화면은 단말(100)을 중심으로 음원의 거리와 방향을 나타낼 수 있는 화면이다. 음원 이미지는 음원을 나타내는 도형, 캐릭터 등의 이미지일 수 있으며, 음원 이미지는 음원의 세기와 거리에 따라 색깔이나 크기가 구별된 형태를 가질 수 있다. Here, the radar scope screen is a screen capable of indicating the distance and direction of a sound source around the terminal 100. The sound source image may be an image of a figure, a character, or the like representing the sound source, and the sound source image may have a shape in which the color or size is distinguished according to the intensity and distance of the sound source.

예를 들면 음원의 소리의 세기가 큰 경우 음원의 소리가 세기가 작은 경우보다 음원 이미지가 큰 크기를 가지거나 진한 색을 가질 수 있다. 또한 음원이 가까이 있는 경우 음원이 멀리 있는 경우보다 음원을 이미지가 큰 크기를 가지거나 진한 색을 가질 수 있다. 또한 음원 이미지의 모양, 크기 및 색상은 음원의 소리의 세기 및 음원의 거리에 따라 선택적으로 변경 가능할 수 있다. For example, if the sound intensity of a sound source is large, the sound source image may have a larger size or a darker color than when the sound source has a small intensity. Also, if the sound source is close to the sound source, the sound source may have a larger size or a darker color than the sound source is far away. In addition, the shape, size and color of the sound source image can be selectively changed according to the sound intensity of the sound source and the distance of the sound source.

또한, 제어부(110)는 단말 이미지와 음원 이미지들을 레이더스코프 화면이 아닌 미리 정해진 다른 배경을 갖는 음원 위치 표시 화면에 표시되도록 제어할 수도 있다. In addition, the controller 110 may control the terminal image and sound source images to be displayed on the sound source position display screen having a predetermined background other than the radar scope screen.

한편, 제어부(110)는 터치 스크린(190) 상에 예컨대 단말 이미지 및 적어도 하나 이상의 음원 이미지들이 디스플레이된 상태에서, 손가락이나 전자펜 등의 터치 가능한 입력 유닛(168)에 의한 사용자 제스쳐가 존재하는지 판단한다. 이때 제어부(110)는 터치 스크린(190) 상에 사용자가 손가락 또는 입력 유닛(168)을 이용한 제스쳐를 수행함에 따라 발생되는 사용자 제스쳐 입력을 감지할 수 있다. 본 발명의 실시 예에 따르면 사용자 제스쳐 입력은 적어도 터치, 터치&홀드, 드래그, 플릭, 홀드를 포함할 수 있다. 한편, 상기 외에도 다른 형태의 사용자 제스쳐 입력도 가능하다.On the other hand, the control unit 110 determines whether there is a user gesture by the touchable input unit 168 such as a finger or an electronic pen in a state where a terminal image and at least one sound source images are displayed on the touch screen 190 do. At this time, the controller 110 may detect a user gesture input generated when the user performs a gesture using the finger or the input unit 168 on the touch screen 190. According to an embodiment of the present invention, the user gesture input may include at least touch, touch & hold, drag, flick, hold. Other types of user gesture input are also possible.

제어부(110)는 적어도 하나 이상의 음원 이미지들 중 사용자의 제스쳐 입력에 따라 소리를 출력할 음원 이미지를 선택하고, 선택된 음원 이미지 해당하는 음원의 소리를 출력하도록 스피커(163)를 제어할 수 있다. The control unit 110 may control the speaker 163 to select a sound source image to output sound according to a user's gesture input among at least one sound source images and to output a sound of a corresponding sound source image.

또한 제어부(110)는 사용자의 제스쳐 입력에 따라 임의의 음원 이미지에 대해 미리 정해진 복수의 볼륨 단계들 중 적어도 하나의 볼륨 단계가 선택되면, 선택받은 볼륨 단계에 따라 해당 음원의 소리를 출력하도록 스피터(163)를 제어할 수 있다.In addition, when at least one volume level of a predetermined plurality of volume levels is selected for an arbitrary sound source image according to a user's gesture input, the controller 110 controls the speaker (not shown) to output the sound of the corresponding sound source according to the selected volume level 163 can be controlled.

다른 실시 예에 따르면 제어부(110)는 적어도 하나 이상의 음원 이미지들 중 사용자의 제스쳐 입력에 따라 소리를 출력할 음원 이미지를 선택하고, 선택된 음원 이미지 해당하는 음원의 소리를 보청기(300)에 전송하도록 제어하여, 보청기(300)가 선택된 음원 이미지에 해당하는 음원의 소리를 출력하도록 할 수 있다. According to another embodiment of the present invention, the control unit 110 selects a sound source image to output sound according to a user's gesture input among at least one sound source images, and transmits the sound of the corresponding sound source to the hearing aid 300 So that the hearing aid 300 can output the sound of the sound source corresponding to the selected sound source image.

또한 제어부(110)는 사용자의 제스쳐 입력에 따라 임의의 음원 이미지에 대해 미리 정해진 복수의 볼륨 단계들 중 적어도 하나의 볼륨 단계가 선택되면, 선택받은 볼륨 단계에 따라 볼륨이 조절된 음원의 소리를 보청기(300)에 전송하도록 제어하여, 보청기(300)가 볼륨이 조절된 음원의 소리를 출력하도록 할 수 있다.When at least one volume level of a plurality of predetermined volume levels is selected for an arbitrary sound source image according to a user's gesture input, the controller 110 controls the volume of the sound source, (300) so that the hearing aid (300) outputs the sound of the sound source whose volume is adjusted.

이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 단말(100)이 외부 장치와 연결되도록 할 수 있다. 이동통신 모듈(120)은 단말(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다. The mobile communication module 120 may connect the terminal 100 to an external device through mobile communication using at least one or more antennas (not shown) under the control of the controller 110. The mobile communication module 120 is connected to the mobile communication module 120 through a voice communication, a video communication, and a voice communication with a mobile phone (not shown) having a phone number input to the terminal 100, a smart phone (not shown), a tablet PC, And transmits / receives a radio signal for a text message (SMS) or a multimedia message (MMS).

서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다. The sub communication module 130 may include at least one of a wireless LAN module 131 and a local area communication module 132. For example, it may include only the wireless LAN module 131, only the short range communication module 132, or both the wireless LAN module 131 and the short range communication module 132.

무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 휴대 단말(100)과 화상형성장치(도시되지 아니함)사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다. The wireless LAN module 131 may be connected to the Internet at a place where an access point (AP) (not shown) is installed under the control of the controller 110. [ The wireless LAN module 131 supports the IEEE 802.11x standard of the Institute of Electrical and Electronics Engineers (IEEE). The short-range communication module 132 can perform short-range wireless communication between the portable terminal 100 and the image forming apparatus (not shown) under the control of the controller 110. [ The short-distance communication method may include bluetooth, infrared data association (IrDA), WiFi-Direct communication, and Near Field Communication (NFC).

이러한, 단말(100)은 이동 통신 모듈(120) 또는 서브통신 모듈(130) 중 적어도 하나를 통해서 보청기(300)와 통신을 수행할 수 있다. 이때 이동 통신 모듈(120) 또는 서브통신 모듈(130) 중 적어도 하나를 통해서 보청기(300)에 음원의 소리를 전송할 수 있다. 예컨대 이동 통신 모듈(120) 또는 서브통신 모듈(130) 중 적어도 하나를 통해 사용자에 의해 선택된 음원에 해당하는 음원의 소리를 전송할 수 있다. 또한 이동 통신 모듈(120) 또는 서브통신 모듈(130) 중 적어도 하나를 통해 사용자에 의해 선택된 볼륨 단계에 따라 볼륨이 조절된 음원의 소리를 보청기(300)에 전송할 수 있다. The terminal 100 can communicate with the hearing aid 300 through at least one of the mobile communication module 120 and the sub communication module 130. [ At this time, the sound of the sound source can be transmitted to the hearing aid 300 through at least one of the mobile communication module 120 and the sub communication module 130. For example, the sound of the sound source corresponding to the sound source selected by the user through at least one of the mobile communication module 120 or the sub communication module 130. [ Also, the user can transmit the sound of the sound source whose volume is adjusted according to the volume level selected by the user to at least one of the mobile communication module 120 or the sub communication module 130 to the hearing aid 300.

단말(100)은 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 또한, 단말(100)은 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다. 본 발명에서는 이러한, 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나 또는 이들의 조합을 송수신부라 칭하며, 이는 본 발명의 범위를 축소하지 않는다.The terminal 100 may include at least one of a mobile communication module 120, a wireless LAN module 131, and a local communication module 132 according to performance. Also, the terminal 100 may include a combination of the mobile communication module 120, the wireless LAN module 131, and the local communication module 132 according to performance. In the present invention, at least one of the mobile communication module 120, the wireless LAN module 131, and the short-range communication module 132, or a combination thereof, is referred to as a transmission / reception section, and this does not narrow the scope of the present invention.

멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오 재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다. The multimedia module 140 may include a broadcasting communication module 141, an audio reproducing module 142, or a moving picture reproducing module 143. The broadcast communication module 141 receives a broadcast signal (e.g., a TV broadcast signal, a radio broadcast signal, or a data broadcast signal) transmitted from a broadcast station through a broadcast communication antenna (not shown) under the control of the controller 110, (E. G., An Electric Program Guide (EPS) or an Electric Service Guide (ESG)). The audio playback module 142 may play back a digital audio file (e.g., a file having a file extension of mp3, wma, ogg, or wav) stored or received under the control of the controller 110. [ The moving picture playback module 143 may play back digital moving picture files (e.g., files having file extensions mpeg, mpg, mp4, avi, mov, or mkv) stored or received under the control of the controller 110. [ The moving picture reproducing module 143 can reproduce the digital audio file.

멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다. The multimedia module 140 may include an audio reproduction module 142 and a moving picture reproduction module 143 except for the broadcasting communication module 141. [ The audio reproducing module 142 or the moving picture reproducing module 143 of the multimedia module 140 may be included in the controller 110.

카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈(150)은 피사체를 촬영하기 위해 줌 인/줌 아웃을 수행하는 경통부(155), 상기 경통부(155)의 움직임을 제어하는 모터부(154), 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시(153) 중 적어도 하나를 포함할 수 있다. 제1 카메라(151)는 상기 휴대 단말(100) 전면에 배치되고, 제2 카메라(152)는 상기 휴대 단말(100)의 후면에 배치될 수 있다. 달리 취한 방식으로, 제1 카메라(151)와 제2 카메라(152)는 인접(예, 제1 카메라(151)와 제2 카메라(152)의 간격이 1 cm 보다 크고, 8 cm 보다는 작은)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다. 그리고, 카메라 모듈(150)은 촬영된 사진 또는 영상을 제어부(110)에 전송한다.The camera module 150 may include at least one of a first camera 151 and a second camera 152 for capturing still images or moving images under the control of the controller 110. [ The camera module 150 includes a barrel section 155 for zooming in / zooming out to photograph a subject, a motor section 154 for controlling the movement of the barrel section 155, an auxiliary light source And a flash 153 that provides a flash memory. The first camera 151 may be disposed on the front surface of the portable terminal 100 and the second camera 152 may be disposed on the rear surface of the portable terminal 100. The distance between the first camera 151 and the second camera 152 is larger than 1 cm and smaller than 8 cm) in a manner different from the first camera 151 and the second camera 152 Dimensional still image or a three-dimensional moving image. The camera module 150 transmits the photographed photograph or image to the controller 110. [

또한, 제1 및 제2 카메라(151, 152)는 각각 렌즈계, 이미지 센서 등을 포함할 수 있다. 제1 및 제2 카메라(151, 152)는 각각 렌즈계를 통해 입력되는(또는 촬영되는) 광신호를 전기적인 이미지 신호로 변환하여 제어부(110)로 출력하고, 사용자는 이러한 제1 및 제2 카메라(151, 152)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다.The first and second cameras 151 and 152 may each include a lens system, an image sensor, and the like. The first and second cameras 151 and 152 convert an optical signal inputted (or photographed) through a lens system into an electrical image signal and output the electrical signal to the control unit 110, The moving image or the still image can be photographed through the image sensors 151 and 152.

GPS 모듈(157)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 단말(100)까지 전파도달시간(Time of Arrival)을 이용하여 단말(100)의 위치를 산출할 수 있다. The GPS module 157 receives the radio waves from a plurality of GPS satellites (not shown) on the earth orbit, and uses the time of arrival from the GPS satellites (not shown) to the terminal 100 The position of the terminal 100 can be calculated.

입/출력 모듈(160)은 복수의 버튼(161), 제1 내지 제n 마이크(162-1~162-n), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166), 및 이어폰 연결잭(167) 중 적어도 하나를 포함할 수 있다. 그리고, 이러한 입/출력 모듈(160)은 이에 국한되지 않으며, 마우스, 트랙볼, 조이스틱 또는 커서 방향 키들과 같은 커서 컨트롤(cursor control)이 제어부(110)와의 통신 상기 터치 스크린(190) 상의 커서 움직임 제어를 위해 제공될 수 있다.The input / output module 160 includes a plurality of buttons 161, first to nth microphones 162-1 to 162-n, a speaker 163, a vibration motor 164, a connector 165, a keypad 166 , And an earphone connection jack 167. The earphone connection jack 167 may be an earphone jack. The input / output module 160 is not limited to this, and a cursor control such as a mouse, a trackball, a joystick, or cursor direction keys communicates with the control unit 110. The cursor movement control Lt; / RTI >

버튼(161)은 상기 단말(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.Button 161 may be formed on the front, side, or rear surface of the housing of the terminal 100 and may include a power / lock button (not shown), a volume button (not shown), a menu button, A back button, and a search button (not shown).

제1 내지 제n 마이크(162-1~162-n)는 각각 제어부(110)의 제어에 따라 각종 음원에 의한 음성(voice) 또는 각종 소리(sound)를 입력 받아 전기적인 신호를 생성한다. 예를 들면, 제1 내지 제n 마이크(162-1~162-n)는 연주자에 의한 연주하는 소리, 제1 사람에 의한 제1 말소리, 전화에 의한 전화벨 소리, 연설자에 의한 연설 소리 등과 같이 단말(100)의 주변에 존재하는 각종 음원에 의한 소리를 입력받을 수 있다.Each of the first to nth microphones 162-1 to 162-n receives voice or sounds of various sound sources under the control of the controller 110 to generate an electrical signal. For example, the first through n-th microphones 162-1 through 162-n may be a microphone, a sound played by a player, a first speech by a first person, a telephone sound by a telephone, The sound of various sound sources existing in the vicinity of the sound source 100 can be received.

스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 소리를 단말(100) 외부로 출력할 수 있다. 또한, 다른 실시 예에 따르면 스피커(163)는 제어부(110)의 제어에 따라 단말(100) 주변의 음원들 중 사용자에 의해 선택된 음원에 해당하는 소리를 증폭하여 외부로 출력할 수 있다. 이러한 음원에 해당하는 소리는 사용자 제스쳐 입력에 따라 볼륨이 제어될 수 있다. 스피커(163)는 상기 단말(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.The speaker 163 may transmit various signals (for example, a radio signal, a broadcast signal, a radio signal, a radio signal, a radio signal, a radio signal, and the like) of the mobile communication module 120, the sub communication module 130, the multimedia module 140, or the camera module 150 under the control of the controller 110. [ A digital audio file, a digital moving picture file, a picture photographing, or the like) to the outside of the terminal 100. In addition, according to another embodiment, the speaker 163 may amplify the sound corresponding to the sound source selected by the user among the sound sources around the terminal 100 under the control of the controller 110, and output the amplified sound to the outside. The sound corresponding to such a sound source can be controlled in volume according to the user gesture input. The speaker 163 may be formed at one or a plurality of appropriate positions or positions of the housing of the terminal 100.

진동 모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 단말(100)은 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 단말(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치 스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치 스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다. The vibration motor 164 can convert an electrical signal into a mechanical vibration under the control of the control unit 110. [ For example, when the terminal 100 in the vibration mode receives a voice call from another device (not shown), the vibration motor 164 operates. Or may be formed in the housing of the terminal 100. The vibration motor 164 may operate in response to the user's touching operation on the touch screen 190 and the continuous movement of the touch on the touch screen 190.

커넥터(165)는 상기 단말(100)과 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 상기 단말(100)은 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 단말(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 상기 단말(100)은 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.The connector 165 may be used as an interface for connecting the terminal 100 to an external device (not shown) or a power source (not shown). The terminal 100 transmits data stored in the storage unit 175 of the terminal 100 to an external device (not shown) through a cable connected to the connector 165 under the control of the controller 110, May receive data from a device (not shown). In addition, the terminal 100 may receive power from a power source (not shown) through a wire cable connected to the connector 165, or may charge the battery (not shown) using the power source.

키패드(166)는 휴대 단말(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 단말(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치 스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 휴대 단말(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 휴대 단말(100)의 성능 또는 구조에 따라 제외될 수 있다. The keypad 166 may receive a key input from a user for control of the mobile terminal 100. [ The keypad 166 includes a physical keypad (not shown) formed on the portable terminal 100 or a virtual keypad (not shown) displayed on the touch screen 190. A physical keypad (not shown) formed in the portable terminal 100 may be excluded depending on the performance or structure of the portable terminal 100. [

이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(도시되지 아니함)이 삽입되어 상기 단말(100)에 연결될 수 있다. An earphone connecting jack (earphone connecting jack) 167 may be connected to the terminal 100 by inserting an earphone (not shown).

입력 유닛(168)은 단말(100) 내부에 삽입되어 보관될 수 있으며, 사용시에는 상기 단말(100)로부터 인출 또는 탈착될 수 있다. 이러한, 입력 유닛(168)이 삽입되는 단말(100) 내부의 일 영역에는 상기 입력 유닛(168)의 장착 및 탈착에 대응하여 동작하는 탈부착 인식 스위치(미도시)가 구비되어, 제어부(110)로 상기 입력 유닛(168)의 장착 및 탈착에 대응하는 신호를 제공할 수 있다. 탈부착 인식 스위치는 입력 유닛(168)이 삽입되는 일 영역에 마련되어, 상기 입력 유닛(168)의 장착시 직간접적으로 접촉되도록 구비된다. 이에 따라, 탈부착 인식 스위치는 상기 입력 유닛(168)과의 직간접적으로 접촉에 기초하여, 상기 입력 유닛(168)의 장착이나 탈착에 대응하는 신호를 생성하고, 제어부(110)에 제공한다. The input unit 168 may be inserted and stored in the terminal 100, and may be taken out or removed from the terminal 100 during use. A detachable attachment recognition switch (not shown) is provided in one area of the terminal 100 in which the input unit 168 is inserted and is operated in response to attachment and detachment of the input unit 168, And can provide signals corresponding to the mounting and dismounting of the input unit 168. The attachment / detachment recognition switch is provided in a region where the input unit 168 is inserted, and is provided so as to be in direct or indirect contact with the input unit 168 when the input unit 168 is mounted. Thus, the detachable attachment recognition switch generates a signal corresponding to the attachment or detachment of the input unit 168, based on the direct or indirect contact with the input unit 168, and provides the signal to the control unit 110.

센서 모듈(170)은 단말(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 단말(100)에 대한 접근 여부를 검출하는 근접센서, 단말(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 또는 단말(100)의 동작(예, 휴대 단말(100)의 회전, 휴대 단말(100)에 가해지는 가속도 또는 진동)을 검출하는 모션 센서(도시되지 아니함), 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor)(172), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 단말(100)의 성능에 따라 추가되거나 삭제될 수 있다.The sensor module 170 includes at least one sensor for detecting the state of the terminal 100. [ For example, the sensor module 170 may include a proximity sensor that detects whether the user accesses the terminal 100, an illuminance sensor (not shown) that detects the amount of light around the terminal 100, A motion sensor (not shown) for detecting the motion of the portable terminal 100 (e.g., rotation of the portable terminal 100, acceleration or vibration applied to the portable terminal 100), detection of a point of the compass using a geomagnetic field A gravity sensor that detects the direction of action of gravity, and an altimeter that measures the altitude by measuring the atmospheric pressure. At least one of the sensors may detect the state, generate a signal corresponding to the detection, and transmit the signal to the control unit 110. The sensor of the sensor module 170 may be added or deleted depending on the performance of the terminal 100.

저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(157), 입/출력 모듈(160), 센서 모듈(170), 터치 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 단말(100) 또는 제어부(110)의 제어를 위한 제어 복수의 프로그램 및 복수의 애플리케이션들을 저장할 수 있다.The storage unit 175 is connected to the mobile communication module 120, the sub communication module 130, the multimedia module 140, the camera module 150, the GPS module 157, the input / And may store signals or data input / output corresponding to the operation of the touch panel 160, the sensor module 170, and the touch screen 190. The storage unit 175 may store a plurality of control programs and a plurality of applications for controlling the portable terminal 100 or the control unit 110. [

이러한, 저장부라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 단말(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD)또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다. The storage unit may include a storage unit 175, a ROM 112 in the control unit 110, a RAM 113 or a memory card (not shown) (e.g., an SD card, a memory stick ). The storage unit may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

또한, 상기 저장부(175)는 네비게이션, 화상 통화, 게임, 사용자에게 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 상기 단말(100)을 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면, 레이더스코프 화면, 음원 위치 표시 화면 등) 또는 운영 프로그램들, 카메라 모듈(150)에 의해 촬영된 정지 이미지들 및 영상 등을 저장할 수 있다. 상기 저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 기계로 읽을 수 있는 매체는 저장 매체일 수 있다. 상기 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다. The storage unit 175 may store various applications such as navigation, a video call, a game, a time-based alarm application to the user, and an image for providing a graphical user interface (GUI) (Such as a menu screen, a standby screen, a radar scope screen, a sound source location display screen, etc.) necessary for driving the terminal 100, or a database or data related to a method of processing a touch input, Operating programs, still images captured by the camera module 150, images, and the like. The storage unit 175 is a medium that can be read by a machine (e.g., a computer). The term " machine-readable medium " is defined as a medium for providing data to the machine . The machine-readable medium may be a storage medium. The storage unit 175 may include non-volatile media and volatile media. All such media must be of a type such that the commands conveyed by the medium can be detected by a physical mechanism that reads the commands into the machine.

상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM) 중의 적어도 하나를 포함한다.The machine-readable medium includes, but is not limited to, a floppy disk, a flexible disk, a hard disk, a magnetic tape, a compact disc read-only memory (CD-ROM) At least one of a punch card, a paper tape, a programmable read-only memory (PROM), an erasable PROM (EPROM), and a flash-EPROM .

전원 공급부(180)는 제어부(110)의 제어에 따라 단말(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 단말(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 단말(100)로 공급할 수 있다. 또한, 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 단말(100)로 공급할 수도 있다. The power supply unit 180 may supply power to one or a plurality of batteries (not shown) disposed in the housing of the terminal 100 under the control of the controller 110. One or more batteries (not shown) supply power to the terminal 100. In addition, the power supply unit 180 may supply power input from an external power source (not shown) to the terminal 100 through a wired cable connected to the connector 165. In addition, the power supply unit 180 may supply power to the terminal 100, which is wirelessly input from an external power source through wireless charging technology.

그리고, 단말(100)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영, 음원 위치 표시)에 대응되는 유저 인터페이스를 제공하는 적어도 하나의 터치 스크린을 포함할 수 있다. 이러한, 각각의 터치 스크린은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 해당 터치 스크린 컨트롤러로 전송할 수 있다. 이와 같이, 단말(100)은 복수의 터치 스크린을 구비할 수 있는데, 각각의 터치 스크린 별로 터치에 대응되는 아날로그 신호를 수신하는 터치 스크린 컨트롤러가 구비될 수 있다. 본 발명에 따른 단말(100)은 적어도 하나의 터치 스크린을 구비할 수 있으며, 이하에서는 설명 편의상 하나의 터치 스크린의 경우에 대해서 설명한다.The terminal 100 may include at least one touch screen that provides a user interface corresponding to various services (e.g., call, data transmission, broadcasting, photo shooting, sound source location display) to the user. Each of the touch screens may transmit an analog signal corresponding to at least one touch input to the user interface to the corresponding touch screen controller. As described above, the terminal 100 may include a plurality of touch screens, and each of the touch screens may include a touch screen controller for receiving an analog signal corresponding to a touch. The terminal 100 according to the present invention may include at least one touch screen. Hereinafter, one touch screen will be described for convenience of explanation.

터치 스크린(190)은 사용자의 신체(예, 검지를 포함하는 손가락) 또는 터치 가능한 입력 유닛(168)(예, 스타일러스 펜, 전자펜)을 통해 적어도 하나의 사용자 제스쳐를 입력받을 수 있다. 또한, 터치 스크린(190)은 스타일러스 펜 또는 전자펜과 같은 펜을 통해서 입력되면, 이를 인식하는 펜 인식 패널(미도시)을 포함하며, 이러한 펜 인식 패널은 펜과 터치 스크린(190)간의 거리를 자기장을 통해 파악할 수 있다. 또한, 터치 스크린(190)은 적어도 한번의 터치의 연속적인 움직임을 사용자 제스쳐로서 입력받을 수 있다. 터치 스크린(190)은 입력되는 사용자 제스쳐에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 전송할 수 있다. The touch screen 190 may receive at least one user gesture via a user's body (e.g., a finger including an index finger) or a touchable input unit 168 (e.g., a stylus pen, an electronic pen). In addition, the touch screen 190 includes a pen recognition panel (not shown) that recognizes when input through a pen, such as a stylus pen or an electronic pen, recognizes the distance between the pen and the touch screen 190 It can be grasped through the magnetic field. In addition, the touch screen 190 may receive a continuous movement of at least one touch as a user gesture. The touch screen 190 may transmit an analog signal corresponding to the inputted user gesture to the touch screen controller 195.

이러한, 터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다. The touch screen 190 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an acoustic wave method.

또한, 터치 스크린(190)은 사용자의 신체 및 터치 가능한 입력 유닛(168)에 의한 입력을 순차적 또는 동시에 입력 받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 유닛(168)의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력 값을 터치 스크린 컨트롤러(195)에 제공하고, 터치 스크린 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널(미도시)에서 입력되는 값을 서로 다르게 인식하여, 터치 스크린(190)으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 유닛에 의한 입력인지를 구분할 수 있다.In addition, the touch screen 190 may be configured to detect touch or proximity of the user's body and the touchable input unit 168, respectively, so that the touch screen 190 can receive input by the user's body and the touchable input unit 168 sequentially And at least two touchscreen panels that are capable of < RTI ID = 0.0 > The at least two touch screen panels provide different output values to the touch screen controller 195, and the touch screen controller 195 recognizes different values input from the at least two touch screen panels (not shown) , It is possible to distinguish whether the input from the touch screen 190 is input by the user's body or input by the touchable input unit.

보다 상세하게, 터치 스크린(190)은 손가락 또는 입력 유닛(168)을 통한 입력을 유도 기전력의 변화를 통해 감지하는 패널과, 터치 스크린(190)에 손가락 또는 입력 유닛(168)을 통한 접촉을 감지하는 패널이 서로 밀착되거나 또는 일부 이격되어 차례로 적층된 구조로 형성될 수 있다. 이러한, 터치 스크린(190)은 다수의 픽셀들을 구비하고, 상기 픽셀들을 통해 영상을 표시한다. 이러한 터치 스크린(190)은 액정 표시 장치(Liquid Crystal Display: LCD), 유기 발광 다이오드(Organic Light Emitting Diodes: OLED 및 LED등을 사용할 수 있다.More specifically, the touch screen 190 includes a panel that senses input through a finger or an input unit 168 through a change in induced electromotive force, and a touch panel that senses contact with the touch screen 190 via a finger or an input unit 168 The panels may be formed in a structure in which the panels are in close contact with each other or are partially spaced apart and stacked in order. The touch screen 190 includes a plurality of pixels, and displays an image through the pixels. The touch screen 190 may be a liquid crystal display (LCD), an organic light emitting diode (OLED), or an LED.

도 3은 본 발명의 실시 예에 따른 단말(100)이 주변에 존재하는 적어도 하나 이상의 음원들을 디스플레이하는 동작을 나타낸 도면이다.3 is a diagram illustrating an operation of displaying at least one sound source in the vicinity of the terminal 100 according to an embodiment of the present invention.

도 3을 참조하면, 단말(100)은 310동작에서 지자기 센서(172)를 이용하여 단말(100)의 위치를 기준으로 동서남북의 방위를 검출할 수 있다. 구체적으로 단말(100)은 GPS 모듈(157)을 이용하여 단말(100)의 위치를 검출하고, 지자기 센서(172)를 이용하여 단말(100)의 위치를 기준으로 동서남북의 방위를 검출할 수 있다.Referring to FIG. 3, the terminal 100 can detect the directions of the north, south, east, and west directions based on the position of the terminal 100 using the geomagnetic sensor 172 in operation 310. Specifically, the terminal 100 detects the position of the terminal 100 using the GPS module 157 and detects the orientation of the terminal 100 based on the position of the terminal 100 using the geomagnetic sensor 172 .

단말(100)은 320동작에서 반사파를 이용하여 단말 사방의 물체들을 감지하고, 감지된 물체들의 위치를 검출할 수 있다. 예컨대 단말(100)은 반사파 송수신부(113)를 통해 전자기파 신호를 사방으로 송신하고, 전자기파 신호가 물체에 부딪혀 반사되는 반사파 신호를 수신할 수 있다. 그리고 단말(100)은 수신된 반사파 신호를 이용하여 적어도 하나 이상의 물체들을 감지하고, 단말(100)의 위치를 기준으로 사방에 존재하는 적어도 하나 이상의 물체들의 위치를 검출할 수 있다.The terminal 100 can detect the objects in the four sides of the terminal using the reflected wave in the operation 320 and detect the positions of the sensed objects. For example, the terminal 100 can transmit an electromagnetic wave signal through the reflected wave transmission / reception section 113 in all directions, and can receive a reflected wave signal in which the electromagnetic wave signal is reflected by being hit by an object. The terminal 100 can detect at least one or more objects using the received reflected wave signal and detect the position of at least one or more objects existing in all directions on the basis of the position of the terminal 100.

단말(100)은 330 동작에서 복수의 마이크들을 통해 입력된 소리를 분석하여 적어도 하나 이상의 음원들을 구별할 수 있다. 예컨대 단말(100)은 제1 내지 제n 마이크(162-1~162-n)를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 분석하여 적어도 하나 이상의 음원들을 구별할 수 있다. 다른 실시 예에 따르면 단말(100)은 제1 내지 제n 마이크(162-1~162-n)가 아니라 보청기(300)로부터 복수의 마이크를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 전달받아 적어도 하나 이상의 음원들을 구별할 수도 있다.The terminal 100 can distinguish at least one sound source by analyzing sound input through a plurality of microphones in operation 330. [ For example, the terminal 100 may analyze voice or various sounds by various sound sources input through the first to n-th microphones 162-1 to 162-n to distinguish at least one sound source . According to another embodiment, the terminal 100 is not a first to an n-th mics 162-1 to 162-n, but a voice or a voice of various kinds of sound sources input through a plurality of microphones from the hearing aid 300 It is also possible to distinguish at least one sound source by receiving a sound.

단말(100)은 340 동작에서 적어도 하나 이상의 음원들에 대해 각 음원의 소리 세기, 각 음원의 방향, 단말(100)로부터 각 음원까지의 거리를 계산한다. 예컨대 단말(100)은 제1 내지 제n 마이크(162-1~162-n)를 통해 입력된 각종 음원들에 의한 음성(voice) 또는 각종 소리(sound)를 분석하여 각 음원의 소리 세기를 계산할 수 있다. 또한 제어부(110)는 음원 거리 계산부(113)를 통해 단말(100)로부터 각 음원까지의 거리를 계산하고, 음원 방향 계산부(115)를 통해 각 음원의 방향을 계산할 수 있다.In operation 340, the terminal 100 calculates the sound intensity of each sound source, the direction of each sound source, and the distance from the terminal 100 to each sound source, for at least one sound source. For example, the terminal 100 analyzes voices or various sounds by various sound sources input through the first through n-th microphones 162-1 through 162-n, and calculates sound intensity of each sound source . The control unit 110 may calculate distances from the terminal 100 to the respective sound sources through the sound source distance calculation unit 113 and calculate directions of the sound sources through the sound source direction calculation unit 115.

단말(100)은 350 동작에서 상기 검출된 물체들의 위치와 상기 계산된 음원의 세기, 음원의 방향, 단말(100)로부터 각 음원까지의 거리를 이용하여 단말(100)과 단말(100) 주변에 존재하는 적어도 하나 이상의 음원들을 표시한다. The terminal 100 is operated in the vicinity of the terminal 100 and the terminal 100 by using the positions of the detected objects and the calculated intensity of the source, the direction of the source, and the distances from the terminal 100 to the respective sources, And displays at least one sound source present.

예를 들면, 단말(100)은 단말(100) 주변에 존재하는 적어도 하나 이상의 음원들 중 터치 스크린(190)상에 표시할 적어도 하나의 음원을 선택하고, 선택된 적어도 하나의 음원들에 대해 상기 터치 스크린 상에 표시될 위치를 결정한다. 그리고 단말(100)은 터치 스크린 상에 결정된 위치에 적어도 하나의 음원들을 표시한다. For example, the terminal 100 may select at least one sound source to be displayed on the touch screen 190 among at least one sound sources existing around the terminal 100, And determines the position to be displayed on the screen. The terminal 100 displays at least one sound source at a determined position on the touch screen.

이때 단말(100)은 단말(100) 주변에 존재하는 적어도 하나 이상의 음원들 중 단말(100)로부터 미리 정해진 거리 이내의 음원들을 터치 스크린(190) 상에 표시할 적어도 하나의 음원으로 선택하거나, 미리 정해진 소리 세기 이상의 소리 세기를 갖는 음원을을 터치 스크린(190) 상에 표시할 적어도 하나의 음원으로 선택할 수 있다.At this time, the terminal 100 may select sound sources within a predetermined distance from the terminal 100 among at least one sound source existing around the terminal 100 as at least one sound source to be displayed on the touch screen 190, It is possible to select a sound source having sound intensity equal to or higher than a predetermined sound intensity as at least one sound source to be displayed on the touch screen 190. [

또한 선택된 적어도 하나의 음원들 각각이 상기 터치 스크린 상의 어느 위치에 표시될 지에 대한 결정은 상기 터치 스크린(190)의 크기, 상기 단말(100)로부터 상기 적어도 하나의 음원들 간의 거리를 고려하여 결정될 수 있다.The determination of where each of the selected at least one sound sources is to be displayed on the touch screen may be determined by considering the size of the touch screen 190 and the distance between the at least one sound sources from the terminal 100 have.

예들 들면, 상기 터치 스크린(190) 상의 중앙 지점을 실제 단말(100)의 위치로 가정하고, 상기 터치 스크린(190)의 크기를 고려하여 실제 단말(100)로부터 상기 적어도 하나의 음원들 간의 거리가 반영되도록 상기 터치 스크린 상의 중앙 지점을 기준으로 적어도 하나의 음원들의 위치를 결정할 수 있다. For example, assuming that the center point on the touch screen 190 is the position of the actual terminal 100, and the distance between the at least one sound source from the actual terminal 100 in consideration of the size of the touch screen 190 The position of at least one sound source may be determined based on the center point on the touch screen.

이때, 단말(100)은 터치 스크린(190)상의 단말(100)의 위치에는 단말(100)을 나타내는 단말 이미지를 표시할 수 있고, 터치 스크린(190) 상의 적어도 하나 이상의 음원들의 위치에는그 적어도 하나 이상의 음원들을 나타내는 음원 이미지들을 표시할 수 있다. At this time, the terminal 100 may display the terminal image representing the terminal 100 in the position of the terminal 100 on the touch screen 190, and may display at least one of the at least one sound source on the touch screen 190 The sound source images representing the above sound sources can be displayed.

이때 단말(100)은 미리 정해진 표시 방식의 화면 상에 단말 이미지와 검출된 음원에 해당하는 음원 이미지들을 표시하고, 단말(100)과 각 음원간의 거리, 각 음원의 방향각, 각 음원의 세기, 각 음원의 종류 중 적어도 어느 하나를 함께 표시할 수 있다.At this time, the terminal 100 displays the terminal image and the sound source images corresponding to the detected sound source on the screen of the predetermined display method, and displays the distance between the terminal 100 and each sound source, the direction angle of each sound source, At least one of the types of sound sources can be displayed together.

음원 이미지는 음원을 나타내는 도형, 캐릭터 등일 수 있으며, 음원 이미지는 음원의 세기와 거리에 따라 색깔이나 크기가 구별된 형태를 가질 수 있다. 예를 들면 음원의 소리의 세기가 큰 경우 음원의 소리가 세기가 작은 경우보다 음원 이미지가 큰 크기를 가지거나 진한 색을 가질 수 있다. 또한 음원이 가까이 있는 경우 음원이 멀리 있는 경우보다 음원을 이미지가 큰 크기를 가지거나 진한 색을 가질 수 있다. 또한 음원 이미지의 모양, 크기 및 색상은 음원의 소리의 세기 및 음원의 거리에 따라 선택적으로 변경 가능할 수 있다. 또한 음원 이미지는 음원이 사람의 음성인지, 전화 벨소리인지, 악기 소리인지 등과 같은 음원의 종류에 따라 그 음원의 종류를 나타내는 형태를 가질 수도 있다. The sound source image may be a figure, a character, or the like representing the sound source, and the sound source image may have a shape in which the color or size is distinguished according to the intensity and distance of the sound source. For example, if the sound intensity of a sound source is large, the sound source image may have a larger size or a darker color than when the sound source has a small intensity. Also, if the sound source is close to the sound source, the sound source may have a larger size or a darker color than the sound source is far away. In addition, the shape, size and color of the sound source image can be selectively changed according to the sound intensity of the sound source and the distance of the sound source. Also, the sound source image may have a form indicating the type of the sound source depending on the type of sound source such as whether the sound source is a human voice, a phone ring tone, or a musical instrument sound.

이때 제어부(110)는 음원의 종류가 사람의 음성인 경우, 음성에 해당하는 사람의 위치 정보를 파악하고, 통신 서비스 회사 등 외부 업체로부터 음성에 해당하는 사람의 전화번호 및 이름을 제공받고 음원과 함께 음원에 해당하는 사람의 전화번호와 이름을 함께 표시할 수도 있다. At this time, when the type of the sound source is human voice, the controller 110 grasps the location information of the person corresponding to the voice, receives the phone number and name of the person corresponding to the voice from the external service provider such as a communication service company, Together, they can also display the phone number and name of the person corresponding to the sound source.

한편 단말(100)과 단말(100) 주변에 존재하는 음원들을 표시하기 위한 미리 정해진 표시 방식은 레이더스코프 표시 방식 또는 레이더스코프 표시 방식이 아닌 음원 위치 표시 방식을 포함하며, 본 발명의 실시 예에 언급되지 않은 다른 표시 방식도 가능하다. Meanwhile, the predetermined display method for displaying the sound sources existing in the vicinity of the terminal 100 and the terminal 100 includes a sound source position display method that is not a radar scope display method or a radar scope display method. Other display methods are not possible.

먼저 레이더스코프 표시 방식에 따라 단말(100)과 단말(100) 주변에 존재하는 음원들을 표시하는 경우를 설명하면, 도 4는 본 발명의 실시 예에 따른 단말 주변에 존재하는 음원들을 표시하기 위한 레이더스코프 화면을 나타낸 도면이다. First, a description will be made of a case where the sound sources existing in the vicinity of the terminal 100 and the terminal 100 are displayed according to the radar scope display method. FIG. 4 is a block diagram of a radar system for displaying sound sources existing around the terminal according to an embodiment of the present invention. Fig.

도 4를 참조하면, 레이더스코프 화면은 단말(100)을 중심으로 음원의 거리와 방향을 나타낼 수 있는 화면이다. 레이더스코프 화면에는 동서남북(N, W, S, E)을 나타내는 방위가 표시되고, 단말(100)을 나타내는 단말 이미지(40)와, 음원을 나타내는 적어도 하나의 음원 이미지들(41~44)이 표시될 수 있다. 또한 레이더스코프 화면에는 단말(100)과 각 음원간의 거리가 표시될 수 있으며, 각 음원에 대한 소리 세기(47) 및 각 음원의 방향각(49)이 표시될 수 있다. Referring to FIG. 4, the radar scope screen is a screen capable of indicating the distance and direction of a sound source around the terminal 100. The radar scope screen displays azimuths indicating north, south, east, west, north, south, east, west, west, south, east, . Also, the distance between the terminal 100 and each sound source can be displayed on the radar scope screen, and the sound intensity 47 and the direction angle 49 of each sound source can be displayed for each sound source.

도 5는 본 발명의 실시 예에 따른 단말 주변에 존재하는 음원들을 표시하기 위한 음원 위치 표시 화면을 나타낸 도면이다. 5 is a view illustrating a sound source location display screen for displaying sound sources existing in the vicinity of a terminal according to an embodiment of the present invention.

도 5를 참조하면, 음원 위치 표시 화면은 단말(100)을 중심으로 음원의 위치를 나타낼 수 있는 화면이다. 음원 위치 표시 화면에는 단말(100)을 나타내는 단말 이미지(50)와, 음원을 나타내는 적어도 하나의 음원 이미지들(51~55)이 표시될 수 있다. 적어도 하나의 음원 이미지들(51~55)은 음원의 세기에 따라 음원의 소리의 세기가 큰 경우 음원의 소리가 세기가 작은 경우보다 음원 이미지가 진한 색으로 표시될 수 있다. 또한 음원 이미지는 음원이 사람의 음성(Bla Bla)인지, 전화 벨소리(Phone Ring)인지가 나타나도록 표시될 수 있다. Referring to FIG. 5, the sound source position display screen is a screen that can indicate the position of a sound source around the terminal 100. In the sound source position display screen, a terminal image 50 indicating the terminal 100 and at least one sound source images 51 to 55 indicating a sound source may be displayed. The sound source images 51 to 55 may be displayed in a darker color than when the sound source intensity is small depending on the intensity of the sound source. The sound source image may also be displayed such that the sound source is a human voice (Bla Bla) or a phone ring sound.

상기한 바와 같이 단말(100) 주변의 음원들이 표시된 상태에서, 단말(100)은 사용자 제스쳐 입력에 따라 음원을 선택하여 선택된 음원의 소리를 출력할 수 있고, 음원의 소리 출력 시 볼륨을 조절할 수 있다.As described above, in a state in which the sound sources around the terminal 100 are displayed, the terminal 100 can select a sound source according to a user gesture input, output the sound of the selected sound source, and adjust the volume of the sound source .

도 6은 본 발명의 실시 예에 따른 단말(100)의 음원의 소리 출력 동작에 대한 흐름도이고, 도 7은 본 발명의 실시 예에 따른 단말(100) 주변의 음원들이 표시된 화면을 나타낸 도면이다. FIG. 6 is a flowchart illustrating a sound output operation of a sound source of the terminal 100 according to an embodiment of the present invention. FIG. 7 is a view illustrating a screen of the sound sources around the terminal 100 according to an embodiment of the present invention.

도 6 및 도 7을 참조하면, 610동작에서 단말(100)은 단말 이미지(70)와 단말(100) 주변의 음원들에 해당하는 음원 이미지들(71~75)이 표시된 화면에서 사용자에 의해 음원 이미지가 터치되는지 판단할 수 있다. 사용자는 손가락이나 터치펜 또는 스타일러스 등의 입력 유닛(168)을 통해 화면상의 음원 이미지를 터치할 수 있다. 6 and 7, in operation 610, the terminal 100 displays the sound source images 71 to 75 corresponding to sound sources around the terminal image 70 and the terminal 100, It is possible to judge whether or not the image is touched. The user can touch the sound source image on the screen through the input unit 168 such as a finger, a touch pen, or a stylus.

만약 음원 이미지가 터치되면 단말(100)은 620 동작에서 터치된 음원 이미지에 해당하는 음원의 소리를 출력할 수 있다. 예를 들면, 도 7의 (a)와 같이 BlaBla3에 해당하는 음원 이미지(71)가 터치된 경우 단말(100)은 터치된 음원 이미지(71)에 대한 음원의 소리를 출력할 수 있다. 이때 다른 실시 예에 따르면 단말(100)은 터치된 음원 이미지에 해당하는 음원의 소리를 보청기(300)로 전송하고, 보청기(300)에 의해 음원의 소리가 출력되도록 할 수 있다.If the sound source image is touched, the terminal 100 can output the sound of the sound source corresponding to the touched source image in operation 620. [ For example, when the sound source image 71 corresponding to BlaBla3 is touched as shown in FIG. 7 (a), the terminal 100 can output the sound of the sound source for the touched sound source image 71. [ At this time, according to another embodiment, the terminal 100 may transmit the sound of the sound source corresponding to the touched sound source image to the hearing aid 300 and output the sound of the sound source by the hearing aid 300. [

한편, 도 7의 (a)와 같이 BlaBla3에 해당하는 음원 이미지(71)가 터치된 경우 도 7의 (b)와 같이 터치된 음원 이미지(71)를 식별할 수 있도록 터치되지 않은 음원 이미지들(72~75)는 터치된 음원 이미지(71)와 다른 방식으로 표시될 수 있다. 이때 복수의 음원 이미지들이 터치된 경우, 복수의 음원들에 해당하는 음원들의 소리가 출력될 수 있고, 터치된 복수의 음원 이미지들이 터치되지 않은 다른 음원 이미지들과 구별되도록 다른 방식으로 표시될 수도 있다. 7 (a), when the sound source image 71 corresponding to BlaBla3 is touched, the sound source images 71 that have not been touched to identify the touched sound source image 71 as shown in FIG. 7 (b) 72 to 75 may be displayed in a manner different from the touched sound source image 71. In this case, when a plurality of sound source images are touched, sounds of sound sources corresponding to a plurality of sound sources may be output, and a plurality of touched source images may be displayed in a different manner so as to be distinguished from other untouched sound source images .

단말(100)은 630 동작에서 사용자에 의해 볼륨 단계가 선택되는지 판단한다. 예를 들면, 사용자 제스쳐를 통해 볼륨 단계를 집중 단계, 보통 단계, 차단 단계 중 어느 하나를 선택할 수 있다. 집중 단계는 볼륨의 크기가 제일 큰 단계일 수 있고, 보통 단계는 볼륨의 크기가 중간 단계일 수 있고, 차단 단계는 볼륨이 차단되는 단계일 수 있다. 또한 상기 볼륨 단계는 선택된 음원의 볼륨의 크기를 다른 음원의 볼륨보다 크게 하는 단계 또는 선택된 음원의 볼륨을 다른 볼륨보다 작게 하는 단계를 더 포함할 수 있다.The terminal 100 determines whether the volume step is selected by the user at operation 630. [ For example, the volume level can be selected through the user gesture as either a concentration step, a normal step, or a blocking step. The concentration step may be the step with the greatest volume size, and the step may be the middle step of the volume, and the step of blocking may be the step of blocking the volume. The volume step may further include the step of making the volume of the selected sound source larger than the volume of the other sound sources, or making the volume of the selected sound source smaller than the other volume.

본 발명의 실시 예에 따르면 볼륨 단계는 상기 3가지 단계 외에 다른 단계로 정해질 수도 있고, 집중 단계, 보통 단계, 차단 단계의 볼륨의 크기는 사용자 또는 개발자에 따라 선택적으로 정해질 수 있다. According to the embodiment of the present invention, the volume level may be determined to be other than the three levels, and the volume of the concentration level, the normal level, and the blocking level may be selectively set according to the user or the developer.

단말(100)은 집중 단계가 선택되었으면 632동작에서 음원의 소리를 집중 단계에 해당하는 볼륨으로 출력할 수 있다. 단말(100)은 보통 단계가 선택되었으면 634동작에서 음원의 소리를 보통 단계에 해당하는 볼륨으로 출력할 수 있다. 단말(100)은 차단 단계가 선택되었으면 636 동작에서 음원의 소리를 차단할 수 있다. 이때 다른 실시 예에 따르면 단말(100)은 선택된 볼륨 단계에 따라 볼륨이 조절된 음원의 소리를 보청기(300)에 전달할 수 있다. 보청기(300)는 볼륨이 조절된 음원의 소리를 출력할 수 있다.If the convergence step is selected, the terminal 100 can output the sound of the sound source to the volume corresponding to the convergence step in operation 632. The terminal 100 may output the sound of the sound source to the volume corresponding to the normal step in the operation 634 if the normal step is selected. The terminal 100 may block the sound of the sound source at operation 636 if the blocking step is selected. At this time, according to another embodiment, the terminal 100 may transmit the sound of the sound source whose volume is adjusted according to the selected volume level to the hearing aid 300. [ The hearing aid 300 can output the sound of the sound source whose volume has been adjusted.

단말(100)은 볼륨 단계가 선택되지 않거나 음원의 소리 출력 중에 640 동작에서 소리 출력 중인 음원 이미지가 터치되는지 판단한다. 만약 소리 출력 중인 음원 이미지가 터치되면 단말(100)은 650 동작에서 음원의 소리 출력을 중단한다.The terminal 100 determines whether the volume step is not selected or the sound source image being sounded in the operation 640 is touched during sound output of the sound source. If the sound source image being sounded is touched, the terminal 100 stops sound output of the sound source in operation 650. [

이때 다른 실시 예에 따르면 단말(100)은 보청기(300)로 음원의 소리를 전송하고 있는 경우 음원의 소리 전송을 중단할 수 있다.At this time, according to another embodiment, when the terminal 100 transmits the sound of the sound source to the hearing aid 300, the sound transmission of the sound source may be stopped.

상기한 바와 같이 단말(100)은 주변의 음원들이 표시된 상태에서, 사용자가 음원을 선택하여 단말(100)이나 보청기(300)가 상기 선택된 음원의 소리를 출력할 수 있도록 하고, 음원의 소리 출력 시 볼륨을 조절할 수 있도록 함으로써, 청각 장애우들이 원하는 음원을 들을 수 있도록 한다.As described above, when the terminal 100 displays the surrounding sound sources, the user selects the sound source so that the terminal 100 or the hearing aid 300 can output the sound of the selected sound source, By allowing the volume to be adjusted, hearing impaired people can hear the desired sound source.

한편, 상기한 본 발명의 실시 예에서는 단말(100)이 사용자 제스쳐 입력 중 터치 여부에 따라 소리를 출력할 음원을 선택하는 경우를 예를 들었지만, 단말(100)은 터치 외에도 다양한 사용자 제스쳐 입력을 인식하여 사용자가 듣고자 하는 즉, 소리를 출력할 음원을 선택할 수 있다. Meanwhile, in the above-described embodiment of the present invention, the terminal 100 selects a sound source to output a sound depending on whether the user touches the user gesture. However, the terminal 100 may recognize various user gesture inputs So that the user can select a sound source to be heard, that is, a sound source to be output.

도 8은 본 발명의 실시 예에 따른 단말에서 사용자 제스쳐 인식에 따른 음원 선택 동작에 대한 흐름도이다. 8 is a flowchart illustrating a sound source selection operation according to user gesture recognition in a terminal according to an embodiment of the present invention.

도 8을 참조하면, 단말(100)은 810 동작에서 사용자 제스쳐 입력을 인식한다. 이때 사용자 제스쳐 입력은 하나의 사용자 제스쳐 입력으로 이루어지거나 복수의 사용자 제스쳐 입력의 순차적인 입력으로 이루어질 수 있다. Referring to FIG. 8, the terminal 100 recognizes a user gesture input in operation 810. The user gesture input may be a single user gesture input or may be a sequential input of a plurality of user gesture inputs.

예를 들면 사용자 제스쳐 입력은 드래그 입력일 수 있다. 또한 사용자 제스쳐 입력은 터치&홀드 입력 후에 플릭 입력일 수 있다. 또한 사용자 제스쳐 입력은 터치&홀드 입력 후에 플릭 입력이 있고 그 다음 홀드 입력이 있는 것일 수 있다. 또한 사용자 제스쳐 입력은 터치&홀드 입력 후에 플릭 입력에 따라 나타난 반경의 원주 상의 특정 지점에 홀드 입력이 있는 것이 될 수 있다. For example, the user gesture input may be a drag input. The user gesture input may also be a flick input after the touch & hold input. The user gesture input may also have a flick input followed by a hold input after the touch & hold input. In addition, the user gesture input may have a hold input at a specific point on the circumference of the radius indicated by the flick input after the touch & hold input.

단말(100)은 사용자 제스쳐 입력 인식 결과 820동작에서 사용자에 의한 사용자 제스쳐 입력이 음원 선택 방향을 지시하는 입력인지 판단한다. 예를 들면, 음원 선택 방향을 지시하는 사용자 제스쳐 입력은 단말 이미지가 선택된 후 소리 출력을 원하는 방향으로의 드래그 입력일 수 있다. The terminal 100 determines whether the user gesture input by the user is an input indicating the sound source selection direction in the result 820 of the user gesture input recognition result. For example, a user gesture input indicating a sound source selection direction may be a drag input in a desired direction after the terminal image is selected.

도 9는 본 발명의 실시 예에 따른 음원 선택 방향을 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면이다. 9 is a diagram for explaining a user gesture input indicating a sound source selection direction according to an embodiment of the present invention.

도 9를 참조하면, 단말(100)은 단말(100) 주변의 적어도 하나의 음원들에 대한 음원 이미지들(91~95)이 표시된 상태에서, 사용자에 의해 단말 이미지(90)로부터 BlaBla 3에 대한 음원 이미지(92) 방향으로 드래그 입력이 있으면, 해당 드래그 입력에 따라 음원 선택 방향을 판단한다. 9, when the terminal 100 displays the sound source images 91 to 95 for at least one sound source in the vicinity of the terminal 100, the terminal 100 selects a terminal image 90 for BlaBla 3 from the terminal image 90 If there is a drag input in the direction of the sound source image 92, the sound source selection direction is determined according to the drag input.

단말(100)은 음원 선택 방향이 결정됨에 따라 822 동작에서 해당 방향의 음원을 선택하고, 선택된 음원의 소리를 출력한다.The terminal 100 selects a sound source in the corresponding direction in operation 822 as the sound source selection direction is determined, and outputs the sound of the selected sound source.

또한 단말(100)은 830 동작에서 사용자 제스쳐 입력이 음원 선택 범위를 지시하는 입력인지 판단한다. 예를 들면, 음원 선택 범위를 지시하는 사용자 제스쳐 입력은 단말 이미지에 터치&홀드 입력이 있고 나서 일정 범위까지의 플릭 입력이 있는 것일 수 있다. Also, the terminal 100 determines in operation 830 whether the user gesture input is an input indicating a sound source selection range. For example, a user gesture input indicating a sound source selection range may have a touch input and a hold input in a terminal image, and then a certain range of flick input.

도 10은 본 발명의 실시 예에 따른 음원 선택 범위를 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면이다. 10 is a diagram for explaining a user gesture input indicating a sound source selection range according to an embodiment of the present invention.

도 10의 (a) 및 (b)를 참조하면, 단말(100)은 단말 이미지(1000)와 단말 이미지(1000) 주변의 적어도 하나의 음원들에 대한 음원 이미지들(1001~1005)이 표시된 상태에서 도 10의 (a)와 같이 사용자에 의해 단말 이미지(1000)에 터치&홀드 입력이 있고 나서, 도 10의 (b)와 같이 일정범위 예컨대 5m범위에 해당하는 플릭 입력이 있으면, 해당 입력에 따라 음원 선택 범위를 판단한다. 이때 단말(100)은 터치&홀드 입력에 따라 터치&홀드 지점을 나타내는 표시를 할 수 있으며, 플릭 입력의 길이에 따라 일정 범위를 결정할 수 있다.10A and 10B, the terminal 100 displays the sound source images 1001 to 1005 for at least one sound source around the terminal image 1000 and the terminal image 1000 When there is a touch input and a hold input in the terminal image 1000 by the user as shown in FIG. 10A, and there is a flick input corresponding to a certain range, for example, a range of 5 m as shown in FIG. 10B, The sound source selection range is determined. At this time, the terminal 100 can display a touch-and-hold point according to the touch-and-hold input, and can determine a certain range according to the length of the flick input.

또한 단말(100)은 840 동작에서 사용자 제스쳐 입력이 음원 선택 거리를 지시하는 입력인지 판단한다. 예를 들면, 음원 선택 거리를 지시하는 사용자 제스쳐 입력은 터치&홀드 입력 후에 플릭 입력이 있고 그 다음 홀드 입력이 있는 것일 수 있다. Also, the terminal 100 determines in operation 840 whether the user gesture input is an input indicating a sound source selection distance. For example, a user gesture input that indicates a source selection distance may be a flick input after the touch & hold input followed by a hold input.

도 11은 본 발명의 실시 예에 따른 음원 선택 거리를 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면이다. 11 is a view for explaining a user gesture input indicating a sound source selection distance according to an embodiment of the present invention.

도 11의 (a) 내지 (c)를 참조하면, 단말(100)은 단말 이미지(1010)와 단말 이미지(1010) 주변의 적어도 하나의 음원들에 대한 음원 이미지들(1011~1015)이 표시된 상태에서 도 11의 (a)와 같이 사용자에 의해 단말 이미지(1010)에 터치&홀드 입력 후, 도 11의 (b)와 같이 일정거리 예컨대 5m거리에 해당하는 플릭 입력이 있으면 해당 입력에 따라 음원 선택 거리를 판단하고, 도 11의 (c)와 같이 단말 이미지(1010)로부터 음원 선택 거리를 나타내는 반경을 표시한다. 또한 플릭 입력에 연속하여 도 11의 (c)와 같이 음원 선택 거리를 나타내는 반경 상에 미리 정해진 시간만큼 터치가 유지되는 홀드 입력이 있으면 단말(100)은 해당 반경의 거리를 음원 선택 거리로 결정한다.11 (a) to 11 (c), the terminal 100 displays the sound source images 1011 to 1015 for at least one sound source around the terminal image 1010 and the terminal image 1010 If the user inputs touch and hold to the terminal image 1010 as shown in FIG. 11A and there is a corresponding flick input at a predetermined distance, for example, 5m, as shown in FIG. 11B, And the radius indicating the sound source selection distance is displayed from the terminal image 1010 as shown in FIG. 11 (c). In addition, when there is a hold input continuously followed by the flick input and the touch is held for a predetermined time on the radius indicating the sound source selection distance as shown in (c) of FIG. 11, the terminal 100 determines the distance of the corresponding radius as the sound source selection distance .

단말(100)은 음원 선택 거리가 결정됨에 따라 832 동작에서 해당 거리 내의 음원을 선택하고, 선택된 음원의 소리를 출력할 수 있다.The terminal 100 can select a sound source within a predetermined distance in the operation 832 and output the sound of the selected sound source as the sound source selection distance is determined.

또한 단말(100)은 850 동작에서 사용자 제스쳐 입력이 음원 선택 위치를 지시하는 입력인지 판단한다. 예를 들면, 음원 선택 위치를 지시하는 사용자 제스쳐 입력은 터치&홀드 입력 후에 플릭 입력에 따라 나타난 반경의 원주 상의 특정 지점에 홀드 입력이 있는 경우가 될 수 있다. Also, the terminal 100 determines whether the user gesture input is an input indicating the sound source selection position in operation 850. [ For example, a user gesture input indicating a sound source selection position may be a case where there is a hold input at a specific point on the circumference of the radius that is indicated by the flick input after the touch & hold input.

도 12는 본 발명의 실시 예에 따른 음원 선택 위치를 지시하는 사용자 제스쳐 입력을 설명하기 위한 도면이다. 12 is a diagram illustrating a user gesture input indicating a sound source selection position according to an embodiment of the present invention.

도 12의 (a) 내지 (d)를 참조하면, 단말(100)은 단말 이미지(1110)와 단말 이미지(1110) 주변의 적어도 하나의 음원들에 대한 음원 이미지들(1111~1115)이 표시된 상태에서 도 12의 (a)와 같이 사용자에 의해 단말 이미지(1110)에 터치&홀드 입력 후, 도 12의 (b)와 같이 일정거리 예컨대 5m거리에 해당하는 플릭 입력이 있으면 해당 입력에 따라 도 12의 (c)와 같이 단말 이미지(1110)로부터 해당 거리의 반경을 표시할 수 있다. 또한 단말(100)은 플릭 입력에 연속하여 도 12의 (d)와 같이 단말로부터의 거리를 나타내는 반경의 원주 상에 임의의 위치에 미리 정해진 시간이상 터치가 유지되는 홀드 입력이 있으면 단말(100)은 해당 반경의 원주 상의 위치를 음원 선택 위치로 결정할 수 있다.12 (a) to 12 (d), the terminal 100 displays the sound source images 1111 to 1115 for at least one sound source around the terminal image 1110 and the terminal image 1110 If a user inputs a touch and hold on the terminal image 1110 as shown in FIG. 12A, and there is a corresponding flick input at a predetermined distance, for example, 5 meters, as shown in FIG. 12B, The radius of the distance from the terminal image 1110 as shown in (c) of FIG. 12 (d), if the terminal 100 has a hold input for holding a touch for a predetermined time or more at an arbitrary position on the circumference of the radius indicating the distance from the terminal, Can determine the position on the circumference of the radius as the sound source selection position.

단말(100)은 음원 선택 위치가 결정됨에 따라 832 동작에서 해당 위치의 음원을 선택하고, 선택된 음원의 소리를 출력할 수 있다.The terminal 100 can select a sound source at the corresponding position in the 832 operation and output the sound of the selected sound source as the sound source selection position is determined.

상기한 바와 같이 본 발명의 실시 예에 따른 단말(100)은 다양한 사용자로부터의 사용자 제스쳐 입력을 인식하여 음원을 선택하여 해당 음원의 소리를 출력함으로써 사용자가 편리하게 원하는 음원의 소리를 청취할 수 있도록 한다.As described above, the terminal 100 according to the embodiment of the present invention recognizes user gesture input from various users, selects a sound source, and outputs a sound of the corresponding sound source so that the user can conveniently listen to the sound of the desired sound source do.

전술한 바와 같은 본 발명의 실시 예에 따르면 단말(100)은 자체적으로 주변의 음원들을 구별하여 표시하고 사용자에 의해 선택된 음원의 소리를 출력하거나, 출력되는 소리의 볼륨을 조절할 수 있다. According to the embodiment of the present invention as described above, the terminal 100 may separately display the sound sources around itself, output sound of the sound source selected by the user, or adjust the volume of the sound to be output.

또한 단말(100)은 보청기(300)로부터 주변의 소리 신호들을 제공받아 단말 주변의 음원들을 표시하고, 사용자에 의해 선택된 음원이 선택되면 선택된 음원의 소리를 보청기(300)에 전달하여 보청기(300)가 선택된 음원의 소리를 출력하도록 할 수 있다. When the user selects a sound source, the terminal 100 transmits the sound of the selected sound source to the hearing aid 300 and outputs the sound to the hearing aid 300. [ Can output the sound of the selected sound source.

또한 단말(100)은 사용자에 의해 음원의 소리에 대한 볼륨 단계가 선택되면, 단말(100)이 볼륨 단계의 볼륨을 가지는 음원의 소리를 보청기(300)에 제공하여 보청기(300)가 볼륨이 조절된 음원의 소리를 출력하도록 할 수 있다.When the volume level of the sound source is selected by the user, the terminal 100 provides the sound of the sound source having the volume level of volume to the hearing aid 300 so that the hearing aid 300 can adjust the volume It is possible to output the sound of the sound source.

이하에서는 본 발명의 실시 예에 따른 보청기(300)의 구성 및 동작에 대해 구체적으로 설명한다.Hereinafter, the configuration and operation of the hearing aid 300 according to the embodiment of the present invention will be described in detail.

도 13은 본 발명의 실시 예에 따른 보청기(300)의 블록 구성도이다. 13 is a block diagram of a hearing aid 300 according to an embodiment of the present invention.

도 13을 참조하면, 보청기(300)는 보청기 제어부(310), 마이크부(320), 변환부(330), 증폭부(340), 출력부(350), 무선부(360), 저장부(370), 전원부(380)를 포함할 수 있다. 보청기 제어부(310)는 보청기(300)의 전반적인 동작을 제어하며, 마이크부(320), 변환부(330), 증폭부(340), 출력부(350), 무선부(360), 저장부(370), 전원부(380)의 동작을 제어한다.13, the hearing aid 300 includes a hearing aid control unit 310, a microphone unit 320, a conversion unit 330, an amplification unit 340, an output unit 350, a radio unit 360, 370, and a power supply unit 380. The hearing aid controller 310 controls the overall operation of the hearing aid 300 and includes a microphone 320, a conversion unit 330, an amplification unit 340, an output unit 350, a radio unit 360, a storage unit 370), and the power supply unit 380.

마이크부(320)는 적어도 두 개 이상의 마이크들을 포함할 수 있으며, 주변 소리를 감지하여 주변 소리를 수신할 수 있다. 예컨대 적어도 두 개 이상의 마이크들은 보청기(300)의 외부에 위치하여 사용자의 귀의 위치에서 주변의 각종 음원들에 의한 아날로그 소리 신호를 입력받고 보청기 제어부(310)의 제어 하에 아날로그 소리 신호를 변환부(330)로 전달할 수 있다.The microphone unit 320 may include at least two microphones, and may receive ambient sounds by sensing ambient sounds. For example, at least two or more microphones are located outside the hearing aid 300 and receive an analog sound signal from various sound sources in the user's ear, and under the control of the hearing aid controller 310, ). ≪ / RTI >

변환부(330)는 마이크부(320)로부터 입력된 아날로그 소리 신호를 디지털 소리 신호로 변환하고, 증폭된 디지털 소리 신호를 아날로그 소리 신호로 변환할 수 있다. 예컨대 변환부(330)는 마이크부(320)로부터 전달된 아날로그 소리 신호를 디지털 소리 신호로 변환하여 보청기 제어부(310)로 전달한다. The conversion unit 330 may convert the analog sound signal input from the microphone unit 320 into a digital sound signal and convert the amplified digital sound signal into an analog sound signal. For example, the converting unit 330 converts the analog sound signal transmitted from the microphone unit 320 into a digital sound signal and transmits the digital sound signal to the hearing aid controller 310.

보청기 제어부(310)는 변환부(330)로부터 전달받은 디지털 소리 신호에 대해 불필요한 잡음 제거, 피드백 제어, 증폭 이득, 비선형 증폭 등의 디지털 신호 처리를 수행한 후, 디지털 신호 처리된 디지털 소리 신호를 다시 변환부(330)로 전달한다. 이때 증폭부(340)는 변환부(330)에 의해 변환된 디지털 소리 신호를 제공받고 보청기 제어부(310)에 의한 증폭 이득에 따라 디지털 소리 신호를 증폭하여 제어부(310)로 제공한다. 변환부(330)는 보청기 제어부(310)로부터 디지털 신호 처리된 디지털 소리 신호를 수신하여 아날로그 소리 신호로 변환하여 출력부(350)로 제공한다. 출력부(350)는 변환부(330)로부터 아날로그 소리 신호를 제공받아 출력한다.The hearing aid controller 310 performs digital signal processing such as unnecessary noise elimination, feedback control, amplification gain, non-linear amplification, and the like on the digital sound signal received from the converting unit 330, To the converting unit 330. At this time, the amplification unit 340 receives the digital sound signal converted by the conversion unit 330, amplifies the digital sound signal according to the amplification gain by the hearing aid control unit 310, and provides the amplified digital sound signal to the control unit 310. The converting unit 330 receives the digital sound signal processed by the hearing aid controller 310 and converts the digital sound signal to an analog sound signal and provides the analog sound signal to the output unit 350. The output unit 350 receives the analog sound signal from the conversion unit 330 and outputs the analog sound signal.

무선부(360)는 이통통신 모듈(미도시) 또는 무선랜 모듈(미도시) 또는 근거리통신 모듈(미도시) 중 어느 하나를 포함할 수 있으며, 단말(100)과 무선 통신을 수행할 수 있다. 근거리 통신 모듈은 적외선 통신 모듈, 블루투스 통신 모듈을 포함할 수 있다. 이러한 무선부(360)는 보청기 제어부(310)의 제어에 따라 단말(100)과 무선통신을 수행하며, 단말(100)로부터 선택된 음원의 소리 신호 또는 볼륨 조절된 음원의 소리 신호를 수신하거나, 단말(100)에 마이크부(320)를 통해 수집된 각종 음원들에 대한 소리 신호를 전송한다. The wireless unit 360 may include any one of a mobile communication module (not shown), a wireless LAN module (not shown), and a local communication module (not shown), and may perform wireless communication with the terminal 100 . The short-range communication module may include an infrared communication module and a Bluetooth communication module. The wireless unit 360 wirelessly communicates with the terminal 100 under the control of the hearing aid controller 310 and receives a sound signal of a selected sound source or a volume adjusted sound source from the terminal 100, And transmits sound signals for various sound sources collected through the microphone unit 320 to the sound source 100.

저장부(370)는 단말(100)로부터 수신된 선택된 음원의 소리 신호 또는 볼륨 조절된 음원의 소리 신호를 저장하거나, 마이크부(320)를 통해 수집된 음원의 소리 신호를 저장한다. The storage unit 370 stores a sound signal of a selected sound source received from the terminal 100 or a sound signal of a volume-controlled sound source, or a sound signal of a sound source collected through the microphone unit 320.

전원부(380)는 보청기(300)의 각 구성요소로 전원을 공급한다.The power supply unit 380 supplies power to the respective components of the hearing aid 300.

본 발명의 실시 예에 따르면 상기한 바와 같이 구성된 보청기(300)는 마이크부(320)를 통해 각종 음원들의 소리 신호들을 입력받아 단말(100)에 전송하고, 단말(100)로부터 각종 음원들의 소리 신호들 중 사용자에 의해 선택된 음원의 소리 신호 및 볼륨이 조절된 음원의 소리 신호를 전달받아 출력할 수 있다. According to the embodiment of the present invention, the hearing aid 300 configured as described above receives sound signals of various sound sources through the microphone unit 320, transmits the sound signals to the terminal 100, The sound signal of the sound source selected by the user and the sound signal of the sound source whose volume is adjusted can be received and output.

도 14는 본 발명의 실시 예에 따른 보청기(300)의 동작 흐름도이다. FIG. 14 is a flowchart of the operation of the hearing aid 300 according to the embodiment of the present invention.

도 14를 참조하면, 보청기(300)는 1410 동작에서 마이크부(320)를 통해 주변의 음원들의 소리 신호를 입력받을 수 있다. 이때 보청기(300)는 보청기(300)의 외부에 위치하며 사용자의 귀의 위치에 존재할 수 있는 적어도 두 개 이상의 마이크들을 통해 주변의 각종 음원들에 의한 아날로그 소리 신호를 입력받을 수 있다.Referring to FIG. 14, the hearing aid 300 can receive a sound signal of nearby sound sources through the microphone unit 320 in operation 1410. At this time, the hearing aid 300 can receive analog sound signals from various surrounding sound sources through at least two microphones which are located outside the hearing aid 300 and may exist at the user's ear position.

보청기(300)는 1420 동작에서 상기 입력받은 각종 음원들에 의한 소리 신호를 단말(100)에 전송할 수 있다. 예를 들면, 보청기(300)는 무선부(360)를 통해 단말(100)과 무선통신할 수 있으며, 무선통신으로 각종 음원들에 의한 소리 신호를 단말(100)에 전송할 수 있다. 이때 단말(100)은 보청기(300)로부터 각종 음원들에 의한 소리 신호를 수신하고, 수신된 각종 음원들에 의한 소리 신호를 이용하여 적어도 하나 이상의 음원들을 구별한 후, 적어도 하나 이상의 음원들에 대해 각 음원의 소리 세기, 각 음원의 방향, 단말(100)로부터 각 음원까지의 거리를 계산하여 단말(100)의 화면에 주변에 존재하는 적어도 하나 이상의 음원들을 표시할 수 있다. The hearing aid 300 can transmit a sound signal by the various sound sources inputted to the terminal 100 in operation 1420. For example, the hearing aid 300 can wirelessly communicate with the terminal 100 through the wireless unit 360, and can transmit sound signals from various sound sources to the terminal 100 by wireless communication. At this time, the terminal 100 receives a sound signal of various sound sources from the hearing aid 300, distinguishes at least one sound source by using a sound signal by the received various sound sources, The sound intensity of each sound source, the direction of each sound source, and the distance from the terminal 100 to each sound source, so that at least one sound source existing around the screen of the terminal 100 can be displayed.

또한 단말(100)은 표시된 적어도 하나 이상의 음원들 중 사용자에 의해 음원이 선택되면 선택된 음원의 소리 신호를 다시 보청기(300)로 전송할 수 있다. 또한 단말(100)은 사용자에 의해 음원의 소리 출력에 대한 볼륨 단계가 선택되면 선택된 볼륨 단계에 따라 볼륨이 조절된 음원의 소리 신호를 보청기(300)로 전송할 수 있다.Also, the terminal 100 may transmit the sound signal of the selected sound source to the hearing aid 300 when the sound source is selected by the user among the displayed at least one sound sources. Also, when the volume step for sound output of the sound source is selected by the user, the terminal 100 may transmit the sound signal of the sound source whose volume has been adjusted to the hearing aid 300 according to the selected volume step.

보청기(300)는 430 동작에서 무선부(360)를 통해 단말(100)로부터 선택된 음원의 소리 신호 또는 볼륨이 조절된 음원의 소리 신호를 수신할 수 있다. The hearing aid 300 can receive a sound signal of a selected sound source or a sound signal of a sound source whose volume has been adjusted from the terminal 100 through the wireless unit 360 in operation 430. [

보청기(300)는 단말(100)로부터 선택된 음원의 소리 신호 또는 볼륨이 조절된 음원의 소리 신호가 수신되면 440동작에서 상기 수신된 선택된 음원의 소리 신호 또는 볼륨이 조절된 음원의 소리 신호를 출력부(350)를 통해 출력한다.When the sound signal of the selected sound source or the sound source of the sound source whose volume is adjusted is received from the terminal 100, the hearing aid 300 outputs the sound signal of the selected sound source or the sound source of the sound source whose volume is adjusted in operation 440, (350).

한편, 상기한 설명에서는 보청기(300)가 마이크부(320)를 통해 입력되는 각종 음원의 소리신호들을 단말(100)에 전송하는 경우를 예를 들어 설명하였지만, 다른 실시 예에 따르면 보청기(300)는 마이크부(320)를 통해 입력되는 각종 음원의 소리 신호들을 무선부(360)를 통해 단말(100)에 전송하지 않고, 단말(100) 자체의 제1 내지 제n 마이크들(162-1~162-n)을 이용하여 제공되는 선택된 음원의 소리 및 볼륨이 조절된 음원의 소리 신호를 전달받아 출력할 수도 있다.In the above description, the case where the hearing aid 300 transmits sound signals of various sound sources input through the microphone 320 to the terminal 100 has been described. However, according to another embodiment, The first through n-th microphones 162-1 through 162-n of the terminal 100 do not transmit sound signals of various sound sources input through the microphone unit 320 to the terminal 100 through the radio unit 360, A sound signal of the selected sound source and a sound signal of the sound source whose volume are adjusted by using the sound source 162-n.

상기한 바와 같은 본 발명의 실시 예들에 따르면, 사용자가 단말(100)의 디스플레이를 활용하여 사용자를 중심으로 사방에 존재하는 음원들의 위치를 알 수 있도록 할 수 있다. According to the embodiments of the present invention as described above, the user can utilize the display of the terminal 100 to know the locations of the sound sources existing in all directions with respect to the user.

또한 본 발명의 실시 예들에 따르면 사용자가 음원들 중 듣기를 원하는 음원을 선택하여 선택된 음원의 소리만 들을 수 있도록 할 수 있고, 음원을 듣는 중 음원의 볼륨을 단계적으로 조절하여 들을 수 있도록 할 수 있다. In addition, according to the embodiments of the present invention, a user can select a sound source desired to be heard among the sound sources to only listen to the selected sound source, and can adjust the volume of the sound source while listening to the sound source .

또한 본 발명의 실시 예들에 따르면 보청기(300)를 사용하는 청각 장애우의 경우 보청기(300)와 단말(100)을 연동함으로써, 단말(100)을 통해 음원들의 위치를 알 수 있도록 하고, 보청기(300)를 통해 원하는 음원의 소리를 들을 수 있도록 할 수 있다. According to the embodiments of the present invention, in the case of a hearing-impaired person using the hearing aid 300, the hearing aid 300 and the terminal 100 are interlocked so that the position of the sound sources can be recognized through the terminal 100, ) So that the sound of the desired sound source can be heard.

또한 본 발명의 실시 예들에 따르면 다양한 사용자 제스쳐를 이용하여 음원들 중 원하는 음원을 들을 수 있도록 함으로써 사용자에게 보다 편리한 UI(User Interface)를 제공할 수 있다.In addition, according to embodiments of the present invention, it is possible to provide a more convenient user interface (UI) to a user by allowing a user to listen to a desired sound source among sound sources using various user gestures.

본 발명의 다양한 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다. Various embodiments of the present invention may be implemented in the form of program instructions that can be executed on various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on the medium may be those specially designed and constructed for the present invention or may be known and available to those of ordinary skill in the computer software arts.

Claims (22)

터치 스크린을 가진 휴대 단말에서 음원의 위치를 제공하는 방법에 있어서,
복수 개의 음원들의 소리 신호를 수신하는 동작과,
상기 복수 개의 음원들 각각의 소리 신호에 기초하여 상기 단말과 상기 복수 개의 음원들 간의 거리 및 방향을 획득하는 동작과,
상기 획득한 복수 개의 음원들 각각의 거리 및 방향을 이용하여 상기 복수 개의 음원들의 상기 터치 스크린 상에서의 위치를 결정하는 동작과,
상기 결정된 위치에 따라 상기 터치 스크린에 상기 복수 개의 음원들의 위치들을 표시하는 동작을 포함하는 것을 특징으로 하는 방법.
A method for providing a position of a sound source in a portable terminal having a touch screen,
An operation of receiving a sound signal of a plurality of sound sources,
Obtaining a distance and a direction between the terminal and the plurality of sound sources based on a sound signal of each of the plurality of sound sources;
Determining a position of the plurality of sound sources on the touch screen by using the distance and direction of each of the plurality of sound sources obtained;
And displaying the locations of the plurality of sound sources on the touch screen according to the determined location.
제1항에 있어서,
상기 복수 개의 음원들의 상기 터치 스크린 상에서의 위치를 결정하는 동작은,
상기 복수 개의 음원들 중 상기 터치 스크린 상에 표시할 적어도 하나의 음원을 선택하는 동작과,
상기 선택된 적어도 하나의 음원들의 상기 터치 스크린 상에서의 위치를 결정하는 동작을 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the determining of the location of the plurality of sound sources on the touch screen comprises:
Selecting at least one sound source to be displayed on the touch screen among the plurality of sound sources,
And determining a position of the selected at least one sound sources on the touch screen.
제1항에 있어서,
상기 복수 개의 음원들의 소리 신호를 수신하는 동작은,
상기 단말 외부의 보청기로부터 상기 복수 개의 음원들의 소리 신호를 수신하는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the operation of receiving the sound signals of the plurality of sound sources comprises:
And a sound signal of the plurality of sound sources is received from a hearing aid outside the terminal.
제1항에 있어서,
상기 터치 스크린에 표시된 복수 개의 음원들의 위치들 중 적어도 하나를 선택하는 사용자 제스쳐 입력을 인식하는 동작과,
상기 사용자 제스쳐 입력에 대응하여 상기 선택된 위치에 해당하는 음원의 볼륨을 조절하는 동작을 더 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Recognizing a user gesture input for selecting at least one of a plurality of locations of sound sources displayed on the touch screen;
Further comprising: adjusting a volume of the sound source corresponding to the selected position corresponding to the user gesture input.
제4항에 있어서, 상기 선택된 위치에 해당하는 음원의 볼륨을 조절하는 동작은,
상기 터치 스크린에 음원 선택 ?향을 지시하는 사용자 제스쳐 입력에 대응하여 해당 음원 선택 방향에 대응된 음원의 볼륨을 조절하는 동작인 것을 특징으로 하는 방법.
5. The method of claim 4, wherein the adjusting the volume of the sound source corresponding to the selected position comprises:
And adjusting a volume of a sound source corresponding to a sound source selection direction corresponding to a user gesture input indicating a sound source selection direction on the touch screen.
제4항에 있어서, 상기 선택된 위치에 해당하는 음원의 볼륨을 조절하는 동작은,
상기 터치 스크린에 음원 선택 범위를 지시하는 사용자 제스쳐 입력에 대응하여 해당 음원 선택 범위에 포함된 음원의 볼륨을 조절하는 동작인 것을 특징으로 하는 방법.
5. The method of claim 4, wherein the adjusting the volume of the sound source corresponding to the selected position comprises:
And adjusting a volume of a sound source included in the sound source selection range corresponding to a user gesture input indicating a sound source selection range on the touch screen.
제4항에 있어서, 상기 선택된 위치에 해당하는 음원의 볼륨을 조절하는 동작은,
상기 터치 스크린에 음원 선택 거리를 지시하는 사용자 제스쳐 입력에 대응하여 해당 음원 선택 거리에 대응된 음원의 볼륨을 조절하는 동작인 것을 특징으로 하는 방법.
5. The method of claim 4, wherein the adjusting the volume of the sound source corresponding to the selected position comprises:
And adjusting a volume of a sound source corresponding to the sound source selection distance corresponding to a user gesture input indicating a sound source selection distance on the touch screen.
제4항에 있어서,
상기 음원의 볼륨을 조절하는 동작은,
상기 음원의 볼륨을 차단하거나, 상기 음원의 볼륨을 다른 음원의 볼륨보다 크게 하거나, 상기 음원의 볼륨을 다른 볼륨보다 작게 하는 것을 특징으로 하는 방법.
5. The method of claim 4,
The operation of adjusting the volume of the sound source includes:
The volume of the sound source is cut off, or the volume of the sound source is made larger than the volume of the other sound source, and the volume of the sound source is made smaller than the other volume.
제1항에 있어서,
반사파 신호를 이용하여 상기 복수 개의 음원들 각각에 대응하는 물체들의 거리 및 방향을 검출하는 동작을 더 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Further comprising detecting the distance and direction of objects corresponding to each of the plurality of sound sources using a reflected wave signal.
제11항에 있어서,
상기 복수 개의 음원들 각각에 대한 소리 세기를 계산하는 동작과,
상기 복수 개의 음원들 각각에 대한 소리 세기를 상기 터치 스크린 상에 표시하는 동작을 더 포함하는 것을 특징으로 하는 방법.
12. The method of claim 11,
Calculating sound intensity for each of the plurality of sound sources,
Further comprising displaying the sound intensity for each of the plurality of sound sources on the touch screen.
보청기에서 음향 출력 방법에 있어서,
휴대 단말로부터 터치 스크린을 통해 사용자의 제스쳐에 의해 선택되어 볼륨이 조절된 음원의 소리 신호를 수신하는 동작과,
상기 수신된 선택된 음원의 소리 신호를 출력하는 동작을 포함하는 것을 특징으로 하는 방법.
In a method for sound output in a hearing aid,
An operation of receiving a sound signal of a sound source whose volume is selected by a user's gesture from a portable terminal through a touch screen,
And outputting a sound signal of the received selected sound source.
터치 스크린을 가진 휴대 단말에 있어서,
복수 개의 음원들의 위치들을 표시하는 터치 스크린과,
상기 복수 개의 음원들 각각의 소리 신호에 기초하여 상기 단말과 상기 복수 개의 음원들 간의 거리 및 방향을 획득하고, 상기 획득한 복수 개의 음원들 각각의 거리 및 방향을 이용하여 상기 복수 개의 음원들의 상기 터치 스크린 상에서의 위치를 결정하며, 상기 결정된 위치에 따라 상기 터치 스크린에 상기 복수 개의 음원들의 위치들을 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 휴대 단말.
A portable terminal having a touch screen,
A touch screen for displaying positions of a plurality of sound sources,
Acquiring distance and direction between the terminal and the plurality of sound sources based on a sound signal of each of the plurality of sound sources, and using the distance and direction of each of the plurality of sound sources, And a controller for determining positions on the screen and controlling the positions of the plurality of sound sources on the touch screen according to the determined positions.
제1항에 있어서,
상기 제어부는 상기 복수 개의 음원들 중 상기 터치 스크린 상에 표시할 적어도 하나의 음원을 선택하고, 상기 선택된 적어도 하나의 음원들의 상기 터치 스크린 상에서의 위치를 결정하는 것을 특징으로 하는 휴대 단말.
The method according to claim 1,
Wherein the control unit selects at least one sound source to be displayed on the touch screen among the plurality of sound sources and determines a position of the selected at least one sound sources on the touch screen.
제1항에 있어서,
상기 복수 개의 음원들의 소리 신호를 수신하는 통신부를 더 포함하고,
상기 통신부는 상기 단말 외부의 보청기로부터 상기 복수 개의 음원들의 소리 신호를 수신하는 것을 특징으로 하는 휴대 단말.
The method according to claim 1,
Further comprising a communication unit for receiving sound signals of the plurality of sound sources,
Wherein the communication unit receives a sound signal of the plurality of sound sources from a hearing aid outside the terminal.
제1항에 있어서, 상기 제어부는,
상기 터치 스크린에 표시된 복수 개의 음원들의 위치들 중 적어도 하나를 선택하는 사용자 제스쳐 입력을 인식하고, 상기 사용자 제스쳐 입력에 대응하여 상기 선택된 위치에 해당하는 음원의 볼륨을 조절하는 것을 특징으로 하는 휴대 단말.
The apparatus of claim 1,
Wherein the control unit recognizes a user gesture input for selecting at least one of the positions of the plurality of sound sources displayed on the touch screen and adjusts the volume of the sound source corresponding to the selected position corresponding to the user gesture input.
제15항에 있어서, 상기 제어부는,
상기 터치 스크린에 음원 선택 ?향을 지시하는 사용자 제스쳐 입력에 대응하여 해당 음원 선택 방향에 대응된 음원의 볼륨을 조절하는 것을 특징으로 하는 휴대 단말.
16. The apparatus of claim 15,
And controls the volume of the sound source corresponding to the sound source selection direction corresponding to the user gesture input indicating the sound source selection direction to the touch screen.
제15항에 있어서, 상기 제어부는,
상기 터치 스크린에 음원 선택 범위를 지시하는 사용자 제스쳐 입력에 대응하여 해당 음원 선택 범위에 포함된 음원의 볼륨을 조절하는 것을 특징으로 하는 휴대 단말.
16. The apparatus of claim 15,
And controls the volume of a sound source included in the sound source selection range corresponding to a user gesture input indicating a sound source selection range on the touch screen.
제15항에 있어서, 상기 제어부는,
상기 터치 스크린에 음원 선택 거리를 지시하는 사용자 제스쳐 입력에 대응하여 해당 음원 선택 거리에 대응된 음원의 볼륨을 조절하는 것을 특징으로 하는 휴대 단말.
16. The apparatus of claim 15,
Wherein the controller controls the volume of the sound source corresponding to the sound source selection distance corresponding to the user gesture input indicating the sound source selection distance on the touch screen.
제15항에 있어서,
상기 음원의 볼륨을 조절하는 동작은,
상기 음원의 볼륨을 차단하거나, 상기 음원의 볼륨을 다른 음원의 볼륨보다 크게 하거나, 상기 음원의 볼륨을 다른 볼륨보다 작게 하는 것을 특징으로 하는 휴대 단말.
16. The method of claim 15,
The operation of adjusting the volume of the sound source includes:
The volume of the sound source is cut off or the volume of the sound source is made larger than the volume of the other sound source, and the volume of the sound source is made smaller than the volume of the other sound source.
제12항에 있어서,
전자기파 신호를 송신하고, 반사파 신호를 수신하는 반사파 송수신부를 더 포함하고,
상기 제어부는 상기 반사파 신호를 이용하여 상기 복수 개의 음원들 각각에 대응하는 물체들의 거리 및 방향을 검출하는 것을 특징으로 하는 휴대 단말.
13. The method of claim 12,
Further comprising a reflected wave transmitting / receiving section for transmitting the electromagnetic wave signal and receiving the reflected wave signal,
Wherein the controller detects distances and directions of objects corresponding to the plurality of sound sources using the reflected wave signal.
제12항에 있어서, 상기 제어부는,
상기 복수 개의 음원들 각각에 대한 소리 세기를 계산하고, 상기 복수 개의 음원들 각각에 대한 소리 세기를 상기 터치 스크린 상에 표시하도록 제어하는 것을 특징으로 하는 휴대 단말.
13. The apparatus according to claim 12,
Calculates sound intensity for each of the plurality of sound sources, and controls the sound intensity for each of the plurality of sound sources to be displayed on the touch screen.
보청기에 있어서,
휴대 단말로부터 터치 스크린을 통해 사용자의 제스쳐에 의해 선택되어 볼륨이 조절된 음원의 소리 신호를 수신하는 무선부와,
상기 수신된 선택된 음원의 소리 신호를 출력하는 출력부를 포함하는 것을 특징으로 하는 보청기.
In a hearing aid,
A wireless unit for receiving a sound signal of a sound source selected by a user's gesture from a portable terminal through a touch screen and having a volume adjusted;
And an output unit for outputting a sound signal of the received selected sound source.
KR1020130033283A 2013-03-28 2013-03-28 Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal KR102127640B1 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020130033283A KR102127640B1 (en) 2013-03-28 2013-03-28 Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal
US14/068,443 US9467786B2 (en) 2013-03-28 2013-10-31 Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal
EP14773330.7A EP2979364A4 (en) 2013-03-28 2014-03-05 Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal
CN201480018987.8A CN105103457B (en) 2013-03-28 2014-03-05 Portable terminal, audiphone and in portable terminal indicate sound source position method
EP19193648.3A EP3591849B1 (en) 2013-03-28 2014-03-05 Portable terminal
CN201710437866.2A CN107257525B (en) 2013-03-28 2014-03-05 Portable terminal and method of indicating position of sound source in portable terminal
PCT/KR2014/001810 WO2014157846A1 (en) 2013-03-28 2014-03-05 Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal
US15/278,549 US10091599B2 (en) 2013-03-28 2016-09-28 Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal
US16/146,192 US10869146B2 (en) 2013-03-28 2018-09-28 Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130033283A KR102127640B1 (en) 2013-03-28 2013-03-28 Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal

Publications (2)

Publication Number Publication Date
KR20140118060A true KR20140118060A (en) 2014-10-08
KR102127640B1 KR102127640B1 (en) 2020-06-30

Family

ID=51620871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130033283A KR102127640B1 (en) 2013-03-28 2013-03-28 Portable teriminal and sound output apparatus and method for providing locations of sound sources in the portable teriminal

Country Status (5)

Country Link
US (3) US9467786B2 (en)
EP (2) EP2979364A4 (en)
KR (1) KR102127640B1 (en)
CN (2) CN105103457B (en)
WO (1) WO2014157846A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017171137A1 (en) * 2016-03-28 2017-10-05 삼성전자(주) Hearing aid, portable device and control method therefor
US10275207B2 (en) 2014-09-01 2019-04-30 Samsung Electronics Co., Ltd. Method and apparatus for playing audio files
US11668782B2 (en) 2019-01-08 2023-06-06 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
WO2024058301A1 (en) * 2022-09-16 2024-03-21 올리브유니온(주) Method and apparatus for automatically configuring microphone directionality on basis of estimating location of user or object by using hearing aid

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3036914B1 (en) 2013-08-20 2019-02-06 Widex A/S Hearing aid having a classifier for classifying auditory environments and sharing settings
CN105519138B (en) 2013-08-20 2019-07-09 唯听助听器公司 Hearing aid with adaptive classifier
SG11201600981WA (en) 2013-08-20 2016-03-30 Widex As Hearing aid having a classifier
EP2916241A1 (en) * 2014-03-03 2015-09-09 Nokia Technologies OY Causation of rendering of song audio information
FR3026541A1 (en) * 2014-09-29 2016-04-01 Parrot SOUND RECOVERY SYSTEM WITH AUDIO HELMETS WITH SOUND PROCESSORS, COMPONENTS OF SUCH A SYSTEM, AND ASSOCIATED METHOD
JP6188105B2 (en) * 2015-02-03 2017-08-30 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System, method, computer program, avoidance method, and unmanned aerial vehicle for determining signal source position and velocity
EP3054706A3 (en) * 2015-02-09 2016-12-07 Oticon A/s A binaural hearing system and a hearing device comprising a beamformer unit
JP2016180791A (en) * 2015-03-23 2016-10-13 ソニー株式会社 Information processor, information processing method and program
CN106205628B (en) * 2015-05-06 2018-11-02 小米科技有限责任公司 Voice signal optimization method and device
US10575108B2 (en) 2015-08-24 2020-02-25 Cochlear Limited Prosthesis functionality control and data presentation
WO2017064929A1 (en) * 2015-10-16 2017-04-20 ソニー株式会社 Information-processing device and information-processing system
TWI577194B (en) * 2015-10-22 2017-04-01 山衛科技股份有限公司 Environmental voice source recognition system and environmental voice source recognizing method thereof
CN105898026B (en) * 2015-12-30 2020-03-06 乐融致新电子科技(天津)有限公司 Mobile terminal recording prompting method and device and mobile terminal
US10824320B2 (en) * 2016-03-07 2020-11-03 Facebook, Inc. Systems and methods for presenting content
FR3051093A1 (en) * 2016-05-03 2017-11-10 Sebastien Thibaut Arthur Carriou METHOD FOR IMPROVING NOISE UNDERSTANDING
CN107404684A (en) * 2016-05-19 2017-11-28 华为终端(东莞)有限公司 A kind of method and apparatus of collected sound signal
CN106985768A (en) * 2016-09-14 2017-07-28 蔚来汽车有限公司 Vehicle-mounted gestural control system and method
US9883302B1 (en) * 2016-09-30 2018-01-30 Gulfstream Aerospace Corporation System for identifying a source of an audible nuisance in a vehicle
US10901681B1 (en) * 2016-10-17 2021-01-26 Cisco Technology, Inc. Visual audio control
CN107890673A (en) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 Visual display method and device, storage medium, the equipment of compensating sound information
CN107992281A (en) * 2017-10-27 2018-05-04 网易(杭州)网络有限公司 Visual display method and device, storage medium, the equipment of compensating sound information
CN107832001B (en) * 2017-11-17 2020-07-10 网易(杭州)网络有限公司 Information processing method, information processing device, electronic equipment and storage medium
KR102452952B1 (en) * 2017-12-06 2022-10-12 삼성전자주식회사 Directional sound sensor and electronic apparatus including the same
CN108854069B (en) * 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 Sound source determination method and device, storage medium and electronic device
CN108899029A (en) * 2018-06-11 2018-11-27 北京佳珥医学科技有限公司 It is absorbed in the methods, devices and systems of the voice of single sound source
WO2020026864A1 (en) * 2018-07-30 2020-02-06 ソニー株式会社 Information processing device, information processing system, information processing method, and program
CN117319912A (en) 2018-09-13 2023-12-29 科利耳有限公司 Hearing performance and rehabilitation and/or rehabilitation enhancement using normals
CN109298642B (en) * 2018-09-20 2021-08-27 三星电子(中国)研发中心 Method and device for monitoring by adopting intelligent sound box
US10795638B2 (en) 2018-10-19 2020-10-06 Bose Corporation Conversation assistance audio device personalization
US11089402B2 (en) * 2018-10-19 2021-08-10 Bose Corporation Conversation assistance audio device control
CN109616122A (en) * 2018-12-25 2019-04-12 王让利 A kind of visualization hearing aid
CN110267187A (en) * 2019-05-29 2019-09-20 广西科飞科技发展有限公司 A kind of radio reception detection method of multimedia loudspeaker box
CN114208214B (en) * 2019-08-08 2023-09-22 大北欧听力公司 Bilateral hearing aid system and method for enhancing one or more desired speaker voices
CN110691300B (en) * 2019-09-12 2022-07-19 连尚(新昌)网络科技有限公司 Audio playing device and method for providing information
KR20210072388A (en) * 2019-12-09 2021-06-17 삼성전자주식회사 Audio outputting apparatus and method of controlling the audio outputting appratus
US11307412B1 (en) * 2019-12-30 2022-04-19 Snap Inc. Audio visualizer eyewear device
KR20210091003A (en) * 2020-01-13 2021-07-21 삼성전자주식회사 Electronic apparatus and controlling method thereof
CN111544030B (en) * 2020-05-20 2023-06-20 京东方科技集团股份有限公司 Stethoscope, diagnostic device and diagnostic method
JP2023533047A (en) * 2020-07-10 2023-08-01 アモセンス・カンパニー・リミテッド audio processor
CN115843433A (en) * 2020-08-10 2023-03-24 谷歌有限责任公司 Acoustic environment control system and method
US11804113B1 (en) * 2020-08-30 2023-10-31 Apple Inc. Visual indication of audibility
US11579838B2 (en) * 2020-11-26 2023-02-14 Verses, Inc. Method for playing audio source using user interaction and a music application using the same
US20220393896A1 (en) * 2021-06-08 2022-12-08 International Business Machines Corporation Multi-user camera switch icon during video call

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000500U (en) * 2007-07-13 2009-01-16 종 해 김 Hearing aid system.
KR20110019162A (en) * 2009-08-19 2011-02-25 엘지전자 주식회사 Method for processing sound source in terminal and terminal using the same

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10201323C5 (en) 2002-01-15 2011-04-14 Siemens Audiologische Technik Gmbh emdedded internet for hearing aids and method for operating a hearing aid
EP1581026B1 (en) 2004-03-17 2015-11-11 Nuance Communications, Inc. Method for detecting and reducing noise from a microphone array
JP2006025281A (en) * 2004-07-09 2006-01-26 Hitachi Ltd Information source selection system, and method
CA2599829C (en) * 2005-03-18 2013-08-06 Widex A/S Remote control system for a hearing aid
DE102005043641A1 (en) * 2005-05-04 2006-11-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating and processing sound effects in spatial sound reproduction systems by means of a graphical user interface
AU2006303651B2 (en) 2005-10-17 2010-04-01 Widex A/S Hearing aid having selectable programmes, and method for changing the programme in a hearing aid
JP5134876B2 (en) 2007-07-11 2013-01-30 株式会社日立製作所 Voice communication apparatus, voice communication method, and program
KR101349268B1 (en) 2007-10-16 2014-01-15 삼성전자주식회사 Method and apparatus for mesuring sound source distance using microphone array
JP5245368B2 (en) * 2007-11-14 2013-07-24 ヤマハ株式会社 Virtual sound source localization device
KR101456570B1 (en) * 2007-12-21 2014-10-31 엘지전자 주식회사 Mobile terminal having digital equalizer and controlling method using the same
JP2010011433A (en) 2008-05-30 2010-01-14 Nittobo Acoustic Engineering Co Ltd Sound source separation and display method, and system thereof
KR101499785B1 (en) 2008-10-23 2015-03-09 삼성전자주식회사 Method and apparatus of processing audio for mobile device
KR101517592B1 (en) * 2008-11-11 2015-05-04 삼성전자 주식회사 Positioning apparatus and playing method for a virtual sound source with high resolving power
JP2010187363A (en) * 2009-01-16 2010-08-26 Sanyo Electric Co Ltd Acoustic signal processing apparatus and reproducing device
JP5409656B2 (en) * 2009-01-22 2014-02-05 パナソニック株式会社 Hearing aid
US8363512B2 (en) 2009-02-27 2013-01-29 Honda Motors Method and apparatus for estimating sound source
US8224395B2 (en) * 2009-04-24 2012-07-17 Sony Mobile Communications Ab Auditory spacing of sound sources based on geographic locations of the sound sources or user placement
KR20100011726U (en) 2009-05-25 2010-12-03 이영만 Mobile phone with hearing-aid function
EP2275953B1 (en) * 2009-06-30 2018-10-24 LG Electronics Inc. Mobile terminal
US9094645B2 (en) * 2009-07-17 2015-07-28 Lg Electronics Inc. Method for processing sound source in terminal and terminal using the same
EP2276007A1 (en) * 2009-07-17 2011-01-19 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Method and system for remotely guarding an area by means of cameras and microphones.
KR101608770B1 (en) * 2009-08-03 2016-04-04 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR101651128B1 (en) * 2009-10-05 2016-08-25 엘지전자 주식회사 Mobile terminal and method for controlling application execution thereof
DE102009050667A1 (en) 2009-10-26 2011-04-28 Siemens Aktiengesellschaft System for the notification of localized information
US20110106375A1 (en) * 2009-11-03 2011-05-05 Vishnu Gurusamy Sundaram Method and system for providing an integrated platform for entertainment, information, communication, control and computing applications in vehicles
US20110191692A1 (en) * 2010-02-03 2011-08-04 Oto Technologies, Llc System and method for e-book contextual communication
KR101168743B1 (en) 2010-03-31 2012-07-26 주식회사 에스원 microphone module, apparatus for measuring location of sound source using the module and method thereof
KR101155611B1 (en) 2010-04-30 2012-07-11 주식회사 에스원 apparatus for calculating sound source location and method thereof
KR101155610B1 (en) * 2010-04-30 2012-06-13 주식회사 에스원 Apparatus for displaying sound source location and method thereof
US9106794B2 (en) 2010-04-30 2015-08-11 American Teleconferencing Services, Ltd Record and playback in a conference
US8762893B2 (en) * 2010-05-14 2014-06-24 Google Inc. Automatic derivation of analogous touch gestures from a user-defined gesture
JP5740575B2 (en) * 2010-09-28 2015-06-24 パナソニックIpマネジメント株式会社 Audio processing apparatus and audio processing method
US20120121103A1 (en) 2010-11-12 2012-05-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Audio/sound information system and method
KR101182140B1 (en) 2011-01-13 2012-09-12 한국과학기술원 Apparatus and method for focusing sound of target area using microphone array
US8525868B2 (en) * 2011-01-13 2013-09-03 Qualcomm Incorporated Variable beamforming with a mobile platform
JP2013007921A (en) * 2011-06-24 2013-01-10 Sony Corp Sound controller, program and control method
KR101850034B1 (en) * 2012-01-06 2018-04-20 엘지전자 주식회사 Mobile terminal and control method therof
JP5902346B2 (en) * 2012-03-29 2016-04-13 インテル コーポレイション Creating 3D graphics using gestures
KR101196751B1 (en) * 2012-04-23 2012-11-07 엘지전자 주식회사 Mobile terminal and control method thereof
US8781828B2 (en) * 2012-04-26 2014-07-15 Lg Electronics Inc. Electronic device and method of controlling the same
JP5992210B2 (en) * 2012-06-01 2016-09-14 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US20150186109A1 (en) * 2012-08-10 2015-07-02 Nokia Corporation Spatial audio user interface apparatus
KR102121021B1 (en) * 2012-11-12 2020-06-09 삼성전자주식회사 Apparatas and method for changing a setting value in an electronic device
KR101398141B1 (en) * 2013-02-08 2014-05-20 엘지전자 주식회사 Mobile terminal
KR20150026255A (en) * 2013-09-02 2015-03-11 삼성전자주식회사 Display apparatus and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000500U (en) * 2007-07-13 2009-01-16 종 해 김 Hearing aid system.
KR20110019162A (en) * 2009-08-19 2011-02-25 엘지전자 주식회사 Method for processing sound source in terminal and terminal using the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10275207B2 (en) 2014-09-01 2019-04-30 Samsung Electronics Co., Ltd. Method and apparatus for playing audio files
US11301201B2 (en) 2014-09-01 2022-04-12 Samsung Electronics Co., Ltd. Method and apparatus for playing audio files
WO2017171137A1 (en) * 2016-03-28 2017-10-05 삼성전자(주) Hearing aid, portable device and control method therefor
US11668782B2 (en) 2019-01-08 2023-06-06 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method of electronic apparatus and computer readable medium
WO2024058301A1 (en) * 2022-09-16 2024-03-21 올리브유니온(주) Method and apparatus for automatically configuring microphone directionality on basis of estimating location of user or object by using hearing aid

Also Published As

Publication number Publication date
US10091599B2 (en) 2018-10-02
EP2979364A1 (en) 2016-02-03
US20140294183A1 (en) 2014-10-02
EP3591849A1 (en) 2020-01-08
US20170019745A1 (en) 2017-01-19
US9467786B2 (en) 2016-10-11
WO2014157846A1 (en) 2014-10-02
US10869146B2 (en) 2020-12-15
CN105103457B (en) 2017-07-07
CN107257525A (en) 2017-10-17
KR102127640B1 (en) 2020-06-30
US20190037329A1 (en) 2019-01-31
EP2979364A4 (en) 2016-12-14
EP3591849B1 (en) 2022-05-04
CN107257525B (en) 2020-07-07
CN105103457A (en) 2015-11-25

Similar Documents

Publication Publication Date Title
US10869146B2 (en) Portable terminal, hearing aid, and method of indicating positions of sound sources in the portable terminal
KR102052153B1 (en) Mobile terminal for controlling a hearing aid and method therefor
CN105722009B (en) Portable device and method of controlling position information of portable device
US9971484B2 (en) Electronic device and method for executing one or more objects based on the relationships of the objects
KR102051418B1 (en) User interface controlling device and method for selecting object in image and image input device
KR102051908B1 (en) Mobile apparatus and method for displaying information
KR101934822B1 (en) Unlocking method of mobile terminal and the mobile terminal
EP2753065B1 (en) Method and apparatus for laying out image using image recognition
KR102087654B1 (en) Electronic device for preventing leakage of received sound
KR102109739B1 (en) Method and apparatus for outputing sound based on location
KR20140072927A (en) Mobile terminal and method of controlling the same
KR102090948B1 (en) Apparatus saving conversation and method thereof
US20140281962A1 (en) Mobile device of executing action in display unchecking mode and method of controlling the same
KR20170111450A (en) Hearing aid apparatus, portable apparatus and controlling method thereof
KR20140071035A (en) display apparatus for displaying multi screen and method for controlling thereof
KR102186815B1 (en) Method, apparatus and recovering medium for clipping of contents
KR20150001891A (en) electro device for sharing question message and method for controlling thereof
KR20150026110A (en) A method for managing icons and a mobile terminal therefor
KR20140113032A (en) Method and apparatus for displaying screen in a portable terminal
KR20130123794A (en) Memo application
CN113380248B (en) Voice control method, device, equipment and storage medium
KR20150007569A (en) Device and method for providing dynamic widget
KR20190135958A (en) User interface controlling device and method for selecting object in image and image input device
KR20140089869A (en) Method for controlling contents displayed on touch screen and mobile terminal therefor
KR20150026646A (en) A method for modifying text input from a user and an electronic device therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant