KR101634133B1 - 이어셋 및 그 제어 방법 - Google Patents

이어셋 및 그 제어 방법 Download PDF

Info

Publication number
KR101634133B1
KR101634133B1 KR1020150011949A KR20150011949A KR101634133B1 KR 101634133 B1 KR101634133 B1 KR 101634133B1 KR 1020150011949 A KR1020150011949 A KR 1020150011949A KR 20150011949 A KR20150011949 A KR 20150011949A KR 101634133 B1 KR101634133 B1 KR 101634133B1
Authority
KR
South Korea
Prior art keywords
user
earset
reference word
word
voice
Prior art date
Application number
KR1020150011949A
Other languages
English (en)
Inventor
신두식
Original Assignee
해보라 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 해보라 주식회사 filed Critical 해보라 주식회사
Priority to KR1020150011949A priority Critical patent/KR101634133B1/ko
Application granted granted Critical
Publication of KR101634133B1 publication Critical patent/KR101634133B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/10Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

이어셋 및 그 제어 방법이 개시된다.
일 실시예에 따른 이어셋의 제어 방법은 제1 마이크와 제1 스피커를 포함하되 사용자의 제1 귀에 안착되는 제1 이어폰부와, 제2 스피커를 포함하되 상기 사용자의 제2 귀에 안착되는 제2 이어폰부를 포함하는 이어셋의 제어 방법에 있어서, 상대방의 음성을 대상으로 음성 인식을 수행하는 단계; 및 상기 음성 인식 결과와 상기 사용자를 지칭하는 단어인 기준 단어를 비교한 결과에 따라, 상기 이어셋의 동작 상태를 변경하는 단계를 포함한다.

Description

이어셋 및 그 제어 방법{Earset and control method for the earset}
이어셋 및 이어셋 제어 방법이 개시된다. 더욱 상세하게는 상대방의 음성으로부터 이어셋 사용자의 호칭을 인식하여, 이어셋의 동작 상태를 자동으로 제어할 수 있는 이어셋 및 그 제어 방법이 개시된다.
휴대 전화의 사용이 늘어남에 따라 이어셋의 사용이 증가하고 있다. 이어셋은 마이크와 스피커가 장착된 기기를 말하는데, 이어셋을 사용하면 손이 자유로워지므로, 통화 중에도 다른 일을 할 수 있다.
종래의 이어셋은 스피커만 사용자의 귓속에 위치하고, 마이크는 귀 밖에 배치되는 구조를 갖는다. 따라서, 통화 시 주변 소음이 마이크로 입력되어, 스피커로 다시 출력되는 하울링 현상이 일어난다. 이는 통화 품질을 저하시키는 원인이 된다.
이러한 어려움을 극복하기 위해 스피커와 마이크를 모두 귓속에 배치함으로써, 사용자의 귀에서 나오는 소리만을 이용하여 통화를 진행시키고, 귀 밖의 소리는 차단시키는 귓속 삽입형 마이크를 포함하는 이어셋이 개발되었다.
한국등록특허 10-1348505 (발명의 명칭: 이어셋, 등록일: 2013년 12월 30일)
상대방의 음성으로부터 이어셋 사용자의 호칭을 인식하여, 이어셋의 동작 상태를 자동으로 제어할 수 있는 이어셋 및 그 제어 방법이 개시된다.
상술한 과제를 해결하기 위하여 일 실시예에 따른 이어셋의 제어 방법은 제1 마이크와 제1 스피커를 포함하되 사용자의 제1 귀에 안착되는 제1 이어폰부와, 제2 스피커를 포함하되 상기 사용자의 제2 귀에 안착되는 제2 이어폰부를 포함하는 이어셋의 제어 방법에 있어서, 상대방의 음성을 대상으로 음성 인식을 수행하는 단계; 및 상기 음성 인식 결과와 상기 사용자를 지칭하는 단어인 기준 단어를 비교한 결과에 따라, 상기 이어셋의 동작 상태를 변경하는 단계를 포함한다.
상기 기준 단어는 상기 사용자의 소셜 네트워크 서비스 데이터를 분석하여 획득된다.
상기 소셜 네트워크 서비스 데이터는 상기 사용자의 프로필 정보, 상기 사용자가 작성한 글, 상기 사용자가 작성한 글에 다른 사용자들이 남긴 댓글, 및 상기 사용자가 다른 사용자들의 글에 남긴 댓글 중 적어도 하나를 포함한다.
상기 기준 단어는 상기 사용자가 문자 입력 방식 또는 음성 입력 방식으로 입력된다.
상기 상대방의 음성은 상기 이어셋의 외부에 배치된 제2 마이크로 입력된다.
상기 이어셋의 동작 상태를 변경하는 단계는 상기 음성 인식 결과와 상기 기준 단어가 일치하는 경우, 상기 제1 스피커 및 상기 제2 스피커를 통해 출력되는 소리의 크기를 감소시키는 단계를 포함한다.
상술한 과제를 해결하기 위하여 다른 실시예에 따른 이어셋의 제어 방법은 제1 마이크와 제1 스피커를 포함하되 사용자의 제1 귀에 안착되는 제1 이어폰부와, 제2 스피커를 포함하되 상기 사용자의 제2 귀에 안착되는 제2 이어폰부를 포함하는 이어셋의 제어 방법에 있어서, 상기 이어셋과 연동된 사용자 단말기로부터, 상대방의 음성을 대상으로 수행된 음성 인식 결과와 상기 사용자를 지칭하는 단어인 기준 단어를 비교한 결과를 수신하는 단계; 및 상기 비교 결과에 따라, 이어셋의 동작 상태를 변경하는 단계를 포함한다.
상기 기준 단어는 상기 사용자의 소셜 네트워크 서비스 데이터를 분석하여 획득한 단어, 상기 사용자가 문자 입력 방식으로 입력한 단어, 또는 상기 사용자가 음성 입력 방식으로 입력한 단어일 수 있다.
상기 상대방의 음성은 상기 이어셋과 연동되는 사용자 단말기에 배치된 마이크로 입력된다.
상기 이어셋의 동작 상태를 변경하는 단계는 상기 음성 인식 결과와 상기 기준 단어가 일치하는 경우, 상기 제1 스피커 및 상기 제2 스피커를 통해 출력되는 소리의 크기를 감소시키는 단계를 포함한다.
이어셋 사용자가 가입한 소셜 네트워크 서비스의 데이터를 분석하여, 이어셋 사용자를 지칭하는 단어를 획득하고, 획득된 단어를 이어셋의 제어를 위한 기준 단어로 설정하므로, 이어셋 사용자의 편의를 증대시킬 수 있다.
상대방의 음성에서 사전 지정된 기준 단어가 인식되는 경우, 이어셋의 스피커를 통해 출력되는 소리의 크기가 자동으로 조절되므로, 이어셋 사용자의 편의를 증대시킬 수 있다.
도 1은 일 실시예에 따른 이어셋 제어 시스템의 구성을 도시한 도면이다.
도 2는 도 1에 도시된 서버의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 유선 이어셋과 사용자 단말기를 도시한 도면이다.
도 4는 다른 실시예에 따른 유선 이어셋과 사용자 단말기를 도시한 도면이다.
도 5는 또 다른 실시예에 따른 유선 이어셋과 사용자 단말기를 도시한 도면이다.
도 6은 도 3에 도시된 유선 이어셋의 구성을 도시한 도면이다.
도 7은 일 실시예에 따른 무선 이어셋과 사용자 단말기를 도시한 도면이다.
도 8은 도 7에 도시된 무선 이어셋의 구성을 도시한 도면이다.
도 9는 이어셋 제어 방법의 일 실시예를 도시한 흐름도이다.
도 10은 도 9의 단계 S710을 보다 상세히 도시한 흐름도이다.
도 11은 이어셋 제어 방법의 다른 실시예를 도시한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 출입문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다.
도 1은 일 실시예에 따른 이어셋 제어 시스템(1)의 구성을 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 이어셋 제어 시스템(1)은 이어셋(100), 사용자 단말기(600), 및 유무선 네트워크(200) 및 서버(300)를 포함할 수 있다.
서버(300)는 사용자에게 소셜 네트워크 서비스(Social Network Service, SNS)를 제공하는 서버일 수 있다. 이러한 서버(300)는 사용자 정보 및 소셜 네트워크 서비스 데이터를 저장한다. 사용자 정보는 사용자의 아이디와 암호를 포함한다. 소셜 네트워크 서비스 데이터는 소셜 네트워크 서비스의 사용으로 인해 생성된 데이터를 의미한다. 예를 들면, 사용자의 프로필 정보, 사용자가 작성한 글, 사용자가 작성한 글에 다른 사용자들이 남긴 댓글, 및 사용자가 다른 사용자들의 글에 남긴 댓글을 포함할 수 있다.
사용자 단말기(600)는 음향 신호(또는 음성 신호)를 이어셋(100)으로 전송한다. 이러한 사용자 단말기(600)는 유무선 통신 장치를 포함할 수 있다. 유무선 통신 장치로는 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 왑폰(WAP phone: Wireless application protocol phone), 스마트폰(Smart phone), 스마트패드 및 모바일 게임기(mobile play-station) 등을 예로 들 수 있다.
실시예에 따르면, 사용자 단말기(600)는 사용자의 소셜 네트워크 서비스 데이터를 분석하여, 다른 사용자들이 사용자를 지칭하는 단어를 획득한다. 그리고 획득된 단어를 기준 단어로 설정한다. 여기서, 기준 단어는 이어셋(100)의 동작 상태를 자동으로 변경하기 위한 명령어인 것으로 이해될 수 있다. 구체적으로, 상대방의 음성을 대상으로 음성 인식을 수행한 결과, 상대방의 음성에서 기준 단어가 인식되면, 이어셋(100)의 동작 상태가 자동으로 변경된다. 만약 상대방의 음성에서 기준 단어가 인식되지 않은 경우, 이어셋(100)의 동작 상태는 그대로 유지된다.
앞서 설명한 바와 같이, 기준 단어는 소셜 네트워크 서비스 데이터로부터 추출된 단어로 자동으로 설정될 수 있다. 다른 실시예에 따르면, 기준 단어는 수동으로 설정될 수도 있다. 이 경우, 사용자는 사용자 단말기(600)를 조작하여, 기준 단어로 설정하고자 하는 단어를 입력할 수 있다. 이 때, 사용자는 문자 입력 방식 또는 음성 입력 방식으로 단어를 입력할 수 있다. 두 가지 방식 중에서 어떠한 방식으로 단어를 입력할지는 사용자에 의해 선택될 수 있다. 단어 입력 방식이 음성 입력 방식으로 선택된 경우, 사용자 단말기(600)는 사용자의 음성을 입력받아, 음성 인식을 수행한다. 그리고 음성 인식 결과로 얻어진 단어를 기준 단어로 설정한다.
예시된 방법들에 의해 설정된 기준 단어는 사용자 단말기(600)에 저장된다. 또한, 기준 단어에 대한 정보는 이어셋(100)으로도 전송된다. 이 때, 기준 단어에 대한 정보는 유선 통신 방식 또는 무선 통신 방식으로 전송될 수 있다. 여기서, 도 2를 참조하여 사용자 단말기(600)의 구성에 대해서 좀 더 구체적으로 설명하기로 한다.
도 2는 일 실시예에 따른 사용자 단말기(600)의 구성을 도시한 도면이다.
도 2를 참조하면, 일 실시예에 따른 사용자 단말기(600)는 입력부(610), 출력부(620), 제어부(630), 통신부(640) 및 저장부(650)를 포함한다.
입력부(610)는 사용자로부터 명령을 입력받는 부분이다. 입력부(610)는 마이크(611)와 키보드(612)를 포함할 수 있다. 마이크(611)는 사용자의 음성을 입력받는다. 키보드(612)는 적어도 하나의 키를 포함한다. 키보드는 하드웨어적으로 구현되거나, 소프트웨어적으로 구현되거나, 이들의 조합으로 구현될 수 있다.
출력부(620)는 명령 처리 결과를 출력하는 부분이다. 출력부(620)는 스피커(621)와 표시부(622)를 포함할 수 있다. 스피커(621)는 명령 처리 결과를 청각적 신호로 출력한다. 또한 스피커(621)는 음성 신호나 음향 신호를 출력한다. 표시부(622)는 명령 처리 결과를 시각적 신호로 출력한다. 표시부(622)는 평판형 디스플레이 또는 플렉서블 디스플레이로 구현될 수 있다. 표시부(622)는 표시 기능만을 가질 수도 있고, 표시 기능과 입력 기능을 모두 가질 수도 있다. 예를 들어, 표시부(622)가 터치 스크린으로 구현되는 경우, 표시부(622)는 표시 기능 및 입력 기능을 모두 갖는 것으로 볼 수 있다.
통신부(640)는 유무선 네트워크(200)를 통해 서버(300)와 신호 및/또는 데이터를 송수신한다. 일 예로, 통신부(640)는 로그인 요청 신호를 서버(300)로 전송하고, 로그인 처리 결과를 수신한다. 다른 예로, 통신부(640)는 소셜 네트워크 서비스 데이터 요청 신호를 서버(300)로 전송하고, 서버(300)로부터 소셜 네트워크 서비스 데이터를 수신한다. 또 다른 예로, 통신부(640)는 로그인 요청 신호를 서버(300)로 전송하고, 로그인 성공 결과로서 소셜 네트워크 서비스 데이터를 서버(300)로부터 수신할 수도 있다.
제어부(630)는 이어셋 자동 제어 모드가 활성화된 경우, 기준 단어 설정 모드를 확인한다. 그리고 확인 결과에 따라 기준 단어를 설정한다.
확인 결과, 기준 단어 설정 모드가 자동 설정 모드로 되어 있는 경우, 제어부(630)는 서버(300)로부터 수신한 소셜 네트워크 서비스 데이터를 분석하여, 다른 사용자들이 사용자를 지칭하는 단어를 추출한다. 예를 들면, 사용자의 이름, 별명, 애칭, 또는 직급을 추출한다. 그리고, 추출된 단어를 기준 단어로 설정한다.
확인 결과, 기준 단어 설정 모드가 수동 설정 모드로 설정되어 있는 경우, 제어부(630)는 단어 입력 방식을 사용자에게 안내한다. 단어 입력 방식으로는 문자 입력 방식 음성 입력 방식을 예로 들 수 있다. 두 가지의 단어 입력 방식 중에서 한 가지 방식이 사용자에 의해 선택되면, 제어부(630)는 선택된 방식에 따라 입력된 단어를 기준 단어로 설정한다.
일 예로, 문자 입력 방식이 선택된 경우, 제어부(630)는 키보드(612)를 통해 입력된 문자를 기준 단어로 설정한다. 다른 예로, 음성 입력 방식이 선택된 경우, 제어부(630)는 마이크(611)를 통해 입력되는 음성을 녹음하고, 녹음된 음성에서 인식된 단어를 기준 단어로 설정한다.
저장부(650)는 사용자 단말기(600)가 동작하는데 필요한 프로그램이나 어플리케이션을 저장할 수 있다. 예를 들면, 소셜 네트워크 서비스 데이터로부터 기준 단어를 추출하는데 필요한 프로그램이나 어플리케이션을 저장할 수 있다. 다른 예로, 녹음된 사용자의 음성에서 기준 단어를 인식하는데 필요한 프로그램이나 어플리케이션을 저장할 수 있다. 저장부(650)에 저장된 프로그램이나 어플리케이션은 외부 장치(도시되지 않음)로부터 제공된 것일 수 있으며, 외부 장치에 의해 갱신될 수도 있다.
통신부(640)는 서버(300)와 신호 및/또는 데이터를 송수신할 수 있다. 또한, 통신부(640)는 이어셋(100)과 신호 및/또는 데이터를 송수신할 수 있다. 이 때, 신호 및/또는 데이터는 유선 통신 방식 또는 무선 통신 방식에 따라 송수신될 수 있다. 이를 위해 통신부(640)는 적어도 하나의 무선 통신 방식을 지원할 수 있다. 무선 통신 방식으로는 근거리무선통신(Near Field Communication, NFC), 무선 유에스비(Wireless USB), 울트라와이드밴드(Ultra Wide Band, UWB), 와이파이(WiFi), 블루투스(Bluetooth), 지그비(ZIGBEE), 무선 주파수 통신(Radio Frequency, RF), 및 적외선 통신(Infrared Data Association, IrDA)을 예로 들 수 있다.
다시 도 1을 참조하면, 이어셋(100)은 복수의 스피커를 포함할 수 있다. 복수의 스피커는 사용자 단말기(600)로부터 수신한 음성 신호나 음향 신호를 출력한다. 또한, 이어셋(100)은 복수의 마이크를 포함할 수 있다. 예를 들어, 이어셋(100)이 제1 마이크와 제2 마이크를 포함하는 경우, 제1 마이크는 사용자의 귓속에 배치되도록 이어셋(100)의 내부에 배치될 수 있으며, 제2 마이크는 사용자의 귀 밖으로 노출되도록 이어셋(100)의 외부에 배치될 수 있다. 제1 마이크는 사용자의 귓속에서 나오는 음성 신호를 입력받는다. 제2 마이크는 상대방의 음성을 입력받아, 그에 대응하는 음성 신호로 변환한다.
실시예에 따르면, 이어셋(100)은 제2 마이크에 의해 변환된 음성 신호를 대상으로 음성 인식을 수행한다. 수행 결과, 음성 신호로부터 기준 단어가 인식된 경우, 이어셋(100)의 동작은 자동으로 제어된다. 예를 들면, 이어셋(100)의 스피커를 통해 출력되고 있는 소리의 크기가 제어된다.
상술한 바와 같은 이어셋(100)은 유선 이어셋으로 구현되거나, 무선 이어셋으로 구현될 수 있다. 이하, 도 3 내지 도 6을 참조하여, 유선 이어셋(100A, 100B, 100C)의 실시예들을 설명하기로 한다. 그리고 도 7 및 도 8을 참조하여 무선 이어셋(100D)의 실시예를 설명하기로 한다.
도 3은 일 실시예에 따른 유선 이어셋(100A)과 사용자 단말기(600)를 도시한 도면이다.
도 3을 참조하면, 유선 이어셋(100A)은 제1 이어폰부(11), 제2 이어폰부(12), 케이블(13), 연결 단자(14) 및 조작부(15)를 포함할 수 있다.
제1 이어폰부(11)는 사용자의 제1 귀(예를 들어, 왼쪽 귀)에 안착되는 부분이다. 구체적으로, 제1 이어폰부(11)는 제1 삽입부(11a) 및 제1 몸체부(11b)를 포함할 수 있다.
제1 삽입부(11a)는 사용자의 제1 외이도(예를 들어, 왼쪽 외이도)에 삽입될 수 있다. 따라서, 제1 삽입부(11a)는 제1 외이도의 형상에 대응하는 형상을 가질 수 있다. 제1 삽입부(11a)의 내부에는 제1 스피커(110) 및 제1 마이크(120)가 배치될 수 있다.
제1 몸체부(11b)는 제1 삽입부(11a)와 기계적으로 결합된다. 제1 몸체부(11b)는 제1 외이도의 외부로 노출될 수 있다.
제2 이어폰부(12)는 사용자의 제2 귀(예를 들어, 오른쪽 귀)에 삽입되는 부분이다. 제2 이어폰부(12)는 제2 삽입부(12a) 및 제2 몸체부(12b)를 포함할 수 있다.
제2 삽입부(12a)는 사용자의 제2 외이도(예를 들어, 오른쪽 외이도)에 삽입될 수 있다. 따라서, 제2 삽입부(12a)는 제2 외이도의 형상에 대응하는 형상을 가질 수 있다. 제2 삽입부(12a)의 내부에는 제2 스피커(160)이 배치될 수 있다.
제2 몸체부(12b)는 제2 삽입부(12a)와 기계적으로 결합된다. 제2 몸체부(12b)는 제2 외이도의 외부로 노출될 수 있다.
한편, 제1 몸체부(11b)의 끝단으로부터 연장된 케이블(13a)과 제2 몸체부(12b)의 끝단으로부터 연장된 케이블(13b)은 소정 지점에서 하나로 통합될 수 있다. 통합된 케이블(13)의 끝단에는 연결 단자(14)가 배치된다. 연결 단자(14)는 사용자 단말기(600)에 배치된 삽입홈(미도시)에 삽입될 수 있다. 유선 이어셋(100A)이 케이블(13)을 통해 사용자 단말기(600)와 전기적으로 연결되면, 유선 이어셋(100A)은 사용자 단말기(600)로부터 전원을 공급받아 동작할 수 있다.
조작부(15)는 예를 들어, 제1 몸체부(11b)의 끝단으로부터 연장된 케이블(13a) 상에 배치된다. 그러나 조작부(15)의 위치가 이것으로 한정되는 것은 아니다. 도면에 도시되지는 않았지만, 조작부(15)는 제2 몸체부(12b)의 끝단으로부터 연장된 케이블(13b) 상에 배치될 수도 있고, 통합된 케이블(13) 상에 배치될 수도 있다.
조작부(15)에는 상대방의 음성을 입력받기 위한 제2 마이크(170)가 배치될 수 있다. 이 때, 제2 마이크(170)는 외부로 노출되도록 배치된다. 도 3은 제2 마이크(170)가 조작부(15)에 배치된 경우를 도시하고 있지만, 제2 마이크(170)의 위치가 반드시 이것으로 한정되는 것은 아니다. 예를 들면, 제2 마이크(170)는 유선 이어셋(100A)에서 사용자의 귀 밖으로 노출되는 부분이라면, 어디에든 배치될 수 있다. 일 예로, 도 4에 도시된 유선 이어셋(100B)과 같이, 제2 마이크(170)는 제2 몸체부(12b)의 외부에 배치될 수 있다. 다른 예로, 도 5에 도시된 유선 이어셋(100C)과 같이, 제2 마이크(170)는 제1 몸체부(11b)의 외부에 배치될 수 있다.
도 6은 도 3에 도시된 유선 이어셋(100A)의 구성을 도시한 도면이다.
도 6을 참조하면, 일 실시예에 따른 유선 이어셋(100A)은 제1 스피커(110), 제1 마이크(120), 제2 스피커(160), 제2 마이크(170), 버튼부(130), 저장부(140) 및 제어부(150)를 포함한다.
제1 스피커(110), 제1 마이크(120), 제2 스피커(160) 및 제2 마이크(170)에 대해서는 도 3 내지 도 5를 참조하여 설명하였으므로, 중복되는 설명은 생략하기로 한다.
버튼부(130)는 유선 이어셋(100A)의 동작을 제어하기 위한 명령을 사용자로부터 입력받을 수 있다. 이를 위해 버튼부(130)는 적어도 하나의 버튼을 포함할 수 있다. 예를 들면, 버튼부(130)는 유선 이어셋(100A)의 음량 자동 제어 모드를 활성화시키는 활성화 버튼, 유선 이어셋(100A)의 음량 자동 제어 모드를 비활성화시키는 비활성화 버튼, 제1 스피커(110) 및/또는 제2 스피커(160)를 통해 출력되는 소리의 크기를 조절할 수 있는 음량 조절 버튼을 포함할 수 있다. 그러나 버튼의 종류가 예시된 것들로 반드시 한정되는 것은 아니며, 버튼부(130)에 구비되는 버튼의 종류는 경우에 따라 더 추가되거나 생략될 수 있다.
한편, 버튼부(130)를 이용하여 입력할 수 있는 명령의 개수는 버튼부(130)에 배치된 버튼의 개수와 대응될 수 있다. 이 경우, 버튼부(130)의 버튼들은 각각 하드웨어적으로 별도로 배치될 수 있다. 다른 예로, 버튼부(130)를 이용하여 입력할 수 있는 명령의 개수는 버튼부(130)에 배치된 버튼의 개수보다 많을 수 있다. 이 경우, 버튼부(130)에 배치된 버튼의 조작 패턴에 따라서 서로 다른 명령이 입력되도록 구현될 수 있다. 구체적으로, 버튼이 온/오프 버튼으로 구현되는 경우, 버튼이 온되는 시간, 오프되는 시간, 및 사전 지정된 시간 동안 온오프되는 횟수 중 적어도 하나에 기초하여 서로 다른 명령이 입력되도록 구현될 수 있다.
저장부(140)는 음성 인식 알고리즘 및 음성 모델을 저장한다. 또한, 저장부(140)는 사용자 단말기(600)로부터 수신한 기준 단어에 대한 정보를 저장한다. 이러한 저장부(140)는 휘발성 메모리, 비휘발성 메모리, 또는 이들의 조합을 포함할 수 있다. 예시된 바와 같은 메모리는 유선 이어셋(100A) 내에 구비된 내장형 메모리이거나, 유선 이어셋(100A)으로부터 탈착 가능한 외장형 메모리일 수 있다. 외장형 메모리로는 SD 카드(Secure Digital card), 미니 SD 카드, 및 마이크로 SD 카드를 예로 들 수 있다.
제어부(150)는 상대방의 음성이 제2 마이크(170)에 의해 음성 신호로 변환되면, 변환된 음성 신호를 대상으로 음성 인식을 수행한다. 구체적으로, 제어부(150)는 변환된 음성 신호에서 음성 인식 구간을 추출하고, 추출된 음성 인식 구간에서 잡음을 제거한다. 그 다음, 제어부(150)는 잡음이 제거된 음성 인식 구간에서 특징을 추출하고, 추출된 특징을 저장부(140)에 저장되어 있는 음성 모델과 비교하여 음성 인식 결과를 출력한다.
이 후, 제어부(150)는 음성 인식 결과와 기준 단어를 비교한다.
비교 결과, 음성 인식 결과와 기준 단어가 일치하지 않는 경우, 제어부(150)는 유선 이어셋(100A)의 동작 상태를 그대로 유지한다.
비교 결과, 음성 인식 결과와 기준 단어가 일치하는 경우, 제어부(150)는 유선 이어셋(100A)의 동작 상태를 자동으로 변경한다. 예를 들면, 제어부(150)는 유선 이어셋(100A)의 제1 스피커(110) 및 제2 스피커(160)를 통해 출력되고 있는 소리의 크기를 감소시킨다. 이처럼 유선 이어셋(100A)의 동작 상태를 자동으로 변경하면, 유선 이어셋(100A)의 사용자가 상대방이 부르는 소리를 듣지 못한 경우라 하더라도, 사용자의 주의를 환기시킬 수 있다. 그 결과, 사용자가 상대방을 쉽게 인지할 수 있다.
도 7은 일 실시예에 따른 무선 이어셋(100D)과 사용자 단말기(600)를 도시한 도면이다.
도 7을 참조하면, 무선 이어셋(100D)은 사용자 단말기(600)와 무선 통신 방식에 따라 신호 및/또는 데이터를 송수신한다. 무선 이어셋(100D)과 사용자 단말기(600) 간에 신호 및/또는 데이터가 송수신되기에 앞서, 무선 이어셋(100D)과 사용자 단말기(600) 간에는 페어링(pairing)이 수행될 수 있다. 페어링은 무선 이어셋(100D)의 정보를 사용자 단말기(600)에 등록하고, 사용자 단말기(600)의 정보를 무선 이어셋(100D)에 등록하는 과정이다. 페어링이 완료되면, 페어링이 완료된 기기 간에만 데이터가 송수신되므로, 두 기기 간에 송수신되는 데이터에 대한 보안성을 향상시킬 수 있다.
도 7을 참조하면, 무선 이어셋(100D)은 제1 이어폰부(11) 및 제2 이어폰부(12)를 포함한다.
제1 이어폰부(11)는 사용자의 제1 외이도에 삽입되는 제1 삽입부(11a)와, 제1 삽입부(11a)에 기계적으로 결합된 제1 몸체부(11b)를 포함한다.
제2 이어폰부(12)는 사용자의 제2 외이도에 삽입되는 제2 삽입부(12a)와, 제2 삽입부(12a)에 기계적으로 결합된 제2 몸체부(12b)를 포함한다.
도 3 내지 도 5에 도시된 유선 이어셋들(100A, 100B, 100C)은 제1 몸체부(11b)의 끝단과 제2 몸체부(12b)의 끝단으로부터 각각 케이블(13a, 13b)이 연장된다. 이에 비하여, 도 7에 도시된 무선 이어셋(100D)은 제1 몸체부(11b)의 끝단과 제2 몸체부(12b)의 끝단이 서로 기구적으로 연결된다.
제1 삽입부(11a)의 내부에는 제1 스피커(110) 및 제1 마이크(120)가 배치된다. 그리고 제2 삽입부(12a)의 내부에는 제2 스피커(160)가 배치된다.
제1 스피커(110) 및 제2 스피커(160)는 사용자 단말기(600)로부터 수신된 음향 신호나 음성 신호를 출력한다.
제1 마이크(120)는 사용자의 귓속에서 나오는 음성을 입력받고, 입력받은 음성을 그에 대응하는 음성 신호로 변환한다. 변환된 음성 신호는 처리된 후 사용자 단말기(600)로 전송된다.
한편, 제2 마이크(170)는 무선 이어셋(100D)의 외부에 노출되도록 배치된다. 예를 들면, 도 7에 도시된 바와 같이, 제2 몸체부(12b)의 외부에 배치될 수 있다. 다른 예로, 도면에 도시하지는 않았지만, 제1 몸체부(11b)의 외부에 배치될 수도 있다. 그러나 제2 마이크(170)의 배치 위치가 예시된 위치들로 한정되는 것은 아니다. 제2 마이크(170)는 사용자의 귀 밖으로 노출되는 부분이라면, 무선 이어셋(100D)의 어디든지 배치될 수 있다.
제2 마이크(170)는 상대방의 음성을 입력받고, 입력받은 음성을 그에 대응하는 음성 신호로 변환한다. 실시예에 따르면, 변환된 음성 신호를 대상으로 음성 인식이 수행될 수 있다.
도 8은 도 7에 도시된 무선 이어셋(100D)의 구성을 도시한 도면이다.
도 8을 참조하면, 무선 이어셋(100D)은 제1 스피커(110), 제1 마이크(120), 제2 스피커(160), 제2 마이크(170), 버튼부(130), 저장부(140), 제어부(150) 및 통신부(180)를 포함한다.
도 8에 도시된 무선 이어셋(100D)의 구성은 도 3에 도시된 유선 이어셋(100A)의 구성과 거의 유사하다. 다만, 도 8의 무선 이어셋(100D)은 도 3에 도시된 유선 이어셋(100A)에 비하여 통신부(180)를 더 포함한다는 점에 있어서 차이가 있다. 도 3의 유선 이어셋(100A)과 중복되는 구성요소에 대한 설명은 생략하고, 차이가 있는 구성요소를 위주로 설명하면 다음과 같다.
통신부(180)는 무선 통신 방식에 따라 사용자 단말기(600)와 신호 및/또는 데이터를 송수신할 수 있다. 예를 들면, 통신부(180)는 사용자 단말기(600)와의 페어링에 필요한 신호를 송수신하거나, 음성 신호를 송수신할 수 있다. 또한, 통신부(180)는 사용자 단말기(600)로부터 기준 단어에 대한 정보나 음향 신호를 수신할 수 있다.
통신부(180)는 적어도 하나의 무선 통신 방식을 지원할 수 있다. 무선 통신 방식으로는 근거리무선통신(Near Field Communication, NFC), 무선 유에스비(Wireless USB), 울트라와이드밴드(Ultra Wide Band, UWB), 와이파이(WiFi), 블루투스(Bluetooth), 지그비(ZIGBEE), 무선 주파수 통신(Radio Frequency, RF), 및 적외선 통신(Infrared Data Association, IrDA)을 예로 들 수 있다.
제어부는(150)는 상대방의 음성이 제2 마이크(170)에 의해 음성 신호로 변환되면, 변환된 음성 신호를 대상으로 음성 인식을 수행한다. 구체적으로, 제어부(150)는 변환된 음성 신호에서 음성 인식 구간을 추출하고, 추출된 음성 인식 구간에서 잡음을 제거한다. 그 다음, 제어부(150)는 잡음이 제거된 음성 인식 구간에서 특징을 추출하고, 추출된 특징을 저장부(140)에 저장되어 있는 음성 모델과 비교하여 음성 인식 결과를 출력한다.
이 후, 제어부(150)는 음성 인식 결과와 기준 단어를 비교한다. 비교 결과, 음성 인식 결과와 기준 단어가 일치하지 않는 경우, 제어부(150)는 유선 이어셋(100A)의 동작 상태를 그대로 유지한다. 비교 결과, 음성 인식 결과와 기준 단어가 일치하는 경우, 제어부(150)는 제1 스피커(110) 및 제2 스피커(160)를 통해 출력되고 있는 소리의 크기를 감소시킨다.
도 9는 이어셋 제어 방법의 일 실시예를 도시한 흐름도이다.
먼저, 사용자 단말기(600)는 기준 단어를 설정한다(S710). 실시예에 따르면, 기준 단어 설정과 관련된 모드로는 자동 설정 모드와 수동 설정 모드를 예로 들 수 있다. 사용자 단말기(600)는 기 설정되어 있는 기준 단어 설정 모드를 확인하고, 확인 결과에 따라 기준 단어를 설정한다. 이에 대한 보다 구체적인 설명을 위해 도 10을 참조하기로 한다.
도 10을 참조하면, 사용자 단말기(600)는 기준 단어 설정 모드가 자동 설정 모드인지를 확인한다(S711).
S711 단계의 확인 결과, 기준 단어 설정 모드가 자동 설정 모드인 경우, 사용자 단말기(600)는 서버(300)에 사용자의 소셜 네트워크 서비스 데이터를 요청한다(S712). 소셜 네트워크 서비스 데이터는 사용자의 프로필 정보, 사용자가 작성한 글, 사용자가 작성한 글에 다른 사용자들이 남긴 댓글, 및 사용자가 다른 사용자들의 글에 남긴 댓글을 포함할 수 있다.
서버(300)로부터 소셜 네트워크 서비스 데이터가 수신되면(S713), 사용자 단말기(600)는 수신된 소셜 네트워크 서비스 데이터에서 사용자를 지칭하는 단어를 추출한다(S714). 사용자를 지칭하는 단어는 사용자의 이름, 애칭, 별명, 또는 직급을 포함할 수 있다.
이 후, 사용자 단말기(600)는 추출된 단어를 기준 단어로 설정한다(S715). S714 단계에서 추출된 단어가 복수개라면, 복수개의 단어가 모두 기준 단어로 설정될 수 있다.
S711 단계의 확인 결과, 기준 단어 설정 모드가 수동 설정 모드인 경우, 사용자 단말기(600)는 사용자에 의해 입력된 단어를 기준 단어로 설정한다(S716). 이 때, 단어는 문자 입력 방식 또는 음성 입력 방식으로 입력될 수 있다. 단어가 음성 인식 방식으로 입력되는 경우, 사용자 단말기(600)는 사용자의 음성을 입력받아, 음성 인식을 수행한다. 그리고 음성 인식 결과로 얻어진 단어를 기준 단어로 설정한다.
다시 도 9를 참조하면, 사용자 단말기(600)는 설정된 기준 단어를 저장부(650)에 저장한 다음(S720), 이어셋(100)으로 전송한다(S730). 이 때, 기준 단어는 유선 통신 방식 또는 무선 통신 방식에 따라 전송된다.
이어셋(100)은 사용자 단말기(600)로부터 수신한 기준 단어를 저장부(140)에 저장한다(S740).
이 후, 이어셋(100)의 제2 마이크(170)로 상대방의 음성이 입력되면, 이어셋(100)은 입력된 음성을 대상으로 음성 인식을 수행한다(S750). 상기 S750 단계는 제2 마이크(170)로 입력된 상대방의 음성을 음성 신호로 변환하는 단계, 변환된 음성 신호에서 음성 인식 구간을 추출하는 단계, 추출된 음성 인식 구간에서 잡음을 제거하는 단계, 잡음이 제거된 음성 인식 구간에서 특징을 추출하는 단계, 추출된 특징과 기 저장되어 있는 음성 모델과 비교하여 음성 인식 결과를 출력하는 단계를 포함할 수 있다.
음성 인식 결과가 출력되면, 이어셋(100)은 음성 인식 결과와 기 저장되어 있는 기준 단어를 비교한다(S760).
그 다음, 비교 결과에 따라 이어셋(100)의 동작 상태를 변경한다(S770). 상기 S770 단계는 음성 인식 결과와 기준 단어가 일치하지 않는 경우, 이어셋(100)의 동작 상태를 유지하는 단계와, 음성 인식 결과와 기준 단어가 일치하는 경우, 이어셋(100)의 동작 상태를 변경하는 단계를 포함할 수 있다. 상기 이어셋(100)의 동작 상태를 변경하는 단계는 이어셋(100)의 제1 스피커(110) 및 제2 스피커(160)를 통해 출력되고 있는 소리의 크기를 감소시키는 단계를 포함할 수 있다.
다른 실시예에 따르면, 상기 S770 단계는 음성 인식 결과와 기준 단어가 일치하지 않는 경우, 이어셋(100)의 동작 상태를 유지하는 단계와, 음성 인식 결과와 기준 단어가 일치하는 경우, 그 결과를 이어셋(100)의 제1 스피커(100) 및/또는 제2 스피커(160)를 통해 청각적 신호로 출력하는 단계를 포함할 수 있다.
이상, 도 9 및 도 10을 참조하여, 이어셋 제어 방법의 일 실시예를 설명하였다. 일 실시예에 따르면, 사용자 단말기(600)에서는 기준 단어 설정 동작만 이루어지고, 상대방의 음성에 대한 음성 인식은 이어셋(100)에서 실행되는 경우를 설명하였다. 다른 실시예에 따르면, 기준 단어 설정 및 상대방의 음성에 대한 음성 인식은 모두 사용자 단말기(600)에서 이루어질 수도 있다. 이에 대한 보다 구체적인 설명을 위해 도 11을 참조하기로 한다.
도 11은 이어셋 제어 방법의 다른 실시예를 도시한 흐름도이다.
먼저, 사용자 단말기(600)는 기준 단어를 설정한다(S810). 구체적으로, 사용자 단말기(600)는 기 설정되어 있는 기준 단어 설정 모드를 확인하고, 확인 결과에 따라 기준 단어를 설정한다. 상기 S810 단계에 대한 구체적인 설명은 도 10을 참조하여 설명하였으므로, 중복되는 설명은 생략하기로 한다.
사용자 단말기(600)는 설정된 기준 단어를 저장부(650)에 저장한다(S820).
이 후, 사용자 단말기(600)는 마이크(611)로 상대방의 음성이 입력되면, 입력된 음성을 대상으로 음성 인식을 수행한다(S830). 상기 S830 단계는 마이크(611)로 입력된 상대방의 음성을 음성 신호로 변환하는 단계, 변환된 음성 신호에서 음성 인식 구간을 추출하는 단계, 추출된 음성 인식 구간에서 잡음을 제거하는 단계, 잡음이 제거된 음성 인식 구간에서 특징을 추출하는 단계, 추출된 특징과 기 저장되어 있는 음성 모델과 비교하여 음성 인식 결과를 출력하는 단계를 포함할 수 있다.
음성 인식 결과가 출력되면, 사용자 단말기(600)는 음성 인식 결과와 기 저장되어 있는 기준 단어를 비교한다(S840). 그리고, 사용자 단말기(600)는 비교 결과를 이어셋(100)으로 전송한다(S850). 이 때, 비교 결과는 유선 통신 방식 또는 무선 통신 방식에 따라 전송된다.
한편, 이어셋(100)은 사용자 단말기(600)로부터 수신한 비교 결과에 따라, 이어셋(100)의 동작 상태를 변경한다(S860). 상기 S860 단계는 음성 인식 결과와 기준 단어가 일치하지 않는 경우, 이어셋(100)의 동작 상태를 유지하는 단계와, 음성 인식 결과와 기준 단어가 일치하는 경우, 이어셋(100)의 동작 상태를 변경하는 단계를 포함할 수 있다. 상기 이어셋(100)의 동작 상태를 변경하는 단계는 이어셋(100)의 제1 스피커(110) 및 제2 스피커(160)를 통해 출력되고 있는 소리의 크기를 감소시키는 단계를 포함할 수 있다.
다른 실시예에 따르면, 상기 S860 단계는 음성 인식 결과와 기준 단어가 일치하지 않는 경우, 이어셋(100)의 동작 상태를 유지하는 단계와, 음성 인식 결과와 기준 단어가 일치하는 경우, 그 결과를 이어셋(100)의 제1 스피커(100) 및/또는 제2 스피커(160)를 통해 청각적 신호로 출력하는 단계를 포함할 수 있다.
전술한 실시예들에 더하여, 본 발명의 실시예들은 전술한 실시예의 적어도 하나의 처리 요소를 제어하기 위한 컴퓨터 판독 가능한 코드/명령을 포함하는 매체 예를 들면, 컴퓨터 판독 가능한 매체를 통해 구현될 수도 있다. 상기 매체는 상기 컴퓨터 판독 가능한 코드의 저장 및/또는 전송을 가능하게 하는 매체/매체들에 대응할 수 있다.
상기 컴퓨터 판독 가능한 코드는 매체에 기록될 수 있다. 상기 매체는 예를 들어, 마그네틱 저장 매체(예를 들면, ROM, 플로피 디스크, 하드 디스크 등) 및 광학 기록 매체(예를 들면, CD-ROM, Blu-Ray, DVD)와 같은 기록 매체를 포함할 수 있다.
상기 매체들은 분산 네트워크일 수도 있으므로, 컴퓨터로 읽을 수 있는 코드는 분산 방식으로 저장/전송되고 실행될 수 있다. 또한 더 나아가, 단지 일 예로써, 처리 요소는 프로세서 또는 컴퓨터 프로세서를 포함할 수 있고, 상기 처리 요소는 하나의 디바이스 내에 분산 및/또는 포함될 수 있다.
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다.
1: 이어셋 제어 시스템
11: 제1 이어폰부
11a: 제1 삽입부
11b: 제1 몸체부
12: 제2 이어폰부
12a: 제2 삽입부
12b: 제2 몸체부
13, 13a, 13b: 케이블
14: 연결 단자
15: 조작부
100: 이어셋
100A, 100B, 100C: 유선 이어셋
100D: 무선 이어셋
200: 유무선 네트워크
300: 서버
600: 사용자 단말기

Claims (10)

  1. 제1 마이크와 제1 스피커를 포함하되 사용자의 제1 귀에 안착되는 제1 이어폰부와, 제2 스피커를 포함하되 상기 사용자의 제2 귀에 안착되는 제2 이어폰부를 포함하는 이어셋의 제어 방법에 있어서,
    제어부가 상대방의 음성을 대상으로 음성 인식을 수행하는 단계; 및
    상기 음성 인식 결과와 상기 사용자를 지칭하는 단어인 기준 단어가 일치하는 경우, 상기 음성 인식 결과와 상기 기준 단어를 비교한 결과를 상기 제1 스피커 또는 상기 제2 스피커를 통해 청각적 신호로 출력하는 단계를 포함하되,
    상기 기준 단어를 설정하기 위한 기준 단어 설정 모드로서 자동 설정 모드가 선택되는 경우, 상기 기준 단어는 상기 사용자의 소셜 네트워크 서비스 데이터를 분석하여 획득되는, 이어셋의 제어 방법.
  2. 제1항에 있어서,
    상기 기준 단어는 저장부에 저장되며,
    상기 저장부는 상기 이어셋 내에 구비된 내장형 메모리 및 상기 이어셋으로부터 탈착 가능한 외장형 메모리 중 적어도 하나를 포함하는, 이어셋의 제어 방법.
  3. 제1항에 있어서,
    상기 소셜 네트워크 서비스 데이터는
    상기 사용자의 프로필 정보, 상기 사용자가 작성한 글, 상기 사용자가 작성한 글에 다른 사용자들이 남긴 댓글, 및 상기 사용자가 다른 사용자들의 글에 남긴 댓글 중 적어도 하나를 포함하는, 이어셋의 제어 방법.
  4. 제1항에 있어서,
    상기 기준 단어 설정 모드로서 수동 설정 모드가 선택되는 경우, 상기 기준 단어는 상기 사용자가 문자 입력 방식으로 입력한 단어 및 상기 사용자가 음성 입력 방식으로 입력한 단어 중 적어도 하나를 포함하는, 이어셋의 제어 방법.
  5. 제1항에 있어서,
    상기 상대방의 음성은
    상기 이어셋의 외부에 배치된 제2 마이크로 입력되거나 상기 이어셋과 연동된 사용자 단말기의 마이크로 입력되는, 이어셋의 제어 방법.
  6. 제1항에 있어서,
    상기 음성 인식을 수행하는 단계는
    상기 상대방의 음성에 대응하는 음성 신호에서 음성 인식 구간을 추출하는 단계;
    상기 추출된 음성 인식 구간에서 잡음을 제거하는 단계;
    상기 잡음이 제거된 음성 인식 구간에서 특징을 추출하는 단계; 및
    상기 추출된 특징을 저장부에 저장되어 있는 음성 모델과 비교하여 음성 인식 결과를 출력하는 단계를 포함하는, 이어셋의 제어 방법.
  7. 제1 마이크와 제1 스피커를 포함하되 사용자의 제1 귀에 안착되는 제1 이어폰부와, 제2 스피커를 포함하되 상기 사용자의 제2 귀에 안착되는 제2 이어폰부를 포함하는 이어셋의 제어 방법에 있어서,
    상기 이어셋과 연동된 사용자 단말기로부터, 상대방의 음성을 대상으로 수행된 음성 인식 결과와 상기 사용자를 지칭하는 단어인 기준 단어를 비교한 결과를 수신하는 단계; 및
    상기 음성 인식 결과와 상기 기준 단어가 일치하는 경우, 상기 비교 결과를 상기 제1 스피커 또는 상기 제2 스피커를 통해 청각적 신호로 출력하는 단계를 포함하되,
    상기 기준 단어를 설정하기 위한 기준 단어 설정 모드로서 자동 설정 모드가 선택되는 경우, 상기 기준 단어는 상기 사용자의 소셜 네트워크 서비스 데이터를 분석하여 획득되는, 이어셋의 제어 방법.
  8. 제7항에 있어서,
    상기 기준 단어 설정 모드로서 수동 설정 모드가 선택되는 경우, 상기 기준 단어는 상기 사용자가 문자 입력 방식으로 입력한 단어 및 상기 사용자가 음성 입력 방식으로 입력한 단어 중 적어도 하나를 포함하는, 이어셋의 제어 방법.
  9. 제7항에 있어서,
    상기 상대방의 음성은 상기 이어셋과 연동되는 사용자 단말기에 배치된 마이크로 입력되는, 이어셋의 제어 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 기재된 이어셋의 제어 방법을 실행시키기 위하여, 기록매체에 저장된 단말 장치용 어플리케이션.
KR1020150011949A 2015-01-26 2015-01-26 이어셋 및 그 제어 방법 KR101634133B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150011949A KR101634133B1 (ko) 2015-01-26 2015-01-26 이어셋 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150011949A KR101634133B1 (ko) 2015-01-26 2015-01-26 이어셋 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR101634133B1 true KR101634133B1 (ko) 2016-06-28

Family

ID=56366384

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150011949A KR101634133B1 (ko) 2015-01-26 2015-01-26 이어셋 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR101634133B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022177186A1 (ko) * 2021-02-18 2022-08-25 삼성전자 주식회사 스피커 및 마이크를 포함하는 전자 장치 및 그 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005192004A (ja) * 2003-12-26 2005-07-14 Toshiba Corp ヘッドセットおよびヘッドセットの音楽データの再生制御方法
KR101092957B1 (ko) * 2010-11-05 2011-12-12 신두식 마이크로폰
KR20120111667A (ko) * 2011-04-01 2012-10-10 한국전자통신연구원 Sns 기반 타임머신 서비스 제공 장치 및 방법
KR101348505B1 (ko) 2012-07-17 2014-01-07 신두식 이어셋
KR20140007512A (ko) * 2012-07-09 2014-01-20 엘지전자 주식회사 휴대 단말기 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005192004A (ja) * 2003-12-26 2005-07-14 Toshiba Corp ヘッドセットおよびヘッドセットの音楽データの再生制御方法
KR101092957B1 (ko) * 2010-11-05 2011-12-12 신두식 마이크로폰
KR20120111667A (ko) * 2011-04-01 2012-10-10 한국전자통신연구원 Sns 기반 타임머신 서비스 제공 장치 및 방법
KR20140007512A (ko) * 2012-07-09 2014-01-20 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
KR101348505B1 (ko) 2012-07-17 2014-01-07 신두식 이어셋

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022177186A1 (ko) * 2021-02-18 2022-08-25 삼성전자 주식회사 스피커 및 마이크를 포함하는 전자 장치 및 그 동작 방법

Similar Documents

Publication Publication Date Title
US11705878B2 (en) Intelligent audio output devices
US10405081B2 (en) Intelligent wireless headset system
US11348580B2 (en) Hearing aid device with speech control functionality
US9818423B2 (en) Method of improving sound quality and headset thereof
KR101598400B1 (ko) 이어셋 및 그 제어 방법
KR101619133B1 (ko) 통역용 이어셋
US20130343584A1 (en) Hearing assist device with external operational support
US9374657B2 (en) Bluetooth transceiver, wired headphone module, and mobile device module
US9894449B2 (en) Ear mold for auditory device
US20180132027A1 (en) Programmable interactive stereo headphones with tap functionality and network connectivity
TW201602903A (zh) 用以增強行動裝置上之多媒體播放的系統、操作在一兼容助聽器功能的語音通話模式與一多媒體模式的設備以及用以操作在一多媒體模式的設備
JP2018501506A (ja) ディクテーション装置のための操作デバイス
KR101450014B1 (ko) 블루투스를 이용한 스마트 사용자 보조 장치
US10681449B2 (en) Earpiece with added ambient environment
US10708699B2 (en) Hearing aid with added functionality
JP2022050516A (ja) 端末、音声連携再生システム及びコンテンツ表示装置
KR101634133B1 (ko) 이어셋 및 그 제어 방법
KR101545147B1 (ko) 매너 통화 기능을 포함한 블루투스 스테레오 헤드셋
US10433081B2 (en) Consumer electronics device adapted for hearing loss compensation
CN109511040B (zh) 一种耳语放大方法、装置及耳机
CN112911062B (zh) 语音处理方法、控制装置、终端设备和存储介质
KR101164970B1 (ko) 근거리 통신을 이용한 보청장치
KR101919474B1 (ko) 마이크가 버튼 기능을 수행하는 이어폰 장치
KR101672942B1 (ko) 히어링 디바이스의 청력 향상 기능 설정 방법 및 청력 향상 기능을 가진 히어링 디바이스
CN111615036B (zh) 一种数据处理方法、装置及电子设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant