KR20120127773A - 음성인식 정보검색 시스템 및 그 방법 - Google Patents

음성인식 정보검색 시스템 및 그 방법 Download PDF

Info

Publication number
KR20120127773A
KR20120127773A KR1020110045473A KR20110045473A KR20120127773A KR 20120127773 A KR20120127773 A KR 20120127773A KR 1020110045473 A KR1020110045473 A KR 1020110045473A KR 20110045473 A KR20110045473 A KR 20110045473A KR 20120127773 A KR20120127773 A KR 20120127773A
Authority
KR
South Korea
Prior art keywords
information
voice
user
unit
output
Prior art date
Application number
KR1020110045473A
Other languages
English (en)
Other versions
KR101322394B1 (ko
Inventor
이연정
이민호
김민영
손형민
양승호
김현우
정경욱
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020110045473A priority Critical patent/KR101322394B1/ko
Publication of KR20120127773A publication Critical patent/KR20120127773A/ko
Application granted granted Critical
Publication of KR101322394B1 publication Critical patent/KR101322394B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 정보검색에 관한 것으로서 더욱 상세하게는 상대방의 음성을 인식하여 사용자가 원하는 단어를 선택하여 검색하여 그 검색정보를 사용자에게 제공하는 음성인식 정보검색 시스템 및 그 방법에 관한 것으로서, 이를 위해 본 발명은 음성을 입력받기 위한 음성 입력부, 음성 입력부에서 입력된 음성의 인식을 위한 음성 인식부, 음성 인식부에서 인식된 음성을 텍스트로 변환하여 정보를 검색하기 위한 정보 검색부, 및 정보 검색부에서 검색된 정보를 출력하기 위한 정보 출력부를 포함한다.

Description

음성인식 정보검색 시스템 및 그 방법{VOCAL RECOGNITION INFORMATION RETRIEVAL SYSTEM AND METHOD THE SAME}
본 발명은 정보검색에 관한 것으로서 더욱 상세하게는 상대방의 음성을 인식하여 사용자가 원하는 단어를 선택하여 검색한 후, 그 검색정보를 사용자에게 음성 또는 영상으로 제공하는 음성인식 정보검색 시스템 및 그 방법에 관한 것이다.
최근 들어, 무선 네트워크를 이용하는 인터넷 검색이 활발히 이루어지고 있다.
이에 따라 무선 네트워크 망을 통해 인터넷에서 정보의 검색과 같은 검색의 이용 빈도가 증가하고 있는 중이다.
그러나 종래에는 대화중에 상대방의 대화 내용 중 의미를 인지하지 못하는 단어가 나오는 경우, 대화를 중단한 후, 상대방에게 그 의미에 대해 물어보고 이해한 후 다시 대화를 이어나가는 경우가 일반적이었다.
그러나 이런 경우, 상대방과의 대화 흐름이 방해를 받고, 만약 상대방이 말하는 단어의 뜻을 물어보지 않고 대화를 진행하는 경우 정확한 의미의 전달이 이루어 지지 않는다는 문제점이 있었다.
따라서 종래에는 스마트폰과 같은 무선인터넷 수단을 이용하여 대화도중 모르는 단어가 있는 경우, 대화를 중단하고 단어의 뜻을 검색하여 이해한 후 대화를 다시 진행하는 경우가 많았다.
그러나 이러한 경우에도, 정보를 검색하는 동안 대화의 흐름에 방해가 되어 대화의 흐름이 깨진다는 문제점도 있었다.
본 발명은 상술한 바와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 특히 상대방과 대화도중 실시간으로 상대방이 말한 단어의 의미를 자동으로 검색하여 영상 또는 음성으로 정보를 제공받기 위한 음성인식 정보검색 시스템 및 그 방법을 제공하는 것이다.
이를 위해 본 발명에 따르는 음성인식 정보검색 시스템은, 음성을 입력받기 위한 음성 입력부, 상기 음성 입력부에서 입력된 음성의 인식을 위한 음성 인식부, 상기 음성 인식부에서 인식된 음성을 텍스트로 변환하여 정보를 검색하기 위한 정보 검색부, 및 상기 정보 검색부에서 검색된 정보를 출력하기 위한 정보 출력부를 포함한다.
상기 음성 입력부는 상기 음성을 입력받기 위한 적어도 하나 이상의 마이크, 및 사용자의 눈동자 위치를 판독하여 음원의 위치를 인식하는 음원위치 인식수단을 포함한다.
상기 정보 검색부는 상기 정보를 검색하기 위한 내부 데이터베이스, 상기 정보를 외부의 데이터베이스에서 검색하기 위한 무선통신 수단, 기 설정된 사용자의 모션을 판단하여 상기 정보의 검색 여부를 판단하기 위한 모션인식 수단, 및 기 설정된 사용자의 음성을 판단하여 상기 정보의 검색 여부를 판단하기 위한 제1 음성인식 수단을 포함한다.
상기 정보 출력부는 상기 정보를 음성으로 출력하기 위한 스피커, 상기 정보를 영상으로 출력하기 위한 디스플레이를 포함한다.
상기 정보의 출력 여부를 기 설정된 사용자의 음성을 인식하여 결정하기 위한 사용자의 제2 음성인식 수단, 및 상기 정보의 출력 여부를 기 설정된 사용자의 동작을 인식하여 결정하기 위한 모션센서를 포함한다.
상기 스피커는 이어폰이 연결될 수 있는 잭을 구비하고, 상기 디스플레이는 HMD(Head Mounted Display)타입이다.
또한, 이를 위해 본 발명에 따르는 음성인식 정보검색 방법은, 음성을 입력받는 음성입력 단계, 상기 음성의 인식을 위한 음성인식 단계, 인식된 상기 음성을 텍스트 변환하여 정보를 검색하기 위한 정보검색 단계, 및 상기 정보의 검색결과를 출력하기 위한 정보출력 단계를 포함한다.
상기 정보검색 단계는 상기 텍스트의 검색여부를 결정하기 위해 사용자의 모션과 음성을 인식하여 검색 여부를 검색수행 판단단계를 더 포함한다.
상기 정보출력 단계는 상기 정보의 출력여부를 결정하기 위해 사용자의 모션과 음성을 인식하여 출력 여부를 판단하는 과정, 및 상기 판단하는 과정에서 상기 정보의 출력이 결정되면, 상기 정보를 출력하는 방법을 영상 또는 음성으로 출력할 지의 여부를 결정하는 정보출력방식 결정과정을 포함한다.
본 발명의 다양한 실시 예에 따르면, 실시간으로 단어를 검색하여 영상 또는 음성으로 사용자에게만 정보를 제공하기 때문에 대화의 흐름을 유지할 수 있는 효과가 있다.
또한, 본 발명의 다양한 실시 예에 따르면, 실시간으로 단어를 검색하여 사용자에게 제공하기 때문에 대화의 의미를 보다 명확하게 판단할 수 있는 효과도 있다.
따라서 본 발명의 다양한 실시 예에 따르면, 궁극적으로 상대방과의 대화를 원활하게 진행하는 한편 정확한 의미를 전달할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템을 예를 들어 보여주기 위한 예시도.
도 2는 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템의 음성 인식부를 자세하게 보여주는 블록도.
도 3은 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템의 정보 검색부를 자세하게 보여주는 블록도.
도 4는 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템의 정보 출력부를 자세하게 보여주는 블록도.
도 5는 본 발명의 다른 실시 예에 따르는 음성인식 정보검색 시스템을 자세하게 보여주는 예시도.
도 6은 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템을 보여주는 순서도.
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 음성인식 정보검색 시스템 및 그 방법을 상세히 설명한다.
도 1 내지 도 4의 동일 부재에 대해서는 동일한 도면 번호를 기재하였다.
본 발명의 기본 원리는 대화 상대방의 음성을 인식하여 텍스트로 변환한 후, 내부 및 외부의 데이터베이스에서 검색하여 그 정보를 사용자에게 제공하는 것이다.
아울러, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.
도 1은 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템을 예를 들어 보여주기 위한 예시도이다.
도 1을 참조하면 본 발명에 따르는 음성인식 정보검색 시스템(100)은 음성을 입력받기 위한 음성 입력부(110), 음성 입력부(110)에서 입력된 음성의 인식을 위한 음성 인식부(120), 음성 인식부(120)에서 인식된 음성을 텍스트로 변환하여 정보를 검색하기 위한 정보 검색부(130), 및 정보 검색부(130)에서 검색된 정보를 출력하기 위한 정보 출력부(140)를 포함한다.
도 1과 같이 구성된 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템(110)의 동작은 다음과 같다.
우선, 음성 입력부(110)는 사용자와 대화중인 상대방의 음성을 입력받는다.
도 2는 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템(100)의 음성 인식부(110)를 자세하게 보여주는 블록도이다.
우선 음성 입력부(110)는 음성을 입력받기 위한 적어도 하나 이상의 마이크(111), 및 사용자의 눈동자 위치를 판독하여 음원의 위치를 인식하는 음원위치 인식수단(112)을 포함한다.
일반적으로 사용자는 상대방의 얼굴을 바라보면서 대화한다. 즉 상대방의 입이 있는 곳이 음원이기 때문에 상대방의 음원을 음원위치 인식수단(112)을 통해 인식하면, 적어도 하나 이상의 마이크(111)가 상대방의 구비된 모터에 의해 음원 방향으로 움직이기 때문에 상대방의 음성을 보다 정확하게 입력받을 수 있다.
여기서 음원위치 인식수단(112)은 사용자의 눈동자의 위치를 감지하기 위한 카메라(a)와 그 눈동자의 위치로 상대방의 위치를 계산하기 위한 연산 수단(b)을 포함할 수 있다.
이와 같이 음원위치 인식수단(112)이 음원을 인식하면 적어도 하나 이상의 마이크(111)의 방향이 음원 쪽으로 이동하여 상대방의 음성을 보다 정확하게 입력받는다.
그러면, 음성 인식부(120)는 입력된 상대방의 음성을 인식하여 텍스트로 변환하고, 정보 검색부(130)는 그 변환된 텍스트로 정보를 검색한다.
도 3은 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템(100)의 정보 검색부(130)를 자세하게 보여주는 블록도이다.
우선 정보 검색부(130)는 변환된 텍스트로 정보를 검색하기 위한 내부 데이터베이스(131), 정보를 외부의 데이터베이스에서 검색하기 위한 무선통신 수단(132), 기 설정된 사용자의 모션을 판단하여 정보의 검색 여부를 판단하기 위한 모션인식 수단(133), 및 기 설정된 사용자의 음성을 판단하여 정보의 검색 여부를 판단하기 위한 제1 음성인식 수단(134)을 포함한다.
이와 같이 구성되는 본 발명의 일 실시 예에 따르는 정보 검색부(130)의 동작은 다음과 같다.
우선 정보 검색부(130)는 사용자의 정보검색 명령을 수용하여 구비된 자체 데이터베이스인 내부 데이터베이스(131)에서 정보를 검색한다.
만약 정보가 검색되지 않는 경우에는 무선통신 수단(132)을 통해 외부에 있는 웹페이지에 접속하여 정보를 검색할 수 있다.
여기서 정보의 검색은 기 설정된 사용자의 모션 또는 음성으로 설정된 사용자의 명령에 의해 수행된다.
우선 모션인식 수단(133)은 사용자의 특정 모션을 정보검색 명령으로 설정하여 사용자가 특정 모션을 취하는 경우 정보검색 명령이 생성되어 정보검색이 수행된다.
예를 들면, 사용자가 턱을 만지는 모션을 정보검색 명령의 실행 명령어로 설정하였다면, 대화중인 사용자가 상대방과 대화중에 턱을 만진다면 정보검색 명령이 수행되어 상대방과 대화한 단어들이 음성인식된 후 검색되어 사용자에게 제공된다.
한편, 제1 음성인식 수단(134)도 사용자의 특정 음성을 정보검색 명령으로 설정하여, 사용자가 특정 음성을 발성하는 경우 정보검색 명령이 생성되어 정보검색이 수행된다.
예를 들면, 사용자가 헛기침을 하는 것을 정보검색 명령의 실행 명령어로 설정하였다면, 대화중인 사용자가 상대방과의 대화중에 헛기침을 한다면 정보검색 명령이 생성되어 상대방과 대화한 단어들이 음성인식된 후 검색되어 사용자에게 제공된다.
이와 같이 정보 검색부(130)에서 정보의 검색이 수행된 후, 정보 출력부(140)는 검색된 정보를 영상 또는 음성으로 사용자에게 제공한다.
도 4는 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템(100)의 정보 출력부(140)를 자세하게 보여주는 블록도이다.
우선 정보 출력부(140)는 정보를 음성으로 출력하기 위한 스피커(141), 정보를 영상으로 출력하기 위한 디스플레이(142), 정보의 출력 여부를 기 설정된 사용자의 음성을 인식하여 결정하기 위한 사용자의 제2 음성인식 수단(143), 및 정보의 출력 여부를 기 설정된 사용자의 동작을 인식하여 결정하기 위한 모션센서(144)를 포함한다.
이와 같이 구성된 본 발명의 일 실시 예에 따르는 정보 출력부(140)의 동작을 설명하면 다음과 같다.
우선 제2 음성인식 수단(143)은 사용자의 특정 음성을 정보출력 명령으로 설정하여, 사용자가 특정 음성을 발성하는 경우 정보출력 명령이 생성되어 정보출력이 수행된다.
예를 들면, 사용자가 특정 음성을 정보출력 명령으로 기 설정하여 상대방과의 대화 중 그 특정 음성을 발성하는 경우 정보가 영상 또는 음성으로 사용자에게 제공된다. 특정 음성의 예로는 '출력', '제공'등 사용자가 임의로 설정할 수 있다.
한편, 모션센서(144)도 제2 음성인식 수단(143)이 유사하게 사용자가 특정 모션을 정보출력 명령으로 기 설정하여 상대방과의 대화 중 그 특정 모션을 취하는 경우 정보가 영상 또는 음성으로 사용자에게 제공된다. 특정 모션의 예로는 귀를 만진다거나 머리를 만진다하는 모션으로 사용자가 임으로 설정할 수 있다.
이와 같이 사용자는 특정 음성과 모션을 정보출력 명령으로 기 설정하여 검색된 정보의 출력을 수행시킬 수 있다.
그러면 검색된 정보는 스피커(141) 또는 디스플레이(142)를 통해 사용자에게 제공된다.
여기서 스피커(141)는 이어폰이 연결될 수 있는 잭을 구비하여 상대방과의 대화에 방해되지 않도록 사용자에게만 음성으로 정보가 제공될 수 있다.
한편, 디스플레이(142)는 HMD(Head Mounted Display)타입으로 대화중에 방해되지 않도록 사용자에게만 영상으로 제공될 수 있다.
이와 같이 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템은 상술한 바와 같이 동작함으로써, 사용자가 상대방과 대화하는 경우, 모르는 의미의 단어나 내용을 실시간으로 제공받음으로써 상대방과의 대화를 원활하게 진행할 수 있다.
도 5는 본 발명의 다른 실시 예에 따르는 음성인식 정보검색 시스템을 자세하게 보여주는 예시도이다.
도 5를 참조하면 본 발명의 다른 실시 에에 따르는 음성인식 정보검색 시스템(500)은 안경 형태로 구성되어 사용자가 용이하게 착용하여 각종 정보를 귀나 눈으로 제공할 수 있는 형태이다.
우선 음성을 입력받는 두 개의 마이크(510)가 대화중인 상대방의 음성이 입력되지 용이하게 안경 프레임의 상부에 위치한다.
이 마이크(510)로 입력된 음성은 임베디드 제어모듈(520)로 무선 전송된 후, 음성인식된 후 텍스트로 변환되어 정보가 검색된다.
이 때, 정보는 임베디드 제어모듈(520)에 내장된 데이터베이스에서 검색된다.
이 때 정보의 검색은 사용자가 마이크(510)로 정보검색 명령을 음성으로 입력하거나 자이로 센서(530)로 정보검색 명령을 모션으로 입력함으로써 수행된다.
이와 같이 사용자가 기 설정된 음성 또는 모션으로 정보검색 명령이 입력되면 임베디드 제어모듈(520)은 정보의 검색을 수행한다.
내장된 데이터베이스는 임베디드 제어모듈(520) 내부에 장착된 메모리, 예를 들면 ROM, 플래시 메모리나 HDD일 수 있으며, 임베디드 제어모듈(520)과 연결된 외장형 HDD 또는 메모리 카드, 예를 들면, 플래시 메모리(Flash Memory: M/S, xD, SD 등)나 USB 메모리 등일 수도 있다.
만약 원하는 정보가 검색되지 않는 경우, 임베디드 제어모듈(520)은 외부의 데이터베이스와 무선으로 링크하여 검색할 수 있다.
그러면, 사용자가 기 설정된 음성 또는 모션으로 정보출력 명령을 입력하면 상대방과의 대화에 방해받지 않도록 HMD(Head Mounted Display)(540)에서 사용자에게만 영상으로 정보를 제공한다.
한편, 기 설정된 음성 또는 모션으로 정보출력 명령의 설정과 입력은 상술한 정보검색 명령의 입력의 설정, 입력과 유사하다.
이와 같이 본 발명의 다른 실시 예에 따르는 음성인식 정보검색 시스템(500)은 안경형태로 제작되어 사용자가 용이하게 부착할 수 있고, 상대방과의 대화중 모르는 정보에 대해 실시간으로 검색을 지시하면 그 검색정보를 제공받음으로써 대화를 원활하게 수행할 수 있도록 한다.
도 6은 본 발명의 일 실시 예에 따르는 음성인식 정보검색 시스템을 보여주는 순서도이다.
도 6을 참조하면 본 발명의 일 실시 예에 음성인식 정보검색 방법(600)은 음성을 입력받는 음성입력 단계(S610), 음성의 인식을 위한 음성인식 단계(S620), 인식된 음성을 텍스트 변환하여 정보를 검색하기 위한 정보검색 단계(S630), 및 정보의 검색결과를 출력하기 위한 정보출력 단계(S640)를 포함한다.
도 6과 같이 구성된 본 발명의 일 실시 예에 음성인식 정보검색 방법(600)의 수행절차를 설명하면 다음과 같다.
우선 사용자와 대화중인 상대방의 음성을 입력받는다(S610). 그러면 입력된 상대방의 음성은 음성인식되어 텍스트로 변환된다(S620). 그러면 사용자는 자신이 검색하기를 원하는 텍스트의 검색을 지시한다.
즉 사용자는 상기 텍스트의 검색을 위해 기 설정된 모션과 음성으로 검색수행 명령을 생성시킨다(S625).
예를 들면, 사용자는 검색수행 명령을 임의의 모션을 취하거나 음성을 발성함으로써 기 설정한다. 그러면 임의의 모션과 음성은 검색수행 명령으로 저장되어 차후 사용자가 검색의 실행을 지시하는 경우 그 모션을 취하거나 그 음성을 발성하는 경우 검색수행 명령이 수행된다.
이렇게 사용자의 검색실행 명령이 실행되면 텍스트로 변환된 단어는 검색된다(S630).
정보를 검색하는 경우, 구비된 데이터베이스를 검색하고, 만약 구비된 데이터베이스에 정보가 검색되지 않는 경우, 외부의 데이터베이스와 무선으로 연결하여 검색한다.
마지막으로 이와 같이 검색된 정보는 사용자에게 제공된다(S640).
여기서 정보출력 단계(S640)는 정보의 출력여부를 결정하기 위해 사용자의 모션과 음성을 인식하여 출력 여부를 판단하는 과정, 및 판단하는 과정에서 정보의 출력이 결정되면, 상기 정보를 출력하는 방법을 영상 또는 음성으로 출력할지의 여부를 결정하는 정보출력방식 결정과정을 포함한다.
여기서 출력수행 명령은 사용자가 기 설정한 명령어로서 임의의 모션을 취하거나 음성을 발성함으로써 설정한다. 그러면 임의의 모션과 음성은 출력수행 명령으로 저장되어 차후 사용자가 출력수행명령을 지시하는 경우 그 모션을 취하거나 그 음성을 발성하는 경우 출력수행 명령이 수행된다(S635).
이와 같이 출력수행 명령이 지시되면 출력되는 정보는 사용자에게만 음성 또는 영상으로 제공되어 대화의 흐름에 방해받지 않고 원활한 대화를 이어나갈 수 있다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110: 음성 입력부 120: 음성 인식부
130: 정보 검색부 140: 정보 출력부

Claims (10)

  1. 음성을 입력받기 위한 음성 입력부;
    상기 음성 입력부에서 입력된 음성의 인식을 위한 음성 인식부;
    상기 음성 인식부에서 인식된 음성을 텍스트로 변환하여, 상기 텍스트에 대한 정보를 검색하기 위한 정보 검색부; 및
    상기 정보 검색부에서 검색된 정보를 출력하기 위한 정보 출력부;를 포함하는 것을 특징으로 하는 음성인식 정보검색 시스템.
  2. 제 1항에 있어서, 상기 음성 입력부는
    상기 음성을 입력받는 복수의 마이크 및 상기 복수의 마이크에서 입력된 음성에 기초하여 음원의 위치를 인식하는 음원위치 인식수단;을 포함하는 것을 특징으로 하는 음성인식 정보검색 시스템.
  3. 제 1항에 있어서, 상기 음성 입력부는
    상기 음성을 입력받기 위한 적어도 하나 이상의 마이크; 및
    사용자의 눈동자 위치를 판독하여 음원의 위치를 인식하는 음원위치 인식수단;을 포함하는 것을 특징으로 하는 음성인식 정보검색 시스템.
  4. 제 1항에 있어서, 상기 정보 검색부는
    상기 정보를 검색하기 위한 내부 데이터베이스;
    상기 정보를 외부의 데이터베이스에서 검색하기 위한 무선통신 수단;
    기 설정된 사용자의 모션을 판단하여 상기 정보의 검색 여부를 판단하기 위한 모션인식 수단; 및
    기 설정된 사용자의 음성을 판단하여 상기 정보의 검색 여부를 판단하기 위한 제1 음성인식 수단;을 포함하는 것을 특징으로 하는 음성인식 정보검색 시스템.
  5. 제 1항에 있어서, 상기 정보 출력부는
    상기 정보를 음성으로 출력하기 위한 스피커;
    상기 정보를 영상으로 출력하기 위한 디스플레이;
    상기 정보의 출력 여부를 기 설정된 사용자의 음성을 인식하여 결정하기 위한 사용자의 제2 음성인식 수단; 및
    상기 정보의 출력 여부를 기 설정된 사용자의 동작을 인식하여 결정하기 위한 모션센서;를 포함하는 것을 특징으로 하는 음성인식 정보검색 시스템.
  6. 제 5항에 있어서, 상기 스피커는
    이어폰이 연결될 수 있는 잭을 구비하고,
    상기 디스플레이는 HMD(Head Mounted Display)타입인 것을 특징으로 하는 음성인식 정보검색 시스템.
  7. 음성을 입력받는 음성입력 단계;
    상기 음성의 인식을 위한 음성인식 단계;
    인식된 상기 음성을 텍스트 변환하여 정보를 검색하기 위한 정보검색 단계;및
    상기 정보의 검색결과를 출력하기 위한 정보출력 단계;를 포함하는 것을 특징으로 하는 음성인식 정보검색 방법.
  8. 제 7항에 있어서, 상기 음성입력은
    상기 음성을 입력받는 복수의 마이크 및 상기 복수의 마이크에서 입력된 음성에 기초하여 음원의 위치를 인식하는 음원위치 인식수단을 포함하는 것을 특징으로 하는 음성인식 정보검색 방법.
  9. 제 7항에 있어서, 상기 정보검색 단계는
    상기 텍스트의 검색여부를 결정하기 위해 사용자의 모션과 음성을 인식하여 검색 여부를 검색수행 판단단계를 더 포함하는 것을 특징으로 하는 음성인식 정보검색 방법.
  10. 제 7항에 있어서, 상기 정보출력 단계는
    상기 정보의 출력여부를 결정하기 위해 사용자의 모션과 음성을 인식하여 출력 여부를 판단하는 과정; 및
    상기 판단하는 과정에서 상기 정보의 출력이 결정되면, 상기 정보를 출력하는 방법을 영상 또는 음성으로 출력할지의 여부를 결정하는 정보출력방식 결정과정;을 포함하는 것을 특징으로 하는 음성인식 정보검색 방법.
KR1020110045473A 2011-05-16 2011-05-16 음성인식 정보검색 시스템 및 그 방법 KR101322394B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110045473A KR101322394B1 (ko) 2011-05-16 2011-05-16 음성인식 정보검색 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110045473A KR101322394B1 (ko) 2011-05-16 2011-05-16 음성인식 정보검색 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20120127773A true KR20120127773A (ko) 2012-11-26
KR101322394B1 KR101322394B1 (ko) 2013-10-29

Family

ID=47512649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110045473A KR101322394B1 (ko) 2011-05-16 2011-05-16 음성인식 정보검색 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR101322394B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170082063A (ko) 2016-01-05 2017-07-13 한국전자통신연구원 음성 인식 장치 및 음성 인식 방법
KR101860309B1 (ko) * 2016-11-30 2018-06-29 (주)누리아이 온라인 쇼핑 몰의 구동 장치 및 온라인 쇼핑 몰의 구동 방법
CN109243432A (zh) * 2017-07-10 2019-01-18 三星电子株式会社 话音处理方法以及支持该话音处理方法的电子设备
KR20200000745A (ko) * 2018-06-25 2020-01-03 서울대학교산학협력단 진료 데이터 수집 관리 시스템 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104281252B (zh) * 2013-07-12 2017-12-26 联想(北京)有限公司 一种信息处理方法及电子设备
KR101595090B1 (ko) 2015-04-30 2016-02-17 주식회사 아마다스 음성 인식을 이용한 정보 검색 방법 및 장치
KR20200053278A (ko) 2018-11-08 2020-05-18 현대자동차주식회사 음성인식을 이용한 정보 제공 시스템 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010064061A (ko) * 1999-12-24 2001-07-09 이경목 음성 인식 기능을 갖는 검색 엔진
KR100480081B1 (ko) * 2003-06-18 2005-04-07 엘지전자 주식회사 음향 추적 장치를 구비한 이동 통신 단말기

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170082063A (ko) 2016-01-05 2017-07-13 한국전자통신연구원 음성 인식 장치 및 음성 인식 방법
KR101860309B1 (ko) * 2016-11-30 2018-06-29 (주)누리아이 온라인 쇼핑 몰의 구동 장치 및 온라인 쇼핑 몰의 구동 방법
CN109243432A (zh) * 2017-07-10 2019-01-18 三星电子株式会社 话音处理方法以及支持该话音处理方法的电子设备
KR20190006403A (ko) * 2017-07-10 2019-01-18 삼성전자주식회사 음성 처리 방법 및 이를 지원하는 시스템
US11670302B2 (en) 2017-07-10 2023-06-06 Samsung Electronics Co., Ltd. Voice processing method and electronic device supporting the same
CN109243432B (zh) * 2017-07-10 2024-01-05 三星电子株式会社 话音处理方法以及支持该话音处理方法的电子设备
KR20200000745A (ko) * 2018-06-25 2020-01-03 서울대학교산학협력단 진료 데이터 수집 관리 시스템 및 방법

Also Published As

Publication number Publication date
KR101322394B1 (ko) 2013-10-29

Similar Documents

Publication Publication Date Title
US10276164B2 (en) Multi-speaker speech recognition correction system
KR101322394B1 (ko) 음성인식 정보검색 시스템 및 그 방법
US9769296B2 (en) Techniques for voice controlling bluetooth headset
KR101834546B1 (ko) 핸즈프리 자동 통역 서비스를 위한 단말 장치 및 핸즈프리 장치와, 핸즈프리 자동 통역 서비스 방법
JP6465077B2 (ja) 音声対話装置および音声対話方法
US10811005B2 (en) Adapting voice input processing based on voice input characteristics
JPWO2019111346A1 (ja) 双方向音声翻訳システム、双方向音声翻訳方法及びプログラム
US10170122B2 (en) Speech recognition method, electronic device and speech recognition system
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
JP6585733B2 (ja) 情報処理装置
CN109378006A (zh) 一种跨设备声纹识别方法及系统
KR20160093529A (ko) 청각 장애인을 위한 착용형 장치
KR20200090355A (ko) 실시간 번역 기반 멀티 채널 방송 시스템 및 이를 이용하는 방법
KR101517975B1 (ko) 동시 통/번역 기능을 가지는 이어폰 장치
KR20130108173A (ko) 유무선 통신 네트워크를 이용한 음성인식 질의응답 시스템 및 그 운용방법
KR102394912B1 (ko) 음성 인식을 이용한 주소록 관리 장치, 차량, 주소록 관리 시스템 및 음성 인식을 이용한 주소록 관리 방법
JP7330066B2 (ja) 音声認識装置、音声認識方法及びそのプログラム
KR102692775B1 (ko) 전자 장치 및 그의 제어 방법
CN108174030B (zh) 定制化语音控制的实现方法、移动终端及可读存储介质
JP2018045192A (ja) 音声対話装置および発話音量調整方法
KR20210029354A (ko) 전자장치 및 그 제어방법
KR20200056754A (ko) 개인화 립 리딩 모델 생성 방법 및 장치
KR20130116128A (ko) 티티에스를 이용한 음성인식 질의응답 시스템 및 그것의 운영방법
CN114327348A (zh) 可穿戴计算设备音频接口
KR20200003529A (ko) 음성 인식이 가능한 디지털 디바이스 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170922

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180920

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190917

Year of fee payment: 7