KR100723404B1 - 음성 인식 및 반응을 위한 음성 처리 장치와 방법 - Google Patents

음성 인식 및 반응을 위한 음성 처리 장치와 방법 Download PDF

Info

Publication number
KR100723404B1
KR100723404B1 KR1020050025975A KR20050025975A KR100723404B1 KR 100723404 B1 KR100723404 B1 KR 100723404B1 KR 1020050025975 A KR1020050025975 A KR 1020050025975A KR 20050025975 A KR20050025975 A KR 20050025975A KR 100723404 B1 KR100723404 B1 KR 100723404B1
Authority
KR
South Korea
Prior art keywords
information
extracted
name
entity
voice
Prior art date
Application number
KR1020050025975A
Other languages
English (en)
Other versions
KR20060104106A (ko
Inventor
이재원
강인호
임해창
김정수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050025975A priority Critical patent/KR100723404B1/ko
Priority to US11/377,207 priority patent/US8185397B2/en
Publication of KR20060104106A publication Critical patent/KR20060104106A/ko
Application granted granted Critical
Publication of KR100723404B1 publication Critical patent/KR100723404B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D29/00Filters with filtering elements stationary during filtration, e.g. pressure or suction filters, not covered by groups B01D24/00 - B01D27/00; Filtering elements therefor
    • B01D29/50Filters with filtering elements stationary during filtration, e.g. pressure or suction filters, not covered by groups B01D24/00 - B01D27/00; Filtering elements therefor with multiple filtering elements, characterised by their mutual disposition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D27/00Cartridge filters of the throw-away type
    • B01D27/14Cartridge filters of the throw-away type having more than one filtering element
    • CCHEMISTRY; METALLURGY
    • C02TREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02FTREATMENT OF WATER, WASTE WATER, SEWAGE, OR SLUDGE
    • C02F1/00Treatment of water, waste water, or sewage
    • C02F1/44Treatment of water, waste water, or sewage by dialysis, osmosis or reverse osmosis

Abstract

음성 인식 및 반응을 위한 음성 처리 장치와 방법이 개시된다. 그 장치는,입력된 음성으로부터 하나 이상의 개체정보 및 개체정보에 해당하는 상위개체명을 추출하는 개체 추출부; 반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 초점 결정부; 추출된 상위개체명에 속하며 초점에 해당하는 하위개체명을 추출된 개체정보와 매핑시키는 매핑부; 및 추출된 개체정보를 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 인식부를 포함함을 특징으로 한다. 그러므로, 본 발명은 문법상 하자 없는 음성뿐만 아니라 하자 있는 음성도 정확히 인식하여 반응하는 효과를 갖는다.

Description

음성 인식 및 반응을 위한 음성 처리 장치와 방법{Apparatus and method for processing speech}
도 1은 본 발명에 의한 음성 인식 및 반응을 위한 음성 처리 장치를 설명하기 위한 일 실시예의 블록도이다.
도 2는 본 발명에 의한 음성 인식 및 반응을 위한 음성 처리 방법을 설명하기 위한 일 실시예의 플로우챠트이다.
< 도면의 주요 부분에 대한 부호의 설명 >
110 : 개체 추출부 120 : 저장부
130 : 초점 결정부 140 : 매핑부
150 : 검증부 160 : 인식부
본 발명은 음성 처리에 관한 것으로, 보다 상세하게는, 음성으로부터 개체정보 및 상위개체명을 추출하고 그 상위개체명에 속한 하위개체명 중 소정의 하위개체명을 추출된 개체정보에 매핑시켜, 하위개체명들간의 의미적 연결관계에 따라 개체정보들을 배열하고, 그 배열된 결과를 음성으로 인식하여 반응하는 음성 처리 장 치 및 방법에 관한 것이다.
종래의 음성 처리 장치의 일 예가 미국특허번호 제5,386,556호("Nature language analyzing apparatus and method")에 개시된다. 개시된 종래의 장치는 입력된 음성을 미리 마련된 어휘 데이터베이스 및 문법 데이터베이스를 이용하여 인식한다. 따라서, 이러한 종래의 장치는 문법상 하자 없는 음성에 한해 정확한 인식을 수행할 수 있는 문제점을 갖는다. 또한, 이러한 종래의 장치는 보다 방대한 양의 어휘 데이터베이스 및 문법 데이터베이스를 통해서만 인식률을 높일 수 있다는 문제점을 갖는다.
종래의 음성 처리 장치의 다른 예가 미국특허번호 제6,498,921호("Method and system to answer a nature language question")에 개시된다. 개시된 종래의 장치는 입력된 음성의 의미에 중의성이 있을 경우 사용자로부터 추가 정보를 입력받아 음성을 분석한다. 결국, 이러한 종래의 장치는 입력된 음성이 처리될 때까지 사용자의 여러 번 개입이 불가피하여 사용자에게 불편함을 준다는 문제점을 갖는다.
결국, 종래의 음성 처리 장치는 입력된 음성을 미리 설정된 어휘와 문법에 기반하여 인식하고 그 인식된 결과에 반응한다. 따라서, 종래의 음성 처리 장치는 문법상 하자 없는 음성에 대해서만 정확한 인식을 수행할 수 있고, 인식률을 높이기 위해 보다 많은 양의 어휘와 문법을 미리 마련해야 하는 문제점을 갖는다.
본 발명이 이루고자 하는 기술적 과제는, 음성으로부터 개체정보 및 상위개 체명을 추출하고 그 상위개체명에 속한 하위개체명 중 소정의 하위개체명을 추출된 개체정보에 매핑시켜, 하위개체명들간의 의미적 연결관계에 따라 개체정보들을 배열하고, 그 배열된 결과를 음성으로 인식하여 반응하는 음성 처리 장치를 제공하는 것이다.
본 발명이 이루고자 하는 다른 기술적 과제는, 음성으로부터 개체정보 및 상위개체명을 추출하고 그 상위개체명에 속한 하위개체명 중 소정의 하위개체명을 추출된 개체정보에 매핑시켜, 하위개체명들간의 의미적 연결관계에 따라 개체정보들을 배열하고, 그 배열된 결과를 음성으로 인식하여 반응하는 음성 처리 방법을 제공하는 것이다.
본 발명이 이루고자 하는 또 다른 기술적 과제는, 음성으로부터 개체정보 및 상위개체명을 추출하고 그 상위개체명에 속한 하위개체명 중 소정의 하위개체명을 추출된 개체정보에 매핑시켜, 하위개체명들간의 의미적 연결관계에 따라 개체정보들을 배열하고, 그 배열된 결과를 음성으로 인식하는 컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록매체를 제공하는 것이다.
상기 과제를 이루기 위해, 본 발명에 의한 음성 처리 장치는, 입력된 음성으로부터 하나 이상의 개체정보 및 상기 개체정보에 해당하는 상위개체명을 추출하는 개체 추출부; 반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 초점 결정부; 상기 추출된 상위개체명에 속하며 상기 초점에 해당하는 하위개체명을 상기 추출된 개체정보와 매핑시키는 매핑부; 및 상기 추출된 개체정보를 상기 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 인식부를 포함하며, 상기 상위개체명은 상기 하위개체명보다 상위 개념의 개체명이며, 상기 연결관계는 미리 설정되고, 상기 추출된 개체정보들은 서로 의미적으로 연결됨을 특징으로 한다. 본 발명은 상기 인식된 결과에 상응하여 상기 요구에 반응하는 반응부를 더 포함함이 바람직하다.
본 발명은 상기 매핑된 하위개체명들간의 관련도를 사전에 결정된 기준치와 비교하여 검증신호를 생성하는 검증부를 더 포함함이 바람직하다. 이 때, 상기 인식부는 상기 검증신호에 응답하여 상기 음성을 인식함이 바람직하다.
본 발명의 상기 검증부는 상기 매핑된 하위개체명들 중 선택된 복수의 하위개체명들이 속한 조합이, 미리 마련된 복수의 조합들에 존재하는지 검사하여 상기 검증신호를 생성함이 바람직하다.
상기 다른 과제를 이루기 위해, 본 발명에 의한 음성 처리 방법은, 주어진 음성으로부터 하나 이상의 개체정보 및 상기 개체정보에 해당하는 상위개체명을 추출하는 단계; 반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 단계; 상기 추출된 상위개체명에 속하며 상기 초점에 해당하는 하위개체명을 상기 추출된 개체정보와 매핑시키는 단계; 및 상기 추출된 개체정보를 상기 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 단계를 포함하며,상기 상위개체명은 상기 하위개체명보다 상위 개념의 개체명이며, 상기 연결관계는 미리 설정되고, 상기 추출된 개체정보들은 서로 의미적으로 연결됨을 특징으로 한다.
본 발명은 상기 인식된 결과에 상응하여 상기 요구에 반응하는 단계를 더 포함함이 바람직하다. 또한, 본 발명은 상기 매핑된 하위개체명들간의 관련도를 사전에 결정된 기준치와 비교하는 단계를 더 포함함이 바람직하다.
상기 또 다른 과제를 이루기 위해, 본 발명에 의한 컴퓨터로 읽을 수 있는 기록매체는, 주어진 음성으로부터 하나 이상의 개체정보 및 상기 개체정보에 해당하는 상위개체명을 추출하는 단계; 반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 단계; 상기 추출된 상위개체명에 속하며 상기 초점에 해당하는 하위개체명을 상기 추출된 개체정보와 매핑시키는 단계; 및 상기 추출된 개체정보를 상기 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 단계를 포함하는 음성 처리 방법을 수행하는 컴퓨터 프로그램을 저장함이 바람직하다.
이하, 첨부된 도면들을 참조하여 본 발명에 따른 음성 인식 및 반응을 위한 음성 처리 장치와 방법의 일 실시예에 대해 상세히 설명한다. 다만, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 당해 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명에 의한 음성 인식 및 반응을 위한 음성 처리 장치를 설명하기 위한 일 실시예의 블록도로서, 개체 추출부(110), 저장부(120), 갱신부(125), 초점 결정부(130), 매핑부(140), 검증부(150), 인식부(160) 및 반응부(170)를 포함한다.
개체 추출부(110)는 입력된 음성으로부터 하나 이상의 개체정보 및 그 개체정보에 해당하는 상위개체명을 추출한다. 여기서, IN 은 입력된 음성을 의미한다. 입력된 음성 IN은 반응을 요구하는 음성임이 바람직하다. 보다 구체적으로, 입력된 음성 IN의 내용은 질문을 포함할 수도 있고, 명령을 포함할 수도 있다.
예컨대, 입력된 음성 IN은 "오늘 최수종이 나오는 드라마 해신은 몇 시에 하지?"라고 이하 가정한다. 본 예시의 경우, IN은 질문을 포함하는 음성이다.
개체정보는 입력된 음성의 내용을 이루는 세부화된 정보를 의미한다. 결국, 음성은 하나 이상의 개체정보로 이루어짐이 바람직하다. 이를 위해, 음성은 단어별로 분할될 수도 있고 어절별로 분할될 수도 있다. 음성이 단어별로 분할된다면 각 분할된 단어가 개체정보가 되며, 어절별로 분할된다면 각 분할된 어절이 개체정보가 된다.
예컨대, 전술한 예시의 경우, 단어별로 분할된다면 "오늘, 최수종, 이, 나오는, 드라마, 해신, 은, 몇, 시, 에, 하지"로 분할될 수 있다. 이 분할된 각각이 개체정보가 될 수 있다.
다만, 보다 바람직하게는, 개체정보는 명사, 동사, 부사, 또는 형용사의 품사를 갖는다. 이 경우, 전술한 예시에서 개체정보는 "오늘, 최수종, 드라마, 해신, 몇, 시, 하지"이다.
결국, 음성을 이루는 각 문장 속의 모든 개체정보들은 서로 의미적으로 연결되어 있게 된다. 다만, 정상인이 이해할 수 없는 음성이 IN으로서 주어진다면 그 음성 속의 개체정보들은 의미적으로 연결되어 있지 않을 것이나, 이러한 경우는 고 려하지 않는다. 따라서, 개체 추출부(110)에 의해 추출된 개체정보들은 서로 의미적으로 연결되어 있다.
한편, 개체명은 현실 속의 모든 지칭 가능한 사물(thing)의 카테고리(category)를 의미한다. 그러한 사물에는 물체와 같이 눈에 보이는 유형물뿐만 아니라 개념(concept)과 같이 눈에 보이지 않는 무형물도 포함된다.
이러한 개체명은 트리구조와 같이 계층적으로 구성된다. 이와 같은 계층적 의미체계를 이하 '온톨로지'라 명명할 수도 있다. 예컨대, 지칭 가능한 사물 중 하나인 "오늘(today)"의 개체명은 "시각"일 수도 있고, "날짜"일 수도 있고, "방송날짜"일 수도 있다. 즉, "오늘"이 속한 카테고리는 "시각", "날짜", 또는 "방송날짜"이다. 이 경우, "시각"은 "날짜" 또는 "방송날짜"보다 상위 개념이며, "날짜"는 "방송날짜"보다 상위 개념이다.
이와 같이, 복수의 개체명들간에는 소정의 계층적 상하관계가 성립함이 바람직하다. 이 때, 상위 개념의 개체명을 이하 '상위개체명'이라 명명하며, 하위 개념의 개체명을 이하 '하위개체명'이라 명명한다. 예컨대, "시각"은 "날짜"보다 상위개체명이며 "날짜"는 "방송날짜"보다 상위개체명이다. 역으로, "방송날짜"는 "날짜"보다 하위개체명이다.
결국, 전술한 예시에서 개체 추출부(110)는 "오늘, 최수종, 드라마, 해신"이라는 개체정보를 추출할 수 있고, 그에 해당하는 상위개체명으로 "날짜, 인명, 방송장르, 방송프로그램명"을 추출할 수 있다.
개체 추출부(110)의 이러한 추출을 위해, 본 발명은 저장부(120)를 마련함이 바람직하다. 저장부(120)는 복수의 개체정보 및 개체명을 데이터베이스화하여 저장한다. 즉, 고려 가능한 개체정보 및 개체명은 미리 마련됨이 바람직하다.
이 경우, 개체 추출부(110)는 입력된 음성 IN의 내용 중 저장부(120)에 저장된 개체정보와 일치하는 부분을 감지하고, 그 감지된 개체정보를 저장부(120)에서 독출한다. 이 때, 독출된 개체정보가 추출된 개체정보이다.
또한, 개체 추출부(110)는 그 개체정보에 해당하는 상위개체명을 저장부(120)에서 독출한다. 이 때, 독출된 상위개체명이 추출된 상위개체명이다. 전술한 예시에서, "오늘"이라는 개체정보를 독출된 경우, 개체 추출부(110)는 "날짜"라는 상위개체명을 독출한다.
한편, 저장부(120)에는 복수의 상위개체명 뿐만 아니라 각각의 상위개체명에 속하는 복수의 하위개체명도 미리 저장되어 있음이 바람직하다.
초점 결정부(130)는 추출된 개체정보들 중 반응을 요구하는 내용을 갖는 개체정보들을 이용하여 초점(focus)을 결정한다. 전술한 예시에서, 개체 추출부(110)는 "오늘, 최수종, 드라마, 해신, 몇, 시, 하지" 라는 개체정보를 추출할 수 있다. 이 때, 추출된 개체정보들은 서로 의미적으로 연결되어 있으므로, "하지"는 "드라마를 몇 시에 방영하지"를 의미한다.
한편, 개체정보들간의 가능한 의미적 연결관계는 미리 설정됨이 바람직하다. 이 때, 그 설정된 연결관계에 관한 정보와 그 개체정보들은 함께 저장부(120)에 저장됨이 바람직하다.
즉, 전술한 예시에서 초점 결정부(130)는 추출된 개체정보들 중 "몇, 시, 하 지"라는 개체정보를 이용하여 "방영시간"을 초점으로서 결정하고, 그 결정된 초점이 "오늘, 최수종, 드라마, 해신, 몇, 시"라는 개체정보들과 어떠한 의미적 연결관계를 갖는지 저장부(120)에서 독출한다.
결국, 초점 결정부(130)는 "드라마를 몇 시에 방영하지"에 해당하는 "방영시간"을 초점으로서 결정하게 된다. 한편, 저장부(120)는 반응을 요구하는 내용을 갖는 개체정보를 다른 개체정보와 구별하여 저장함이 바람직하다. 반응을 요구하는 내용을 갖는 개체정보로는 "언제, 누구, 하지, 하는가, 하겠는가, 해라, 하시오" 등 다양한 예가 제시될 수 있다.
매핑부(140)는 추출된 상위개체명에 속하는 복수의 하위개체명들 중 결정된 초점에 해당하는 하위개체명을 추출된 개체정보와 매핑시킨다. 예컨대, "날짜"라는 상위개체명에는 "방송날짜, 공연날짜, 제출날짜" 등 다양한 하위개체명들이 존재할 수 있으며, 그 중에서, "드라마를 몇 시에 방영하지"라는 초점에 해당하는 하위개체명은 "방송날짜"이다. 이를 위해, 매핑부(140)는 저장부(120)에 저장된 하위개체명들 중 초점에 해당하는 하위개체명을 독출함이 바람직하다.
검증부(150)는 그 매핑된 하위개체명들간의 관련도를 사전에 결정된 기준치와 비교하여 검증신호를 생성한다. 즉, 검증부(150)는 관련도가 기준치보다 큰 경우, 검증신호를 생성한다.
검증부(150)는 그 매핑된 하위개체명들 중 선택된 복수의 하위개체명들이 속한 조합이, 미리 마련된 복수의 조합들에 존재하는지 검사하여 그 검증신호를 생성할 수도 있다. 여기서, 미리 마련되는 복수의 조합들은 저장부(120)에 저장되어 마 련된다.
예컨대, 매핑부(140)에 의해 매핑된 하위개체명들이 "방송날짜, 출연자, 드라마장르, 드라마명"이라면, 검증부(150)는 그 매핑된 하위개체명들간의 관계가 적절한지 검증한다. 예를 들어, 그 매핑된 하위개체명들 중 "방송날짜, 드라마명"이 사용자에 의해 선택되었다면, 검증부(150)는 저장부(120)에 저장된 복수의 조합들 중 "방송날짜"와 "드라마명"이 포함된 조합이 존재하는지 검사한다. 검사 결과, 그러한 조합이 존재한다면 검증부(150)는 검증신호를 생성한다. 여기서, 조합이란 가능한 하위개체명들간의 가능한 조합을 의미한다.
이를 위해, 저장부(120)에는 개체정보, 개체정보들간의 의미적 연결관계에 관한 정보, 상위개체명 및 하위개체명뿐만 아니라 조합도 저장됨이 바람직하다.
인식부(160)는 개체 추출부(110)에 의해 추출된 개체정보들을, 매핑된 하위개체명들간의 의미적 연결관계에 따라 배열하고, 그 배열된 결과를 음성 IN으로 인식한다. 여기서, 하위개체명들간의 의미적 연결관계는 미리 설정되며, 그 하위개체명들간의 의미적 연결관계에 관한 정보는 저장부(120)에 저장됨이 바람직하다. 예컨대, "방송날짜(A), 출연자(B), 드라마명(C)"이라는 하위개체명들간에는 "B가 등장하는 C가 A에 방송된다"라는 의미적 연결관계가 존재함이 미리 설정되며, 그에 관한 정보는 저장부(120)에 미리 저장된다. 한편, 인식부(160)는 검증부(150)에서 생성된 검증신호를 입력받은 경우에 한해 동작함이 바람직하다.
반응부(170)는 인식부(160)에서 인식된 결과에 상응하여 요구에 반응한다. 여기서, 요구란 입력된 음성 IN의 내용을 의미한다. 예컨대, 입력된 음성 IN의 내 용이 질문을 포함한다면 반응부(170)는 답변을 수행한다. OUT는 반응부(170)의 수행 결과를 의미한다.
한편, 본 발명에는 갱신부(125)가 마련됨이 바람직하다. 갱신부(125)는 저장부(120)에 저장된 내용을 갱신하며, 저장부(120)에 저장된 내용으로는 개체정보, 가능한 개체정보들간의 의미적 연결관계에 관한 정보, 상위개체명, 하위개체명, 조합, 및 가능한 하위개체명들간의 의미적 연결관계에 관한 정보 등이 있다. 여기서, 그 저장은 정기적으로 이루어질 수도 있고, 비정기적으로 이루어질 수도 있다.
도 2는 본 발명에 의한 음성 인식 및 반응을 위한 음성 처리 방법을 설명하기 위한 일 실시예의 플로우챠트로서, 인식하는 단계(제210 ~ 240 단계들) 및 반응하는 단계(제250 단계)로 이루어진다.
개체 추출부(110)는 입력된 음성 IN으로부터 하나 이상의 개체정보 및 그에 해당하는 상위개체명을 추출하고(제210 단계), 초점 결정부(130)는 추출된 개체정보들을 이용하여 초점을 결정한다(제220 단계).
한편, 매핑부(140)는 추출된 개체정보마다 그 초점에 해당하는 하위개체명을 매핑시킨다(제230 단계). 인식부(160)는 매핑된 하위개체명들간의 의미적 연결관계에 따라 그 추출된 개체정보들을 배열하고, 그 배열된 결과를 음성 IN으로 인식한다(제240 단계). 반응부(170)는 인식된 결과에 상응하여 반응한다(제250 단계).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상에서 설명한 것은 본 발명에 따른 음성 인식 및 반응을 위한 음성 처리 장치와 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능할 것이다.
이상에서 설명한 바와 같이, 본 발명에 의한 음성 인식 및 반응을 위한 음성 처리 장치와 방법은, 문법상 하자 없는 음성뿐만 아니라 하자 있는 음성도 정확히 인식하여 반응하는 효과를 갖는다.

Claims (14)

  1. 입력된 음성으로부터 하나 이상의 개체정보 및 상기 개체정보에 해당하는 상위개체명을 추출하는 개체 추출부;
    반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 초점 결정부;
    상기 추출된 상위개체명에 속하며 상기 초점에 해당하는 하위개체명을 상기 추출된 개체정보와 매핑시키는 매핑부; 및
    상기 추출된 개체정보를 상기 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 인식부를 포함하며,
    상기 상위개체명은 상기 하위개체명보다 상위 개념의 개체명이며, 상기 연결관계는 미리 설정되고, 상기 추출된 개체정보들은 서로 의미적으로 연결됨을 특징으로 하는 음성 처리 장치.
  2. 제1 항에 있어서, 상기 음성 처리 장치는,
    상기 인식된 결과에 상응하여 상기 요구에 반응하는 반응부를 더 포함함을 특징으로 하는 음성 처리 장치.
  3. 제1 항에 있어서, 상기 음성 처리 장치는,
    상기 매핑된 하위개체명들간의 관련도를 사전에 결정된 기준치와 비교하여 검증신호를 생성하는 검증부를 더 포함하며,
    상기 인식부는 상기 검증신호에 응답하여 상기 음성을 인식하는 것을 특징으로 하는 음성 처리 장치.
  4. 제3 항에 있어서, 상기 검증부는, 상기 매핑된 하위개체명들 중 선택된 복수의 하위개체명들이 속한 조합이, 미리 마련된 복수의 조합들에 존재하는지 검사하여 상기 검증신호를 생성하는 것을 특징으로 하는 음성 처리 장치.
  5. 제1 항에 있어서, 상기 개체 추출부는, 상기 개체정보 및 상기 상위개체명을 미리 마련된 복수의 개체정보 및 상위개체명으로부터 독출하는 것을 특징으로 하는 음성 처리 장치.
  6. 제1 항에 있어서, 상기 초점 결정부는, 상기 추출된 개체정보 중 질문을 의미하는 개체정보 또는 명령을 의미하는 개체정보를 이용하여 상기 초점을 결정함을 특징으로 하는 음성 처리 장치.
  7. 제1 항에 있어서, 상기 매핑부는, 상기 매핑되는 하위개체명을 미리 마련된 복수의 하위개체명으로부터 독출하는 것을 특징으로 하는 음성 처리 장치.
  8. 주어진 음성으로부터 하나 이상의 개체정보 및 상기 개체정보에 해당하는 상 위개체명을 추출하는 단계;
    반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 단계;
    상기 추출된 상위개체명에 속하며 상기 초점에 해당하는 하위개체명을 상기 추출된 개체정보와 매핑시키는 단계; 및
    상기 추출된 개체정보를 상기 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 단계를 포함하며,
    상기 상위개체명은 상기 하위개체명보다 상위 개념의 개체명이며, 상기 연결관계는 미리 설정되고, 상기 추출된 개체정보들은 서로 의미적으로 연결됨을 특징으로 하는 음성 처리 방법.
  9. 제8 항에 있어서, 상기 음성 처리 방법은,
    상기 인식된 결과에 상응하여 상기 요구에 반응하는 단계를 더 포함함을 특징으로 하는 음성 처리 방법.
  10. 제8 항에 있어서, 상기 음성 인식 방법은, 상기 매핑된 하위개체명들간의 관련도를 사전에 결정된 기준치와 비교하는 단계를 더 포함하며,
    상기 인식하는 단계는, 상기 비교 결과, 상기 관련도가 상기 기준치보다 높다면 상기 음성을 인식하는 것을 특징으로 하는 음성 인식 방법.
  11. 제10 항에 있어서, 상기 비교하는 단계는, 상기 매핑된 하위개체명들 중 선 택된 복수의 하위개체명들이 속한 조합이, 미리 마련된 복수의 조합들에 존재하는지 판단하는 것을 특징으로 하는 음성 인식 방법.
  12. 제8 항에 있어서, 상기 추출하는 단계는, 상기 개체정보 및 상기 상위개체명을 미리 마련된 복수의 개체정보 및 상위개체명으로부터 독출하는 것을 특징으로 하는 음성 인식 방법.
  13. 제8 항에 있어서, 상기 매핑시키는 단계는, 상기 매핑되는 하위개체명을 미리 마련된 복수의 하위개체명으로부터 독출하는 것을 특징으로 하는 음성 인식 방법.
  14. 주어진 음성으로부터 하나 이상의 개체정보 및 상기 개체정보에 해당하는 상위개체명을 추출하는 단계;
    반응을 요구하는 상기 추출된 개체정보를 이용하여 초점을 결정하는 단계;
    상기 추출된 상위개체명에 속하며 상기 초점에 해당하는 하위개체명을 상기 추출된 개체정보와 매핑시키는 단계; 및
    상기 추출된 개체정보를 상기 하위개체명들간의 의미적 연결관계에 따라 배열한 결과를 상기 음성으로 인식하는 단계를 포함하며,
    상기 상위개체명은 상기 하위개체명보다 상위 개념의 개체명이며, 상기 연결관계는 미리 설정되고, 상기 추출된 개체정보들은 서로 의미적으로 연결됨을 특징으로 하 는 음성 처리 방법을 수행하는 컴퓨터 프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록매체.
KR1020050025975A 2005-03-29 2005-03-29 음성 인식 및 반응을 위한 음성 처리 장치와 방법 KR100723404B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050025975A KR100723404B1 (ko) 2005-03-29 2005-03-29 음성 인식 및 반응을 위한 음성 처리 장치와 방법
US11/377,207 US8185397B2 (en) 2005-03-29 2006-03-17 Speech processing apparatus, medium, and method recognizing and responding to speech using entity information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050025975A KR100723404B1 (ko) 2005-03-29 2005-03-29 음성 인식 및 반응을 위한 음성 처리 장치와 방법

Publications (2)

Publication Number Publication Date
KR20060104106A KR20060104106A (ko) 2006-10-09
KR100723404B1 true KR100723404B1 (ko) 2007-05-30

Family

ID=37071665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050025975A KR100723404B1 (ko) 2005-03-29 2005-03-29 음성 인식 및 반응을 위한 음성 처리 장치와 방법

Country Status (2)

Country Link
US (1) US8185397B2 (ko)
KR (1) KR100723404B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
CN102682763B (zh) 2011-03-10 2014-07-16 北京三星通信技术研究有限公司 修正语音输入文本中命名实体词汇的方法、装置及终端
WO2012131839A1 (ja) * 2011-03-25 2012-10-04 三菱電機株式会社 エレベーターの呼び登録装置
US10282419B2 (en) * 2012-12-12 2019-05-07 Nuance Communications, Inc. Multi-domain natural language processing architecture
US11226997B2 (en) * 2017-12-05 2022-01-18 International Business Machines Corporation Generating a chatbot from an FAQ
CN109063182B (zh) * 2018-08-23 2020-11-06 广东小天才科技有限公司 一种基于语音搜题的内容推荐方法及电子设备
US11416682B2 (en) * 2020-07-01 2022-08-16 International Business Machines Corporation Evaluating chatbots for knowledge gaps
CN112951232A (zh) * 2021-03-02 2021-06-11 深圳创维-Rgb电子有限公司 语音输入方法、装置、设备及计算机可读存储介质
US11593415B1 (en) * 2021-11-05 2023-02-28 Validate Me LLC Decision making analysis engine

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990042073A (ko) * 1997-11-25 1999-06-15 정선종 에스지엠엘(sgml) 문서 및 개체의 엠아이엠이(mime) 인켑슐레이션을 통한 문서 교환시스템 및 방법
KR20010062767A (ko) * 1999-12-28 2001-07-07 이데이 노부유끼 정보 처리 장치, 정보 처리 방법 및 저장 매체
KR20010108330A (ko) * 1999-03-09 2001-12-07 요트.게.아. 롤페즈 복수의 음성 인식자를 구비한 방법
KR20030046494A (ko) * 2000-10-10 2003-06-12 인텔 코오퍼레이션 언어 독립적 음성-기반 검색 시스템
KR20040050461A (ko) * 2002-12-10 2004-06-16 한국전자통신연구원 한국어 텍스트 상의 개체명 인식 장치 및 방법
KR20060064493A (ko) * 2004-12-08 2006-06-13 한국전자통신연구원 음성 인터페이스 시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE466029B (sv) 1989-03-06 1991-12-02 Ibm Svenska Ab Anordning och foerfarande foer analys av naturligt spraak i ett datorbaserat informationsbehandlingssystem
US6498921B1 (en) 1999-09-01 2002-12-24 Chi Fai Ho Method and system to answer a natural-language question
US6553345B1 (en) * 1999-08-26 2003-04-22 Matsushita Electric Industrial Co., Ltd. Universal remote control allowing natural language modality for television and multimedia searches and requests

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990042073A (ko) * 1997-11-25 1999-06-15 정선종 에스지엠엘(sgml) 문서 및 개체의 엠아이엠이(mime) 인켑슐레이션을 통한 문서 교환시스템 및 방법
KR20010108330A (ko) * 1999-03-09 2001-12-07 요트.게.아. 롤페즈 복수의 음성 인식자를 구비한 방법
KR20010062767A (ko) * 1999-12-28 2001-07-07 이데이 노부유끼 정보 처리 장치, 정보 처리 방법 및 저장 매체
KR20030046494A (ko) * 2000-10-10 2003-06-12 인텔 코오퍼레이션 언어 독립적 음성-기반 검색 시스템
KR20040050461A (ko) * 2002-12-10 2004-06-16 한국전자통신연구원 한국어 텍스트 상의 개체명 인식 장치 및 방법
KR20060064493A (ko) * 2004-12-08 2006-06-13 한국전자통신연구원 음성 인터페이스 시스템 및 방법

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
10-1999-42073
10-2001-108330
10-2001-62767
10-2004-0050461
10-2006-0064493

Also Published As

Publication number Publication date
US20060224383A1 (en) 2006-10-05
KR20060104106A (ko) 2006-10-09
US8185397B2 (en) 2012-05-22

Similar Documents

Publication Publication Date Title
KR100723404B1 (ko) 음성 인식 및 반응을 위한 음성 처리 장치와 방법
US7496621B2 (en) Method, program, and apparatus for natural language generation
US7734461B2 (en) Apparatus for providing voice dialogue service and method of operating the same
US7809568B2 (en) Indexing and searching speech with text meta-data
KR102222317B1 (ko) 음성 인식 방법, 전자 디바이스, 및 컴퓨터 저장 매체
CN108304375B (zh) 一种信息识别方法及其设备、存储介质、终端
EP1949260B1 (en) Speech index pruning
US7529657B2 (en) Configurable parameters for grammar authoring for speech recognition and natural language understanding
JP3550536B2 (ja) 音声認識及び自然言語を用いたテレビジョン内容の自動的なフィルタリング
US6975983B1 (en) Natural language input method and apparatus
CN106570180B (zh) 基于人工智能的语音搜索方法及装置
KR20110036385A (ko) 사용자 의도 분석 장치 및 방법
US20190080687A1 (en) Learning-type interactive device
US20020077806A1 (en) Method and computer system for part-of-speech tagging of incomplete sentences
US20060265222A1 (en) Method and apparatus for indexing speech
CN114547329A (zh) 建立预训练语言模型的方法、语义解析方法和装置
CN111695345B (zh) 文本中实体识别方法、以及装置
CN109979450B (zh) 信息处理方法、装置及电子设备
US10558738B1 (en) Compression of machine learned models
US20080215519A1 (en) Method and data processing system for the controlled query of structured saved information
US7260531B2 (en) Interactive system, method, and program performing data search using pronunciation distance and entropy calculations
US20140180688A1 (en) Speech recognition device and speech recognition method, data base for speech recognition device and constructing method of database for speech recognition device
CN108710653B (zh) 一种绘本朗读点播方法、装置及系统
CN114817465A (zh) 一种用于多语言语义理解的实体纠错方法及智能设备
CN115148212A (zh) 一种语音交互方法、智能设备及系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130429

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140429

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee