KR20010075669A - 정보 처리 장치 및 정보 처리 방법, 및 기록 매체 - Google Patents
정보 처리 장치 및 정보 처리 방법, 및 기록 매체 Download PDFInfo
- Publication number
- KR20010075669A KR20010075669A KR1020017005442A KR20017005442A KR20010075669A KR 20010075669 A KR20010075669 A KR 20010075669A KR 1020017005442 A KR1020017005442 A KR 1020017005442A KR 20017005442 A KR20017005442 A KR 20017005442A KR 20010075669 A KR20010075669 A KR 20010075669A
- Authority
- KR
- South Korea
- Prior art keywords
- word
- function
- registered
- similarity
- string
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
단어 집합 출력부에서, 단어는 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 동시에, 최적 단어열 출력부에 입력된다. 최적 단어열 출력부는, 단어 집합 출력부에서의 단어와, 사전에 등록되어 있는 등록 단어와의 유사도를 각각의 개념 표기 함수에 근거하여 연산한다. 최적 단어열 출력부는, 사전에 등록되어 있지 않은 단어가 입력된 경우에도, 그 단어와 사전에 등록되어 있는 단어와의 유사도를 계산한다.
Description
단어끼리의 의미적인 유사도는, 자연 언어 처리 기술에 있어서, 여러 가지 용도로 사용되고 있다.
즉, 예를 들면, 번역 처리의 수법으로서 대량의 대역용(對譯用) 예문을, 미리 준비해두고, 그 대역용 예문 중에서, 입력문과 가장 유사한 것을 탐색하며, 그 탐색한 대역용 예문을 수정함으로써, 입력문을 번역한 번역문을 생성하는 방법이 있지만, 이러한 방법에 있어서, 입력문과 대역용 예문과의 유사도는, 그 입력문을 구성하는 각 단어와, 그 단어에 대응하는, 대역용 예문을 구성하는 단어와의 유사도(단어 유사도)에 기초하여 계산된다.
단어 유사도의 계산 방법으로서는, 트리형 또는 네트워크형의시소러스(thesaurus; 기준어 사전)를 사용하는 것이나, 단어의, 문장 중에서의 공기 정보(共起情報)를 사용하는 것 등이 알려져 있다.
시소러스를 사용하는 방법에서는, 예를 들면, 시소러스에 있어서, 단어 유사도를 계산할 2개의 단어 각각에 상당하는 노드를 연결하는 최단 패스를 구성하는 아크(arc)의 수가 구해지고, 그 아크의 수의 역수가, 단어 유사도가 된다. 또한, 공기 정보(共起情報)를 사용하는 방법에서는, 대량의 문장에 대하여, 그 문장에 나타나는 단어의 공기 정보를 등록하여 두고, 그 공기 정보로부터 얻어지는 통계량(단어 유사도를 계산하고자 하는 2개의 단어 각각과 공기(共起)하기 쉬운 단어의 통계량)에 기초하여, 단어 유사도가 구해진다.
또한, 시소러스를 사용하여 단어 유사도를 계산하는 방법에 대해서는, 예를 들면, 이이타 히토시(飯田仁), "영어 전치사구가 걸리는 부분의 용례 주도 애매성 해소", 전자 정보 통신 학회 논문지, D-II, Vol.J77-D-II, No.3, pp.557-565, 1994 등에, 공기 정보를 사용하여 단어 유사도를 계산하는 방법에 대해서는, 예를 들면, Donald Hind1e, "Noun classification from predicate-argument structures", Proceedings of Annual meeting of the Association for Computational Linguistics, pp.268-275, 1990 등에, 각각, 그 상세한 것이 기재되어 있다.
그런데, 시소러스나 공기 정보를 사용하는 방법에서는, 시소러스에 등록되어 있지 않는 단어나 공기 정보가 등록되어 있지 않는 단어(이하, 적절하게, 미등록 단어라고 한다)에 대해서는, 단어 유사도를 계산할 수 없다. 따라서, 시소러스나 공기 정보를 사용하여 언어 처리를 행하는 언어 처리 시스템에 있어서, 풍부한 언어능력을 실현하고자 하는 경우에는, 막대한 수의 학습용 샘플을 사용하여 학습을 행하고, 시소러스나 공기 정보를 등록한 사전을 생성할 필요가 있다.
그러나, 언어 처리 시스템에 있어서는, 적은 학습용 샘플만으로 유연하고 효율적인 학습을 행하며, 풍부한 언어 능력을 실현할 수 있는 것이 바람직하고, 그것을 위해서는, 미등록 단어에 대해서도, 학습이 완료된 단어와의 단어 유사도를 계산하는 것이 요구되며, 더욱이, 미등록 단어를 포함하는 단어열과, 학습이 완료된 문법 규칙으로부터 얻어지는 단어열과의 유사도(단어열 유사도)를 계산하는 것도 요구된다.
한편, 예를 들면, 후쿠이 나오키(福井直樹), "극소 모델의 전개-언어의 설명 이론을 목표로 하여", 이와나미(岩波) 강좌 언어의 과학 6 생성 문법 제 4 장, 이와나미(岩波) 서점, 1998 등에는, 인간이, 복수의 단어 집합을, 문법에 합치한 적절한 순서로 나란히 배열하는 조작은, 인간의 언어 능력에 있어서의 근원적인 심리적 조작이라고 간주할 수 있다는 것이 기재되어 있지만, 그 심리 기능의 메카니즘의 해명은, 이론 언어학에서, 중요한 연구 테마로서 취급되고 있다.
또한, 인간의 언어 기능(의 전부 또는 일부)를 실현(모의)하는 시스템의 개발에서도, 인간이 행하는 것과 동일한 단어의 배열을 생성하는 기능의 실현이 요구되고 있다.
그러나, 현재 상태에서는, 언어 처리 시스템에 있어서의 학습 초기 단계, 즉, 문법 규칙의 학습이 불충분하거나, 처리 대상의 단어가, 학습용 샘플로서 주어지고 있지 않는 단계에 있어서는, 단어 유사도, 더욱이, 단어열 유사도를 계산할수 없고, 적절한 단어의 배열(단어열)을 얻는 것이 곤란하다. 또한, 불충분한 문법 규칙에 의해서 얻어지는 단어열을 출력할 수 있는 것만으로도 시스템의 언어 표현 능력이 한정된다.
이상으로부터, 학습에 의해서 얻어진 사전에 등록되어 있지 않는 단어에 대해서도, 사전에 등록되어 있는 단어(이하, 적절하게, 등록 단어라고 한다)와의 단어 유사도를 계산하고, 또한, 그 단어 유사도에 기초하는 단어의 클러스터링(clustering)을 행할 수 있도록 하여, 학습이 끝난 문법에, 보다 일반성을 갖게 하는 수법이 요구되고 있다.
본 발명은 정보 처리 장치 및 정보 처리 방법, 및 기록 매체에 관한 것으로, 특히, 예를 들면, 대규모의 사전이 없더라도, 많은 단어에 대하여, 단어끼리의 유사도의 계산을 가능하게 하고, 게다가, 복잡한 문법 규칙 등이 없더라도, 단어의 집합을, 적절한 의미가 되는 단어의 배열(단어열)로 변환할 수 있도록 하는 정보 처리 장치 및 정보 처리 방법, 및 기록 매체에 관한 것이다.
도 1은 본 발명을 적용한 최적 단어열 출력 장치의 일 실시예의 구성예를 도시하는 블록도.
도 2는 도 1의 최적 단어열 출력부(4)의 구성예를 도시하는 블록도
도 3a 및 도 3b는 도 2의 등록 단어열 데이터 베이스(23)에 기억된 단어 사전 및 단어열 사전을 도시하는 도면.
도 4는 도 2의 최적 단어열 탐색부(22)가 행하는 최적 단어열 탐색 처리를 설명하기 위한 흐름도.
도 5는 2차원의 방향을 나타내는 특징 파라미터 공간에서의 가우스(Gauss) 분포를 도시하는 도면.
도 6은 개념 표기 함수에 의해서 나타나는 가우스 분포의 개략적 형태를 도시하는 도면.
도 7은 본 발명을 적용한 학습장치의 일 실시예의 구성예를 도시하는 블록도.
도 8은 도 7의 학습 장치에 의한 학습처리를 설명하기 위한 흐름도.
도 9a 내지 도 9c는 본 발명을 적용한 기록 매체를 설명하기 위한 도면.
도 10은 도 9의 컴퓨터(101)의 구성예를 도시하는 블록도.
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 대규모의 사전이 없더라도, 많은 단어에 대하여, 단어끼리의 유사도의 계산을 가능하게 하고, 더욱이, 복잡한 문법 규칙 등이 없더라도, 단어의 집합을, 적절한 의미가 되는 단어열로 변환할 수 있도록 하는 것이다.
본 발명에 따른 정보 처리 장치는, 단어를, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께 입력하는 입력 수단과, 개념 표기 함수에 기초하여, 단어와 등록 단어와의 유사도인 단어 유사도를 연산하는 단어 유사도 연산 수단을 구비한다.
사전에는, 등록 단어를, 그 등록 단어에 대한 개념 표기 함수와 함께 기억시켜 둘 수 있다.
본 발명에 따른 정보 처리 장치에는, 사전을 기억하고 있는 사전 기억 수단을 더 설치할 수 있다.
개념 표기 함수는, 단어가 나타내는 사물로부터 얻어지는 정보를 표현하는 함수로 할 수 있다.
또한, 개념 표기 함수는, 단어가 나타내는 사물로부터 받는 자극을 감지하는 감지 수단의 출력으로부터 얻어지는 정보를 표현하는 함수로 할 수 있다.
감지 수단은, 광 또는 소리를 전기 신호로 변환하는 디바이스, 촉각 센서, 온도 센서, 또는 가속도 센서로 할 수 있고, 이 경우, 개념 표기 함수는, 감지 수단에 의해서, 단어가 나타내는 사물을 관측하는 것에 의해 얻어지는 파라미터를 표현하는 함수로 할 수 있다.
개념 표기 함수는, 확률 밀도 함수 또는 이산 확률 분포 함수로 할 수 있다.
단어 유사도 연산 수단에는, 단어와 등록 단어의 단어 유사도를 그 단어 및 등록 단어의 개념 표기 함수끼리의 바타채리어(Bhattacharyya) 거리 또는 칼백다이버전스에 기초하여 연산시킬 수 있다.
입력 수단에는, 단어의 집합인 단어 집합을, 각 단어에 대한 개념 표기 함수와 동시에 입력시키고, 사전은, 복수의 등록 단어를 나란히 배열한 등록 단어열의 집합을, 각 등록 단어에 대한 개념 표기 함수와 함께 기억시켜 둘 수 있고, 이 경우, 정보 처리 장치에는, 단어 집합을 구성하는 단어를 나란히 배열한 단어열을 생성하는 단어열 생성 수단과, 단어열을 구성하는 각 단어와, 그 단어에 대응하는 등록 단어열을 구성하는 등록 단어와의 단어 유사도로부터, 단어열과 등록 단어열과의 유사도인 단어열 유사도를 연산하는 단어열 유사도 연산 수단과, 단어열 유사도에 기초하여, 단어 집합을 구성하는 단어를 소정의 순서로 나란히 배열한 단어열을 출력하는 출력 수단을 더 설치할 수 있다.
본 발명에 따른 정보 처리 방법은, 단어를, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께 입력하는 입력 단계와, 개념 표기 함수에 기초하여, 단어와 등록 단어와의 유사도인 단어 유사도를 연산하는 단어 유사도 연산 단계를 갖는다.
본 발명에 따른 기록 매체는, 단어를, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께 입력하는 입력 단계와, 개념 표기 함수에 기초하여, 단어와 등록 단어와의 유사도인 단어 유사도를 연산하는 단어 유사도 연산 단계를 포함하는 프로그램이 기록되어 있다.
본 발명에 따른 정보 처리 장치 및 정보 처리 방법, 및 기록 매체에 있어서는, 단어가, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께 입력되고, 그 개념 표기 함수에 기초하여, 단어와 등록 단어와의 유사도인 단어 유사도가 연산된다.
또한, 본 발명에 따른 정보 처리 장치는, 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수를 생성하는 함수 생성 수단과, 등록 단어와, 그 등록 단어에 대한 개념 표기 함수를 대응하는 대응 부가 수단을 구비한다.
개념 표기 함수는, 단어가 나타내는 사물로부터 얻어지는 정보를 표현하는 함수로 할 수 있다.
또한, 개념 표기 함수는, 단어가 나타내는 사물로부터 받는 자극을 감지하는 감지 수단의 출력으로부터 얻어지는 정보를 표현하는 함수로 할 수 있다.
감지 수단은, 광 또는 소리를 전기 신호로 변환하는 디바이스, 촉각 센서, 온도 센서, 또는 가속도 센서로 하고, 개념 표기 함수는, 감지수단에 의해서, 단어가 나타내는 사물을 관측함으로써 얻어지는 파라미터를 표현하는 함수로 할 수 있다.
개념 표기 함수는, 확률 밀도 함수 또는 이산 확률 분포 함수로 할 수 있다.
본 발명에 따른 정보 처리 방법은, 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수를 생성하는 함수 생성 단계와, 등록 단어와, 그 등록 단어에 대한 개념 표기 함수를 대응시키는 대응 부가 단계를 갖는다.
본 발명에 따른 기록 매체는, 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수를 생성하는 함수 생성 단계와, 등록 단어와, 그 등록 단어에 대한 개념 표기 함수를 대응시키는 대응 부가 단계를 포함하는 프로그램이 기록되어 있다.
본 발명에 따른 정보 처리 장치 및 정보 처리 방법, 및 기록 매체에 있어서는, 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수가 생성되고, 등록 단어와, 그 등록 단어에 대한 개념 표기 함수가 대응된다.
도 1은 본 발명을 적용한 최적 단어열 출력 장치의 일 실시예의 구성예를 도시하고 있다.
이 최적 단어열 출력 장치에 있어서는, 어떤 사물을 나타내는 단어열을 구성하는 단어의 집합(단어 집합)으로부터, 그 사물을 적절하게 나타내는 단어열이 출력되도록 되어 있다.
즉, 센서부(1)는, 어떤 구체적인 사물을 대상으로서, 그 사물(이하, 적절하게, 주목 사물이라고 한다)로부터 받는 자극을 감지하도록 되어 있고, 그 감지의 결과를, 이전 처리부(2)에 출력한다. 여기서, 도 1의 실시예에 있어서는, 센서부(1)는, 광을 전기 신호로 변환하는 디바이스로서의 비디오 카메라, 소리를 전기 신호로 변환하는 디바이스로서의 마이크(마이크로폰), 촉각 센서, 온도 센서, 및 가속도 센서 등으로 구성되어 있고, 따라서, 센서부(1)에서는, 주목 사물의 색이나, 형, 크기, 위치, 방향, 속도 등이 감지된다.
이전 처리부(2)에서는, 센서부(1)의 출력이 처리되고, 그 출력으로부터, 특징 파라미터(특징 벡터)가 추출된다. 즉, 이전 처리부(2)에서는, 센서부(1)에 의해서, 주목 사물이 관측되는 것에 의해 얻어지는 정보에 대한 특징 파라미터(따라서, 주목 사물의 색이나, 형, 크기, 위치, 방향, 속도 등의, 주목 사물의 특징을 나타내는 파라미터)가 구해진다. 이 특징 파라미터는, 단어 집합 출력부(3)에 공급된다.
단어 집합 출력부(3)는, N개의 식별기(111내지 11N)와, 셀렉터(12)로 구성되고, 센서부(1)에 의해서 관측된 주목 사물을 표현하는 단어열을 구성하는 단어의 집합을 출력한다.
즉, 식별기(11n)는, 주목 사물로부터 얻어지는 특징 파라미터에 기초하여,그 주목 사물을 패턴 인식 등에 의해 식별하고, 그 식별 결과를 출력한다. 구체적으로는, 식별기(11n)는, 어떤 단어(#n)가 나타내는 사물을 식별하기 위한 식별 함수(fn; 모델)를 기억하고 있으며, 이전 처리부(2)로부터의 특징 파라미터를 사용하여, 그 식별 함수(fn)를 연산한다. 그리고, 식별기(11n)는, 식별 함수(fn)의 연산 결과(이하, 적절하게, 함수치라고 한다), 식별 함수(fn)에 의해서 식별되는 사물을 나타내는 단어(#n)의 텍스트 표기 및 음성 표기, 및 식별 함수(fn)를, 단어(#n)가 나타내는 사물의 식별 결과로서, 셀렉터(12)에 출력한다.
셀렉터(12)는, 식별기(111내지 11N) 각각으로부터의 식별 결과를 수신하면, 그 식별 결과 중에서, 예를 들면, 식별 함수(f1내지 fN)의 함수치가 소정치 이상인 것을 선택한다. 즉, 여기서는, 식별 함수(fn)의 함수치가 클수록, 주목 사물이, 단어(#n)로 표현되는 것임의 확실성이 높은 것으로 하고 있고, 셀렉터(12)는, 함수치가 소정치 이상의 식별 결과를, 주목 사물을 표현하는 데 적절한 것으로서 선택한다.
여기서, 주목 사물이, 예를 들면, 커다란 빨간 공인 경우, 식별 함수(f1내지 fN) 중, 「크다」, 「빨갛다」, 「공」과 같은 3개의 사물을 각각 표현하는 단어를 식별하지만 함수치는, 모두 소정치 이상으로 된다고 생각된다. 따라서, 이 경우, 셀렉터(12)에서는, 그와 같은 3개의 식별 결과가 선택되게 되지만, 본 실시예에서는, 이와 같이, 셀렉터(12)에 있어서, 기본적으로, 복수의 식별 결과가 선택되는 것으로 한다.
셀렉터(12)는, 이상과 같이, 주목 사물을 표현하는 단어 각각에 대응하는 복수의 식별 결과를 선택하면, 그 선택한 복수의 식별 결과를, 최적 단어열 출력부(4)에 입력한다.
여기서, 식별기(11n)에 있어서, 단어(#n)가 나타내는 사물을 식별하기 위해서 사용되는 식별 함수(fn)는, 단어(#n)가 나타내는 개개의 구체적인 사물을 관측하는 것에 의해 얻어지는 특징 파라미터를 사용하여 학습을 행하는 것에 의해 얻어지는 것이고, 따라서, 단어(#n)가 나타내는 개개의 구체적인 사물로 이루어지는 특징 파라미터를 대표하여 표현한다.
한편, 사물을 표현하는 함수를, 개념 표기 함수라는 것으로 하면, 식별 함수(fn)는, 상술한 바와 같이, 단어(#n)가 나타내는 구체적인 각 사물로부터 얻어지는 특징 파라미터를 대표하여 표현하고 있으며, 따라서, 식별 함수(fn)는, 개념 표기 함수의 일종이라고 파악할 수 있다. 또한, 식별 함수(fn)는, 어디까지나, 개념 표기 함수로서도 파악할 수 있을 뿐이고, 따라서, 개념 표기 함수로서, 식별 함수(f) 이외의 함수를 사용하는 것도 가능하다.
또한, 이하에 있어서는, 단어(w)를, 적절하게, 다음과 같은 정의로 사용하는 것으로 한다.
w=(L, P, C)
···(1)
단, L은, 단어를 표현하는 문자열(텍스트 표기)을, P는, 단어를 음성으로 표현하기 위한 표기(음성 표기)를, C는, 단어가 나타내는 사물을 표현하는 표기(개념 표기)를, 각각 나타낸다.
음성 표기(P)로서는, 예를 들면, 단어를 발음한 음성을 특징짓는 음향 패턴의 분포를 사용하여 학습을 행하는 것에 의해 얻어지는 HMM(Hidden Markov Model) 등의 확률 모델을 사용할 수 있다. 또한, 개념 표기(C)로서는, 개념 표기 함수인 식별 함수(fn)를 사용할 수 있다.
또한, 음성 표기(P)로서 사용하는 확률 모델을 생성하기 위한 학습 방법 등에 대해서는, 예를 들면, Keinosuke Fukunaga, "Statistical Pattern Recognition," Academic Press, 1990나, Lawence Rabiner, Biing-Hwang Juang(후루이(古井 감역), "음성 인식의 기초(상, 하)", NTT 어드밴스 테크놀로지 주식회사, 1995 등에, 그 상세가 기재되어 있다.
셀렉터(12)는, 주목 사물에 대한 복수의 식별 결과 각각을, 식(1)에서 정의하는 단어 형태의 집합으로서, 최적 단어열 출력부(4)에 공급한다.
즉, 지금, 주목 사물을 적절하게 표현하는 복수의 단어를, w1, w2,···라고 나타내면, 셀렉터(12)는, 이 복수의 단어(w1, w2,···)의 집합을, 최적 단어열 출력부(4)에 공급한다.
여기서, 복수의 단어(w1, w2,···)의 집합(단어 집합; W)을, 다음 식과 같이 정의한다.
W={w1, w2,···}
···(2)
또한, 복수의 단어(w1, w2,···) 배열(단어열; s)을, 다음 식과 같이 정의한다.
s=[w1, w2, ···]
···(3)
더욱이, 복수의 단어열(s1, s2, ···) 집합(단어열 집합; S)을, 다음 식과 같이 정의한다.
S={s1, s2,···}
···(4)
또한, 단어 집합(W)은, 복수의 단어(w1, w2, ···)의 집합이고, 그 복수의 단어(w1, w2, ···)의 배열에 의미는 없다(동일한 단어로 이루어지는 단어 집합은, 그 단어의 배열이 다르더라도, 동일한 집합이다). 한편, 단어열은, 복수의 단어(w1, w2, ···)의 배열이고, 그 복수의 단어(w1, w2,···)의 배열에 의미가 있다(동일한 단어로 이루어지는 단어열이더라도, 그 단어의 배열이 다르면, 다른 단어열이다).
최적 단어열 출력부(4)는, 단어 집합 출력부(3; 셀렉터(12))로부터, 주목 사물을 적절하게 표현하는 복수의 단어(w1, w2, ···)의 집합(W)을 수신하면, 그 단어 집합을 구성하는 단어로부터, 주목 사물을 적절하게 표현하는 단어의 배열로서의 단어열(혹은 문장; 이하, 적절하게, 최적 단어열이라고 한다)을 구성하여 출력한다.
다음에, 도 2는, 도 1의 최적 단어열 출력부(4)의 구성예를 도시하고 있다.
단어 집합 출력부(3; 도 1)로부터의 단어 집합(이하, 적절하게, 입력 단어 집합이라고 한다; W)은, 단어열 생성부(21)에 입력되도록 되어 있고, 단어열 생성부(21)는, 입력 단어 집합(W)을 구성하는 복수의 단어(이하, 적절하게, 입력 단어라고 한다; w1, w2, ···) 전부를 사용하여 구성되는, 단어의 순열(이하, 적절하게, 입력 단어열이라고 한다; s1, s2, ···) 전부를 생성하고, 그 모든 단어열의 집합(이하, 적절하게, 입력 단어열 집합이라고 한다; S)을, 최적 단어열 탐색부(22)에 출력하도록 되어 있다. 여기서, 단어 집합 출력부(3)가 출력하는 단어 집합이, M개의 단어로 구성되는 경우에는, 단어열 생성부(21)에서는, M! 와 같은 단어열이 생성되게 된다(!는 계승(階乘)을 나타낸다).
최적 단어열 탐색부(22)는, 등록 단어열 데이터 베이스(23)를 참조하는 것에 의해, 단어열 생성부(21)로부터의 입력 단어열 집합(S)을 구성하는 입력 단어열(s1, s2, ···)로부터, 최적 단어열을 탐색하여 출력하도록 되어 있다.
즉, 최적 단어열 탐색부(22)는, 단어 유사도 계산부(31), 단어열 유사도 계산부(32), 및 선택부(33)로 구성되고, 입력 단어열 집합(S)을 구성하는 입력 단어열(s1, s2, ···) 각각에 대하여, 등록 단어열 데이터 베이스(23)에 등록되어 있는 단어열(등록 단어열) 각각과의 단어열 유사도를 계산하고, 입력 단어열(s1, s2, ···) 중에서, 가장 큰 단어열 유사도(값이 클수록, 단어열끼리의 유사도가 높은 것으로 한다)가 얻어지는 것을 선택하여, 최적 단어열로서 출력하도록 되어 있다.
구체적으로는, 단어 유사도 계산부(31)는, 입력 단어열(si)을 구성하는 각 입력 단어(wij)와, 등록 단어열을 구성하는, 입력 단어(wij)에 대응하는 단어(입력 단어(wij)와 동일한 순서에 위치하는 단어)와의 단어 유사도를, 개념 표기 함수에 기초하여 연산하여, 단어열 유사도 계산부(32)에 출력하도록 되어 있다.
여기서, 단어(wij)란, 단어열(si)의 선두로부터 j번째에 위치하는 단어를 의미한다.
단어열 유사도 계산부(32)는, 입력 단어열(si)과 등록 단어열의 단어열 유사도를, 입력 단어열(si)을 구성하는 각 단어와, 그 단어에 대응하는, 등록 단어열을 구성하는 단어와의 단어 유사도에 기초하여 연산하고, 선택부(33)에 출력하도록 되어 있다.
선택부(33)는, 입력 단어열 집합(S)을 구성하는 입력 단어열(s1, s2,···)중, 등록 단어열과의 단어열 유사도를 가장 크게 하는 것을 선택하여, 최적 단어열로서 출력하도록 되어 있다.
등록 단어열 데이터 베이스(23)는, 예를 들면, 도 3에 도시하는 바와 같은단어 사전과 단어열 사전을 기억하고 있다. 즉, 단어 사전에는, 도 3a에 도시하는 바와 같이, 등록 단어가, 식(1)에서 정의한 바와 같이, 텍스트 표기, 음성 표기, 및 개념 표기를 대응시킨 형태로 등록되어 있다. 단어열 사전에는, 복수의 등록 단어를, 어떤 의미가 되는 배열로 나란히 배열한 단어열(등록 단어열)이 등록되어 있다.
또한, 등록 단어열이 등록되어 있는 단어열 사전은, 반드시, 등록 단어열 데이터 베이스(23)에 기억시켜 둘 필요는 없다. 즉, 등록 단어열은, 등록 단어열 데이터 베이스(23)에, 문법 등의 규칙을 등록하여 두면, 그 규칙에 기초하여, 단어 사전에 등록된 등록 단어를 나란히 배열하는 것에 의해 작성할 수 있다.
다음에, 도 2의 최적 단어열 출력부(4)의 처리에 대하여 설명한다.
단어열 생성부(21)는, 단어 집합 출력부(3; 도 1)로부터, 입력 단어 집합(W)을 수신하면, 그 입력 단어 집합(W)을 구성하는 복수의 입력 단어(w1, w2, ···)를 사용하여 구성되는 입력 단어열(s1, s2, ···)을 생성하고, 그 단어열의 집합(입력 단어열 집합; S)을, 최적 단어열 탐색부(22)에 출력한다.
최적 단어열 탐색부(22)는, 단어열 생성부(21)로부터 입력 단어열 집합(S)을 수신하면, 등록 단어열 데이터 베이스(23)를 참조하면서, 입력 단어열 집합(S)을 구성하는 입력 단어열(s1, s2, ···) 중에서, 최적 단어열을 탐색하여 출력하는 최적 단어열 탐색 처리를 행한다.
즉, 도 4의 흐름도에 도시된 바와 같이, 최적 단어열 탐색 처리에서는, 우선맨먼저, 단계 S1에 있어서, 단어 유사도 계산부(31)는, 입력 단어열 집합(S) 중에서, 어떤 단어열(si)을, 주목 단어열로서 선택하고, 단계 S2으로 진행한다. 단계 S2에서는, 단어 유사도 계산부(31)는, 등록 단어열 데이터 베이스(23)의 사전으로부터, 어떤 등록 단어열을, 주목 등록 단어열로서 선택하고, 주목 단어열(si)을 구성하는 각 단어와, 그 단어에 대응하는, 주목 등록 단어열의 단어와의 단어 유사도를, 개념 표기 함수에 기초하여 계산한다.
즉, 지금, 단어 유사도를 계산하고자 하는 주목 단어열 또는 등록 단어열의 단어를, 각각 w_1또는 w_2로 나타내면, 이들의 단어(w_1, w_2)는, 식(1)으로부터 다음 식으로 나타낼 수 있다.
w_1=(L_1, P_1, C_1)
w_2=(L-2, P_2, C_2)
···(5)
단, L_1, P_1, C_1은, 단어(w_1)의 텍스트 표기, 음성 표기, 개념 표기를, 각각 나타낸다. 마찬가지로, L_2, P_2, C_2는, 단어(w_2)의 텍스트 표기, 음성 표기, 개념 표기를, 각각 나타낸다.
개념 표기로서 사용하는 개념 표기 함수로서는, 예를 들면, 가우스 확률 분포 함수를 사용할 수 있고, 지금, 평균 벡터가 x이며, 공분산 행렬이 ∑의 가우스 확률 분포 함수를, N(x, ∑)으로 나타내면, 식(5)의 개념 표기(C_1, C_2)는, 다음 식으로 나타낼 수 있다.
C_1= N(x1, ∑1)
C_2= N(x2, ∑2)
···(6)
단, x1또는 ∑1은, 단어(w_1)가 나타내는 개개의 구체적인 사물로부터 얻어지는 특징 파라미터의 평균치 또는 공분산 행렬을 각각 나타낸다. 마찬가지로, x2또는 ∑2는 단어(w_2)가 나타내는 개개의 구체적인 사물로부터 얻어지는 특징 파라미터의 평균치 또는 공분산 행렬을 각각 나타낸다.
또, 본 실시예에서는, 상술한 바와 같이, 입력 단어의 개념 표기 함수는, 그 입력 단어를 식별하기 위한 식별 함수와 같고, 따라서, 여기서는, 도 1의 식별기(11n)가 갖는 식별 함수(fn)는, 가우스 확률 분포 함수에 의해서 나타난다.
여기서, 주목 단어열의 단어(w_1)가 나타내는 사물을 식별하기 위한 식별 함수로서의 가우스 확률 분포 함수N(x1, ∑1)를 규정하는 평균치(x1) 및 공분산 행렬 (∑1)은, 그 단어(w_1)가 나타내는 개개의 구체적인 사물로부터 얻어지는 특징 파라미터를 사용하여 학습을 행하는 것에 의해 구해진다. 또한, 등록 단어열의 단어 (w_2)가 나타내는 사물에 대한 개념 표기 함수로서의 가우스 확률 분포 함수N(x2, ∑2)를 규정하는 평균치(x2) 및 공분산 행렬(∑2)도, 그 단어(w_2)가 나타내는 개개의 구체적인 사물로부터 얻어지는 특징 파라미터를 사용하여 학습을 행하는 것에의해 구해진다.
개념 표기 함수로서, 가우스 확률 분포 함수를 사용하는 경우, 2개의 단어(w_1)와 단어(w_2)와의 단어 유사도Rw(w_1, w_2)는, 각각의 개념 표기 함수로서의 가우스 분포의 바타채리어(Bhattacharyya) 거리를 사용하여, 예를 들면, 다음 식으로 계산할 수 있다.
···(7)
단, 1n(x)은, x의 자연 대수(對數)를 나타낸다.
여기서, 가우스 분포의 바타채리어 거리의 계산에 있어서는, 일반적으로는, 평균 벡터도 고려되지만, 여기서는, 2개의 단어에 대한 가우스 분포끼리의 상대적인 형상의 차이(2개의 가우스 분포의 절대적인 위치를 무시하고 비교를 행한 경우, 즉, 2개의 가우스 분포의 평행 이동만을 허용하여 비교한 경우에(따라서, 회전이나 축소, 확대는 제외한다), 그 2개의 가우스 분포의 형상이 비슷한지의 여부)에 주목하기 위해서, 식(7)은, 공분산 행렬만을 사용한 식으로 되어 있다.
즉, 식(7)에 따르면, 단어(w_1) 또는 단어(w_2) 각각이 나타내는 사물로부터 얻어지는 특징 파라미터의 가우스 분포끼리가 상대적인 형상이 비슷한지의 여부에 의해서, 2개의 단어(w_1 와 w_2)의 단어 유사도Rw(w_1, w_2)가 구해진다.
또, 식(7)에 의해서 구해지는 단어 유사도Rw(w_1, w_2)는, 단어(w_1) 또는단어(w_2) 각각에 대한 가우스 분포끼리의 상대적인 형상이 비슷할수록, 즉, 단어(w_1과 w_2)의 의미적인 유사성이 높을수록, 큰 값이 된다.
단계 S2에 있어서, 주목 단어열을 구성하는 각 단어와, 그 단어에 대응하는, 주목 등록 단어열의 단어와의 단어 유사도가 계산되면, 단계 S3으로 진행하고, 단어 유사도 계산부(31)는, 모든 등록 단어열을, 주목 등록 단어열로서, 단계 S2에 있어서의 단어 유사도 계산을 행하는지의 여부를 판정한다. 단계 S3에 있어서, 아직, 모든 등록 단어열을, 주목 등록 단어열로서, 단계 S2에 있어서의 단어 유사도의 계산을 행하고 있지 않다고 판정된 경우, 단계 S2로 되돌아가고, 아직 주목 등록 단어열로 하고 있지 않는 등록 단어열을, 새롭게 주목 단어열로서, 이하, 동일한 처리가 반복된다.
또한, 단계 S3에 있어서, 모든 등록 단어열을, 주목 등록 단어열로서, 단계 S2에 있어서의 단어 유사도의 계산을 행하였다고 판정된 경우, 단계 S4로 진행하고, 입력 단어열 집합 중에, 아직, 주목 단어열로 하고 있지 않는 입력 단어열이 있는지의 여부가 판정된다. 단계 S4에 있어서, 입력 단어열 집합 중에, 아직, 주목 단어열로 하고 있지 않는 입력 단어열이 있다고 판정된 경우, 단계 S1로 되돌아가며, 아직 주목 단어열로 하고 있지 않는 입력 단어열을, 새롭게 주목 단어열로서, 이하, 단계 S2 이후의 처리를 반복한다.
한편, 단계 S4에 있어서, 입력 단어열 집합 중에, 아직, 주목 단어열로 하고 있지 않는 입력 단어열이 없다고 판정된 경우, 즉, 입력 단어열 집합을 구성하는 모든 입력 단어열에 대하여, 등록 단어열 데이터 베이스(23)에 등록되어 있는 등록단어열 각각을 구성하는 단어와의 단어 유사도의 계산을 행한 경우, 단계 S5로 진행하고, 단어열 유사도 계산부(32)에 있어서, 입력 단어열 집합을 구성하는 각 단어열에 대하여, 각 등록 단어열과의 단어열 유사도가 계산된다.
즉, 단어 유사도 계산부(31)에 있어서 구해진 단어 유사도는, 단어열 유사도 계산부(32)에 공급되고, 단어열 유사도 계산부(32)에서는, 단계 S5에 있어서, 단어 유사도 계산부(31)로부터의 단어 유사도를 사용하여, 입력 단어열 집합을 구성하는 각 단어열에 대하여, 각 등록 단어열과의 단어열 유사도가 계산된다.
즉, 입력 단어열 집합을 구성하는 어떤 입력 단어열을 s1로 함과 동시에, 어떤 등록 단어열을 s2로 한다. 더욱이, 단어열(s1) 또는 단어열(s2)을 구성하는 단어의 수를, 각각 L(s1) 또는 L(s2)로 나타내면, 단어열 유사도 계산부(32)에서는, 2개의 단어열(s2)과 s2의 단어열 유사도Rs(s1, s2)가, 예를 들면, 다음 식에 따라서 계산된다.
.... (8)
단, 단어(wij)는, 상술한 바와 같이, 단어열(si)의 선두로부터 j번째의 단어를 의미한다.
따라서, 입력 단어열(s1)과 등록 단어열(s2)이 동일한 수의 단어로 구성되는 경우에는, 그 단어열 유사도Rs(s1, s2)는 입력 단어열(s1)을 구성하는 각 단어와 그 단어에 대응하는 등록 단어열(s2)을 구성하는 단어와의 단어 유사도의 총합으로서 구해진다. 또한, 입력 단어열(s1)과 등록 단어열(s2)이 다른 수의 단어로 구성되는 경우에는, 그 단어열 유사도Rs(s1, s2)는, 0이 된다.
또, 식(8)에 의해서 구해지는, 단어열(s1과 s2)의 단어열 유사도 Rs(s1, s2)도, 식(7)에 의해서 구해지는 단어 유사도Rw(w_1, w_2)와 마찬가지로, 단어열(s1과 s2)의 의미적인 유사성이 높을수록, 큰 값이 된다.
단어열 유사도 계산부(32)는, 단계 S5에 있어서, 입력 단어열 집합을 구성하는 각 단어열에 대하여, 각 등록 단어열과의 단어열 유사도를 계산하면, 그 단어열 유사도를, 선택부(33)에 공급한다.
선택부(33)에서는, 단계 S6에 있어서, 단어열 유사도 계산부(32)로부터의 단어열 유사도의 최대치가 구해지고, 그 최대의 단어열 유사도가 얻어지는 입력 단어열과 등록 단어열의 조합이 선택된다. 그리고, 단계 S7으로 진행하고, 선택부(33)는, 단계 S6에서 선택한 입력 단어열을, 최적 단어열로서 출력하며, 최적 단어열 탐색 처리를 종료한다.
즉, 입력 단어열 집합, 또는 등록 단어열 데이터 베이스(23)에 등록되어 있는 등록 단어열의 집합을, 각각 S 또는 S'로 하며, 각각이, 다음과 같이 나타난다.
S={s1, s2,···)
S'={s1', s2', ···)
···(9)
단, s1, s2,···는, 각각 입력 단어열을 나타내고, s1', s2', ···는, 각각 등록 단어열을 나타낸다.
이 경우, 선택부(33)에서는, 다음 식에 따라서, 입력 단어열 집합(S) 중에서, 최적 단어열(ssuitable)이 구해진다.
. . . (10)
단, max{x}는, x의 최대치를 나타내고, argmax{x}는, x의 최대치를 부여하는 인수(引數)를 나타낸다.
이상과 같이, 최적 단어열 출력부(4)에 대하여, 단어를, 그 단어가 나타내는 사물을 표현하는 개념 표기 함수와 동시에 입력하고, 최적 단어열 출력부(4)에 있어서, 그 입력 단어와, 등록 단어열 데이터 베이스(23)에 등록되어 있는 등록 단어와의 단어 유사도를, 개념 표기 함수에 기초하여 연산하도록 하였기 때문에, 입력 단어와 동일한 등록 단어가, 등록 단어열 데이터 베이스(23)에 등록되어 있지 않더라도, 입력 단어와 등록 단어와의 단어 유사도를 계산하고, 또한, 입력 단어열과등록 단어열과의 단어열 유사도도 계산할 수 있다. 그 결과, 대규모의 사전이 없더라도, 많은 단어에 대하여, 단어끼리의 유사도의 계산이 가능해지고, 더욱이, 복잡한 문법 규칙 등이 없더라도, 단어의 집합을, 적절한 의미가 되는 단어열로 변환할 수 있다.
즉, 예를 들면, 2차원의 방향을 나타내는 특징 파라미터 공간에 있어서, 단어 「상(上)」, 「하(下)」, 「좌(左)」, 「우(右)」의 개념 표기 함수로서의 가우스 분포는, 도 5에 도시하는 바와 같이, 상, 하, 좌, 우측 방향으로 갈수록, 각각 출현 확률이 높아진다고 생각된다. 또, 도 5에 있어서는, 도면에 대하여 수직 방향이 확률의 높이를 나타내고, 또한, 확률이 같은 부분을, 선으로 연결하여 나타내고 있다.
지금, 등록 단어열 데이터 베이스(23)에 있어서, 등록 단어로서, 「좌」와 「상」이 등록되어 있는 동시에, 등록 단어열로서, 「좌상」이 등록되어 있는 것으로 하고, 단어 집합으로서, 단어열 생성부(21; 도 2)에, 등록 단어열 데이터 베이스(23)에는 등록되어 있지 않는 단어 「하」 및 「우」의 집합이 입력되었다고 한다.
이 경우, 단어열 생성부(21)에서는, 입력 단어열로서, 「하우」와 「우하」가 생성되어, 최적 단어열 탐색부(22)에 공급된다.
최적 단어열 탐색부(22)에서는, 단어 유사도 계산부(31)에 있어서, 입력 단어열(「하우」)을 구성하는 단어 각각과, 그 단어에 대응하는, 등록 단어열(「좌상」)을 구성하는 단어와의 단어 유사도가 계산됨과 동시에, 입력 단어열(「우하」)을 구성하는 단어 각각과, 그 단어에 대응하는, 등록 단어열(「좌상」)을 구성하는 단어와의 단어 유사도가 계산된다.
즉, 입력 단어열 「하우」에 대해서는, 단어(「하」)와 단어(「좌」)와의 단어 유사도, 및 단어(「우」)와 단어(「상」)의 단어 유사도가 계산된다. 또한, 입력 단어(「우하」)에 대해서는, 단어(「우」)와 단어(「좌」)와의 단어 유사도, 및 단어(「하」)와 단어(「상」)와의 단어 유사도가 계산된다.
그리고, 단어열 유사도 계산부(32)에 있어서, 단어(「하」)와 단어(「좌」)와의 단어 유사도, 및 단어(「우」)와 단어(「상」)와의 단어 유사도의 합이 ,입력 단어열(「하」)과 등록 단어열(「좌상」)과의 단어열 유사도로서 계산됨과 동시에, 단어(「우」)와 단어(「좌」)와의 단어 유사도, 및 단어(「하」)와 단어(「상」)와의 단어 유사도의 합이,입력 단어열(「우하」)과 등록 단어열(「좌상」)과의 단어열 유사도로서 계산된다.
지금, 도 5에 도시한 단어(「상」, 「하」, 「좌」,「우」)의 개념 표기 함수로서의 가우스 분포로부터, 각각의 형상의 개략적 형태는, 도 6에 도시하는 바와 같다. 도 6으로부터 분명한 바와 같이, 단어(「상」)와 단어(「하」)의 가우스 분포의 형상은 유사하며, 또한, 단어(「좌」)와 단어(「우」)의 가우스 분포의 형상도 유사하지만, 단어(「상」)와 단어(「우」)나 단어(「좌」)의 가우스 분포의 형상은 비슷하지 않으며, 단어(「하」)와 단어(「우」)나 단어(「좌」)의 가우스 분포의 형상도 비슷하지 않다.
따라서, 단어(「우」)와 단어(「좌」)는 단어 유사도, 및 단어(「하」)와 단어(「상」)와의 단어 유사도는, 모두 큰 값이 되지만, 단어(「하」)와 단어(「좌」)와의 단어 유사도, 및 단어(「우」)와 단어(「상」)와의 단어 유사도는, 모두 작은 값이 된다.
그 결과, 단어(「우」)와 단어(「좌」)와의 단어 유사도, 및 단어(「하」)와 단어(「상」)와의 단어 유사도의 합인, 입력 단어열(「우하」)과 등록 단어열(「좌상」)과의 단어열 유사도는 큰 값이 되고, 단어(「하」)와 단어(「좌」)와의 단어 유사도, 및 단어(「우」)와 단어(「상」)와의 단어 유사도의 합인, 입력 단어열(「하우」)과 등록 단어열(「좌상」)과의 단어열 유사도는 작은 값이 된다.
따라서, 선택부(33)에서는, 단어열 유사도가 큰, 입력 단어열(「우하」)이 등록 단어열(「좌상」)의 짝이 선택되고, 입력 단어열(「우하」)이, 최적 단어열로서 출력된다. 즉, 입력 단어열로서는, 「하우」와 「우하」가 얻어지지만, 이들 중, 단어의 배열로서 보다 적절한 「우하」가, 최적 단어열로서 출력된다.
또한, 예를 들면, 등록 단어열 데이터 베이스(23)에 있어서, 등록 단어로서, 「빨갛다」와 「구두」가 등록되어 있는 동시에, 등록 단어열로서, 「빨간 구두」가 등록되어 있다고 하고, 단어 집합으로서, 단어열 생성부(21)에, 등록 단어열 데이터 베이스(23)에는 등록되어 있지 않는 단어(「희다」)와, 등록 단어열 데이터 베이스(23)에 등록되어 있는 단어(「구두」)의 집합이 입력된 경우라도, 상술한 경우와 동일하게 하여, 단어열(「흰 구두」)이, 최적 단어열로서 출력되게 된다.
이상과 같이, 등록 단어열 데이터 베이스(23)에 등록되어 있지 않는 입력 단어에 대하여, 단어 유사도를 계산하고, 또한, 그와 같은 입력 단어를 포함하는 입력 단어열에 대하여, 단어열 유사도도 계산할 수 있기 때문에, 대규모의 사전이 없더라도, 많은 단어에 대하여, 단어끼리의 유사도의 계산이 가능해지고, 더욱이, 복잡한 문법 규칙이나, 입력 단어열과 동일한 단어로 이루어지는 단어열이, 등록 단어열로서 등록되어 있지 않더라도, 단어의 집합을, 적절한 의미가 되는 단어열(최적 단어열)로 변환할 수 있다.
다음에, 도 7은, 도 2의 등록 단어열 데이터 베이스(23)에 기억시키는 단어 사전 및 단어열 사전을 작성하기 위한 학습 처리를 행하는 학습 장치의 일 실시예의 구성예를 도시하고 있다.
센서부(41)는, 도 2의 센서부(1)와 같이 구성되고, 학습의 대상으로 하는 구체적인 사물(이하, 적절하게, 학습 대상 사물이라고 한다)로부터 받는 자극을 감지하도록 되어 있으며, 그 감지의 결과를, 이전 처리부(42)에 출력하게 되어 있다.
이전 처리부(42)는, 도 2의 이전 처리부(2)와 동일하게 구성되고, 센서부(1)의 출력을 처리하며, 그 출력으로부터, 특징 파라미터를 추출하도록 되어 있다. 즉, 이전 처리부(42)는, 센서부(41)에 의해서, 학습 대상 사물이 관측되는 것에 의해 얻어지는 정보에 대한 특징 파라미터를 구하여, 학습부(43)에 출력한다.
학습부(43)에는, 이전 처리부(42)로부터, 학습 대상 사물에 대한 특징 파라미터가 공급되는 것 외에, 텍스트 입력부(44) 또는 음성 입력부(45)로부터, 학습 대상 사물을 표현하는 단어열을 구성하는 각 단어를 나타내는 문자열 또는 음성이, 각각 공급되도록 되어 있다. 그리고, 학습부(43)는, 학습 대상 사물을 표현하는 단어열을 구성하는 각 단어에 대한 특징 파라미터를 사용하여 학습을 행하는 것에의해, 각 단어에 의해서 나타나는 사물을 표현하는 개념 표기 함수를 생성함과 동시에, 텍스트 입력부(44) 또는 음성 입력부(45)로부터 공급되는 문자열 또는 음성에 기초하여, 텍스트 표기 또는 음성 표기를 각각 생성하고, 각 단어에 대한 텍스트 표기, 음성 표기, 및 개념 표기 함수를 대응시켜, 도 3b에 도시하는 바와 같은 단어 사전을 작성하도록 되어 있다. 더욱이, 학습부(43)는, 학습 대상 사물을 표현하는 단어열을 등록한, 도 3a에 도시한 바와 같은 단어열 사전을 작성하도록 되어 있다.
텍스트 입력부(44)는, 예를 들면, 키보드 등으로 구성되고, 학습 대상 사물을 표현하는 단어열을 구성하는 각 단어를 나타내는 문자열을 입력할 때에 조작된다. 음성 입력부(45)는, 예를 들면, 마이크 등으로 구성되고, 거기에는, 학습 대상 사물을 표현하는 단어열을 구성하는 각 단어를 발음한 음성이 입력된다.
다음에, 도 8의 흐름도를 참조하여, 도 7의 학습 장치에 의한 학습 처리에 대하여 설명한다.
우선 최초에, 단계 S11에서는, 센서부(41)에 있어서, 학습 대상 사물로부터 받는 자극이 감지됨과 동시에, 텍스트 입력부(44) 또는 음성 입력부(45)로부터, 학습 대상 사물을 표현하는 단어열을 구성하는 각 단어를 나타내는 문자열 또는 음성이, 각각 입력된다. 그리고, 센서부(41)에 의한 감지의 결과는, 이전 처리부(42)에 공급되고, 텍스트 입력부(44) 또는 음성 입력부(45) 각각으로부터의 문자열 또는 음성은, 모두, 학습부(43)에 공급된다.
이전 처리부(42)는, 센서부(41)에 의한 감지 결과를 수신하면, 단계 S12에있어서, 그 감지의 결과로부터, 특징 파라미터를 추출하여, 학습부(43)에 공급한다.
또, 센서부(41)에 있어서는, 학습하고자 하는 단어열에 의해서 표현되는, 다른 학습 대상 사물(예를 들면, 학습하고자 하는 단어열이, 푸른 볼이면, 구체적인 개개의 사물로서의 각종의 푸른 볼(예를 들면, 푸른 야구 볼이나, 푸른 축구 볼 등)이, 여기서 말하는 다른 학습 대상 사물에 해당한다)로부터 받는 자극이 감지되고, 이전 처리부(42)에 공급된다. 따라서, 이전 처리부(42)에서는, 그와 같은 다른 학습 대상 사물로부터 받는 자극 각각에 대하여, 특징 파라미터가 추출되고, 학습부(43)에 공급된다. 따라서, 학습하고자 하는 단어열을 구성하는 1개의 단어에 주목하면, 이전 처리부(42)에서는, 그 단어에 의해서 표현되는, 다른 사물로부터 받는 자극으로부터 얻어지는 복수의 특징 파라미터가 추출되어, 학습부(43)에 공급된다.
학습부(43)는, 학습하고자 하는 단어열을 구성하는 각 단어에 대하여, 그 단어에 의해서 표현되는, 다른 사물에 대한 특징 파라미터를 수신하면, 단계 S13에 있어서, 학습하고자 하는 단어열을 구성하는 단어 각각에 대하여 얻어진 복수의 특징 파라미터를 사용하여 학습을 행하고, 그 분포를 나타내는, 예를 들면, 그 가우스 확률 분포 함수 등을, 각 단어에 대한 개념 표기 함수로서 구한다. 그리고, 학습부(43)는, 텍스트 입력부(44) 또는 음성 입력부(45)로부터의 문자열로부터, 학습하고자 하는 단어열을 구성하는 단어 각각에 대한 텍스트 표기 또는 음성 표기를 생성하고, 단계 S14에 있어서, 그것들에, 각 단어의 개념 표기 함수를 대응시킴으로써, 단어 사전을 작성함과 동시에, 학습 대상 사물을 표현하는 단어열을 등록한 단어열 사전을 작성하고, 지금 학습의 대상으로 되어 있는 단어열을 대상으로 하는 학습 처리를 종료한다.
또, 어떤 단어에 의해서 표현되는, 다른 사물 각각에 대한 특징 파라미터, 즉, 복수의 특징 파라미터를 사용하여 학습을 행하는 방법으로서는, 예를 들면, 상술한 문헌 "Statistical Pattern Recognition"이나, "음성 인식의 기초(상, 하)" 등에 기재되어 있는 방법을 사용할 수 있다.
다음에, 상술한 일련의 처리는, 하드웨어에 의해 행할 수도 있고, 소프트웨어에 의해 행할 수도 있다. 일련의 처리를 소프트웨어에 의해서 행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 전용의 하드웨어로서의 최적 단어열 출력 장치나 학습 장치에 장착되어 있는 컴퓨터나, 범용의 컴퓨터 등에 인스톨된다.
그래서, 도 9를 참조하여, 상술한 일련의 처리를 실행하는 프로그램을 컴퓨터에 인스톨하고, 컴퓨터에 의해서 실행 가능한 상태로 하기 위해서 사용되는, 그 프로그램이 기록되어 있는 기록 매체에 대하여 설명한다.
프로그램은, 도 9a에 도시하는 바와 같이, 컴퓨터(101)에 내장되어 있는 기록 매체로서의 하드디스크(102)나 반도체 메모리(103)에 미리 기록하여 둘 수 있다.
혹은 또, 프로그램은, 도 9b에 도시하는 바와 같이, 플로피 디스크(111), CD-ROM(Compact Disc Read 0nly Memory; 112), MO(Magneto optical) 디스크(113), DVD(Digital Versatile Disc; 114), 자기 디스크(115), 반도체 메모리(116) 등의기록 매체에, 일시적 또는 영속적으로 격납(기록)하여 둘 수 있다. 이러한 기록 매체는, 소위 패키지 소프트웨어로서 제공할 수 있다.
또한, 프로그램은, 상술한 바와 같은 기록 매체로부터 컴퓨터에 인스톨하는 것 외에, 도 9c에 도시하는 바와 같이, 다운로드 사이트(121)로부터, 디지털 위성 방송용의 인공 위성(122)을 통하여, 컴퓨터(101)에 무선으로 전송하거나, LAN(Local Area Network), 인터넷과 같은 네트워크(131)를 통하여, 컴퓨터(123)에 유선으로 전송하고, 컴퓨터(101)에 있어서, 내장하는 하드디스크(102) 등에 인스톨할 수 있다.
또한, 본 명세서에 있어서, 컴퓨터에 각종 처리를 행하게 하기 위한 프로그램을 기술하는 단계는, 반드시 흐름도에 기재된 순서에 따라 시계열(時系列)로 처리할 필요는 없고, 병렬적 또는 개별로 실행되는 처리(예를 들면, 병렬 처리 또는 오브젝트에 의한 처리)도 포함하는 것이다.
다음에, 도 10는, 도 9의 컴퓨터(101)의 구성예를 도시하고 있다.
컴퓨터(101)는, 도 10에 도시하는 바와 같이, CPU(Central Processing Unit; 142)을 내장하고 있다. CPU(142)에는, 버스(141)를 통하여, 입출력 인터페이스(145)가 접속되어 있고, CPU(142)는, 입출력 인터페이스(145)를 통하여, 사용자에 의해서, 키보드나 마우스 등으로 구성되는 입력부(147)가 조작되는 것에 의해 지령이 입력되면, 그에 따라서, 도 9a의 반도체 메모리(103)에 대응하는 ROM(Read 0nly Memory; 143)에 격납되어 있는 프로그램을 실행한다. 혹은, 또한, CPU(142)는, 하드디스크(102)에 격납되어 있는 프로그램, 인공위성(122) 또는 네트워크(131)로부터 전송되고, 통신부(148)에서 수신되어 하드디스크(102)에 인스톨된 프로그램, 또는 드라이브(149)에 장착된 플로피 디스크(111), CD-ROM(112), MO 디스크(113), DVD(114), 또는 자기 디스크(115)로부터 판독되어 하드디스크(102)에 인스톨된 프로그램을, RAM(Random Access Memory; 144)에 로드하여 실행한다. 그리고, CPU(142)는, 그 처리 결과를, 예를 들면, 입출력 인터페이스(145)를 통하여, LCD(Liquid Crystal Display) 등으로 구성되는 표시부(146)에, 필요에 따라서 출력한다.
또, 본 실시예에 있어서는, 센서부(1 이나 41)에 의해서 감지되는 사물로부터의 자극을 사용하여, 그 사물을 표현하는 개념 표기 함수를 구하도록 하였지만, 개념 표기 함수는, 사물로부터의 자극이 아닌, 예를 들면, 그 사물을 표현하는 단어를 발음한 음성 등을 사용하여 구하도록 하는 것도 가능하다. 단, 사물로부터의 자극을 이용하여, 그 사물을 표현하는 개념 표기 함수를 구하는 경우에는, 현실세계에 존재하는 구체적인 사물과, 그 사물을 표현하는 단어를 대응시킬 수 있고, 그 결과, 예를 들면, 어떤 사물로부터 받는 자극을, 각종의 센서에 의해서 감지하며, 그 감지의 결과로부터, 그 사물을 적절하게 표현하는 단어열을 출력하는 로봇, 그 밖의, 사용자나 현실 세계의 환경과 관계하면서, 언어 처리를 행하는 시스템을 실현하는 것이 가능해진다.
또한, 본 실시예에서는, 개념 표기 함수로서, 가우스 확률 분포 함수를 사용하도록 하였지만, 개념 표기 함수로서는, 가우스 확률 분포 함수 이외의 확률 밀도 함수, 또한, HMM 등으로 대표되는 이산 확률 분포 함수 등을 사용하는 것도 가능하다.
더욱이, 본 실시예에서는, 2개의 단어끼리의 단어 유사도를, 개념 표기 함수의 바타채리어 거리를 사용하여 구하도록 하였지만, 단어 유사도는, 그 외, 예를 들면, 개념 표기 함수의 칼백다이버전스 등에 기초하여 구하는 것도 가능하다. 즉, 단어 유사도는, 2개의 단어 각각의 개념 표기 함수에 의해서 나타나는 분포 등의 형상의 유사성이 반영되는 물리량에 기초하여 구하는 것이 가능하다.
또한, 본 실시예에서는, 최적 단어열 출력부(4)에 의한 최적 단어열의 출력방법에 대해서는, 특히 언급하지 않았지만, 최적 단어열은, 예를 들면, 그 최적 단어열을 구성하는 단어의 배열의 순서로, 각 단어를 표시할 수도 있고, 또는, 음성(합성음)으로 출력할 수도 있다. 최적 단어열의 표시는, 각 단어의 텍스트 표기를 사용하는 것으로 행할 수 있고, 또한, 최적 단어열의 음성에 의한 출력은, 각 단어의 음성 표기를 사용하여 합성음을 생성하는 것으로 행할 수 있다.
본 발명의 제 1 정보 처리 장치 및 제 1 정보 처리 방법, 및 제 1 기록 매체에 따르면, 단어가, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 동시에 입력되고, 그 개념 표기 함수에 기초하여, 단어와 등록 단어와의 유사도인 단어 유사도가 연산된다. 따라서, 입력된 단어와 동일한 단어가, 등록 단어로서 등록되어 있지 않더라도, 그 입력되어 단어와 등록 단어와의 단어 유사도를 계산하는 것이 가능해진다.
본 발명의 제 2 정보 처리 장치 및 제 2 정보 처리 방법, 및 제 2 기록 매체에 따르면, 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수가 생성되고, 등록 단어와, 그 등록 단어에 대한 개념 표기 함수와가 대응된다. 따라서, 개념 표기 함수를 사용하는 것에 의해서, 단어끼리의 유사도를 계산하는 것이 가능해진다.
Claims (18)
- 입력된 단어에 대하여, 사전에 등록된 단어인 등록 단어와의 유사도를 구하는 정보 처리 장치에 있어서,단어를, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께 입력하는 입력 수단과,상기 개념 표기 함수에 기초하여, 상기 단어와 등록 단어와의 유사도인 단어 유사도를 연산하는 단어 유사도 연산 수단을 구비하는 것을 특징으로 하는, 정보 처리 장치.
- 제 1 항에 있어서,상기 사전은, 상기 등록 단어를 그 등록 단어에 대한 상기 개념 표기 함수와 함께 기억하고 있는 것을 특징으로 하는, 정보 처리 장치.
- 제 2 항에 있어서,상기 사전을 기억하고 있는 사전 기억 수단을 더 구비하는 것을 특징으로 하는, 정보 처리 장치.
- 제 1 항에 있어서,상기 개념 표기 함수는, 상기 단어가 나타내는 사물로부터 얻어지는 정보를표현하는 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 4 항에 있어서,상기 개념 표기 함수는, 상기 단어가 나타내는 사물로부터 받는 자극을 감지하는 감지 수단의 출력으로부터 얻어지는 정보를 표현하는 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 5 항에 있어서,상기 감지 수단은, 광 또는 소리를 전기 신호로 변환하는 장치, 촉각 센서, 온도 센서, 또는 가속도 센서이고,상기 개념 표기 함수는, 상기 감지 수단에 의해서, 상기 단어가 나타내는 사물을 관측하는 것에 의해 얻어지는 파라미터를 표현하는 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 1 항에 있어서,상기 개념 표기 함수는, 확률 밀도 함수 또는 이산 확률 분포 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 1 항에 있어서,상기 단어 유사도 연산 수단은, 상기 단어와 등록 단어와의 단어 유사도를,그 단어 및 등록 단어의 개념 표기 함수끼리의 바타체리어(Bhattacharyya) 거리 또는 칼백다이버전스에 기초하여 연산하는 것을 특징으로 하는, 정보 처리 장치.
- 제 1 항에 있어서,상기 입력 수단은, 단어의 집합인 단어 집합을 각 단어에 대한 상기 개념 표기 함수와 함께 입력하고,상기 사전은, 복수의 등록 단어를 나란히 배열한 등록 단어열의 집합을, 각 등록 단어에 대한 상기 개념 표기 함수와 함께 기억하고 있으며,상기 단어 집합을 구성하는 단어를 나란히 배열한 단어열을 생성하는 단어열 생성 수단과,상기 단어열을 구성하는 각 단어와 그 단어에 대응하는 상기 등록 단어열을 구성하는 등록 단어와의 상기 단어 유사도로부터, 상기 단어열과 등록 단어열과의 유사도인 단어열 유사도를 연산하는 단어열 유사도 연산 수단과,상기 단어열 유사도에 기초하여, 상기 단어 집합을 구성하는 단어를 소정의 순서로 나란히 배열한 단어열을 출력하는 출력수단을 더 구비하는 것을 특징으로 하는, 정보 처리 장치.
- 입력된 단어에 대하여, 사전에 등록된 단어인 등록 단어와의 유사도를 구하는 정보 처리 방법에 있어서,단어를, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께입력하는 입력 단계와,상기 개념 표기 함수에 기초하여, 상기 단어와 등록 단어와의 유사도인 단어 유사도를 연산하는 단어 유사도 연산 단계를 갖는 것을 특징으로 하는, 정보 처리 방법.
- 입력된 단어에 대하여, 사전에 등록된 단어인 등록 단어와의 유사도를 구하는 정보 처리를, 컴퓨터에 행하게 하기 위한 프로그램이 기록되어 있는 기록 매체에 있어서,단어를, 그 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수와 함께 입력하는 입력 단계와,상기 개념 표기 함수에 기초하여, 상기 단어와 등록 단어와의 유사도인 단어 유사도를 연산하는 단어 유사도 연산 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는, 기록 매체.
- 입력된 단어와의 유사도를 계산하기 위해서 사용하는 사전을 작성하는 정보 처리 장치에 있어서,상기 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수를 생성하는 함수 생성 수단과,상기 등록 단어와, 그 등록 단어에 대한 상기 개념 표기 함수를 대응시키는 대응 부가 수단을 구비하는 것을 특징으로 하는, 정보 처리 장치.
- 제 12 항에 있어서,상기 개념 표기 함수는, 상기 단어가 나타내는 사물로부터 얻어지는 정보를 표현하는 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 13 항에 있어서,상기 개념 표기 함수는, 상기 단어가 나타내는 사물로부터 받는 자극을 감지하는 감지 수단의 출력으로부터 얻어지는 정보를 표현하는 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 14 항에 있어서,상기 감지 수단은, 광 또는 소리를 전기 신호로 변환하는 디바이스, 촉각 센서, 온도 센서, 또는 가속도 센서이고,상기 개념 표기 함수는, 상기 감지 수단에 의해서, 상기 단어가 나타내는 사물을 관측함으로써 얻어지는 파라미터를 표현하는 함수인 것을 특징으로 하는, 정보 처리 장치.
- 제 12 항에 있어서,상기 개념 표기 함수는, 확률 밀도 함수 또는 이산 확률 분포 함수인 것을 특징으로 하는, 정보 처리 장치.
- 입력된 단어와의 유사도를 계산하기 위해서 사용하는 사전을 작성하는 정보 처리 방법에 있어서,상기 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수를 생성하는 함수 생성 단계와,상기 등록 단어와, 그 등록 단어에 대한 상기 개념 표기 함수를 대응시키는 대응 부가 단계를 갖는 것을 특징으로 하는, 정보 처리 방법.
- 입력된 단어와의 유사도를 계산하기 위해 사용하는 사전을 작성하는 정보처리를, 컴퓨터에 실행하게 하기 위한 프로그램이 기록되어 있는 기록 매체에 있어서,상기 사전에 등록하는 단어인 등록 단어가 나타내는 사물을 표현하는 함수인 개념 표기 함수를 생성하는 함수 생성 단계와,상기 등록 단어와 그 등록 단어에 대한 상기 개념 표기 함수를 대응시키는 대응 부가 단계를 포함하는 프로그램이 기록되어 있는 것을 특징으로 하는, 기록 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP99-245461 | 1999-08-31 | ||
JP24546199A JP2001075964A (ja) | 1999-08-31 | 1999-08-31 | 情報処理装置および情報処理方法、並びに記録媒体 |
PCT/JP2000/005938 WO2001016794A1 (fr) | 1999-08-31 | 2000-08-31 | Procede et dispositif informatique et support d'enregistrement |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20010075669A true KR20010075669A (ko) | 2001-08-09 |
Family
ID=17134016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020017005442A KR20010075669A (ko) | 1999-08-31 | 2000-08-31 | 정보 처리 장치 및 정보 처리 방법, 및 기록 매체 |
Country Status (8)
Country | Link |
---|---|
US (2) | US7010477B1 (ko) |
EP (1) | EP1146439A4 (ko) |
JP (1) | JP2001075964A (ko) |
KR (1) | KR20010075669A (ko) |
CN (1) | CN1158621C (ko) |
AU (1) | AU6867500A (ko) |
ID (1) | ID29197A (ko) |
WO (1) | WO2001016794A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100978693B1 (ko) * | 2008-05-20 | 2010-08-30 | 야후! 인크. | 전자사전 서비스를 제공하는 시스템 및 방법 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7664628B2 (en) * | 2002-12-27 | 2010-02-16 | Casio Computer Co., Ltd. | Electronic dictionary with illustrative sentences |
US7941009B2 (en) * | 2003-04-08 | 2011-05-10 | The Penn State Research Foundation | Real-time computerized annotation of pictures |
US20070198265A1 (en) * | 2006-02-22 | 2007-08-23 | Texas Instruments, Incorporated | System and method for combined state- and phone-level and multi-stage phone-level pronunciation adaptation for speaker-independent name dialing |
US7984003B2 (en) * | 2006-07-21 | 2011-07-19 | Nathaniel Williams | Method and system for automated learning through repetition |
US7925652B2 (en) * | 2007-12-31 | 2011-04-12 | Mastercard International Incorporated | Methods and systems for implementing approximate string matching within a database |
US8521516B2 (en) * | 2008-03-26 | 2013-08-27 | Google Inc. | Linguistic key normalization |
JP2010154397A (ja) * | 2008-12-26 | 2010-07-08 | Sony Corp | データ処理装置、データ処理方法、及び、プログラム |
JP2015022590A (ja) * | 2013-07-19 | 2015-02-02 | 株式会社東芝 | 文字入力装置、文字入力方法、及び文字入力プログラム |
CN103812483A (zh) * | 2014-01-13 | 2014-05-21 | 智坤(江苏)半导体有限公司 | Cmos射频开关 |
JP6722483B2 (ja) * | 2016-03-23 | 2020-07-15 | クラリオン株式会社 | サーバ装置、情報システム、車載装置 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4479241A (en) * | 1981-08-06 | 1984-10-23 | Buckley Bruce S | Self-organizing circuits for automatic pattern recognition and the like and systems embodying the same |
US4916614A (en) | 1986-11-25 | 1990-04-10 | Hitachi, Ltd. | Sentence translator using a thesaurus and a concept-organized co- occurrence dictionary to select from a plurality of equivalent target words |
JPS63225300A (ja) * | 1987-03-16 | 1988-09-20 | 株式会社東芝 | パタ−ン認識装置 |
US5159637A (en) * | 1988-07-27 | 1992-10-27 | Fujitsu Limited | Speech word recognizing apparatus using information indicative of the relative significance of speech features |
JP2609173B2 (ja) | 1990-03-26 | 1997-05-14 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | 用例主導型機械翻訳方法 |
US5345536A (en) * | 1990-12-21 | 1994-09-06 | Matsushita Electric Industrial Co., Ltd. | Method of speech recognition |
JPH0689302A (ja) | 1992-09-08 | 1994-03-29 | Hitachi Ltd | 辞書メモリ |
GB9223066D0 (en) * | 1992-11-04 | 1992-12-16 | Secr Defence | Children's speech training aid |
JPH06274546A (ja) * | 1993-03-19 | 1994-09-30 | A T R Jido Honyaku Denwa Kenkyusho:Kk | 情報量一致度計算方式 |
JP2609196B2 (ja) | 1993-03-22 | 1997-05-14 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | 類似度計算装置 |
JP3176750B2 (ja) | 1993-04-01 | 2001-06-18 | シャープ株式会社 | 自然言語の翻訳装置 |
JP3114468B2 (ja) * | 1993-11-25 | 2000-12-04 | 松下電器産業株式会社 | 音声認識方法 |
JPH08248975A (ja) * | 1995-03-09 | 1996-09-27 | Nec Corp | 標準パターン学習装置およびこの装置を使用した音声認識装置 |
US5752001A (en) * | 1995-06-01 | 1998-05-12 | Intel Corporation | Method and apparatus employing Viterbi scoring using SIMD instructions for data recognition |
JP3627299B2 (ja) * | 1995-07-19 | 2005-03-09 | ソニー株式会社 | 音声認識方法及び装置 |
US5852801A (en) * | 1995-10-04 | 1998-12-22 | Apple Computer, Inc. | Method and apparatus for automatically invoking a new word module for unrecognized user input |
JPH09134360A (ja) | 1995-11-10 | 1997-05-20 | Omron Corp | 『語』の概念を定量化するための方法及び装置、並びに、それらを用いた方法及び装置 |
JPH1097276A (ja) * | 1996-09-20 | 1998-04-14 | Canon Inc | 音声認識方法及び装置並びに記憶媒体 |
US5797123A (en) * | 1996-10-01 | 1998-08-18 | Lucent Technologies Inc. | Method of key-phase detection and verification for flexible speech understanding |
JP3402100B2 (ja) * | 1996-12-27 | 2003-04-28 | カシオ計算機株式会社 | 音声制御ホスト装置 |
US6480841B1 (en) * | 1997-09-22 | 2002-11-12 | Minolta Co., Ltd. | Information processing apparatus capable of automatically setting degree of relevance between keywords, keyword attaching method and keyword auto-attaching apparatus |
JPH11259482A (ja) | 1998-03-12 | 1999-09-24 | Kdd Corp | 複合名詞の機械翻訳方式 |
US6219639B1 (en) * | 1998-04-28 | 2001-04-17 | International Business Machines Corporation | Method and apparatus for recognizing identity of individuals employing synchronized biometrics |
ATE235733T1 (de) * | 1998-05-11 | 2003-04-15 | Siemens Ag | Anordnung und verfahren zur erkennung eines vorgegebenen wortschatzes in gesprochener sprache durch einen rechner |
US6185530B1 (en) * | 1998-08-14 | 2001-02-06 | International Business Machines Corporation | Apparatus and methods for identifying potential acoustic confusibility among words in a speech recognition system |
JP3619380B2 (ja) * | 1998-12-25 | 2005-02-09 | 富士通株式会社 | 車載入出力装置 |
-
1999
- 1999-08-31 JP JP24546199A patent/JP2001075964A/ja not_active Withdrawn
-
2000
- 2000-08-31 EP EP00956860A patent/EP1146439A4/en not_active Withdrawn
- 2000-08-31 CN CNB008021880A patent/CN1158621C/zh not_active Expired - Fee Related
- 2000-08-31 US US09/830,532 patent/US7010477B1/en not_active Expired - Fee Related
- 2000-08-31 WO PCT/JP2000/005938 patent/WO2001016794A1/ja not_active Application Discontinuation
- 2000-08-31 AU AU68675/00A patent/AU6867500A/en not_active Abandoned
- 2000-08-31 KR KR1020017005442A patent/KR20010075669A/ko not_active Application Discontinuation
- 2000-08-31 ID IDW20010924A patent/ID29197A/id unknown
-
2005
- 2005-07-11 US US11/179,129 patent/US20050251385A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100978693B1 (ko) * | 2008-05-20 | 2010-08-30 | 야후! 인크. | 전자사전 서비스를 제공하는 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
ID29197A (id) | 2001-08-09 |
AU6867500A (en) | 2001-03-26 |
CN1158621C (zh) | 2004-07-21 |
CN1327562A (zh) | 2001-12-19 |
WO2001016794A1 (fr) | 2001-03-08 |
JP2001075964A (ja) | 2001-03-23 |
US7010477B1 (en) | 2006-03-07 |
EP1146439A4 (en) | 2002-02-27 |
EP1146439A1 (en) | 2001-10-17 |
US20050251385A1 (en) | 2005-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377916B (zh) | 词预测方法、装置、计算机设备及存储介质 | |
CN112000818B (zh) | 一种面向文本和图像的跨媒体检索方法及电子装置 | |
JP3768205B2 (ja) | 形態素解析装置、形態素解析方法及び形態素解析プログラム | |
US20050251385A1 (en) | Information processing apparatus, information processing method and recording medium | |
Nazir et al. | Mispronunciation detection using deep convolutional neural network features and transfer learning-based model for Arabic phonemes | |
Magassouba et al. | Understanding natural language instructions for fetching daily objects using gan-based multimodal target–source classification | |
CN109920409B (zh) | 一种声音检索方法、装置、系统及存储介质 | |
Hasegawa-Johnson et al. | Image2speech: Automatically generating audio descriptions of images | |
CN104538025A (zh) | 手势到汉藏双语语音转换方法及装置 | |
Sang et al. | Applying system combination to base noun phrase identification | |
Olaleye et al. | Keyword localisation in untranscribed speech using visually grounded speech models | |
KR101860472B1 (ko) | 오픈 디렉터리 프로젝트 기반의 텍스트 분류기, 및 텍스트 분류기의 생성 및 분류 방법 | |
CN112559691B (zh) | 语义相似度的确定方法及确定装置、电子设备 | |
JP7169770B2 (ja) | 人工知能プログラミングサーバおよびそのプログラム | |
CN111968646B (zh) | 一种语音识别方法及装置 | |
Lee et al. | Machine comprehension of spoken content: TOEFL listening test and spoken SQuAD | |
CN116757195A (zh) | 一种基于提示学习的隐性情感识别方法 | |
KR102427136B1 (ko) | 유사한 문장을 검색하기 위한 방법 및 장치 | |
KR102201390B1 (ko) | 이미지 검색 방법 및 장치 | |
CN114281919A (zh) | 基于目录树的节点添加方法、装置、设备以及存储介质 | |
Baranwal et al. | Extracting primary objects and spatial relations from sentences | |
El-Gayar | Automatic generation of image caption based on semantic relation using deep visual attention prediction | |
Roy | A trainable visually-grounded spoken language generation system | |
JP2020197957A (ja) | 発想支援装置、発想支援システム及びプログラム | |
Rashmi et al. | Text-to-Speech translation using Support Vector Machine, an approach to find a potential path for human-computer speech synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |