JP4581290B2 - Speech recognition apparatus and speech recognition method - Google Patents

Speech recognition apparatus and speech recognition method Download PDF

Info

Publication number
JP4581290B2
JP4581290B2 JP2001146197A JP2001146197A JP4581290B2 JP 4581290 B2 JP4581290 B2 JP 4581290B2 JP 2001146197 A JP2001146197 A JP 2001146197A JP 2001146197 A JP2001146197 A JP 2001146197A JP 4581290 B2 JP4581290 B2 JP 4581290B2
Authority
JP
Japan
Prior art keywords
speech recognition
frequency
dictionary
information acquisition
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001146197A
Other languages
Japanese (ja)
Other versions
JP2002341892A5 (en
JP2002341892A (en
Inventor
良文 ▲ひろ▼瀬
伸一 芳澤
研治 水谷
英嗣 前川
由実 脇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001146197A priority Critical patent/JP4581290B2/en
Publication of JP2002341892A publication Critical patent/JP2002341892A/en
Publication of JP2002341892A5 publication Critical patent/JP2002341892A5/en
Application granted granted Critical
Publication of JP4581290B2 publication Critical patent/JP4581290B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、情報端末に対して、音声により入力を行う音声認識装置に関する。
【0002】
【従来の技術】
例えば、ナビゲーション装置において、音声入力により目的地や、その周辺の地名等を認識する音声認識装置では、音声認識の対象とする地名が非常に多く、認識時間の増加や、認識率の低下が問題であった。この問題に対処する方法としては、予め、認識対象単語の辞書を地域に応じてグループ化し、車の現在地からの距離に応じて、各グループの優先順位を決定する技術(特開平11−325945号公報)や、現在地および進行方向や、走行中の道路の種類等に応じて、認識対象単語を絞り込む技術(特開平11−183190号公報)が挙げられる。
【0003】
【発明が解決しようとする課題】
従来、カーナビゲーション装置における音声認識装置は目的地設定や経路案内の命令入力などの用途に使用されていた。従って、認識対象語彙を絞り込む技術としては、現在位置や目的地までの経路情報により音声認識装置が備えている認識対象辞書の部分集合を選択する方法が用いられてきた。この方法では既に登録済みの単語のみが認識対象となり、音声認識装置が保有しないより詳細な情報や最新の情報を利用できないという問題がある。
【0004】
また、カーナビゲーション装置を車載情報端末として使用することを考えた場合、音声認識装置は、情報検索や、ニュースの閲覧、スケジュールの確認など現在位置からの距離に依存しない単語を認識対象とする必要があるが、これらのものについては従来技術では、認識対象語彙を効率よく設定することはできない。
【0005】
本発明は上記課題に鑑みてなされたものであり、認識対象単語の絞り込みの能力を向上し、音声認識装置の性能向上を実現することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために本発明の第1態様は、音声認識対象単語が登録されている音声認識辞書と、前記音声認識辞書を用いて、利用者の要求を単語として認識する音声認識部と、前記音声認識部の認識した単語、前記認識した時間、および、前記時間と対応付けられた前記認識した単語毎の頻度を記録する履歴データベースと、前記履歴データベースに過去に記録されている頻度を参照し、前記認識した単語と前記認識した時間とに対応する頻度が閾値以上であるか否かを判断する状況判断部と、インターネットを通じて前記認識した単語に対応するウェブページを検索し、前記検索したウェブページに記録されている名詞を取得する情報取得部と、前記頻度が閾値以上であると判断された場合には、前記情報取得部が取得した名詞を前記音声認識辞書に登録する辞書管理部と、を備える。
【0007】
また本発明の第2態様は、車載用もしくは携帯型情報端末である。
【0009】
また本発明の第3態様は、前記辞書管理部が、前記履歴データベースに記録されている頻度に応じて、前記情報取得部が取得した名詞を、前記音声認識辞書に登録する方法を切り替える。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照しながら説明する。
【0011】
本発明の実施の形態における音声認識装置は、音声対話形式でカーナビゲーション機能の設定や、インターネット上のホームページを参照する車載情報端末での利用を前提とし、利用者の過去の行動、および習慣に基づいて音声認識辞書の認識対象語彙を更新するものである。常に新しい語彙に更新することが望ましいため、本発明の音声認識装置は、インターネットを介して外部のデータベースから認識対象語彙を取得する。
【0012】
図1に本発明の実施の形態における音声認識装置の音声認識辞書更新部の構成図を示す。図1において、101はインターネット上に存在するホームページなどのデータベース、102は利用者の過去の履歴をスケジュールの形で保持する履歴データベース、103は利用者の過去の履歴に基づいて、履歴データベース102を逐次更新する履歴管理部、104は履歴データベース102の情報と、現在の日時から利用者の行動を予測し、予測内容と予測信頼度を送信する状況判断部、105は状況判断部104から送信される利用者の行動予測に基づいてインターネットにアクセスし、ホームページ上のキーワードを抽出する情報取得部、107は情報取得部105から送信されたキーワードと、状況判断部104から送信されたスケジュールの信頼度に基づき、音声認識辞書の認識対象語彙を更新する辞書管理部、106は、音声認識に用いる音声認識辞書、108は、車載情報端末に対する利用者の要求を抽出して、履歴管理部103へ送信する利用者要求抽出部である。図1における利用者要求抽出部108のさらに詳細な構成を図5に示す。図5において、110は利用者の要求をリモコン等のボタンで入力するボタン入力部、109は利用者の要求を音声で入力する音声認識部、111はボタン入力部110、および音声認識部109の出力を監視し、車載情報端末を制御するナビゲーション制御部、112は、利用者の要求したホームページを表示する表示部である。データベース101、履歴データベース102、履歴管理部103は図1における各構成要素と同じである。
【0013】
図2に、利用者がN新聞のホームページを参照した時に、履歴データベースが保持する履歴データの一例を示す。同図に示したように、履歴データベース102が保持する項目は、「日付または曜日」、「時間帯」、「参照したホームページアドレス」、「過去に同曜日の同時間帯にアクセスした頻度」である。状況判断部104は、この頻度情報から「履歴の信頼度」を判断する。
【0014】
以上のように構成された本発明の第1の実施の形態について、以下図1から5を用いてその動作を説明する。本発明の第1の実施の形態における車載用音声認識装置の動作は、以下の二つの動作に大別できる。一つは、利用者の履歴データベース102を登録・更新する動作であり、もう一つは、利用者の履歴データベース102を用いて音声認識辞書106を更新する動作である。
【0015】
まず、図5を用いて利用者の履歴データベース102を登録・更新する動作を説明する。
【0016】
以下、利用者が車載情報端末に「N新聞のホームページからニュースを読みたい」という要求を出した場合を例にとって説明する。
【0017】
まず、利用者が「N新聞のホームページを見たい」と発声し、音声認識部109が利用者の発声を認識し、「N新聞のホームページを見たい」という利用者の要求をナビゲーション制御部111へ送る。
【0018】
ナビゲーション制御部111は、音声認識部109から「N新聞のホームページを見たい」という情報を受け取り、車載情報端末の操作コード「Read Nshinbun.com」に変換して実行する。すなわち、データベース101にあるN新聞のホームページを参照し、表示部112を用いて、該当ホームページを利用者に提供する。以上は、通常の車載情報端末の操作の一部である。
【0019】
なお、音声認識辞書106が「N新聞」という名称を登録していない場合は、ボタン入力部110を用いて入力する。
【0020】
次に履歴管理部103は、ナビゲーション制御部111から、「Read Nshinbun.com」という利用者の要求を受け取り、「利用者の要求」と現在の日付と時刻をもとに、履歴データベース102を逐次登録・更新する。以下に、例として「火曜9時23分に、Nshinbun.comを参照した」という履歴の登録・更新を行う。
【0021】
▲1▼履歴データベース102の履歴の中に、アドレスが「Nshinbun.com」で、かつ曜日・時間帯に「火曜9時23分」が含まれる履歴が存在しない場合は新しく登録を行う。登録する項目は、ホームページのアドレス「Nshinbun.com」、アクセスした時間帯「9時00分から10時00分」および曜日「火曜日」、アクセス頻度「1回」である。ここで、アクセスした時間はあらかじめ設定された9:00から10:00の1時間で持たせる。
【0022】
▲2▼履歴データベース102の履歴の中に、アドレスが「Nshinbun.com」で、かつ曜日・時間帯に「火曜9時23分」が含まれる履歴が存在する場合は該当の履歴を更新する。すなわち、ホームページのアドレスが同一で、現在時刻がアクセス時間帯に含まれる履歴が存在する場合は更新作業を行う。
【0023】
変更する項目はアクセス頻度であり、「頻度 2回」と更新する。
【0024】
上記の説明では、利用者の端末操作から自動的に履歴データベース102を登録・更新するため、利用者は履歴データベース102への登録を意識する必要がない。もちろん、利用者が自分の行動予定や日常の習慣を直接履歴データベース102へ登録できるようにすることも可能である。
【0025】
なお、履歴データベース102を利用者の要求が入力される度に登録・更新したが、定期的に更新するように制御しても良いし、登録・更新した履歴をさらに定期的に整理しても良い。
【0026】
次に、音声認識辞書106を更新する動作について図1を参照しながら説明する。状況判断部104は、履歴データベース102の履歴の中でアクセス頻度が設定された閾値以上である履歴と、入力される日付、現在時刻により、利用者の行動を予測する。状況判断部104は、履歴データベース102に記載されているホームページアドレスを情報取得部105に送信する。また、アクセス頻度による予測の信頼度を辞書管理部107に送信する。アクセス頻度があらかじめ設定された閾値よりも高い場合は習慣であると判断することが可能である。
【0027】
情報取得部105は、データベース101上の指定されたアドレスのホームページをアクセスし、データの中で「リンクが張られている名詞」をキーワードとして抽出し、辞書管理部107へ送信する。図3に一例としてN新聞のホームページ上でリンクが張られている名詞の例、図4に情報取得部105が抽出したキーワードの例を示す。
【0028】
辞書管理部107は、キーワードを受信し、音声認識辞書106を変更するが、状況判断部104から送信される予測信頼度に応じて三段階で変更方法を切り替え、認識対象単語の絞込みを行う。以下に信頼度の高い順に変更方法を示す。
【0029】
▲1▼情報取得部105から受信したキーワードのみを認識対象語彙として、音声認識辞書106に設定する。
【0030】
▲2▼情報取得部105から受信したキーワードと、車載情報端末の操作に最低限必要な単語を認識対象語彙として、音声認識辞書106に設定する。
【0031】
▲3▼情報取得部105から受信したキーワードを、音声認識辞書106に追加する。
【0032】
また、履歴データベース102に記述された時間帯が終了すると、状況判断部104は辞書管理部107に終了を送信し、辞書管理部107は音声認識辞書106を通常の辞書に更新する。
【0033】
以上説明したように、本発明の実施の形態によれば、音声認識装置が利用者の過去の操作履歴に基づいて自動的に音声認識辞書を更新することで、利用者の要求に先んじて発声する可能性の高い言葉を音声認識辞書に保持できるため、音声認識装置の認識性能を効果的に向上させ、かつ認識時間を短縮することが可能となる。
【0034】
なお、情報取得部105はリンク先のホームページにアクセスすることによって、階層的に記述されているホームページにおいても、キーワードを抽出することが可能である。
【0035】
なお、上記実施例は車載用情報端末を例にあげているが、これは携帯用情報端末でも実施可能である。
【0036】
なお、上記実施例は音声認識辞書を限定、あるいは追加するようにしたが、音声認識辞書に優先順位をつけるようにしても、同じ効果を期待できるものである。
【0037】
【発明の効果】
以上説明したように本発明によれば、情報端末における音声認識装置の音声認識辞書を利用者の行動を予測して動的に変更することにより、利用者の要求に先んじて発声する可能性の高い言葉を音声認識辞書に保持できるため、音声認識装置の認識性能を効果的に向上させ、かつ認識時間を短縮することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態における音声認識辞書変更部の構成図
【図2】履歴データベースの履歴の例を示す図
【図3】ホームページの例を示す図
【図4】ホームページより抽出したキーワードの例を示す図
【図5】履歴データベースの登録・更新の構成図
【符号の説明】
101 データベース
102 履歴データベース
103 履歴管理部
104 状況判断部
105 情報取得部
106 音声認識辞書
107 辞書管理部
108 利用者要求抽出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice recognition apparatus that performs input by voice to an information terminal.
[0002]
[Prior art]
For example, in a navigation device, a speech recognition device that recognizes a destination or a nearby place name by voice input has a large number of place names that are subject to speech recognition, which causes an increase in recognition time and a decrease in recognition rate. Met. As a method of coping with this problem, a technique is known in which a dictionary of recognition target words is grouped in advance according to a region, and the priority order of each group is determined according to the distance from the current location of a car (Japanese Patent Laid-Open No. 11-325945) (Patent Publication No. 11-183190), a technique for narrowing down words to be recognized according to the current location and traveling direction, the type of road being traveled, and the like.
[0003]
[Problems to be solved by the invention]
Conventionally, a voice recognition device in a car navigation device has been used for purposes such as destination setting and route guidance command input. Therefore, as a technique for narrowing down the recognition target vocabulary, a method of selecting a subset of the recognition target dictionary provided in the speech recognition apparatus based on the current position and route information to the destination has been used. In this method, only registered words are recognized, and there is a problem that more detailed information and the latest information that the speech recognition apparatus does not have cannot be used.
[0004]
In addition, when considering using a car navigation device as an in-vehicle information terminal, the speech recognition device needs to recognize words that do not depend on the distance from the current position, such as information retrieval, news browsing, and schedule confirmation. However, with these technologies, the recognition target vocabulary cannot be efficiently set for these items.
[0005]
The present invention has been made in view of the above problems, and an object of the present invention is to improve the ability to narrow down recognition target words and improve the performance of a speech recognition apparatus.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, a first aspect of the present invention, a speech recognition dictionary speech recognition target words are registered, using the voice recognition dictionary to recognize the speech recognition unit the request of the user as a word A history database that records the words recognized by the speech recognition unit, the recognized time, and the frequency of each recognized word associated with the time, and the frequency that has been recorded in the history database in the past The situation determination unit that determines whether the frequency corresponding to the recognized word and the recognized time is equal to or higher than a threshold, and searches for a web page corresponding to the recognized word through the Internet, An information acquisition unit that acquires a noun recorded in the searched web page, and a noun acquired by the information acquisition unit when the frequency is determined to be greater than or equal to a threshold value Serial includes a dictionary management unit to be registered in the speech recognition dictionary, a.
[0007]
The second aspect of the present invention, Ru-vehicle or portable information terminal der.
[0009]
Moreover , the 3rd aspect of this invention switches the method in which the said dictionary management part registers the noun which the said information acquisition part acquired into the said speech recognition dictionary according to the frequency currently recorded on the said log | history database.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0011]
The speech recognition apparatus according to the embodiment of the present invention is based on the user's past behavior and habits on the premise that the car navigation function is set in a voice interactive format or is used on an in-vehicle information terminal that refers to a homepage on the Internet. Based on this, the recognition target vocabulary of the speech recognition dictionary is updated. Since it is desirable to constantly update to a new vocabulary, the speech recognition apparatus of the present invention acquires the recognition target vocabulary from an external database via the Internet.
[0012]
FIG. 1 is a configuration diagram of a speech recognition dictionary update unit of the speech recognition apparatus according to the embodiment of the present invention. In FIG. 1, 101 is a database such as a homepage existing on the Internet, 102 is a history database that holds a user's past history in the form of a schedule, and 103 is a history database 102 based on the user's past history. A history management unit 104 that sequentially updates, a situation determination unit 104 that predicts a user's behavior based on information in the history database 102 and the current date and time, and transmits prediction contents and prediction reliability, and 105 is transmitted from the situation determination unit 104. An information acquisition unit 107 that accesses the Internet based on the user's behavior prediction and extracts keywords on the home page, 107 is a keyword transmitted from the information acquisition unit 105, and a reliability of the schedule transmitted from the situation determination unit 104 Based on the above, the dictionary management unit 106 that updates the recognition target vocabulary of the speech recognition dictionary, Speech recognition dictionary to be used for voice recognition, 108 extracts a user request for vehicle information terminal, a user request extracting unit for transmitting the history management unit 103. FIG. 5 shows a more detailed configuration of the user request extraction unit 108 in FIG. In FIG. 5, reference numeral 110 denotes a button input unit that inputs a user request with a button such as a remote controller, 109 denotes a voice recognition unit that inputs a user request by voice, and 111 denotes a button input unit 110 and the voice recognition unit 109. A navigation control unit 112 that monitors the output and controls the in-vehicle information terminal 112 is a display unit that displays a homepage requested by the user. The database 101, the history database 102, and the history management unit 103 are the same as the components in FIG.
[0013]
FIG. 2 shows an example of history data held in the history database when the user refers to the homepage of the N newspaper. As shown in the figure, items stored in the history database 102 are “date or day of week”, “time zone”, “referenced homepage address”, and “frequency of accessing the same time zone of the same day in the past”. is there. The situation determination unit 104 determines “history reliability” from the frequency information.
[0014]
The operation of the first embodiment of the present invention configured as described above will be described below with reference to FIGS. The operation of the in-vehicle speech recognition apparatus according to the first embodiment of the present invention can be roughly divided into the following two operations. One is an operation of registering / updating the user history database 102, and the other is an operation of updating the speech recognition dictionary 106 using the user history database 102.
[0015]
First, the operation of registering / updating the user history database 102 will be described with reference to FIG.
[0016]
Hereinafter, a case where a user issues a request “read news from the homepage of N newspaper” to the in-vehicle information terminal will be described as an example.
[0017]
First, the user utters “I want to see the homepage of the N newspaper”, the voice recognition unit 109 recognizes the utterance of the user, and the navigation control unit 111 responds to the user's request “I want to see the homepage of the N newspaper”. Send to.
[0018]
The navigation control unit 111 receives the information “I want to see the homepage of the N newspaper” from the voice recognition unit 109, converts it to the operation code “Read Nshinbun.com” of the in-vehicle information terminal, and executes it. That is, the homepage of the N newspaper in the database 101 is referred to, and the corresponding homepage is provided to the user using the display unit 112. The above is a part of normal operation of the in-vehicle information terminal.
[0019]
If the name “N newspaper” is not registered in the speech recognition dictionary 106, the name is input using the button input unit 110.
[0020]
Next, the history management unit 103 receives a user request “Read Nshinbun.com” from the navigation control unit 111, and sequentially stores the history database 102 based on the “user request” and the current date and time. Register / update. In the following, for example, the history of “I referred to Nshinbun.com at 9:23 on Tuesday” is registered / updated.
[0021]
(1) If there is no history in the history database 102 where the address is “Nshinbun.com” and the day of the week / time zone includes “Tuesday 9:23”, new registration is performed. Items to be registered are the homepage address “Nshinbun.com”, the accessed time zone “9:00 to 10:00”, the day of the week “Tuesday”, and the access frequency “once”. Here, the access time is given as one hour from 9:00 to 10:00 which is set in advance.
[0022]
{Circle around (2)} If there is a history in the history database 102 where the address is “Nshinbun.com” and the day / time zone includes “Tuesday 9:23”, the corresponding history is updated. That is, if there is a history in which the home page address is the same and the current time is included in the access time zone, the update operation is performed.
[0023]
The item to be changed is the access frequency, and is updated to “frequency twice”.
[0024]
In the above description, since the history database 102 is automatically registered / updated from the user's terminal operation, the user need not be aware of registration in the history database 102. Of course, it is also possible for the user to register his / her action schedule and daily habits directly in the history database 102.
[0025]
The history database 102 is registered / updated every time a user request is input. However, the history database 102 may be controlled to be updated periodically, or the registered / updated history may be further regularly organized. good.
[0026]
Next, an operation for updating the speech recognition dictionary 106 will be described with reference to FIG. The situation determination unit 104 predicts the user's behavior based on the history in the history database 102 whose access frequency is equal to or higher than the set threshold, the input date, and the current time. The situation determination unit 104 transmits the homepage address described in the history database 102 to the information acquisition unit 105. Further, the reliability of prediction based on the access frequency is transmitted to the dictionary management unit 107. When the access frequency is higher than a preset threshold value, it is possible to determine that it is a habit.
[0027]
The information acquisition unit 105 accesses the homepage of the designated address on the database 101, extracts “noun with a link” from the data as a keyword, and transmits it to the dictionary management unit 107. FIG. 3 shows an example of a noun that is linked on the homepage of N newspaper as an example, and FIG. 4 shows an example of a keyword extracted by the information acquisition unit 105.
[0028]
The dictionary management unit 107 receives the keyword and changes the speech recognition dictionary 106, but switches the change method in three stages according to the prediction reliability transmitted from the situation determination unit 104, and narrows down recognition target words. The change method is shown below in descending order of reliability.
[0029]
(1) Only the keyword received from the information acquisition unit 105 is set in the speech recognition dictionary 106 as a recognition target vocabulary.
[0030]
(2) The keyword received from the information acquisition unit 105 and the words necessary for the operation of the in-vehicle information terminal are set in the speech recognition dictionary 106 as the recognition target vocabulary.
[0031]
(3) The keyword received from the information acquisition unit 105 is added to the speech recognition dictionary 106.
[0032]
When the time period described in the history database 102 ends, the situation determination unit 104 transmits an end to the dictionary management unit 107, and the dictionary management unit 107 updates the speech recognition dictionary 106 to a normal dictionary.
[0033]
As described above, according to the embodiment of the present invention, the speech recognition apparatus automatically updates the speech recognition dictionary based on the past operation history of the user, so that the speech is made prior to the user's request. Since words that are likely to be stored can be held in the speech recognition dictionary, the recognition performance of the speech recognition apparatus can be effectively improved and the recognition time can be shortened.
[0034]
Note that the information acquisition unit 105 can extract keywords even in a hierarchically described home page by accessing the home page of the link destination.
[0035]
In the above embodiment, an in-vehicle information terminal is taken as an example, but this can also be implemented in a portable information terminal.
[0036]
In the above embodiment, the voice recognition dictionary is limited or added. However, the same effect can be expected even if priority is given to the voice recognition dictionary.
[0037]
【The invention's effect】
As described above, according to the present invention, the voice recognition dictionary of the voice recognition apparatus in the information terminal can be uttered ahead of the user's request by dynamically changing the user's behavior by predicting the user's behavior. Since high words can be held in the speech recognition dictionary, it is possible to effectively improve the recognition performance of the speech recognition apparatus and shorten the recognition time.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a speech recognition dictionary changing unit according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of a history in a history database. FIG. 3 is a diagram showing an example of a home page. Diagram showing examples of keywords [Fig. 5] Configuration diagram of history database registration / update [Explanation of symbols]
101 Database 102 History Database 103 History Management Unit 104 Situation Determination Unit 105 Information Acquisition Unit 106 Speech Recognition Dictionary 107 Dictionary Management Unit 108 User Request Extraction Unit

Claims (7)

音声認識対象単語が登録されている音声認識辞書と、  A speech recognition dictionary in which words for speech recognition are registered,
前記音声認識辞書を用いて、利用者の要求を単語として認識する音声認識部と、  Using the speech recognition dictionary, a speech recognition unit that recognizes a user's request as a word;
前記音声認識部の認識した単語、前記認識した時間、および、前記時間と対応付けられた前記認識した単語毎の頻度を記録する履歴データベースと、  A history database that records the words recognized by the voice recognition unit, the recognized time, and the frequency of each recognized word associated with the time;
前記履歴データベースに過去に記録されている頻度を参照し、前記認識した単語と前記認識した時間とに対応する頻度が閾値以上であるか否かを判断する状況判断部と、  A situation determination unit that refers to the frequency recorded in the past in the history database and determines whether the frequency corresponding to the recognized word and the recognized time is equal to or greater than a threshold;
インターネットを通じて前記認識した単語に対応するウェブページを検索し、前記検索したウェブページに記録されている名詞を取得する情報取得部と、  An information acquisition unit that searches a web page corresponding to the recognized word through the Internet and acquires a noun recorded in the searched web page;
前記頻度が閾値以上であると判断された場合には、前記情報取得部が取得した名詞を前記音声認識辞書に登録する辞書管理部と、  When it is determined that the frequency is equal to or higher than a threshold, a dictionary management unit that registers the noun acquired by the information acquisition unit in the speech recognition dictionary;
を備える音声認識装置。A speech recognition apparatus comprising:
車載用もしくは携帯型情報端末である請求項1記載の音声認識装置。Automotive or portable information terminal der Ru請 Motomeko 1 speech recognition apparatus according. 前記辞書管理部は、前記履歴データベースに記録されている頻度に応じて、  According to the frequency recorded in the history database, the dictionary management unit,
前記情報取得部が取得した名詞を、前記音声認識辞書に登録する方法を切り替えるSwitching the method of registering the noun acquired by the information acquisition unit in the speech recognition dictionary
請求項1記載の音声認識装置。The speech recognition apparatus according to claim 1.
前記辞書管理部は、前記頻度が閾値以上であると判断された場合において、前記頻度がある一定以上高い場合は、前記情報取得部が取得した名詞のみを前記音声認識辞書に記録する  When it is determined that the frequency is equal to or higher than a threshold value, the dictionary management unit records only the noun acquired by the information acquisition unit in the speech recognition dictionary when the frequency is higher than a certain level.
請求項1に記載の音声認識装置。The speech recognition apparatus according to claim 1.
前記辞書管理部は、前記頻度が閾値以上であると判断された場合において、前記頻度がある一定以上低い場合は、前記情報取得部が取得した名詞を前記音声認識辞書に追加する  The dictionary management unit adds the noun acquired by the information acquisition unit to the speech recognition dictionary when the frequency is determined to be equal to or higher than a threshold and the frequency is lower than a certain level.
請求項1に記載の音声認識装置。The speech recognition apparatus according to claim 1.
車載情報端末に用いる音声認識装置であって、  A speech recognition device for use in an in-vehicle information terminal,
前記辞書管理部は、前記頻度が閾値以上であると判断された場合において、  In the case where the dictionary management unit determines that the frequency is equal to or higher than a threshold value,
前記頻度が第一の閾値以上の場合には、前記情報取得部が取得した名詞のみを前記音声認識辞書に記録し、If the frequency is greater than or equal to a first threshold, only the nouns acquired by the information acquisition unit are recorded in the speech recognition dictionary,
前記頻度が第一の閾値より低く、第二の閾値以上の場合には、前記情報取得部が取得した名詞と、前記車載情報端末の操作に最低限必要な単語とを前記音声認識辞書に記録し、When the frequency is lower than the first threshold value and greater than or equal to the second threshold value, the noun acquired by the information acquisition unit and the words necessary for the operation of the in-vehicle information terminal are recorded in the voice recognition dictionary. And
前記頻度が第二の閾値より低い場合は、前記情報取得部が取得した名詞を前記音声認識辞書に追加するWhen the frequency is lower than the second threshold, the noun acquired by the information acquisition unit is added to the speech recognition dictionary
請求項1に記載の音声認識装置。The speech recognition apparatus according to claim 1.
音声認識対象単語が登録されている音声認識辞書を用いて、利用者の要求を単語として認識する音声認識ステップと、  A speech recognition step of recognizing a user request as a word using a speech recognition dictionary in which speech recognition target words are registered;
前記音声認識ステップで認識した単語、前記認識した時間、および、前記時間と対応付けられた前記認識した単語毎の頻度を記録する履歴データベースに記録する記録ステップと、  A recording step of recording in a history database that records the word recognized in the speech recognition step, the recognized time, and the frequency of each recognized word associated with the time;
前記履歴データベースに過去に記録されている頻度を参照し、前記認識した単語と前記認識した時間とに対応する頻度が閾値以上であるか否かを判断する状況判断ステップと、  A situation determination step of referring to the frequency recorded in the history database in the past and determining whether the frequency corresponding to the recognized word and the recognized time is equal to or greater than a threshold;
インターネットを通じて前記認識した単語に対応するウェブページを検索し、前記検索したウェブページに記録されている名詞を取得する情報取得ステップと、  An information acquisition step of searching a web page corresponding to the recognized word through the Internet and acquiring a noun recorded in the searched web page;
前記頻度が閾値以上であると判断された場合には、前記情報取得ステップで取得した名詞を前記音声認識辞書に登録する辞書管理ステップと、  When it is determined that the frequency is equal to or higher than a threshold, a dictionary management step of registering the noun acquired in the information acquisition step in the speech recognition dictionary;
を備える音声認識方法。A speech recognition method comprising:
JP2001146197A 2001-05-16 2001-05-16 Speech recognition apparatus and speech recognition method Expired - Lifetime JP4581290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001146197A JP4581290B2 (en) 2001-05-16 2001-05-16 Speech recognition apparatus and speech recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001146197A JP4581290B2 (en) 2001-05-16 2001-05-16 Speech recognition apparatus and speech recognition method

Publications (3)

Publication Number Publication Date
JP2002341892A JP2002341892A (en) 2002-11-29
JP2002341892A5 JP2002341892A5 (en) 2008-06-19
JP4581290B2 true JP4581290B2 (en) 2010-11-17

Family

ID=18991886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001146197A Expired - Lifetime JP4581290B2 (en) 2001-05-16 2001-05-16 Speech recognition apparatus and speech recognition method

Country Status (1)

Country Link
JP (1) JP4581290B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679619B2 (en) 2014-06-30 2020-06-09 Samsung Electronics Co., Ltd Method of providing voice command and electronic device supporting the same

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4601306B2 (en) * 2003-03-13 2010-12-22 パナソニック株式会社 Information search apparatus, information search method, and program
JP3948441B2 (en) * 2003-07-09 2007-07-25 松下電器産業株式会社 Voice recognition method and in-vehicle device
DE602004025616D1 (en) 2003-12-26 2010-04-01 Kenwood Corp A facility controller, method and program
JP2005300989A (en) * 2004-04-13 2005-10-27 Mitsubishi Electric Corp Speech recognition system
JP2008529101A (en) * 2005-02-03 2008-07-31 ボイス シグナル テクノロジーズ インコーポレイテッド Method and apparatus for automatically expanding the speech vocabulary of a mobile communication device
JP4761944B2 (en) * 2005-11-18 2011-08-31 株式会社東芝 In-vehicle navigation device, sign recognition method, navigation system, server
JP2007164225A (en) * 2005-12-09 2007-06-28 Toyota Motor Corp Information retrieval device
EP2026327A4 (en) * 2006-05-31 2012-03-07 Nec Corp Language model learning system, language model learning method, and language model learning program
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP4990822B2 (en) * 2008-03-11 2012-08-01 日本放送協会 Dictionary correction device, system, and computer program
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
JP5315873B2 (en) * 2008-09-12 2013-10-16 カシオ計算機株式会社 Search device and program
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
WO2011121649A1 (en) 2010-03-30 2011-10-06 三菱電機株式会社 Voice recognition apparatus
JP5315289B2 (en) 2010-04-12 2013-10-16 トヨタ自動車株式会社 Operating system and operating method
WO2012172596A1 (en) * 2011-06-14 2012-12-20 三菱電機株式会社 Pronunciation information generating device, in-vehicle information device, and database generating method
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
WO2014084505A1 (en) * 2012-11-30 2014-06-05 현대엠엔소프트(주) Method for executing event in voice recognition navigation device
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
JP6322125B2 (en) * 2014-11-28 2018-05-09 日本電信電話株式会社 Speech recognition apparatus, speech recognition method, and speech recognition program
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. Far-field extension for digital assistant services
KR102255844B1 (en) * 2017-06-02 2021-05-26 네이버 주식회사 Method and apparatus for providing appropriate information for location and space of user actively
KR101975423B1 (en) * 2017-06-02 2019-05-07 네이버 주식회사 Method and apparatus for providing appropriate information for location and space of user actively
KR20190138915A (en) 2018-06-07 2019-12-17 현대자동차주식회사 Voice recognition apparatus, vehicle having the same and control method for the vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580793A (en) * 1991-09-20 1993-04-02 Kokusai Denshin Denwa Co Ltd <Kdd> Interactive understanding device with word predicting function
JP2000105596A (en) * 1998-07-27 2000-04-11 Canon Inc Information processing device, method thereof, and storage medium storing program thereof
JP2001268669A (en) * 2000-03-21 2001-09-28 Ricoh Co Ltd Device and method for equipment control using mobile telephone terminal and recording medium
JP2002041081A (en) * 2000-07-28 2002-02-08 Sharp Corp Unit/method for preparing voice-recognition dictionary, voice-recognition apparatus, portable terminal, and program-recording media

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580793A (en) * 1991-09-20 1993-04-02 Kokusai Denshin Denwa Co Ltd <Kdd> Interactive understanding device with word predicting function
JP2000105596A (en) * 1998-07-27 2000-04-11 Canon Inc Information processing device, method thereof, and storage medium storing program thereof
JP2001268669A (en) * 2000-03-21 2001-09-28 Ricoh Co Ltd Device and method for equipment control using mobile telephone terminal and recording medium
JP2002041081A (en) * 2000-07-28 2002-02-08 Sharp Corp Unit/method for preparing voice-recognition dictionary, voice-recognition apparatus, portable terminal, and program-recording media

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679619B2 (en) 2014-06-30 2020-06-09 Samsung Electronics Co., Ltd Method of providing voice command and electronic device supporting the same
US11114099B2 (en) 2014-06-30 2021-09-07 Samsung Electronics Co., Ltd. Method of providing voice command and electronic device supporting the same
US11664027B2 (en) 2014-06-30 2023-05-30 Samsung Electronics Co., Ltd Method of providing voice command and electronic device supporting the same

Also Published As

Publication number Publication date
JP2002341892A (en) 2002-11-29

Similar Documents

Publication Publication Date Title
JP4581290B2 (en) Speech recognition apparatus and speech recognition method
US10347248B2 (en) System and method for providing in-vehicle services via a natural language voice user interface
KR101516858B1 (en) Query parsing for map search
US8560317B2 (en) Voice recognition apparatus and recording medium storing voice recognition program
JP5255766B2 (en) System and method for interactive search query refinement
CN101194256B (en) Method and system for autocompletion for languages having ideographs and phonetic characters
US11016968B1 (en) Mutation architecture for contextual data aggregator
JP2005214779A (en) Navigation system and method for updating map data
KR20090122944A (en) Web service discovery method and apparatus using natural language queries
JP2005182817A (en) Query recognizer
US20100106407A1 (en) Navigation system
EP2306333A1 (en) Offline software library
JP2009237750A (en) Information search support device and information search support method
JP2005030982A (en) Voice input method and on-vehicle device
KR100770644B1 (en) Method and system for an efficient operating environment in a real-time navigation system
US20060106615A1 (en) Speech interaction apparatus and speech interaction method
KR101624284B1 (en) System and method for providing information
JP2019159883A (en) Retrieval system, retrieval method
EP1631791A1 (en) Method of operating a voice-controlled navigation system
JP2003167895A (en) Information retrieving system, server and on-vehicle terminal
US6912523B2 (en) Object data retrieving device, object data retrieving method, and computer-readable recording medium containing recorder data
JP2002259011A (en) Personal digital assistant and its screen updating program
JP2006195732A (en) Onboard information provision system
JPH0850698A (en) Audio interactive navigation device
US6708271B1 (en) Interactive multi-module system having a communication manager for achieving linked operation of plurality of modules and for defining whether and how an individual module can access a particular function

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080423

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20080513

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

R151 Written notification of patent or utility model registration

Ref document number: 4581290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term