JPH08320697A - Speech recognition device - Google Patents

Speech recognition device

Info

Publication number
JPH08320697A
JPH08320697A JP7148287A JP14828795A JPH08320697A JP H08320697 A JPH08320697 A JP H08320697A JP 7148287 A JP7148287 A JP 7148287A JP 14828795 A JP14828795 A JP 14828795A JP H08320697 A JPH08320697 A JP H08320697A
Authority
JP
Japan
Prior art keywords
voice
dictionary
partial
voice recognition
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7148287A
Other languages
Japanese (ja)
Inventor
Hiroyuki Yuji
弘幸 湯地
Koji Oga
幸治 大賀
Buichi Maruyama
武一 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7148287A priority Critical patent/JPH08320697A/en
Publication of JPH08320697A publication Critical patent/JPH08320697A/en
Pending legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

PURPOSE: To provide a speech recognition device which is suitable for the improvement of recognition rate and shortening of recognizing time and allows the use of partial dictionaries also for the objects such as operation maintenance of general plants or car navigation by changing the partial dictionaries beforehand divided in response to the change of circumstances. CONSTITUTION: The device recognizes inputted voices by beforehand dividing a speech recognition device having voice pattern into partial dictionaries and changing the partial dictionaries to recognize input voices. And it has a position detecting means 1001 which takes the position of a voice input person or the present position of the car, a partial dictionary selecting means 1201 which changes the partial dictionary based on the voice input person or the present car position and a speech recognition means 14 which recognizes the inputted word by comparing the selected partial dictionary with the inputted voice pattern.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、プラントの点検・保
守、車のナビゲーションなどに用いられる音声認識装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device used for inspection / maintenance of a plant, navigation of a car and the like.

【0002】[0002]

【従来の技術】近年、発電プラントにおける運転制御室
のマンマシンシステムに音声認識装置を利用することが
進められており、より一層の認識率の向上(誤入力防
止)、認識時間の短縮(操作性向上)が望まれている。
現在の音声認識装置は、入力音声を音声認識辞書に登録
した語彙の音声パターンと照合することにより、入力音
声の認識処理を行うため、入力すべき語彙はすべて音声
認識辞書にあらかじめ登録する必要がある。一般に、音
声認識辞書の登録語彙数が多く、かつ/または類似した
語彙が多い場合には、認識率が低下することが知られて
いる。発電プラントの点検に音声入力装置を用いる場合
においても、プラント全体の点検対象となる系統かつ/
または機器の名称は膨大であるため、認識率の向上及び
認識時間の短縮が課題である。そこで、語彙を部分辞書
に分割して登録し、辞書を切り換えることにより、対象
とする語彙を減じる方法が考案されている。例えば、特
開昭61−35498号公報には、音声認識辞書として
あらかじめ単語の種類毎に部分辞書を作成し、音声入力
する単語の順番(例えば、1.性別、2.姓、3.名
前、4.県名…)を規定し、この順番で単語の入力に従
い、順次辞書を切り換える方法が記載されている。この
公報の技術をプラント点検に用いようとした場合には、
系統かつ/または機器毎に部分辞書を作成し、点検順番
と点検時間をあらかじめ規定して、部分辞書を切り換え
ていくことになる。しかしながら、プラント点検作業で
は、点検項目の変更、点検経路の変更が行われることが
あり、また、点検の時間についても異常発生などの状
況、作業の進捗状況などにより変化するため、点検順番
を規定することによって部分辞書を選択することは不可
能である。また、同様に車のナビゲーションシステムに
おいても、進行経路の変更が行われることがあり、ま
た、進行経路に渋滞などの発生により、目的地までの所
要時間が変化するため、進行経路を規定することによっ
て部分辞書を選択することは不可能である。
2. Description of the Related Art Recently, use of a voice recognition device in a man-machine system in an operation control room of a power plant has been promoted to further improve the recognition rate (prevention of erroneous input) and shorten the recognition time (operation). Improvement) is desired.
Current speech recognition devices perform input speech recognition processing by matching the input speech with the speech pattern of the vocabulary registered in the speech recognition dictionary, so it is necessary to register all the vocabulary to be input in the speech recognition dictionary in advance. is there. It is generally known that the recognition rate decreases when the number of registered vocabularies in the voice recognition dictionary is large and / or the number of similar vocabularies is large. Even if a voice input device is used to inspect the power plant, the system and / or
Alternatively, since the names of devices are enormous, it is necessary to improve the recognition rate and shorten the recognition time. Therefore, a method has been devised in which the vocabulary is divided into partial dictionaries and registered, and the dictionaries are switched to reduce the target vocabulary. For example, in Japanese Patent Laid-Open No. 61-35498, a partial dictionary is created in advance for each type of word as a voice recognition dictionary, and the order of words to be voice input (for example, 1. sex, 2. surname, 3. name, 4. Prefecture name ...) is defined, and the dictionary is sequentially switched according to the input of words in this order. When trying to use the technology of this publication for plant inspection,
A partial dictionary is created for each system and / or each device, and the inspection order and inspection time are specified in advance, and the partial dictionaries are switched. However, in the plant inspection work, the inspection items and inspection routes may be changed, and the inspection time also changes depending on the situation such as the occurrence of an abnormality and the progress of the work. It is impossible to select a partial dictionary by doing. Similarly, in a car navigation system, the travel route may be changed, and the time required to reach the destination may change due to traffic congestion on the travel route. It is impossible to select a partial dictionary by.

【0003】[0003]

【発明が解決しようとする課題】このように従来の音声
認識装置では、認識辞書をあらかじめ部分辞書に分割し
ておき、規定した順番で切り換えて使用することは可能
であるが、状況の変化に対応して切り換えることができ
ないため、プラントの点検作業及び車のナビゲーション
システムには適用できなかった。
As described above, in the conventional speech recognition apparatus, it is possible to divide the recognition dictionary into subdictionaries in advance and switch the recognition dictionaries in a prescribed order to use them. Since it cannot be switched correspondingly, it was not applicable to plant inspection work and car navigation systems.

【0004】本発明は、このような事情を考慮してなさ
れたもので、その目的とするところは、状況の変化に対
応して、あらかじめ分割した部分辞書を切り換えること
により、一般のプラントの運転保守やカーナビゲーショ
ンのような対象に対しても、部分辞書を使用することを
可能とし、認識率の向上及び認識時間の短縮を図るに好
適な音声認識装置を提供することにある。
The present invention has been made in consideration of such a situation, and its purpose is to operate a general plant by switching the partial dictionaries divided in advance in response to the change of the situation. It is an object of the present invention to provide a voice recognition device which makes it possible to use a partial dictionary even for an object such as maintenance or car navigation, and which is suitable for improving the recognition rate and shortening the recognition time.

【0005】[0005]

【課題を解決するための手段】上記目的は、音声入力者
の位置または車の現在位置を検出し、該検出した位置を
基に部分辞書を切り換えることにより、達成される。
The above object can be achieved by detecting the position of a voice input person or the current position of a vehicle and switching the partial dictionary based on the detected position.

【0006】[0006]

【作用】本発明は、音声認識辞書をあらかじめプラント
の系統かつ/または機器毎に分割した部分辞書として作
成し、音声入力者の位置を検出して、音声入力が行われ
た位置の系統かつ/または音声入力が行われた位置の付
近に設置されている機器を特定することにより、点検状
況の変化に対応して部分辞書を選択する。これにより、
プラント点検システムに用いられる音声認識装置の認識
率の向上及び認識時間の短縮が可能になる。また、本発
明は、音声認識辞書をあらかじめ市群名別に分割した部
分辞書として作成し、車の現在位置(緯度と経度)を検
出して、地図データを参照しながら、現在位置の市群名
を特定することにより、運転状況の変化に対応して部分
辞書を選択する。これにより、カーナビゲーションシス
テムに用いられる音声認識装置の認識率の向上及び認識
時間の短縮が可能になる。
According to the present invention, the voice recognition dictionary is created in advance as a partial dictionary divided for each system and / or device of the plant, the position of the voice input person is detected, and the system for the position where the voice input is made and / or Alternatively, the partial dictionary is selected according to the change in the inspection situation by identifying the device installed near the position where the voice input is performed. This allows
It is possible to improve the recognition rate and shorten the recognition time of the voice recognition device used in the plant inspection system. The present invention also creates a voice recognition dictionary as a partial dictionary that is divided in advance by city group name, detects the current position (latitude and longitude) of the vehicle, and refers to the map data while referring to the city group name of the current position. Is specified, the partial dictionary is selected according to the change in the driving situation. As a result, it is possible to improve the recognition rate and shorten the recognition time of the voice recognition device used in the car navigation system.

【0007】[0007]

【実施例】以下、本発明の実施例を図面を用いて説明す
る。図1は、本発明の第一の実施例に係るプラント点検
システムの音声認識装置を示す。本音声認識装置は、音
声入力者の位置を検出する位置検出部1001、位置検
出部1001が参照するプラント情報格納部1101、
部分辞書選択部1201、音声認識辞書(部分辞書)格
納部1301、音声認識部1401、計算機1501、
点検記録の格納部1502、点検記録の表示を行うCR
T1503、点検記録を基に点検報告書を出力するプリ
ンタ1504、データの伝送を行う送受信部(固定局)
1601、送受信部(移動局)1602、携帯ディスプ
レイ1701、マイク1801から構成される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a voice recognition device of a plant inspection system according to a first embodiment of the present invention. The voice recognition device includes a position detection unit 1001 that detects the position of a voice input person, a plant information storage unit 1101 referenced by the position detection unit 1001,
Partial dictionary selection unit 1201, voice recognition dictionary (partial dictionary) storage unit 1301, voice recognition unit 1401, computer 1501,
Inspection record storage 1502, CR for displaying inspection records
T1503, printer 1504 for outputting inspection report based on inspection record, transmitting / receiving unit (fixed station) for transmitting data
1601, a transmission / reception unit (mobile station) 1602, a mobile display 1701, and a microphone 1801.

【0008】図2は、第一の実施例を説明するために使
用するプラント現場の模式図である。図2において、プ
ラント現場は、タービン系、循環水ポンプAと補機ポン
プと循環水ポンプBが配置された循環水系、オイルフィ
ルタとT/D−RFP−AとN36弁と弁LPSVが配
置された給水系、発電機と水素ガス圧力計が配置された
所内電源系、主蒸気系からなり、各々の系統は、壁で仕
切られ、各々の系統に行き来できるようにゲートが設け
られている。各ゲートには、各系統に設置された機器を
点検する保守員(音声入力者)がゲートを通過したこと
を検出するためのセンサー(S1〜S5)1002〜1
006が設定されている。各系統に設置された機器を点
検するための経路が規定されており、図2には経路1と
経路2を示す。経路1、経路2は、日毎または時刻(例
えば、午前と午後)によりあらかじめ選択され、音声入
力者は基本的にこの経路に沿って点検作業を行う。例え
ば、経路1では、音声入力者がタービン系の機器を点検
した後、循環水系にゲートを通過して入る。この時セン
サー(S1)1002が音声入力者の通過を検知する。
続いて、音声入力者は、循環水系に配置されている循環
水ポンプA、補機ポンプ、循環水ポンプBを点検し、給
水系にゲートを通過して入る。この時センサー(S2)
1003が音声入力者の通過を検知する。以下同様に、
給水系、所内電源系に配置されている各機器を点検して
主蒸気系に入る。その際、センサー(S3)1004、
センサー(S5)1006が音声入力者の通過を検知す
る。経路2についても同様である。ここで、センサー
(S1〜S5)1002〜1006は、半導体レーザと
光検出器を用い、レーザ光を常に光検出器の受光面に入
射するように設置する。音声入力者が、半導体レーザと
光検出器の間を通過する際、光検出器の受光面に入射さ
れているレーザ光を遮ることにより、センサーは音声入
力者の通過を検出する。
FIG. 2 is a schematic diagram of a plant site used for explaining the first embodiment. In FIG. 2, in the plant site, a turbine system, a circulating water system in which a circulating water pump A, an auxiliary pump and a circulating water pump B are arranged, an oil filter, T / D-RFP-A, an N36 valve and a valve LPSV are arranged. It consists of a water supply system, an on-site power supply system where a generator and a hydrogen gas pressure gauge are arranged, and a main steam system. Each system is partitioned by a wall, and gates are provided to allow access to each system. Sensors (S1 to S5) 1002-1 for detecting that a maintenance person (voice input person) who inspects equipment installed in each system has passed through each gate
006 is set. Routes for inspecting equipment installed in each system are defined, and route 1 and route 2 are shown in FIG. The route 1 and the route 2 are selected in advance according to the day or the time (for example, morning and afternoon), and the voice input person basically performs the inspection work along this route. For example, in route 1, the voice input person enters the circulating water system through the gate after inspecting the turbine system equipment. At this time, the sensor (S1) 1002 detects the passage of the voice input person.
Next, the voice input person inspects the circulating water pump A, the auxiliary pump, and the circulating water pump B arranged in the circulating water system, and enters the water supply system through the gate. At this time the sensor (S2)
1003 detects passage of a voice input person. And so on
Check each equipment installed in the water supply system and the power supply system in the plant and enter the main steam system. At that time, the sensor (S3) 1004,
A sensor (S5) 1006 detects passage of a voice input person. The same applies to the route 2. Here, the sensors (S1 to S5) 1002 to 1006 use a semiconductor laser and a photodetector, and are installed so that the laser light always enters the light receiving surface of the photodetector. When the voice input person passes between the semiconductor laser and the photodetector, the sensor detects the passage of the voice input person by blocking the laser light incident on the light receiving surface of the photodetector.

【0009】図3は、位置検出部1001が参照するプ
ラント情報格納部1101にあらかじめ格納されている
センサー設置位置データを示す。センサー設置位置デー
タは、各センサーがどの系統間に設置されているかを表
す。図3から明らかなように、センサー(S1)はター
ビン系と循環水系の壁で仕切られたゲートの位置に設置
されることを示す。その他のセンサー(S2〜S5)も
同様である。
FIG. 3 shows the sensor installation position data stored in advance in the plant information storage unit 1101 referenced by the position detection unit 1001. The sensor installation position data represents between which systems each sensor is installed. As is clear from FIG. 3, the sensor (S1) is installed at the position of the gate partitioned by the walls of the turbine system and the circulating water system. The same applies to the other sensors (S2 to S5).

【0010】図4は、位置検出部1001が参照するプ
ラント情報格納部1101にあらかじめ格納されている
点検経路データを示す。点検経路データは、点検経路を
系統名で順番に格納してある。点検番号1(経路1)で
は、タービン系−循環水系−給水系−所内電源系−主蒸
気系の順に点検することを表す。点検番号2(経路2)
も同様である。
FIG. 4 shows inspection route data stored in advance in the plant information storage unit 1101 referenced by the position detection unit 1001. In the inspection route data, inspection routes are stored in order by system name. Inspection number 1 (route 1) indicates that the inspection is performed in the order of turbine system-circulating water system-water supply system-in-house power supply system-main steam system. Inspection number 2 (route 2)
The same is true for

【0011】図5は、第一の実施例に係る位置検出部1
001の処理を示す。本処理は、起動がかかると、セン
サーが音声入力者を検出したかを確認し(ステップ30
01)、音声入力者を検出したセンサーを特定する(ス
テップ3002)。次に、音声入力者を検出したセンサ
ーの設定位置データを読み込み(ステップ3003)、
点検経路データの読み込みを行い(ステップ300
4)、音声入力者の現在位置として系統名を特定して
(ステップ3005)、出力する(ステップ300
6)。例えば、図2において、経路1に沿って点検作業
を行っている音声入力者が循環水ポンプAの点検を終
え、T/D−RFP−Aの点検作業を行うため、センサ
ー(S2)1003を通過した時、センサー(S2)1
003が”循環水系と給水系の間に設置されている”と
いう情報と、経路1は、”循環水系の後は給水系”とい
う情報から判定を行い、”給水系”を出力する。因に、
音声入力者が現在どの経路に沿って作業を行っているか
を知る方法としては、音声入力者が点検開始前にあらか
じめ登録する、もしくは年月日かつ/または時刻の情報
を点検経路データに格納しておき、自動的に切り換える
方法、または、点検経路の読み込み(ステップ300
4)時に、年月日かつ/または時刻を基に判定する方法
など、点検項目を設定して実施することができる。
FIG. 5 shows the position detector 1 according to the first embodiment.
The processing of 001 is shown. When the process is activated, it is checked whether the sensor detects a voice input person (step 30).
01), the sensor that has detected the voice input person is specified (step 3002). Next, the setting position data of the sensor that has detected the voice input person is read (step 3003),
The inspection route data is read (step 300
4) The systematic name is specified as the current position of the voice input person (step 3005) and output (step 300).
6). For example, in FIG. 2, the sensor (S2) 1003 is used to check the circulating water pump A and perform the inspection work of the T / D-RFP-A by the voice input person who is performing the inspection work along the route 1. When passing, sensor (S2) 1
The information that 003 is "installed between the circulating water system and the water supply system" and the route 1 determines from the information that "the water supply system is after the circulating water system", and outputs "water supply system". By the way,
As a method of knowing which route the voice input person is currently working on, the voice input person may register in advance before starting the inspection, or store the date and / or time information in the inspection route data. A method of automatically switching or reading the inspection route (step 300
4) At the time, inspection items such as a method of determining based on the date and / or time can be set and implemented.

【0012】図6は、第一実施例に係る音声認識辞書
(部分辞書)1301の構成を示す。位置検出部100
1から位置情報として系統名が出力されるため、部分辞
書は、系統毎に作成し、”系統名”の領域と”音声パタ
ーン”の領域により構成される。”音声パターン”の領
域には、認識処理に使用する”音声パターンデータ”と
この音声パターンデータに対応する”文字列”が格納さ
れている。また、ポインタは、現在選択されている部分
辞書を示すものであり、音声認識部1401が選択され
ている部分辞書を特定するために設けている。
FIG. 6 shows the structure of a voice recognition dictionary (partial dictionary) 1301 according to the first embodiment. Position detector 100
Since the system name is output from 1 as the position information, the partial dictionary is created for each system and is composed of a "system name" area and a "voice pattern" area. In the "voice pattern" area, "voice pattern data" used for recognition processing and "character string" corresponding to this voice pattern data are stored. Further, the pointer indicates the currently selected partial dictionary, and the voice recognition unit 1401 is provided to specify the selected partial dictionary.

【0013】図7は、第一の実施例に係る部分辞書選択
部1201の処理を示す。本処理は、位置検出部100
1からの入力が入った場合に実行される。起動がかかる
と、位置検出部1001より現在位置(系統名)を取り
込み(ステップ3101)、該現在位置を示す系統名に
対応する部分辞書を、部分辞書の系統名領域を参照する
ことにより、検索し(ステップ3103)、現時位置に
対応する部分辞書にポインタを移動する(ステップ31
03)。
FIG. 7 shows the processing of the partial dictionary selection unit 1201 according to the first embodiment. This process is performed by the position detection unit 100.
Executed when input from 1. Upon activation, the current position (system name) is fetched from the position detection unit 1001 (step 3101), and the partial dictionary corresponding to the system name indicating the current position is searched by referring to the system name area of the partial dictionary. Then (step 3103), the pointer is moved to the partial dictionary corresponding to the current position (step 31).
03).

【0014】図8は、第一の実施例に係る音声認識部1
401の処理を示す。本処理は、マイク1801から入
力があると(ステップ3201)、送受信部(移動局)
1602から音声を送信し(ステップ3202)、送受
信部(固定局)1601で音声を受信する(ステップ3
203)。音声認識部1401は受信された音声を入力
し(ステップ3204)、音声認識辞書(部分辞書)格
納部1301内の選択された部分辞書、すなわち、ポイ
ンタの置かれた部分辞書を用いて、認識処理を行い(ス
テップ3205)、認識結果を計算機1501へ出力す
る(ステップ3206)。
FIG. 8 shows a voice recognition unit 1 according to the first embodiment.
The processing of 401 is shown. In this processing, when there is an input from the microphone 1801 (step 3201), the transmitting / receiving unit (mobile station)
Voice is transmitted from 1602 (step 3202), and voice is received by the transmitting / receiving unit (fixed station) 1601 (step 3).
203). The voice recognition unit 1401 inputs the received voice (step 3204) and performs a recognition process using the selected partial dictionary in the voice recognition dictionary (partial dictionary) storage unit 1301, that is, the partial dictionary on which the pointer is placed. Is performed (step 3205), and the recognition result is output to the computer 1501 (step 3206).

【0015】図9は、点検記録格納部1502に格納さ
れる点検記録データを示す。点検記録データは、系統
名、点検対象、点検結果が格納されており、系統名、点
検対象はあらかじめ格納しておく。点検結果は、計算機
1501が音声認識部1401から出力された文字列を
基に、点検系統、点検対象に対応する位置に格納され
る。
FIG. 9 shows inspection record data stored in the inspection record storage section 1502. The inspection record data stores the system name, inspection target, and inspection result. The system name and inspection target are stored in advance. The inspection result is stored in the position corresponding to the inspection system and the inspection target based on the character string output from the voice recognition unit 1401 by the computer 1501.

【0016】図10は、上記点検記録格納部1502の
点検記録データを基に作成した点検報告書をCRT15
03に表示した例を示す。点検作業終了後CRT150
3に点検報告書を表示し、CRT1503上で点検内容
を確認の上、プリンタ1504に出力することが可能で
ある。
FIG. 10 shows a CRT 15 of the inspection report prepared based on the inspection record data in the inspection record storage section 1502.
The example displayed in 03 is shown. After inspection work CRT150
It is possible to display the inspection report on the screen 3, confirm the inspection contents on the CRT 1503, and output the inspection report to the printer 1504.

【0017】図11は、携帯ディスプレイ1701の表
示例を示す。携帯ディスプレイ1701は、音声入力を
行いながら、点検記録を確認するために使用され、表示
データは計算機1501から提供される。初期画面は画
面1711のように点検対象の入力待ち状態であり、音
声入力により点検対象機器”循環水ポンプ”が入力され
ると、画面1712のように点検対象に”循環水ポン
プ”を表示すると共に、点検項目を表示する。点検項目
は、音声入力された対象機器名から計算機1501が点
検記録格納部1502にあらかじめ格納してある点検対
象データを参照して、表示データとして提供する。次
に、”速度”を入力するために、”速度”と音声入力す
ると、速度の点検内容を表示する部分がハイライト(画
面1713)され、計算機1501が”速度”の入力待
ちであることを示す。速度の値「70」を入力すると、
値が表示される(画面1714)。次に、”外観”と音
声入力すると”外観”の入力位置がハイライトされる。
このように、項目とその値を入力していくことにより、
点検結果を計算機用データとして取り込むことが可能で
ある。また、入力した値などが誤認識されたような場
合、もしくは、値を間違って入力したような場合には、
「訂正」と発話した後に、再入力することにより値を修
正することが可能である。本実施例では、各系統を隔離
するゲートにセンサを設置し、系統名毎に部分辞書を分
割することについて説明したが、機器が配置されている
付近にセンサを設置し、機器名毎に部分辞書を分割し
て、音声入力が行われた位置の付近に設置されている機
器を特定するようにしてもよい。
FIG. 11 shows a display example of the portable display 1701. The mobile display 1701 is used to confirm the inspection record while inputting voice, and the display data is provided from the computer 1501. The initial screen is in the state of waiting for input of the inspection target like the screen 1711. When the inspection target device "circulating water pump" is input by voice input, the "circulating water pump" is displayed as the inspection target as the screen 1712. In addition, the inspection items are displayed. The inspection item is provided as display data by referring to the inspection target data stored in advance in the inspection record storage unit 1502 by the computer 1501 based on the target device name input by voice. Next, when "Velocity" is input by voice to input "Velocity", the portion displaying the inspection contents of the velocity is highlighted (screen 1713), and the computer 1501 confirms that it is waiting for the input of "Velocity". Show. If you enter the speed value "70",
The value is displayed (screen 1714). Next, when "voice" is input by voice, the input position of "voice" is highlighted.
In this way, by entering the item and its value,
It is possible to import the inspection results as computer data. Also, if the value you entered is mistakenly recognized, or if you enter the value incorrectly,
It is possible to correct the value by re-inputting after uttering "correction". In the present embodiment, it has been described that the sensor is installed at the gate that isolates each system, and the partial dictionary is divided for each system name, but the sensor is installed near the device and the partial dictionary is provided for each device name. It is also possible to divide the dictionary and specify the device installed near the position where the voice input is performed.

【0018】上述したように、本実施例においては、プ
ラントに設置したセンサー(系統間に設置)を用いて音
声入力者の通過を検出し、現在位置(系統名)を特定す
ることにより、系統毎にあらかじめ分割した部分辞書を
切り換えて使用することが可能となり、また、状況の変
化つまり点検項目の変更、点検経路の変更が行われ、も
しくは、点検の時間が異常発生などの状況、作業の進捗
状況などにより変化しても、センサーを用いて音声入力
者の通過を検出し、現在位置(系統名)を特定すること
により、あらかじめ分割した部分辞書に切り換えること
になり、認識率の向上及び認識時間の短縮を図ることが
できる。また、携帯ディスプレイにより音声認識の結果
を表示することにより、誤入力の防止を確実に図ること
が可能である。
As described above, in this embodiment, the sensor (installed between systems) installed in the plant is used to detect the passage of the voice input person, and the current position (system name) is specified. It is possible to switch and use partial dictionaries that have been divided in advance for each situation.Also, when the situation changes, that is, the inspection item or inspection route is changed, or the inspection time is abnormal, work conditions Even if it changes due to progress, etc., it will switch to a predivided partial dictionary by detecting the passage of a voice input person using a sensor and specifying the current position (system name), improving the recognition rate and The recognition time can be shortened. Further, by displaying the result of voice recognition on the mobile display, it is possible to reliably prevent erroneous input.

【0019】図12は、本発明の第二の実施例に係るプ
ラント点検システムの音声認識装置を示す。本音声認識
装置は、音声入力者の位置を検出する位置検出部101
1、位置検出部が参照するプラント情報格納部111
1、部分辞書選択部1211、音声認識辞書(部分辞
書)格納部1311、音声認識部1411、計算機15
01、点検記録の格納部1502、点検記録の表示を行
うCRT1503、点検記録を基に点検報告書を出力す
るプリンタ1504、データの伝送を行う送受信部(固
定局)1601、送受信部(移動局)1602、携帯デ
ィスプレイ1701、マイク1801から構成される。
この構成において、位置検出部1011、プラント情報
格納部1111、部分辞書選択部1211、音声認識辞
書(部分辞書)格納部1311、音声認識部1411を
除けば、第一の実施例と同様である。以下、第一実施例
と異なる、位置検出部1011、プラント情報格納部1
111、部分辞書選択部1211、音声認識辞書(部分
辞書)格納部1311、音声認識部1411について説
明する。
FIG. 12 shows a voice recognition device of a plant inspection system according to a second embodiment of the present invention. The voice recognition device includes a position detection unit 101 that detects the position of a voice input person.
1. The plant information storage unit 111 referenced by the position detection unit
1, partial dictionary selection unit 1211, voice recognition dictionary (partial dictionary) storage unit 1311, voice recognition unit 1411, computer 15
01, an inspection record storage unit 1502, a CRT 1503 for displaying the inspection record, a printer 1504 for outputting an inspection report based on the inspection record, a transmission / reception unit (fixed station) 1601 for transmitting data, a transmission / reception unit (mobile station) 1602, a mobile display 1701, and a microphone 1801.
This configuration is the same as that of the first embodiment except the position detection unit 1011, the plant information storage unit 1111, the partial dictionary selection unit 1211, the voice recognition dictionary (partial dictionary) storage unit 1311 and the voice recognition unit 1411. Hereinafter, a position detection unit 1011 and a plant information storage unit 1 different from the first embodiment
The 111, the partial dictionary selection unit 1211, the voice recognition dictionary (partial dictionary) storage unit 1311 and the voice recognition unit 1411 will be described.

【0020】図13は、第二の実施例に係るプラント現
場の模式図である。図13において、音声入力者が点検
を行うための経路(経路1、経路2)上に、センサー
(SD1〜SDn)1012〜1019を設置する。セ
ンサー(SD1〜SDn)1012〜1019は、セン
サーから音声入力者までの距離を測定するものである。
距離を測定するセンサーとしては、例えば、三角測量に
よるレーザ距離センサー(近藤他:「計測・センサにお
けるディジタル信号処理」,pp.118−120,昭
晃堂,(1993年))などの技術がある。
FIG. 13 is a schematic diagram of a plant site according to the second embodiment. In FIG. 13, sensors (SD1 to SDn) 1012 to 1019 are installed on a route (route 1 and route 2) for a voice input person to inspect. The sensors (SD1 to SDn) 1012 to 1019 measure the distance from the sensor to the voice input person.
As a sensor for measuring the distance, for example, there is a technology such as a laser distance sensor by triangulation (Kondo et al .: “Digital signal processing in measurement / sensor”, pp.118-120, Shokoido, (1993)). .

【0021】図14は、位置検出部1011が参照する
プラント情報格納部1111にあらかじめ格納するセン
サー(SD1〜SDn)1012〜1019の設置位置
データを示す。センサー設置位置データには、プラント
現場におけるセンサーの設置位置座標(Xs,Ys)を
設定する。また、センサーがX,Y軸に対してどの方向
に取り付けられているかを格納する。これは図14の△
x、△yに対応している。図14において、+はxまた
はy座標が増える方向、−は減る方向の距離をセンサー
が計測することを示している。例えば、センサー(SD
1)が検出した音声入力者までの距離をL1とすると、
センサー(SD1)は、xの増加方向への距離を測定す
るものであるため、音声入力者の位置は(SD1x+L
1,SD1y)となる。
FIG. 14 shows installation position data of the sensors (SD1 to SDn) 1012 to 1019 stored in advance in the plant information storage unit 1111 referenced by the position detection unit 1011. In the sensor installation position data, the installation position coordinates (Xs, Ys) of the sensor at the plant site are set. It also stores in which direction the sensor is attached with respect to the X and Y axes. This is the △ in Figure 14
It corresponds to x and Δy. In FIG. 14, + indicates that the sensor measures the distance in the direction in which the x or y coordinate increases, and-in the direction in which the coordinate decreases. For example, the sensor (SD
If the distance to the voice input person detected by 1) is L1,
Since the sensor (SD1) measures the distance in the increasing direction of x, the position of the voice input person is (SD1x + L
1, SD1y).

【0022】図15は、位置検出部1011が参照する
プラント情報格納部1111にあらかじめ格納する機器
配置位置データを示す。機器配置位置データも、センサ
ーと同じプラント現場のX,Y軸に対して、設置位置を
座標(Xm,Ym)により設定する。
FIG. 15 shows equipment placement position data stored in advance in the plant information storage unit 1111 referenced by the position detection unit 1011. The equipment position data also sets the installation position by coordinates (Xm, Ym) with respect to the X and Y axes of the same plant site as the sensor.

【0023】図16は、第二の実施例に係る位置検出部
1011の処理を示す。本処理は、センサーが音声入力
者を検出すると(ステップ4001)、音声入力者を検
出したセンサーから音声入力者までの距離を取り込み
(ステップ4002)、音声入力者を検出したセンサー
の設定位置データをプラント情報格納部1111から読
み込み(ステップ4003)、音声入力者の位置座標を
計算する(ステップ4004)。次いで、音声入力者の
位置座標付近の機器をプラント情報格納部1111の機
器設置位置データを参照して検索する(ステップ400
5)。検索の結果が一つであれば(ステップ400
6)、検索結果を出力して処理を終了し(ステップ40
08)、複数であれば、位置座標から距離の近い順番に
並び替えて(ステップ4007)、出力する(ステップ
4008)。
FIG. 16 shows the processing of the position detector 1011 according to the second embodiment. In this processing, when the sensor detects a voice input person (step 4001), the distance from the sensor detecting the voice input person to the voice input person is fetched (step 4002), and the set position data of the sensor detecting the voice input person is acquired. It is read from the plant information storage unit 1111 (step 4003), and the position coordinate of the voice input person is calculated (step 4004). Next, a device near the position coordinate of the voice input person is searched with reference to the device installation position data in the plant information storage unit 1111 (step 400).
5). If there is only one search result (step 400)
6) The search result is output and the processing is terminated (step 40
08), if there are a plurality of them, they are rearranged in the order of decreasing distance from the position coordinates (step 4007) and output (step 4008).

【0024】図17は、第二の実施例に係る音声認識辞
書1311の構成、図18は、部分辞書1311の構成
を示す。音声認識辞書は、位置検出部1011により機
器名が出力されることから、プラント・系統・機器毎に
部分辞書を作成し、系統と機器の階層構造としている。
例えば、プラントの部分辞書は、プラントに関連する語
彙を示す部分辞書であり、給水系の部分辞書は、プラン
トの下位の系統、給水系に関連する語彙を示す部分辞書
であり、そして、N36弁の部分辞書は、給水系の下位
の機器、N36弁に関連する語彙を示す部分辞書であ
る。オイルフィルタ、T/D−RFP−Aの部分辞書
は、N36弁の兄弟関係にある。各々の部分辞書は、”
機器”もしくは”系統名”または”プラント”の領域
と、”音声パターン”の領域から構成され、音声パター
ンの領域には、”音声パターンデータ”とこの音声パタ
ーンデータに対応する”文字列”が格納されている。
FIG. 17 shows the structure of the voice recognition dictionary 1311 according to the second embodiment, and FIG. 18 shows the structure of the partial dictionary 1311. Since the device name is output from the position detection unit 1011 in the voice recognition dictionary, a partial dictionary is created for each plant / system / device to have a hierarchical structure of systems and devices.
For example, the partial dictionary of the plant is a partial dictionary showing the vocabulary related to the plant, the partial dictionary of the water supply system is a partial dictionary showing the vocabulary related to the lower system of the plant, the water supply system, and N36 valve. The partial dictionary of is a partial dictionary showing the vocabulary related to the N36 valve, which is a subordinate device of the water supply system. The oil filter and the partial dictionary of T / D-RFP-A have a sibling relationship of N36 valves. Each partial dictionary is
It consists of a "device" or "system name" or "plant" area and a "voice pattern" area. In the voice pattern area, "voice pattern data" and "character string" corresponding to this voice pattern data are stored. It is stored.

【0025】図19は、第二の実施例に係る部分辞書選
択部1211の部分辞書選択処理で行う、部分辞書への
優先度付けの例を図化したものである。図19におい
て、M1〜M2は、位置検出部1011が出力した機器
名であり、M1が音声入力者の一番近くにある機器であ
る。また、P1〜P4は優先度であり、P1が優先度が
高く、P2、P3と優先度が低くなる。この優先度は、
音声認識部1411が入力音声の認識処理を行う際に、
参照する部分辞書1311の順番を表すものである。
FIG. 19 illustrates an example of prioritizing partial dictionaries, which is performed by the partial dictionary selection processing of the partial dictionary selection unit 1211 according to the second embodiment. In FIG. 19, M1 and M2 are device names output by the position detection unit 1011 and M1 is the device closest to the voice input person. Further, P1 to P4 are priorities, P1 has a high priority, and P2 and P3 have a low priority. This priority is
When the voice recognition unit 1411 performs the recognition process of the input voice,
This shows the order of the partial dictionary 1311 to be referred to.

【0026】図20は、第二の実施例に係る部分辞書1
311への優先度付けの処理を示すす。図19の例を用
いて、処理の流れを説明する。図19の(1)のよう
に、位置検出部1011が機器名「N36弁」(M1)
を出力した場合は、機器名は「N36弁」(M1)のみ
であるので(ステップ4101)、「N36弁」(M
1)に対する部分辞書に優先度P1を設定し(ステップ
4110)、一階層上位の「給水系」に対応する部分辞
書に優先度P2を設定する(ステップ4111)。次い
で、「N36弁」(M1)と同一階層内の「弁LPS
V」「T/D−RFP−A」などに対応する部分辞書に
無作為に優先度P3〜Pkを設定する(ステップ411
2)。次に、図19の(2)のように、位置検出部10
11が機器名「N36弁」(M1)と「T/D−RFP
−A」(M2)を出力した場合は、機器名は複数であ
り、「N36弁」(M1)と「T/D−RFP−A」
(M2)は同一階層に属しているので(ステップ410
1〜4102)、「N36弁」(M1)に対する部分辞
書に優先度P1、「T/D−RFP−A」(M2)に対
する部分辞書に優先度P2を設定し(ステップ412
1)、「N36弁」(M1)と「T/D−RFP−A」
(M2)の一階層上位の「給水系」に対応する部分辞書
に優先度P3を設定する。次いで、「N36弁」(M
1)と「T/D−RFP−A」(M2)と同一階層内の
「弁LPSV」などに対応する部分辞書に無作為に優先
度P4〜Pnを設定する。次に、図19の(3)のよう
に、位置検出部1011が機器名「弁LPSV」(M
1)と「水素ガス圧力計」(M2)を出力した場合は、
機器名は複数であり、「弁LPSV」(M1)と「水素
ガス圧力計」(M2)は同一階層に属していないので
(ステップ4101〜4102)、まず、「弁LPS
V」(M1)に対応する部分辞書に優先度P1、「水素
ガス圧力計」(M2)に対応する部分辞書に優先度P2
を設定し(ステップ4130)、「弁LPSV」(M
1)の一階層上位の「給水系」に対応する部分辞書に優
先度P3、「水素ガス圧力計」(M2)の一階層上位の
「所内電源系」に対応する部分辞書に優先度P4を設定
する(ステップ4131)。
FIG. 20 is a partial dictionary 1 according to the second embodiment.
311 shows the process of prioritizing 311. The flow of processing will be described using the example of FIG. As shown in (1) of FIG. 19, the position detection unit 1011 displays the device name “N36 valve” (M1).
If “NO” is output, the device name is “N36 valve” (M1) only (step 4101).
The priority P1 is set to the partial dictionary for 1) (step 4110), and the priority P2 is set to the partial dictionary corresponding to the "water supply system" one level higher (step 4111). Next, the "valve LPS" in the same floor as the "N36 valve" (M1)
The priorities P3 to Pk are randomly set in the partial dictionary corresponding to "V""T / D-RFP-A" (step 411).
2). Next, as shown in (2) of FIG.
11 is the device name "N36 valve" (M1) and "T / D-RFP"
-A "(M2) is output, the device name is plural, and" N36 valve "(M1) and" T / D-RFP-A ".
(M2) belongs to the same layer (step 410).
1-4102), the priority P1 is set in the partial dictionary for "N36 valve" (M1), and the priority P2 is set in the partial dictionary for "T / D-RFP-A" (M2) (step 412).
1), "N36 valve" (M1) and "T / D-RFP-A"
(M2) The priority P3 is set in the partial dictionary corresponding to the "water supply system" one level higher. Then, "N36 valve" (M
1) and "T / D-RFP-A" (M2), the priorities P4 to Pn are randomly set in the partial dictionary corresponding to "valve LPSV" in the same hierarchy. Next, as shown in (3) of FIG. 19, the position detection unit 1011 causes the device name “valve LPSV” (M
1) and "hydrogen gas pressure gauge" (M2) are output,
Since there are multiple device names, and the "valve LPSV" (M1) and the "hydrogen gas pressure gauge" (M2) do not belong to the same layer (steps 4101 to 4102), first, the "valve LPSV"
The partial dictionary corresponding to "V" (M1) has priority P1, and the partial dictionary corresponding to "hydrogen gas pressure gauge" (M2) has priority P2.
Is set (step 4130), and the "valve LPSV" (M
1) Priority P3 is assigned to the partial dictionary corresponding to "water supply system" which is one level higher, and priority P4 is assigned to the partial dictionary corresponding to "hydrogen gas pressure gauge" (M2) which is one level higher than "internal power supply system". It is set (step 4131).

【0027】図21は、第二の実施例に係る音声認識部
1411の処理を示す。本処理は、マイク1801から
入力があると(ステップ4201)、送受信部(移動
局)1602から音声を送信し(ステップ4202)、
送受信部(固定局)1601で音声を受信する(ステッ
プ4203)。音声認識部1411は受信された音声を
入力し(ステップ4204)、音声認識辞書1311を
参照して、優先度順に部分辞書を選択して(ステップ4
205)、入力された音声の音声パターンと一致する部
分辞書の音声パターンを検索した後(ステップ420
6)、検索できた場合は(ステップ4207)、一致し
た音声パターンに対応する文字列を計算機1501に出
力し(ステップ4208)、検索できなかった場合は
(ステップ4207)、認識不可であることを計算機1
501に出力する(ステップ4209)。
FIG. 21 shows the processing of the voice recognition unit 1411 according to the second embodiment. In this processing, when there is an input from the microphone 1801 (step 4201), a voice is transmitted from the transmitting / receiving unit (mobile station) 1602 (step 4202),
The transmitter / receiver (fixed station) 1601 receives voice (step 4203). The voice recognition unit 1411 inputs the received voice (step 4204), refers to the voice recognition dictionary 1311, and selects partial dictionaries in order of priority (step 4).
205) and after searching for a voice pattern in the partial dictionary that matches the voice pattern of the input voice (step 420)
6) If the search is successful (step 4207), the character string corresponding to the matched voice pattern is output to the computer 1501 (step 4208), and if the search is not successful (step 4207), the recognition is unrecognizable. Calculator 1
It is output to 501 (step 4209).

【0028】上述したように、本実施例においては、プ
ラントに設置したセンサー(音声入力者の経路上に複数
設置した)を用いて、音声入力者の位置をプラントに設
けたX,Y座標で検出することにより、現在位置付近に
ある機器を特定する。さらに、これを基に、系統・機器
の機能階層として、あらかじめ作成した部分辞書に優先
度を付け、音声認識処理に当たって、この優先度に基づ
いて機能階層で分割された部分辞書を切り換える。これ
により、細かく分割した部分辞書を用いて効率的な音声
認識が可能となり、認識率の向上及び認識時間の短縮を
図ることができる。また、本実施例では、プラントの系
統・機器を機能階層として表現し、これに応じて部分辞
書を用意するので、プラント保守に際して、使用頻度の
高い単語を効率良く整理することが可能となる。これに
より、部分辞書の構築を容易とし、かつ、音声入力時の
部分辞書の選択及び音声認識を効率化できる。
As described above, in this embodiment, the sensor installed in the plant (a plurality of sensors are installed on the voice input person's path) is used to determine the position of the voice input person by the X and Y coordinates provided in the plant. By detecting, the device near the current position is specified. Further, based on this, as a function hierarchy of the system / device, priorities are given to the partial dictionaries created in advance, and in the voice recognition processing, the partial dictionaries divided by the function hierarchy are switched based on this priority. As a result, efficient voice recognition can be performed by using the finely divided partial dictionary, and the recognition rate can be improved and the recognition time can be shortened. In addition, in the present embodiment, the system / equipment of the plant is expressed as a function hierarchy, and the partial dictionary is prepared accordingly, so that it is possible to efficiently organize frequently used words during plant maintenance. Thereby, the construction of the partial dictionary can be facilitated, and selection of the partial dictionary and voice recognition at the time of voice input can be made efficient.

【0029】図22は、本発明の第三の実施例に係るカ
ーナビゲーションシステムの音声認識装置を示す。本音
声認識装置は、位置検出部1021、辞書選択部122
1、音声認識辞書格納部1321、音声認識部142
1、計算機1521、表示部1722、マイク180
1、緯度と経度に対応して道路などの位置を示す地図の
図形データ及び都道府県市群名を格納しておく地図デー
タ1921から構成される。位置検出部1021は、全
地球航空測位システム(以後、GPSと略す。)を用
い、現在位置の緯度と経度を測定する。GPSは、アメ
リカが開発したシステムであり、地球周回軌道上に打ち
上げられた衛星群のうち、三個の衛星から電波を同時に
受信し、二次元の位置を測定する。身近なものとして
は、車のナビゲーションシステムにおいて表示装置に表
示された地図上に現在位置を表示するために用いられて
いる。因に、四個の衛星から電波を同時に受信すれば、
高度を含む三次元の位置が測定できることから、航空機
の自動操縦装置にも用いられている。辞書選択部122
1は、位置検出部1021からの位置座標、計算機15
21から得られる行き先の県名、地図データを基に、音
声認識辞書格納部1321の選択を行う。また、音声認
識装置1421からの信号により、辞書の切り換えを行
う。音声認識部1421は、マイク1801から入力さ
れる音声を、辞書選択部1221により選択された音声
認識辞書格納部1321内の辞書を用いて認識処理を行
う。辞書選択部1221により選択された辞書内に該当
する語がない場合は、辞書選択部1221に辞書の切り
換え信号を出力する。計算機1521は、音声認識部1
421からの認識結果を基に、辞書選択部1221への
目的位置の出力、地図データの表示部1722への表
示、現在位置から目的位置までの経路の探索などの処理
を行う。
FIG. 22 shows a voice recognition device of a car navigation system according to the third embodiment of the present invention. The voice recognition device includes a position detection unit 1021 and a dictionary selection unit 122.
1, voice recognition dictionary storage unit 1321, voice recognition unit 142
1, calculator 1521, display unit 1722, microphone 180
1. It is composed of map data 1921 in which graphic data of a map showing a position of a road or the like corresponding to latitude and longitude and a prefecture / city group name are stored. The position detection unit 1021 measures the latitude and longitude of the current position using a global aviation positioning system (hereinafter abbreviated as GPS). GPS is a system developed by the United States of America, which simultaneously receives radio waves from three satellites of a satellite group launched into an orbit around the earth and measures a two-dimensional position. As a familiar item, it is used to display the current position on a map displayed on a display device in a car navigation system. By the way, if radio waves are simultaneously received from four satellites,
Since it can measure three-dimensional position including altitude, it is also used in aircraft autopilots. Dictionary selection unit 122
1 is the position coordinates from the position detection unit 1021, and the computer 15
The voice recognition dictionary storage unit 1321 is selected based on the destination prefecture name and the map data obtained from 21. Further, the dictionary is switched by a signal from the voice recognition device 1421. The voice recognition unit 1421 performs a recognition process on the voice input from the microphone 1801 using the dictionary in the voice recognition dictionary storage unit 1321 selected by the dictionary selection unit 1221. When there is no corresponding word in the dictionary selected by the dictionary selection unit 1221, a dictionary switching signal is output to the dictionary selection unit 1221. The computer 1521 has a voice recognition unit 1
Based on the recognition result from 421, processing such as output of the target position to the dictionary selection unit 1221, display of map data on the display unit 1722, and search for a route from the current position to the target position is performed.

【0030】図23は、地図情報の表示部1722への
表示例を示す。図23の位置Pは現在位置であり、位置
検出部1021により緯度と経度が検出され、地図上に
表示される。
FIG. 23 shows a display example of the map information on the display unit 1722. The position P in FIG. 23 is the current position, and the latitude and longitude are detected by the position detection unit 1021 and displayed on the map.

【0031】図24は、第三の実施例に係る音声認識辞
書1321の構成を示す。音声認識辞書1321は、一
つの共通辞書と、複数の市群名別部分辞書から構成され
ており、共通辞書は毎回の認識処理において参照され
る。共通辞書(図29を参照)には、”音声パターンデ
ータ”とこの音声パターンデータに対応する”文字列”
が格納されている。また、市群名別部分辞書は、”市群
名”を格納する領域と”音声パターン”を格納する領域
から構成されており、音声パターンの領域には、”音声
パターンデータ”とこの音声パターンデータに対応す
る”文字列”が格納されている。
FIG. 24 shows the structure of the voice recognition dictionary 1321 according to the third embodiment. The voice recognition dictionary 1321 includes one common dictionary and a plurality of city group name-based partial dictionaries, and the common dictionary is referred to in each recognition process. In the common dictionary (see FIG. 29), "voice pattern data" and "character string" corresponding to this voice pattern data
Is stored. Further, the partial dictionary by city group name is composed of an area for storing "city group name" and an area for storing "voice pattern". In the voice pattern area, "voice pattern data" and this voice pattern are stored. The "character string" corresponding to the data is stored.

【0032】図25は、第三の実施例に係る辞書選択部
1221の処理を示す。辞書選択部1221は、位置検
出部1021より現在位置Pの緯度と経度を入力し(ス
テップ5001)、地図データ1921を参照して現在
位置Pの市群名を特定する(ステップ5002)。次い
で、市群名別部分辞書の市群名欄を順次参照し、特定さ
れた市群名と一致する市群名別部分辞書を検索し、ポイ
ンタ(図24を参照)を設定する(ステップ500
3)。
FIG. 25 shows the processing of the dictionary selection unit 1221 according to the third embodiment. The dictionary selection unit 1221 inputs the latitude and longitude of the current position P from the position detection unit 1021 (step 5001), and refers to the map data 1921 to identify the city group name of the current position P (step 5002). Next, the city group name column of the city group name-specific partial dictionary is sequentially referenced to search for the city group name-specific partial dictionary that matches the specified city group name, and the pointer (see FIG. 24) is set (step 500).
3).

【0033】図26は、第三の実施例に係る音声認識部
1421の処理を示す。音声認識部1421は、マイク
1801から入力があると(ステップ5101)、音声
認識部1421は音声を入力し(ステップ5102)、
音声認識辞書格納部1321を参照してポインタのつい
た部分辞書を選択して(ステップ5103)、入力され
た音声の音声パターンと一致する部分辞書の音声パター
ンを検索した後(ステップ5104)、一致した音声パ
ターンに対応する文字列を計算機1521に出力する
(ステップ5105)。
FIG. 26 shows the processing of the voice recognition unit 1421 according to the third embodiment. When the voice recognition unit 1421 receives an input from the microphone 1801 (step 5101), the voice recognition unit 1421 inputs a voice (step 5102),
After referring to the voice recognition dictionary storage unit 1321, selecting a partial dictionary with a pointer (step 5103), searching for a voice pattern of the partial dictionary that matches the voice pattern of the input voice (step 5104), and then matching The character string corresponding to the selected voice pattern is output to the computer 1521 (step 5105).

【0034】上述したように、本実施例においては、町
村名を音声入力した際、位置検出部により測定(緯度と
経度)した現在位置を基に、市群名を特定することによ
り、あらかじめ市群名別に作成した部分辞書を切り換え
て使用することが可能となり、また、状況の変化つまり
進行経路の変更が行われ、もしくは、進行経路に渋滞な
どの発生により、目的地までの所要時間が変化しても、
現在位置を基に市群名を特定することにより、あらかじ
め市群名別に分割した部分辞書を切り換えることが可能
となる。このように、音声入力者の状況に応じて、発話
の可能性の高い語を含む部分辞書を効率良く選択できる
ので、車のナビゲーションシステムの音声認識装置にお
いても認識率の向上及び認識時間の短縮が図れる。
As described above, in the present embodiment, when the name of a town or village is input by voice, the name of the city group is specified in advance based on the current position measured (latitude and longitude) by the position detection unit, so that the city group can be identified in advance. It is possible to switch and use partial dictionaries created by group name, and the time required to reach the destination changes due to changes in the situation, that is, changes in the traveling route, or due to congestion on the traveling route. Even if
By specifying the city group name based on the current position, it is possible to switch the partial dictionaries divided in advance by city group name. In this way, it is possible to efficiently select a partial dictionary containing words that are highly likely to be uttered according to the situation of the voice input person, so that the recognition rate is improved and the recognition time is shortened even in the voice recognition device of the car navigation system. Can be achieved.

【0035】図27は、本発明の第四の実施例に係るカ
ーナビゲーションシステムの音声認識装置を示す。本音
声認識装置は、位置検出部1021、辞書選択部123
1、音声認識辞書格納部1331、音声認識部143
1、計算機1531、表示部1722、マイク180
1、緯度と経度に対応して道路などの位置を示す地図の
図形データ及び都道府県市群名を格納しておく地図デー
タ1921から構成される。この構成において、辞書選
択部1231、音声認識辞書格納部1331、音声認識
部1431、計算機1531を除けば、第三の実施例と
同じである。音声認識部1431は、マイク1801か
ら入力される音声を、辞書選択部1231により選択さ
れた音声認識辞書格納部1331内の辞書を用いて認識
処理を行う。計算機1531は、音声認識部1431か
らの認識結果を基に、辞書選択部1231への目的位置
の出力、地図データの表示部1722への表示、現在位
置から目的位置までの経路の探索などの処理を行う。
FIG. 27 shows a voice recognition device of a car navigation system according to the fourth embodiment of the present invention. The voice recognition device includes a position detection unit 1021 and a dictionary selection unit 123.
1, voice recognition dictionary storage unit 1331, voice recognition unit 143
1, calculator 1531, display unit 1722, microphone 180
1. It is composed of map data 1921 in which graphic data of a map showing a position of a road or the like corresponding to latitude and longitude and a prefecture / city group name are stored. This configuration is the same as the third embodiment except for the dictionary selection unit 1231, the voice recognition dictionary storage unit 1331, the voice recognition unit 1431, and the computer 1531. The voice recognition unit 1431 performs a recognition process on the voice input from the microphone 1801 using the dictionary in the voice recognition dictionary storage unit 1331 selected by the dictionary selection unit 1231. The computer 1531 performs processing such as output of the target position to the dictionary selection unit 1231, display of map data on the display unit 1722, and search for a route from the current position to the target position, based on the recognition result from the voice recognition unit 1431. I do.

【0036】図28は、地図情報の表示部1722への
表示例を示す。図28の位置Pは現在位置であり、位置
検出部1021により緯度と経度が検出され、地図上に
表示される。
FIG. 28 shows a display example of the map information on the display unit 1722. The position P in FIG. 28 is the current position, and the latitude and longitude are detected by the position detection unit 1021 and displayed on the map.

【0037】図29は、第四の実施例に係る音声認識辞
書1331の構成を示す。音声認識辞書1331は、一
つの共通辞書と、複数の市群名別部分辞書から構成され
ている。共通辞書には、音声認識部1431が辞書を参
照する順番を示す”優先度”を格納する領域と”音声パ
ターン”を格納する領域から構成されている。音声パタ
ーンの領域には、”音声パターンデータ”とこの音声パ
ターンデータに対応する”文字列”が格納されている。
また、市群名別部分辞書は、”優先度”を格納する領
域、”市群名”を格納する領域、”音声パターン”を格
納する領域から構成されており、音声パターンの領域に
は、”音声パターンデータ”とこの音声パターンデータ
に対応する”文字列”が格納されている。
FIG. 29 shows the structure of a voice recognition dictionary 1331 according to the fourth embodiment. The voice recognition dictionary 1331 includes one common dictionary and a plurality of city group name-based partial dictionaries. The common dictionary includes an area for storing “priority” indicating the order in which the voice recognition unit 1431 refers to the dictionary and an area for storing “voice pattern”. In the voice pattern area, "voice pattern data" and "character string" corresponding to this voice pattern data are stored.
The city group name-based partial dictionary is composed of an area for storing “priority”, an area for storing “city group name”, and an area for storing “voice pattern”. The "voice pattern data" and the "character string" corresponding to this voice pattern data are stored.

【0038】図30は、第四の実施例に係る辞書選択部
1231の処理を示す。辞書選択部1231は、共通辞
書に優先度1を設定し(ステップ6001)、位置検出
部1021から現在位置Pの緯度と経度を入力する(ス
テップ6002)。次いで、地図データ1921を参照
して現在位置Pの市群名を特定し(ステップ600
3)、市群名別部分辞書の市群名欄を順次参照し、特定
された市群名と一致する市群名別部分辞書を検索し、優
先度2を設定する(ステップ6004)。次に、計算機
1531より、目的地(県名)を入力し、現在位置Pか
ら一番近い目的地(県名)との県境P’を求め(ステッ
プ6005)、直線P−P’が通過する市群名を現在位
置P側からP’に向けて順次検索し、検索された市群名
に対応する部分辞書に優先度(優先度3から)を設定す
る(ステップ6006)。辞書選択処理において、目的
地(県名)が計算機1531に未入力の時には、ステッ
プ6005〜6006は行わない。
FIG. 30 shows the processing of the dictionary selection unit 1231 according to the fourth embodiment. The dictionary selection unit 1231 sets a priority of 1 in the common dictionary (step 6001), and inputs the latitude and longitude of the current position P from the position detection unit 1021 (step 6002). Next, with reference to the map data 1921, the city group name of the current position P is specified (step 600).
3) The city group name column of the city group name-specific partial dictionary is sequentially referred to, the city group name-specific partial dictionary that matches the specified city group name is searched, and priority 2 is set (step 6004). Next, the destination (prefecture name) is input from the computer 1531, the prefectural border P'with the closest destination (prefecture name) from the current position P is obtained (step 6005), and the straight line PP 'passes. City group names are sequentially searched from the current position P side toward P ', and the priority (from priority 3) is set in the partial dictionary corresponding to the searched city group name (step 6006). In the dictionary selection process, when the destination (prefecture name) is not input to the computer 1531, steps 6005 to 6006 are not performed.

【0039】図31は、図28に示す地図において、目
的地(県名)の場合に、現在位置Pで辞書選択部123
1が辞書に優先度付けを行った結果を示す。毎回参照す
る辞書である共通辞書は優先度1、現在位置Pの市群名
に対応する部分辞書M県X市が優先度2、M県Y市、M
県Z市がそれぞれ優先度3、4が設定される。
FIG. 31 shows the dictionary selecting section 123 at the current position P in the case of the destination (prefecture name) in the map shown in FIG.
1 shows the result of prioritizing the dictionary. The common dictionary, which is a dictionary that is referred to each time, has a priority of 1, the partial dictionary corresponding to the city group name at the current position P has a priority of 2, a city of M prefectures, a Y city of M prefectures, and a M city of Y.
Prefecture Z city is set with priority 3 and 4, respectively.

【0040】図32は、第四の実施例に係る音声認識部
1431の処理を示す。音声認識部1431は、マイク
1801から入力があると(ステップ6101)、音声
認識部1431は音声を入力し(ステップ6102)、
音声認識辞書格納部1331を参照して優先度順に部分
辞書を選択して(ステップ6103)、入力された音声
の音声パターンと一致する部分辞書の音声パターンを検
索した後(ステップ6104)、一致した音声パターン
に対応する文字列を計算機1531に出力する(ステッ
プ6105)。
FIG. 32 shows the processing of the voice recognition unit 1431 according to the fourth embodiment. When the voice recognition unit 1431 receives an input from the microphone 1801 (step 6101), the voice recognition unit 1431 inputs a voice (step 6102),
After referring to the voice recognition dictionary storage unit 1331, the partial dictionaries are selected in order of priority (step 6103), the voice pattern of the partial dictionary that matches the voice pattern of the input voice is searched (step 6104), and then the voice patterns match. The character string corresponding to the voice pattern is output to the computer 1531 (step 6105).

【0041】上述したように、本実施例においては、町
村名を音声入力した際、位置検出部により測定(緯度と
経度)した現在位置を基にかつ/または目的地と現在位
置を基に、あらかじめ市群名別に作成した部分辞書に優
先度を付け、音声認識処理に当たって、この優先度に基
づいて部分辞書を切り換えることが可能である。このよ
うに、音声入力者の状況に応じて、発話の可能性の高い
語を含む部分辞書を効率良く選択できるので、車のナビ
ゲーションシステムの音声認識装置においても認識率の
向上及び認識時間の短縮が図れる。
As described above, in this embodiment, when the name of a town or village is input by voice, based on the current position measured (latitude and longitude) by the position detection unit and / or based on the destination and the current position, It is possible to give priority to partial dictionaries created in advance for each city group name, and switch the partial dictionaries based on this priority in the voice recognition process. In this way, it is possible to efficiently select a partial dictionary containing words that are highly likely to be uttered according to the situation of the voice input person. Therefore, even in the voice recognition device of the car navigation system, the recognition rate is improved and the recognition time is shortened. Can be achieved.

【0042】[0042]

【発明の効果】以上説明したように、本発明によれば、
音声認識辞書をあらかじめ部分辞書に分割して格納して
おき、音声入力者または車の位置を検出して、音声入力
者または車の位置を基に部分辞書を選択して、この選択
した辞書を用いて音声認識処理を行うので、全ての語を
一つの辞書に登録する場合に比べ、音声認識装置の認識
率向上及び認識時間の大幅な短縮が図れる。また、音声
入力者または車の位置を取り込み、優先度を採用して動
的に部分辞書を切り換えることにより、様々の状況変化
があった場合にも部分辞書を効率よく切り換えることが
可能であり、音声認識装置の認識率向上及び認識時間の
大幅な短縮が図れる。また、プラントの系統・機器を機
能階層として表現し、これに応じて部分辞書を用意する
ので、プラント保守に際して、使用頻度の高い単語を効
率良く整理することが可能となり、これにより、部分辞
書の構築を容易とし、かつ、音声入力時の部分辞書の選
択及び音声認識を効率化できる。また、本発明による音
声認識装置をプラント点検システム及びカーナビゲーシ
ョンシステムに利用することにより、それぞれ点検及び
ナビゲーションの効率向上が図られ、ひいてはプラント
の安全性の向上及び車の操縦性の向上が得られる。
As described above, according to the present invention,
The voice recognition dictionary is divided into partial dictionaries and stored in advance.The position of the voice input person or car is detected, and the partial dictionary is selected based on the position of the voice input person or car. Since the voice recognition process is performed by using it, the recognition rate of the voice recognition device can be improved and the recognition time can be significantly shortened as compared with the case where all words are registered in one dictionary. Also, by taking in the position of the voice input person or the car, and adopting the priority to dynamically switch the partial dictionaries, it is possible to efficiently switch the partial dictionaries even when various situations change, The recognition rate of the voice recognition device can be improved and the recognition time can be greatly shortened. In addition, the system / equipment of the plant is expressed as a function hierarchy, and partial dictionaries are prepared in accordance with this, so it is possible to efficiently organize frequently used words during plant maintenance. The construction can be facilitated, and the selection of the partial dictionary and the voice recognition at the time of voice input can be made efficient. Further, by using the voice recognition device according to the present invention for a plant inspection system and a car navigation system, the efficiency of inspection and navigation can be improved respectively, and thus the safety of the plant and the maneuverability of the vehicle can be improved. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第一の実施例に係るプラント点検シス
テムの音声認識装置の構成図。
FIG. 1 is a configuration diagram of a voice recognition device of a plant inspection system according to a first embodiment of the present invention.

【図2】第一の実施例に係るプラント現場の模式図。FIG. 2 is a schematic diagram of a plant site according to the first embodiment.

【図3】第一の実施例に係るセンサー設置位置データ。FIG. 3 is sensor installation position data according to the first embodiment.

【図4】点検経路データ。FIG. 4 Inspection route data.

【図5】第一の実施例に係る位置検出部の処理。FIG. 5 is a process of the position detection unit according to the first embodiment.

【図6】第一の実施例に係る音声認識辞書(部分辞書)
の構成図。
FIG. 6 is a voice recognition dictionary (partial dictionary) according to the first embodiment.
Configuration diagram of.

【図7】第一の実施例に係る部分辞書選択部の処理。FIG. 7 is a process of a partial dictionary selection unit according to the first embodiment.

【図8】第一の実施例に係る音声認識処理。FIG. 8 is a voice recognition process according to the first embodiment.

【図9】点検記録格納部。FIG. 9 is an inspection record storage unit.

【図10】CRTの表示例。FIG. 10 is a display example of a CRT.

【図11】携帯ディスプレイの表示例。FIG. 11 is a display example of a mobile display.

【図12】本発明の第二の実施例に係るプラント点検シ
ステムの音声認識装置の構成図。
FIG. 12 is a configuration diagram of a voice recognition device of a plant inspection system according to a second embodiment of the present invention.

【図13】第二の実施例に係るプラント現場の模式図。FIG. 13 is a schematic diagram of a plant site according to a second embodiment.

【図14】第二の実施例に係るセンサー設置位置デー
タ。
FIG. 14 is sensor installation position data according to the second embodiment.

【図15】第二の実施例に係る機器設置位置データ。FIG. 15 is device installation position data according to the second embodiment.

【図16】第二の実施例に係る位置検出部の処理。FIG. 16 is a process of the position detection unit according to the second embodiment.

【図17】第二の実施例に係る音声認識辞書の構成。FIG. 17 is a configuration of a voice recognition dictionary according to a second embodiment.

【図18】第二の実施例に係る部分辞書の構成。FIG. 18 is a configuration of a partial dictionary according to the second embodiment.

【図19】第二の実施例に係る部分辞書の優先度付けの
例。
FIG. 19 is an example of prioritizing partial dictionaries according to the second embodiment.

【図20】第二の実施例に係る部分辞書の優先度付けの
処理
FIG. 20 is a process of prioritizing partial dictionaries according to the second embodiment.

【図21】第二の実施例に係る音声認識処理。FIG. 21 is a voice recognition process according to the second embodiment.

【図22】第三の実施例に係るカーナビゲーションシス
テムの音声認識装置の構成図。
FIG. 22 is a configuration diagram of a voice recognition device of a car navigation system according to a third embodiment.

【図23】第三の実施例に係る地図情報の表示例。FIG. 23 is a display example of map information according to the third embodiment.

【図24】第三の実施例に係る音声認識辞書の構成。FIG. 24 is a configuration of a voice recognition dictionary according to a third embodiment.

【図25】第三の実施例に係る辞書選択部の処理。FIG. 25 is a process of the dictionary selection unit according to the third embodiment.

【図26】第三の実施例に係る音声認識処理。FIG. 26 is a voice recognition process according to the third embodiment.

【図27】第四の実施例に係るカーナビゲーションシス
テムの音声認識装置の構成図。
FIG. 27 is a configuration diagram of a voice recognition device of a car navigation system according to a fourth embodiment.

【図28】第四の実施例に係る地図情報の表示例。FIG. 28 is a display example of map information according to the fourth embodiment.

【図29】第四の実施例に係る音声認識辞書の構成。FIG. 29 is a configuration of a voice recognition dictionary according to the fourth embodiment.

【図30】第四の実施例に係る辞書選択部の処理。FIG. 30 is a process of the dictionary selection unit according to the fourth embodiment.

【図31】第四の実施例に係る辞書の優先度付けの例。FIG. 31 is an example of prioritizing a dictionary according to the fourth embodiment.

【図32】第四の実施例に係る音声認識処理。FIG. 32 is a voice recognition process according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

1001、1011、1021 位置検出部 1002〜1006 音声認識者の通過を検出するセン
サー 1012〜1019 距離センサー 1101、1111 プラント情報格納部 1201、1211 部分辞書選択部 1221、1231 辞書選択部 1301、1311、1321、1331 音声認識辞
書(部分辞書)格納部 1401、1411、1421、1431 音声認識部 1501、1521、1531 計算機 1502 点検記録格納部 1503 CRT 1504 プリンタ 1601 送受信部(固定局) 1602 送受信部(移動局) 1701 携帯ディスプレイ 1711〜1715 携帯ディスプレイの表示画面例 1722 表示部 1801 マイク 1921 地図データ
1001, 1011, 1021 Position detection unit 1002-1006 Sensor for detecting passage of voice recognizer 1012-1019 Distance sensor 1101, 1111 Plant information storage unit 1201, 1211 Partial dictionary selection unit 1221, 1231 Dictionary selection unit 1301, 1311, 1321 , 1331 voice recognition dictionary (partial dictionary) storage unit 1401, 1411, 1421, 1431 voice recognition unit 1501, 1521, 1531 computer 1502 inspection record storage unit 1503 CRT 1504 printer 1601 transceiver unit (fixed station) 1602 transceiver unit (mobile station) 1701 mobile display 1711 to 1715 display screen example of mobile display 1722 display unit 1801 microphone 1921 map data

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G01D 21/00 G01D 21/00 Q G01S 5/02 G01S 5/02 Z // G01C 21/00 G01C 21/00 H ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G01D 21/00 G01D 21/00 Q G01S 5/02 G01S 5/02 Z // G01C 21/00 G01C 21/00 H

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 音声パターンの辞書をあらかじめ部分辞
書に分割し、該部分辞書を切り換えて使用し、入力音声
の認識を実施する音声認識装置において、音声入力者の
位置に基づき、使用する前記部分辞書を選択し、当該部
分辞書と入力された音声パターンを比較して入力された
語を認識することを特徴とする音声認識装置。
1. A voice recognition device that divides a voice pattern dictionary into partial dictionaries in advance and uses the partial dictionaries by switching the partial dictionaries to recognize an input voice, wherein the portion to be used is based on the position of a voice input person. A voice recognition device characterized by selecting a dictionary, comparing the input voice pattern with the partial dictionary, and recognizing the input word.
【請求項2】 音声パターンの辞書をあらかじめ部分辞
書に分割し、該部分辞書を切り換えて入力音声の認識を
実施する音声認識装置において、音声入力者の位置を取
り込む位置検出手段と、前記音声入力者の位置に基づい
て前記部分辞書を切り換える部分辞書選択手段と、選択
された部分辞書と入力された音声パターンを比較して、
入力された語を認識する音声認識手段を有することを特
徴とする音声認識装置。
2. A voice recognition device that divides a voice pattern dictionary into partial dictionaries in advance and switches the partial dictionaries to recognize an input voice, and position detection means for capturing the position of a voice input person, and the voice input. The partial dictionary selecting means for switching the partial dictionary based on the position of the person, and comparing the selected partial dictionary with the input voice pattern,
A voice recognition device comprising voice recognition means for recognizing an input word.
【請求項3】 請求項1または請求項2において、プラ
ントの現場点検システムであって、音声パターンの部分
辞書は、音声入力者の位置データと、プラント点検経路
データかつ/または点検項目データとからプラント点検
の対象となっている系統かつ/または機器が特定され、
該特定された点検対象の系統かつ/または機器に基づい
て切り換えられることを特徴とする音声認識装置。
3. The on-site inspection system for a plant according to claim 1 or 2, wherein the partial dictionary of voice patterns comprises position data of a voice input person and plant inspection route data and / or inspection item data. The system and / or equipment covered by the plant inspection has been identified,
A voice recognition device, which is switched based on the specified system and / or device to be inspected.
【請求項4】 請求項3において、音声入力者の位置デ
ータは、プラントの現場を形成する各系統間のゲートか
つ/またはプラント機器の付近に設置した検出手段から
得ることを特徴とする音声認識装置。
4. The voice recognition according to claim 3, wherein the position data of the voice input person is obtained from a detection means installed near the gate between each system forming the plant site and / or the plant equipment. apparatus.
【請求項5】 請求項1または請求項2において、プラ
ントの現場点検システムであって、音声パターンの部分
辞書は、音声入力者の位置データとプラント機器の配置
データとからプラント点検の対象となっている系統かつ
/または機器が特定され、該特定された点検対象の系統
かつ/または機器に基づいて切り換えられることを特徴
とする音声認識装置。
5. The plant inspection system according to claim 1 or 2, wherein the partial dictionary of voice patterns is a target of plant inspection based on position data of a voice input person and arrangement data of plant equipment. A voice recognition device characterized in that a system and / or a device in use is specified, and switching is performed based on the specified system and / or device to be inspected.
【請求項6】 請求項5において、プラント現場に位置
座標を設定し、音声入力者の位置データは、プラント点
検経路の任意の位置に設置した検出手段の設置位置の座
標から得、プラント機器の配置データは、前記機器を設
置した設置位置の座標から得ることを特徴とする音声認
識装置。
6. The plant according to claim 5, wherein the position coordinates are set at the plant site, and the position data of the voice input person is obtained from the coordinates of the installation position of the detection means installed at an arbitrary position on the plant inspection route, The arrangement data is obtained from the coordinates of the installation position where the device is installed.
【請求項7】 請求項5において、音声パターンの部分
辞書は、プラントの系統かつ/または機器を機能階層と
して表現し、かつ/または、優先度を付けて作成するこ
とを特徴とする音声認識装置。
7. The voice recognition device according to claim 5, wherein the partial dictionary of voice patterns is created by expressing a system and / or equipment of a plant as a functional hierarchy and / or giving priority to the system. .
【請求項8】 音声パターンの辞書をあらかじめ部分辞
書に分割し、該部分辞書を切り換えて入力音声の認識を
実施する音声認識装置において、カーナビゲーションシ
ステムであって、車の現在位置を取り込む位置検出手段
と、前記車の現在位置に基づいて、地図データを参照し
ながら、前記部分辞書を切り換える部分辞書選択手段
と、選択された部分辞書と入力された音声パターンを比
較して、入力された語を認識する音声認識手段を有する
ことを特徴とする音声認識装置。
8. A voice recognition device that divides a voice pattern dictionary into partial dictionaries in advance and switches the partial dictionaries to recognize an input voice, which is a car navigation system and detects a position of a current position of a vehicle. Means and the partial dictionary selecting means for switching the partial dictionary while referring to the map data based on the current position of the vehicle, and the selected partial dictionary and the input voice pattern are compared, and the input word is input. A voice recognition device having voice recognition means for recognizing.
【請求項9】 音声パターンの辞書をあらかじめ部分辞
書に分割し、該部分辞書を切り換えて入力音声の認識を
実施する音声認識装置において、カーナビゲーションシ
ステムであって、車の現在位置を取り込む位置検出手段
と、前記車の現在位置に基づいて、地図データを参照し
ながら、目的地に至るまでの前記部分辞書に優先度を設
定すると共に、前記部分辞書を切り換える部分辞書選択
手段と、優先度順に選択された部分辞書と入力された音
声パターンを比較して、入力された語を認識する音声認
識手段を有することを特徴とする音声認識装置。
9. A voice recognition device for dividing a voice pattern dictionary into partial dictionaries in advance and switching the partial dictionaries to recognize an input voice, which is a car navigation system and detects a position of a current position of a vehicle. Means, based on the current position of the vehicle, while referring to map data, sets a priority in the partial dictionary up to the destination, and selects partial dictionary selecting means for switching the partial dictionary, and in order of priority. A voice recognition device comprising voice recognition means for recognizing an input word by comparing a selected partial dictionary with an input voice pattern.
【請求項10】 請求項9において、音声パターンの辞
書は、一つの共通辞書と複数の部分辞書から構成し、共
通辞書に最も高い優先度を設定することを特徴とする音
声認識装置。
10. The voice recognition device according to claim 9, wherein the voice pattern dictionary includes one common dictionary and a plurality of partial dictionaries, and the highest priority is set in the common dictionary.
JP7148287A 1995-05-23 1995-05-23 Speech recognition device Pending JPH08320697A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7148287A JPH08320697A (en) 1995-05-23 1995-05-23 Speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7148287A JPH08320697A (en) 1995-05-23 1995-05-23 Speech recognition device

Publications (1)

Publication Number Publication Date
JPH08320697A true JPH08320697A (en) 1996-12-03

Family

ID=15449402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7148287A Pending JPH08320697A (en) 1995-05-23 1995-05-23 Speech recognition device

Country Status (1)

Country Link
JP (1) JPH08320697A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312193A (en) * 1997-05-12 1998-11-24 Nissan Motor Co Ltd Speech input device
JPH113093A (en) * 1997-06-11 1999-01-06 Hitachi Ltd Recognizing method and device for voice data
JPH1138994A (en) * 1997-07-17 1999-02-12 Denso Corp Voice recognition system and navigation system
JPH11125533A (en) * 1997-10-21 1999-05-11 Sony Corp Device and method for navigation
JPH11237892A (en) * 1998-02-24 1999-08-31 Clarion Co Ltd Device and method for control by speech recognition and storage medium recording program for control by speech voice recognition
JP2000057490A (en) * 1998-08-06 2000-02-25 Fujitsu Ten Ltd Navigation device
JP2001125592A (en) * 1999-05-31 2001-05-11 Nippon Telegr & Teleph Corp <Ntt> Speech interactive information retrieval method and device for large-scale information database, and recording medium
JP2001171934A (en) * 1999-12-21 2001-06-26 Hitachi Building Systems Co Ltd Maintenance work supporting method and its device
JP2002261790A (en) * 2001-02-28 2002-09-13 Toshiba Corp Onboard network system as vehicle platform
JP2002372986A (en) * 2002-05-09 2002-12-26 Denso Corp Voice recognizing device and navigation system
JP2004102509A (en) * 2002-09-06 2004-04-02 Ziosoft Inc Medical document preparation support device and its program
US6885990B1 (en) 1999-05-31 2005-04-26 Nippon Telegraph And Telephone Company Speech recognition based on interactive information retrieval scheme using dialogue control to reduce user stress
KR100532533B1 (en) * 2001-11-02 2005-12-02 마쯔시다덴기산교 가부시키가이샤 Channel Selection Device by Voice Recognition and Control Method thereof
JP2007248523A (en) * 2006-03-13 2007-09-27 Denso Corp Voice recognition apparatus and navigation system
JP2008197338A (en) * 2007-02-13 2008-08-28 Denso Corp Speech recognition device
JP2008309865A (en) * 2007-06-12 2008-12-25 Fujitsu Ten Ltd Voice recognition device and voice recognition method
JP2010183289A (en) * 2009-02-04 2010-08-19 Seiko Epson Corp Mobile terminal and management system
JP2011215175A (en) * 2010-03-31 2011-10-27 Alpine Electronics Inc In-vehicle electronic device and voice recognition dictionary generation method of musical data therefor
JP4855421B2 (en) * 2005-12-14 2012-01-18 三菱電機株式会社 Voice recognition device
US9293132B2 (en) 2014-08-06 2016-03-22 Honda Motor Co., Ltd. Dynamic geo-fencing for voice recognition dictionary
JP2020067788A (en) * 2018-10-24 2020-04-30 パナソニックIpマネジメント株式会社 Operation inputting method, operation inputting system and operation terminal
JP2021189502A (en) * 2020-05-25 2021-12-13 Mintomo株式会社 Voice inspection data storage method, system and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312193A (en) * 1997-05-12 1998-11-24 Nissan Motor Co Ltd Speech input device
JPH113093A (en) * 1997-06-11 1999-01-06 Hitachi Ltd Recognizing method and device for voice data
JPH1138994A (en) * 1997-07-17 1999-02-12 Denso Corp Voice recognition system and navigation system
JPH11125533A (en) * 1997-10-21 1999-05-11 Sony Corp Device and method for navigation
JPH11237892A (en) * 1998-02-24 1999-08-31 Clarion Co Ltd Device and method for control by speech recognition and storage medium recording program for control by speech voice recognition
JP2000057490A (en) * 1998-08-06 2000-02-25 Fujitsu Ten Ltd Navigation device
US6885990B1 (en) 1999-05-31 2005-04-26 Nippon Telegraph And Telephone Company Speech recognition based on interactive information retrieval scheme using dialogue control to reduce user stress
JP2001125592A (en) * 1999-05-31 2001-05-11 Nippon Telegr & Teleph Corp <Ntt> Speech interactive information retrieval method and device for large-scale information database, and recording medium
JP2001171934A (en) * 1999-12-21 2001-06-26 Hitachi Building Systems Co Ltd Maintenance work supporting method and its device
JP2002261790A (en) * 2001-02-28 2002-09-13 Toshiba Corp Onboard network system as vehicle platform
KR100532533B1 (en) * 2001-11-02 2005-12-02 마쯔시다덴기산교 가부시키가이샤 Channel Selection Device by Voice Recognition and Control Method thereof
JP2002372986A (en) * 2002-05-09 2002-12-26 Denso Corp Voice recognizing device and navigation system
JP2004102509A (en) * 2002-09-06 2004-04-02 Ziosoft Inc Medical document preparation support device and its program
JP4855421B2 (en) * 2005-12-14 2012-01-18 三菱電機株式会社 Voice recognition device
US8112276B2 (en) 2005-12-14 2012-02-07 Mitsubishi Electric Corporation Voice recognition apparatus
JP2007248523A (en) * 2006-03-13 2007-09-27 Denso Corp Voice recognition apparatus and navigation system
JP2008197338A (en) * 2007-02-13 2008-08-28 Denso Corp Speech recognition device
JP2008309865A (en) * 2007-06-12 2008-12-25 Fujitsu Ten Ltd Voice recognition device and voice recognition method
US8612221B2 (en) 2009-02-04 2013-12-17 Seiko Epson Corporation Portable terminal and management system
JP2010183289A (en) * 2009-02-04 2010-08-19 Seiko Epson Corp Mobile terminal and management system
JP2011215175A (en) * 2010-03-31 2011-10-27 Alpine Electronics Inc In-vehicle electronic device and voice recognition dictionary generation method of musical data therefor
US9293132B2 (en) 2014-08-06 2016-03-22 Honda Motor Co., Ltd. Dynamic geo-fencing for voice recognition dictionary
JP2020067788A (en) * 2018-10-24 2020-04-30 パナソニックIpマネジメント株式会社 Operation inputting method, operation inputting system and operation terminal
JP2021189502A (en) * 2020-05-25 2021-12-13 Mintomo株式会社 Voice inspection data storage method, system and program

Similar Documents

Publication Publication Date Title
JPH08320697A (en) Speech recognition device
US5359527A (en) Navigation system for vehicle
US6064323A (en) Navigation apparatus, navigation method and automotive vehicles
EP0767358B1 (en) Vehicle navigation system
JP4063731B2 (en) Information processing apparatus, system thereof, method thereof, program thereof, and recording medium recording the program
US20090306989A1 (en) Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device
US7668647B2 (en) Computer method and apparatus for filling in an entry field using geographical proximity and character criteria
US7599791B2 (en) Spot searching device, navigation apparatus, spot searching method, spot searching program, and information recording medium having spot searching program
US20060047423A1 (en) Navigation system and method for detecting deviation of mobile objects from route using same
US20050010360A1 (en) Navigation apparatus, navigation system, and navigation search method
EP0788084A1 (en) Navigation system for vehicles and waypoint entering and storage method
EP1995557A1 (en) Position registration device, route search device, position registration method, position registration program, and recording medium
JPH09264750A (en) Navigation apparatus
US5414629A (en) Navigation system with route determination process capable of determining a desired route readily and correctly
EP1995558B1 (en) Position registration device, route search device, position registration method, position registration program, and recording medium
US20100241627A1 (en) Information retrieval apparatus
JP4409904B2 (en) Route information providing system and route information providing method
US20070208508A1 (en) Navigation system having function of branch road guidance based on running road, and method thereof
JPH0764480A (en) Voice recognition device for on-vehicle processing information
JP3389693B2 (en) Route guidance device for vehicles
KR101195896B1 (en) operating method of navigation apparatus using optical sensor
EP0346483A1 (en) Navigation unit
EP1258851B1 (en) Navigation apparatus
KR0167045B1 (en) Apparatus for examining the digital map using a car
US20040034468A1 (en) Navigation device and system and method for trasmitting facility information