JPH09114579A - Pointing calling confirmation system - Google Patents

Pointing calling confirmation system

Info

Publication number
JPH09114579A
JPH09114579A JP27392095A JP27392095A JPH09114579A JP H09114579 A JPH09114579 A JP H09114579A JP 27392095 A JP27392095 A JP 27392095A JP 27392095 A JP27392095 A JP 27392095A JP H09114579 A JPH09114579 A JP H09114579A
Authority
JP
Japan
Prior art keywords
voice
screen
pointing
graphic
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27392095A
Other languages
Japanese (ja)
Inventor
Yoshiyo Takahashi
佳代 高橋
Atsuhiko Nishikawa
敦彦 西川
Hiroshi Kobayashi
博 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP27392095A priority Critical patent/JPH09114579A/en
Publication of JPH09114579A publication Critical patent/JPH09114579A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To lighten the burden on an operator who answers whether or not screen operation is proper or improper by automatically judging the confirmation of the screen operation by pointing calling as to a monitor and control system to which a voice input device and a pointing device are connected. SOLUTION: A terminal controller 12 has a speech recognition part 21, a touch sensor detection part 24, and a process decision part 27 and the speech recognition part 21 has a voice input buffer 22 and a voice input information management table 23; when a figure on a screen is selected with a pointing device such as a touch screen, the words voiced by the operator are compared with words registered previously in the voice input information management table 23 to answer whether the operator's operation is proper or improper.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、指差呼称確認シス
テムにかかり、特に声認識を有する音声入力装置とポイ
ンティングデバイスを有し指差呼称を行いながら画面の
オペレーションを行う監視制御システムに好適な指差呼
称確認システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pointing and pointing confirmation system, and in particular, it is suitable for a supervisory control system having a voice input device having a voice recognition and a pointing device and operating a screen while pointing and calling. The present invention relates to a pointing and calling confirmation system.

【0002】[0002]

【従来の技術】近年のプラントの監視制御システムにお
いては、プラントの起動・停止および各種制御パラメー
タの設定をディスプレイ装置と入力デバイスからなるC
RT装置によって行う。このようにCRT装置を用いる
ことにより、簡単な操作で上記プラント運転が可能とな
り、プラント監視制御システムの省力化に寄与するとこ
ろが大きい。しかし、簡単な操作は、逆に操作員の思い
違いや誤認識によって、誤操作を招きやすいという欠点
を持っている。そこで、通常は上記誤操作を防止するた
めに、指差呼称、すなわち、画面上に表示されている図
形を指し示しながら操作内容を発声することにより操作
員自身または、共同で作業している他の操作員の確認を
得られるようにしている。
2. Description of the Related Art In a recent plant supervisory control system, the start / stop of the plant and the setting of various control parameters are controlled by a display device and an input device.
Performed by RT device. By using the CRT device as described above, the plant operation can be performed by a simple operation, and it largely contributes to the labor saving of the plant monitoring control system. However, the simple operation has a drawback that an erroneous operation is likely to occur due to an operator's misunderstanding and erroneous recognition. Therefore, in order to prevent the above-mentioned erroneous operation, usually, the pointing operation, that is, the operator himself or another operation in which he / she is working jointly by uttering the operation content while pointing at the figure displayed on the screen. I am trying to get confirmation from the staff.

【0003】上記の指差呼称の確認を計算機にて自動化
できれば、操作の信頼性の向上および省力化に貢献する
ことができる。
If the above-mentioned confirmation of pointing and pointing can be automated by a computer, it is possible to contribute to improvement of operation reliability and labor saving.

【0004】これらに関する公知例としては、特開平3
−175477 号公報などがある。
As a publicly known example relating to these, Japanese Patent Laid-Open No.
-175477 publication.

【0005】[0005]

【発明が解決しようとする課題】上記のように音声認識
技術を用いて、プラント監視制御システムを構築する場
合の問題点としては、以下の2点がある。
Problems to be solved when constructing a plant monitoring control system by using the voice recognition technology as described above include the following two points.

【0006】ひとつは、現状の音声認識技術では、ある
確率で誤認識が発生する問題であり、誤操作が多大な影
響を与えるプラント監視制御システムでの適用を阻害す
る要因となっている。
[0006] First, in the current voice recognition technology, there is a problem that erroneous recognition occurs at a certain probability, which is a factor that hinders its application in a plant monitoring control system where erroneous operation has a great influence.

【0007】もうひとつの問題は、音声認識を行うため
の処理量が大きく、リアルタイムで操作することが必要
なプラント監視制御システムでは、より高速かつ高性能
のハードウェアが必要になる。
Another problem is that a plant monitoring and control system that requires a large amount of processing for voice recognition and requires real-time operation requires higher-speed and higher-performance hardware.

【0008】本発明の目的は、高信頼でかつ処理量の小
さい指差呼称確認システムを提供することにある。
An object of the present invention is to provide a pointing and calling confirmation system with high reliability and small processing amount.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
の本発明の特徴は、音声入力手段とポインティング入力
手段と図形の表示手段を有し、音声入力データを時系列
に符号化して蓄積する音声バッファと表示中の図形情報
を格納する図形情報テーブルと上記図形情報テーブルは
関連する音声データテーブルを有し、上記図形情報テー
ブルは、ポインティングにより図形が選択されたときに
行う処理が格納されている次動作リストを有し、ポイン
ティングされた図形に関連する前記音声データテーブル
を索引し、前記音声バッファ中の音声データと一致判定
した結果を前記次動作リストの内容により、音声または
表示図形で出力することにある。
A feature of the present invention for achieving the above object is that it has voice input means, pointing input means, and graphic display means, and stores voice input data in time series by encoding. The graphic information table for storing the graphic information in the voice buffer and the graphic information table has an associated voice data table, and the graphic information table stores the processing performed when the graphic is selected by pointing. Which has a next operation list, which indexes the audio data table associated with the pointed graphic, and outputs the result of the judgment of the coincidence with the audio data in the audio buffer as a voice or a display graphic according to the contents of the next operation list. To do.

【0010】また、ポインティングされた図形に関連す
る前記音声データテーブルの内容とポインティングされ
た時刻の前後一定時間内の前記音声バッファの内容とを
一致判定することにある。
Further, the content of the voice data table relating to the pointed figure and the content of the voice buffer within a certain time before and after the pointed time may be determined to be coincident with each other.

【0011】すなわち、プラント監視制御システムで
は、操作員が選択する画面上の図形、及び操作員が画面
上の図形を選択する際に呼称する言葉が必然と決まって
くる。そのため、音声認識のために操作員が呼称すべき
言葉のみをシステムに登録することで、語彙数を少なく
押さえることができる。
That is, in the plant monitoring and control system, the figure on the screen selected by the operator and the words to be called when the operator selects the figure on the screen are inevitably determined. Therefore, the number of vocabularies can be reduced by registering only the words that the operator should call for voice recognition in the system.

【0012】また、画面上の図形とそれに対応する操作
員が発生すべき音声とを結びつけたリストを予めシステ
ムに登録しておくことで、操作員が画面上の図形が選択
したとき、予め登録された言葉が操作員により発せられ
たか比較し、その結果を応答することにより、操作員の
操作確認ができる。
Further, by registering in advance a list in which the graphic on the screen and the voice corresponding to the graphic are to be associated with the system, it is registered in advance when the graphic on the screen is selected by the operator. The operator's operation can be confirmed by comparing whether the said word was uttered by the operator and responding the result.

【0013】本方式によれば、操作員が画面上の図形を
選択する際に呼称する言葉のみをシステムに登録するた
め、通常の音声認識に必要な容量より少なく押さえるこ
とができ、また、指差呼称時に予め登録された言葉が操
作員により発せられたか否か、判断すればよく、音声認
識のための処理量が削減できる。
According to this method, since only the words to be called when the operator selects a figure on the screen are registered in the system, it is possible to reduce the capacity less than that required for normal voice recognition, and to use the finger. It is only necessary to determine whether or not the operator has issued a pre-registered word at the time of the differential call, and the processing amount for voice recognition can be reduced.

【0014】さらに、操作員が画面上の図形を選択した
とき、予め登録された言葉が操作員により発せられたか
否かを比較し、その結果を応答するため、複数の操作員
で行っていた操作確認を一人でできるようになる。
Further, when the operator selects a figure on the screen, it is performed by a plurality of operators in order to compare whether or not a pre-registered word is uttered by the operator and respond the result. You can check the operation by yourself.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施例を図を用い
て説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0016】図1は、本発明の実施例のシステム構成を
示す。入力デバイスや画面表示の入出力を制御する端末
コントローラ12は、操作員が画面を直接タッチし入力
するタッチスクリーン11とタッチスクリーンが付加さ
れた画面を表示するディスプレイ装置15とオペレータ
の音声情報を入力する音声入力装置13と音声情報や警
告音を出力する音声出力装置14が接続されている。
FIG. 1 shows the system configuration of an embodiment of the present invention. The terminal controller 12 that controls input / output of the input device and the screen display inputs the touch screen 11 for the operator to directly touch and input the screen, the display device 15 for displaying the screen to which the touch screen is added, and the voice information of the operator. A voice input device 13 for outputting and voice output device 14 for outputting voice information and a warning sound are connected.

【0017】タッチスクリーン11のタッチ入力によっ
て選択された図形と音声入力装置13から予め決められ
た音声情報が入力されたときに初めて図形が選択された
ときの処理を実行、例えば新しい画面の表示を行い、不
一致のときに音声出力装置14より警告音を出力する。
When the figure selected by touch input on the touch screen 11 and the predetermined voice information from the voice input device 13 are input, the processing when the figure is first selected is executed, for example, a new screen is displayed. If there is a mismatch, the audio output device 14 outputs a warning sound.

【0018】図2は、端末コントローラ12の内部構成
を示す。音声入力装置13からの音声データをA/D変
換後音声分析された音声データが格納される音声入力バ
ッファ22と予め登録音声データが格納されている音声
入力情報管理テーブル23からなる音声認識部21,画
面表示図形と図形領域が格納されているタッチ位置管理
テーブル25とタッチ入力があったときにタッチスクリ
ーン11から送られてきた入力座標(x,y)により操
作員が選択した図形を判定するタッチセンサー検出部2
4,タイマ26,音声認識部21とタッチセンサー検出
部24から送られてきた情報により次に実行すべき処理
を判定する処理判定部27,音声入力情報の復唱や警告
音を発生する音声出力部28,図形を表示する画像表示
制御部29からなる。
FIG. 2 shows the internal structure of the terminal controller 12. A voice recognition unit 21 including a voice input buffer 22 that stores voice data obtained by A / D converting voice data from the voice input device 13 and a voice input information management table 23 that stores registered voice data in advance. , The touch position management table 25 in which the screen display graphic and the graphic area are stored and the graphic selected by the operator are determined based on the input coordinates (x, y) sent from the touch screen 11 when a touch input is made. Touch sensor detector 2
4, a timer 26, a process determination unit 27 that determines the process to be executed next based on the information sent from the voice recognition unit 21 and the touch sensor detection unit 24, a voice output unit that repeats voice input information and generates a warning sound 28, and an image display controller 29 for displaying a figure.

【0019】図3は、タッチセンサー検出部24のタッ
チ位置管理テーブルを示す。タッチ位置管理テーブル2
5は、画面毎にテーブル情報を持ち、画面No.,画面に
描画され操作員が選択すべき図形の図形No.とその図形
の表示領域から成る。ここで登録されている図形の表示
領域は、図形の(x,y)、幅,高さから成り、タッチ
入力時の視差により実際の図形よりタッチ位置が多少外
れても図形を認識するよう、実際の図形表示位置,サイ
ズより多少大きめな有効領域の値が格納されている。
FIG. 3 shows a touch position management table of the touch sensor detector 24. Touch position management table 2
5 has table information for each screen, and is composed of a screen No., a graphic No. of a graphic drawn on the screen to be selected by the operator, and a display area of the graphic. The display area of the graphic registered here consists of (x, y), width, and height of the graphic, so that the graphic can be recognized even if the touch position is slightly deviated from the actual graphic due to parallax at the time of touch input. The value of the effective area which is slightly larger than the actual figure display position and size is stored.

【0020】複数の図形が描画されている画面31が表
示されている際、操作員のタッチスクリーン11へのタ
ッチ入力により、例えば画面31に描画されている図形
32が選択されると、タッチスクリーン11より入力座
標(x,y)がタッチセンサー検出部24へ送られる。
While the screen 31 on which a plurality of figures are drawn is displayed, when the figure 32 drawn on the screen 31 is selected by the touch input on the touch screen 11 by the operator, the touch screen is displayed. The input coordinates (x, y) are sent from 11 to the touch sensor detection unit 24.

【0021】入力座標情報が送られてきたタッチセンサ
ー検出部24では、送られてきた情報と現在表示されて
いる画面No.よりタッチ位置管理テーブル33から選択
された図形No.を検索する。検出した図形No.は、音声
認識部27へ送付する。
The touch sensor detection unit 24 to which the input coordinate information has been sent searches for the selected figure No. from the touch position management table 33 from the sent information and the currently displayed screen No. The detected figure No. is sent to the voice recognition unit 27.

【0022】図4は、音声認識部21の音声入力情報管
理テーブルを示す。音声入力情報管理テーブル23は、
画面毎音声登録テーブル41と音声データテーブル42
から成っている。
FIG. 4 shows a voice input information management table of the voice recognition unit 21. The voice input information management table 23 is
Voice registration table 41 for each screen and voice data table 42
Consists of

【0023】画面毎音声登録テーブル41は、画面毎に
テーブルを持ち、画面No.,音声入力情報登録数,音声
入力登録情報として、図形と音声データの情報の適合を
判定するために用いられる図形No.と音声No.から成
り、音声データテーブル42には、単語、または単文の
形で音声データが音声No.と共に格納されている。
The screen-by-screen voice registration table 41 has a table for each screen, and is used as a screen No., the number of registered voice input information, and a figure used as a voice input registration information to determine the conformity between the figure and the information of voice data. The voice data table 42 stores voice data in the form of a word or a simple sentence together with the voice No ..

【0024】タッチセンサー検出部24よりタッチ入力
された図形No.が音声認識部21へ送付されると、その
図形No.を元に音声入力情報管理テーブル23の音声毎
音声登録テーブルから選択された図形に該当すべき音声
No.を検索し、検出した音声No.を元に音声データテー
ブル42から音声データを取得し、その取得した音声デ
ータが、音声入力装置13から音声入力をA/D変換後
音声分析され、音声入力バッファ22に格納される音声
データと一致する箇所があるか否かを判定し、結果を処
理判定部27へ送付する。
When the figure No. touch-inputted by the touch sensor detection section 24 is sent to the voice recognition section 21, it is selected from the voice registration table for each voice of the voice input information management table 23 based on the figure No. A voice No. that should correspond to the figure is searched, voice data is acquired from the voice data table 42 based on the detected voice No., and the acquired voice data is A / D converted from the voice input from the voice input device 13. The post-speech analysis is performed, and it is determined whether or not there is a portion that matches the voice data stored in the voice input buffer 22, and the result is sent to the processing determination unit 27.

【0025】図5は、処理判定部27で音声入力情報と
タッチ入力で選択された図形が適合したときに、次に行
う処理を判定するため用いられる音声−図形次動作判定
テーブル51を示す。音声−図形次動作判定テーブル5
1は、画面No.,画面No.の画面上で操作員が選択すべ
き図形No.,その図形を選択するときに操作員が発声す
べき音声の音声No.,操作員が選択した図形とそのとき
に発せられた言葉が適合したときに行う次動作が格納さ
れている。
FIG. 5 shows a voice-graphics next operation determination table 51 used for determining the next processing when the voice input information and the graphic selected by touch input match in the processing determination unit 27. Voice-figure next motion determination table 5
1 is a screen No., a figure No. that the operator should select on the screen No., a voice No. of a voice that the operator should say when selecting the figure, and a figure selected by the operator. It stores the next action to be taken when the word spoken at that time matches.

【0026】音声認識部21から選択図形と発声言葉の
適合の連絡を受け取った処理判定部27では、画面N
o.,音声No.,図形No.を元に音声−図形次動作判定テ
ーブル51により次の処理を検索し、検出した処理を実
行する。
When the processing judgment unit 27 receives the notification of the conformity between the selected figure and the uttered word from the voice recognition unit 21, the screen N is displayed.
Based on o., voice No., and graphic No., the next process is searched by the voice-graphic next operation determination table 51, and the detected process is executed.

【0027】図6に、本実施例の処理フローを示す。操
作員が画面上の図形を選択するとタッチスクリーン11
より入力座標情報(x,y)がタッチセンサー検出部2
4へ送られる。タッチセンサー検出部24では、タッチ
位置管理テーブル25の中から、タッチスクリーン11
から送られてきた入力座標(x,y)が含まれる図形N
o.を検出し(61)し、音声認識部21へ図形No.を送
付する。
FIG. 6 shows a processing flow of this embodiment. When the operator selects a figure on the screen, the touch screen 11
More input coordinate information (x, y) is touch sensor detection unit 2
Sent to 4. In the touch sensor detection unit 24, the touch screen 11 is selected from the touch position management table 25.
Figure N containing the input coordinates (x, y) sent from
When o is detected (61), the figure No. is sent to the voice recognition unit 21.

【0028】図形No.を受け取った音声認識部21で
は、音声入力バッファ22に音声データが格納されてい
るか確認する(62)。音声入力バッファ22に音声デ
ータがない場合、直ちに判定処理部27へ音声入力がな
かった旨を報告する。音声入力バッファ22に音声デー
タが格納されているとき、画面No.と図形No.から画面
毎音声登録テーブル41に格納されている音声No.を検
索し、検出した音声No.を元に音声データテーブル42
から音声データを取得する。その取得した音声データが
音声入力バッファに格納されている音声データ中に含ま
れているか判定し(63)、判定結果と判定に用いられ
た画面No.,図形No.,音声No.を処理判定部27へ送
付する。
Upon receipt of the figure No., the voice recognition section 21 confirms whether voice data is stored in the voice input buffer 22 (62). When there is no voice data in the voice input buffer 22, the determination processing unit 27 is immediately notified that there is no voice input. When the voice data is stored in the voice input buffer 22, the voice No. stored in the screen voice registration table 41 is searched from the screen No. and the figure No., and the voice data is based on the detected voice No. Table 42
Get audio data from. It is determined whether the acquired voice data is included in the voice data stored in the voice input buffer (63), and the determination result and the screen No., figure No., and voice No. used for the determination are processed and determined. Send to department 27.

【0029】音声認識部21から報告を受け取った処理
判定部27では、選択された図形とそのときの発声言葉
が適合しているという連絡を受け取った場合、認識した
音声データを音声出力装置14を利用し、音声入力情報
を復唱するとともに、画面No.,音声No.,図形No.を
元に音声−図形次動作判定テーブル51により次動作処
理を検索し、処理を行う(64)。また、音声入力無し
又は不適合の報告を受け取った場合は、警告音等により
誤りをユーザへ報告する(65)。
When the processing judgment section 27 receives the report from the voice recognition section 21, when it receives the message that the selected figure and the utterance at that time match, the recognized voice data is sent to the voice output device 14. The voice input information is reproduced by using the voice input information, and the next motion processing is searched by the voice-graphic next motion determination table 51 based on the screen No., the voice No., and the graphic No., and the process is performed (64). Further, when a report indicating no voice input or nonconformity is received, an error is reported to the user by a warning sound or the like (65).

【0030】図7に一定時間内の入力情報による判定処
理フローを示す。すなわち、操作員のタッチ入力と発声
は、発声が先に行われたりタッチ入力が先に行われたり
とタイミングが多少ずれる。そのため、タッチ入力情報
とタッチ入力検出の前後一定時間の間に検出した音声情
報が適合しているかを判定する処理が必要となり、その
フローを図7に示す。
FIG. 7 shows a determination processing flow based on input information within a fixed time. That is, the touch input and the utterance of the operator are slightly different in timing such that the utterance is performed first or the touch input is performed first. Therefore, it is necessary to perform a process of determining whether or not the touch input information and the voice information detected during a certain time period before and after the touch input detection are compatible, and the flow thereof is shown in FIG. 7.

【0031】操作員が画面上の図形を選択するとタッチ
スクリーン11より入力座標情報(x,y)がタッチセ
ンサー検出部24へ送られる。タッチセンサー検出部2
4では、タッチ位置管理テーブル25の中から、タッチ
スクリーン11から送られてきた入力座標(x,y)が
含まれる図形No.を検出し(61)し、音声認識部21
へ図形No.を送付する。
When the operator selects a figure on the screen, the input coordinate information (x, y) is sent from the touch screen 11 to the touch sensor detecting section 24. Touch sensor detector 2
4, the figure No. including the input coordinates (x, y) sent from the touch screen 11 is detected from the touch position management table 25 (61), and the voice recognition unit 21 is detected.
Send figure No. to.

【0032】また、音声認識部21では、音声入力装置
13からの音声データをA/D変換後音声分析された音
声データが格納された時間を保持し、タッチセンサー検
出部24より図形No.を受け取ると、音声入力バッファ
22に音声データが格納されているか確認する(6
2)。音声入力バッファに格納された時間が現時刻より
ある一定時間(例えば3秒)以上前に格納されたもので
あった場合、音声入力バッファ22に音声データがない
場合は、ある一定時間(例えば3秒)音声入力待ちとな
る(71)。
Further, the voice recognition unit 21 holds the time when the voice data obtained by A / D converting the voice data from the voice input device 13 and storing the voice data is stored, and the touch sensor detection unit 24 displays the figure No. When received, it is confirmed whether voice data is stored in the voice input buffer 22 (6
2). If the time stored in the voice input buffer was stored before a certain time (for example, 3 seconds) before the current time, and if there is no voice data in the voice input buffer 22, a certain time (for example, 3 seconds). (Second) Wait for voice input (71).

【0033】音声入力バッファ22に音声データが格納
されると、画面No.と図形No.から画面毎音声登録テー
ブル41に格納されている音声No.を検索し、検出した
音声No.を元に音声データテーブル42から音声データ
を取得する。その取得した音声データが音声入力バッフ
ァに格納されている音声データ中に含まれているか判定
し(63)、判定結果と判定に用いられた画面No.,図
形No.,音声No.を処理判定部27へ送付する。
When the voice data is stored in the voice input buffer 22, the voice No. stored in the voice registration table 41 for each screen is searched from the screen No. and the figure No., and the detected voice No. is used as the basis. The voice data is acquired from the voice data table 42. It is determined whether the acquired voice data is included in the voice data stored in the voice input buffer (63), and the determination result and the screen No., figure No., and voice No. used for the determination are processed and determined. Send to department 27.

【0034】音声認識部21から報告を受け取った処理
判定部27では、選択された図形とそのときの発声言葉
が適合しているという連絡を受け取った場合、認識した
音声データを音声出力装置14を利用し、音声入力情報
を復唱するとともに、画面No.,音声No.,図形No.を
元に音声−図形次動作判定テーブル51により次動作処
理を検索し、処理を行う(64)。また、ある一定時間
の間に音声入力無し又は不適合の報告を受け取った場合
は、警告音等により誤りをユーザへ報告する(65)。
When the process judging section 27 which has received the report from the voice recognizing section 21 receives the message that the selected figure and the utterance at that time match, the recognized voice data is sent to the voice output device 14. The voice input information is reproduced by using the voice input information, and the next motion processing is searched by the voice-graphic next motion determination table 51 based on the screen No., the voice No., and the graphic No., and the process is performed (64). Also, when a report indicating no voice input or nonconformity is received within a certain period of time, an error is reported to the user by a warning sound or the like (65).

【0035】この実施例により、操作員が呼称すべき言
葉のみを登録するため登録語彙数を抑さえることがで
き、操作員によって選択された図形から操作員が発する
べき音声情報を検索し、その音声情報と同じ情報が音声
入力バッファ22に含まれているかを判定するため、音
声認識による処理時間が短縮されるとともに、判定結果
を通知するため操作員の操作確認を一人で行うことがで
きる。
According to this embodiment, since the operator registers only the words to be called, the number of registered vocabularies can be suppressed, and the voice information to be issued by the operator is retrieved from the figure selected by the operator, Since it is determined whether the same information as the voice information is included in the voice input buffer 22, the processing time by voice recognition is shortened, and the operator can confirm the operation alone to notify the determination result.

【0036】以上説明したように、指差呼称により操作
員が選択すべき図形とそのときに発声すべき言葉とを結
びつけることにより、音声認識のためのシステムへの登
録語彙数を少なく抑さえ、音声認識のための処理量の増
大を防止する効果がある。
As described above, by connecting the figure to be selected by the operator and the word to be spoken at that time by pointing and calling, the number of registered vocabulary in the system for voice recognition can be suppressed to a small number. This has the effect of preventing an increase in the processing amount for voice recognition.

【0037】次に、システム側で操作員の操作の確認を
行うため、複数の操作員の間で行っていた操作確認が一
人の操作員でできるため、操作員の負担削減の効果があ
る。また、機械側で判定した結果を再度聴覚により、確
認できるため、「目視」「操作」とは、別の系の「聴
覚」より、操作員とのインターフェースが行われるた
め、より一層の信頼性向上が達成できる。
Next, since the operator confirms the operation of the operator on the system side, one operator can confirm the operation performed among a plurality of operators, which has the effect of reducing the burden on the operator. In addition, since the result judged by the machine side can be confirmed by hearing again, "visual inspection" and "operation" are more reliable because the interface with the operator is performed rather than "auditory" of another system. Improvement can be achieved.

【0038】さらに、音声入力発生と画面上のポインテ
ィングによる入力発生とは、音声がポインティングより
先に入力されたり、あとに入力されたりと多少の時間ず
れがあり、必ずしも同時に入力が行われるとは限らない
ので、そのような際の時間的なずれも解消できる。
Further, there is a slight time lag between the voice input and the input by the pointing on the screen, such that the voice is input before the pointing and the voice is input after the pointing, and the input is not always performed at the same time. Since there is no limitation, it is possible to eliminate the time lag in such a case.

【0039】[0039]

【発明の効果】本発明によれば、高信頼でかつ処理量の
小さい指差呼称確認システムを提供できる。
According to the present invention, it is possible to provide a highly reliable pointing and pointing confirmation system with a small processing amount.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例のシステム構成を示す図。FIG. 1 is a diagram showing a system configuration of an embodiment of the present invention.

【図2】本発明の実施例の端末コントローラの内部構成
を示す図。
FIG. 2 is a diagram showing an internal configuration of a terminal controller according to the embodiment of the present invention.

【図3】本発明の実施例のタッチ位置管理テーブル例を
示す図。
FIG. 3 is a diagram showing an example of a touch position management table according to the embodiment of the present invention.

【図4】本発明の実施例の音声入力情報管理テーブル例
を示す図。
FIG. 4 is a diagram showing an example of a voice input information management table according to the embodiment of the present invention.

【図5】本発明の実施例の音声情報と選択図形情報の適
合検索するための音声−図形次動作判定テーブル例を示
す図。
FIG. 5 is a diagram showing an example of a voice-graphics next operation determination table for matching search of voice information and selected graphic information according to the embodiment of the present invention.

【図6】本発明の実施例の基本処理フローを示す図。FIG. 6 is a diagram showing a basic processing flow according to the embodiment of the present invention.

【図7】本発明の実施例の一定時間内の入力情報による
判定処理フローを示す図。
FIG. 7 is a diagram showing a determination processing flow according to input information within a fixed time according to the embodiment of this invention.

【符号の説明】[Explanation of symbols]

11…タッチスクリーン、13…音声入力装置、21…
音声認識部、22…音声入力バッファ、23…音声入力
情報管理テーブル、24…タッチセンサー検出部、25
…タッチ位置管理テーブル、51…音声−図形次動作判
定テーブル。
11 ... Touch screen, 13 ... Voice input device, 21 ...
Voice recognition unit, 22 ... Voice input buffer, 23 ... Voice input information management table, 24 ... Touch sensor detection unit, 25
... touch position management table, 51 ... voice-figure next operation determination table.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】音声入力手段とポインティング入力手段と
図形の表示手段を有し、 音声入力データを時系列に符号化して蓄積する音声バッ
ファと表示中の図形情報を格納する図形情報テーブルと
上記図形情報テーブルは関連する音声データテーブルを
有し、 上記図形情報テーブルは、ポインティングにより図形が
選択されたときに行う処理が格納されている次動作リス
トを有し、 ポインティングされた図形に関連する前記音声データテ
ーブルを索引し、前記音声バッファ中の音声データと一
致判定した結果を前記次動作リストの内容により、音声
または表示図形で出力することを特徴とする指差呼称確
認システム。
1. A voice buffer having voice input means, pointing input means, and graphic display means, a voice buffer for encoding and storing voice input data in time series, a graphic information table for storing graphic information being displayed, and the graphic. The information table has a related voice data table, and the figure information table has a next operation list in which the processing to be performed when a figure is selected by pointing is stored, and the voice related to the pointed figure is stored. A pointing and calling confirmation system characterized in that a data table is indexed, and the result of matching judgment with the voice data in the voice buffer is output as voice or a display graphic according to the contents of the next operation list.
【請求項2】請求項1において、ポインティングされた
図形に関連する前記音声データテーブルの内容とポイン
ティングされた時刻の前後一定時間内の前記音声バッフ
ァの内容とを一致判定することを特徴とする指差呼称確
認システム。
2. The finger according to claim 1, wherein the content of the voice data table related to the pointed figure and the content of the voice buffer within a fixed time before and after the pointed time are determined to be coincident with each other. Difference name confirmation system.
JP27392095A 1995-10-23 1995-10-23 Pointing calling confirmation system Pending JPH09114579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27392095A JPH09114579A (en) 1995-10-23 1995-10-23 Pointing calling confirmation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27392095A JPH09114579A (en) 1995-10-23 1995-10-23 Pointing calling confirmation system

Publications (1)

Publication Number Publication Date
JPH09114579A true JPH09114579A (en) 1997-05-02

Family

ID=17534419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27392095A Pending JPH09114579A (en) 1995-10-23 1995-10-23 Pointing calling confirmation system

Country Status (1)

Country Link
JP (1) JPH09114579A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337480A (en) * 2005-05-31 2006-12-14 Kubo Kogyo Kk System and method for supporting operation
JP2009210785A (en) * 2008-03-04 2009-09-17 Railway Technical Res Inst System for presenting effect of pointing and verbal checking
JP2011065414A (en) * 2009-09-17 2011-03-31 Toshiba Corp Power system monitoring and control device
JP2013214238A (en) * 2012-04-03 2013-10-17 Mitsubishi Electric Corp Monitoring control system
WO2014103355A1 (en) * 2012-12-26 2014-07-03 株式会社 東芝 Information processing device, information processing method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337480A (en) * 2005-05-31 2006-12-14 Kubo Kogyo Kk System and method for supporting operation
JP4718246B2 (en) * 2005-05-31 2011-07-06 久保工業株式会社 Business support system and business support method
JP2009210785A (en) * 2008-03-04 2009-09-17 Railway Technical Res Inst System for presenting effect of pointing and verbal checking
JP2011065414A (en) * 2009-09-17 2011-03-31 Toshiba Corp Power system monitoring and control device
JP2013214238A (en) * 2012-04-03 2013-10-17 Mitsubishi Electric Corp Monitoring control system
WO2014103355A1 (en) * 2012-12-26 2014-07-03 株式会社 東芝 Information processing device, information processing method, and program
JP2014127040A (en) * 2012-12-26 2014-07-07 Toshiba Corp Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US8095371B2 (en) Computer-implemented voice response method using a dialog state diagram to facilitate operator intervention
JP2845926B2 (en) Man-machine system
US7318031B2 (en) Apparatus, system and method for providing speech recognition assist in call handover
CN107481719A (en) The uncertainty task of personal assistant module is initiated
CN113287175B (en) Interactive health state assessment method and system thereof
JPH0844520A (en) Interactive device and operation guidance output method applied to the interactive device
US8428241B2 (en) Semi-supervised training of destination map for call handling applications
JP2000516754A (en) Intelligent human / computer interface system
US20080086690A1 (en) Method and System for Hybrid Call Handling
CN110602334A (en) Intelligent outbound method and system based on man-machine cooperation
JP2019057099A (en) Inspection work support system, method, and program
JP5045486B2 (en) Dialogue device and program
US20200176116A1 (en) Method of an interactive health status assessment and system thereof
CN111477231A (en) Man-machine interaction method, device and storage medium
US20210020169A1 (en) Presentation Support System
JP6689953B2 (en) Interpreter service system, interpreter service method, and interpreter service program
JPH09114579A (en) Pointing calling confirmation system
JP6863179B2 (en) Call center system, call center device, dialogue method, and its program with customer complaint detection function
JP6961765B1 (en) Telephone support business support system, telephone support business support method and program
CN111687831A (en) Voice guidance system and voice guidance method
WO2021254838A1 (en) Driving companion comprising a natural language understanding system and method for training the natural language understanding system
JPH05347666A (en) Electronic conference system
JP2021009434A (en) Browser device, information output method and information output program
JPH07325597A (en) Information input method and device for executing its method
JP7334467B2 (en) Response support device and response support method