JPH07110734A - Multimodal input analysis system - Google Patents

Multimodal input analysis system

Info

Publication number
JPH07110734A
JPH07110734A JP5256199A JP25619993A JPH07110734A JP H07110734 A JPH07110734 A JP H07110734A JP 5256199 A JP5256199 A JP 5256199A JP 25619993 A JP25619993 A JP 25619993A JP H07110734 A JPH07110734 A JP H07110734A
Authority
JP
Japan
Prior art keywords
pointing
input
processing
input data
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5256199A
Other languages
Japanese (ja)
Inventor
Mayumi Egashira
まゆみ 江頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PERSONAL JOHO KANKYO KYOKAI
Original Assignee
PERSONAL JOHO KANKYO KYOKAI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PERSONAL JOHO KANKYO KYOKAI filed Critical PERSONAL JOHO KANKYO KYOKAI
Priority to JP5256199A priority Critical patent/JPH07110734A/en
Publication of JPH07110734A publication Critical patent/JPH07110734A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide the multimodal input analysis system where it is unneces sary to point an object at each time and an input means is freely selected without forcing a user to input a voice. CONSTITUTION:This system is provided with a pointing input means 1, a voice input means 2, an object information storage part 3 where the position and feature information of each object are stored, an operation object holding part 4 where information of an object as the operation object is stored, a pointing event table 5 where the processing to be executed correspondingly to pointing input is described, a voice event table 6 where the processing to be executed correspondingly to the pattern of voice input is described, a history holding part 7 where the input history is held, an integrating and interpreting part 8 which integrates and interprets input data from the pointing input means and the voice input means to determine a processing, and a processing execution part 9 which executes the determined processing.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力解析システムに関
し、特にポインティング入力と音声入力を統合して解析
するマルチモーダル解析システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input analysis system, and more particularly to a multimodal analysis system for integrating pointing input and voice input for analysis.

【0002】[0002]

【従来の技術】従来のポインティングデバイスと音声入
力を統合したインタフェースとして、「これをここへ移
動」という音声入力と、「これ」に対応する対象へのポ
インティング入力と、「ここ」に対応する位置へのポイ
ンティング入力とを組み合わせて解釈する方法がある
(参考文献:「マルチモーダルインタフェースにおける
情報統合モデルの検討」、安藤他、第8回ヒューマンイ
ンタフェース・シンポジウム論文集、1992)。
2. Description of the Related Art As an interface integrating a conventional pointing device and a voice input, a voice input of "move this", a pointing input to an object corresponding to "this", and a position corresponding to "here" There is a method of interpreting by combining with pointing input to (Reference: "Examination of information integration model in multimodal interface", Ando et al., Proc. Of the 8th Human Interface Symposium, 1992).

【0003】[0003]

【発明が解決しようとする課題】この従来のマルチモー
ダル入力方法は、操作を指示するときに、操作対象への
ポインティングと、「これを」などの指示語を必ず組み
合わせて入力する必要がある。たとえばある対象物を移
動させるときには、「これをここへ移動」という音声入
力と、ほぼ同時に「これ」に対応する対象物へのポイン
ティングと、「ここ」に対応する位置へのポインティン
グを行なう必要がある。同じ対象物に対して操作を繰り
返すときでも、いちいち対象物を指示しなおさなければ
ならない。また操作の指示を必ず音声で行なわなければ
ならないという欠点がある。
In the conventional multi-modal input method, when instructing an operation, it is necessary to input the pointing to the operation target and an instruction word such as "this" in combination. For example, when moving a certain object, it is necessary to perform a voice input "Move this to here", pointing to the object corresponding to "This" at almost the same time, and pointing to a position corresponding to "Here". is there. Even when the operation is repeated for the same object, the object must be pointed again. Further, there is a drawback that the operation instruction must be given by voice.

【0004】[0004]

【課題を解決するための手段】本発明の目的は、対象物
を毎回ポインティングする必要がなく、また音声入力を
強制せず自由に入力手段を選択できるマルチモーダル入
力解析システムを提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a multimodal input analysis system which does not require pointing of an object each time and which can freely select input means without forcing voice input. .

【0005】このため本発明のマルチモーダル入力解析
システムは、操作対象となる各オブジェクトの位置や特
徴情報を格納するオブジェクト情報格納部と、現在の操
作対象オブジェクトの情報を格納する操作対象保持部
と、入力履歴を格納しておく履歴保持部と、ポインティ
ング入力に応じて行なうべき処理を記述したポインティ
ングイベントテーブルと、音声入力のパターンに応じて
行なうべき処理を記述した音声イベントテーブルと、ポ
インティング入力手段および音声入力手段から入力デー
タを受け取り、入力データに応じて処理を振り分ける入
力判定部と、前記入力判定部からポインティング入力デ
ータのみを受け取って、前記ポインティングイベントテ
ーブルを参照して、実行する処理を決定するポインティ
ングイベント単独処理部と、前記入力判定部から音声入
力データとポインティング入力データのリストを受け取
り、音声入力データ中の指示表現の数とポインティング
入力データの数を比較し、ポインティング入力データの
方が少なければ、前記履歴保持部内の最新の入力データ
がポインティング入力であるかどうか、前記操作対象保
持部内のオブジェクト情報が音声入力データ中の最初に
出現する指示表現に合致するかどうか、また次の入力が
ポインティング入力かどうかを、この順に調べ、該当す
るデータが見つかった時点でそのデータを前記ポインテ
ィング入力データリストに追加するポインティング情報
獲得部と、このポインティング入力データリストおよび
音声入力データを受け取って、音声入力データ中の意味
表現とポインティング入力データリスト中のポインティ
ングデータを出現順に比較して、意味表現に合致してい
ればその意味表現をポインティングデータで置き換える
同定処理部と、同定処理後の意味表現を受け取り、音声
イベントテーブルを参照して実行する処理を決定する処
理決定部と、決定された処理を実行してその結果を前記
オブジェクト格納部および操作対象保持部に反映させる
処理実行部とを有することを特徴とする。
Therefore, the multimodal input analysis system of the present invention includes an object information storage section for storing the position and characteristic information of each operation target object, and an operation target holding section for storing information of the current operation target object. A history holding unit for storing an input history, a pointing event table describing a process to be performed according to pointing input, a voice event table describing a process to be performed according to a voice input pattern, and pointing input means And an input determination unit that receives input data from the voice input unit and distributes processing according to the input data, and receives only pointing input data from the input determination unit and refers to the pointing event table to determine a process to be executed. Pointing event alone Section and the list of voice input data and pointing input data from the input determination unit, compares the number of pointing expressions in the voice input data with the number of pointing input data, and if there is less pointing input data, the history Whether the latest input data in the holding unit is a pointing input, whether the object information in the operation target holding unit matches the instruction expression that appears first in the voice input data, and whether the next input is a pointing input In this order, and when the corresponding data is found, the pointing information acquisition unit that adds the data to the pointing input data list, and the pointing input data list and the voice input data are received, and the meaning in the voice input data is received. Representation and pointing input data list The pointing data is compared in the order of appearance, and if the meaning expression matches the meaning expression, the identification processing unit that replaces the meaning expression with the pointing data and the meaning expression after the identification processing are received, and executed by referring to the voice event table. It is characterized by having a process determining unit that determines a process and a process executing unit that executes the determined process and reflects the result on the object storage unit and the operation target holding unit.

【0006】[0006]

【実施例】本発明の実施例について図面を参照しながら
説明する。
Embodiments of the present invention will be described with reference to the drawings.

【0007】図1は、本発明の一実施例であるマルチモ
ーダル入力解析システムを示すブロック図である。この
マルチモーダル入力解析システムは、マウスやジョイス
ティックなどのポインティング入力手段1と、音声を入
力する音声入力手段2と、各オブジェクトの位置や特徴
情報を格納しておくオブジェクト情報格納部3と、操作
対象となっているオブジェクトの情報を格納しておく操
作対象保持部4と、ポインティング入力に対応して行な
うべき処理を記述したポインティングイベントテーブル
5と、音声入力のパターンに対応して行うべき処理を記
述した音声イベントテーブル6と、入力履歴を保存して
おく履歴保持部7と、ポインティング入力手段および音
声入力手段からの入力データを統合して解釈し処理を決
定する統合解釈部8と、決定された処理を実行する処理
実行部9とを備えている。
FIG. 1 is a block diagram showing a multimodal input analysis system which is an embodiment of the present invention. This multimodal input analysis system includes a pointing input means 1 such as a mouse and a joystick, a voice input means 2 for inputting a voice, an object information storage section 3 for storing the position and characteristic information of each object, and an operation target. The operation target holding unit 4 for storing the information of the object, the pointing event table 5 describing the processing to be performed in response to pointing input, and the processing to be performed in response to the voice input pattern are described. The voice event table 6, the history holding unit 7 that stores the input history, the integrated interpretation unit 8 that integrates and interprets the input data from the pointing input unit and the voice input unit, and determines the processing are determined. And a process execution unit 9 that executes a process.

【0008】統合解釈部8は、入力判定部21と、ポイ
ンティングイベント単独処理部22と、ポインティング
情報獲得部23と、同定処理部24と、処理決定部25
とから構成される。
The integrated interpretation unit 8 includes an input determination unit 21, a pointing event independent processing unit 22, a pointing information acquisition unit 23, an identification processing unit 24, and a processing determination unit 25.
Composed of and.

【0009】音声入力手段2は、音声入力が開始される
と、音声入力開始シグナルを出力する。音声入力が終了
すると、入力された音声の内容を認識し、認識結果を出
力する。認識結果は、入力順序を保持した意味表現で表
される。例えば、「このまるをここへ移動」という音声
入力は、図5のようなリストで表される。
The voice input means 2 outputs a voice input start signal when voice input is started. When the voice input is completed, the content of the input voice is recognized and the recognition result is output. The recognition result is represented by a semantic expression holding the input order. For example, the voice input "Move this Maru here" is represented by a list as shown in FIG.

【0010】入力判定部21は、ポインティング入力手
段1と音声入力手段2からデータを受け取り、受け取っ
たデータによって処理を振り分ける。入力判定部21
は、音声入力手段部2から音声入力開始シグナルを受け
取らない間は、ポインティング入力手段1から受け取っ
たデータをポインティングイベント単独処理部22へ送
る。音声入力開始シグナルを受け取ると、音声入力が終
了するまで、すなわち次に音声入力データを受け取るま
で、ポインティング入力手段1から受け取ったデータを
ポインティング情報リストとして貯めておく。音声入力
データを受け取った時点で、その音声入力データとポイ
ンティング情報リストをポインティング情報獲得部23
へ送る。
The input determination section 21 receives data from the pointing input means 1 and the voice input means 2 and sorts the processing according to the received data. Input determination unit 21
Sends the data received from the pointing input unit 1 to the pointing event independent processing unit 22 while not receiving the voice input start signal from the voice input unit 2. When the voice input start signal is received, the data received from the pointing input means 1 is stored as a pointing information list until the voice input ends, that is, until the next voice input data is received. When the voice input data is received, the voice input data and the pointing information list are stored in the pointing information acquisition unit 23.
Send to.

【0011】ポインティングイベント単独処理部22
は、ポインティングイベントテーブル5を参照して、入
力データに対応する処理手順を取り出し、処理実行部9
へ処理手順を送る。ポインティング情報獲得部23は、
入力判定部21から音声入力データとポインティング情
報リストを受け取ると、音声入力データ中の指示表現の
数と、ポインティング情報リスト中のポインティング入
力の数を比較し、ポインティング入力の数が少ない場
合、履歴保持部7および操作対象保持部4を参照したり
次のポインティング入力を得るなどしてポインティング
情報を獲得し、ポインティング情報リストに追加する。
Pointing event independent processing unit 22
Refers to the pointing event table 5 to extract the processing procedure corresponding to the input data, and the processing execution unit 9
Send the processing procedure to. The pointing information acquisition unit 23,
When the voice input data and the pointing information list are received from the input determination unit 21, the number of instruction expressions in the voice input data is compared with the number of pointing inputs in the pointing information list, and if the number of pointing inputs is small, the history is retained. The pointing information is acquired by referring to the section 7 and the operation target holding section 4 or by obtaining the next pointing input, and added to the pointing information list.

【0012】同定処理部24は、オブジェクト情報獲得
部23から音声入力データとポインティング情報リスト
を受け取り、音声入力データ中の指示表現とポインティ
ング情報との同定を行なう。
The identification processing unit 24 receives the voice input data and the pointing information list from the object information acquisition unit 23 and identifies the pointing expression and the pointing information in the voice input data.

【0013】処理決定部25は、音声イベントテーブル
6を参照して、音声入力データのパターンに対応する処
理手順を取りだし、処理実行部9へ送る。
The process determining section 25 refers to the voice event table 6 and extracts a processing procedure corresponding to the pattern of the voice input data and sends it to the process executing section 9.

【0014】処理実行部9は受け取った処理手順に従っ
て実際の処理を行ない、処理結果に応じてオブジェクト
情報格納部3および操作対象保持部4の情報を変更す
る。
The processing execution unit 9 performs the actual processing according to the received processing procedure, and changes the information in the object information storage unit 3 and the operation target holding unit 4 according to the processing result.

【0015】図2は、本実施例の統合解釈部8の処理の
流れを示す図である。図2を用いて、本実施例の統合解
釈部8の処理の詳細を実例を用いながら説明する。
FIG. 2 is a diagram showing the flow of processing of the integrated interpretation unit 8 of this embodiment. The details of the process of the integrated interpretation unit 8 of the present embodiment will be described with reference to FIG. 2 by using an actual example.

【0016】ステップS31 ポインティング入力手段
1および音声入力手段2からの入力を待つ。
Step S31 The input from the pointing input means 1 and the voice input means 2 is awaited.

【0017】ステップS32 受け取った入力データが
音声入力開始シグナルかどうかを判定する。受け取った
入力が音声入力開始シグナルであればステップS34以
降の処理を行ない、そうでなければ、すなわち入力がポ
インティング入力データであれば、入力データをポイン
ティングイベント単独処理部22へ渡す。
Step S32: It is determined whether the received input data is a voice input start signal. If the received input is a voice input start signal, the process from step S34 is performed. If not, that is, if the input is pointing input data, the input data is passed to the pointing event independent processing unit 22.

【0018】ステップS33 ポインティングイベント
単独処理部22は、ポインティングイベントテーブル5
を参照して、入力データに対応する処理手順を取り出し
処理実行部9に処理手順を送る。処理実行部9は受け取
った処理手順に従って順に処理を実行する。
In step S33, the pointing event independent processing section 22 uses the pointing event table 5
With reference to, the processing procedure corresponding to the input data is extracted and sent to the processing execution unit 9. The processing execution unit 9 sequentially executes processing according to the received processing procedure.

【0019】ステップS34 入力判定部21は、受け
取った入力データが音声入力開始シグナルであれば、次
に音声入力データを受け取るまで待つ。この間に入力さ
れたポインティング入力データはポインティング情報リ
ストに保存される。この処理は音声入力データを受け取
った時点で終了し、音声入力データとポインティング情
報リストをポインティング情報獲得部23へ渡す。
Step S34 If the received input data is the voice input start signal, the input judging section 21 waits until the next voice input data is received. The pointing input data input during this period is stored in the pointing information list. This process ends when the voice input data is received, and the voice input data and the pointing information list are passed to the pointing information acquisition unit 23.

【0020】ステップS35 ポインティング情報獲得
部23は、音声入力データ中の指示表現の数と、ポイン
ティング情報リスト内のポインティング入力の数を比較
する。例えば音声入力データが図5に示す意味表現であ
る場合は、指示表現の数は、“指示語()”項をサブリ
スト中に持つ要素の数となり、この例では2となる。指
示表現の数よりポインティング入力の数の方が多い場合
ステップS36の処理へ、少ない場合ステップS37の
処理へ、同じ場合ステップS38の処理へそれぞれ進
む。
Step S35 The pointing information acquisition unit 23 compares the number of instruction expressions in the voice input data with the number of pointing inputs in the pointing information list. For example, when the voice input data is the semantic expression shown in FIG. 5, the number of instruction expressions is the number of elements having the "instruction word ()" item in the sublist, which is 2 in this example. If the number of pointing inputs is larger than the number of pointing expressions, the process proceeds to step S36, if it is less, the process proceeds to step S37, and if the same, the process proceeds to step S38.

【0021】上記の例で、ポインティング情報リストが [pointing(X,Y)] のようにひとつの要素からなるリストであった場合、指
示表現の数は1となり、ポインティング入力の数の方が
少ないのでステップS38の処理へ進む。
In the above example, when the pointing information list is a list consisting of one element such as [pointing (X, Y)], the number of instruction expressions is 1 and the number of pointing inputs is smaller. Therefore, the process proceeds to step S38.

【0022】ステップS36 ポインティング入力の数
の方が指示語の数より多かった場合、エラーメッセージ
を表示するなどのエラー処理を行ない、ステップS31
へ戻る。
Step S36 If the number of pointing inputs is larger than the number of pointing words, error processing such as displaying an error message is performed, and step S31 is performed.
Return to.

【0023】ステップS37 ポインティング入力の数
の方が指示表現の数より少かった場合、履歴保持部7と
操作対象保持部4を参照して、不足しているポインティ
ング情報の獲得を行なう。
Step S37 If the number of pointing inputs is less than the number of instruction expressions, the history holding unit 7 and the operation target holding unit 4 are referenced to acquire the missing pointing information.

【0024】ポインティング情報の獲得は以下の順序で
行なわれる。ポインティング情報は、ポインティング入
力データである場合と、特定のオブジェクトの情報であ
る場合がある。
The acquisition of pointing information is performed in the following order. The pointing information may be pointing input data or information of a specific object.

【0025】・ポインティング入力の数が指示表現の数
よりひとつ少ない場合のオブジェクト情報獲得方法を図
3に示す。
FIG. 3 shows an object information acquisition method when the number of pointing inputs is one less than the number of instruction expressions.

【0026】ステップS51 履歴保持部7を参照し
て、直前の入力がポインティング入力だったかどうかを
調べる。ポインティング入力であれば、それをポインテ
ィング情報リストの先頭に追加して終了する。
Step S51 Referring to the history holding unit 7, it is checked whether or not the last input was the pointing input. If it is pointing input, add it to the beginning of the pointing information list and end.

【0027】ステップS52 最初に出現する指示表現
が対象物の指定であれば、操作対象保持部4を参照し、
現在の操作対象オブジェクトがあればそのオブジェクト
情報をポインティング情報リストの先頭に追加して終了
する。このとき指示表現中に指示語以外の条件があれ
ば、その操作対象オブジェクトがその条件に合うかどう
かをチェックする。たとえば図5の例では、“タイプ
(まる)”項が条件となり、操作対象オブジェクトの形
が“まる”であるかどうかをチェックする。条件に合わ
なければ失敗とする。
Step S52 If the first instructional expression is the designation of the object, the operation object holding unit 4 is referred to,
If there is a current operation target object, the object information is added to the beginning of the pointing information list and the processing ends. At this time, if the instruction expression includes a condition other than the instruction word, it is checked whether the operation target object meets the condition. For example, in the example of FIG. 5, the "type (maru)" item becomes a condition, and it is checked whether the shape of the operation target object is "maru". If it does not meet the conditions, it is considered a failure.

【0028】ステップS53 次の入力を待つ。このと
き、ポインティング入力があるか、あるいは音声入力終
了後あらかじめ決められた時間が経過するまで待つ。ポ
インティング入力があればそれをポインティング情報リ
ストの最後に追加して終了する。タイムアウトであれば
失敗して終了する。
Step S53 Wait for the next input. At this time, it waits until there is a pointing input or a predetermined time elapses after the voice input ends. If there is pointing input, add it to the end of the pointing information list and exit. If it times out, it fails and ends.

【0029】・ポインティング入力の数が指示表現の数
よりふたつ少ない場合のオブジェクト情報獲得方法を図
4に示す。
FIG. 4 shows a method for obtaining object information when the number of pointing inputs is two smaller than the number of pointing expressions.

【0030】ステップS61 履歴保持部7を参照し
て、直前の入力がポインティング入力だったかどうかを
調べる。ポインティング入力であれば、それをポインテ
ィング情報リストの先頭に追加しステップS63へ進
む。
Step S61 Referring to the history holding unit 7, it is checked whether or not the last input was the pointing input. If it is a pointing input, it is added to the head of the pointing information list and the process proceeds to step S63.

【0031】ステップS62 最初に出現する指示表現
が対象物の指定であれば、操作対象保持部4を参照し、
もし現在の操作対象オブジェクトがあれば、そのオブジ
ェクト情報をポインティング情報リストの先頭に追加す
る。現在の操作対象オブジェクトがなければ失敗して終
了する。このとき指示表現中に指示語以外の条件があれ
ば、その操作対象オブジェクトがその条件に合うかどう
かをチェックする。条件に合わなければ失敗とする。
Step S62 If the instruction expression that appears first is the designation of the object, the operation object holding unit 4 is referred to,
If there is a current operation target object, that object information is added to the top of the pointing information list. If there is no current operation target object, it fails and ends. At this time, if the instruction expression includes a condition other than the instruction word, it is checked whether the operation target object meets the condition. If it does not meet the conditions, it is considered a failure.

【0032】ステップS63 次の入力を待つ。このと
き、ポインティング入力があるか、あるいは音声入力終
了後あらかじめ決められた時間が経過するまで待つ。ポ
インティング入力があればそれをポインティング情報リ
ストの最後に追加して終了する。タイムアウトであれば
失敗して終了する。
Step S63 Wait for the next input. At this time, it waits until there is a pointing input or a predetermined time elapses after the voice input ends. If there is pointing input, add it to the end of the pointing information list and exit. If it times out, it fails and ends.

【0033】図2に戻り、上記の処理でポインティング
情報の獲得が失敗すると、ステップS36でエラー処理
を行なってステップS31に戻る。
Returning to FIG. 2, if the acquisition of pointing information fails in the above process, error processing is performed in step S36 and the process returns to step S31.

【0034】ステップS38 同定処理部24は、音声
入力データ中の指示表現とポインティング情報の同定処
理を行なう。
Step S38 The identification processing section 24 carries out an identification process of the pointing expression and the pointing information in the voice input data.

【0035】音声入力データの意味表現中の指示表現
と、ポインティング情報リスト中のポインティング情報
を出現順に同定する。この同定は、以下の手順で行われ
る。
The pointing expression in the semantic expression of the voice input data and the pointing information in the pointing information list are identified in the order of appearance. This identification is performed by the following procedure.

【0036】・指示表現が対象物の指定で、ポインティ
ング情報がオブジェクト情報である場合、指示表現をオ
ブジェクト情報で置き換える。
When the designated expression is the designation of the object and the pointing information is the object information, the designated expression is replaced with the object information.

【0037】・指示表現が、対象物の指定で、ポインテ
ィング情報がポインティング入力データ、すなわち
(X,Y)座標データである場合、オブジェクト情報格
納部を参照してその(X,Y)座標にあるオブジェクト
の情報を得る。もしこのとき条件が付加されていれば、
その条件に合うオブジェクトを探す。指示表現をオブジ
ェクト情報で置き換える。
When the instruction expression is the designation of an object and the pointing information is pointing input data, that is, (X, Y) coordinate data, the object information storage unit is referenced to locate at the (X, Y) coordinates. Get information about an object. If conditions are added at this time,
Find an object that meets the conditions. Replace the instruction expression with object information.

【0038】・指示表現が位置の指定である場合、指示
表現をポインティング情報の(X,Y)座標で置き換え
る。
When the designated expression is the designation of the position, the designated expression is replaced with the (X, Y) coordinates of the pointing information.

【0039】例えば、図5の意味表現は、図6のように
書き換えられる。
For example, the semantic representation of FIG. 5 can be rewritten as shown in FIG.

【0040】ステップS39 音声イベントテーブル6
を参照して、ステップS38で生成された入力の意味表
現と一致する音声入力パターンを検索し、その音声入力
パターンに対応する処理手続きを取り出して処理実行部
9へ送る。
Step S39 Audio event table 6
With reference to, a voice input pattern that matches the semantic expression of the input generated in step S38 is searched, and a processing procedure corresponding to the voice input pattern is extracted and sent to the processing execution unit 9.

【0041】ステップS40 入力データを履歴保持部
7へ格納し、ステップS31へ戻る。
Step S40 The input data is stored in the history holding unit 7, and the process returns to step S31.

【0042】[0042]

【発明の効果】以上説明したように、本発明によるマル
チモーダル入力解析システムは、直前の入力履歴と、現
在の操作対象オブジェクトを用いて解釈を行なうため、
同じ対象物に対して操作を繰り返すような場合に、毎回
対象物を指示する必要がなくなる。また音声入力がない
場合でも、ポインティング入力を単独で処理するので、
音声入力を強制されることがない。
As described above, since the multimodal input analysis system according to the present invention uses the immediately preceding input history and the current operation target object for interpretation,
When the operation is repeated for the same target object, it is not necessary to point the target object every time. Even if there is no voice input, the pointing input is processed independently, so
No voice input is forced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のマルチモーダル入力解析システムの一
実施例を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a multimodal input analysis system of the present invention.

【図2】本発明の統合解釈部の処理の流れの一例を示す
図である。
FIG. 2 is a diagram showing an example of a processing flow of an integrated interpretation unit of the present invention.

【図3】本発明のポインティング情報獲得部の処理の流
れの一例を示す図である。
FIG. 3 is a diagram showing an example of a processing flow of a pointing information acquisition unit of the present invention.

【図4】本発明のポインティング情報獲得部の処理の流
れの別の一例を示す図である。
FIG. 4 is a diagram showing another example of the processing flow of the pointing information acquisition unit of the present invention.

【図5】音声入力データの意味表現の一例を示す図であ
る。
FIG. 5 is a diagram showing an example of a semantic representation of voice input data.

【図6】同定処理後の意味表現の一例を示す図である。FIG. 6 is a diagram showing an example of a semantic expression after identification processing.

【符号の説明】[Explanation of symbols]

1 ポインティング入力手段 2 音声入力手段 3 オブジェクト情報格納部 4 操作対象保持部 5 ポインティングイベントテーブル 6 音声イベントテーブル 7 履歴保持部 8 統合解釈部 9 処理実行部 21 入力判定部 22 ポインティングイベント単独処理部 23 ポインティング情報獲得部 24 同定処理部 25 処理決定部 1 Pointing Input Means 2 Voice Input Means 3 Object Information Storage Section 4 Operation Target Holding Section 5 Pointing Event Table 6 Voice Event Table 7 History Holding Section 8 Integrated Interpretation Section 9 Processing Execution Section 21 Input Judgment Section 22 Pointing Event Independent Processing Section 23 Pointing Information acquisition unit 24 Identification processing unit 25 Processing determination unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 531 D 9379−5H ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G10L 3/00 531 D 9379-5H

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】操作対象となる各オブジェクトの位置や特
徴情報を格納するオブジェクト情報格納部と、 現在の操作対象オブジェクトの情報を格納する操作対象
保持部と、 入力履歴を格納しておく履歴保持部と、 ポインティング入力に応じて行なうべき処理を記述した
ポインティングイベントテーブルと、 音声入力のパターンに応じて行なうべき処理を記述した
音声イベントテーブルと、 ポインティング入力手段および音声入力手段から入力デ
ータを受け取り、入力データに応じて処理を振り分ける
入力判定部と、 前記入力判定部からポインティング入力データのみを受
け取って、前記ポインティングイベントテーブルを参照
して、実行する処理を決定するポインティングイベント
単独処理部と、 前記入力判定部から音声入力データとポインティング入
力データのリストを受け取り、音声入力データ中の指示
表現の数とポインティング入力データの数を比較し、ポ
インティング入力データの方が少なければ、不足してい
るポインティング情報を獲得し、前記ポインティング入
力データリストに追加するポインティング情報獲得部
と、 このポインティング入力データリストおよび音声入力デ
ータを受け取って、音声入力データ中の意味表現とポイ
ンティング入力データリスト中のポインティングデータ
を出現順に比較して、意味表現に合致していればその意
味表現をポインティングデータで置き換える同定処理部
と、 同定処理後の意味表現を受け取り、音声イベントテーブ
ルを参照して実行する処理を決定する処理決定部と、 決定された処理を実行してその結果を前記オブジェクト
格納部および操作対象保持部に反映させる処理実行部
と、を備えたことを特徴とするマルチモーダル入力解析
システム。
1. An object information storage unit that stores the position and characteristic information of each operation target object, an operation target holding unit that stores information about the current operation target object, and a history holding unit that stores an input history. Section, a pointing event table that describes processing that should be performed according to pointing input, a voice event table that describes processing that should be performed according to a voice input pattern, and input data received from pointing input means and voice input means, An input determination unit that distributes processing according to input data; a pointing event independent processing unit that receives only pointing input data from the input determination unit and refers to the pointing event table to determine a processing to be executed; The voice input data and poi The list of pointing input data is received, the number of pointing expressions in the voice input data is compared with the number of pointing input data, and if the pointing input data is less, the missing pointing information is acquired and the pointing input is performed. The pointing information acquisition unit to be added to the data list, and the pointing input data list and the voice input data are received, and the semantic representation in the voice input data and the pointing data in the pointing input data list are compared in the order of appearance to obtain the semantic representation. If they match, the identification processing unit that replaces the semantic expression with pointing data, the processing determination unit that receives the semantic expression after the identification processing and determines the processing to be executed by referring to the voice event table, and the determined processing Execute and the result is the object Multimodal input analyzing system characterized by comprising a processing execution section to be reflected in the storage unit and the operation target holding unit.
【請求項2】前記不足しているポインティング情報の獲
得は、前記履歴保持部内の最新の入力データがポインテ
ィング入力であるかどうか、前記操作対象保持部内のオ
ブジェクト情報が音声入力データ中の最初に出現する指
示表現に合致するかどうか、次の入力がポインティング
入力かどうかを、この順に調べ、該当するデータを見つ
けることにより行うことを特徴とする請求項1記載のマ
ルチモーダル入力解析システム。
2. The lacking pointing information is acquired by determining whether the latest input data in the history holding unit is pointing input, and the object information in the operation target holding unit appears first in the voice input data. 2. The multimodal input analysis system according to claim 1, wherein the multimodal input analysis system is performed by checking whether or not the specified expression is satisfied and whether or not the next input is a pointing input in this order, and finding the corresponding data.
【請求項3】前記該当するデータが見つかった時点でそ
のデータを前記ポインティング入力データリストに追加
することを特徴とする請求項2記載のマルチモーダル入
力解析システム。
3. The multimodal input analysis system according to claim 2, wherein when the corresponding data is found, the data is added to the pointing input data list.
JP5256199A 1993-10-14 1993-10-14 Multimodal input analysis system Pending JPH07110734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5256199A JPH07110734A (en) 1993-10-14 1993-10-14 Multimodal input analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5256199A JPH07110734A (en) 1993-10-14 1993-10-14 Multimodal input analysis system

Publications (1)

Publication Number Publication Date
JPH07110734A true JPH07110734A (en) 1995-04-25

Family

ID=17289293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5256199A Pending JPH07110734A (en) 1993-10-14 1993-10-14 Multimodal input analysis system

Country Status (1)

Country Link
JP (1) JPH07110734A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630901B2 (en) 2004-06-29 2009-12-08 Canon Kabushiki Kaisha Multimodal input method
KR101313283B1 (en) * 2011-11-21 2013-10-02 박지현 Input processing device and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630901B2 (en) 2004-06-29 2009-12-08 Canon Kabushiki Kaisha Multimodal input method
KR101313283B1 (en) * 2011-11-21 2013-10-02 박지현 Input processing device and method thereof

Similar Documents

Publication Publication Date Title
US5873064A (en) Multi-action voice macro method
JP3286339B2 (en) Window screen control device
JPH0448248B2 (en)
JPH03175593A (en) On-line character recognizing device
JPH06208389A (en) Method and device for information processing
JPH0887378A (en) Command execution system by mouse operation recognition
JP3792755B2 (en) Character recognition method and apparatus
JPH0652221A (en) Automatic extracting system for proper noun
JPH08292881A (en) Program influence range display device
JPH07110734A (en) Multimodal input analysis system
JP2931553B2 (en) Topic processing device
US20020010586A1 (en) Voice browser apparatus and voice browsing method
JPH1185492A (en) Device for supporting preparation of object oriented data model
US5999648A (en) Character-figure editing apparatus and method
JPS62241026A (en) Character string retrieving system
JPH07219587A (en) Processor and method for speech processing
US5551036A (en) Method and system for generating operation specification object information
JPH09185632A (en) Method and device for retrieving/editing information
CN114579033B (en) Gesture switching method, device and equipment for android platform and storage medium
JPH05189139A (en) Command input method and information processor
JP2001142688A (en) Program analyzer and recording medium
JP3252176B2 (en) Data input device
JPH0423167A (en) Command retrieving system
JP3004067B2 (en) Record classification method for information processing device
JP2000347995A (en) Method and device for identifying data composition

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070707

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080707

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20090707

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20090707

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 13