JPH03191383A - Cai system - Google Patents

Cai system

Info

Publication number
JPH03191383A
JPH03191383A JP33023189A JP33023189A JPH03191383A JP H03191383 A JPH03191383 A JP H03191383A JP 33023189 A JP33023189 A JP 33023189A JP 33023189 A JP33023189 A JP 33023189A JP H03191383 A JPH03191383 A JP H03191383A
Authority
JP
Japan
Prior art keywords
data
program
operator
information
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33023189A
Other languages
Japanese (ja)
Inventor
Masaaki Hatanaka
畑中 正明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP33023189A priority Critical patent/JPH03191383A/en
Publication of JPH03191383A publication Critical patent/JPH03191383A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE:To easily prepare a teaching material by executing a function for carrying out prescribed processing in response to each operation of an operator, gathering the information of each operation when software is executed, and generating data file. CONSTITUTION:As a program executed by a first means, for instance, the program of the window control function of the basic software is used. A window is displayed on a display device 2, and each function is used by an input means such as a mouth 6 and a keyboard 4. A second means gathers each information of the operations carried out by the operator through the use of an user operation interpreting part 11, a relevant data specifying part 12, and a data generating part 13, and program data that the operated contents are substituted for the language notation of a CAI system and described is prepared and housed in the data file 8. Therefore, the operator carries out the operation while monitoring a screen, so that each data and the program are easily and automatically prepared, and a complicated operation is eliminated. Thus, this CAI system in which a teaching material is easily prepared is obtained.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、教材データや教育内容の流れを示すデータを
生成するCAIシステムに関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Application Field) The present invention relates to a CAI system that generates teaching material data and data indicating the flow of educational content.

(従来の技術) 教材作成機能を持つCAIシステムでは、教材作成者が
学習者に提示するためのデイスプレィ上の画面や音声、
学習者からの入力要求などのデータを作成し、それらの
流れを何等かの方法で指定することができるようになっ
ていた。
(Conventional technology) In a CAI system that has a teaching material creation function, a teaching material creator can display screens and audio on a display to present to learners,
It was now possible to create data such as input requests from learners and specify the flow of such data in some way.

(発明が解決しようとする課M) その指定をプログラム言語で行う場合、教材作成者はそ
れを、文字列として新たにまたは既存のもののコピーな
どで入力する必要があった。また、そのプログラム言語
で作成を行っているとき、教材作成者は実際に画面や音
声等により学習者に提示される内容を五官により直接に
把握することはできないので、上記学習者に提示される
内容、例えば画面におけるアイコンの位置など、を常に
プログラム言語から類推して作成し、その後に実際の動
作の確認をし、必要あれば内容の変更作業が必要となり
“、教材作成のために煩わしい手間がかかっていた。
(Problem M to be solved by the invention) When specifying this in a programming language, the teaching material creator had to input it as a new character string or as a copy of an existing one. In addition, when creating materials using the programming language, the creator of the teaching material cannot directly grasp the content that is actually presented to the learner through the screen or audio, so The content, such as the position of icons on the screen, must always be created by analogy with the programming language, and then the actual operation must be confirmed, and if necessary, the content must be changed. was on.

本発明は上記従来技術の問題点を解決し、教材作成の容
易なCAIシステムを提供することを目的とするもので
ある。
It is an object of the present invention to solve the problems of the above-mentioned prior art and to provide a CAI system that facilitates the creation of teaching materials.

(課題を解決するための手段) 本発明のCAIシステムは、入力手段を用いたオペレー
タの各操作に応答して所定の処理を遂行する機能を有す
るソフトウェアを、実行する第1の手段と、前記ソフト
ウェアの実行時に、オペレータの行うた各操作の情報を
採取し、前記操作内容を記述したデータファイルを生成
する第2の手段とを備えている。
(Means for Solving the Problems) The CAI system of the present invention includes a first means for executing software having a function of performing a predetermined process in response to each operation of an operator using an input means; and second means for collecting information on each operation performed by the operator when the software is executed, and generating a data file describing the contents of the operation.

(作 用) 本発明において、第1の手段の実行するプログラムとし
ては、例えばCAlシステムとしてワークステージダン
を用いる場合などでは、ワークスチーシーンの基本ソフ
トウェアのウィンドウ管理機能のプログラムがある。こ
のようなプログラムが実行されている状態では、表示装
置にウィンドウが表示され、マウスや牛−ボード等の入
力手段により各種の機能を使用することができる。この
ような状態において、本発明の第2の手段は、オペレー
タの行った各操作情報を採取し、その操作内容をCAl
システムの言語表記に置き換えて記述したプログラムデ
ータな作成し、データファイルに格納する。
(Function) In the present invention, the program executed by the first means is, for example, a program for the window management function of the basic software of WorkStage, when WorkStageDan is used as the CAL system. While such a program is being executed, a window is displayed on the display device, and various functions can be used using input means such as a mouse or a board. In such a state, the second means of the present invention collects information on each operation performed by the operator, and calculates the content of the operation in CAL.
Create program data written in the language notation of the system and store it in a data file.

本発明によれば、オペレータが画面を見ながら操作をす
ることにより簡単に前記各データおよびプログラムが自
動的に作成され、従来のような繁雑な動作を必要としな
いので、教材作成の容易なCAlシステムが実現できる
According to the present invention, each data and program are automatically created simply by the operator operating while looking at the screen, and does not require complicated operations as in the past. system can be realized.

(実施例) 第1図は本発明のCAlシステムをワークスチーシーン
により実施するためのの例を示す概略の構成ブロック図
である。
(Embodiment) FIG. 1 is a schematic block diagram showing an example of implementing the CAl system of the present invention using a workstation.

CPUからなるシステム制御部1樟、画面を表示するた
めのCRT表示装W12およびCRT制御装置!!3と
、文字や数字やコマンド等の入力を行うためのキーボー
ド4およびキーボードインターフェイス5と、マウス等
のボインティング装[6およびボインティング装置イン
ターフェイス7と、プログラムや必要なデータファイル
を記憶するための記憶装置8および記憶装aytsm装
y19とが接続されている。
A system control unit 1 consisting of a CPU, a CRT display device W12 for displaying the screen, and a CRT control device! ! 3, a keyboard 4 and a keyboard interface 5 for inputting characters, numbers, commands, etc., a pointing device such as a mouse [6 and a pointing device interface 7, and a keyboard for storing programs and necessary data files. A storage device 8 and a storage device aytsm device y19 are connected.

システム制御部1は通常のワークスチーシーンとしての
機能を備えており、そのほかに本発明の特徴とする機能
として、ユーザ操作解釈部11と、該当データ特定部1
2と、データ生成部13とを備えている。
The system control section 1 has a function as a normal work scene, and in addition, as features of the present invention, it has a user operation interpretation section 11 and a corresponding data identification section 1.
2 and a data generation section 13.

ユーザ操作解釈部11は、キーやマウス入力された際に
、それらの入力が何(アイコンやウィンドウメニュー)
に対するどのような処理(選択や文字入力、カーソル移
動など)であうたかを判定するものである。
When a key or mouse input is made, the user operation interpretation unit 11 determines what those inputs are (icons or window menus).
It determines what kind of processing (selection, character input, cursor movement, etc.) was performed on the screen.

該当データ特定部12は、ユーザ操作解釈部工!により
「何」に対する「どのような」操作かの判定がなされた
後、そのような操作がC1rシステムの言語に置き換え
可能なものか否かを判定するものである。
The relevant data identification unit 12 is a user operation interpretation unit! After determining ``what'' and ``what'' operations are performed, it is determined whether such operations can be replaced with the language of the C1r system.

データ生成部13は、該当データ特定部12で広き換え
可能であると判定された場合、実際のCAlシステムの
プログラム言語の表記の変換するものである。
The data generation unit 13 converts the notation of the programming language of the actual CAl system when it is determined by the relevant data identification unit 12 that the data can be broadly changed.

このワークスチーシーンには基本ソフトウェアによって
通常の機能が作動している。また、この基本ソフトウェ
アのウィンドウ管理機能により管理されるウィンドウ情
報としては、ウィンドウの位置、大きさ、ウィンドウ中
のすべてのアイテムの位置、大きさ、種類、内容などで
ある。
This work scene has normal functions operated by basic software. The window information managed by the window management function of this basic software includes the position and size of the window, and the positions, sizes, types, and contents of all items in the window.

第2図は本実施例の処理動作を説明するための動作フロ
ー図である。
FIG. 2 is an operation flow diagram for explaining the processing operation of this embodiment.

ワークスチーシーンの基本ソフトウェアが作動しており
、その認証機能によりユーザの認証を行い(ステップS
1)、認証に成功したら、ユーザからの指示(コマンド
入力)を待つ0本実施例によるデータ自動生成の処理を
行うことが指示されたかあるいは他の処理が指示された
かどうかにより(ステップS2)、本発明の自動生成モ
ードとするか(ステップ4以下の処理)或は指示された
他の処理モードとする(ステップS3)。
WorkScene's basic software is running, and its authentication function authenticates the user (step S
1) If the authentication is successful, wait for an instruction (command input) from the user. Depending on whether automatic data generation processing according to this embodiment is instructed or other processing is instructed (step S2), The automatic generation mode of the present invention is selected (processing from step 4 onwards) or another specified processing mode is selected (step S3).

本発明の自動生成モードが指示された場合には、そのた
めのCAlシステムのプログラムが、基本ソフトウェア
の流れの一部に組み入れられる形で、動作可能な状態に
なる。ワークスチーシーンの基本ソフトウェアの機能に
よりユーザからのキーボードまたはマウスによる入力は
そのすべてがトレ−スされ、それらの操作が行われた位
置、時間等がCAIシステムのユーザ操作解釈部(解釈
ルーチン)11に渡される。
When the automatic generation mode of the present invention is instructed, the CAl system program therefor becomes operational by being incorporated as part of the basic software flow. The functions of the basic WorkScene software trace all inputs from the user's keyboard or mouse, and the location, time, etc. of those operations are recorded by the user operation interpretation section (interpretation routine) 11 of the CAI system. passed to.

ユーザはデータ自動生成モードを指示した後、学習シス
テムで再現したい操作を、基本ソフトウェアが動作して
いる状態で行う。
After instructing the automatic data generation mode, the user performs the operation that he or she wants to reproduce in the learning system while the basic software is running.

ユーザ操作解釈部11は、ユーザの操作入力を待ち(ス
テップS4)、その操作入力があったら、その操作が、
■マウスを動かした、■マウスボタンを押した、■キー
ボードの操作をした等の入力を監視する(ステップS5
)、すなわち、ユーザ操作解釈部11は、キーやマウス
入力された際に、それらの入力が何(アイコンやウィン
ドウメニエー)に対するどのような操作(すなわち選択
や文字入力、カーソル移動など)であったかを判定する
0例えば、マウスボタンが押された入力があったとすれ
ば、その解釈のされ方はそのときのワークステージメン
の動作状態による。このとき、もしマウスカーソルの位
置がアイコンの上ならそのアイコンがセレクトされ、ウ
ィンドウ中の文字の上ならその文字がセレクトされた状
態となる。また、もし何もないところでマウスボタンが
押された場合は、何も起こらない。従って、この例の場
合、次の3種類の操作のどれであるかが判定されること
になる。
The user operation interpretation unit 11 waits for the user's operation input (step S4), and if the operation input is received, the operation is
■Monitoring inputs such as moving the mouse, pressing a mouse button, and operating the keyboard (step S5)
), that is, when a key or mouse input is made, the user operation interpretation unit 11 determines what kind of operation (i.e., selection, character input, cursor movement, etc.) those inputs were for what (icon or window menu). For example, if there is an input in which a mouse button is pressed, how that is interpreted depends on the operating state of the work stager at that time. At this time, if the mouse cursor is on an icon, that icon is selected, and if it is on a character in the window, that character is selected. Also, if the mouse button is pressed in an empty space, nothing happens. Therefore, in this example, it is determined which of the following three types of operations is involved.

■アイコン選択 ■ウィンドウ中の文字の選択 ■何もないところでのマウスボタンの押下法に、該当デ
ータ特定部12は、ユーザ操作解釈部11により「何」
に対する「どのような」操作かの判定がなされた後、ユ
ーザ操作解釈部11から受は取ったデータに対し、操作
の種類とその時点での環境(ワークステージ算ンの状B
)に基づいて、そのような操作がCAIシステムの言語
表記に置き換え可能なものか否かを判定する(ステップ
56)6例えば、ユーザ操作解釈部11により前記の操
作の例■■■の内の■であると判定された場合、該当デ
ータ特定部12はそれに対応する言語表記がCAIシス
テムに用意されているか否かの判定を行う。
■Icon selection■Selection of characters in the window■When pressing the mouse button in an empty area, the corresponding data identification unit 12 determines “what” by the user operation interpretation unit 11.
After determining "what" the operation is, the receiver uses the data received from the user operation interpretation unit 11 to determine the type of operation and the environment at that time (work stage calculation state B).
), it is determined whether such an operation can be replaced with the language notation of the CAI system (step 56) 6 For example, the user operation interpretation unit 11 selects the If it is determined that (2) is the case, the applicable data specifying unit 12 determines whether or not the corresponding language notation is prepared in the CAI system.

ソノ判定の結果、CAIシステムの言語のコマンド中に
該当するものがなければそのデータは捨てられ(ステッ
プS7)、次のデータの入力待ちを行うためステップS
4へ移る。
As a result of the SONO judgment, if there is no corresponding command in the language of the CAI system, that data is discarded (step S7), and the process returns to step S to wait for the next data input.
Move on to 4.

もし、該当するコマンドがある場合、データ生成部13
は、そのデータやコマンドに必要なそれ以外のデータ、
すなわちそのデータの発生時点での環境から得られるデ
ータ(例えばセレクシWン状態やカーソル位置などのよ
うな基本ソフトにより管理されている環境データ)から
必要なデータを抽出しコマンドを生成、格納する(ステ
ップS7、S8)。「削除キー」が押されたとした場合
、もし状態が整っていれば「何かを削除する」というC
AIシステムに用いるプログラムを生成することができ
るが、「何か」ということはキー人力の情報からだけで
は判定できない、そこで、その削除キーが押されたとき
のワークステージ1ン上の状態が必要になる。もし何か
が選択されている状態ならば、作動中の基本ソフトウェ
アのシステムはその情報を管理しているので1CAIシ
ステムは基本ソフトウェアのシステムから現在何が選択
されているかまたはそれは何か等の状態の情報を抽出す
ることができる。このようにCAIシステムに用意され
たコマンドが特定され、そのコマンドに必要なデータが
得られたら、このコマンドの文法に従ってCAIシステ
ムに用いるプログラムデータが生成される。
If there is a corresponding command, the data generation unit 13
is that data and other data required by the command,
In other words, it extracts the necessary data from the data obtained from the environment at the time the data is generated (for example, environmental data managed by basic software such as the selector status and cursor position), generates a command, and stores it ( Steps S7, S8). If the "delete key" is pressed, if the state is set, the C that says "delete something"
Although it is possible to generate a program to be used in an AI system, "something" cannot be determined only from the key information manually, so the state on work stage 1 when the delete key is pressed is required. become. If something is selected, the basic software system that is running is managing that information, so the 1CAI system will know what is currently selected from the basic software system, what it is, etc. information can be extracted. Once the command prepared for the CAI system is identified in this way and the data necessary for the command is obtained, program data for use in the CAI system is generated according to the syntax of this command.

以上の動作について、デスクトップ上のファイルアイコ
ンを選択しコピーする場合を例に取り、さらに具体的に
説明する。コピーすべきファイルアイコンは予めデスク
トップ上に取り出しであるものとする。
The above operation will be explained in more detail using an example of selecting and copying a file icon on the desktop. It is assumed that the file icon to be copied has been taken out on the desktop in advance.

ユーザはまず該当するファイルアイコン″未使用文書”
を、マウスによりカーソルを移動して指定し、ボタンを
押して離すクリック操作により選択する。そうするとマ
ウスカーソルの位置とクリック操作が基本ソフトウェア
により検出され、ユーザ操作解釈部11に渡される。ユ
ーザ操作解釈部11は、マウスカーソルの位置とクリッ
ク操作から、まずその場所に何があるか特定する。この
例ではデスクトップにアイコンがあり、アイコンに対す
るクリックなのでCAlシステムはそれを「選択」と判
定する。その際基本ソフトウェアからアイコンの名前や
タイプなどの情報も得る。
The user first selects the corresponding file icon “Unused Document”
Specify by moving the cursor with the mouse, and select by clicking the button by pressing and releasing it. Then, the position of the mouse cursor and the click operation are detected by the basic software and passed to the user operation interpretation section 11. The user operation interpretation unit 11 first identifies what is at that location based on the position of the mouse cursor and the click operation. In this example, there is an icon on the desktop, and since the click is on the icon, the CAL system determines this as a "selection." At this time, information such as the name and type of the icon is also obtained from the basic software.

得られた情報はすべて該当データ特定部12に渡す。All the obtained information is passed to the relevant data specifying section 12.

該当データ特定部12は、渡された情報からCAlシス
テムで提供するプログラム言語で表記可能か判断する。
The relevant data specifying unit 12 determines from the passed information whether it can be expressed in the programming language provided by the CAl system.

この例の場合は、それが可能である。In this example, it is possible.

そして、そしてその情報はデータ生成部13に渡される
。データ生成部13は、アイコン選択に対応するプログ
ラムrselct  Icon  “未使用文ii″」
を作成する。
Then, that information is passed to the data generation section 13. The data generation unit 13 generates a program rselct Icon “unused sentence ii” corresponding to icon selection.
Create.

次に、ユーザはキーボード上のC0PY (転記)キー
を押す。そうすると、ユーザ操作解釈部11は何か選択
されているか、選択されているならそれは何かを判定す
る。ここではすでに選択されている前記アイコンの情報
が得られる。
The user then presses the C0PY (transcribe) key on the keyboard. Then, the user operation interpretation unit 11 determines whether something has been selected, and if so, what it is. Here, information on the icon that has already been selected can be obtained.

アイコンが選択されC0PY (転記)キーが押された
時点では実際のコピー作業は行われない。つまりこのキ
ー人力の時点では、CAlシステムプログラムに対応す
るものはな(1と該当データ特定部12により判定され
、情報はすべて捨てられ次の入力待ちに移る。
No actual copying operation is performed when the icon is selected and the C0PY (transcription) key is pressed. In other words, at this point in time when the key is manually input, the corresponding data specifying unit 12 determines that there is nothing corresponding to the CAl system program (1), and all information is discarded and the process moves to wait for the next input.

基本ソフトウェアでは、copyモードとなる。The basic software is in copy mode.

最後に、ユーザがC0PY したい場所にカーソルを合
わせマウスボタンをクリックすると、ユーザ操作解釈部
11は何が選択されているか、それは何か、カーソルの
状態はどうなっているかを判定する。現在はアイコンが
選択されており、カーソルは転記の状態になっている。
Finally, when the user places the cursor on the desired location and clicks the mouse button, the user operation interpretation unit 11 determines what is selected, what it is, and what the state of the cursor is. The icon is currently selected and the cursor is in the transcription state.

該当データ特定部12は渡された情報から、CAlシス
テムの言語表記可能か否かを判定し、この時点では可能
と判定する。
The relevant data specifying unit 12 determines from the passed information whether or not the CAl system language notation is possible, and determines that it is possible at this point.

そして、データ生成部13は、CAlシステムの言語の
有する各コマンドごとにそのコマンドの文法に従って、
該当データ特定部により渡されたデータに基づいて、言
語表記法に従った表記のプログラムを作成する機能を有
しており、この例ではその機能によりrcopyIco
n  “未使用文書”」を作成する。
Then, the data generation unit 13 generates a command according to the grammar of each command of the language of the CAl system.
It has a function to create a program written in accordance with the language notation based on the data passed by the relevant data specifying part, and in this example, it uses rcopyIco.
n Create “unused documents”.

第3図は、本実施例によりデータ作成のある時点におけ
るワークスチーシーンのCR7表示部に表示された画面
例を示すものである。この画面は、ユーザの操作を学習
システムのプログラムの一部として記述されたファイル
(すなわちスクリプト)のウィンドウrscrlptJ
を表示している。ウィンドウrscriptJは次の内
容を持っている。
FIG. 3 shows an example of a screen displayed on the CR7 display section of the work scene at a certain point in data creation according to this embodiment. This screen displays a file (i.e. script) window rscrlptJ that is written as part of the program of the learning system.
is displayed. Window rscriptJ has the following contents.

a)基本アイコン“未使用文書”を位+12−11に取
り出す。
a) Take out the basic icon "unused document" at position +12-11.

b)基本アイコン“未使用文書”を選択する。b) Select the basic icon "Unused document".

C)基本アイコン“未使用文書”を位!11−11にコ
ピーする。
C) Place the basic icon “Unused document”! Copy to 11-11.

d)アイコン“目録”を開く。d) Open the icon “Inventory”.

(発明の効果) 本発明によれば、オペレータが画面を見ながら操作をす
ることにより簡単に前記各データが自動的に作成され、
従来のような繁雑な動作を必要としないので、教材作成
の容易なCAlシステムが実現できる。
(Effects of the Invention) According to the present invention, each of the above-mentioned data can be easily and automatically created by an operator performing an operation while looking at the screen.
Since it does not require complicated operations like the conventional one, it is possible to realize a CAL system in which teaching materials can be easily created.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例の構成を示すブロック図であ
る。 第2図は実施例の動作すなわち教材作成支援の流れを示
す動作フロー図である。 第3図は、本実施例のスクリプト作成時のワークスチー
シーンのCR7表示部に表示されたの画面例を示すもの
である。 l・・・システム制御部、11・・・ユーザー操作解釈
部、12・・・該当データ特定部、13・・・データ生
成部、2・・・CRT表示装置、3・・・CRTWAj
1g装置、4・・・キーボード、5・・・キーボードイ
ンターフェイス、6・・・ボインティング装[(マウス
)、7・・・ポインティング装置インターフェイス。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. FIG. 2 is an operation flow diagram showing the operation of the embodiment, that is, the flow of teaching material creation support. FIG. 3 shows an example of a screen displayed on the CR7 display section of the work scene when creating the script of this embodiment. l... System control unit, 11... User operation interpretation unit, 12... Applicable data identification unit, 13... Data generation unit, 2... CRT display device, 3... CRTWAj
1g device, 4...keyboard, 5...keyboard interface, 6...pointing device (mouse), 7...pointing device interface.

Claims (1)

【特許請求の範囲】 入力手段を用いたオペレータの各操作に応答して所定の
処理を遂行する機能を有するソフトウェアを、実行する
第1の手段と、 前記ソフトウェアの実行時に、オペレータの行った各操
作の情報を採取し、前記操作内容を記述したデータファ
イルを生成する第2の手段とを備えたCAIシステム。
[Scope of Claims] First means for executing software having a function of performing predetermined processing in response to each operation by an operator using an input means; and a second means for collecting operation information and generating a data file describing the operation contents.
JP33023189A 1989-12-20 1989-12-20 Cai system Pending JPH03191383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33023189A JPH03191383A (en) 1989-12-20 1989-12-20 Cai system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33023189A JPH03191383A (en) 1989-12-20 1989-12-20 Cai system

Publications (1)

Publication Number Publication Date
JPH03191383A true JPH03191383A (en) 1991-08-21

Family

ID=18230324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33023189A Pending JPH03191383A (en) 1989-12-20 1989-12-20 Cai system

Country Status (1)

Country Link
JP (1) JPH03191383A (en)

Similar Documents

Publication Publication Date Title
US9971471B2 (en) Tool-tip for multimedia files
US5434965A (en) Balloon help system
CA2145678C (en) Command system
EP0664021B1 (en) Menu state system
RU2348964C2 (en) System and method for provision of notability of devices of user interface for application and user
EP0669017B1 (en) Object oriented application interface
US5717877A (en) Object-oriented data access framework system
CA2135527C (en) Object oriented notification framework system
KR100369213B1 (en) A data processor controlled display system with audio identifiers for overlapping windows in an interactive graphical user interface
US5551055A (en) System for providing locale dependent user interface for presenting control graphic which has different contents or same contents displayed in a predetermined order
US4686522A (en) Method of editing graphic objects in an interactive draw graphic system using implicit editing actions
US5479601A (en) Method and apparatus for processing commands generated by user interface controls in an atomic manner
US20030222915A1 (en) Data processor controlled display system with drag and drop movement of displayed items from source to destination screen positions and interactive modification of dragged items during the movement
JPH09510567A (en) Document proxy framework
JP2022183351A (en) Information processing apparatus and program
Carter et al. Dynamically adapting GUIs to diverse input devices
EP0717343A1 (en) Context sensitive menu system/menu behavior
JPH04199352A (en) Information processor suitable for tool operation
JPH03191383A (en) Cai system
JPH03144719A (en) Information processor
EP0664020B1 (en) Scrolling system
JPH01251216A (en) Menu display system
JPH0720990A (en) Document editing processor
Jones et al. Remote control for annotated video
JPH10320577A (en) Device for managing scenario, and medium storing program for managing scenario