JPH01229321A - User interface generation tool - Google Patents
User interface generation toolInfo
- Publication number
- JPH01229321A JPH01229321A JP63055486A JP5548688A JPH01229321A JP H01229321 A JPH01229321 A JP H01229321A JP 63055486 A JP63055486 A JP 63055486A JP 5548688 A JP5548688 A JP 5548688A JP H01229321 A JPH01229321 A JP H01229321A
- Authority
- JP
- Japan
- Prior art keywords
- display
- information
- input
- objects
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 35
- 230000004044 response Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Landscapes
- Stored Programmes (AREA)
- Devices For Executing Special Programs (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【発明の詳細な説明】 [概要〕 オブジェクト指向データ処理システムにおいて。[Detailed description of the invention] [overview〕 In object-oriented data processing systems.
オブジェクトの内容表示および操作等に関するユーザイ
ンタフェースの作成を支援するユーザインタフェース作
成ツールに関し。This invention relates to a user interface creation tool that supports the creation of user interfaces for displaying and manipulating the contents of objects.
オブジェクトの表示領域を管理することによる視覚的・
直接的なグラフインク・インタフェースおよび辞書の利
用による自然言語インタフェースなどを容易かつ統一的
に構築できる手段を提供することを目的とし。Visual improvements by managing the display area of objects
The purpose of this paper is to provide a means for easily and uniformly constructing a direct graph ink interface and a natural language interface using a dictionary.
所定の定義情報を持つオブジェクトの表示指示に対し、
そのオブジェクトと部品オブジェクトの内容を表示する
と共に、アクセス・テーブルに表示オブジェクトとその
占有領域情報とを登録する表示系処理手段と、オブジェ
クト表示画面における入力に対し、アクセス・テーブル
に従ってオブジェクトを抽出する下段とメソッドに対す
るメニュー処理を行う手段と自然言語人力に対し辞書に
従ってコマンドを生成し実行する手段とを有する入力系
処理手段とを備える。In response to an instruction to display an object with predetermined definition information,
A display system processing means that displays the contents of the object and part object and also registers the display object and its occupied area information in the access table, and a lower stage that extracts the object according to the access table in response to input on the object display screen. and an input system processing means having a means for performing menu processing for the method and a means for generating and executing a command according to a dictionary for natural language human power.
本発明は、オブジェクト指向データ処理システムにおい
て、オブジェクトの内容表示および操作等に関するユー
ザインタフェースの作成を支援するユーザインタフェー
ス作成゛ンールに関する。The present invention relates to a user interface creation tool that supports creation of a user interface related to object content display and operation in an object-oriented data processing system.
最近、与えられた問題の中に現れる物やデータを、属性
値と操作手続き(メソッド)とを持つオブジェクトとし
て管理し、オブジェクト間のメツセージの授受により1
問題を処理していくオブジェクト指向の処理システムが
実用化され、用いられている。このようなシステムにお
いて、ユーザが簡単に所望する処理環境を構築できるよ
うな手段が望まれている。Recently, objects and data that appear in a given problem are managed as objects with attribute values and operation procedures (methods), and messages are sent and received between objects.
Object-oriented processing systems that process problems have been put into practical use and are in use. In such a system, a means is desired that allows the user to easily construct a desired processing environment.
ユーザインタフェースは、いわば人間と計算機との情報
の授受に関する部分であって、その内容によって、操作
性が大きく影ツする。従来、ユーザインタフェースは、
それぞれの問題に応じて。The user interface is, so to speak, a part related to the exchange of information between humans and computers, and its operability is greatly affected by its contents. Traditionally, user interfaces are
Depending on each problem.
すべて開発者が独自に設計するようにされていた。Everything was designed independently by the developer.
そのため、従来のユーザインタフェースは、マシン依存
、応用依存の部分が多く、操作性のよいユーザインタフ
ェースを提供するためには9作成工数を多く必要として
いた。また、マシン独立でないため、他のシステムにお
ける再利用(移植)が困難であった。Therefore, conventional user interfaces have many machine-dependent and application-dependent parts, and require a large number of man-hours to create a user interface in order to provide a user interface with good operability. Furthermore, since it is not machine independent, it is difficult to reuse (port) it in other systems.
また、従来、いわゆるメニュ一方式、コマンド方式、自
然言語入力方式などの種々のインタフェースが5個別に
利用されているが、システムが受は入れる処理の範囲が
狭く、ユーザが思った操作をすぐに実行することができ
ないというような問題があった。これは、出力された結
果に対して。In addition, conventionally, various interfaces such as so-called menu-based interfaces, command-based interfaces, and natural language input interfaces have been used individually, but the range of processing that the system can accept is narrow, and the user cannot immediately perform the desired operation. There was a problem that it could not be executed. This is for the output results.
ユーザが直接操作できないことも理由の一つである。ユ
ーザは、現在得られている知識(データ)に基づいて9
例えば、さらに詳しく知りたいとか。One of the reasons is that the user cannot directly operate it. Based on the knowledge (data) currently available, the user
For example, you want to know more details.
関連するものを知りたいというように、思ったことを直
接操作したいことが多いと考えられるが。It is thought that there are many cases where you want to directly manipulate what you think, such as when you want to know something related to it.
従来5 それを満たすインタフェースを構築することは
極めて困難であった。Conventional 5 It has been extremely difficult to construct an interface that satisfies this requirement.
また、マルチメディアを用いたユーザインタフェースを
構築する場合に、非常に多くの時間と労力を必要とした
。Furthermore, constructing a user interface using multimedia required a great deal of time and effort.
本発明は上記問題点の解決を図り、オブジェクトの表示
領域を管理することによる視覚的・直接的なグラフィッ
ク・インタフェースおよび辞書の利用による自然言語イ
ンタフェースなどを容易かつ統一的に構築できる手段を
提供することを目的としている。The present invention aims to solve the above problems and provides a means for easily and uniformly constructing a visual and direct graphic interface by managing the display area of objects, a natural language interface by using a dictionary, etc. The purpose is to
第1図は本発明の原理説明図である。 FIG. 1 is a diagram explaining the principle of the present invention.
第1図において、10はデイスプレィ、11はCPUお
よびメモリなどからなる処理装置、12は属性値とメソ
ッドなどを持つオブジェクト、13は自然言語の解析に
用いられる解析用辞書、14はオブジェクトの表示イン
タフェースを提供する表示系処理手段、15は指定され
たオブジェクトを表示するオブジェクト表示部、16は
表示オブジェクトをアクセス・テーブルに登録するアク
セス・テーブル登録部、17は統一的な人力インタフェ
ースを提供する入力系処理手段、1Bは指定されたオブ
ジェクトを抽出するオブジェクト抽出部、19は自然言
語入力によってコマンドを生成し実行するコマンド生成
・実行部、20はメニューによってメソッドを選択し実
行するメニュー処理部、21はオブジェクトとその占存
領域情報が登録されるアクセス・テーブル、22は入力
制御を行う入力制御部、23はキーボードやボインティ
ング・デバイスなどの入力’AHである。In FIG. 1, 10 is a display, 11 is a processing unit including a CPU and memory, 12 is an object having attribute values and methods, 13 is an analysis dictionary used for natural language analysis, and 14 is an object display interface. 15 is an object display unit that displays a specified object; 16 is an access table registration unit that registers a display object in an access table; and 17 is an input system that provides a unified human interface. Processing means, 1B is an object extraction unit that extracts a specified object, 19 is a command generation/execution unit that generates and executes a command by natural language input, 20 is a menu processing unit that selects and executes a method from a menu, and 21 is a An access table in which objects and their occupied area information are registered; 22 is an input control unit that performs input control; and 23 is an input 'AH' such as a keyboard or pointing device.
本発明は、オブジェクト指向モデルを扱うデータ処理シ
ステムを前提としており、各オブジェクト12は、所定
の各種属性名で1図形やテキストやイメージなどの表示
情報および表示領域に関係する占有領域情報等を持つよ
うにされる。換言すると、所定の表示情報および占有領
域情報等を持つようにオブジェクト12が作成されてい
れば。The present invention is based on a data processing system that handles an object-oriented model, in which each object 12 has display information such as a figure, text, or image, and occupied area information related to the display area with various predetermined attribute names. It will be done like this. In other words, if the object 12 is created to have predetermined display information, occupied area information, etc.
後述する表示系処理手段14および入力系、処理手段1
7によるインタフェースを利用できるようになっている
。Display system processing means 14, input system, and processing means 1 to be described later
7 interface can be used.
解析用辞書13は、自然言語の単語と、オブジェクト・
属性・条件・メソッドなどの対応関係情報が、所定の形
式で予め登録されるものであって。The analysis dictionary 13 contains natural language words and object/
Correspondence information such as attributes, conditions, methods, etc. is registered in advance in a predetermined format.
解析用辞書13への登録+fl報によって、入力系処理
手段17による自然言語インタフェースを利用できるよ
うになっているものである。By registering in the analysis dictionary 13 + fl information, the natural language interface by the input system processing means 17 can be used.
表示系処理手段14は、オブジェクト12の表示指示に
対し、予め定められた属性を参照し、オブジェクト表示
部15により、そのオブジェクトおよびそのオブジェク
トの部品オブジェクトに関する内容を、デイスプレィ1
0に表示する。また。In response to an instruction to display an object 12, the display system processing means 14 refers to a predetermined attribute, and causes the object display section 15 to display the contents regarding the object and its component objects on the display 1.
Display at 0. Also.
アクセス・テーブル登録部16により、アクセス・テー
ブル21に、今1表示したオブジェクト12の識別情報
と、その占有領域情報とを登録する処理を行う。The access table registration unit 16 performs a process of registering the identification information of the currently displayed object 12 and its occupied area information in the access table 21.
アクセス・テーブル21は、デイスプレィIOへの表示
対象となるウィンドウWに対応して設けられる内部作業
用の記憶領域であって、そのウィンドウWに表示されて
いる各オブジェクトとその占有領域情報とを記憶するも
のである。The access table 21 is a storage area for internal work provided corresponding to the window W to be displayed on the display IO, and stores information about each object displayed in the window W and its occupied area. It is something to do.
入力系処理手段17は3人力装置23から入力制御部2
2を介して、オブジェクト表示画面における座標を入力
すると、オブジェクト抽出部18によって、該当するア
クセス・テーフ゛ル21を検索し、入力座標に対応する
オブジェクトを操作対象として抽出する処理を行う。ま
た、自然言語人力に対し、解析用辞書I3を参照して解
析を行い。The input system processing means 17 receives the input from the three-manpower device 23 from the input control section 2.
2, when the coordinates on the object display screen are input, the object extracting section 18 searches the corresponding access table 21 and performs a process of extracting the object corresponding to the input coordinates as an operation target. In addition, analysis is performed with reference to the analysis dictionary I3 for the natural language human ability.
オブジェクト操作言語によるコマンドを生成して。Generate commands using object manipulation language.
それを実行するコマンド生成・実行部19と、抽出され
たオブジェクトが持つメソッドに対するメニュー表示処
理を行い、そのメニューによって選択されたメソ・7ド
を実行するメニュー処理部20とを持つ。It has a command generation/execution unit 19 that executes the command, and a menu processing unit 20 that performs menu display processing for the method possessed by the extracted object and executes the method/7 code selected by the menu.
(作用〕
各fi!操作対象となる図形や画像データ等と、ウィン
ドウを、所定の定義形式に従ってオブジェクトとして定
義すると、それを9表示系処理手段14によって表示す
ることができる。表示系処理手段14は1表示する部品
オブジェクトを含むすべてのオブジェクトに関する情報
を、自動的にアクセス・テーブル21に登録し管理する
ので、入力系処理手段17では、アクセス・テーブル2
1を参照することにより1表示されたすべてのオブジェ
クトを、マウス等のボインティング・デバイスからの入
力によって、認識することができる。(Operation) When the figures, image data, etc. that are the targets of each fi! operation and the window are defined as objects according to a predetermined definition format, they can be displayed by the 9 display system processing means 14.Display system processing means 14 Since the input system processing means 17 automatically registers and manages information regarding all objects including the part objects to be displayed in the access table 21,
By referring to 1, all objects displayed in 1 can be recognized by inputting from a pointing device such as a mouse.
また、所定の形式に従って、解析用辞書13を作成して
おけば、その登録情報に従って、入力された自然言語を
オブジェクト操作言語に自動変換する処PI機能が、入
力系処理手段17によって提供されるため1日本語など
の自然言語インタフェースについても節易に作成できる
ようになる。また9表示しているオブジェクトから選択
されたオブジェクトのメソッドについて、自動的にメニ
ュー選択対象とすることができるので、ユーザは。Furthermore, if the analysis dictionary 13 is created according to a predetermined format, the input system processing means 17 can provide a processing PI function that automatically converts the input natural language into an object manipulation language according to the registered information. Therefore, natural language interfaces such as Japanese can be easily created. Also, the method of the object selected from the displayed objects can be automatically selected from the menu, so the user can...
現在表示されているオブジェクトに対して、操作したい
ことを1種々のスタイルのインタフェースで、処理装置
11に対し指示することができるようになる。It becomes possible to instruct the processing device 11 to operate the currently displayed object using one of various styles of interfaces.
第21E]は本発明の一実施例で用いられるアクセス・
テーブルの説明図、第3図は本発明の一実J例による表
示操作の例、第4図は本発明の一実施例ζこ係る解析用
辞書の例、第5図は本発明の一実施例によるコマンド生
成の例、第6図は本発明の一実施例処理説明図を示す。No. 21E] is the access control used in one embodiment of the present invention.
An explanatory diagram of a table, FIG. 3 is an example of a display operation according to an embodiment of the present invention, FIG. 4 is an example of an analysis dictionary according to an embodiment of the present invention, and FIG. 5 is an example of an embodiment of the present invention. An example of command generation by example. FIG. 6 shows a processing explanatory diagram of an embodiment of the present invention.
オブジェクト指向モデルを扱う処理システムにおいて、
操作対象となるオブジェクトは、よく知られているよう
に、属性値と操作(メソッド)情報とを持ら、属性値の
検査/変更やメソッドの実行を、メツセージの送受1z
によって行うことができるようになっている。In processing systems that handle object-oriented models,
As is well known, objects to be manipulated have attribute values and operation (method) information, and can be used to inspect/change attribute values, execute methods, send/receive messages, etc.
This can now be done by
本発明では、このオブジェクトに基づく表示や各種の操
作を支1するために、オブジェク1−が備えるべき属性
として5例えば次のような情報をそれぞれ共通の形式(
属性名)で持つようにされる。In the present invention, in order to support display and various operations based on this object, the following information is provided in a common format (5) as attributes that the object 1- should have.
attribute name).
[オブジェクトが持つ情11’l ・表示情報: 図形=O線(面)種と座標、線(面)属性2色等の情報 テキスト→文字列、フォント、開始位置、方向。[The emotion that objects have 11’l ・Display information: Figure = O line (surface) type and coordinates, line (surface) attribute 2 colors, etc. information Text → string, font, starting position, direction.
色、背景色等の情報
イメージ悼各ビクセルのピクセル値、マトリクス、色、
データ長等の情報
・親図形(部品図形)二部品を構成するような階層関係
情報
・占有領域(表示領域):部品関係において親部品の座
標系における占有領域情報
・相対位置二部品関係において親部品の座標系における
相対的な位置情報
・相対倍率二部品関係において親部品の座標系とのスケ
ールの比率情報
・ウィンドウ上での位置、・ウィンドウ上での倍率、・
ウィンドウ上での占有領域・・・・・・。Information such as color, background color, image pixel value of each pixel, matrix, color,
Information such as data length - Parent figure (part figure) Hierarchical relationship information such as configuring two parts - Occupied area (display area): Information on occupied area in the parent part's coordinate system in a part relationship - Relative position Parent in a two-part relationship Relative position information in the coordinate system of the part - Relative magnification In the relationship between two parts, scale ratio information with the coordinate system of the parent part - Position on the window, - Magnification on the window, -
Occupied area on the window...
なお、これらのウィンドウ関係の情報は1表示系におい
て、占有領域を計算したときに値が設定される。その占
有3■域は、矩形で管理される。Note that the values of these window-related information are set when the occupied area is calculated in a single display system. The occupied 3■ area is managed as a rectangle.
[ウィンドウ情報]
ウィンドウに関するオブジェクトは2次のような属性情
報を持つ。[Window Information] Objects related to windows have the following secondary attribute information.
・位置ニスクリーン上での位置
・大きさニスクリーン上での大きさ
・アクセス・テーブル:ウィンドウに表示しているオブ
ジェクトの識別子とその占有領域をテーブル化したもの
・最上位フラグ:ウィンドウの重ね合わせで5表にある
か裏にあるかを識別するフラグ
・ビューの位置、・ビューの大きさ(これを利用してウ
ィンドウ上の図形の全体の移動や縮小/拡大を行う)
・背景色・・・・・・。・Position Position and size on the second screen Size on the second screen ・Access ・Table: A table of the identifiers of objects displayed in the window and their occupied areas ・Top flag: Overlapping of windows 5.Flag to identify whether it is on the front or the back ・The position of the view, ・The size of the view (Use this to move or reduce/enlarge the entire shape on the window) ・Background color... ....
第1図に示す表示系処理手段14は2以上のようなオブ
ジェクトの情報に基づいて、指定されたオブジェクトを
指定されたウィンドウに表示すると共に、そのオブジェ
クトが表示されているウィンドウに対応するアクセス・
テーブル21に、オブジェクト情報を登録する。The display system processing means 14 shown in FIG. 1 displays the specified object in the specified window based on the information of two or more objects, and also displays the access information corresponding to the window in which the object is displayed.
Object information is registered in the table 21.
第2図(イ)は、地図表示ウィンドウWを示しており、
第2図(ロ)は、それに対応するアクセス・テーブル2
1の例を示している。Figure 2 (a) shows the map display window W.
Figure 2 (b) shows the corresponding access table 2.
Example 1 is shown.
アクセス・テーブル21は、地図表示ウィンドウWに表
示されているすべてのオブジェクトについて、オブジェ
クトの識別子と、左上の座標および右下の座標によって
定義される矩形による占有領域情報とを記憶する。従っ
て9例えばマウス・カーソル30により、地図表示ウィ
ンドウW内の1点が指示されたときに、アクセス・テー
ブル21によって、どのオブジェクトが選ばれたのかを
t?2 識し、そのオブジェクト(例えば家B)にメソ
セージを送信することが可能である。The access table 21 stores, for all objects displayed in the map display window W, object identifiers and occupied area information by a rectangle defined by the upper left coordinates and lower right coordinates. Therefore, for example, when a point in the map display window W is designated by the mouse cursor 30, the access table 21 determines which object was selected (t?). 2 and can send a message to that object (for example, house B).
表示操作の例として、第3図に従って、オブジェクトの
トラバース、ブラウズについて説明する。As an example of display operations, object traversal and browsing will be described with reference to FIG.
トラバースは、オブジェクトをたどって検索していくこ
とであり、ブラウズは、オブジェクトの詳細内容を表示
することである。Traversing means tracing and searching for an object, and browsing means displaying detailed contents of an object.
例えば、第3図(イ)に示すような結果ウィンドウWに
おいて、マウス等により、「住居2」を指示すると、そ
のウィンドウのアクセス・テーブル21を参照すること
により、入力座標が含まれるオブジェクトが調べられ、
「住居2」のオブジェクトが選択される。これにより、
「住居2」に対するメツセージ送信ができるようになる
。For example, in the result window W shown in FIG. 3(a), if you specify "dwelling 2" with a mouse or the like, the object containing the input coordinates will be searched by referring to the access table 21 of that window. is,
The object "Dwelling 2" is selected. This results in
You will be able to send messages to "Residence 2".
「住居2」に対して用意されたメソッドにより5すべで
の属性表示を命令すると、第3図(ロ)図示のように、
結果ウィンドウWに、「住居2」のすべての属性情報が
表示される。その中のオブジェクト(例えばマンション
A)にも1同様にメソセージを送ることができ、第3図
(ハ)に示すように、「マンションA」のプラウズも行
うことができる。さらに、イメージ・オブジェクトであ
る「写真P」に対して、1表示せよ”というメ・7セー
ジを送ることにより、第3図(ニ)図示のように、予め
用意されたマンションAの外観写真を表示することも、
同様な操作で行うことができる。When you command to display all five attributes using the method prepared for "Dwelling 2", as shown in Figure 3 (b),
All attribute information of "Residence 2" is displayed in the result window W. A message can be sent to an object therein (for example, apartment A) in the same manner as in 1, and as shown in FIG. 3 (c), it is also possible to browse "apartment A." Furthermore, by sending a message "Please display 1" to the image object "Photo P", the exterior photo of apartment A prepared in advance is displayed as shown in Figure 3 (d). You can also display
This can be done using similar operations.
ポインティング・デバイスによって選択したオブジェク
トに対するメンセージ送信方法としては。How to send a message to an object selected with a pointing device.
例えば“近くのスーパーを求めよ。”というような日本
語入力により自動的に生成したコマンドによる送信や、
属性検査、消去、移動などといった予め用意されたメソ
ッドに基づくメニュー選択による送信を選択することが
できる。For example, sending a command automatically generated by inputting Japanese, such as "Find the nearest supermarket."
Transmission can be selected by menu selection based on pre-prepared methods such as attribute inspection, deletion, movement, etc.
第1図に示す入力系処理手段17によって使用される解
析用辞書13は1例えば第4図に示すように構成される
。The analysis dictionary 13 used by the input system processing means 17 shown in FIG. 1 is configured as shown in FIG. 4, for example.
この例では、解析用辞書13には、各種オブジェクトで
扱うデータに対する任意の日本語の単語と、それらの各
単語の種別を示す命令語・補助語などのタイプ情報と、
オブジェクトとの関連情報とが、予め登録されるように
なっている。オブジェクトとの関連情報としては、単語
がオブジェクトを意味するものであるときには、そのオ
ブジェクトの識別子、属性の1つを意味するものである
ときには、その属性名、検索条件等を意味するものであ
るときには、その操作言語に応した条件情報、メソッド
に対応するものであるときには、メソッドの識別名が格
納される。ユーザは、所定の形式に従ってさえいれば、
任意の単語を解析用辞書13に登録することができる。In this example, the analysis dictionary 13 includes arbitrary Japanese words for data handled by various objects, and type information such as imperative words and auxiliary words indicating the type of each word.
Information related to the object is registered in advance. Information related to objects includes the identifier of the object when the word means an object, the name of the attribute when the word means one of its attributes, the search condition, etc. , condition information corresponding to the operating language, and, if it corresponds to a method, the identification name of the method. As long as the user follows the prescribed format,
Any word can be registered in the analysis dictionary 13.
次に、この解析用辞書13を用いたコマンド生成の例を
、第5図に従って説明する。Next, an example of command generation using this analysis dictionary 13 will be explained with reference to FIG.
第5図(a)に示すように2例えば“間取りが3DK、
”というような日本語が入力されると、第4図に示
す解析用辞書13の単語検索により、最長−成性に基づ
く単語分割が行われる。次に1文章が命令文であるか条
件文であるかにより、メソッド部生成または条件部生成
のモジュールが呼び出される。ここでは1条件部生成の
モジュールが呼び出され、“3DK”の単語から。As shown in Figure 5(a), 2, for example, the floor plan is 3DK,
When a Japanese word such as "" is input, the word search in the analysis dictionary 13 shown in FIG. Depending on whether this is the case, the method section generation module or the condition section generation module is called.Here, the 1 condition section generation module is called, and from the word "3DK".
r ((madori) equal ”3DK” )
Jの条件部が生成される。r ((madori) equal “3DK”)
A condition part of J is generated.
また、第5図(b)に示すように、“物件の価格と間取
りを求めよ。”というような日本語が入力されると、同
様に単語分割が行われ、命令文であることから、メソッ
ド部生成のモジュールが呼び出される。そして、°物件
”がオブジェクトjuukyoに対応し、“価格”、“
間取り”がそれぞれ属性kakaku、madoriに
対応し、“求めよ”がメソッドgetに対応することが
、解析用辞書13によって1周へられる。In addition, as shown in Figure 5(b), when Japanese such as "Find the price and floor plan of the property" is input, word segmentation is performed in the same way, and since it is an imperative sentence, the method Part-generated module is called. Then, “property” corresponds to the object juukyo, “price”, “
The analysis dictionary 13 makes it clear that "floor plan" corresponds to the attributes kakaku and madori, respectively, and "ask" corresponds to the method get.
条件部とメソッド部の解析が終わると、第5図(c)に
示すような所定のオブジェクト操作言語に従ったパター
ンにより9条件部とメソッド部とを組み合わせ、第5図
(d)に示すようなオブジェクト・コマンドを自動生成
する。そして、そのコマンドを実行する。従って、ユー
ザは応用に必要な単語を解析用辞書13に登録するだけ
で5日本語入力インタフェースを構築できる。When the analysis of the conditional part and the method part is completed, the nine conditional parts and the method part are combined according to the pattern according to the predetermined object manipulation language as shown in FIG. 5(c), and the result is as shown in FIG. Automatically generate object commands. Then run that command. Therefore, the user can construct a 5-Japanese input interface simply by registering words necessary for the application in the analysis dictionary 13.
第6図は9本発明の一実施例によるインタフェースに関
する処理の例を示している。FIG. 6 shows an example of processing related to an interface according to an embodiment of the present invention.
表示系の処理は、第6図(イ)に示すように行われる。Display system processing is performed as shown in FIG. 6(a).
以下の説明における■〜■は、第6図(イ)に示す処理
■〜■に対応する。■ to ■ in the following description correspond to processes ■ to ■ shown in FIG. 6(a).
■ ウィンドウとオブジェクトを指定した表示指示に対
し、そのウィンドウの情報およびオブジェクトの情報か
ら1表示ウィンドウのビューを始めとして2表示オブジ
ェクトとその部品オブジェクトの占有領域を計算する。(2) In response to a display instruction specifying a window and an object, the area occupied by the two display objects and their component objects, including the view of one display window, is calculated from the window information and object information.
このとき、オブジェクトの属性として定義された相対位
置。In this case, the relative position defined as an attribute of the object.
倍率、占有領域などの情報を利用し、さらにウィンドウ
上における位置や倍率や占有領域を求める。Information such as magnification and occupied area is used to further determine the position, magnification, and occupied area on the window.
■ オブジェクトの表示情報と、ウィンドウにおける位
置や倍率情報をもとに、オブジェクトの内容を表示する
。この表示内容は9図形でも。■ Display the contents of an object based on the object's display information and its position and magnification information in the window. This display content also applies to 9 shapes.
テキストでも、イメージでもよい。It can be text or an image.
■ 表示したオブジェクトが占める表示領域についての
矩形情報(4つの座標)と、オブジェクト識別子とを、
アクセス・テーブルに登録する。■ Rectangle information (4 coordinates) about the display area occupied by the displayed object and the object identifier.
Register in the access table.
なお、登録順序は、親図形が先で部品図形は後になる。Note that the registration order is that the parent figure comes first and the part figure comes later.
■ すべての部品図形について、処理■および処理■に
よる表示と登録とを繰り返し、その表示と登録の処理が
終了したならば、処理を終了す入力系の処理は、第6図
(ロ)に示すように行われる。以下の説明における■〜
0は、第6図(ロ)に示す処理■〜■に対応する。■ The input system process of repeating display and registration by process ■ and process ■ for all component figures and terminating the process when the display and registration process is completed is shown in Figure 6 (b). It is done like this. ■~ in the following explanation
0 corresponds to processes ① to ① shown in FIG. 6(b).
■ マウス入力によって、入力座標と入カポタンがシス
テムから通知される。■ The system notifies you of input coordinates and input capotan by mouse input.
■ ウィンドウ情報の占有領域情報をもとに、入力座標
からウィンドウを決定する。占有領域は。■ Determine the window from the input coordinates based on the occupied area information of the window information. The occupied area is.
矩形の左上x、 y座標および右下x、 y座標の
4つの数値で与えられ、入力座標X、Yに対して5次式
が成立するとき、そのウィンドウが候補となる。It is given by four numerical values: the upper left x, y coordinates and the lower right x, y coordinates of a rectangle, and when a quintic equation holds true for the input coordinates X, Y, that window becomes a candidate.
左上X≦人力X≦右下X
かつ 左上y≦入力Y≦右下y
その候補の中から、最も表面に現れているウィンドウが
1桑作対象として決定される。Upper left X≦Manual power
■ 次に、決定されたウィンドウのアクセス・テーブル
21から、入力座標を占有領域に含むオブジェクトが求
められる。比較式については。(2) Next, an object whose occupied area includes the input coordinates is determined from the access table 21 of the determined window. As for comparison expressions.
ウィンドウの決定において用いられた式と同様である。It is similar to the formula used in determining the window.
この処理におけるアクセス・テーブル21の検索では、
入力の逆順にスキャンを行う。In searching the access table 21 in this process,
Scan in reverse order of input.
表示系処理では、前述のように、親図形から先に表示し
ているので9子の部品図形が、後に表示されることにな
る。このことから、アクセス・テーブル21を逆スキャ
ンすると、同一座標を占有するオブジェクトの中でも、
子の部品図形を先に検索することができる(オブジェク
トの抽出)。In display processing, as described above, the parent figure is displayed first, so the nine child part figures are displayed later. From this, when the access table 21 is reverse scanned, even among objects occupying the same coordinates,
Child part shapes can be searched first (object extraction).
さらに、その図形が操作対象でない場合には。Furthermore, if the shape is not the object of operation.
例えばマウスの右クリックにより3次のオブジェクトの
候補についての検索を続ける(オブジェクトの選択)。For example, by right-clicking the mouse, the search for tertiary object candidates is continued (object selection).
本実施例では、マウスの左クリックがオブジェクト・ア
クセス、中クリックが終了、右クリックが次候補選択に
用いられる。In this embodiment, a left click of the mouse is used to access an object, a middle click is used to terminate, and a right click is used to select the next candidate.
候補がないときは、最初に戻る。If there are no candidates, go back to the beginning.
■ 操作対象オブジェクトが選択されると2次に日本語
処理またはメニュー選択の操作選択を行う。これは、任
意の時点で指定できるようにされた指定変数のオン/オ
フにより選択する。■ When the object to be operated is selected, the secondary Japanese processing or menu selection operation selection is performed. This is selected by turning on/off a specified variable that can be specified at any time.
■ 日本語処理の場合2周知の仮名漢字変換などにより
1日本語を入力する。■ In the case of Japanese processing 2. Input Japanese characters using well-known kana-kanji conversion.
■ 解析用辞書13を用いて1例えば最長一致法により
入力文を単語分割し、解析する。(1) Using the analysis dictionary 13, the input sentence is divided into words by, for example, the longest match method, and analyzed.
■ 辞書情報から実行対象になる単語を見つけ。■ Find the word to be executed from the dictionary information.
その解析結果に応して、各−単語の補助情報を採用し、
それらを組み合わせて、オブジェクト1桑作言語による
コマンドを生成する。なお、ユーザは、もっと高度な解
析を望む場合には、この部分を別の生成ルーチンで置き
換えてもよい。According to the analysis result, auxiliary information of each -word is adopted,
By combining them, a command in the Object 1 Kuwasaku language is generated. Note that if the user desires more advanced analysis, he or she may replace this part with another generation routine.
この際に、汎用プログラムを用いることも可能である。At this time, it is also possible to use a general-purpose program.
■ 生成したコマンドを実行し、処理が終了したならば
、マウス入力系へ制御を移す。■ Execute the generated command, and when processing is complete, transfer control to the mouse input system.
■ 指定変数のスイッチにより、メニュー選択が指定さ
れている場合、操作対象オブジェクトが持つメソッドの
メニューを表示する。■ If menu selection is specified by the switch of the specified variable, display the menu of methods possessed by the object to be manipulated.
[相] 表示したメソッドのメニューの中から、1つの
項目を、マウス入力等によって選択する。[Phase] Select one item from the displayed menu of methods using mouse input or the like.
9 選択したメニュー項目のメソッドを実行し。9. Execute the method of the selected menu item.
実行が終了したならば、マウス入力系へ制御を戻す。Once execution is complete, control is returned to the mouse input system.
本実施例では、主として視覚的インタフェースを汲って
いるが2操作対象をオブジェクトとして統一的に管理し
ているので、音声等のメディアを扱うように拡張するこ
とも容易である。なお、操作対象となるオブジェクトや
解析用辞書は、ユーザが所定の規約に従って自由に作成
してよいが。In this embodiment, a visual interface is mainly used, but since two operation targets are managed in a unified manner as objects, it is easy to extend the system to handle media such as audio. Note that the object to be operated and the dictionary for analysis may be freely created by the user according to predetermined rules.
このオブジェクトの生成を支援する生成ツールや。A generation tool that supports the generation of this object.
辞書作成ツールについても用意することにより。By also providing a dictionary creation tool.
さらに節易に応用システムを構築できるようにすること
が可能である。Furthermore, it is possible to construct an application system more easily.
以上説明したように9本発明によれば、オブジェクト指
向モデルにより、対象分野の知識(データ)や、インタ
フェースに必要な図形、ウィンドウ、辞書などの情報を
定義するだけで、視覚的/直接的にオブジェクト・ブラ
ウズ(トラバース)などの各種の表示や操作を選択でき
る操作性のよいユーザインタフェースを作成できるよう
になる。As explained above, according to the present invention, by simply defining knowledge (data) of the target field and information such as figures, windows, dictionaries, etc. necessary for the interface using an object-oriented model, it is possible to visually/directly It becomes possible to create an easy-to-use user interface that allows selection of various displays and operations such as object browsing (traversal).
オブジェクト指向モデルに基づくので、マシンの独立性
があり、移植性に優れている。種々のメディアに対して
も、統一的にオブジェクトとして管理することができる
。Because it is based on an object-oriented model, it is machine independent and highly portable. Various media can also be managed uniformly as objects.
第1図は本発明の原理説明図。
第2図は本発明の一実施例で用いられるアクセス・テー
ブルの説明図。
第3図は本発明の一実施例による表示操作の例。
第4図は本発明の一実施例に係る解析用辞書の例。
第5図は本発明の一実施例によるコマンド生成の例。
第6図は本発明の一実施例処理説明図を示す。
図中、10はデイスプレィ、11は処理装置。
12はオブジェクト、13は解析用辞書、14は表示系
処理手段、15はオブジェクト表示部、16はアクセス
・テーブル登録部、17は入力系処理手段、18はオブ
ジェクト抽出部、19はコマンド生成・実行部、20は
メニュー処理部、21はアクセス・テーブル、22は人
力制御部、23は入力装置を表す。FIG. 1 is a diagram explaining the principle of the present invention. FIG. 2 is an explanatory diagram of an access table used in an embodiment of the present invention. FIG. 3 is an example of display operation according to an embodiment of the present invention. FIG. 4 is an example of an analysis dictionary according to an embodiment of the present invention. FIG. 5 is an example of command generation according to an embodiment of the present invention. FIG. 6 shows a processing explanatory diagram of an embodiment of the present invention. In the figure, 10 is a display, and 11 is a processing device. 12 is an object, 13 is an analysis dictionary, 14 is a display system processing means, 15 is an object display section, 16 is an access table registration section, 17 is an input system processing means, 18 is an object extraction section, and 19 is a command generation/execution section. 20 is a menu processing section, 21 is an access table, 22 is a human control section, and 23 is an input device.
Claims (1)
指向のデータ処理システムにおいて、所定の定義形式に
従った表示情報と占有領域情報とを少なくとも持つオブ
ジェクトの表示指示に対し、そのオブジェクトおよびそ
のオブジェクトの部品オブジェクトに関する内容を表示
すると共に、ウィンドウ対応に設けられるアクセス・テ
ーブル(21)に、表示オブジェクトとその占有領域情
報とを登録する表示系処理手段(14)と、オブジェク
ト表示画面における入力に対し、該当アクセス・テーブ
ル(21)により操作対象オブジェクトを抽出する手段
と、その操作対象オブジェクトが持つメソッドに対する
メニュー処理を行う手段と、自然言語入力に対し、所定
の定義形式で作成された辞書に従ってコマンドを生成し
実行する手段とを少なくとも有する入力系処理手段(1
7)とを備えたことを特徴とするユーザインタフェース
作成ツール。In an object-oriented data processing system that manages an operation target as an object, in response to a display instruction for an object that has at least display information and occupied area information according to a predetermined definition format, contents regarding that object and its component objects are displayed. Display system processing means (14) registers display objects and their occupied area information in an access table (21) provided for each window, and a display system processing means (14) that registers display objects and their occupied area information in an access table (21) provided for each window; 21) means for extracting an object to be manipulated, means for performing menu processing for a method possessed by the object to be manipulated, and means for generating and executing commands in response to natural language input according to a dictionary created in a predetermined definition format. an input system processing means (1) having at least
7) A user interface creation tool comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05548688A JP3183660B2 (en) | 1988-03-09 | 1988-03-09 | User interface creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05548688A JP3183660B2 (en) | 1988-03-09 | 1988-03-09 | User interface creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01229321A true JPH01229321A (en) | 1989-09-13 |
JP3183660B2 JP3183660B2 (en) | 2001-07-09 |
Family
ID=12999954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05548688A Expired - Fee Related JP3183660B2 (en) | 1988-03-09 | 1988-03-09 | User interface creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3183660B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03282934A (en) * | 1990-03-30 | 1991-12-13 | Internatl Business Mach Corp <Ibm> | Graphical-user-interface controller |
JPH06103052A (en) * | 1992-09-21 | 1994-04-15 | Matsushita Electric Ind Co Ltd | Natural language operation supporting device |
JPH0830421A (en) * | 1994-07-20 | 1996-02-02 | Nippon Denki Joho Service Kk | Method for executing command through dialogue |
JP2002278772A (en) * | 2001-03-22 | 2002-09-27 | Ntt Power & Building Facilities Inc | Device and method for selecting program |
-
1988
- 1988-03-09 JP JP05548688A patent/JP3183660B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03282934A (en) * | 1990-03-30 | 1991-12-13 | Internatl Business Mach Corp <Ibm> | Graphical-user-interface controller |
JPH0658624B2 (en) * | 1990-03-30 | 1994-08-03 | インターナショナル・ビシネス・マシーンズ・コーポレーション | Graphical user interface management device |
US5509116A (en) * | 1990-03-30 | 1996-04-16 | International Business Machines Corporation | Graphical user interface management system |
JPH06103052A (en) * | 1992-09-21 | 1994-04-15 | Matsushita Electric Ind Co Ltd | Natural language operation supporting device |
JPH0830421A (en) * | 1994-07-20 | 1996-02-02 | Nippon Denki Joho Service Kk | Method for executing command through dialogue |
JP2002278772A (en) * | 2001-03-22 | 2002-09-27 | Ntt Power & Building Facilities Inc | Device and method for selecting program |
Also Published As
Publication number | Publication date |
---|---|
JP3183660B2 (en) | 2001-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5211563A (en) | Computer assisted learning support system and processing method therefor | |
KR100214911B1 (en) | Data searching method | |
US5708764A (en) | Hotlinks between an annotation window and graphics window for interactive 3D graphics | |
JP2993673B2 (en) | Electronic file device | |
US5572650A (en) | Method and apparatus for displaying structures and relationships of a relational database | |
JP2006228210A (en) | Using existing content to generate active content wizard executable file for execution of task | |
JPS6162170A (en) | Compound document editing | |
JP2801459B2 (en) | Language processing system by object network | |
CN114816380A (en) | Low-code platform for medical institution | |
JPH01229321A (en) | User interface generation tool | |
Lin et al. | PyDraw: a GUI drawing generator based on Tkinter and its design concept | |
JPH1055339A (en) | On-line business processing system | |
JP2585311B2 (en) | How to create a program | |
JPH09319860A (en) | Map information processing method | |
US20030033332A1 (en) | Control/display unit page builder software tool | |
JP2697775B2 (en) | Conversation system | |
Amsellem | ChyPro: A hypermedia programming environment for SmallTalk-80 | |
JPH0317741A (en) | Program production support device | |
Hargreaves | Computer graphics for directed graph design methods | |
JPH03246612A (en) | User interface management system | |
JPH05120358A (en) | Picture information processing system | |
JPH04199226A (en) | Selecting and actuating method for tool | |
JPH04360280A (en) | Graphic processor | |
JPH04236662A (en) | Data processing method | |
JPS61160138A (en) | Tree structure graphic forming/displaying system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |