JPH0342713A - User interface system - Google Patents

User interface system

Info

Publication number
JPH0342713A
JPH0342713A JP1177255A JP17725589A JPH0342713A JP H0342713 A JPH0342713 A JP H0342713A JP 1177255 A JP1177255 A JP 1177255A JP 17725589 A JP17725589 A JP 17725589A JP H0342713 A JPH0342713 A JP H0342713A
Authority
JP
Japan
Prior art keywords
information
display
menu
selection
pointer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1177255A
Other languages
Japanese (ja)
Other versions
JPH0583926B2 (en
Inventor
Eiji Takaoki
英二 高沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
META CORP JAPAN KK
Original Assignee
META CORP JAPAN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by META CORP JAPAN KK filed Critical META CORP JAPAN KK
Priority to JP1177255A priority Critical patent/JPH0342713A/en
Publication of JPH0342713A publication Critical patent/JPH0342713A/en
Publication of JPH0583926B2 publication Critical patent/JPH0583926B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Input From Keyboards Or The Like (AREA)

Abstract

PURPOSE:To improve the operability of the selection of a command by obtaining information related on directivity from coordinate information on a starting point and a terminating point, and permitting a processing function to correspond to information on directivity so as to start the function. CONSTITUTION:A pointer P on a display screen 51 is moved by using a pointing device and a starting point C1 and a terminating point C2 are designated. A processor recognizes a moving direction from the starting point C1 and the terminating point C2 and executes the functions which is previously allocated in correspondence with the moving direction, the deletion and shift of a character and a picture, and the selection of various modes, for example.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明はユーザインターフェース方式、特に所定の座標
系を有し、入力された座標情報に応じて情報処理を行な
う情報処理機器のユーザインタフェース方式に関するも
のである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a user interface method, and particularly to a user interface method for an information processing device that has a predetermined coordinate system and performs information processing according to input coordinate information. It is something.

[従来の技術] パーソナルコンピュータ、ワークステーション、ワード
プロセッサ、CAD.CAM専用機など各種の情報処理
システムで、文字、画像その他各種の情報処理が行なわ
れている。
[Prior Art] Personal computers, workstations, word processors, CAD. Various information processing systems such as CAM dedicated machines process text, images, and other information.

現在、この種の情報処理システムでは、ユーザインター
フェース手段として、CRTなどのデイスプレィと、キ
ーボード、あるいはさらにマウスなどのポインティング
デバイスが使用されている。
Currently, in this type of information processing system, a display such as a CRT, a keyboard, or a pointing device such as a mouse is used as a user interface means.

古くはコンピュータシステムの端末として、テレタイプ
のようなキャラクタ端末が使用されていたため、デイス
プレィを用いる情報処理システムでも単にキーボードか
ら文字列を入力してコマンドを入力したり、処理モード
を決定する方法が用いられていた。
In the old days, character terminals such as teletypes were used as terminals for computer systems, so even in information processing systems that use displays, there was no way to simply input character strings from the keyboard to input commands or determine the processing mode. It was used.

しかし、現在では、コマンド、処理モードなどの機能選
択を行なうためにデイスプレィにポツプアップ(あるい
はプルダウン)メニューやアイコンを表示してこれをマ
ウスなどのポインティングデバイスで選択することによ
り、各種の機能選択を行なうユーザインターフェース方
式が用いられるようになっている。
However, at present, various functions can be selected by displaying a pop-up (or pull-down) menu or icon on the display and selecting it with a pointing device such as a mouse in order to select functions such as commands and processing modes. User interface methods are now being used.

第9図に、このようなユーザインターフェース方式で使
用されるメニューの一例を示す。口汚のメニューMは、
キーボードや、ポインティングデバイスのキー神子など
の操作2こ応してデイスプレィ両面l〕上にポツプアッ
プあるいはプルダウンされるもので、複数の領域M1.
M2−・・Mnに区画されており、これらの領域内には
文字などによりその区画への入力により選択される機能
(コマンド(文字、画像など各種データ、そのファイル
のコピーや削除その他の編集)、モー1−)などが表示
される。
FIG. 9 shows an example of a menu used in such a user interface method. The foul-mouthed menu M is
It pops up or pulls down on both sides of the display in response to the operation of keys on a keyboard or pointing device, etc., and multiple areas M1.
It is divided into M2-...Mn, and within these areas there are functions (commands (text, various data such as images, copying, deletion, and other editing of the file) that are selected by inputting characters etc. into the division). , Mo1-), etc. are displayed.

メニューMの領域M1.M2−・・Mnのデイスプレィ
画面上での空間的な情+(li(座標、サイズなど)は
、マイクロプロセツサなどのインタフェース制御手段が
認識しており、これらの領域のいずれか1つの内側にポ
インティングデバイスにより移動されるポインタPが移
動され、その位置でポインティングデバイスのボタンが
操作されるなどすると、インターフェース制御手段はそ
の機能(コマンド、モードなど)を選択して対応する処
理を行なう。
Area M1 of menu M. The spatial information + (li (coordinates, size, etc.) on the display screen of M2-...Mn is recognized by an interface control means such as a microprocessor, and if any When the pointer P is moved by the pointing device and a button on the pointing device is operated at that position, the interface control means selects the function (command, mode, etc.) and performs the corresponding process.

アイコンの選択でも、同様にメニューや情報ファイルを
意味する表示区画がデイスプレィ上に設定されその区画
内部へのポインタ移動、キー操作によりそのアイコンな
いし、アイコンに対応したコマンド、モードなどが選択
される。
When selecting an icon, a display section representing a menu or information file is similarly set on the display, and by moving the pointer inside the section or operating a key, the icon or a command, mode, etc. corresponding to the icon is selected.

なお、ポインタの移動には、マウスのみならず、トラッ
クポール、キーボードのカーソルキー、ジョイスティッ
ク、デジタイザなども利用されている。
Note that to move the pointer, not only a mouse but also a track pole, keyboard cursor keys, joystick, digitizer, etc. are used.

[発明が解決しようとする課題] 上記のようなメニュー駆動、あるいはアイコン駆動によ
るユーザインターフェース方式では、煩雑な文字入力を
必要とせず、容易かつ迅速に機能選択が可能である。
[Problems to be Solved by the Invention] With the menu-driven or icon-driven user interface method described above, functions can be easily and quickly selected without requiring complicated character input.

一方、このようなユーザインターフェース方式では、デ
イスプレィが大きな位置を占めている。
On the other hand, in such a user interface method, a display occupies a large position.

すなわち、メニューや、アイコンを選択する操作は、シ
ステムのより低い処理レベルでは、ポインティングデバ
イスにより移動されるポインタのデイスプレィ画面」二
での位置を選択する操作に他ならないからである。
That is, the operation of selecting a menu or icon is nothing but an operation of selecting the position of a pointer moved by a pointing device on a display screen at a lower processing level of the system.

したがって、ユーザは常にポインタの位置を視覚により
確認しつつメニューをプルダウン、あるいはポツプアッ
プし、また、メニュー内のエントリーやアイコンを選択
しなければならならず、ユーザは視覚を酷使することに
なり、疲労度が大きいという問題がある。
Therefore, the user must constantly visually confirm the position of the pointer while pulling down or popping up the menu, and must also select an entry or icon within the menu, which results in overuse of the user's vision and fatigue. The problem is that the degree is large.

たとえば、第9図のようなメニュ一方式では、領域M1
.M2内の文字表示を確かめつつポインタPを移動し、
確かにポインタが目的の領域内にあることを確認した上
でキー入力、ボタン操作などを行なわなければならない
For example, in a one-sided menu system as shown in FIG.
.. Move the pointer P while checking the character display in M2,
You must confirm that the pointer is within the desired area before entering keys or operating buttons.

また、通常、メニュー表示を選択したポインタ位置から
土または下方向にメニューが延長して表示されるため、
長大なメニューの場合、目的の機能を選択するまでにか
なりの距離ポインティングデバイスを移動しなければな
らない。その間も、上記の視覚による確認は行なわなけ
ればならないので、エントリーの多いメニュー選択は結
構面倒なものである。
In addition, the menu is usually displayed extending downward from the pointer position where you selected the menu display.
Long menus require the pointing device to be moved a considerable distance before selecting the desired function. During this time, the visual confirmation described above must be performed, so selecting a menu with many entries can be quite troublesome.

上記のような問題を回避するために、たとえばメニュー
の機能の1つに所定のキー操作を対応させ、そのキー押
下によっても機能選択を行なえるようにする技術が知ら
れているが、この場合には、操作性は旧来の文字列コマ
ンド駆動による方式とあまり変わらなくなってしまう。
In order to avoid the above-mentioned problems, a technique is known in which, for example, one of the menu functions corresponds to a predetermined key operation, so that the function can be selected by pressing that key. In this case, the operability will not be much different from the conventional method driven by string commands.

このように、従来のメニュー駆動、あるいはアイコン駆
動によるユーザインターフェース方式では、デイスプレ
ィ上のポインタの位置情報により情報を入力するという
原理のために、上記のような諸問題を生じる。
As described above, in the conventional menu-driven or icon-driven user interface system, the above-mentioned problems arise due to the principle of inputting information based on position information of a pointer on a display.

本発明の課題は、以−J−の問題を考慮し、デイスプレ
ィ上の位置情報以外の情報を媒介として機能選択を行な
うことによって、より効率的なユーザインターフェース
がii)能な方式を提供することにある。
An object of the present invention is to provide a system that (ii) enables a more efficient user interface by considering the following problems and selecting functions using information other than position information on a display as a medium. It is in.

[課題を解決するための手段] 以上の課題を解決するために、本発明においては、所定
の座標系を有し、入力された座標情報に応して情報処理
を行なう・1111報処理機器のユーザインターフェー
ス方式において、前記所定座標系中における始点と終点
の座標情報を入力する手段と、前記始点および終点の座
標情報から前記座標系における方向性に関わる情報を形
成する手段と、前記座標系における方向性に関する情報
にそれぞれ異なる情報処理機能を対応づけて記憶する手
段と、前記情報形成手段が形成した方向性に関わる情報
に応じて前記記憶手段を参照し、該方向性に関わる情報
に対応づけられた所定の情報処理機能を実行する制御手
段を設けた構成を採用した。
[Means for Solving the Problems] In order to solve the above problems, the present invention provides a 1111 report processing device that has a predetermined coordinate system and performs information processing according to input coordinate information. In the user interface method, means for inputting coordinate information of a start point and an end point in the predetermined coordinate system, means for forming information related to directionality in the coordinate system from the coordinate information of the start point and end point, and means for storing information relating to directionality in association with different information processing functions, and referring to said storage means in accordance with information relating to directionality formed by said information forming means, and associating said information with information relating to said directionality; The configuration includes a control means for executing predetermined information processing functions.

[作 用] 以上の構成によれば、所定の座標系中における始点と終
点の座標をユーザに入力させ、始点および終点の座標情
報から所定の情報部P1!機能に対応づけられた方向性
に関わる情報を入力し、この方向性情報に基づき各種の
情報処理機能を実行することができる。
[Operation] According to the above configuration, the user is allowed to input the coordinates of the starting point and the ending point in the predetermined coordinate system, and the predetermined information section P1! is calculated from the coordinate information of the starting point and the ending point. Information related to directionality associated with a function can be input, and various information processing functions can be executed based on this directionality information.

[実施例] 以下、図面に示す実施例に基づき、本発明の詳細な説明
する。
[Example] Hereinafter, the present invention will be described in detail based on the example shown in the drawings.

第1図(A)に本発明のユーザインターフニス方式を採
用した装置の構成を示す。ここに示す構成はパーソナル
コンピュータ、CAD、CAMシステム、ワードプロセ
ッサなど各種の情報処理機器に共通するものである。
FIG. 1(A) shows the configuration of an apparatus that employs the user interface system of the present invention. The configuration shown here is common to various information processing devices such as personal computers, CAD, CAM systems, and word processors.

図において符号1はマイクロプロセッサなどから構成さ
れたCPUで、アドレスバス、データバス、あるいは不
図示のインタフェース回路などを介してその周囲に示さ
れた各回路部材と接続される。以下、CPUIに接続さ
れた各部材について説明する。
In the figure, reference numeral 1 denotes a CPU composed of a microprocessor or the like, which is connected to various circuit members shown around it via an address bus, a data bus, or an interface circuit (not shown). Each component connected to the CPUI will be explained below.

まず、ROM2はCPU’lの制御手順を格納するため
に使用される。後述の制御プログラムの一部、あるいは
全部はこのR’OM 2に格納してもよいし、またRO
M2には不図示の外部記憶装置から後述の制御プログラ
ム、あるいはオペレーティングシステムなどのプログラ
ムをロードするプログラムのみを置いてもよい。
First, the ROM2 is used to store control procedures for the CPU'1. Part or all of the control program described below may be stored in this R'OM 2, or the RO
M2 may be provided with only a program for loading a control program, which will be described later, or a program such as an operating system from an external storage device (not shown).

RAM3はCPUIのワークエリアとして使用されるも
ので、後述のプログラムが外部記憶装置からロードされ
る場合にはRAM3のメモリ空間上に配置される。
The RAM3 is used as a work area for the CPUI, and when a program to be described later is loaded from an external storage device, it is placed in the memory space of the RAM3.

操作部4、デイスプレィ5およびポインティングデバイ
ス6はユーザインタフェース手段として使用されるもの
である。操作部4はJIS配列などを有するキーボード
から、またデイスプレィ5はCRTデイスプレィやL 
CDパネルなどから構成される。
The operation unit 4, display 5, and pointing device 6 are used as user interface means. The operation unit 4 is a keyboard with a JIS layout, etc., and the display 5 is a CRT display or L
It consists of CD panels, etc.

また、ポインティングデバイス6はデイスプレィ5上に
表示されたカーソルやポインタを制御するためのもので
、マウスやジョイスティック、トラックボール、あるい
はデジタイザパッドなどから構成される。また、操作部
4のカーソルキーテンキーなどをポインティングデバイ
ス6として使用してもよい。
Further, the pointing device 6 is used to control a cursor or pointer displayed on the display 5, and is composed of a mouse, joystick, trackball, digitizer pad, or the like. Further, a cursor key, numeric keypad, etc. of the operation unit 4 may be used as the pointing device 6.

第1図(B)に本発明によるユーザインタフェース方式
の最も単純なモデルを示す。第1図(B)において符号
51はデイスプレィ5の画面 0 (または画面上に設定されたウィンドウなどの表示領域
)を示している。
FIG. 1(B) shows the simplest model of the user interface system according to the present invention. In FIG. 1(B), reference numeral 51 indicates screen 0 of the display 5 (or a display area such as a window set on the screen).

本実施例ではポインティングデバイス6を用いて装置の
種々の機能の選択を行なうが、この機能の選択はポイン
ティングデバイス6によってデイスプレィ5のデイスプ
レィ画面51上に表示されたポインタPを移動し、その
移動方向によって所望の機能を選択する。
In this embodiment, the pointing device 6 is used to select various functions of the apparatus, and this function selection is made by moving the pointer P displayed on the display screen 51 of the display 5 using the pointing device 6, and changing the direction of movement. Select the desired function.

ポインタPの複数の移動方向には、あらかじめ所定の処
理機能を割り当てておく。複数の移動方向と所定の処理
機能は、ROM2あるいはRAM3の所定の記憶領域に
テーブルなどの形式で記憶され、このテーブルに検出さ
れた移動方向情報を入力することで実行すべき機能選択
を行なう。
Predetermined processing functions are assigned in advance to a plurality of moving directions of the pointer P. A plurality of moving directions and predetermined processing functions are stored in a predetermined storage area of the ROM 2 or RAM 3 in the form of a table or the like, and the function to be executed is selected by inputting the detected moving direction information into this table.

通常このようなポインタPをポインティングデバイス6
で移動する方式では、ポインティングデバイス6の移動
方向とポインタPの移動方向はl:lに制御されるため
、上記の機能選択処理は言い換えればポインティングデ
バイス6の移動あるいは操作方向によって機能選択を行
なうことに1 他ならない。
Usually, such a pointer P is used as a pointing device 6
In the method of moving the pointing device 6 and the moving direction of the pointer P, the moving direction of the pointing device 6 and the moving direction of the pointer P are controlled l:l, so the above function selection process is, in other words, a function selection based on the movement or operation direction of the pointing device 6. It's none other than 1.

ここで、従来技術との対比で考える。Here, we will consider a comparison with the conventional technology.

従来の、たとえばポツプアップ、ないしプルダウンメニ
ューの場合にはポツプアップ、ないしプルダウン表示さ
せたメニュー上の所定位置にポインタを移動して所定の
入力を行なっており、このような入力制御は、画面−ヒ
のポインタ位置に依存して機能選択を行なうものである
。これに対して本実施例は、画面上のポインタ移動方向
に依存して機能選択を行なうものである。すてに述べた
ように、従来のポインタ位置に依存した機能選択では、
ユーザの画面の注視が不可欠であるのに対して、本実施
例におけるポインタ移動方向に依存した機能選択では必
ずしも画面注視を必要としない。
For example, in the case of a conventional pop-up or pull-down menu, the pointer is moved to a predetermined position on the pop-up or pull-down menu to perform a predetermined input. Function selection is performed depending on the pointer position. In contrast, in this embodiment, function selection is performed depending on the direction of movement of the pointer on the screen. As mentioned above, in traditional pointer position-dependent feature selection,
While it is essential for the user to watch the screen, the function selection dependent on the direction of pointer movement in this embodiment does not necessarily require the user to watch the screen.

以下、上記のユーザインターフェース制御につき最も単
純な制御例から順に詳述する。
Hereinafter, the above user interface control will be explained in detail in order from the simplest control example.

第2図に、第1図(B)のようなポインタ移動方向によ
る機能選択を行なうための最も簡IQなCPUIの制御
手順のモデルをフローチャートと 2 して示す。
FIG. 2 shows a flowchart 2 of a model of the simplest IQ CPU control procedure for selecting functions based on the direction of pointer movement as shown in FIG. 1(B).

図示のルーチンは、画像処理、文字処理、その他のCP
UIの制御中の所定タイミングで実行されるサブルーチ
ンである。
The illustrated routines include image processing, character processing, and other CP
This is a subroutine that is executed at a predetermined timing while the UI is being controlled.

第2図のステップS21では、ポインティングデバイス
6の移動方向をユーザが行なった方向選択として検出す
る。この検出処理は、第1図(A)では不図示のインタ
ーフェース手段を介して行なわれる。ポインティングデ
バイス6の操作情報の取得には、公知のオペレーティン
グシステムなどで用意された公知のシステムコールなど
を利用する。
In step S21 in FIG. 2, the moving direction of the pointing device 6 is detected as a direction selection made by the user. This detection process is performed via an interface means not shown in FIG. 1(A). To obtain the operation information of the pointing device 6, a known system call prepared by a known operating system or the like is used.

このとき、CPU 1は、ポインティングデバイス6の
移動と同時にデイスプレィ5のデイスプレィ画面51上
のポインタPを同し方向に同し量だけ移動させる。これ
により、ユーザは必要ならデイスプレィ5を介して自分
の選択方向をモニタできる。
At this time, the CPU 1 moves the pointer P on the display screen 51 of the display 5 by the same amount in the same direction at the same time as the pointing device 6 moves. This allows the user to monitor his or her selection direction via the display 5 if necessary.

ステップS21の方向選択は、実際には、第5図以降で
説明するように、デイスプレィ座標系 3 中における始点と終点に関する情報を入力し、始点およ
び終点の座標情報に対して所定の演算処理を行なうこと
により検出される。
In fact, the direction selection in step S21 is performed by inputting information regarding the start point and end point in the display coordinate system 3 and performing predetermined arithmetic processing on the coordinate information of the start point and end point, as will be explained from FIG. It is detected by doing.

次にCPUIはステップS22において、ステップS1
で選択された方向にあらかしめ割当てられた機能、たと
えば文字、画像の削除、移動、各種のモード選択などの
種々の機能を実行する。
Next, in step S22, the CPUI performs step S1.
Various functions, such as deleting and moving characters and images, selecting various modes, etc., are executed in accordance with the direction selected.

このとき、ROM2あるいはRAM3中の、選択方向と
処理機能を対応づけたテーブルが参照され、実行すべき
機能が選択される。
At this time, a table in the ROM 2 or RAM 3 that associates selection directions with processing functions is referred to, and the function to be executed is selected.

第2図の制御モデルは、最も単純なものであり、どのタ
イミングでユーザの選択処理が開始され、また終了する
かについて規定していない。また、ユーザが選択処理を
中断したり、選択方向を変更したりする可能性も考慮し
ていない。これらの点に関してより詳細に示したのが第
3図および第4図の制御モデルである。
The control model shown in FIG. 2 is the simplest one, and does not specify when the user's selection process starts or ends. Furthermore, the possibility that the user interrupts the selection process or changes the selection direction is not considered. The control models shown in FIGS. 3 and 4 show these points in more detail.

まず、第3図のステップS31で、CI) U lはユ
ーザの選択操作が行なわれたどうかを検出する。選択操
作は、操作部4、ポインテインクデバ 4 イス6により行なえるが、通常は後述のようにポインテ
ィングデバイス6のボタン押下などにより行なう。
First, in step S31 in FIG. 3, CI) U1 detects whether a selection operation has been performed by the user. The selection operation can be performed using the operating unit 4 or the pointing device 6, but is usually performed by pressing a button on the pointing device 6, as described later.

ステップS31でユーザの選択操作が行なわれると、ス
テップ532〜S34のループに入り、選択方向の検出
と、選択されたメニューエントリーに設定されている表
示動作、例えばメニュー領域の反転表示などを行なう。
When the user performs a selection operation in step S31, a loop of steps 532 to S34 is entered, in which the selection direction is detected and the display operation set for the selected menu entry is performed, such as inverting the menu area.

この反転表示などの表示制御によりユーザが自分の欲す
る機能を選択できているかどうかを確認する。
It is checked whether the user is able to select the desired function by display control such as reverse display.

まず、ステップS32では、ポインティングデバイス6
の移動方向の検出(とポインタPの移動)を行なう。こ
の検出は、たとえばステップS31で選択操作を行なっ
た時のデイスプレィ画面51上のポインタPの座標値(
選択操作の開始点(始点)の座標値)を記憶しておき、
ポインタPの時々刻々入力される移動量に応じて移動さ
れるポインタPの座標値と比較することなどにより行な
える。また、後述のように、選択操作の終了 5 点(終点)での座標値と比較することにより方向の検出
を行なってもよい。
First, in step S32, the pointing device 6
Detection of the movement direction (and movement of pointer P) is performed. This detection is performed, for example, by determining the coordinate value (
Remember the coordinate values of the starting point (starting point) of the selection operation,
This can be done by comparing the coordinate values of the pointer P that is moved according to the amount of movement of the pointer P that is input from time to time. Furthermore, as will be described later, the direction may be detected by comparing the coordinate values at the end point (end point) of the selection operation.

ステップ533では、選択された移動方向に対応して設
定されている動作(前述のメニュー領域の反転表示など
)を実行する。このとき、ROM2あるいはRAMg中
の、選択方向と処理機能を対応づけたテーブルが参照さ
れ、実行すべき動作が選択される。
In step 533, the operation set corresponding to the selected direction of movement (such as the above-mentioned inverted display of the menu area) is executed. At this time, a table in the ROM2 or RAMg that associates selection directions with processing functions is referred to, and the operation to be executed is selected.

ステップS34では機能選択が終了したかどうかを判定
する。ステップS34の判定は、ポインティングデバイ
ス6の所定のボタン押下、あるいはボタンリリースの有
無を検出することにより行なう。
In step S34, it is determined whether the function selection is completed. The determination in step S34 is made by detecting whether or not a predetermined button of the pointing device 6 is pressed or released.

このような制御によれば、ステップS31の処理により
、ユーザは好みのタイミングで機能選択処理を開始する
、あるいは機能選択を中断、終了することができる。
According to such control, the process of step S31 allows the user to start the function selection process, or to interrupt or end the function selection process at a timing of his/her preference.

実際に選択された機能(画像、文字などの編集処理など
)は第3図の手順終了後実行する。この時も、ROM2
あるいはRAM3中のデープルが 6 参照される。
The actually selected function (editing of images, characters, etc.) is executed after the procedure shown in FIG. 3 is completed. At this time, ROM2
Alternatively, the daple in RAM3 is referenced.

第3図のステップS31、S33は、より詳細には第4
図のように構成できる。また、第4図では、選択方向を
途中で変更可能とするため、ステップS35をステップ
S32と533の間に挿入している。
More specifically, steps S31 and S33 in FIG.
It can be configured as shown in the figure. Further, in FIG. 4, step S35 is inserted between steps S32 and 533 in order to allow the selection direction to be changed midway.

第4図のステップS31はステップ531a、ステップ
531bのループにより構成している。
Step S31 in FIG. 4 is constituted by a loop of step 531a and step 531b.

ステップ531aでは選択操作の開始の検出を、例えば
ポインティングデバイス6の所定のボタン押下により行
ない、ステップ531bではポインティングデバイス6
の別の解除ボタンの押下を検出することなどによりユー
ザが機能選択を本当に開始したかどうかを検出する。そ
して、有効な選択開始が行なわれればステップS32に
進み、解除ボタンなどが操作されればステップ531a
に戻る。
In step 531a, the start of the selection operation is detected by, for example, pressing a predetermined button on the pointing device 6, and in step 531b, the start of the selection operation
It is detected whether the user has actually started the function selection, such as by detecting the pressing of another release button. Then, if a valid selection start is performed, the process advances to step S32, and if a cancel button or the like is operated, step 531a
Return to

また、ステップS32に続くステップ535aでは、ま
ず、ステップS32で行なわれた方向選択の有効性を判
定する。これは、たとえば、演算 7 処理により選択方向を確定できたかどうかの判定などに
より行なう。
Further, in step 535a following step S32, first, the validity of the direction selection performed in step S32 is determined. This is done, for example, by determining whether or not the selection direction has been determined by the arithmetic operation.

次にステップ535bでは、ポインティングデバイス6
の解除ボタンの操作などの検出を行ない、有効な方向選
択が行なわれているかどうかを判定し、解除などが行な
われず、有効な機能選択が行なわれていればステップS
32に戻り、再度ユーザの方向選択を受は付ける(ある
いはステップ531aに戻り、選択処理を完全に中止し
てもよい)。
Next, in step 535b, the pointing device 6
Detects the operation of the release button, etc., and determines whether a valid direction selection has been made. If no release has been made and a valid function selection has been made, the process proceeds to step S.
The process returns to step 532 and accepts the user's direction selection again (or the process may return to step 531a and completely cancel the selection process).

ステップ533では、第3図のステップS33と同しス
テップ533aの後にステップ533bを設けている。
In step 533, step 533b is provided after step 533a, which is the same as step S33 in FIG.

これはユーザにより行なわれるもので、ステップ533
aにおける反転表示などの制御により、ユーザが自分の
欲する機能を確実に選択しているかどうか確めるもので
ある。
This is done by the user, step 533
This is to check whether the user has selected the function he/she desires by controlling the inverted display or the like in step (a).

第4図の処理によれば、選択動作の開始、および開始さ
れた選択操作の中止が可能で、また最終的に機能選択を
確定するまでの間であれば、選択機能を変更したり、あ
るいは機能選択を中止する 8 ことができる。
According to the process shown in FIG. 4, it is possible to start a selection operation and cancel the selection operation that has been started, and it is possible to change the selected function or change the selected function until the function selection is finally confirmed. You can cancel function selection.

次に、第5図、第6図を参照して、ポインティングデバ
イス6としてマウスを用いる場合の、より詳細な入力制
御、および以上の例では詳述しなかった画面制御の詳細
につき説明する。ここでは、説明の都合上、マウスの参
照符号として61を用いる。
Next, with reference to FIGS. 5 and 6, more detailed input control when a mouse is used as the pointing device 6 and details of screen control that were not described in detail in the above example will be described. Here, for convenience of explanation, 61 is used as a reference symbol for the mouse.

前述の第1図(+3)では要点のみ示すために、デイス
プレィ5に表示するメニューについては図示しなかった
が、デイスプレィ5に第5図に示すようなメニュー表示
を行なえば、ユーザは選択方向を確認でき、所望の機能
、また変更などを容易に行なえるようになる。
In FIG. 1 (+3) mentioned above, the menu displayed on the display 5 was not shown in order to show only the main points, but if the menu shown in FIG. 5 is displayed on the display 5, the user can easily select the direction You can easily confirm the desired function, change it, etc.

第5図において、符号5Iはデイスプレィ5のデイスプ
レィ画面(またはウィンドウ)で、この表示領域はアプ
リケーションに応じて文字、画像などの各種データの編
集などに使用される。なお、ここでは、8個の処理機能
をポインタPの移動方向にしたがって選択する例を示す
In FIG. 5, reference numeral 5I denotes a display screen (or window) of the display 5, and this display area is used for editing various data such as characters and images depending on the application. Note that here, an example is shown in which eight processing functions are selected according to the moving direction of the pointer P.

デイスプレィ画面51には、マウス61の所定 9 ボタンの押下に応してメニューMを表示する。メニュー
Mの形状は円形、ひし形などどのようなちのでもよいが
、ここでは正方形のものを例示する。
A menu M is displayed on the display screen 51 in response to pressing of a predetermined button of the mouse 61. Although the shape of the menu M may be any shape such as a circle or a diamond, a square shape is exemplified here.

メニューMは、選択できる機能に割り付けられたポイン
タPの(したがってマウス61の)移動方向を可視表示
するために、8つの区画M1〜M8に放Q1状に分割し
である。この画面」二での分割は、表示色の変更、直線
の表示などにより行なう。
The menu M is divided into eight sections M1 to M8 in a radial Q1 pattern in order to visually display the moving direction of the pointer P (and thus of the mouse 61) assigned to selectable functions. This screen division is performed by changing display colors, displaying straight lines, etc.

ここでは、メニューMの中心Oを中心点として、水平、
垂直な2つの境界線によりメニュMを4分割し、さらに
これを水平、垂直な2つの境界線に対して45度の傾き
を有する2つの境界線により分割して8区画を形成して
いる。各区画M1〜M8内部には、選択される処理機能
を文字などにより表示しておく。
Here, horizontally, with the center O of menu M as the center point,
The menu M is divided into four by two vertical border lines, and this is further divided by two border lines having an inclination of 45 degrees with respect to the two horizontal and vertical border lines to form eight sections. Inside each of the sections M1 to M8, the selected processing function is displayed in letters or the like.

ここで、第5図のメニューMによるユーザインターフェ
ースの概要を説明する。
Here, an overview of the user interface using menu M in FIG. 5 will be explained.

メニューMが未表示の状態で、マウス61の所 0 定ボタンの押下が行なわれると、そのときポインタPが
佇在した位置をメニューMの中心点OとしてメニューM
を表示する。点Oの座標は、CPUIにより選択操作の
始点の座標情報としてRAM3に記憶される。また、こ
のとき、ポインタPはメニューMとオーバーラツプして
表示される。
When a predetermined button of the mouse 61 is pressed while the menu M is not displayed, the menu M is displayed with the position where the pointer P is located at that time as the center point O of the menu M.
Display. The coordinates of point O are stored in the RAM 3 by the CPU as coordinate information of the starting point of the selection operation. Also, at this time, the pointer P is displayed overlapping the menu M.

次に、ユーザはマウス61を移動させてポインタPを所
望の方向に移動させる。メニューMの区画Ml−M8(
あるいはそれに付された文字による機能表示)により選
択したい機能がわかるので、ユーザは所望の機能に対応
した区画Ml〜M8のいずれか1つの内側にポインタP
を移動させる。あるいは、メニューMの外側であっても
、所望の区画を他の区画と分割する2つの境界線の延長
線の内側であればよい。
Next, the user moves the mouse 61 to move the pointer P in a desired direction. Sections Ml-M8 of menu M (
The user can identify the function he/she wants to select from the function display (or the function display with characters attached to it), so the user can move the pointer P inside any one of the sections M1 to M8 corresponding to the desired function.
move. Alternatively, even if it is outside the menu M, it may be inside an extension of two border lines that divide the desired section from other sections.

そして、マウス61の所定のボタンを押下またはリリー
スすると、その時のポインタPの座標が選択操作の終点
の座標値として取り込まれる。この操作は、ユーザの機
能選択を確定させるもので1 ある。
When a predetermined button on the mouse 61 is pressed or released, the coordinates of the pointer P at that time are taken in as the coordinate values of the end point of the selection operation. This operation is to confirm the user's function selection1.

これにより、CPUIはあらかしめRA M 3に記憶
したメニューMの中心点O(始点)の座標と、マウス6
1の所定のボタンが押下またはリリースされた時点での
ポインタPの位置(終点)の座標から、選択された移動
方向を検出し、これに対応してROM2、RAMB中の
テーブルで割り当てられている処理機能を実行する。
As a result, the CPU uses the coordinates of the center point O (starting point) of the menu M stored in the RAM 3 and the mouse 6.
The selected movement direction is detected from the coordinates of the position (end point) of the pointer P at the time when a predetermined button 1 is pressed or released, and is assigned in a table in ROM 2 and RAMB accordingly. Perform processing functions.

第6図に、第5図のユーザインターフェースを実現する
ためのCPU1の制御手順を例示する。
FIG. 6 illustrates a control procedure of the CPU 1 for realizing the user interface of FIG. 5.

ここでは、機能選択中に解除操作を可能とした例を示す
Here, an example is shown in which a cancellation operation is enabled during function selection.

第6図のステップS61では、機能選択開始を命令する
所定のマウスボタンの押下を検出する。
In step S61 in FIG. 6, pressing of a predetermined mouse button to command the start of function selection is detected.

所定のマウスボタンの押下が行なわれると、ステップS
62に進み、マウスボタン押下の際のポインタPのx、
y座標をメニューMの中心O(始点)の座標としてRA
M3の所定エリアに記憶し、ステップS63では第5図
に示すようなメニューMをデイスプレィ5のデイスプレ
ィ画面 2 51に表示する。
When a predetermined mouse button is pressed, step S
Proceed to 62, x of pointer P when pressing the mouse button,
RA with the y coordinate as the coordinate of the center O (starting point) of the menu M
In step S63, a menu M as shown in FIG. 5 is displayed on the display screen 251 of the display 5.

ステップS64では、マウス61の移動検出およびそれ
に対応したポインタPの移動制御を行ないつつ、マウス
ボタンの押下またはリリースによる選択確定を検出する
。このとき同時に、別のマウスボタンなどによる解除操
作も検出し、解除操作が検出されるとステップS70で
表示中のメニューを消去してステップS61に戻る。
In step S64, while detecting the movement of the mouse 61 and controlling the corresponding movement of the pointer P, confirmation of selection by pressing or releasing the mouse button is detected. At this time, a release operation using another mouse button or the like is also detected, and if the release operation is detected, the menu being displayed is erased in step S70, and the process returns to step S61.

方、ステップS64でマウスボタン押下またはリリース
による選択確定が行なわれると、ステップ365でマウ
スボタン押下またはリリースが行なわれた時のポインタ
Pの位置(終点)のx、y座標を入力し、その値をステ
ップS66てRAM3に記憶されているメニューMの中
心点O(始点)の座標を原点とする座標系データに変換
する。
On the other hand, when the selection is confirmed by pressing or releasing the mouse button in step S64, the x and y coordinates of the position (end point) of the pointer P at the time the mouse button was pressed or released are input in step 365, and the values are is converted into coordinate system data whose origin is the coordinates of the center point O (starting point) of the menu M stored in the RAM 3 in step S66.

ステップS67では、ステップ566で変換された、マ
ウスボタン押下またはリリースが行なわれた時のポイン
タPの位置(終点)のx、y座標の検査により選択され
た方向を検出する。この処 3 理は、選択処理の始点と終点の情報から、方向性に関す
るデータを取得するもので、たとえば、後述の第7図、
第8図に示すような処理により構成される。
In step S67, the selected direction is detected by examining the x and y coordinates of the position (end point) of pointer P when the mouse button was pressed or released, which was converted in step 566. This process obtains data regarding directionality from the information on the starting point and ending point of the selection process. For example, as shown in FIG.
It is configured by the processing shown in FIG.

ステップS67で選択方向が検出されると、ステップS
68てメニューMをデイスプレィ画面51から消去した
後ステップS69で選択方向に対応する機能を実行する
。機能選択には、ROM2あるいはRAMB中のテーブ
ルが使用される。
When the selection direction is detected in step S67, step S67
After the menu M is deleted from the display screen 51 in step S68, the function corresponding to the selected direction is executed in step S69. A table in ROM2 or RAMB is used for function selection.

このようにして、マウス61、メニューMの表示を利用
して、ユーザは容易に所望の機能を簡単かつ確実に選択
できる。ユーザはメニュー表示により、ポインタPの移
動方向を明確に区別できるが、本実施例によれば、かな
らずしもメニュMの注視は必要ない。
In this way, the user can easily and reliably select a desired function by using the mouse 61 and the menu M display. Although the user can clearly distinguish the moving direction of the pointer P by displaying the menu, according to this embodiment, it is not necessary to keep an eye on the menu M.

本実施例においては、選択操作を開始した地点(始点:
メニューMの中心O)から、最後に選択を確定した地点
(終点)に向かう移動方向により機能を選択するように
しているので、ユーザは慣れればデイスプレィ画面51
を注視することなく 4 所望の機能を選択できる。この点において本実施例は従
来のポツプアップ、ないしプルダウンメニューより優れ
ている。また、同し理由で、最後に確定操作を行なうま
でユーザの選択変更を許容できるのはいうまでもない。
In this example, the point where the selection operation is started (starting point:
Since the function is selected depending on the direction of movement from the center O) of the menu M to the last confirmed point (end point), once the user gets used to it, the display screen 51
4 You can select the desired function without having to look at it. In this respect, this embodiment is superior to conventional pop-up or pull-down menus. Furthermore, for the same reason, it goes without saying that the user's selection changes can be allowed until the final confirmation operation is performed.

また、メニュー表示をニー仲が積極的に利用する場合に
は次のような効果もある。
In addition, when a friend actively uses the menu display, the following effects can be obtained.

すなわち、ボタンを押下またはリリースして機能選択の
確定を行なう場合、メニューMの外側であっても、所望
の区画を他の区画と分割する2つの境界線の延長線の内
側であればよいが、区画Ml−M8のいずれか1つの内
側で行なえば、ユーザは自分の選択しようとしている機
能をより明確にモニタしつつ操作を行なえる。この場合
には、メニューの使い勝手は従来型のメニューに近いた
め、従来型のメニュ一方式から移行しても違和感なく操
作が可能である。
In other words, when confirming a function selection by pressing or releasing a button, it may be outside the menu M as long as it is inside the extension of the two boundaries dividing the desired section from other sections. , M1-M8, the user can more clearly monitor the function he or she is trying to select while performing the operation. In this case, the usability of the menu is similar to that of conventional menus, so even if the user transitions from the conventional one-sided menu system, it can be operated without any discomfort.

なお、マウス61のボタンの割当ては、任意であり、た
とえば、lボタンマウスであっても、最初のボタン押下
でメニューMを表示し、続いてポ 5 タンを押下したままポインタPを所望の方向に移動し、
ボタンリリースを行なうことにより機能を確定するよう
にできる。あるいは、メニュー表示後、ポインタPの移
動中マウスボタンの押下を行なわず、再押下により選択
確定を行なう処理を許容してもよい。
The buttons on the mouse 61 can be assigned arbitrarily; for example, even if it is an l-button mouse, menu M is displayed when the first button is pressed, and then the pointer P is moved in the desired direction while holding down the button. Move to
The function can be confirmed by releasing the button. Alternatively, after the menu is displayed, the selection may be confirmed by pressing the mouse button again without pressing the mouse button while the pointer P is moving.

なお、第6図の実施例においても、第3図、第4図の場
合と同様に常時方向性の判断(ステップ532)とそれ
に応したメニュー領域の反転表示制御等を組み合せても
良いのは勿論である。
In addition, in the embodiment shown in FIG. 6, as in the case of FIGS. 3 and 4, constant direction determination (step 532) and corresponding menu area inversion display control may be combined. Of course.

ここで、第6図における選択操作の始点および終点の座
標から方向性に関する情報を検出する処理の詳細を第7
図に例示しておく。この制御は、マウス以外のものをポ
インティングデバイス6として使用する場合でも利用可
能である。
Here, the details of the process of detecting directionality information from the coordinates of the starting point and ending point of the selection operation in FIG.
An example is shown in the figure. This control can be used even when using something other than a mouse as the pointing device 6.

第7図(A)は、第7図(B)の検出処理で使用される
検出方向の割当てを示している。
FIG. 7(A) shows the assignment of detection directions used in the detection process of FIG. 7(B).

第7図(A)において、符号Oは、デイスプレィ5に表
示されるメニューMの中心、(1λを示ず。口汚のよう
に、第7図(A)では、第5図同様の様 G 式でメニューMを45度づつ8等分し、各区画に相当す
る図示のように8つの方向1〜8を選択可能とする。な
お、符号x、yは、メニューの中心Oを原点とする直交
座標軸を示す。
In FIG. 7(A), the symbol O is the center of the menu M displayed on the display 5, (1λ is not shown. Like a foul mouth, in FIG. 7(A), it is the same as in FIG. 5. The menu M is divided into 8 equal parts of 45 degrees each by the formula, and eight directions 1 to 8 can be selected as shown in the figure corresponding to each division.The symbols x and y have the origin at the center O of the menu. Shows Cartesian coordinate axes.

ここでは、通常のコンピュータなどの画面制御における
のと同様に縦のy軸は垂直下方側が正の値を取るように
設定されている。8つの方向を区切る境界線は、それぞ
れ直線y=x、直線y=−x、直線x=0 (y軸)、
直線y=0 (x軸)である。
Here, the vertical y-axis is set so that the vertically downward side takes a positive value, as in the screen control of a normal computer. The boundary lines that separate the eight directions are straight line y=x, straight line y=-x, straight line x=0 (y axis),
Straight line y=0 (x axis).

第7図(B)は第7図(A)のように検出すべき方向を
8分割する場合の方向検出ルーチンを例示している。
FIG. 7(B) illustrates a direction detection routine when the direction to be detected is divided into eight parts as shown in FIG. 7(A).

第7図でも、第6図と同じステップ366が図示されて
おり、ここで最終的にポインティングデバイス6により
入力がおこなわれた際の座標値をメニューの中心Oを原
点とする座標系における座標値(px、py)に変換し
、以後ステップS7!〜S77で、この厘PMイ+rf
(px、py)の検査により移動方向を検出する。
In FIG. 7, the same step 366 as in FIG. 6 is illustrated, and here, the coordinate values when the input is finally performed by the pointing device 6 are the coordinate values in the coordinate system whose origin is the center O of the menu. (px, py), and then step S7! ~ In S77, this Rin PM + rf
The moving direction is detected by checking (px, py).

 7 ステツプ571−577では、座標値px、pyの正、
負あるいは大小の演算により、第7図(A)のいずれの
方向が選択されたかを決定する。ここでは、各方向を規
定する境界の直線の式%式% とから、方向1〜8をそれぞれ検出する条件は次の通り
である。
7 In steps 571-577, the coordinate values px, py are positive,
Which direction in FIG. 7(A) has been selected is determined by negative or large/small calculations. Here, the conditions for detecting each of directions 1 to 8 from the boundary straight line equation % formula % that defines each direction are as follows.

方向1:  px>0かつp、y<0かつpx>−py
          ・・−(1)方向2:  px>
Oかつpy<oかつp x < −py       
    ・・−(2)方向3:  px<Oかつpy<
0かつ−pX<py          ・・・(3)
方向4:  px<Oかつpy<0かつ−px>py 
         ・・−(4)方向5:  px<O
かつpy>oかつ−px>py           
    −・−(5)方向6:  px<0かつr、)
 y>0かつ−p X < py          
      −・・ (6)2゛8 方向7:  px>0かつpy>0かつp’ x < 
p y・・−(7) 方向8:  px>Oかつpy>oかつpx>py  
              ・・−(8)ステップ5
71−877は、これらの各条件(1)〜(8)をそれ
ぞれ検査すべく配置(順序はフローチャート中では上記
と一致せず)されており、各条件が満足されると、ステ
ップ578〜S85のいずれかで方向1〜8のいずれか
がユーザの選択方向として検出される。
Direction 1: px>0 and p, y<0 and px>-py
...-(1) Direction 2: px>
O and py < o and p x < -py
...-(2) Direction 3: px<O and py<
0 and -pX<py...(3)
Direction 4: px<O and py<0 and -px>py
...-(4) Direction 5: px<O
and py>o and -px>py
−・−(5) Direction 6: px<0 and r,)
y > 0 and -p X < py
-... (6) 2゛8 Direction 7: px>0 and py>0 and p' x <
p y...-(7) Direction 8: px>O and py>o and px>py
...-(8) Step 5
71-877 are arranged to check each of these conditions (1) to (8) (the order does not match the above in the flowchart), and when each condition is satisfied, steps 578 to S85 are performed. Any one of directions 1 to 8 is detected as the user's selected direction.

第7図の制御で選択方向が確定されると、選択方向に対
応する機能を実行する。機能選択には、ROM2あるい
はRAM5中のテーブルが使用される。
When the selected direction is determined by the control shown in FIG. 7, the function corresponding to the selected direction is executed. A table in ROM2 or RAM5 is used for function selection.

第5図、第7図の場合、選択可能な方向は、右上、左上
、右下、左下方向をそれぞれ2等分した8方向である。
In the case of FIGS. 5 and 7, the selectable directions are eight directions obtained by dividing the upper right, upper left, lower right, and lower left directions into halves, respectively.

また、分割の角度はそれぞれ等しい。しかし、ポインテ
ィングデバイス6(特にマウスなど)を画面な見ずに操
作する場合を考えると、垂直、水平方向はブラインド操
作でかなり正 9 確に行なえるが、それに比べ斜め方向の移動では角度を
あまり正確に管理できないと思われる。
Furthermore, the angles of division are equal. However, when we consider the case of operating a pointing device (especially a mouse, etc.) without looking at the screen, blind operation can be used fairly accurately in the vertical and horizontal directions; It seems that it cannot be managed accurately.

そこで、第8図に異なる選択方向の設定方法を示す。こ
こでは、水平左右方向、垂直上下方向とそれらの間の右
上、左上、右下、左下方向の8方向を選択可能とし、ま
た、垂直、水平方向と斜め方向の間でのブラインド操作
における正確度の差を考慮して、各方向の角度幅を異な
った値に設定している。
Therefore, FIG. 8 shows a different selection direction setting method. Here, eight directions can be selected: horizontal left/right direction, vertical up/down direction, and upper right, upper left, lower right, and lower left directions, and the accuracy of blind operation between vertical, horizontal, and diagonal directions. The angular width in each direction is set to a different value in consideration of the difference in .

第8図(A)は、第7図(A)と同様の様式で、選択可
能な8方向l〜8を示している。
FIG. 8(A) shows eight selectable directions 1-8 in a similar manner to FIG. 7(A).

各方向1〜8を区切る境界線の直線は、それぞれy=a
x、y=x/a、y=−ax、y= −x/aにより示
される。
The straight line of the boundary line dividing each direction 1 to 8 is y=a
x, y=x/a, y=-ax, y=-x/a.

このように設定された方向は第8図(B)の手順により
識別できる。
The direction set in this way can be identified by the procedure shown in FIG. 8(B).

第8図(B)のステップS66、S71〜S77は第7
図(B)と同しで、それぞれ、前記の条件(1)〜(8
)を検査する。そして、第7図(B)のステップ378
〜S85のかわり 0 に、ステップ591−598を設け、ここでそれぞれp
x、pyの商としきい値a、−a、l/a、−1/aの
比較を行なうことにより方向の検出を行なう。このしき
い値は各方向1〜8を区切る境界線の直線は、それぞれ
y=ax、y”X/a、y=−ax、y=−x/aの傾
きである。
Steps S66, S71 to S77 in FIG. 8(B) are the seventh
Same as Figure (B), respectively, the above conditions (1) to (8)
). Then, step 378 in FIG. 7(B)
~Instead of S85, steps 591-598 are provided, and p
Direction is detected by comparing the quotient of x and py with threshold values a, -a, l/a, -1/a. The straight lines of the boundary lines dividing the threshold values in each direction 1 to 8 have slopes of y=ax, y''X/a, y=-ax, and y=-x/a, respectively.

たとえば、ステップS75が肯定された場合には、第7
図(A)における方向1の領域が検出されたことになる
が、第8図(A)の場合にはここからさらに方向l、方
向2のいずれかを検出しなければならない。
For example, if step S75 is affirmative, the seventh
This means that the region in direction 1 in FIG. 8(A) has been detected, but in the case of FIG. 8(A), either direction 1 or direction 2 must be further detected from here.

ステップS91では、直線y = −x / aの傾き
1 / aと、x、y座標値の商を比較することにより
方向lあるいは2を決定している。ステップ591では
、p y / p x > −1/ aが満足されれば
方向lを検出する。
In step S91, the direction l or 2 is determined by comparing the slope 1/a of the straight line y=-x/a and the quotient of the x and y coordinate values. In step 591, direction l is detected if p y / p x > −1/a is satisfied.

ステップ392〜59Bでも、同様にしきい値としての
直線y==ax、y=x/a、y=ax、y=−x/a
の傾きとx、y座標値の商を比較することにより、選択
方向を最終的に決定1 する。このような制御により、第8図の場合には、1つ
の選択方向は2つのステップのいずれかで確定される。
Similarly, in steps 392 to 59B, straight lines y==ax, y=x/a, y=ax, y=-x/a as threshold values
The selection direction is finally determined 1 by comparing the slope of the quotient of the x and y coordinate values. With such control, in the case of FIG. 8, one selection direction is determined in one of two steps.

たとえば、方向2はステップ5100.5102の2つ
のいずれかで確定される。
For example, direction 2 is determined in either of the two steps 5100.5102.

以上のように、第8図の制御によれば、水平、垂直方向
とそれらに挟まれる右上、右下、左上、左下の8方向の
選択を検出し、対応する機能を実行することができる。
As described above, according to the control shown in FIG. 8, it is possible to detect selections in the horizontal and vertical directions, as well as in eight directions sandwiched therebetween: upper right, lower right, upper left, and lower left, and to execute the corresponding functions.

特に、第8図の構成によれば、ステップ591−398
のしきい値を決定する値aの設定を変更することにより
、選択可能な方向の範囲を所望に制御できる。これによ
り、ユーザの前述のようなブラインド操作時の正確度を
考慮して、垂直、水平方向とみなす方向の範囲を狭くし
、斜め方向の範囲を大きく設定することが可能である。
In particular, according to the configuration of FIG. 8, steps 591-398
By changing the setting of the value a that determines the threshold value of , the range of selectable directions can be controlled as desired. As a result, it is possible to narrow the range in the directions considered to be vertical and horizontal, and to set the range in the diagonal direction to be large, taking into account the accuracy of the user's blind operation as described above.

また、第8図中の4本の直線y=ax、yx/a、y=
−ax、y=−x/aの傾きは、同じaという値に基づ
いて決定されているが、これらの値をそれぞれ別個に定
めてもよい。この場合 2 には、第8図(B)のステップ591−398中のしき
い値を別々に設定することになる。
Also, the four straight lines in Figure 8 y=ax, yx/a, y=
Although the slopes of -ax and y=-x/a are determined based on the same value a, these values may be determined separately. In this case, the threshold values in steps 591-398 of FIG. 8(B) are set separately.

たとえば、第8図(A)の方向l、8、および4.5を
それぞれ分割する直線y = x / aの傾きをmに
変更すれば、ステップS93、S95において使用する
しきい値はmとなる。
For example, if the slope of the straight line y = x / a that divides the directions l, 8, and 4.5 in FIG. 8(A) is changed to m, the threshold value used in steps S93 and S95 becomes m. Become.

このように、選択方向の範囲を別々に設定することによ
り、たとえば、ポインティングデバイス6により水平方
向の入力を行なう場合、つねにポインティングデバイス
6の移動方向が傾いてしまうといったようなユーザの操
作の癖を補正することができる。
By setting the selection direction ranges separately in this way, it is possible to prevent user operation habits such as, for example, when performing horizontal direction input using the pointing device 6, the direction of movement of the pointing device 6 is always tilted. Can be corrected.

さらに、各方向を分割する直線を、原点Oを起点とした
8本の直線として考え、これらの傾きをそれぞれ異なら
せてもよい。これにより、たとえば、方向■の検出条件
を厳しくし、方向5の検出条件を甘くするなどの設定も
可能である。
Furthermore, the straight lines dividing each direction may be considered as eight straight lines starting from the origin O, and the slopes of these lines may be made different. This makes it possible to set, for example, stricter detection conditions for direction (2) and less stringent detection conditions for direction (5).

なお、選択方向を規定するしきい値は、ユーザが好みの
値に設定できるようにしてもよい。この設定は、操作部
4、ポインティングデバイス6を 3 用いて数値入力を行なったり、メニュー選択を行なうこ
となどにより行なえる。もちろんこの設定の際、本発明
に関わるメニューを利用してもよい。
Note that the threshold value that defines the selection direction may be set to a value of the user's preference. This setting can be performed by inputting numerical values using the operating section 4 and pointing device 6, or by making menu selections. Of course, during this setting, a menu related to the present invention may be used.

第7図、第8図では、説明を容易にするため、境界線上
のデータを考慮していないが、条件(1)〜(8)ある
いは第8図のステップS91〜398中の不等式中に等
号を適宜配置することにより、境界綿1の入力をその境
界線が区切るいずれかの選択方向として検出できるのは
いうまでもない。
In FIGS. 7 and 8, data on the boundary line is not taken into account for ease of explanation, but the conditions (1) to (8) or the inequalities in steps S91 to 398 in FIG. It goes without saying that by appropriately arranging the symbols, the input of the boundary line 1 can be detected as one of the selection directions delimited by the boundary line.

以上では、8方向の選択に応して対応する機能を実行す
る例を示したが、選択可能な方向の数はいくつでもよい
In the above example, the corresponding function is executed in accordance with the selection of eight directions, but any number of selectable directions may be used.

また、ポインティングデバイスとしては、マウス以外に
も、トラックポールや、デジタイザパッド、ジョイステ
ィックなどを利用できる。ジョイスティックなどでは、
操作部が「移動」されないが、この場合には、上述の実
施例中の「移動」をスティックの「傾斜」などに読み換
えれば同様の 4 制御が可能である。
In addition to the mouse, a track pole, digitizer pad, joystick, etc. can be used as a pointing device. Joysticks, etc.
Although the operating section is not "moved," in this case, similar control is possible by replacing "movement" in the above embodiment with "tilting" of the stick.

また、従来のキーボード(第1図の操作部4として使用
される。)などに使用されているカーソルキーやテンキ
ーパッドなどをポインティングデバイスとして、たとえ
ば第5図に示したようなメニューとともに使用すること
ができる。
In addition, cursor keys, numeric keypads, etc. used on conventional keyboards (used as the operation unit 4 in Fig. 1) can be used as pointing devices in conjunction with menus as shown in Fig. 5, for example. I can do it.

カーソルキーの場合には、上下、左右の矢印をもつ各キ
ーで4方向、あるいは各キーのうち例えば上、右等の2
つのキーの入力を受けつけることにより更に4方向、つ
まり合計8方向の選択を行なえる。カーソルキーを使用
する場合には、方向の選択を開始、終了するため、他の
キーを利用する。これらのキーの検出は、たとえば第4
図の制御手順では、ステップ531a、S34で、また
、第6図の場合にはS61.365で検出される。
In the case of cursor keys, each key with up, down, left and right arrows can be used in four directions, or two of each key, such as up and right.
By accepting the input of the two keys, it is possible to select four more directions, that is, a total of eight directions. When using cursor keys, use other keys to start and end directional selection. Detection of these keys is, for example, the fourth
In the control procedure shown in the figure, it is detected in steps 531a and S34, and in the case of FIG. 6, it is detected in S61.365.

即ち、所定のキー(エスケープキーなど)を押下して方
向選択の開始を行なわせ、前述のようなメニューをポイ
ンタの現在位置に表示した後、カーソルキーによりポイ
ンタを移動し、確定キ 5 (リターンキー、選択開始と同しエスケープキなと)を
押下して方向選択を行なう。方[?11の検出は、また
、互いに逆の方向をもつカーソルキ例えば左、右の両キ
ーの同時押下により方向選択の開始あるいは終了を行わ
せてもよい。前述の実施例同様に、方向の選択を開始、
終了した地点でのポインタの座標から検出できる。
That is, after pressing a predetermined key (such as the escape key) to start direction selection and displaying the menu described above at the current position of the pointer, move the pointer using the cursor keys and press the 5 (return) key. Press the escape key (same as the escape key) to select the direction. direction[? In the detection of 11, direction selection may also be started or ended by simultaneously pressing cursor keys having opposite directions, for example, both left and right keys. As in the previous embodiment, start selecting the direction,
It can be detected from the coordinates of the pointer at the point where it ended.

また、テンキーパッドなども利用できる。この場合には
、 89 56 23 のように配置されたキーのうち、周囲の7.8.9.4
.6.1.2.3のキーを8つの方向に対応させ、その
キーの押下により方向を選択する。
You can also use a numeric keypad. In this case, among the keys arranged like 89 56 23, the surrounding 7.8.9.4
.. 6.1.2.3 keys correspond to eight directions, and the direction is selected by pressing the key.

テンキーの場合にも方向の選択を開始、終了するための
キーが必要で、たとえば、テンキー中央の5のキーは方
向選択に必要ないので、このキを方向の選択を開始、終
了するためのキーに割り 6 当てることができる。
In the case of a numeric keypad, a key is required to start and end direction selection.For example, the 5 key in the center of the numeric keypad is not necessary for direction selection, so this key is used to start and end direction selection. It can be assigned to 6.

すなわち、テンキー中央の5のキーの押下で、ポインタ
の現在位置にメニューを表示し、続いて周囲の7.8.
9.4.6、■、2.3のキー押下に応してポインタを
対応する方向に移動させ、5のキーの再押下、あるいは
別の確定キーの押下により選択方向を確定させる。方向
の選択を開始、終了、方向の検出などはカーソルキーの
場合と同様に行なう。
That is, by pressing the 5 key in the center of the numeric keypad, a menu is displayed at the current position of the pointer, and then the surrounding 7, 8, .
9. The pointer is moved in the corresponding direction in response to the pressing of the keys 4.6, 2, and 2.3, and the selected direction is determined by pressing the 5 key again or another confirmation key. Starting and ending direction selection, direction detection, etc. are performed in the same way as with the cursor keys.

カーソルキー、テンキーなどを使用すれば、ポインティ
ングデバイスを持たない装置においても本発明のメニュ
一方式の利点を享受できる。カーソルキー、テンキーを
使用する場合、方向の選択を開始、終了するためのキー
は任意のものを使用できるのはいうまでもない。
By using a cursor key, numeric keypad, etc., even an apparatus without a pointing device can enjoy the advantages of the one-menu system of the present invention. When using cursor keys or numeric keys, it goes without saying that any key can be used to start and end direction selection.

なお、従来のメニューインターフェースでは、所定の入
力操作に応じであるメニュー項目を選択し、そのメニュ
ーの下位の機能をメニュー項目とするサブメニューを表
示させ、機能選択を行なわせる、いわゆる階層メニュー
構造が知られている 7 が1本発明におけるたとえば第5図のようなメニューに
おいても、同様にあるメニュー項目の指定を方向選択に
より行ない、そのサブメニューを表示させるような構成
を採用できるのはもちろんである。
In addition, conventional menu interfaces have a so-called hierarchical menu structure in which a menu item is selected in response to a predetermined input operation, a submenu with the lower functions of that menu is displayed, and the function selection is performed. It goes without saying that even in the menu of the present invention as shown in FIG. 5, for example, a configuration can be adopted in which a certain menu item is similarly designated by direction selection and its submenu is displayed. be.

[発明の効果1 以上から明らかなように、本発明によれば、所定の座標
系を有し、入力された座標情報に応じて情報処理を行な
う情報処理機器のユーザインターフェース方式において
、前記所定座標系中における始点と終点の座標情報を入
力する手段と、前記始点および終点の座標情報から前記
座標系における方向性に関わる情報を形成する手段と、
前記座標系における方向性に関する情報にそれぞれ異な
る情報処理機能を対応づけて記憶する手段と、前記情報
形成手段が形成した方向性に関わる情帽に応して前記記
憶手段を参照し、該方向性に関わる情報に対応づけられ
た所定の情報処理機能を実行する制御手段を設けた構成
を採用している。したがって、所定の座標系中における
始点と終点の座 8 標をユーザに入力させ、始点および終点の座標情報から
所定の情報処理機能に対応づけられた方向性に関わる情
報を入力し、この方向性情報に基づき各種の情報処理機
能を実行することができる。
[Effect 1 of the Invention As is clear from the above, according to the present invention, in a user interface system for an information processing device that has a predetermined coordinate system and performs information processing according to input coordinate information, the predetermined coordinate system means for inputting coordinate information of a starting point and an ending point in the system; and means for forming information related to directionality in the coordinate system from the coordinate information of the starting point and ending point;
a means for storing information relating to directionality in the coordinate system in association with different information processing functions, and a means for storing information relating to directionality in the coordinate system; The configuration includes a control means for executing a predetermined information processing function associated with information related to the information. Therefore, the user inputs the coordinates of the starting point and the ending point in a predetermined coordinate system, inputs the information related to the directionality that is associated with the predetermined information processing function from the coordinate information of the starting point and the ending point, and Various information processing functions can be executed based on the information.

ここで、始点と終点の座標情報の入力は、ポインティン
グデバイスなどを用いて行なえ、その場合、方向性の情
報は必ずしもモニタ表示など必要とせず容易に行なえる
ので、ユーザの表示画面注視などを強要することがなく
、ブラインド操作が可能であり、機能選択の効率化が可
能で、また、ユーザの疲労度も低減できるといった優れ
た効果がある。
Here, the coordinate information of the start point and end point can be input using a pointing device, etc. In that case, the direction information can be easily inputted without necessarily requiring a monitor display, so the user is not forced to look at the display screen. This has excellent effects such as blind operation, efficient function selection, and reduced user fatigue.

【図面の簡単な説明】[Brief explanation of drawings]

第1図(A)は本発明のユーザインターフェース方式を
採用した情報処理装置のブロック図、第1図(B)は本
発明における方向による機能選択の基本モデルを示した
説明図、第2図は本発明における方向による機能選択制
御の基本モデルを示したフローチャート図、第3図、第
4図はより複雑な方向による機能選択制御の基本モデル
を示し 9 たフローチャート図、第5図は具体的なメニュの表示例
を示した説明図、第6図はマウスを用いたユーザインタ
ーフェース制御を示したフロチャート図、第7図(A)
は選択される方向の設定例を示した説明図、第7図(I
3)は第7図(A)の選択方向の検出制御のフローチャ
ート図、第8図(A)は選択される方向の異なる設定例
を示した説明図、第8図(B)は第8図(A)の選択方
向の検出制御のフローチャート図、第9図は従来のメニ
ューの表示例を示した説明図である。 1・・・CPU      2・・・ROM3・・・R
AM      4−・・操作部5−・デイスプレィ 6・・・ポインティングデバイス 51−・・デイスプレィ画面
FIG. 1(A) is a block diagram of an information processing device adopting the user interface method of the present invention, FIG. 1(B) is an explanatory diagram showing a basic model of function selection by direction in the present invention, and FIG. 9 A flowchart diagram showing a basic model of function selection control based on direction in the present invention, FIGS. 3 and 4 are flowchart diagrams showing a basic model of function selection control based on more complicated directions, and FIG. An explanatory diagram showing an example of a menu display, Figure 6 is a flowchart diagram showing user interface control using a mouse, and Figure 7 (A)
is an explanatory diagram showing an example of setting the direction to be selected, and FIG. 7 (I
3) is a flowchart of the selection direction detection control shown in FIG. 7(A), FIG. 8(A) is an explanatory diagram showing different setting examples of the selected direction, and FIG. 8(B) is a flowchart of the detection control of the selected direction. FIG. 9 is an explanatory diagram showing an example of a conventional menu display. 1...CPU 2...ROM3...R
AM 4-...Operation unit 5--Display 6--Pointing device 51--Display screen

Claims (1)

【特許請求の範囲】 1)所定の座標系を有し、入力された座標情報に応じて
情報処理を行なう情報処理機器のユーザインターフェー
ス方式において、 前記所定座標系中における始点と終点の座標情報を入力
する手段と、 前記始点および終点の座標情報から前記座標系における
方向性に関わる情報を形成する手段と、前記座標系にお
ける方向性に関する情報にそれぞれ異なる情報処理機能
を対応づけて記憶する手段と、 前記情報形成手段が形成した方向性に関わる情報に応じ
て前記記憶手段を参照し、該方向性に関わる情報に対応
づけられた所定の情報処理機能を実行する制御手段を設
けたことを特徴とするユーザインターフェース方式。 2)前記情報処理機器に表示手段が設けられ、前記入力
手段により、始点の座標が入力された時点で前記始点に
対応した前記表示手段の表示座標系中の所定点を原点と
して、前記記憶手段によりそれぞれ所定の情報処理機能
に対応づけられた方向性を可視表示する複数の表示領域
からなるメニュー表示を前記表示手段に表示し、 このメニュー表示の複数の表示領域を指標として、前記
原点とともに所望の情報処理機能と対応づけられた方向
性情報を形成する終点を前記入力手段により入力させる
ことを特徴とする請求項第1項に記載のユーザインター
フェース方式。
[Claims] 1) In a user interface method for an information processing device that has a predetermined coordinate system and performs information processing according to input coordinate information, means for inputting; means for forming information relating to directionality in the coordinate system from coordinate information of the starting point and end point; and means for storing information relating to directionality in the coordinate system in association with different information processing functions; , further comprising a control means that refers to the storage means according to the information related to the directionality formed by the information forming means and executes a predetermined information processing function associated with the information related to the directionality. User interface method. 2) The information processing device is provided with a display means, and when the coordinates of a starting point are inputted by the input means, the storage means sets a predetermined point in the display coordinate system of the display means corresponding to the starting point as the origin. displays on the display means a menu display consisting of a plurality of display areas that visually display directions each associated with a predetermined information processing function; 2. The user interface system according to claim 1, wherein an end point for forming directional information associated with an information processing function is inputted by the input means.
JP1177255A 1989-07-11 1989-07-11 User interface system Granted JPH0342713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1177255A JPH0342713A (en) 1989-07-11 1989-07-11 User interface system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1177255A JPH0342713A (en) 1989-07-11 1989-07-11 User interface system

Publications (2)

Publication Number Publication Date
JPH0342713A true JPH0342713A (en) 1991-02-22
JPH0583926B2 JPH0583926B2 (en) 1993-11-30

Family

ID=16027878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1177255A Granted JPH0342713A (en) 1989-07-11 1989-07-11 User interface system

Country Status (1)

Country Link
JP (1) JPH0342713A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018792A (en) * 2003-06-27 2005-01-20 Microsoft Corp Menu whose geometry is bounded by two radii and an arc
JP2009116581A (en) * 2007-11-06 2009-05-28 Ziosoft Inc Medical image processor and medical image processing program
JP2010160655A (en) * 2009-01-07 2010-07-22 Mitsubishi Electric Corp Information processor and object setting method
JP2012088799A (en) * 2010-10-15 2012-05-10 Kyocera Corp Portable electronic apparatus, and control method and program for portable electronic apparatus
WO2013088651A1 (en) * 2011-12-13 2013-06-20 Canon Kabushiki Kaisha Information processing apparatus, control method for the information processing apparatus, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01266619A (en) * 1988-04-19 1989-10-24 Mutoh Ind Ltd Command menu display method for display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01266619A (en) * 1988-04-19 1989-10-24 Mutoh Ind Ltd Command menu display method for display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018792A (en) * 2003-06-27 2005-01-20 Microsoft Corp Menu whose geometry is bounded by two radii and an arc
JP2009116581A (en) * 2007-11-06 2009-05-28 Ziosoft Inc Medical image processor and medical image processing program
JP4519898B2 (en) * 2007-11-06 2010-08-04 ザイオソフト株式会社 Medical image processing apparatus and medical image processing program
JP2010160655A (en) * 2009-01-07 2010-07-22 Mitsubishi Electric Corp Information processor and object setting method
JP2012088799A (en) * 2010-10-15 2012-05-10 Kyocera Corp Portable electronic apparatus, and control method and program for portable electronic apparatus
US9851867B2 (en) 2010-10-15 2017-12-26 Kyocera Corporation Portable electronic device, method of controlling same, and program for invoking an application by dragging objects to a screen edge
WO2013088651A1 (en) * 2011-12-13 2013-06-20 Canon Kabushiki Kaisha Information processing apparatus, control method for the information processing apparatus, and program
US9407778B2 (en) 2011-12-13 2016-08-02 Canon Kabushiki Kaisha Information processing apparatus, method, and medium with touch screen operability

Also Published As

Publication number Publication date
JPH0583926B2 (en) 1993-11-30

Similar Documents

Publication Publication Date Title
JP3168156B2 (en) Cursor movement control device
JP4546855B2 (en) Method and program for selecting elements
US8643617B2 (en) Method for allocating/arranging keys on touch-screen, and mobile terminal for use of the same
EP1027639B1 (en) Checking device and recording medium for checking the identification of an operator
EP1729204A1 (en) Information processor, information processing program, recording medium with information processing program stored therein and window control method
US20080189614A1 (en) Terminal and menu display method
JPH07200237A (en) Method and system for operation of display of plurality of applications in data processing system
JP3319647B2 (en) Character input device
US6133905A (en) Input apparatus and input method
JP2003177848A (en) Key display method and character inputting device for software keyboard
TWI292551B (en) Spotlight cursor
JP5894764B2 (en) Information processing device
JPH1195968A (en) Device and method for selecting menu and recording medium recording menu selection program
US5872558A (en) Method and system in a data processing system for processing data utilizing a cursor having multiple pointing spots
JPH0342713A (en) User interface system
JP2000148366A (en) Character/symbol input device and character/symbol inputting method
JP4424592B2 (en) Toolbar display switching method
JPH0546310A (en) Information processor
JPH0594253A (en) Screen touch type key input device
JP4143529B2 (en) Information input device, information input method, computer program, and computer-readable storage medium
JPH03129513A (en) Function selecting system
JPH0447368A (en) Computer design support system
JP2020106960A (en) Layout device
JP3268243B2 (en) Data entry method
JP2001282405A (en) Coordinate input device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071130

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081130

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091130

Year of fee payment: 16

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091130

Year of fee payment: 16