JPH08161117A - Method and device for indicating coordinate - Google Patents

Method and device for indicating coordinate

Info

Publication number
JPH08161117A
JPH08161117A JP30083894A JP30083894A JPH08161117A JP H08161117 A JPH08161117 A JP H08161117A JP 30083894 A JP30083894 A JP 30083894A JP 30083894 A JP30083894 A JP 30083894A JP H08161117 A JPH08161117 A JP H08161117A
Authority
JP
Japan
Prior art keywords
cursor
unit
screen
coordinate
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30083894A
Other languages
Japanese (ja)
Other versions
JP3236180B2 (en
Inventor
Katsuhiro Yamanaka
克弘 山中
Osamu Izeki
治 井関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP30083894A priority Critical patent/JP3236180B2/en
Priority to US08/567,468 priority patent/US5714978A/en
Publication of JPH08161117A publication Critical patent/JPH08161117A/en
Application granted granted Critical
Publication of JP3236180B2 publication Critical patent/JP3236180B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/003Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Abstract

PURPOSE: To provide a coordinate indicating device capable of confirming also information near the position of a cursor through touch sense in addition to the information of a current cursor position in order to correspond with a system provide with a graphical user interface and to provide a direct pointing type coordinate indicating device capable of easily executing tactile force feedback or the horizontal/vertical movement of the cursor. CONSTITUTION: The interactive system having a graphical user interface is provided with a cursor position detecting part 50 for detecting the coordinates of a cursor to be moved on a screen, an output information generating part 70 for converting acquired picture information into a format to be displayed on a touch display 90, a touch display control part 80 for driving the display 90 based upon information from the generating part 70, the touch display 90 to be driven based upon an instruction from the control part 80, and a position detection part 40 for detecting the position of the display 90 and information the interactive system of the detected position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パーソナルコンピュー
タなどの対話型情報処理システムに用いられる、グラフ
ィカル・ユーザ・インタフェースを操作する際の操作対
象を選択する座標指示方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate pointing method and apparatus for selecting an operation target when operating a graphical user interface used in an interactive information processing system such as a personal computer.

【0002】[0002]

【従来の技術】グラフィカル・ユーザ・インタフェース
を有する情報処理システムでは、視覚的に表現された対
話部品の中から、操作対象とする部品を選びカーソルを
合わせるという操作(ポインティング操作)が中心とな
るため、他の感覚に比べて視覚への負担が非常に高くな
ることが指摘されてきた。視覚への負担を軽減するため
に、特開平04−286015号公報「マウスを用いた
位置指示方式」などに見られるように、カーソルを移動
させるための座標指示装置に、ある特定の領域や対話部
品にカーソルが入ったことを触覚により伝達する仕組み
が付加されていた。
2. Description of the Related Art In an information processing system having a graphical user interface, an operation (pointing operation) of selecting a part to be operated from among visually expressed interactive parts and matching the cursor is mainly performed. It has been pointed out that the visual burden is much higher than that of other senses. In order to reduce the burden on the eyes, a coordinate pointing device for moving a cursor has a certain area or dialogue as disclosed in Japanese Patent Application Laid-Open No. 04-286015, "Positioning system using mouse". A mechanism for transmitting the fact that the cursor was placed on the part by touch was added.

【0003】触覚の利用以外にもポインティング操作を
行い易くするための装置として、特開平05−3138
20号公報「情報入力装置」などのように、特定の領域
や対話部品上にカーソルがのったときにブレーキをかけ
るという力覚フィードバックを実現したものや、特開平
01−260523号公報「マウス」などに見られるよ
うにカーソルの水平・垂直移動を容易に行えるようにし
た装置が存在する。
As a device for facilitating a pointing operation other than the use of tactile sense, Japanese Patent Laid-Open No. 05-3138.
A device that realizes haptic feedback such as braking when a cursor is placed on a specific area or an interactive component, such as "Information input device" disclosed in JP-A No. 20-205, and JP-A No. 01-260523, "Mouse". There is a device that facilitates horizontal / vertical movement of the cursor as seen in ".

【0004】特開平04−286015号公報の触覚フ
ィードバック付き座標指示装置は、図8(a)に示した
構成で実現される。この装置の基本的な仕組みは以下の
通りである。
The coordinate pointing device with tactile feedback disclosed in Japanese Patent Application Laid-Open No. 04-286015 is realized by the configuration shown in FIG. 8 (a). The basic mechanism of this device is as follows.

【0005】ポインティング装置400によりカーソル
を移動させると、カーソル制御部410は記憶している
カーソル座標を更新する。続いて、触覚反応制御部42
0は更新されたカーソル座標と指定領域データテーブル
440内のデータの座標と比較し、一致するものが有れ
ばアクチュエータ430を駆動しポインティング装置4
00に振動や衝撃を与える。力覚フィードバックについ
ても、アクチュエータ430を例えば電磁石などを用い
た制動装置に置き換えるだけでほぼ同じ仕組みで実現で
きる。
When the cursor is moved by the pointing device 400, the cursor control unit 410 updates the stored cursor coordinates. Then, the tactile response control unit 42
0 is compared with the updated cursor coordinates and the coordinates of the data in the designated area data table 440, and if there is a match, the actuator 430 is driven and the pointing device 4
Vibration and shock to 00. The force feedback can be realized by almost the same mechanism only by replacing the actuator 430 with a braking device using an electromagnet or the like.

【0006】また、カーソルの水平・垂直移動を容易に
する座標指示装置は、例えば図8(b)に示した構成で
実現できる。仮に、入力手段540からカーソルの水平
移動を指示すると、カーソル制御部520が、ポインテ
ィング装置510から送られてくるY方向のカーソル移
動量ΔYを0として処理する。垂直移動の場合も、ΔX
を0として処理する以外は上記の説明がそのまま当ては
まる。このようにして、ポインティング装置510を完
全に水平または垂直に動かさなくてもディスプレイ53
0上では、カーソルが水平・垂直移動することになる。
A coordinate pointing device for facilitating horizontal / vertical movement of the cursor can be realized by the structure shown in FIG. 8B, for example. If the horizontal movement of the cursor is instructed from the input means 540, the cursor control unit 520 processes the cursor movement amount ΔY in the Y direction sent from the pointing device 510 as 0. In case of vertical movement, ΔX
The above description is applied as it is except that 0 is treated as 0. In this way, the display 53 does not have to be moved completely horizontally or vertically.
On 0, the cursor moves horizontally and vertically.

【0007】[0007]

【発明が解決しようとする課題】上述した、触覚フィー
ドバック付き座標指示装置を用いると、最初にある程度
目で目標点の位置を確認しておけば、後は画面を凝視す
ることなく、確認した方向にカーソルを動かすだけで目
標点に到達したことを触覚により知ることができる。し
かしながら、画面を凝視せず最初に確認した方向にうま
くカーソルを移動させられるとは限らず、そうした場
合、従来の装置では現在のカーソル位置の情報しか触覚
で確認できないという問題があり、仮に目標点のすぐ隣
にカーソルがあったとしても結局目で画面を確認する必
要があった。さらに、従来の装置では、ある領域や対話
部品の上にカーソルがのっているかいないかは確認でき
るが、その領域の形状や領域内でのカーソルの位置(例
えば、領域の端に位置しているなど)までは分からなか
った。
When the coordinate pointing device with tactile feedback described above is used, the position of the target point can be confirmed with some eyes first, and then the confirmed direction can be confirmed without staring at the screen. It is possible to know by tactile sense that the target point has been reached simply by moving the cursor to. However, it is not always possible to move the cursor in the direction that was initially confirmed without staring at the screen.In such a case, there is a problem that the conventional device can only confirm the information of the current cursor position by tactile sense. Even if there was a cursor right next to, I had to visually check the screen after all. Furthermore, with conventional devices, it is possible to check whether the cursor is over a certain area or interactive component, but the shape of that area and the position of the cursor within the area (for example, at the edge of the area) I didn't understand.

【0008】一方、水平・垂直移動を容易にする装置
は、腕は完全にまっすぐに動かしていないにも関わら
ず、内部的には真っすぐに動いていると処理されている
ため実際の動作と画面上でのカーソルの動作に不整合が
生じるという問題があった。力覚フィードバックについ
ては、実現されているのがほとんど間接ポインティング
装置(現在のカーソル位置とそこからの移動量により画
面上の座標を指示する装置)であるため、間接ポインテ
ィング装置の利用が困難な視覚に障害を持つ操作者は、
よりこのような力覚などで情報提示を行う装置を必要と
しているにも関わらず恩恵を受けられなかった。
On the other hand, a device for facilitating horizontal / vertical movement is internally processed to move straight even though the arm does not move completely straight, so that the actual movement and screen There was a problem that inconsistency occurred in the movement of the cursor on the above. As for haptic feedback, most of the indirect pointing devices (devices that indicate the coordinates on the screen based on the current cursor position and the amount of movement from that position) are used for visual feedback, which makes it difficult to use the indirect pointing device. Operators with disabilities
In spite of needing a device for presenting information by such force sense, it has not been able to receive any benefit.

【0009】本発明の目的は、現在のカーソル位置だけ
でなくカーソル位置付近の情報も触覚で確認可能な座標
指示装置を提供すること、および力覚フィードバックや
カーソルの水平・垂直移動を容易に行える直接ポインテ
ィング型(画面上の点と一対一に対応した絶対座標系で
画面上の座標を指示する。)の座標指示装置を提供する
ことである。
It is an object of the present invention to provide a coordinate pointing device which allows tactile confirmation of not only the current cursor position but also information near the cursor position, and facilitates force feedback and horizontal / vertical movement of the cursor. It is an object of the present invention to provide a direct pointing type (pointing coordinates on the screen in an absolute coordinate system corresponding to a point on the screen one-to-one).

【0010】[0010]

【課題を解決するための手段】第1の発明は、グラフィ
カル・ユーザ・インタフェースを有する対話型システム
で用いられる座標指示方法において前記グラフィカル・
ユーザ・インタフェースの画面上を移動するカーソルの
座標を検出し、前記カーソル付近の画面情報をユーザに
対し触覚で表現して前記カーソルの指示操作を行うこと
を特徴とする。
According to a first aspect of the present invention, there is provided a coordinate pointing method used in an interactive system having a graphical user interface.
The coordinates of the cursor moving on the screen of the user interface are detected, and the screen information near the cursor is expressed to the user by tactile sensation to perform the pointing operation of the cursor.

【0011】第2の発明は、グラフィカル・ユーザ・イ
ンタフェースを有する対話型システムで用いられる座標
指示装置において、前記グラフィカル・ユーザ・インタ
フェースの画面上を移動するカーソルの座標を検出する
カーソル位置検出部と、前記カーソルの座標付近の画面
情報を取得し、記憶する画面情報抽出・保持部と、ユー
ザに対して前記画面情報を触覚で表現し、前記カーソル
の指示操作を行う触覚ディスプレイとを有することを特
徴とする。
A second aspect of the present invention is, in a coordinate pointing device used in an interactive system having a graphical user interface, a cursor position detecting section for detecting the coordinates of a cursor moving on the screen of the graphical user interface. A screen information extracting / holding unit that acquires and stores screen information near the coordinates of the cursor, and a tactile display that expresses the screen information to the user by tactile sensation and performs an instruction operation of the cursor. Characterize.

【0012】第3の発明は、グラフィカル・ユーザ・イ
ンタフェースを有する対話型システムで用いられる座標
指示装置において、前記グラフィカル・ユーザ・インタ
フェースの画面上を移動するカーソルの座標を検出する
カーソル位置検出部と、前記カーソル位置検出部で取得
した前記カーソルの座標付近の画面情報を取得し、記憶
する画面情報抽出・保持部と、ユーザに対して前記画面
情報を触覚で表現し、前記カーソルの指示操作を行う触
覚ディスプレイと、前記画面情報を前記触覚ディスプレ
イに表現するための形式に変換する出力情報生成部と、
前記出力情報生成部からの情報をもとに前記触覚ディス
プレイを制御する触覚ディスプレイ制御部と、前記触覚
ディスプレイの位置を検出して前記対話型システムに出
力する位置検出部とを有することを特徴とする。
According to a third aspect of the present invention, in a coordinate pointing device used in an interactive system having a graphical user interface, a cursor position detecting section for detecting coordinates of a cursor moving on the screen of the graphical user interface. , A screen information extracting / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the cursor position detection unit, and expresses the screen information to a user by tactile sensation, and performs a pointing operation of the cursor. A tactile display for performing, and an output information generation unit for converting the screen information into a format for expressing the screen information on the tactile display,
A tactile display control unit that controls the tactile display based on information from the output information generation unit; and a position detection unit that detects the position of the tactile display and outputs the position to the interactive system. To do.

【0013】第4の発明は、グラフィカル・ユーザ・イ
ンタフェースを有する対話型システムで用いられる座標
指示装置において、前記グラフィカル・ユーザ・インタ
フェースの画面上を移動するカーソルの座標を検出する
カーソル位置検出部と、前記カーソル位置検出部で取得
した前記カーソルの座標付近の画面情報を取得し、記憶
する画面情報抽出・保持部と、前記画面情報からカーソ
ルの座標位置の画面状態を解析する画面情報解析部と、
縦横両軸に移動可能で、前記カーソルの指示操作を行う
可動台と、前記可動台を横方向に移動させるためのX軸
方向駆動手段と、前記可動台の横方向の動きを抑制する
ためのX軸方向制動手段と、前記可動台を縦方向に移動
させるためのY軸方向駆動手段と、前記可動台の縦方向
の動きを抑制するためのY軸方向制動手段と、前記X軸
方向駆動手段および前記X軸方向制動手段、前記Y軸方
向駆動手段、前記Y軸方向制動手段に、前記可動台の動
きを前記画面情報解析部で解析した画面状態に応じて制
御する命令を出すための可動台制御部と、前記可動台の
位置を検出して前記対話型システムに出力する座標位置
計算部とを有することを特徴とする。
According to a fourth aspect of the present invention, in a coordinate pointing device used in an interactive system having a graphical user interface, a cursor position detecting unit for detecting the coordinates of a cursor moving on the screen of the graphical user interface. A screen information extraction / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the cursor position detection unit; and a screen information analysis unit that analyzes the screen state at the coordinate position of the cursor from the screen information. ,
A movable base that is movable in both vertical and horizontal axes and that performs an instruction operation of the cursor, an X-axis direction drive means for moving the movable base in the horizontal direction, and a horizontal movement of the movable base. X-axis direction braking means, Y-axis direction driving means for vertically moving the movable table, Y-axis direction braking means for suppressing vertical movement of the movable table, and X-axis direction driving Means, the X-axis direction braking means, the Y-axis direction driving means, and the Y-axis direction braking means, for issuing a command to control the movement of the movable table according to the screen state analyzed by the screen information analysis unit. It has a movable base control unit and a coordinate position calculation unit that detects the position of the movable base and outputs it to the interactive system.

【0014】第5の発明は、第4の発明において、前記
可動台の移動方向を操作者が指定するための入力手段を
備え、前記可動台制御部が前記入力手段からの指示に従
って、前記X軸方向駆動手段、前記X軸方向制動手段、
前記Y軸方向駆動手段、前記Y軸方向制動手段に前記可
動台の動きを制御する命令を出すことを特徴とする。
According to a fifth aspect of the present invention, in the fourth aspect, an input means is provided for the operator to specify the moving direction of the movable table, and the movable table control section is operated in accordance with an instruction from the input means. Axial driving means, the X-axis braking means,
A command for controlling the movement of the movable table is issued to the Y-axis direction driving means and the Y-axis direction braking means.

【0015】第6の発明は、第2または第3の発明の前
記触覚ディスプレイにおいて、ピンディスプレイを用い
て前記画面情報を触覚で表現したことを特徴とする。
A sixth invention is characterized in that, in the tactile display according to the second or third invention, the screen information is expressed by a tactile sense using a pin display.

【0016】第7の発明は、第2、3、4、5または6
の発明において、前記カーソル位置検出部が、前記カー
ソルの移動を検出するカーソル移動イベント監視部と、
現在のカーソル座標を前記中央処理装置より取得するカ
ーソル座標取得部とから構成されることを特徴とする。
A seventh invention is the second, third, fourth, fifth or sixth invention.
In the invention, the cursor position detection unit, a cursor movement event monitoring unit for detecting the movement of the cursor,
And a cursor coordinate acquisition unit for acquiring the current cursor coordinates from the central processing unit.

【0017】第8の発明は、第2、3、4、5、6また
は7の発明において、前記画面情報抽出・保持部が、前
記カーソル位置検出部で得られた前記カーソルの座標付
近に存在する対話部品の情報を前記中央処理装置から取
得する対話部品情報取得部と、前記対話部品情報取得部
で抽出された対話部品の情報を記憶する対話部品情報格
納部とから構成されることを特徴とする。
In an eighth aspect based on the second, third, fourth, fifth, sixth or seventh aspect, the screen information extracting / holding unit is present near the coordinates of the cursor obtained by the cursor position detecting unit. And a dialogue part information storage section for storing information of the dialogue parts extracted by the dialogue part information acquisition section. And

【0018】[0018]

【作用】カーソル付近の画面情報を触覚で表現する触覚
ディスプレイと、触覚ディスプレイの位置を検出して対
話システムに知らせる座標位置の計算部を設けることに
より、カーソル付近の画面情報を触覚で確認しながらポ
インティング操作を行うことができる。また、縦横両軸
に沿って移動する可動台と可動台の位置から画面上での
座標を計算する座標位置計算部、および可動台の動きを
縦横独立に制御する手段を設けたことにより、直接ポイ
ンティング型の座標指示装置でかつ力覚フィードバック
や水平・垂直移動を容易に行うことができる。
[Operation] By providing a tactile display that displays the screen information near the cursor with a tactile sense and a coordinate position calculation unit that detects the position of the tactile display and notifies the dialog system to the tactile sense, while confirming the screen information near the cursor with the tactile sense You can perform pointing operations. In addition, by providing a movable base that moves along both vertical and horizontal axes, a coordinate position calculation unit that calculates the coordinates on the screen from the position of the movable base, and a means that independently controls the movement of the movable base, It is a pointing type coordinate pointing device and can easily perform force feedback and horizontal / vertical movement.

【0019】[0019]

【実施例】次に、図面を参照しながら本発明の実施例を
説明する。ここで、本実施例は3つの構成からなる。第
1の実施例は、第1の発明の座標指示方法に対応した、
第3の座標指示装置の発明の一実施例であり、同時に第
2、6、7、8の発明についても説明している。第2の
実施例は、第4の発明の一実施例であり、同時に第7、
8の発明についても説明している。第3の実施例は、第
5の発明の一実施例の説明である。
Embodiments of the present invention will now be described with reference to the drawings. Here, the present embodiment has three configurations. The first embodiment corresponds to the coordinate pointing method of the first invention,
It is one embodiment of the invention of the third coordinate pointing device, and at the same time, the second, sixth, seventh and eighth inventions are also described. The second embodiment is an embodiment of the fourth invention, and at the same time, the seventh,
The eighth invention is also described. The third embodiment is an explanation of an embodiment of the fifth invention.

【0020】ここで、本発明の第1の実施例について説
明する。
Now, the first embodiment of the present invention will be described.

【0021】図1は、本発明の第1の実施例による座標
指示装置の構成の一例を示すブロック図である。図1に
おいて、中央処理装置10と、ビットマップディスプレ
イ20と、データ入力装置30とから成るグラフィカル
・ユーザ・インタフェースを有する対話型システムと、
現在のカーソル位置を抽出するカーソル位置検出部50
と、カーソル位置付近の画面情報を取得する画面情報抽
出・保持部60と、取得した画面情報を触覚ディスプレ
イで表現可能な形式に変換する出力情報生成部70と、
触覚ディスプレイを動作させる触覚ディスプレイ制御部
80と、触覚ディスプレイ制御部80からの指示に基づ
いて動作する触覚ディスプレイ90と、触覚ディスプレ
イ90の位置を検出する位置検出部40とから構成され
る。
FIG. 1 is a block diagram showing an example of the arrangement of a coordinate pointing device according to the first embodiment of the present invention. 1, an interactive system having a graphical user interface consisting of a central processing unit 10, a bitmap display 20, and a data input device 30,
Cursor position detector 50 for extracting the current cursor position
A screen information extraction / holding unit 60 that acquires screen information near the cursor position; an output information generation unit 70 that converts the acquired screen information into a format that can be expressed on a tactile display;
The tactile display controller 80 operates the tactile display, the tactile display 90 operates based on an instruction from the tactile display controller 80, and the position detector 40 that detects the position of the tactile display 90.

【0022】カーソル位置検出部50は、カーソルの移
動を検出するカーソル移動イベント監視部51と、現在
のカーソル座標を中央処理装置10から取得するカーソ
ル座標取得部52と、から構成される。
The cursor position detection unit 50 is composed of a cursor movement event monitoring unit 51 for detecting the movement of the cursor and a cursor coordinate acquisition unit 52 for acquiring the current cursor coordinates from the central processing unit 10.

【0023】画面情報抽出・保持部60は、カーソル位
置検出部50で得られたカーソル位置に存在する対話部
品の情報を中央処理装置10から取得する対話部品情報
取得部61と、対話部品情報取得部61で取得した対話
部品情報を記憶しておく対話部品情報格納部62と、か
ら構成される。
The screen information extracting / holding unit 60 acquires an interactive part information acquisition unit 61 for acquiring information of the interactive part existing at the cursor position obtained by the cursor position detecting unit 50 from the central processing unit 10, and an interactive part information acquisition. The dialogue component information storage unit 62 stores the dialogue component information acquired by the unit 61.

【0024】以下で、本実施例の動作について図1,図
3,図4および図5を用いて具体的に説明する。また、
本実施例においての説明では、触覚ディスプレイ90と
してマトリクス状に配置したピンの凹凸により触覚情報
を作り出すピンディスプレイ310を、位置検出部40
としてタッチパネル300を用いる座標指示装置の一例
である。カーソル付近の画面情報を触覚ディスプレイに
提示することで、これまでの触覚併用座標入力装置では
知ることができなかった、対話部品までの距離を知るこ
とができる。また、本発明はこの例に限るものではな
く、触覚ディスプレイとして、マトリクス状に配置した
ピンの振動で情報を伝える方式や、熱を加えることで変
形するプラスチック等を用いて凹凸を作り出す方式を用
いたディスプレイ等の利用が可能である。
The operation of this embodiment will be specifically described below with reference to FIGS. 1, 3, 4 and 5. Also,
In the description of the present embodiment, the position detection unit 40 includes the pin display 310 that creates tactile information by the unevenness of the pins arranged in a matrix as the tactile display 90.
2 is an example of a coordinate pointing device that uses the touch panel 300 as a display. By presenting the screen information near the cursor on the tactile display, it is possible to know the distance to the interactive component, which cannot be known by the conventional tactile coordinate input device. Further, the present invention is not limited to this example, and as the tactile display, a method of transmitting information by vibrating pins arranged in a matrix or a method of forming irregularities by using plastic or the like that deforms by applying heat is used. It is possible to use the old display.

【0025】図5(a)は本実施例の利用形態である。
本実施例では、タッチパネル300をピンディスプレイ
310でポインティングする。図5(b)はピンディス
プレイ310の拡大図であり、以下では、7行7列に配
置した49本のピン320で構成されるとして説明を行
う。図3(a)はグラフィカル・ユーザ・インタフェー
スを有する対話型システムにおけるビットマップディス
プレイ20の画面列である。画面上にはグラフィカル・
ユーザ・インタフェースにおける対話部品の一つである
ウィンドウ200とカーソル210が存在しているもの
とする。図3(b)はそのときのピンディスプレイ31
0の出力を示している。
FIG. 5A shows a form of use of this embodiment.
In this embodiment, the touch panel 300 is pointed by the pin display 310. FIG. 5B is an enlarged view of the pin display 310, and in the following description, it is assumed that the pin display 310 is composed of 49 pins 320 arranged in 7 rows and 7 columns. FIG. 3A is a screen sequence of the bitmap display 20 in the interactive system having the graphical user interface. Graphical on screen
It is assumed that the window 200 and the cursor 210, which are one of the interactive parts in the user interface, exist. FIG. 3B shows the pin display 31 at that time.
0 output is shown.

【0026】まず、操作者が触覚ディスプレイであるピ
ンディスプレイ310を用いて画面上のカーソル210
を移動させると、ピンディスプレイ310のタッチパネ
ル300上での座標値がタッチパネル300によって中
央処理装置10に伝達される。中央処理装置10は、カ
ーソル210のビットマップディスプレイ20上での座
標値を、タッチパネル310から送られてくる座標値に
更新すると同時にカーソル移動イベントを発行する。カ
ーソル移動イベント監視部51はカーソル移動イベント
が発行されるのを常に監視しており、イベントを検出す
るとその旨をカーソル座標取得部52に通知する。通知
を受けたカーソル座標取得部52は、中央処理装置10
より現在のカーソル位置の座標を取得し、その値を画面
情報抽出・保持部60に知らせる。
First, the operator uses the pin display 310, which is a tactile display, to move the cursor 210 on the screen.
When is moved, the coordinate value of the pin display 310 on the touch panel 300 is transmitted to the central processing unit 10 by the touch panel 300. The central processing unit 10 updates the coordinate value of the cursor 210 on the bitmap display 20 with the coordinate value sent from the touch panel 310, and at the same time issues a cursor movement event. The cursor movement event monitoring unit 51 constantly monitors issuance of a cursor movement event, and when an event is detected, it notifies the cursor coordinate acquisition unit 52 of that fact. Upon receiving the notification, the cursor coordinate acquisition unit 52 causes the central processing unit 10 to
The coordinates of the current cursor position are acquired, and the value is notified to the screen information extraction / holding unit 60.

【0027】画面情報抽出・保持部60では、対話部品
情報取得部61が、現在のカーソル位置を中心とする7
ドット四方に存在する対話部品の識別番号を中央処理装
置10から取得して、図4に示したような7行7列のテ
ーブル形式で対話部品情報格納部62に記憶させてい
く。49ドットすべてに対してその位置に存在する対話
部品の識別番号を取得し終えると、そのデータを出力情
報作成部70に送る。図4(a)はウィンドウ200の
識別番号が1000、対話部品が存在しないところは0
で埋めるとした場合に対話部品情報格納部62に記憶さ
れるデータの一例である。
In the screen information extraction / holding unit 60, the interactive component information acquisition unit 61 centers on the current cursor position.
The identification numbers of the interactive parts existing on all sides of the dot are acquired from the central processing unit 10 and stored in the interactive part information storage section 62 in a table format of 7 rows and 7 columns as shown in FIG. When the identification numbers of the interactive parts existing at that position for all 49 dots have been acquired, the data is sent to the output information creating section 70. In FIG. 4A, the identification number of the window 200 is 1000, and 0 is the place where the interactive component does not exist.
This is an example of data stored in the dialog component information storage unit 62 when the data is filled in with.

【0028】出力情報生成部70では、例えば対話部品
の端をピンの凸で表現することに決めておき、画面情報
抽出・保持部60から送られてきたデータを基にして、
対話部品の端はそのままの値を保持し、それ以外を0と
するような処理を行う。図4(a)のデータに上記の処
理を施したものが図4(b)である。このデータは、触
覚ディスプレイ制御部80に送られる。
In the output information generation unit 70, for example, it is decided that the end of the interactive component is represented by the convexity of the pin, and based on the data sent from the screen information extraction / holding unit 60,
The end of the interactive part retains the value as it is, and the other part is set to 0. FIG. 4B shows the data of FIG. 4A subjected to the above processing. This data is sent to the tactile display controller 80.

【0029】触覚ディスプレイ制御部80は、出力情報
生成部70から送られる図4(b)の形式のデータを参
照して、0以外の価が入っている場所に対応するピンを
突起させる。以上のような動作により触覚ディスプレイ
90の状態は図3(b)で示されるものとなり、現在位
置の右上方向に対話部品が存在することが触覚で理解で
きる。
The tactile display control unit 80 refers to the data of the format shown in FIG. 4B sent from the output information generation unit 70, and causes the pin corresponding to the place having a value other than 0 to project. With the above operation, the state of the tactile display 90 becomes as shown in FIG. 3B, and it can be tactually understood that the interactive component exists in the upper right direction of the current position.

【0030】次に、本発明の第2の実施例について説明
する。
Next, a second embodiment of the present invention will be described.

【0031】第2の実施例は、縦横の軸に沿った自由な
動きが可能な台により画面上の座標を指定し、さらにそ
の台の動きを制動装置により抑制することで、力覚フィ
ードバックやカーソルの水平・垂直移動を可能とする座
標指示装置の一例である。さらに駆動装置を設けること
により指定した位置への自動移動も可能になる。
In the second embodiment, the coordinates on the screen are designated by a table which can freely move along the vertical and horizontal axes, and the movement of the table is suppressed by a braking device, so that force feedback and It is an example of a coordinate pointing device that enables horizontal and vertical movement of a cursor. Further, by providing a driving device, it is possible to automatically move to a designated position.

【0032】図2は、本発明の第2、第3の実施例によ
る座標指示装置の構成の一例を示すブロック図である。
図2において、中央処理装置10と、ビットマップディ
スプレイ20と、データ入力装置30とから成るグラフ
ィカル・ユーザ・インタフェースを有する対話型システ
ムと、縦横に移動可能な可動台160と、可動台160
の位置から画面上での絶対座標を計算して中央処理装置
10に出力する座標位置計算部170と、現在のカーソ
ル位置を抽出するカーソル位置検出部50と、カーソル
位置付近の画面情報を取得する画面情報抽出・保持部6
0と、現在のカーソル位置がどのような状態になってい
るかを調べる画面情報解析部100と、可動台160を
横方向に移動させるためのX軸方向駆動手段120と、
可動台160の横方向の動きを抑制するためのX軸方向
制動手段130と、可動台160を縦方向に移動させる
ためのY軸方向駆動手段140と、可動台160の縦方
向の動きを抑制するためのY軸方向制動手段150と、
X軸方向駆動手段120およびX軸方向制動手段13
0、Y軸方向駆動手段140、Y軸方向制動手段150
に可動台160の動きを制御する命令を出すための可動
台制御部110と、可動台160を指定の方向に移動さ
せるための入力手段180から構成される。
FIG. 2 is a block diagram showing an example of the configuration of the coordinate pointing device according to the second and third embodiments of the present invention.
In FIG. 2, an interactive system having a graphical user interface including a central processing unit 10, a bitmap display 20, and a data input device 30, a movable base 160 that can move vertically and horizontally, and a movable base 160.
Coordinate position calculation unit 170 that calculates the absolute coordinates on the screen from the position of the current position and outputs it to the central processing unit 10, the cursor position detection unit 50 that extracts the current cursor position, and the screen information near the cursor position. Screen information extraction / holding unit 6
0, a screen information analysis unit 100 for checking what the current cursor position is, an X-axis direction driving means 120 for moving the movable base 160 in the lateral direction,
X-axis direction braking means 130 for suppressing the horizontal movement of the movable base 160, Y-axis direction driving means 140 for moving the movable base 160 in the vertical direction, and vertical movement of the movable base 160. Y-axis direction braking means 150 for
X-axis direction driving means 120 and X-axis direction braking means 13
0, Y-axis direction driving means 140, Y-axis direction braking means 150
The movable base controller 110 includes a movable base controller 110 for issuing a command to control the movement of the movable base 160, and an input unit 180 for moving the movable base 160 in a designated direction.

【0033】カーソル位置検出部50は、カーソルの移
動を検出するカーソル移動イベント監視部51と、現在
のカーソル座標を中央処理装置10から取得するカーソ
ル座標取得部52とから構成される。
The cursor position detecting section 50 comprises a cursor movement event monitoring section 51 for detecting the movement of the cursor and a cursor coordinate acquisition section 52 for acquiring the current cursor coordinates from the central processing unit 10.

【0034】画面情報抽出・保持部60は、カーソル位
置検出部50で得られたカーソル位置に存在する対話部
品の情報を中央処理装置10から取得する対話部品情報
取得部61と、上記対話部品情報取得部61で取得した
対話部品情報を記憶しておく対話部品情報格納部62と
から構成される。
The screen information extraction / holding unit 60 has an interactive component information acquisition unit 61 for obtaining from the central processing unit 10 information of the interactive component existing at the cursor position obtained by the cursor position detection unit 50, and the interactive component information. The interactive component information storage unit 62 stores the interactive component information acquired by the acquisition unit 61.

【0035】また、可動台160は、例えば、X−Yプ
ロッタのペンのように、決められた矩形範囲を縦横両軸
に沿って移動するなど、操作者によって縦横両軸に対し
て移動可能なものである。
The movable base 160 can be moved by both vertical and horizontal axes by the operator, for example, by moving it along a vertical and horizontal axes within a predetermined rectangular range like a pen of an XY plotter. It is a thing.

【0036】まず、本実施例において力覚フィードバッ
クを実現する仕組みを、対話部品の端でブレーキをかけ
る場合を例にとって説明する。図6はグラフィカル・ユ
ーザ・インタフェースを有する対話システムにおけるビ
ットマップディスプレイ20の画面例である。画面上に
はグラフィカル・ユーザ・インタフェースにおける対話
部品の一つであるウィンドウ200とカーソル210が
存在しており、カーソル210はウィンドウ200の左
端にあるものとする。
First, the mechanism for realizing the force feedback in this embodiment will be described by taking the case where the brake is applied at the end of the interactive component as an example. FIG. 6 is an example of a screen of the bitmap display 20 in the interactive system having the graphical user interface. It is assumed that the window 200 and the cursor 210, which are one of the interactive parts in the graphical user interface, are present on the screen, and the cursor 210 is at the left end of the window 200.

【0037】操作者が可動台160を移動させると、座
標位置計算部170が、可動台160の位置から画面上
での絶対座標を計算し中央処理装置10に伝える。中央
処理装置10は、ビットマップディスプレイ20上のカ
ーソルを動かすと同時に、カーソル移動イベントを発行
する。カーソル移動イベント監視部51はカーソル移動
イベントが発行されるのを常に監視しており、イベント
を検出するとその旨をカーソル座標取得部52に通知す
る。通知を受けたカーソル座標取得部52は、中央処理
装置10より現在のカーソル位置の座標を取得し、その
値を画面情報抽出・保持部60に知らせる。
When the operator moves the movable base 160, the coordinate position calculation section 170 calculates the absolute coordinates on the screen from the position of the movable base 160 and sends it to the central processing unit 10. The central processing unit 10 moves the cursor on the bitmap display 20 and issues a cursor movement event at the same time. The cursor movement event monitoring unit 51 constantly monitors issuance of a cursor movement event, and when an event is detected, it notifies the cursor coordinate acquisition unit 52 of that fact. Upon receiving the notification, the cursor coordinate acquisition unit 52 acquires the coordinates of the current cursor position from the central processing unit 10 and notifies the screen information extraction / holding unit 60 of the value.

【0038】画面情報抽出・保持部60では、対話部品
情報取得部61が、現在のカーソル位置およびその上下
左右のドット位置に存在する対話部品の識別番号を中央
処理装置10から取得し、対話部品情報格納部62に記
憶させる。現在のカーソル位置およびその上下左右の5
ドットすべて処理し終えると対話部品情報格納部62に
記憶させたデータを画面情報解析部100へ送る。図7
(a)は対話部品情報格納部62に記憶されているデー
タの一例である。図7(a)は、データ形式が1行5列
のテーブル形式で、ウィンドウ200の識別番号が10
00、対話部品が存在しないところは0で埋めるものと
した場合の例で、今、カーソル210はウィンドウ20
0の左端にあり、よって左には対話部品が存在しないの
で図7(a)の右から二番目の左という欄は0となり、
カーソル210の位置そのものとカーソル210の上、
下および右はウィンドウ200の範囲内であるので、図
7(a)の左という欄以外は1000となる。
In the screen information extraction / holding unit 60, the interactive component information acquisition unit 61 acquires from the central processing unit 10 the identification numbers of the interactive components existing at the current cursor position and the dot positions at the upper, lower, left and right thereof, and the interactive component is acquired. The information is stored in the information storage unit 62. 5 at the current cursor position and its up / down / left / right
When all the dots have been processed, the data stored in the interactive component information storage unit 62 is sent to the screen information analysis unit 100. Figure 7
(A) is an example of data stored in the dialogue component information storage unit 62. In FIG. 7A, the data format is a table format with 1 row and 5 columns, and the identification number of the window 200 is 10
00, where there is no interaction component is filled with 0. Now, the cursor 210 is the window 20
Since it is at the left end of 0, and there is no interactive component on the left, the second column from the right on the left in FIG. 7A is 0,
The position of the cursor 210 itself and the cursor 210
Since the lower and right sides are within the range of the window 200, the numbers other than the left column in FIG.

【0039】画面情報解析部100は、カーソル位置と
上下左右のドット位置の対話部品識別番号を比較してそ
の差の絶対値を保持し可動台制御部110に送る。図7
(b)は、図7(a)のデータを上記の処理をした場合
の結果である。
The screen information analysis unit 100 compares the interactive component identification numbers of the cursor position and the dot positions of the upper, lower, left and right sides and holds the absolute value of the difference and sends it to the movable base control unit 110. Figure 7
FIG. 7B shows the result when the above processing is performed on the data of FIG.

【0040】可動台制御部110では、上下左右のドッ
ト位置の対話部品識別番号を調べ、上下いずれかが0で
ない場合はX軸方向制動手段130に、左右いずれかが
0でない場合はY軸方向制動手段150に指示を出し可
動台160の動きを抑制する。図6の例の場合は、左が
値を持つのでX軸方向制動手段130を動作させ、横方
向に可動台160を動かすと、ブレーキがかかり対話部
品の境界であることが画面を見ずに理解できる。
The movable platform control unit 110 checks the interactive part identification numbers at the upper, lower, left and right dot positions, and if either the upper or lower is not 0, the X-axis direction braking means 130 is used. An instruction is given to the braking means 150 to suppress the movement of the movable base 160. In the case of the example in FIG. 6, the value on the left has a value. Therefore, when the X-axis direction braking means 130 is operated and the movable base 160 is moved in the horizontal direction, the brake is applied and it is the boundary of the interactive parts without looking at the screen. Understandable.

【0041】なお、本発明は上記の例だけに限定される
ものではない。例えば、ブレーキではなく、もう少し弱
い力で制動することにより、対話部品の境界で一瞬止ま
る感じを与えるなど、力のフィードバック全般に適用可
能である。また、対話部品の境界だけではなく、対話部
品の中央にカーソルを移動させたときに力覚フィードバ
ックを与えるなどでもよい。さらに、駆動装置を備えて
いるため、ブレーキではなく上記の図6の状態で左方向
に強制的に可動台を移動させることにより、ウィンドウ
内へのカーソルの進入を禁止するなどといった応用も可
能である。
The present invention is not limited to the above example. For example, the present invention can be applied to force feedback in general, such as giving a feeling of stopping for a moment at the boundary of dialogue parts by braking with a slightly weaker force instead of braking. Further, force feedback may be given when the cursor is moved not only to the boundary of the interactive component but also to the center of the interactive component. Furthermore, since it is equipped with a drive device, it is possible to apply the function such as prohibiting the cursor from entering the window by forcibly moving the movable table to the left in the state shown in FIG. 6 instead of the brake. is there.

【0042】次に、第3の実施例について説明する。Next, a third embodiment will be described.

【0043】第3の実施例は、第2の実施例で挙げた構
成に、可動台160を操作者の指定した方向に移動させ
る入力手段180を加えたものである。
In the third embodiment, an input means 180 for moving the movable base 160 in the direction designated by the operator is added to the structure described in the second embodiment.

【0044】ここで、操作者が画面に沿って水平または
垂直にカーソルを移動させたい場合について説明する。
この場合、操作者は可動台160を動かす前に、入力手
段180により水平または垂直にカーソルを動かしたい
旨を可動台制御部110に伝える。
Here, a case where the operator wants to move the cursor horizontally or vertically along the screen will be described.
In this case, the operator informs the movable table control unit 110 that he wants to move the cursor horizontally or vertically by the input means 180 before moving the movable table 160.

【0045】可動台制御部110は、水平移動が指定さ
れた場合はY軸方向制動手段150に、垂直移動が指定
された場合はX軸方向制動手段130に指示を出し、他
の方向に可動台160が移動しないようにすることで画
面に沿ってまっすぐにカーソルを移動させることが可能
となり、かつ手の動きも正しくカーソルの動きと対応し
ている。
The movable platform control unit 110 issues an instruction to the Y-axis direction braking means 150 when the horizontal movement is designated, and to the X-axis direction braking means 130 when the vertical movement is designated to move in another direction. By preventing the base 160 from moving, it is possible to move the cursor straight along the screen, and the movement of the hand also corresponds to the movement of the cursor.

【0046】また、本実施例は、X軸方向駆動手段12
0、Y軸方向駆動手段140を有しており、入力手段1
80により移動したい座標を指定すると自動的に移動さ
せることも可能である。
Further, in this embodiment, the X-axis direction driving means 12 is used.
0, Y-axis direction drive means 140, and input means 1
If the coordinates to be moved are designated by 80, the coordinates can be automatically moved.

【0047】[0047]

【発明の効果】以上説明したとおり、本発明によればカ
ーソル付近の情報を触覚で確認できるため、視覚への負
担がこれまで以上に軽減される。
As described above, according to the present invention, the information near the cursor can be confirmed by tactile sensation, so that the burden on the eyes can be reduced more than ever.

【0048】また、力覚フィードバックやカーソルの水
平・垂直移動を容易に行う機能を直接ポインティング型
の座標指示装置で実現したことで、手の動きと画面上で
のカーソルの動きの整合性が取れ、より直感的な操作が
可能になる。さらに、間接ポインティング型の座標指示
装置の利用が困難な視覚障害者などにも利用可能とな
る。
Further, since the function of easily performing the force feedback and the horizontal / vertical movement of the cursor is realized by the direct pointing type coordinate pointing device, the hand movement and the cursor movement on the screen can be matched. , More intuitive operation becomes possible. Further, it can be used for visually impaired persons who have difficulty in using the indirect pointing type coordinate pointing device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例による座標指示装置の構
成の一例を示すブロック図。
FIG. 1 is a block diagram showing an example of the configuration of a coordinate pointing device according to a first embodiment of the present invention.

【図2】本発明の第2、第3の実施例による座標指示装
置の構成の一例を示すブロック図。
FIG. 2 is a block diagram showing an example of a configuration of a coordinate pointing device according to second and third embodiments of the present invention.

【図3】第1の実施例のディスプレイの表示の一例を示
す図。
FIG. 3 is a diagram showing an example of a display on the display of the first embodiment.

【図4】第1の実施例の対話情報格納部で格納するデー
タの構造の例を示す図。
FIG. 4 is a diagram showing an example of a structure of data stored in a dialogue information storage unit of the first embodiment.

【図5】第1の実施例の触覚ディスプレイであるピンデ
ィスプレイの構成の例を示す図。
FIG. 5 is a diagram showing an example of the configuration of a pin display which is the tactile display of the first embodiment.

【図6】第2、第3の実施例の対話型システムが表示す
る画面の例を示す図。
FIG. 6 is a diagram showing an example of a screen displayed by the interactive system according to the second and third embodiments.

【図7】第2、第3の実施例の対話情報格納部で格納す
るデータの構造の例を示す図。
FIG. 7 is a diagram showing an example of a structure of data stored in a dialogue information storage unit of the second and third embodiments.

【図8】従来技術の構成を示すブロック図。FIG. 8 is a block diagram showing a configuration of a conventional technique.

【符号の説明】[Explanation of symbols]

10 中央処理装置 20 ビットマップディスプレイ 30 データ入力装置 40 位置検出部 50 カーソル位置検出部 51 カーソル移動イベント監視部 52 カーソル座標取得部 60 画面情報抽出・保持部 61 対話部品情報取得部 62 対話部品情報格納部 70 出力情報生成部 80 触覚ディスプレイ制御部 90 触覚ディスプレイ 100 画面情報解析部 110 可動台制御部 120 X軸方向駆動手段 130 X軸方向制動手段 140 Y軸方向駆動手段 150 Y軸方向制動手段 160 可動台 170 座標位置計算部 180 入力手段 200 ウィンドウ 210 カーソル 300 タッチパネル 310 ピンディスプレイ 320 ピン 400 ポインティング装置 410 カーソル制御部 420 触覚反応制御部 430 アクチュエータ 440 指定領域データテーブル 500 中央処理装置 510 ポインティング装置 520 カーソル制御部 530 ディスプレイ 540 入力手段 10 central processing unit 20 bitmap display 30 data input device 40 position detection unit 50 cursor position detection unit 51 cursor movement event monitoring unit 52 cursor coordinate acquisition unit 60 screen information extraction / holding unit 61 interaction component information acquisition unit 62 interaction component information storage Part 70 Output information generation part 80 Tactile display control part 90 Tactile display 100 Screen information analysis part 110 Movable platform control part 120 X-axis direction driving means 130 X-axis direction braking means 140 Y-axis direction driving means 150 Y-axis direction braking means 160 Movable Platform 170 Coordinate position calculation unit 180 Input means 200 Window 210 Cursor 300 Touch panel 310 Pin display 320 Pin 400 Pointing device 410 Cursor control unit 420 Tactile reaction control unit 430 Actuator 440 Constant region data table 500 central processing unit 510 pointing device 520 cursor control unit 530 display 540 input means

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】グラフィカル・ユーザ・インタフェースを
有する対話型システムで用いられる座標指示方法におい
て、前記グラフィカル・ユーザ・インタフェースの画面
上を移動するカーソルの座標を検出し、前記カーソル付
近の画面情報をユーザに対し触覚で表現して前記カーソ
ルの指示操作を行うことを特徴とする座標指示方法。
1. A coordinate pointing method used in an interactive system having a graphical user interface, wherein coordinates of a cursor moving on a screen of the graphical user interface are detected, and screen information near the cursor is displayed by a user. The coordinate pointing method is characterized in that the pointing operation of the cursor is performed by tactually expressing.
【請求項2】グラフィカル・ユーザ・インタフェースを
有する対話型システムで用いられる座標指示装置におい
て、 前記グラフィカル・ユーザ・インタフェースの画面上を
移動するカーソルの座標を検出するカーソル位置検出部
と、 前記カーソルの座標付近の画面情報を取得し、記憶する
画面情報抽出・保持部と、 ユーザに対して前記画面情報を触覚で表現し、前記カー
ソルの指示操作を行う触覚ディスプレイとを有すること
を特徴とする座標指示装置。
2. A coordinate pointing device used in an interactive system having a graphical user interface, comprising: a cursor position detecting unit for detecting coordinates of a cursor moving on a screen of the graphical user interface; Coordinates including a screen information extracting / holding unit that acquires and stores screen information near the coordinates, and a tactile display that expresses the screen information to the user as a tactile sensation and performs a pointing operation of the cursor. Pointing device.
【請求項3】グラフィカル・ユーザ・インタフェースを
有する対話型システムで用いられる座標指示装置におい
て、 前記グラフィカル・ユーザ・インタフェースの画面上を
移動するカーソルの座標を検出するカーソル位置検出部
と、 前記カーソル位置検出部で取得した前記カーソルの座標
付近の画面情報を取得し、記憶する画面情報抽出・保持
部と、 ユーザに対して前記画面情報を触覚で表現し、前記カー
ソルの指示操作を行う触覚ディスプレイと、 前記画面情報を前記触覚ディスプレイに表現するための
形式に変換する出力情報生成部と、 前記出力情報生成部からの情報をもとに前記触覚ディス
プレイを制御する触覚ディスプレイ制御部と、 前記触覚ディスプレイの位置を検出して前記対話型シス
テムに出力する位置検出部とを有することを特徴とする
座標指示装置。
3. A coordinate pointing device used in an interactive system having a graphical user interface, the cursor position detecting section detecting a coordinate of a cursor moving on a screen of the graphical user interface, and the cursor position. A screen information extracting / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the detection unit; and a tactile display that expresses the screen information to the user by tactile sensation and performs an instruction operation of the cursor. An output information generating unit that converts the screen information into a format for expressing the screen information on the tactile display; a tactile display control unit that controls the tactile display based on information from the output information generating unit; A position detection unit that detects the position of the DOO coordinate pointing device according to claim.
【請求項4】グラフィカル・ユーザ・インタフェースを
有する対話型システムで用いられる座標指示装置におい
て、 前記グラフィカル・ユーザ・インタフェースの画面上を
移動するカーソルの座標を検出するカーソル位置検出部
と、 前記カーソル位置検出部で取得した前記カーソルの座標
付近の画面情報を取得し、記憶する画面情報抽出・保持
部と、 前記画面情報からカーソルの座標位置の画面状態を解析
する画面情報解析部と、 縦横両軸に移動可能で、前記カーソルの指示操作を行う
可動台と、 前記可動台を横方向に移動させるためのX軸方向駆動手
段と、 前記可動台の横方向の動きを抑制するためのX軸方向制
動手段と、 前記可動台を縦方向に移動させるためのY軸方向駆動手
段と、 前記可動台の縦方向の動きを抑制するためのY軸方向制
動手段と、 前記X軸方向駆動手段および前記X軸方向制動手段、前
記Y軸方向駆動手段、前記Y軸方向制動手段に、前記可
動台の動きを前記画面情報解析部で解析した画面状態に
応じて制御する命令を出すための可動台制御部と、 前記可動台の位置を検出して前記対話型システムに出力
する座標位置計算部とを有することを特徴とする座標指
示装置。
4. A coordinate pointing device used in an interactive system having a graphical user interface, the cursor position detecting unit detecting a coordinate of a cursor moving on a screen of the graphical user interface, and the cursor position. Screen information extraction / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the detection unit, a screen information analysis unit that analyzes the screen state of the coordinate position of the cursor from the screen information, and both vertical and horizontal axes And a movable base that is movable to the cursor and performs an instruction operation of the cursor, an X-axis direction driving unit that laterally moves the movable base, and an X-axis direction that suppresses lateral movement of the movable base. Braking means, Y-axis direction driving means for moving the movable table in the vertical direction, and Y for suppressing the vertical movement of the movable table. A screen state obtained by analyzing the movement of the movable table by the screen information analysis unit in the direction braking means, the X axis direction driving means, the X axis direction braking means, the Y axis direction driving means, and the Y axis direction braking means. And a coordinate position calculation unit for detecting the position of the movable table and outputting the position to the interactive system.
【請求項5】前記可動台の移動方向を操作者が指定する
ための入力手段を備え、 前記可動台制御部が前記入力手段からの指示に従って、
前記X軸方向駆動手段、前記X軸方向制動手段、前記Y
軸方向駆動手段、前記Y軸方向制動手段に前記可動台の
動きを制御する命令を出すことを特徴とする請求項4に
記載の座標指示装置。
5. An input means for an operator to specify a moving direction of the movable table is provided, and the movable table control section follows an instruction from the input means.
The X-axis direction driving means, the X-axis direction braking means, the Y
The coordinate pointing device according to claim 4, wherein a command for controlling the movement of the movable table is issued to the axial driving means and the Y-axis braking means.
【請求項6】前記触覚ディスプレイにおいて、 ピンディスプレイを用いて前記画面情報を触覚で表現し
たことを特徴とする請求項2または3に記載した座標指
示装置。
6. The coordinate pointing device according to claim 2, wherein, in the tactile display, a pin display is used to express the screen information in a tactile sense.
【請求項7】前記カーソル位置検出部が、 前記カーソルの移動を検出するカーソル移動イベント監
視部と、 現在のカーソル座標を前記中央処理装置より取得するカ
ーソル座標取得部とから構成されることを特徴とする請
求項2、3、4、5または6に記載の座標指示装置。
7. The cursor position detection unit includes a cursor movement event monitoring unit that detects movement of the cursor, and a cursor coordinate acquisition unit that acquires current cursor coordinates from the central processing unit. The coordinate pointing device according to claim 2, 3, 4, 5, or 6.
【請求項8】前記画面情報抽出・保持部が、 前記カーソル位置検出部で得られた前記カーソルの座標
付近に存在する対話部品の情報を前記中央処理装置から
取得する対話部品情報取得部と、 前記対話部品情報取得部で抽出された対話部品の情報を
記憶する対話部品情報格納部とから構成されることを特
徴とする請求項2、3、4、5、6または7に記載の座
標指示装置。
8. A dialogue component information acquisition unit, wherein the screen information extraction / holding unit obtains, from the central processing unit, dialogue component information existing near the coordinates of the cursor obtained by the cursor position detection unit, 8. The coordinate instruction according to claim 2, further comprising an interactive component information storage unit that stores information on the interactive component extracted by the interactive component information acquisition unit. apparatus.
JP30083894A 1994-12-05 1994-12-05 Coordinate pointing device Expired - Fee Related JP3236180B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP30083894A JP3236180B2 (en) 1994-12-05 1994-12-05 Coordinate pointing device
US08/567,468 US5714978A (en) 1994-12-05 1995-12-05 Adjacent cursor system with tactile feedback for the blind

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30083894A JP3236180B2 (en) 1994-12-05 1994-12-05 Coordinate pointing device

Publications (2)

Publication Number Publication Date
JPH08161117A true JPH08161117A (en) 1996-06-21
JP3236180B2 JP3236180B2 (en) 2001-12-10

Family

ID=17889727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30083894A Expired - Fee Related JP3236180B2 (en) 1994-12-05 1994-12-05 Coordinate pointing device

Country Status (2)

Country Link
US (1) US5714978A (en)
JP (1) JP3236180B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1021803A1 (en) * 1997-01-09 2000-07-26 Virtouch Ltd. Mouse-like input/output device with display screen and method for its use
JP2003502699A (en) * 1999-06-14 2003-01-21 ヴィアタッチ リミテッド Haptic interface system for electronic data display system
KR100556539B1 (en) * 2002-04-22 2006-03-06 후지제롯쿠스 가부시끼가이샤 Information processing system and information processing method
JP2009519542A (en) * 2005-12-12 2009-05-14 マイクロソフト コーポレーション Alternative graphics pipe

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US6131097A (en) * 1992-12-02 2000-10-10 Immersion Corporation Haptic authoring
US6433771B1 (en) 1992-12-02 2002-08-13 Cybernet Haptic Systems Corporation Haptic device attribute control
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
US5805140A (en) 1993-07-16 1998-09-08 Immersion Corporation High bandwidth force feedback interface using voice coils and flexures
US6437771B1 (en) * 1995-01-18 2002-08-20 Immersion Corporation Force feedback device including flexure member between actuator and user object
US6057828A (en) * 1993-07-16 2000-05-02 Immersion Corporation Method and apparatus for providing force sensations in virtual environments in accordance with host software
US20030040361A1 (en) * 1994-09-21 2003-02-27 Craig Thorner Method and apparatus for generating tactile feedback via relatively low-burden and/or zero burden telemetry
US5666138A (en) 1994-11-22 1997-09-09 Culver; Craig F. Interface control
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
US6166723A (en) * 1995-11-17 2000-12-26 Immersion Corporation Mouse interface device providing force feedback
US5999168A (en) 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
US5754023A (en) 1995-10-26 1998-05-19 Cybernet Systems Corporation Gyro-stabilized platforms for force-feedback applications
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6639581B1 (en) 1995-11-17 2003-10-28 Immersion Corporation Flexure mechanism for interface device
US6704001B1 (en) 1995-11-17 2004-03-09 Immersion Corporation Force feedback device including actuator with moving magnet
US6100874A (en) * 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
US6061004A (en) * 1995-11-26 2000-05-09 Immersion Corporation Providing force feedback using an interface device including an indexing function
EP0864145A4 (en) 1995-11-30 1998-12-16 Virtual Technologies Inc Tactile feedback man-machine interface device
US6147674A (en) * 1995-12-01 2000-11-14 Immersion Corporation Method and apparatus for designing force sensations in force feedback computer applications
US6169540B1 (en) 1995-12-01 2001-01-02 Immersion Corporation Method and apparatus for designing force sensations in force feedback applications
US7027032B2 (en) * 1995-12-01 2006-04-11 Immersion Corporation Designing force sensations for force feedback computer applications
US8508469B1 (en) 1995-12-01 2013-08-13 Immersion Corporation Networked applications including haptic feedback
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6161126A (en) * 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
US6078308A (en) * 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US6300936B1 (en) 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
SE519661C2 (en) * 1996-02-23 2003-03-25 Immersion Corp Pointing devices and method for marking graphic details on a display with sensory feedback upon finding said detail
US6374255B1 (en) 1996-05-21 2002-04-16 Immersion Corporation Haptic authoring
US6125385A (en) * 1996-08-01 2000-09-26 Immersion Corporation Force feedback implementation in web pages
GB9622556D0 (en) * 1996-10-30 1997-01-08 Philips Electronics Nv Cursor control with user feedback mechanism
US6411276B1 (en) 1996-11-13 2002-06-25 Immersion Corporation Hybrid control of haptic feedback for host computer and interface device
US6686911B1 (en) * 1996-11-26 2004-02-03 Immersion Corporation Control knob with control modes and force feedback
US6154201A (en) * 1996-11-26 2000-11-28 Immersion Corporation Control knob with multiple degrees of freedom and force feedback
US6128006A (en) * 1998-03-26 2000-10-03 Immersion Corporation Force feedback mouse wheel and other control wheels
US7489309B2 (en) * 1996-11-26 2009-02-10 Immersion Corporation Control knob with multiple degrees of freedom and force feedback
US5973670A (en) * 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
US6762749B1 (en) 1997-01-09 2004-07-13 Virtouch Ltd. Tactile interface system for electronic data display system
US6020876A (en) * 1997-04-14 2000-02-01 Immersion Corporation Force feedback interface with selective disturbance filter
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US6292170B1 (en) 1997-04-25 2001-09-18 Immersion Corporation Designing compound force sensations for computer applications
US6252579B1 (en) 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
US6292174B1 (en) 1997-08-23 2001-09-18 Immersion Corporation Enhanced cursor control using limited-workspace force feedback devices
US6281651B1 (en) 1997-11-03 2001-08-28 Immersion Corporation Haptic pointing devices
US6243078B1 (en) 1998-06-23 2001-06-05 Immersion Corporation Pointing device with forced feedback button
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6088019A (en) * 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US6252583B1 (en) 1997-11-14 2001-06-26 Immersion Corporation Memory and force output management for a force feedback system
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6437770B1 (en) 1998-01-26 2002-08-20 University Of Washington Flat-coil actuator having coil embedded in linkage
US6219034B1 (en) * 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
US20080055241A1 (en) * 1998-03-26 2008-03-06 Immersion Corporation Systems and Methods for Haptic Feedback Effects for Control Knobs
US6067077A (en) 1998-04-10 2000-05-23 Immersion Corporation Position sensing for force feedback devices
US6128671A (en) * 1998-05-18 2000-10-03 F.J. Tieman B.V. Tactile feel device having a plurality of pins that allow a user to read information from the pins and make selection by depressing the pins
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6697043B1 (en) 1999-12-21 2004-02-24 Immersion Corporation Haptic interface device and actuator assembly providing linear haptic sensations
US6707443B2 (en) 1998-06-23 2004-03-16 Immersion Corporation Haptic trackball device
US6184868B1 (en) 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
US7038667B1 (en) 1998-10-26 2006-05-02 Immersion Corporation Mechanisms for control knobs and other interface devices
US8169402B2 (en) * 1999-07-01 2012-05-01 Immersion Corporation Vibrotactile haptic feedback devices
US7561142B2 (en) * 1999-07-01 2009-07-14 Immersion Corporation Vibrotactile haptic feedback devices
US6693622B1 (en) 1999-07-01 2004-02-17 Immersion Corporation Vibrotactile haptic feedback devices
DE20022244U1 (en) * 1999-07-01 2001-11-08 Immersion Corp Control of vibrotactile sensations for haptic feedback devices
DE20080209U1 (en) * 1999-09-28 2001-08-09 Immersion Corp Control of haptic sensations for interface devices with vibrotactile feedback
US6693626B1 (en) 1999-12-07 2004-02-17 Immersion Corporation Haptic feedback using a keyboard device
US6976215B1 (en) * 1999-12-20 2005-12-13 Vulcan Patents Llc Pushbutton user interface with functionality preview
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6445284B1 (en) 2000-05-10 2002-09-03 Juan Manuel Cruz-Hernandez Electro-mechanical transducer suitable for tactile display and article conveyance
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
AU2001294852A1 (en) * 2000-09-28 2002-04-08 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
US7182691B1 (en) 2000-09-28 2007-02-27 Immersion Corporation Directional inertial tactile feedback using rotating masses
US6995744B1 (en) 2000-09-28 2006-02-07 Immersion Corporation Device and assembly for providing linear tactile sensations
US7084854B1 (en) * 2000-09-28 2006-08-01 Immersion Corporation Actuator for providing tactile sensations and device for directional tactile sensations
IL151213A0 (en) * 2000-12-15 2003-04-10 Finger System Inc Pen type optical mouse device and method of controlling the same
EP1377955A2 (en) * 2001-03-15 2004-01-07 International Business Machines Corporation Method and system for accessing interactive multimedia information or services from braille documents
US9625905B2 (en) * 2001-03-30 2017-04-18 Immersion Corporation Haptic remote control for toys
US6636202B2 (en) * 2001-04-27 2003-10-21 International Business Machines Corporation Interactive tactile display for computer screen
US7202851B2 (en) * 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
WO2003025886A1 (en) * 2001-09-18 2003-03-27 Research Foundation Of The City University Of New York Tactile graphic-based interactive overlay assembly and computer system for the visually impaired
US7379053B2 (en) * 2001-10-27 2008-05-27 Vortant Technologies, Llc Computer interface for navigating graphical user interface by touch
US7161580B2 (en) * 2002-04-25 2007-01-09 Immersion Corporation Haptic feedback using rotary harmonic moving mass
US7369115B2 (en) * 2002-04-25 2008-05-06 Immersion Corporation Haptic devices having multiple operational modes including at least one resonant mode
US20030234763A1 (en) * 2002-06-24 2003-12-25 Xerox Corporation System and method for audible feedback for touch screen displays
US6999066B2 (en) * 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
US20040040800A1 (en) * 2002-07-31 2004-03-04 George Anastas System and method for providing passive haptic feedback
US20040051746A1 (en) * 2002-09-13 2004-03-18 Xerox Corporation Embedded control panel for multi-function equipment
US7176898B2 (en) 2002-09-13 2007-02-13 Xerox Corporation Removable control panel for multi-function equipment
GB2414319A (en) 2002-12-08 2005-11-23 Immersion Corp Methods and systems for providing haptic messaging to handheld communication devices
US8830161B2 (en) 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US8059088B2 (en) * 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
EP1429307B1 (en) * 2002-12-10 2005-06-22 Askk Co.,Ltd. Rotating braille display device
US7523391B1 (en) * 2003-03-25 2009-04-21 Microsoft Corporation Indicating change to data form
JP3856774B2 (en) 2003-08-29 2006-12-13 インターナショナル・ビジネス・マシーンズ・コーポレーション Audio output device, information input device, file selection device, telephone, program thereof and recording medium
US7283120B2 (en) 2004-01-16 2007-10-16 Immersion Corporation Method and apparatus for providing haptic feedback having a position-based component and a predetermined time-based component
US7522152B2 (en) * 2004-05-27 2009-04-21 Immersion Corporation Products and processes for providing haptic feedback in resistive interface devices
FR2871276B1 (en) * 2004-06-04 2009-02-06 France Telecom SYSTEM AND METHOD FOR ASSISTING LEARNING OF GEOMETRY
US7198137B2 (en) * 2004-07-29 2007-04-03 Immersion Corporation Systems and methods for providing haptic feedback with position sensing
US8441433B2 (en) * 2004-08-11 2013-05-14 Immersion Corporation Systems and methods for providing friction in a haptic feedback device
US9495009B2 (en) 2004-08-20 2016-11-15 Immersion Corporation Systems and methods for providing haptic effects
US8013847B2 (en) * 2004-08-24 2011-09-06 Immersion Corporation Magnetic actuator for providing haptic feedback
US8803796B2 (en) 2004-08-26 2014-08-12 Immersion Corporation Products and processes for providing haptic feedback in a user interface
US8002089B2 (en) * 2004-09-10 2011-08-23 Immersion Corporation Systems and methods for providing a haptic device
US9046922B2 (en) * 2004-09-20 2015-06-02 Immersion Corporation Products and processes for providing multimodal feedback in a user interface device
US7764268B2 (en) * 2004-09-24 2010-07-27 Immersion Corporation Systems and methods for providing a haptic device
CN101107587B (en) * 2005-01-14 2013-03-13 皇家飞利浦电子股份有限公司 Moving objects presented by a touch input display device
ITMI20051043A1 (en) * 2005-06-06 2006-12-07 Milano Politecnico "SYSTEM AND METHOD FOR THE EXPLORATION OF GRAPHIC ITEMS FOR USERS".
ITRM20060059A1 (en) * 2006-02-06 2007-08-07 Mediavoice S R L CONTROL DEVICE FOR A GRAPHIC POINTER ON A WORK AREA OF A SCREEN OF IN PROCESSOR
US8201090B2 (en) * 2007-11-13 2012-06-12 The Board Of Trustees Of The University Of Arkansas User interface for software applications
US8004501B2 (en) 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US8564555B2 (en) * 2009-04-30 2013-10-22 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
US9035784B2 (en) * 2009-10-30 2015-05-19 Joseph Maanuel Garcia Clock(s) as a seismic wave receiver
US8542105B2 (en) 2009-11-24 2013-09-24 Immersion Corporation Handheld computer interface with haptic feedback
US20110148436A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated System and method for determining a number of objects in a capacitive sensing region using signal grouping
US20110148438A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated System and method for determining a number of objects in a capacitive sensing region using a shape factor
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US9245428B2 (en) 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US10101829B2 (en) * 2014-06-11 2018-10-16 Optelec Holding B.V. Braille display system
US10175882B2 (en) * 2014-07-31 2019-01-08 Technologies Humanware Inc. Dynamic calibrating of a touch-screen-implemented virtual braille keyboard

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60198626A (en) * 1984-03-22 1985-10-08 Sony Corp Information input and output device
JPS61240317A (en) * 1985-04-17 1986-10-25 Matsushita Electric Ind Co Ltd Simple input device
JPS6411571A (en) * 1987-07-07 1989-01-17 Canon Kk Image converting apparatus
JPH05313820A (en) * 1992-09-09 1993-11-26 Yamaha Corp Information input device
JPH0619611A (en) * 1992-06-30 1994-01-28 Canon Inc Information processor
JPH0637928U (en) * 1992-10-21 1994-05-20 豊 打田 Flat mouse

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3395247A (en) * 1965-04-13 1968-07-30 Portter Instr Company Inc Reading machine for the blind
US4644339A (en) * 1983-03-02 1987-02-17 Ruder Donald J Low vision adapter for display terminals
JPH01260523A (en) * 1988-04-12 1989-10-17 Nec Corp Mouse
US5165897A (en) * 1990-08-10 1992-11-24 Tini Alloy Company Programmable tactile stimulator array system and method of operation
JPH04286015A (en) * 1991-03-15 1992-10-12 Fujitsu Ltd Position instruction system using mouse
US5185561A (en) * 1991-07-23 1993-02-09 Digital Equipment Corporation Torque motor as a tactile feedback device in a computer system
US5223828A (en) * 1991-08-19 1993-06-29 International Business Machines Corporation Method and system for enabling a blind computer user to handle message boxes in a graphical user interface
US5287102A (en) * 1991-12-20 1994-02-15 International Business Machines Corporation Method and system for enabling a blind computer user to locate icons in a graphical user interface
JP3086069B2 (en) * 1992-06-16 2000-09-11 キヤノン株式会社 Information processing device for the disabled
US5453012A (en) * 1992-09-30 1995-09-26 Robotron Pty Ltd Braille display
US5412189A (en) * 1992-12-21 1995-05-02 International Business Machines Corporation Touch screen apparatus with tactile information
DE4406668C2 (en) * 1993-04-27 1996-09-12 Hewlett Packard Co Method and device for operating a touch-sensitive display device
US5429140A (en) * 1993-06-04 1995-07-04 Greenleaf Medical Systems, Inc. Integrated virtual reality rehabilitation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60198626A (en) * 1984-03-22 1985-10-08 Sony Corp Information input and output device
JPS61240317A (en) * 1985-04-17 1986-10-25 Matsushita Electric Ind Co Ltd Simple input device
JPS6411571A (en) * 1987-07-07 1989-01-17 Canon Kk Image converting apparatus
JPH0619611A (en) * 1992-06-30 1994-01-28 Canon Inc Information processor
JPH05313820A (en) * 1992-09-09 1993-11-26 Yamaha Corp Information input device
JPH0637928U (en) * 1992-10-21 1994-05-20 豊 打田 Flat mouse

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1021803A1 (en) * 1997-01-09 2000-07-26 Virtouch Ltd. Mouse-like input/output device with display screen and method for its use
EP1021803A4 (en) * 1997-01-09 2000-10-04 Virtouch Ltd Mouse-like input/output device with display screen and method for its use
JP2003502699A (en) * 1999-06-14 2003-01-21 ヴィアタッチ リミテッド Haptic interface system for electronic data display system
KR100556539B1 (en) * 2002-04-22 2006-03-06 후지제롯쿠스 가부시끼가이샤 Information processing system and information processing method
JP2009519542A (en) * 2005-12-12 2009-05-14 マイクロソフト コーポレーション Alternative graphics pipe

Also Published As

Publication number Publication date
JP3236180B2 (en) 2001-12-10
US5714978A (en) 1998-02-03

Similar Documents

Publication Publication Date Title
JPH08161117A (en) Method and device for indicating coordinate
Akamatsu et al. A multi-modal mouse with tactile and force feedback
US7024625B2 (en) Mouse device with tactile feedback applied to housing
US11077360B2 (en) Information processing device, control method of information processing device, and program
US6181325B1 (en) Computer system with precise control of the mouse pointer
EP2156274B1 (en) Touch-sensitive pointing device with guiding lines
JPH0985655A (en) Robot teaching operation panel
JPH06309138A (en) Screen control method using touch panel
JP2017033130A (en) Force-sensing guide device
JP2007079947A (en) Display device and program for use therewith
JP2005202545A (en) Contact type information input device
US5969711A (en) Method for creating an electronic document
Park et al. Evaluation of cursor capturing functions in a target positioning task
US11449146B2 (en) Interactive holographic human-computer interface
JPH04286015A (en) Position instruction system using mouse
Asque et al. Cursor navigation using haptics for motion-impaired computer users
Liang et al. BrushLens: Hardware Interaction Proxies for Accessible Touchscreen Interface Actuation
JP3953753B2 (en) Mouse pointer guidance method, mouse pointer guidance program, and recording medium recording the program
Zhang et al. The Study of Two Novel Speech-Based Selection Techniques in Voice-User Interfaces
JPS63311519A (en) Coordinate input method
JPH03256112A (en) Control processor
US11972046B1 (en) Human-machine interaction method and system based on eye movement tracking
JPH0358090A (en) Display device
JP3232537B2 (en) Computer and window control method
JP2002278661A (en) A plurality of cursors control system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees