JPH08161117A - Method and device for indicating coordinate - Google Patents
Method and device for indicating coordinateInfo
- Publication number
- JPH08161117A JPH08161117A JP30083894A JP30083894A JPH08161117A JP H08161117 A JPH08161117 A JP H08161117A JP 30083894 A JP30083894 A JP 30083894A JP 30083894 A JP30083894 A JP 30083894A JP H08161117 A JPH08161117 A JP H08161117A
- Authority
- JP
- Japan
- Prior art keywords
- cursor
- unit
- screen
- coordinate
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/003—Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、パーソナルコンピュー
タなどの対話型情報処理システムに用いられる、グラフ
ィカル・ユーザ・インタフェースを操作する際の操作対
象を選択する座標指示方法及び装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate pointing method and apparatus for selecting an operation target when operating a graphical user interface used in an interactive information processing system such as a personal computer.
【0002】[0002]
【従来の技術】グラフィカル・ユーザ・インタフェース
を有する情報処理システムでは、視覚的に表現された対
話部品の中から、操作対象とする部品を選びカーソルを
合わせるという操作(ポインティング操作)が中心とな
るため、他の感覚に比べて視覚への負担が非常に高くな
ることが指摘されてきた。視覚への負担を軽減するため
に、特開平04−286015号公報「マウスを用いた
位置指示方式」などに見られるように、カーソルを移動
させるための座標指示装置に、ある特定の領域や対話部
品にカーソルが入ったことを触覚により伝達する仕組み
が付加されていた。2. Description of the Related Art In an information processing system having a graphical user interface, an operation (pointing operation) of selecting a part to be operated from among visually expressed interactive parts and matching the cursor is mainly performed. It has been pointed out that the visual burden is much higher than that of other senses. In order to reduce the burden on the eyes, a coordinate pointing device for moving a cursor has a certain area or dialogue as disclosed in Japanese Patent Application Laid-Open No. 04-286015, "Positioning system using mouse". A mechanism for transmitting the fact that the cursor was placed on the part by touch was added.
【0003】触覚の利用以外にもポインティング操作を
行い易くするための装置として、特開平05−3138
20号公報「情報入力装置」などのように、特定の領域
や対話部品上にカーソルがのったときにブレーキをかけ
るという力覚フィードバックを実現したものや、特開平
01−260523号公報「マウス」などに見られるよ
うにカーソルの水平・垂直移動を容易に行えるようにし
た装置が存在する。As a device for facilitating a pointing operation other than the use of tactile sense, Japanese Patent Laid-Open No. 05-3138.
A device that realizes haptic feedback such as braking when a cursor is placed on a specific area or an interactive component, such as "Information input device" disclosed in JP-A No. 20-205, and JP-A No. 01-260523, "Mouse". There is a device that facilitates horizontal / vertical movement of the cursor as seen in ".
【0004】特開平04−286015号公報の触覚フ
ィードバック付き座標指示装置は、図8(a)に示した
構成で実現される。この装置の基本的な仕組みは以下の
通りである。The coordinate pointing device with tactile feedback disclosed in Japanese Patent Application Laid-Open No. 04-286015 is realized by the configuration shown in FIG. 8 (a). The basic mechanism of this device is as follows.
【0005】ポインティング装置400によりカーソル
を移動させると、カーソル制御部410は記憶している
カーソル座標を更新する。続いて、触覚反応制御部42
0は更新されたカーソル座標と指定領域データテーブル
440内のデータの座標と比較し、一致するものが有れ
ばアクチュエータ430を駆動しポインティング装置4
00に振動や衝撃を与える。力覚フィードバックについ
ても、アクチュエータ430を例えば電磁石などを用い
た制動装置に置き換えるだけでほぼ同じ仕組みで実現で
きる。When the cursor is moved by the pointing device 400, the cursor control unit 410 updates the stored cursor coordinates. Then, the tactile response control unit 42
0 is compared with the updated cursor coordinates and the coordinates of the data in the designated area data table 440, and if there is a match, the actuator 430 is driven and the pointing device 4
Vibration and shock to 00. The force feedback can be realized by almost the same mechanism only by replacing the actuator 430 with a braking device using an electromagnet or the like.
【0006】また、カーソルの水平・垂直移動を容易に
する座標指示装置は、例えば図8(b)に示した構成で
実現できる。仮に、入力手段540からカーソルの水平
移動を指示すると、カーソル制御部520が、ポインテ
ィング装置510から送られてくるY方向のカーソル移
動量ΔYを0として処理する。垂直移動の場合も、ΔX
を0として処理する以外は上記の説明がそのまま当ては
まる。このようにして、ポインティング装置510を完
全に水平または垂直に動かさなくてもディスプレイ53
0上では、カーソルが水平・垂直移動することになる。A coordinate pointing device for facilitating horizontal / vertical movement of the cursor can be realized by the structure shown in FIG. 8B, for example. If the horizontal movement of the cursor is instructed from the input means 540, the cursor control unit 520 processes the cursor movement amount ΔY in the Y direction sent from the pointing device 510 as 0. In case of vertical movement, ΔX
The above description is applied as it is except that 0 is treated as 0. In this way, the display 53 does not have to be moved completely horizontally or vertically.
On 0, the cursor moves horizontally and vertically.
【0007】[0007]
【発明が解決しようとする課題】上述した、触覚フィー
ドバック付き座標指示装置を用いると、最初にある程度
目で目標点の位置を確認しておけば、後は画面を凝視す
ることなく、確認した方向にカーソルを動かすだけで目
標点に到達したことを触覚により知ることができる。し
かしながら、画面を凝視せず最初に確認した方向にうま
くカーソルを移動させられるとは限らず、そうした場
合、従来の装置では現在のカーソル位置の情報しか触覚
で確認できないという問題があり、仮に目標点のすぐ隣
にカーソルがあったとしても結局目で画面を確認する必
要があった。さらに、従来の装置では、ある領域や対話
部品の上にカーソルがのっているかいないかは確認でき
るが、その領域の形状や領域内でのカーソルの位置(例
えば、領域の端に位置しているなど)までは分からなか
った。When the coordinate pointing device with tactile feedback described above is used, the position of the target point can be confirmed with some eyes first, and then the confirmed direction can be confirmed without staring at the screen. It is possible to know by tactile sense that the target point has been reached simply by moving the cursor to. However, it is not always possible to move the cursor in the direction that was initially confirmed without staring at the screen.In such a case, there is a problem that the conventional device can only confirm the information of the current cursor position by tactile sense. Even if there was a cursor right next to, I had to visually check the screen after all. Furthermore, with conventional devices, it is possible to check whether the cursor is over a certain area or interactive component, but the shape of that area and the position of the cursor within the area (for example, at the edge of the area) I didn't understand.
【0008】一方、水平・垂直移動を容易にする装置
は、腕は完全にまっすぐに動かしていないにも関わら
ず、内部的には真っすぐに動いていると処理されている
ため実際の動作と画面上でのカーソルの動作に不整合が
生じるという問題があった。力覚フィードバックについ
ては、実現されているのがほとんど間接ポインティング
装置(現在のカーソル位置とそこからの移動量により画
面上の座標を指示する装置)であるため、間接ポインテ
ィング装置の利用が困難な視覚に障害を持つ操作者は、
よりこのような力覚などで情報提示を行う装置を必要と
しているにも関わらず恩恵を受けられなかった。On the other hand, a device for facilitating horizontal / vertical movement is internally processed to move straight even though the arm does not move completely straight, so that the actual movement and screen There was a problem that inconsistency occurred in the movement of the cursor on the above. As for haptic feedback, most of the indirect pointing devices (devices that indicate the coordinates on the screen based on the current cursor position and the amount of movement from that position) are used for visual feedback, which makes it difficult to use the indirect pointing device. Operators with disabilities
In spite of needing a device for presenting information by such force sense, it has not been able to receive any benefit.
【0009】本発明の目的は、現在のカーソル位置だけ
でなくカーソル位置付近の情報も触覚で確認可能な座標
指示装置を提供すること、および力覚フィードバックや
カーソルの水平・垂直移動を容易に行える直接ポインテ
ィング型(画面上の点と一対一に対応した絶対座標系で
画面上の座標を指示する。)の座標指示装置を提供する
ことである。It is an object of the present invention to provide a coordinate pointing device which allows tactile confirmation of not only the current cursor position but also information near the cursor position, and facilitates force feedback and horizontal / vertical movement of the cursor. It is an object of the present invention to provide a direct pointing type (pointing coordinates on the screen in an absolute coordinate system corresponding to a point on the screen one-to-one).
【0010】[0010]
【課題を解決するための手段】第1の発明は、グラフィ
カル・ユーザ・インタフェースを有する対話型システム
で用いられる座標指示方法において前記グラフィカル・
ユーザ・インタフェースの画面上を移動するカーソルの
座標を検出し、前記カーソル付近の画面情報をユーザに
対し触覚で表現して前記カーソルの指示操作を行うこと
を特徴とする。According to a first aspect of the present invention, there is provided a coordinate pointing method used in an interactive system having a graphical user interface.
The coordinates of the cursor moving on the screen of the user interface are detected, and the screen information near the cursor is expressed to the user by tactile sensation to perform the pointing operation of the cursor.
【0011】第2の発明は、グラフィカル・ユーザ・イ
ンタフェースを有する対話型システムで用いられる座標
指示装置において、前記グラフィカル・ユーザ・インタ
フェースの画面上を移動するカーソルの座標を検出する
カーソル位置検出部と、前記カーソルの座標付近の画面
情報を取得し、記憶する画面情報抽出・保持部と、ユー
ザに対して前記画面情報を触覚で表現し、前記カーソル
の指示操作を行う触覚ディスプレイとを有することを特
徴とする。A second aspect of the present invention is, in a coordinate pointing device used in an interactive system having a graphical user interface, a cursor position detecting section for detecting the coordinates of a cursor moving on the screen of the graphical user interface. A screen information extracting / holding unit that acquires and stores screen information near the coordinates of the cursor, and a tactile display that expresses the screen information to the user by tactile sensation and performs an instruction operation of the cursor. Characterize.
【0012】第3の発明は、グラフィカル・ユーザ・イ
ンタフェースを有する対話型システムで用いられる座標
指示装置において、前記グラフィカル・ユーザ・インタ
フェースの画面上を移動するカーソルの座標を検出する
カーソル位置検出部と、前記カーソル位置検出部で取得
した前記カーソルの座標付近の画面情報を取得し、記憶
する画面情報抽出・保持部と、ユーザに対して前記画面
情報を触覚で表現し、前記カーソルの指示操作を行う触
覚ディスプレイと、前記画面情報を前記触覚ディスプレ
イに表現するための形式に変換する出力情報生成部と、
前記出力情報生成部からの情報をもとに前記触覚ディス
プレイを制御する触覚ディスプレイ制御部と、前記触覚
ディスプレイの位置を検出して前記対話型システムに出
力する位置検出部とを有することを特徴とする。According to a third aspect of the present invention, in a coordinate pointing device used in an interactive system having a graphical user interface, a cursor position detecting section for detecting coordinates of a cursor moving on the screen of the graphical user interface. , A screen information extracting / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the cursor position detection unit, and expresses the screen information to a user by tactile sensation, and performs a pointing operation of the cursor. A tactile display for performing, and an output information generation unit for converting the screen information into a format for expressing the screen information on the tactile display,
A tactile display control unit that controls the tactile display based on information from the output information generation unit; and a position detection unit that detects the position of the tactile display and outputs the position to the interactive system. To do.
【0013】第4の発明は、グラフィカル・ユーザ・イ
ンタフェースを有する対話型システムで用いられる座標
指示装置において、前記グラフィカル・ユーザ・インタ
フェースの画面上を移動するカーソルの座標を検出する
カーソル位置検出部と、前記カーソル位置検出部で取得
した前記カーソルの座標付近の画面情報を取得し、記憶
する画面情報抽出・保持部と、前記画面情報からカーソ
ルの座標位置の画面状態を解析する画面情報解析部と、
縦横両軸に移動可能で、前記カーソルの指示操作を行う
可動台と、前記可動台を横方向に移動させるためのX軸
方向駆動手段と、前記可動台の横方向の動きを抑制する
ためのX軸方向制動手段と、前記可動台を縦方向に移動
させるためのY軸方向駆動手段と、前記可動台の縦方向
の動きを抑制するためのY軸方向制動手段と、前記X軸
方向駆動手段および前記X軸方向制動手段、前記Y軸方
向駆動手段、前記Y軸方向制動手段に、前記可動台の動
きを前記画面情報解析部で解析した画面状態に応じて制
御する命令を出すための可動台制御部と、前記可動台の
位置を検出して前記対話型システムに出力する座標位置
計算部とを有することを特徴とする。According to a fourth aspect of the present invention, in a coordinate pointing device used in an interactive system having a graphical user interface, a cursor position detecting unit for detecting the coordinates of a cursor moving on the screen of the graphical user interface. A screen information extraction / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the cursor position detection unit; and a screen information analysis unit that analyzes the screen state at the coordinate position of the cursor from the screen information. ,
A movable base that is movable in both vertical and horizontal axes and that performs an instruction operation of the cursor, an X-axis direction drive means for moving the movable base in the horizontal direction, and a horizontal movement of the movable base. X-axis direction braking means, Y-axis direction driving means for vertically moving the movable table, Y-axis direction braking means for suppressing vertical movement of the movable table, and X-axis direction driving Means, the X-axis direction braking means, the Y-axis direction driving means, and the Y-axis direction braking means, for issuing a command to control the movement of the movable table according to the screen state analyzed by the screen information analysis unit. It has a movable base control unit and a coordinate position calculation unit that detects the position of the movable base and outputs it to the interactive system.
【0014】第5の発明は、第4の発明において、前記
可動台の移動方向を操作者が指定するための入力手段を
備え、前記可動台制御部が前記入力手段からの指示に従
って、前記X軸方向駆動手段、前記X軸方向制動手段、
前記Y軸方向駆動手段、前記Y軸方向制動手段に前記可
動台の動きを制御する命令を出すことを特徴とする。According to a fifth aspect of the present invention, in the fourth aspect, an input means is provided for the operator to specify the moving direction of the movable table, and the movable table control section is operated in accordance with an instruction from the input means. Axial driving means, the X-axis braking means,
A command for controlling the movement of the movable table is issued to the Y-axis direction driving means and the Y-axis direction braking means.
【0015】第6の発明は、第2または第3の発明の前
記触覚ディスプレイにおいて、ピンディスプレイを用い
て前記画面情報を触覚で表現したことを特徴とする。A sixth invention is characterized in that, in the tactile display according to the second or third invention, the screen information is expressed by a tactile sense using a pin display.
【0016】第7の発明は、第2、3、4、5または6
の発明において、前記カーソル位置検出部が、前記カー
ソルの移動を検出するカーソル移動イベント監視部と、
現在のカーソル座標を前記中央処理装置より取得するカ
ーソル座標取得部とから構成されることを特徴とする。A seventh invention is the second, third, fourth, fifth or sixth invention.
In the invention, the cursor position detection unit, a cursor movement event monitoring unit for detecting the movement of the cursor,
And a cursor coordinate acquisition unit for acquiring the current cursor coordinates from the central processing unit.
【0017】第8の発明は、第2、3、4、5、6また
は7の発明において、前記画面情報抽出・保持部が、前
記カーソル位置検出部で得られた前記カーソルの座標付
近に存在する対話部品の情報を前記中央処理装置から取
得する対話部品情報取得部と、前記対話部品情報取得部
で抽出された対話部品の情報を記憶する対話部品情報格
納部とから構成されることを特徴とする。In an eighth aspect based on the second, third, fourth, fifth, sixth or seventh aspect, the screen information extracting / holding unit is present near the coordinates of the cursor obtained by the cursor position detecting unit. And a dialogue part information storage section for storing information of the dialogue parts extracted by the dialogue part information acquisition section. And
【0018】[0018]
【作用】カーソル付近の画面情報を触覚で表現する触覚
ディスプレイと、触覚ディスプレイの位置を検出して対
話システムに知らせる座標位置の計算部を設けることに
より、カーソル付近の画面情報を触覚で確認しながらポ
インティング操作を行うことができる。また、縦横両軸
に沿って移動する可動台と可動台の位置から画面上での
座標を計算する座標位置計算部、および可動台の動きを
縦横独立に制御する手段を設けたことにより、直接ポイ
ンティング型の座標指示装置でかつ力覚フィードバック
や水平・垂直移動を容易に行うことができる。[Operation] By providing a tactile display that displays the screen information near the cursor with a tactile sense and a coordinate position calculation unit that detects the position of the tactile display and notifies the dialog system to the tactile sense, while confirming the screen information near the cursor with the tactile sense You can perform pointing operations. In addition, by providing a movable base that moves along both vertical and horizontal axes, a coordinate position calculation unit that calculates the coordinates on the screen from the position of the movable base, and a means that independently controls the movement of the movable base, It is a pointing type coordinate pointing device and can easily perform force feedback and horizontal / vertical movement.
【0019】[0019]
【実施例】次に、図面を参照しながら本発明の実施例を
説明する。ここで、本実施例は3つの構成からなる。第
1の実施例は、第1の発明の座標指示方法に対応した、
第3の座標指示装置の発明の一実施例であり、同時に第
2、6、7、8の発明についても説明している。第2の
実施例は、第4の発明の一実施例であり、同時に第7、
8の発明についても説明している。第3の実施例は、第
5の発明の一実施例の説明である。Embodiments of the present invention will now be described with reference to the drawings. Here, the present embodiment has three configurations. The first embodiment corresponds to the coordinate pointing method of the first invention,
It is one embodiment of the invention of the third coordinate pointing device, and at the same time, the second, sixth, seventh and eighth inventions are also described. The second embodiment is an embodiment of the fourth invention, and at the same time, the seventh,
The eighth invention is also described. The third embodiment is an explanation of an embodiment of the fifth invention.
【0020】ここで、本発明の第1の実施例について説
明する。Now, the first embodiment of the present invention will be described.
【0021】図1は、本発明の第1の実施例による座標
指示装置の構成の一例を示すブロック図である。図1に
おいて、中央処理装置10と、ビットマップディスプレ
イ20と、データ入力装置30とから成るグラフィカル
・ユーザ・インタフェースを有する対話型システムと、
現在のカーソル位置を抽出するカーソル位置検出部50
と、カーソル位置付近の画面情報を取得する画面情報抽
出・保持部60と、取得した画面情報を触覚ディスプレ
イで表現可能な形式に変換する出力情報生成部70と、
触覚ディスプレイを動作させる触覚ディスプレイ制御部
80と、触覚ディスプレイ制御部80からの指示に基づ
いて動作する触覚ディスプレイ90と、触覚ディスプレ
イ90の位置を検出する位置検出部40とから構成され
る。FIG. 1 is a block diagram showing an example of the arrangement of a coordinate pointing device according to the first embodiment of the present invention. 1, an interactive system having a graphical user interface consisting of a central processing unit 10, a bitmap display 20, and a data input device 30,
Cursor position detector 50 for extracting the current cursor position
A screen information extraction / holding unit 60 that acquires screen information near the cursor position; an output information generation unit 70 that converts the acquired screen information into a format that can be expressed on a tactile display;
The tactile display controller 80 operates the tactile display, the tactile display 90 operates based on an instruction from the tactile display controller 80, and the position detector 40 that detects the position of the tactile display 90.
【0022】カーソル位置検出部50は、カーソルの移
動を検出するカーソル移動イベント監視部51と、現在
のカーソル座標を中央処理装置10から取得するカーソ
ル座標取得部52と、から構成される。The cursor position detection unit 50 is composed of a cursor movement event monitoring unit 51 for detecting the movement of the cursor and a cursor coordinate acquisition unit 52 for acquiring the current cursor coordinates from the central processing unit 10.
【0023】画面情報抽出・保持部60は、カーソル位
置検出部50で得られたカーソル位置に存在する対話部
品の情報を中央処理装置10から取得する対話部品情報
取得部61と、対話部品情報取得部61で取得した対話
部品情報を記憶しておく対話部品情報格納部62と、か
ら構成される。The screen information extracting / holding unit 60 acquires an interactive part information acquisition unit 61 for acquiring information of the interactive part existing at the cursor position obtained by the cursor position detecting unit 50 from the central processing unit 10, and an interactive part information acquisition. The dialogue component information storage unit 62 stores the dialogue component information acquired by the unit 61.
【0024】以下で、本実施例の動作について図1,図
3,図4および図5を用いて具体的に説明する。また、
本実施例においての説明では、触覚ディスプレイ90と
してマトリクス状に配置したピンの凹凸により触覚情報
を作り出すピンディスプレイ310を、位置検出部40
としてタッチパネル300を用いる座標指示装置の一例
である。カーソル付近の画面情報を触覚ディスプレイに
提示することで、これまでの触覚併用座標入力装置では
知ることができなかった、対話部品までの距離を知るこ
とができる。また、本発明はこの例に限るものではな
く、触覚ディスプレイとして、マトリクス状に配置した
ピンの振動で情報を伝える方式や、熱を加えることで変
形するプラスチック等を用いて凹凸を作り出す方式を用
いたディスプレイ等の利用が可能である。The operation of this embodiment will be specifically described below with reference to FIGS. 1, 3, 4 and 5. Also,
In the description of the present embodiment, the position detection unit 40 includes the pin display 310 that creates tactile information by the unevenness of the pins arranged in a matrix as the tactile display 90.
2 is an example of a coordinate pointing device that uses the touch panel 300 as a display. By presenting the screen information near the cursor on the tactile display, it is possible to know the distance to the interactive component, which cannot be known by the conventional tactile coordinate input device. Further, the present invention is not limited to this example, and as the tactile display, a method of transmitting information by vibrating pins arranged in a matrix or a method of forming irregularities by using plastic or the like that deforms by applying heat is used. It is possible to use the old display.
【0025】図5(a)は本実施例の利用形態である。
本実施例では、タッチパネル300をピンディスプレイ
310でポインティングする。図5(b)はピンディス
プレイ310の拡大図であり、以下では、7行7列に配
置した49本のピン320で構成されるとして説明を行
う。図3(a)はグラフィカル・ユーザ・インタフェー
スを有する対話型システムにおけるビットマップディス
プレイ20の画面列である。画面上にはグラフィカル・
ユーザ・インタフェースにおける対話部品の一つである
ウィンドウ200とカーソル210が存在しているもの
とする。図3(b)はそのときのピンディスプレイ31
0の出力を示している。FIG. 5A shows a form of use of this embodiment.
In this embodiment, the touch panel 300 is pointed by the pin display 310. FIG. 5B is an enlarged view of the pin display 310, and in the following description, it is assumed that the pin display 310 is composed of 49 pins 320 arranged in 7 rows and 7 columns. FIG. 3A is a screen sequence of the bitmap display 20 in the interactive system having the graphical user interface. Graphical on screen
It is assumed that the window 200 and the cursor 210, which are one of the interactive parts in the user interface, exist. FIG. 3B shows the pin display 31 at that time.
0 output is shown.
【0026】まず、操作者が触覚ディスプレイであるピ
ンディスプレイ310を用いて画面上のカーソル210
を移動させると、ピンディスプレイ310のタッチパネ
ル300上での座標値がタッチパネル300によって中
央処理装置10に伝達される。中央処理装置10は、カ
ーソル210のビットマップディスプレイ20上での座
標値を、タッチパネル310から送られてくる座標値に
更新すると同時にカーソル移動イベントを発行する。カ
ーソル移動イベント監視部51はカーソル移動イベント
が発行されるのを常に監視しており、イベントを検出す
るとその旨をカーソル座標取得部52に通知する。通知
を受けたカーソル座標取得部52は、中央処理装置10
より現在のカーソル位置の座標を取得し、その値を画面
情報抽出・保持部60に知らせる。First, the operator uses the pin display 310, which is a tactile display, to move the cursor 210 on the screen.
When is moved, the coordinate value of the pin display 310 on the touch panel 300 is transmitted to the central processing unit 10 by the touch panel 300. The central processing unit 10 updates the coordinate value of the cursor 210 on the bitmap display 20 with the coordinate value sent from the touch panel 310, and at the same time issues a cursor movement event. The cursor movement event monitoring unit 51 constantly monitors issuance of a cursor movement event, and when an event is detected, it notifies the cursor coordinate acquisition unit 52 of that fact. Upon receiving the notification, the cursor coordinate acquisition unit 52 causes the central processing unit 10 to
The coordinates of the current cursor position are acquired, and the value is notified to the screen information extraction / holding unit 60.
【0027】画面情報抽出・保持部60では、対話部品
情報取得部61が、現在のカーソル位置を中心とする7
ドット四方に存在する対話部品の識別番号を中央処理装
置10から取得して、図4に示したような7行7列のテ
ーブル形式で対話部品情報格納部62に記憶させてい
く。49ドットすべてに対してその位置に存在する対話
部品の識別番号を取得し終えると、そのデータを出力情
報作成部70に送る。図4(a)はウィンドウ200の
識別番号が1000、対話部品が存在しないところは0
で埋めるとした場合に対話部品情報格納部62に記憶さ
れるデータの一例である。In the screen information extraction / holding unit 60, the interactive component information acquisition unit 61 centers on the current cursor position.
The identification numbers of the interactive parts existing on all sides of the dot are acquired from the central processing unit 10 and stored in the interactive part information storage section 62 in a table format of 7 rows and 7 columns as shown in FIG. When the identification numbers of the interactive parts existing at that position for all 49 dots have been acquired, the data is sent to the output information creating section 70. In FIG. 4A, the identification number of the window 200 is 1000, and 0 is the place where the interactive component does not exist.
This is an example of data stored in the dialog component information storage unit 62 when the data is filled in with.
【0028】出力情報生成部70では、例えば対話部品
の端をピンの凸で表現することに決めておき、画面情報
抽出・保持部60から送られてきたデータを基にして、
対話部品の端はそのままの値を保持し、それ以外を0と
するような処理を行う。図4(a)のデータに上記の処
理を施したものが図4(b)である。このデータは、触
覚ディスプレイ制御部80に送られる。In the output information generation unit 70, for example, it is decided that the end of the interactive component is represented by the convexity of the pin, and based on the data sent from the screen information extraction / holding unit 60,
The end of the interactive part retains the value as it is, and the other part is set to 0. FIG. 4B shows the data of FIG. 4A subjected to the above processing. This data is sent to the tactile display controller 80.
【0029】触覚ディスプレイ制御部80は、出力情報
生成部70から送られる図4(b)の形式のデータを参
照して、0以外の価が入っている場所に対応するピンを
突起させる。以上のような動作により触覚ディスプレイ
90の状態は図3(b)で示されるものとなり、現在位
置の右上方向に対話部品が存在することが触覚で理解で
きる。The tactile display control unit 80 refers to the data of the format shown in FIG. 4B sent from the output information generation unit 70, and causes the pin corresponding to the place having a value other than 0 to project. With the above operation, the state of the tactile display 90 becomes as shown in FIG. 3B, and it can be tactually understood that the interactive component exists in the upper right direction of the current position.
【0030】次に、本発明の第2の実施例について説明
する。Next, a second embodiment of the present invention will be described.
【0031】第2の実施例は、縦横の軸に沿った自由な
動きが可能な台により画面上の座標を指定し、さらにそ
の台の動きを制動装置により抑制することで、力覚フィ
ードバックやカーソルの水平・垂直移動を可能とする座
標指示装置の一例である。さらに駆動装置を設けること
により指定した位置への自動移動も可能になる。In the second embodiment, the coordinates on the screen are designated by a table which can freely move along the vertical and horizontal axes, and the movement of the table is suppressed by a braking device, so that force feedback and It is an example of a coordinate pointing device that enables horizontal and vertical movement of a cursor. Further, by providing a driving device, it is possible to automatically move to a designated position.
【0032】図2は、本発明の第2、第3の実施例によ
る座標指示装置の構成の一例を示すブロック図である。
図2において、中央処理装置10と、ビットマップディ
スプレイ20と、データ入力装置30とから成るグラフ
ィカル・ユーザ・インタフェースを有する対話型システ
ムと、縦横に移動可能な可動台160と、可動台160
の位置から画面上での絶対座標を計算して中央処理装置
10に出力する座標位置計算部170と、現在のカーソ
ル位置を抽出するカーソル位置検出部50と、カーソル
位置付近の画面情報を取得する画面情報抽出・保持部6
0と、現在のカーソル位置がどのような状態になってい
るかを調べる画面情報解析部100と、可動台160を
横方向に移動させるためのX軸方向駆動手段120と、
可動台160の横方向の動きを抑制するためのX軸方向
制動手段130と、可動台160を縦方向に移動させる
ためのY軸方向駆動手段140と、可動台160の縦方
向の動きを抑制するためのY軸方向制動手段150と、
X軸方向駆動手段120およびX軸方向制動手段13
0、Y軸方向駆動手段140、Y軸方向制動手段150
に可動台160の動きを制御する命令を出すための可動
台制御部110と、可動台160を指定の方向に移動さ
せるための入力手段180から構成される。FIG. 2 is a block diagram showing an example of the configuration of the coordinate pointing device according to the second and third embodiments of the present invention.
In FIG. 2, an interactive system having a graphical user interface including a central processing unit 10, a bitmap display 20, and a data input device 30, a movable base 160 that can move vertically and horizontally, and a movable base 160.
Coordinate position calculation unit 170 that calculates the absolute coordinates on the screen from the position of the current position and outputs it to the central processing unit 10, the cursor position detection unit 50 that extracts the current cursor position, and the screen information near the cursor position. Screen information extraction / holding unit 6
0, a screen information analysis unit 100 for checking what the current cursor position is, an X-axis direction driving means 120 for moving the movable base 160 in the lateral direction,
X-axis direction braking means 130 for suppressing the horizontal movement of the movable base 160, Y-axis direction driving means 140 for moving the movable base 160 in the vertical direction, and vertical movement of the movable base 160. Y-axis direction braking means 150 for
X-axis direction driving means 120 and X-axis direction braking means 13
0, Y-axis direction driving means 140, Y-axis direction braking means 150
The movable base controller 110 includes a movable base controller 110 for issuing a command to control the movement of the movable base 160, and an input unit 180 for moving the movable base 160 in a designated direction.
【0033】カーソル位置検出部50は、カーソルの移
動を検出するカーソル移動イベント監視部51と、現在
のカーソル座標を中央処理装置10から取得するカーソ
ル座標取得部52とから構成される。The cursor position detecting section 50 comprises a cursor movement event monitoring section 51 for detecting the movement of the cursor and a cursor coordinate acquisition section 52 for acquiring the current cursor coordinates from the central processing unit 10.
【0034】画面情報抽出・保持部60は、カーソル位
置検出部50で得られたカーソル位置に存在する対話部
品の情報を中央処理装置10から取得する対話部品情報
取得部61と、上記対話部品情報取得部61で取得した
対話部品情報を記憶しておく対話部品情報格納部62と
から構成される。The screen information extraction / holding unit 60 has an interactive component information acquisition unit 61 for obtaining from the central processing unit 10 information of the interactive component existing at the cursor position obtained by the cursor position detection unit 50, and the interactive component information. The interactive component information storage unit 62 stores the interactive component information acquired by the acquisition unit 61.
【0035】また、可動台160は、例えば、X−Yプ
ロッタのペンのように、決められた矩形範囲を縦横両軸
に沿って移動するなど、操作者によって縦横両軸に対し
て移動可能なものである。The movable base 160 can be moved by both vertical and horizontal axes by the operator, for example, by moving it along a vertical and horizontal axes within a predetermined rectangular range like a pen of an XY plotter. It is a thing.
【0036】まず、本実施例において力覚フィードバッ
クを実現する仕組みを、対話部品の端でブレーキをかけ
る場合を例にとって説明する。図6はグラフィカル・ユ
ーザ・インタフェースを有する対話システムにおけるビ
ットマップディスプレイ20の画面例である。画面上に
はグラフィカル・ユーザ・インタフェースにおける対話
部品の一つであるウィンドウ200とカーソル210が
存在しており、カーソル210はウィンドウ200の左
端にあるものとする。First, the mechanism for realizing the force feedback in this embodiment will be described by taking the case where the brake is applied at the end of the interactive component as an example. FIG. 6 is an example of a screen of the bitmap display 20 in the interactive system having the graphical user interface. It is assumed that the window 200 and the cursor 210, which are one of the interactive parts in the graphical user interface, are present on the screen, and the cursor 210 is at the left end of the window 200.
【0037】操作者が可動台160を移動させると、座
標位置計算部170が、可動台160の位置から画面上
での絶対座標を計算し中央処理装置10に伝える。中央
処理装置10は、ビットマップディスプレイ20上のカ
ーソルを動かすと同時に、カーソル移動イベントを発行
する。カーソル移動イベント監視部51はカーソル移動
イベントが発行されるのを常に監視しており、イベント
を検出するとその旨をカーソル座標取得部52に通知す
る。通知を受けたカーソル座標取得部52は、中央処理
装置10より現在のカーソル位置の座標を取得し、その
値を画面情報抽出・保持部60に知らせる。When the operator moves the movable base 160, the coordinate position calculation section 170 calculates the absolute coordinates on the screen from the position of the movable base 160 and sends it to the central processing unit 10. The central processing unit 10 moves the cursor on the bitmap display 20 and issues a cursor movement event at the same time. The cursor movement event monitoring unit 51 constantly monitors issuance of a cursor movement event, and when an event is detected, it notifies the cursor coordinate acquisition unit 52 of that fact. Upon receiving the notification, the cursor coordinate acquisition unit 52 acquires the coordinates of the current cursor position from the central processing unit 10 and notifies the screen information extraction / holding unit 60 of the value.
【0038】画面情報抽出・保持部60では、対話部品
情報取得部61が、現在のカーソル位置およびその上下
左右のドット位置に存在する対話部品の識別番号を中央
処理装置10から取得し、対話部品情報格納部62に記
憶させる。現在のカーソル位置およびその上下左右の5
ドットすべて処理し終えると対話部品情報格納部62に
記憶させたデータを画面情報解析部100へ送る。図7
(a)は対話部品情報格納部62に記憶されているデー
タの一例である。図7(a)は、データ形式が1行5列
のテーブル形式で、ウィンドウ200の識別番号が10
00、対話部品が存在しないところは0で埋めるものと
した場合の例で、今、カーソル210はウィンドウ20
0の左端にあり、よって左には対話部品が存在しないの
で図7(a)の右から二番目の左という欄は0となり、
カーソル210の位置そのものとカーソル210の上、
下および右はウィンドウ200の範囲内であるので、図
7(a)の左という欄以外は1000となる。In the screen information extraction / holding unit 60, the interactive component information acquisition unit 61 acquires from the central processing unit 10 the identification numbers of the interactive components existing at the current cursor position and the dot positions at the upper, lower, left and right thereof, and the interactive component is acquired. The information is stored in the information storage unit 62. 5 at the current cursor position and its up / down / left / right
When all the dots have been processed, the data stored in the interactive component information storage unit 62 is sent to the screen information analysis unit 100. Figure 7
(A) is an example of data stored in the dialogue component information storage unit 62. In FIG. 7A, the data format is a table format with 1 row and 5 columns, and the identification number of the window 200 is 10
00, where there is no interaction component is filled with 0. Now, the cursor 210 is the window 20
Since it is at the left end of 0, and there is no interactive component on the left, the second column from the right on the left in FIG. 7A is 0,
The position of the cursor 210 itself and the cursor 210
Since the lower and right sides are within the range of the window 200, the numbers other than the left column in FIG.
【0039】画面情報解析部100は、カーソル位置と
上下左右のドット位置の対話部品識別番号を比較してそ
の差の絶対値を保持し可動台制御部110に送る。図7
(b)は、図7(a)のデータを上記の処理をした場合
の結果である。The screen information analysis unit 100 compares the interactive component identification numbers of the cursor position and the dot positions of the upper, lower, left and right sides and holds the absolute value of the difference and sends it to the movable base control unit 110. Figure 7
FIG. 7B shows the result when the above processing is performed on the data of FIG.
【0040】可動台制御部110では、上下左右のドッ
ト位置の対話部品識別番号を調べ、上下いずれかが0で
ない場合はX軸方向制動手段130に、左右いずれかが
0でない場合はY軸方向制動手段150に指示を出し可
動台160の動きを抑制する。図6の例の場合は、左が
値を持つのでX軸方向制動手段130を動作させ、横方
向に可動台160を動かすと、ブレーキがかかり対話部
品の境界であることが画面を見ずに理解できる。The movable platform control unit 110 checks the interactive part identification numbers at the upper, lower, left and right dot positions, and if either the upper or lower is not 0, the X-axis direction braking means 130 is used. An instruction is given to the braking means 150 to suppress the movement of the movable base 160. In the case of the example in FIG. 6, the value on the left has a value. Therefore, when the X-axis direction braking means 130 is operated and the movable base 160 is moved in the horizontal direction, the brake is applied and it is the boundary of the interactive parts without looking at the screen. Understandable.
【0041】なお、本発明は上記の例だけに限定される
ものではない。例えば、ブレーキではなく、もう少し弱
い力で制動することにより、対話部品の境界で一瞬止ま
る感じを与えるなど、力のフィードバック全般に適用可
能である。また、対話部品の境界だけではなく、対話部
品の中央にカーソルを移動させたときに力覚フィードバ
ックを与えるなどでもよい。さらに、駆動装置を備えて
いるため、ブレーキではなく上記の図6の状態で左方向
に強制的に可動台を移動させることにより、ウィンドウ
内へのカーソルの進入を禁止するなどといった応用も可
能である。The present invention is not limited to the above example. For example, the present invention can be applied to force feedback in general, such as giving a feeling of stopping for a moment at the boundary of dialogue parts by braking with a slightly weaker force instead of braking. Further, force feedback may be given when the cursor is moved not only to the boundary of the interactive component but also to the center of the interactive component. Furthermore, since it is equipped with a drive device, it is possible to apply the function such as prohibiting the cursor from entering the window by forcibly moving the movable table to the left in the state shown in FIG. 6 instead of the brake. is there.
【0042】次に、第3の実施例について説明する。Next, a third embodiment will be described.
【0043】第3の実施例は、第2の実施例で挙げた構
成に、可動台160を操作者の指定した方向に移動させ
る入力手段180を加えたものである。In the third embodiment, an input means 180 for moving the movable base 160 in the direction designated by the operator is added to the structure described in the second embodiment.
【0044】ここで、操作者が画面に沿って水平または
垂直にカーソルを移動させたい場合について説明する。
この場合、操作者は可動台160を動かす前に、入力手
段180により水平または垂直にカーソルを動かしたい
旨を可動台制御部110に伝える。Here, a case where the operator wants to move the cursor horizontally or vertically along the screen will be described.
In this case, the operator informs the movable table control unit 110 that he wants to move the cursor horizontally or vertically by the input means 180 before moving the movable table 160.
【0045】可動台制御部110は、水平移動が指定さ
れた場合はY軸方向制動手段150に、垂直移動が指定
された場合はX軸方向制動手段130に指示を出し、他
の方向に可動台160が移動しないようにすることで画
面に沿ってまっすぐにカーソルを移動させることが可能
となり、かつ手の動きも正しくカーソルの動きと対応し
ている。The movable platform control unit 110 issues an instruction to the Y-axis direction braking means 150 when the horizontal movement is designated, and to the X-axis direction braking means 130 when the vertical movement is designated to move in another direction. By preventing the base 160 from moving, it is possible to move the cursor straight along the screen, and the movement of the hand also corresponds to the movement of the cursor.
【0046】また、本実施例は、X軸方向駆動手段12
0、Y軸方向駆動手段140を有しており、入力手段1
80により移動したい座標を指定すると自動的に移動さ
せることも可能である。Further, in this embodiment, the X-axis direction driving means 12 is used.
0, Y-axis direction drive means 140, and input means 1
If the coordinates to be moved are designated by 80, the coordinates can be automatically moved.
【0047】[0047]
【発明の効果】以上説明したとおり、本発明によればカ
ーソル付近の情報を触覚で確認できるため、視覚への負
担がこれまで以上に軽減される。As described above, according to the present invention, the information near the cursor can be confirmed by tactile sensation, so that the burden on the eyes can be reduced more than ever.
【0048】また、力覚フィードバックやカーソルの水
平・垂直移動を容易に行う機能を直接ポインティング型
の座標指示装置で実現したことで、手の動きと画面上で
のカーソルの動きの整合性が取れ、より直感的な操作が
可能になる。さらに、間接ポインティング型の座標指示
装置の利用が困難な視覚障害者などにも利用可能とな
る。Further, since the function of easily performing the force feedback and the horizontal / vertical movement of the cursor is realized by the direct pointing type coordinate pointing device, the hand movement and the cursor movement on the screen can be matched. , More intuitive operation becomes possible. Further, it can be used for visually impaired persons who have difficulty in using the indirect pointing type coordinate pointing device.
【図1】本発明の第1の実施例による座標指示装置の構
成の一例を示すブロック図。FIG. 1 is a block diagram showing an example of the configuration of a coordinate pointing device according to a first embodiment of the present invention.
【図2】本発明の第2、第3の実施例による座標指示装
置の構成の一例を示すブロック図。FIG. 2 is a block diagram showing an example of a configuration of a coordinate pointing device according to second and third embodiments of the present invention.
【図3】第1の実施例のディスプレイの表示の一例を示
す図。FIG. 3 is a diagram showing an example of a display on the display of the first embodiment.
【図4】第1の実施例の対話情報格納部で格納するデー
タの構造の例を示す図。FIG. 4 is a diagram showing an example of a structure of data stored in a dialogue information storage unit of the first embodiment.
【図5】第1の実施例の触覚ディスプレイであるピンデ
ィスプレイの構成の例を示す図。FIG. 5 is a diagram showing an example of the configuration of a pin display which is the tactile display of the first embodiment.
【図6】第2、第3の実施例の対話型システムが表示す
る画面の例を示す図。FIG. 6 is a diagram showing an example of a screen displayed by the interactive system according to the second and third embodiments.
【図7】第2、第3の実施例の対話情報格納部で格納す
るデータの構造の例を示す図。FIG. 7 is a diagram showing an example of a structure of data stored in a dialogue information storage unit of the second and third embodiments.
【図8】従来技術の構成を示すブロック図。FIG. 8 is a block diagram showing a configuration of a conventional technique.
10 中央処理装置 20 ビットマップディスプレイ 30 データ入力装置 40 位置検出部 50 カーソル位置検出部 51 カーソル移動イベント監視部 52 カーソル座標取得部 60 画面情報抽出・保持部 61 対話部品情報取得部 62 対話部品情報格納部 70 出力情報生成部 80 触覚ディスプレイ制御部 90 触覚ディスプレイ 100 画面情報解析部 110 可動台制御部 120 X軸方向駆動手段 130 X軸方向制動手段 140 Y軸方向駆動手段 150 Y軸方向制動手段 160 可動台 170 座標位置計算部 180 入力手段 200 ウィンドウ 210 カーソル 300 タッチパネル 310 ピンディスプレイ 320 ピン 400 ポインティング装置 410 カーソル制御部 420 触覚反応制御部 430 アクチュエータ 440 指定領域データテーブル 500 中央処理装置 510 ポインティング装置 520 カーソル制御部 530 ディスプレイ 540 入力手段 10 central processing unit 20 bitmap display 30 data input device 40 position detection unit 50 cursor position detection unit 51 cursor movement event monitoring unit 52 cursor coordinate acquisition unit 60 screen information extraction / holding unit 61 interaction component information acquisition unit 62 interaction component information storage Part 70 Output information generation part 80 Tactile display control part 90 Tactile display 100 Screen information analysis part 110 Movable platform control part 120 X-axis direction driving means 130 X-axis direction braking means 140 Y-axis direction driving means 150 Y-axis direction braking means 160 Movable Platform 170 Coordinate position calculation unit 180 Input means 200 Window 210 Cursor 300 Touch panel 310 Pin display 320 Pin 400 Pointing device 410 Cursor control unit 420 Tactile reaction control unit 430 Actuator 440 Constant region data table 500 central processing unit 510 pointing device 520 cursor control unit 530 display 540 input means
Claims (8)
有する対話型システムで用いられる座標指示方法におい
て、前記グラフィカル・ユーザ・インタフェースの画面
上を移動するカーソルの座標を検出し、前記カーソル付
近の画面情報をユーザに対し触覚で表現して前記カーソ
ルの指示操作を行うことを特徴とする座標指示方法。1. A coordinate pointing method used in an interactive system having a graphical user interface, wherein coordinates of a cursor moving on a screen of the graphical user interface are detected, and screen information near the cursor is displayed by a user. The coordinate pointing method is characterized in that the pointing operation of the cursor is performed by tactually expressing.
有する対話型システムで用いられる座標指示装置におい
て、 前記グラフィカル・ユーザ・インタフェースの画面上を
移動するカーソルの座標を検出するカーソル位置検出部
と、 前記カーソルの座標付近の画面情報を取得し、記憶する
画面情報抽出・保持部と、 ユーザに対して前記画面情報を触覚で表現し、前記カー
ソルの指示操作を行う触覚ディスプレイとを有すること
を特徴とする座標指示装置。2. A coordinate pointing device used in an interactive system having a graphical user interface, comprising: a cursor position detecting unit for detecting coordinates of a cursor moving on a screen of the graphical user interface; Coordinates including a screen information extracting / holding unit that acquires and stores screen information near the coordinates, and a tactile display that expresses the screen information to the user as a tactile sensation and performs a pointing operation of the cursor. Pointing device.
有する対話型システムで用いられる座標指示装置におい
て、 前記グラフィカル・ユーザ・インタフェースの画面上を
移動するカーソルの座標を検出するカーソル位置検出部
と、 前記カーソル位置検出部で取得した前記カーソルの座標
付近の画面情報を取得し、記憶する画面情報抽出・保持
部と、 ユーザに対して前記画面情報を触覚で表現し、前記カー
ソルの指示操作を行う触覚ディスプレイと、 前記画面情報を前記触覚ディスプレイに表現するための
形式に変換する出力情報生成部と、 前記出力情報生成部からの情報をもとに前記触覚ディス
プレイを制御する触覚ディスプレイ制御部と、 前記触覚ディスプレイの位置を検出して前記対話型シス
テムに出力する位置検出部とを有することを特徴とする
座標指示装置。3. A coordinate pointing device used in an interactive system having a graphical user interface, the cursor position detecting section detecting a coordinate of a cursor moving on a screen of the graphical user interface, and the cursor position. A screen information extracting / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the detection unit; and a tactile display that expresses the screen information to the user by tactile sensation and performs an instruction operation of the cursor. An output information generating unit that converts the screen information into a format for expressing the screen information on the tactile display; a tactile display control unit that controls the tactile display based on information from the output information generating unit; A position detection unit that detects the position of the DOO coordinate pointing device according to claim.
有する対話型システムで用いられる座標指示装置におい
て、 前記グラフィカル・ユーザ・インタフェースの画面上を
移動するカーソルの座標を検出するカーソル位置検出部
と、 前記カーソル位置検出部で取得した前記カーソルの座標
付近の画面情報を取得し、記憶する画面情報抽出・保持
部と、 前記画面情報からカーソルの座標位置の画面状態を解析
する画面情報解析部と、 縦横両軸に移動可能で、前記カーソルの指示操作を行う
可動台と、 前記可動台を横方向に移動させるためのX軸方向駆動手
段と、 前記可動台の横方向の動きを抑制するためのX軸方向制
動手段と、 前記可動台を縦方向に移動させるためのY軸方向駆動手
段と、 前記可動台の縦方向の動きを抑制するためのY軸方向制
動手段と、 前記X軸方向駆動手段および前記X軸方向制動手段、前
記Y軸方向駆動手段、前記Y軸方向制動手段に、前記可
動台の動きを前記画面情報解析部で解析した画面状態に
応じて制御する命令を出すための可動台制御部と、 前記可動台の位置を検出して前記対話型システムに出力
する座標位置計算部とを有することを特徴とする座標指
示装置。4. A coordinate pointing device used in an interactive system having a graphical user interface, the cursor position detecting unit detecting a coordinate of a cursor moving on a screen of the graphical user interface, and the cursor position. Screen information extraction / holding unit that acquires and stores screen information near the coordinates of the cursor acquired by the detection unit, a screen information analysis unit that analyzes the screen state of the coordinate position of the cursor from the screen information, and both vertical and horizontal axes And a movable base that is movable to the cursor and performs an instruction operation of the cursor, an X-axis direction driving unit that laterally moves the movable base, and an X-axis direction that suppresses lateral movement of the movable base. Braking means, Y-axis direction driving means for moving the movable table in the vertical direction, and Y for suppressing the vertical movement of the movable table. A screen state obtained by analyzing the movement of the movable table by the screen information analysis unit in the direction braking means, the X axis direction driving means, the X axis direction braking means, the Y axis direction driving means, and the Y axis direction braking means. And a coordinate position calculation unit for detecting the position of the movable table and outputting the position to the interactive system.
ための入力手段を備え、 前記可動台制御部が前記入力手段からの指示に従って、
前記X軸方向駆動手段、前記X軸方向制動手段、前記Y
軸方向駆動手段、前記Y軸方向制動手段に前記可動台の
動きを制御する命令を出すことを特徴とする請求項4に
記載の座標指示装置。5. An input means for an operator to specify a moving direction of the movable table is provided, and the movable table control section follows an instruction from the input means.
The X-axis direction driving means, the X-axis direction braking means, the Y
The coordinate pointing device according to claim 4, wherein a command for controlling the movement of the movable table is issued to the axial driving means and the Y-axis braking means.
たことを特徴とする請求項2または3に記載した座標指
示装置。6. The coordinate pointing device according to claim 2, wherein, in the tactile display, a pin display is used to express the screen information in a tactile sense.
視部と、 現在のカーソル座標を前記中央処理装置より取得するカ
ーソル座標取得部とから構成されることを特徴とする請
求項2、3、4、5または6に記載の座標指示装置。7. The cursor position detection unit includes a cursor movement event monitoring unit that detects movement of the cursor, and a cursor coordinate acquisition unit that acquires current cursor coordinates from the central processing unit. The coordinate pointing device according to claim 2, 3, 4, 5, or 6.
付近に存在する対話部品の情報を前記中央処理装置から
取得する対話部品情報取得部と、 前記対話部品情報取得部で抽出された対話部品の情報を
記憶する対話部品情報格納部とから構成されることを特
徴とする請求項2、3、4、5、6または7に記載の座
標指示装置。8. A dialogue component information acquisition unit, wherein the screen information extraction / holding unit obtains, from the central processing unit, dialogue component information existing near the coordinates of the cursor obtained by the cursor position detection unit, 8. The coordinate instruction according to claim 2, further comprising an interactive component information storage unit that stores information on the interactive component extracted by the interactive component information acquisition unit. apparatus.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30083894A JP3236180B2 (en) | 1994-12-05 | 1994-12-05 | Coordinate pointing device |
US08/567,468 US5714978A (en) | 1994-12-05 | 1995-12-05 | Adjacent cursor system with tactile feedback for the blind |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30083894A JP3236180B2 (en) | 1994-12-05 | 1994-12-05 | Coordinate pointing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08161117A true JPH08161117A (en) | 1996-06-21 |
JP3236180B2 JP3236180B2 (en) | 2001-12-10 |
Family
ID=17889727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30083894A Expired - Fee Related JP3236180B2 (en) | 1994-12-05 | 1994-12-05 | Coordinate pointing device |
Country Status (2)
Country | Link |
---|---|
US (1) | US5714978A (en) |
JP (1) | JP3236180B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1021803A1 (en) * | 1997-01-09 | 2000-07-26 | Virtouch Ltd. | Mouse-like input/output device with display screen and method for its use |
JP2003502699A (en) * | 1999-06-14 | 2003-01-21 | ヴィアタッチ リミテッド | Haptic interface system for electronic data display system |
KR100556539B1 (en) * | 2002-04-22 | 2006-03-06 | 후지제롯쿠스 가부시끼가이샤 | Information processing system and information processing method |
JP2009519542A (en) * | 2005-12-12 | 2009-05-14 | マイクロソフト コーポレーション | Alternative graphics pipe |
Families Citing this family (121)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5889670A (en) | 1991-10-24 | 1999-03-30 | Immersion Corporation | Method and apparatus for tactilely responsive user interface |
US6131097A (en) * | 1992-12-02 | 2000-10-10 | Immersion Corporation | Haptic authoring |
US6433771B1 (en) | 1992-12-02 | 2002-08-13 | Cybernet Haptic Systems Corporation | Haptic device attribute control |
US5734373A (en) * | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
US5805140A (en) | 1993-07-16 | 1998-09-08 | Immersion Corporation | High bandwidth force feedback interface using voice coils and flexures |
US6437771B1 (en) * | 1995-01-18 | 2002-08-20 | Immersion Corporation | Force feedback device including flexure member between actuator and user object |
US6057828A (en) * | 1993-07-16 | 2000-05-02 | Immersion Corporation | Method and apparatus for providing force sensations in virtual environments in accordance with host software |
US20030040361A1 (en) * | 1994-09-21 | 2003-02-27 | Craig Thorner | Method and apparatus for generating tactile feedback via relatively low-burden and/or zero burden telemetry |
US5666138A (en) | 1994-11-22 | 1997-09-09 | Culver; Craig F. | Interface control |
US5691898A (en) * | 1995-09-27 | 1997-11-25 | Immersion Human Interface Corp. | Safe and low cost computer peripherals with force feedback for consumer applications |
US6166723A (en) * | 1995-11-17 | 2000-12-26 | Immersion Corporation | Mouse interface device providing force feedback |
US5999168A (en) | 1995-09-27 | 1999-12-07 | Immersion Corporation | Haptic accelerator for force feedback computer peripherals |
US5754023A (en) | 1995-10-26 | 1998-05-19 | Cybernet Systems Corporation | Gyro-stabilized platforms for force-feedback applications |
US5825308A (en) | 1996-11-26 | 1998-10-20 | Immersion Human Interface Corporation | Force feedback interface having isotonic and isometric functionality |
US6639581B1 (en) | 1995-11-17 | 2003-10-28 | Immersion Corporation | Flexure mechanism for interface device |
US6704001B1 (en) | 1995-11-17 | 2004-03-09 | Immersion Corporation | Force feedback device including actuator with moving magnet |
US6100874A (en) * | 1995-11-17 | 2000-08-08 | Immersion Corporation | Force feedback mouse interface |
US6061004A (en) * | 1995-11-26 | 2000-05-09 | Immersion Corporation | Providing force feedback using an interface device including an indexing function |
EP0864145A4 (en) | 1995-11-30 | 1998-12-16 | Virtual Technologies Inc | Tactile feedback man-machine interface device |
US6147674A (en) * | 1995-12-01 | 2000-11-14 | Immersion Corporation | Method and apparatus for designing force sensations in force feedback computer applications |
US6169540B1 (en) | 1995-12-01 | 2001-01-02 | Immersion Corporation | Method and apparatus for designing force sensations in force feedback applications |
US7027032B2 (en) * | 1995-12-01 | 2006-04-11 | Immersion Corporation | Designing force sensations for force feedback computer applications |
US8508469B1 (en) | 1995-12-01 | 2013-08-13 | Immersion Corporation | Networked applications including haptic feedback |
US6219032B1 (en) * | 1995-12-01 | 2001-04-17 | Immersion Corporation | Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface |
US6028593A (en) | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US6161126A (en) * | 1995-12-13 | 2000-12-12 | Immersion Corporation | Implementing force feedback over the World Wide Web and other computer networks |
US6078308A (en) * | 1995-12-13 | 2000-06-20 | Immersion Corporation | Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object |
US6300936B1 (en) | 1997-11-14 | 2001-10-09 | Immersion Corporation | Force feedback system including multi-tasking graphical host environment and interface device |
SE519661C2 (en) * | 1996-02-23 | 2003-03-25 | Immersion Corp | Pointing devices and method for marking graphic details on a display with sensory feedback upon finding said detail |
US6374255B1 (en) | 1996-05-21 | 2002-04-16 | Immersion Corporation | Haptic authoring |
US6125385A (en) * | 1996-08-01 | 2000-09-26 | Immersion Corporation | Force feedback implementation in web pages |
GB9622556D0 (en) * | 1996-10-30 | 1997-01-08 | Philips Electronics Nv | Cursor control with user feedback mechanism |
US6411276B1 (en) | 1996-11-13 | 2002-06-25 | Immersion Corporation | Hybrid control of haptic feedback for host computer and interface device |
US6686911B1 (en) * | 1996-11-26 | 2004-02-03 | Immersion Corporation | Control knob with control modes and force feedback |
US6154201A (en) * | 1996-11-26 | 2000-11-28 | Immersion Corporation | Control knob with multiple degrees of freedom and force feedback |
US6128006A (en) * | 1998-03-26 | 2000-10-03 | Immersion Corporation | Force feedback mouse wheel and other control wheels |
US7489309B2 (en) * | 1996-11-26 | 2009-02-10 | Immersion Corporation | Control knob with multiple degrees of freedom and force feedback |
US5973670A (en) * | 1996-12-31 | 1999-10-26 | International Business Machines Corporation | Tactile feedback controller for computer cursor control device |
US6762749B1 (en) | 1997-01-09 | 2004-07-13 | Virtouch Ltd. | Tactile interface system for electronic data display system |
US6020876A (en) * | 1997-04-14 | 2000-02-01 | Immersion Corporation | Force feedback interface with selective disturbance filter |
US6285351B1 (en) | 1997-04-25 | 2001-09-04 | Immersion Corporation | Designing force sensations for computer applications including sounds |
US6292170B1 (en) | 1997-04-25 | 2001-09-18 | Immersion Corporation | Designing compound force sensations for computer applications |
US6252579B1 (en) | 1997-08-23 | 2001-06-26 | Immersion Corporation | Interface device and method for providing enhanced cursor control with force feedback |
US6292174B1 (en) | 1997-08-23 | 2001-09-18 | Immersion Corporation | Enhanced cursor control using limited-workspace force feedback devices |
US6281651B1 (en) | 1997-11-03 | 2001-08-28 | Immersion Corporation | Haptic pointing devices |
US6243078B1 (en) | 1998-06-23 | 2001-06-05 | Immersion Corporation | Pointing device with forced feedback button |
US6211861B1 (en) | 1998-06-23 | 2001-04-03 | Immersion Corporation | Tactile mouse device |
US6088019A (en) * | 1998-06-23 | 2000-07-11 | Immersion Corporation | Low cost force feedback device with actuator for non-primary axis |
US6252583B1 (en) | 1997-11-14 | 2001-06-26 | Immersion Corporation | Memory and force output management for a force feedback system |
US6448977B1 (en) | 1997-11-14 | 2002-09-10 | Immersion Corporation | Textures and other spatial sensations for a relative haptic interface device |
US6437770B1 (en) | 1998-01-26 | 2002-08-20 | University Of Washington | Flat-coil actuator having coil embedded in linkage |
US6219034B1 (en) * | 1998-02-23 | 2001-04-17 | Kristofer E. Elbing | Tactile computer interface |
US20080055241A1 (en) * | 1998-03-26 | 2008-03-06 | Immersion Corporation | Systems and Methods for Haptic Feedback Effects for Control Knobs |
US6067077A (en) | 1998-04-10 | 2000-05-23 | Immersion Corporation | Position sensing for force feedback devices |
US6128671A (en) * | 1998-05-18 | 2000-10-03 | F.J. Tieman B.V. | Tactile feel device having a plurality of pins that allow a user to read information from the pins and make selection by depressing the pins |
US6429846B2 (en) * | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US6697043B1 (en) | 1999-12-21 | 2004-02-24 | Immersion Corporation | Haptic interface device and actuator assembly providing linear haptic sensations |
US6707443B2 (en) | 1998-06-23 | 2004-03-16 | Immersion Corporation | Haptic trackball device |
US6184868B1 (en) | 1998-09-17 | 2001-02-06 | Immersion Corp. | Haptic feedback control devices |
US7038667B1 (en) | 1998-10-26 | 2006-05-02 | Immersion Corporation | Mechanisms for control knobs and other interface devices |
US8169402B2 (en) * | 1999-07-01 | 2012-05-01 | Immersion Corporation | Vibrotactile haptic feedback devices |
US7561142B2 (en) * | 1999-07-01 | 2009-07-14 | Immersion Corporation | Vibrotactile haptic feedback devices |
US6693622B1 (en) | 1999-07-01 | 2004-02-17 | Immersion Corporation | Vibrotactile haptic feedback devices |
DE20022244U1 (en) * | 1999-07-01 | 2001-11-08 | Immersion Corp | Control of vibrotactile sensations for haptic feedback devices |
DE20080209U1 (en) * | 1999-09-28 | 2001-08-09 | Immersion Corp | Control of haptic sensations for interface devices with vibrotactile feedback |
US6693626B1 (en) | 1999-12-07 | 2004-02-17 | Immersion Corporation | Haptic feedback using a keyboard device |
US6976215B1 (en) * | 1999-12-20 | 2005-12-13 | Vulcan Patents Llc | Pushbutton user interface with functionality preview |
US6822635B2 (en) * | 2000-01-19 | 2004-11-23 | Immersion Corporation | Haptic interface for laptop computers and other portable devices |
US6445284B1 (en) | 2000-05-10 | 2002-09-03 | Juan Manuel Cruz-Hernandez | Electro-mechanical transducer suitable for tactile display and article conveyance |
US6906697B2 (en) | 2000-08-11 | 2005-06-14 | Immersion Corporation | Haptic sensations for tactile feedback interface devices |
AU2001294852A1 (en) * | 2000-09-28 | 2002-04-08 | Immersion Corporation | Directional tactile feedback for haptic feedback interface devices |
US7182691B1 (en) | 2000-09-28 | 2007-02-27 | Immersion Corporation | Directional inertial tactile feedback using rotating masses |
US6995744B1 (en) | 2000-09-28 | 2006-02-07 | Immersion Corporation | Device and assembly for providing linear tactile sensations |
US7084854B1 (en) * | 2000-09-28 | 2006-08-01 | Immersion Corporation | Actuator for providing tactile sensations and device for directional tactile sensations |
IL151213A0 (en) * | 2000-12-15 | 2003-04-10 | Finger System Inc | Pen type optical mouse device and method of controlling the same |
EP1377955A2 (en) * | 2001-03-15 | 2004-01-07 | International Business Machines Corporation | Method and system for accessing interactive multimedia information or services from braille documents |
US9625905B2 (en) * | 2001-03-30 | 2017-04-18 | Immersion Corporation | Haptic remote control for toys |
US6636202B2 (en) * | 2001-04-27 | 2003-10-21 | International Business Machines Corporation | Interactive tactile display for computer screen |
US7202851B2 (en) * | 2001-05-04 | 2007-04-10 | Immersion Medical Inc. | Haptic interface for palpation simulation |
US7730401B2 (en) * | 2001-05-16 | 2010-06-01 | Synaptics Incorporated | Touch screen with user interface enhancement |
WO2003025886A1 (en) * | 2001-09-18 | 2003-03-27 | Research Foundation Of The City University Of New York | Tactile graphic-based interactive overlay assembly and computer system for the visually impaired |
US7379053B2 (en) * | 2001-10-27 | 2008-05-27 | Vortant Technologies, Llc | Computer interface for navigating graphical user interface by touch |
US7161580B2 (en) * | 2002-04-25 | 2007-01-09 | Immersion Corporation | Haptic feedback using rotary harmonic moving mass |
US7369115B2 (en) * | 2002-04-25 | 2008-05-06 | Immersion Corporation | Haptic devices having multiple operational modes including at least one resonant mode |
US20030234763A1 (en) * | 2002-06-24 | 2003-12-25 | Xerox Corporation | System and method for audible feedback for touch screen displays |
US6999066B2 (en) * | 2002-06-24 | 2006-02-14 | Xerox Corporation | System for audible feedback for touch screen displays |
US20040040800A1 (en) * | 2002-07-31 | 2004-03-04 | George Anastas | System and method for providing passive haptic feedback |
US20040051746A1 (en) * | 2002-09-13 | 2004-03-18 | Xerox Corporation | Embedded control panel for multi-function equipment |
US7176898B2 (en) | 2002-09-13 | 2007-02-13 | Xerox Corporation | Removable control panel for multi-function equipment |
GB2414319A (en) | 2002-12-08 | 2005-11-23 | Immersion Corp | Methods and systems for providing haptic messaging to handheld communication devices |
US8830161B2 (en) | 2002-12-08 | 2014-09-09 | Immersion Corporation | Methods and systems for providing a virtual touch haptic effect to handheld communication devices |
US8059088B2 (en) * | 2002-12-08 | 2011-11-15 | Immersion Corporation | Methods and systems for providing haptic messaging to handheld communication devices |
EP1429307B1 (en) * | 2002-12-10 | 2005-06-22 | Askk Co.,Ltd. | Rotating braille display device |
US7523391B1 (en) * | 2003-03-25 | 2009-04-21 | Microsoft Corporation | Indicating change to data form |
JP3856774B2 (en) | 2003-08-29 | 2006-12-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Audio output device, information input device, file selection device, telephone, program thereof and recording medium |
US7283120B2 (en) | 2004-01-16 | 2007-10-16 | Immersion Corporation | Method and apparatus for providing haptic feedback having a position-based component and a predetermined time-based component |
US7522152B2 (en) * | 2004-05-27 | 2009-04-21 | Immersion Corporation | Products and processes for providing haptic feedback in resistive interface devices |
FR2871276B1 (en) * | 2004-06-04 | 2009-02-06 | France Telecom | SYSTEM AND METHOD FOR ASSISTING LEARNING OF GEOMETRY |
US7198137B2 (en) * | 2004-07-29 | 2007-04-03 | Immersion Corporation | Systems and methods for providing haptic feedback with position sensing |
US8441433B2 (en) * | 2004-08-11 | 2013-05-14 | Immersion Corporation | Systems and methods for providing friction in a haptic feedback device |
US9495009B2 (en) | 2004-08-20 | 2016-11-15 | Immersion Corporation | Systems and methods for providing haptic effects |
US8013847B2 (en) * | 2004-08-24 | 2011-09-06 | Immersion Corporation | Magnetic actuator for providing haptic feedback |
US8803796B2 (en) | 2004-08-26 | 2014-08-12 | Immersion Corporation | Products and processes for providing haptic feedback in a user interface |
US8002089B2 (en) * | 2004-09-10 | 2011-08-23 | Immersion Corporation | Systems and methods for providing a haptic device |
US9046922B2 (en) * | 2004-09-20 | 2015-06-02 | Immersion Corporation | Products and processes for providing multimodal feedback in a user interface device |
US7764268B2 (en) * | 2004-09-24 | 2010-07-27 | Immersion Corporation | Systems and methods for providing a haptic device |
CN101107587B (en) * | 2005-01-14 | 2013-03-13 | 皇家飞利浦电子股份有限公司 | Moving objects presented by a touch input display device |
ITMI20051043A1 (en) * | 2005-06-06 | 2006-12-07 | Milano Politecnico | "SYSTEM AND METHOD FOR THE EXPLORATION OF GRAPHIC ITEMS FOR USERS". |
ITRM20060059A1 (en) * | 2006-02-06 | 2007-08-07 | Mediavoice S R L | CONTROL DEVICE FOR A GRAPHIC POINTER ON A WORK AREA OF A SCREEN OF IN PROCESSOR |
US8201090B2 (en) * | 2007-11-13 | 2012-06-12 | The Board Of Trustees Of The University Of Arkansas | User interface for software applications |
US8004501B2 (en) | 2008-01-21 | 2011-08-23 | Sony Computer Entertainment America Llc | Hand-held device with touchscreen and digital tactile pixels |
US20100013613A1 (en) * | 2008-07-08 | 2010-01-21 | Jonathan Samuel Weston | Haptic feedback projection system |
US8564555B2 (en) * | 2009-04-30 | 2013-10-22 | Synaptics Incorporated | Operating a touch screen control system according to a plurality of rule sets |
US9035784B2 (en) * | 2009-10-30 | 2015-05-19 | Joseph Maanuel Garcia | Clock(s) as a seismic wave receiver |
US8542105B2 (en) | 2009-11-24 | 2013-09-24 | Immersion Corporation | Handheld computer interface with haptic feedback |
US20110148436A1 (en) * | 2009-12-18 | 2011-06-23 | Synaptics Incorporated | System and method for determining a number of objects in a capacitive sensing region using signal grouping |
US20110148438A1 (en) * | 2009-12-18 | 2011-06-23 | Synaptics Incorporated | System and method for determining a number of objects in a capacitive sensing region using a shape factor |
US9582178B2 (en) | 2011-11-07 | 2017-02-28 | Immersion Corporation | Systems and methods for multi-pressure interaction on touch-sensitive surfaces |
US9245428B2 (en) | 2012-08-02 | 2016-01-26 | Immersion Corporation | Systems and methods for haptic remote control gaming |
US10101829B2 (en) * | 2014-06-11 | 2018-10-16 | Optelec Holding B.V. | Braille display system |
US10175882B2 (en) * | 2014-07-31 | 2019-01-08 | Technologies Humanware Inc. | Dynamic calibrating of a touch-screen-implemented virtual braille keyboard |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60198626A (en) * | 1984-03-22 | 1985-10-08 | Sony Corp | Information input and output device |
JPS61240317A (en) * | 1985-04-17 | 1986-10-25 | Matsushita Electric Ind Co Ltd | Simple input device |
JPS6411571A (en) * | 1987-07-07 | 1989-01-17 | Canon Kk | Image converting apparatus |
JPH05313820A (en) * | 1992-09-09 | 1993-11-26 | Yamaha Corp | Information input device |
JPH0619611A (en) * | 1992-06-30 | 1994-01-28 | Canon Inc | Information processor |
JPH0637928U (en) * | 1992-10-21 | 1994-05-20 | 豊 打田 | Flat mouse |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3395247A (en) * | 1965-04-13 | 1968-07-30 | Portter Instr Company Inc | Reading machine for the blind |
US4644339A (en) * | 1983-03-02 | 1987-02-17 | Ruder Donald J | Low vision adapter for display terminals |
JPH01260523A (en) * | 1988-04-12 | 1989-10-17 | Nec Corp | Mouse |
US5165897A (en) * | 1990-08-10 | 1992-11-24 | Tini Alloy Company | Programmable tactile stimulator array system and method of operation |
JPH04286015A (en) * | 1991-03-15 | 1992-10-12 | Fujitsu Ltd | Position instruction system using mouse |
US5185561A (en) * | 1991-07-23 | 1993-02-09 | Digital Equipment Corporation | Torque motor as a tactile feedback device in a computer system |
US5223828A (en) * | 1991-08-19 | 1993-06-29 | International Business Machines Corporation | Method and system for enabling a blind computer user to handle message boxes in a graphical user interface |
US5287102A (en) * | 1991-12-20 | 1994-02-15 | International Business Machines Corporation | Method and system for enabling a blind computer user to locate icons in a graphical user interface |
JP3086069B2 (en) * | 1992-06-16 | 2000-09-11 | キヤノン株式会社 | Information processing device for the disabled |
US5453012A (en) * | 1992-09-30 | 1995-09-26 | Robotron Pty Ltd | Braille display |
US5412189A (en) * | 1992-12-21 | 1995-05-02 | International Business Machines Corporation | Touch screen apparatus with tactile information |
DE4406668C2 (en) * | 1993-04-27 | 1996-09-12 | Hewlett Packard Co | Method and device for operating a touch-sensitive display device |
US5429140A (en) * | 1993-06-04 | 1995-07-04 | Greenleaf Medical Systems, Inc. | Integrated virtual reality rehabilitation system |
-
1994
- 1994-12-05 JP JP30083894A patent/JP3236180B2/en not_active Expired - Fee Related
-
1995
- 1995-12-05 US US08/567,468 patent/US5714978A/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60198626A (en) * | 1984-03-22 | 1985-10-08 | Sony Corp | Information input and output device |
JPS61240317A (en) * | 1985-04-17 | 1986-10-25 | Matsushita Electric Ind Co Ltd | Simple input device |
JPS6411571A (en) * | 1987-07-07 | 1989-01-17 | Canon Kk | Image converting apparatus |
JPH0619611A (en) * | 1992-06-30 | 1994-01-28 | Canon Inc | Information processor |
JPH05313820A (en) * | 1992-09-09 | 1993-11-26 | Yamaha Corp | Information input device |
JPH0637928U (en) * | 1992-10-21 | 1994-05-20 | 豊 打田 | Flat mouse |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1021803A1 (en) * | 1997-01-09 | 2000-07-26 | Virtouch Ltd. | Mouse-like input/output device with display screen and method for its use |
EP1021803A4 (en) * | 1997-01-09 | 2000-10-04 | Virtouch Ltd | Mouse-like input/output device with display screen and method for its use |
JP2003502699A (en) * | 1999-06-14 | 2003-01-21 | ヴィアタッチ リミテッド | Haptic interface system for electronic data display system |
KR100556539B1 (en) * | 2002-04-22 | 2006-03-06 | 후지제롯쿠스 가부시끼가이샤 | Information processing system and information processing method |
JP2009519542A (en) * | 2005-12-12 | 2009-05-14 | マイクロソフト コーポレーション | Alternative graphics pipe |
Also Published As
Publication number | Publication date |
---|---|
JP3236180B2 (en) | 2001-12-10 |
US5714978A (en) | 1998-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH08161117A (en) | Method and device for indicating coordinate | |
Akamatsu et al. | A multi-modal mouse with tactile and force feedback | |
US7024625B2 (en) | Mouse device with tactile feedback applied to housing | |
US11077360B2 (en) | Information processing device, control method of information processing device, and program | |
US6181325B1 (en) | Computer system with precise control of the mouse pointer | |
EP2156274B1 (en) | Touch-sensitive pointing device with guiding lines | |
JPH0985655A (en) | Robot teaching operation panel | |
JPH06309138A (en) | Screen control method using touch panel | |
JP2017033130A (en) | Force-sensing guide device | |
JP2007079947A (en) | Display device and program for use therewith | |
JP2005202545A (en) | Contact type information input device | |
US5969711A (en) | Method for creating an electronic document | |
Park et al. | Evaluation of cursor capturing functions in a target positioning task | |
US11449146B2 (en) | Interactive holographic human-computer interface | |
JPH04286015A (en) | Position instruction system using mouse | |
Asque et al. | Cursor navigation using haptics for motion-impaired computer users | |
Liang et al. | BrushLens: Hardware Interaction Proxies for Accessible Touchscreen Interface Actuation | |
JP3953753B2 (en) | Mouse pointer guidance method, mouse pointer guidance program, and recording medium recording the program | |
Zhang et al. | The Study of Two Novel Speech-Based Selection Techniques in Voice-User Interfaces | |
JPS63311519A (en) | Coordinate input method | |
JPH03256112A (en) | Control processor | |
US11972046B1 (en) | Human-machine interaction method and system based on eye movement tracking | |
JPH0358090A (en) | Display device | |
JP3232537B2 (en) | Computer and window control method | |
JP2002278661A (en) | A plurality of cursors control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |