JPH08257947A - Three-dimensional display device for inner force sense and touch sense - Google Patents

Three-dimensional display device for inner force sense and touch sense

Info

Publication number
JPH08257947A
JPH08257947A JP10218794A JP10218794A JPH08257947A JP H08257947 A JPH08257947 A JP H08257947A JP 10218794 A JP10218794 A JP 10218794A JP 10218794 A JP10218794 A JP 10218794A JP H08257947 A JPH08257947 A JP H08257947A
Authority
JP
Japan
Prior art keywords
operator
environment
orientation
sensor
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10218794A
Other languages
Japanese (ja)
Other versions
JP3612347B2 (en
Inventor
Ryokichi Hirata
亮吉 平田
Susumu Tate
▲すすむ▼ 舘
Taro Maeda
太郎 前田
Hiroshi Hoshino
洋 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP10218794A priority Critical patent/JP3612347B2/en
Publication of JPH08257947A publication Critical patent/JPH08257947A/en
Application granted granted Critical
Publication of JP3612347B2 publication Critical patent/JP3612347B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PURPOSE: To enable the touch of a planar object touched in a virtual or remote environment to be fed back to the operator by providing an environment presenting tool mounted in a position/attitude control device with a plurality of planes, and making the operator touch any of the planar parts after controlling the position and attitude of that part. CONSTITUTION: In an environment presenting tool 10 mounted in the center of the rotating shaft of a position/attitude control device, when the operator has touched a planar object in a virtual environment, the operator is made to touch a planar part 6 so that the touch of the planar object is fed back to the operator. When the operator has touched a convex object, the operator is made to touch a convex part 1, and a concave part 2 in the case of a concave part, so that the touch of the object is fed back to the operator. The position and attitude of such an environment presenting tool 10 are controlled in a three-dimensional space following drive commands from a servo controller, where the inner force sense and touch sense any object can be fed back to the operator.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、位置姿勢制御装置に搭
載された環境提示ツールの位置と姿勢を制御することに
より、接平面近似により仮想環境ないしは遠隔環境から
の力覚及び触覚を操作者にフィードバックする3次元力
触覚ディスプレイ装置に関する。また、提示面に点接触
している指と別の指により仮想環境ないしは遠隔環境で
操作者が保持した物体の厚さ及び特性(慣性、粘性及び
剛性)を操作者にフィードバックする3次元力触覚ディ
スプレイ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention controls the position and orientation of an environment presenting tool mounted on a position and orientation control device, so that haptic and tactile sensations from a virtual environment or a remote environment can be obtained by tangential plane approximation. 3D force tactile display device for feedback to a user. In addition, a three-dimensional force tactile sensation that feeds back to the operator the thickness and characteristics (inertia, viscosity, and rigidity) of an object held by the operator in a virtual environment or a remote environment with a finger that is in point contact with the presentation surface and another finger. Display device

【0002】[0002]

【従来の技術】この種の装置は、例えば小宇宙(galax
y) での仮想環境とか、原子炉での遠隔環境とかにおけ
る実際に触手できない環境の物体への3次元の力覚・触
覚をディスプレイする装置である。ところで、従来例と
しての力覚ディスプレイ装置においては、ジョイストリ
ング型マスター・システム(joy string type master sy
s-tem)のように操作者の指がワイヤや糸で空間的に吊ら
れている。このワイヤの他端にはワイヤの長さと張力を
測定するセンサを配しており、また適切な張力を発生す
るためのモータが設けられている。操作者の手先の位置
と姿勢の6自由度の情報がワイヤの長さのデータからコ
ンピュータで推定される。それと同時に操作者に仮想環
境ないしは遠隔環境からの反力をワイヤの張力の差とし
てフィードバックする。
2. Description of the Related Art Devices of this type are used, for example, in the microcosm (galax).
It is a device that displays three-dimensional force / tactile sensation to an object in an environment that cannot be actually touched, such as a virtual environment in y) or a remote environment in a nuclear reactor. By the way, in the conventional force display device, a joy string type master system (joy string type master system) is used.
s-tem), the operator's fingers are spatially suspended by wires or threads. A sensor for measuring the length and tension of the wire is arranged at the other end of the wire, and a motor for generating an appropriate tension is provided. Information on six degrees of freedom of the position and orientation of the operator's hand is estimated by a computer from the wire length data. At the same time, the reaction force from the virtual environment or the remote environment is fed back to the operator as the difference in the wire tension.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来例
の力覚ディスプレイ装置にあっては、ジョイストリング
型マスター・システムのように操作者の指がワイヤや糸
で空間的に吊られているために操作者が速い動作をした
とき、ワイヤや糸に拘束されるという問題点があった。
また、従来例の力覚ディスプレイ装置にあっては、操作
者に仮想環境ないしは遠隔環境において、操作者が接触
している物体の頂点、エッジ(凹凸)、操作者が面上を
触る感覚及び操作者の指が壁に突き当たる感覚はフィー
ドバックできないという問題点があった。
However, in the conventional haptic display device, since the operator's finger is spatially suspended by the wire or thread as in the joystring type master system. There has been a problem that when the operator makes a fast motion, he is restricted by a wire or thread.
Further, in the conventional haptic display device, in the virtual environment or the remote environment for the operator, the vertices, edges (concavities and convexities) of the object with which the operator is in contact, the sensation and operation of the operator touching the surface There was a problem that the feeling of the person's finger hitting the wall could not be fed back.

【0004】本発明は、操作者が仮想環境ないしは遠隔
環境で接触した物体の触覚を操作者にフィードバックす
ることを目的としている。また、操作者が仮想環境ない
しは遠隔環境で保持した物体の厚さを操作者にフィード
バックすることを目的としている。さらに、操作者が仮
想環境において接触した物体の計算機内でのモデルの特
性(慣性、粘性及び剛性)ないしは操作者が遠隔環境に
おいて接触した物体の特性(慣性、粘性及び剛性)を操
作者にフィードバックすることを目的としている。さら
にまた、操作者が仮想環境ないしは遠隔環境で非接触状
態にあるとき操作者が拘束されずに速い動作を行えるこ
とを目的としている。
An object of the present invention is to feed back the tactile sensation of an object touched by an operator in a virtual environment or a remote environment to the operator. It is also intended to feed back the thickness of the object held by the operator in the virtual environment or the remote environment to the operator. In addition, the characteristics of the model (inertia, viscosity and rigidity) of the object that the operator touches in the virtual environment in the computer or the characteristics of the object (inertia, viscosity and rigidity) that the operator touches in the remote environment are fed back to the operator. The purpose is to do. Furthermore, it is an object of the present invention to enable the operator to perform a fast motion without being restrained when the operator is in a non-contact state in a virtual environment or a remote environment.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明の3次元力触覚ディスプレイ装置において
は、位置姿勢制御装置に環境提示ツールを搭載したもの
である。前記環境提示ツールを搭載する位置は、位置姿
勢制御装置の適当な箇所とすることが可能であるが、後
述する理由により、特に位置姿勢制御装置の姿勢軸の回
転中心に搭載することが効果的である。また、環境提示
ツールには、操作者の指が環境提示ツールに接触及び操
作者が環境提示ツールを保持したとき変形しにくい軽量
な材料が好ましい。そして、本発明は、(a) 予め対象物
体の位置情報に基づく接触面情報を記憶していて、操作
者の指先の位置と姿勢を検出するセンサの入力に基づく
接触面情報の送出処理 (b) 前記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理の上記に示す処理を行うコンピュータと、演算出力に
より駆動指令を送出するサーボコントローラと、このサ
ーボコントローラからの駆動指令に従い環境提示ツール
を3次元空間において自由にその位置と姿勢を制御する
位置姿勢制御装置とを具備する3次元力触覚ディスプレ
イ装置である。
In order to achieve the above object, in a three-dimensional force / tactile display device of the present invention, an environment presenting tool is mounted on a position / orientation control device. The position where the environment presentation tool is mounted can be set at an appropriate position of the position and orientation control device, but it is particularly effective to mount the environment presentation tool at the center of rotation of the posture axis of the position and posture control device for the reasons described below. Is. Further, the environment presentation tool is preferably a lightweight material that is not easily deformed when the operator's finger touches the environment presentation tool and the operator holds the environment presentation tool. Then, the present invention (a) stores contact surface information based on position information of the target object in advance, and outputs contact surface information based on input of a sensor that detects the position and orientation of the operator's fingertip (b) ) The contact surface information is sequentially input, and the mechanical position / orientation of the environment presentation tool installed in the position / orientation control device is input by the sensor for detecting the position and orientation of the operator's fingertip, the proximity sensor, and the force sensor. A computer that performs the above-described processing of impedance control, a servo controller that sends a drive command by calculation output, and an environment presentation tool freely controls the position and orientation in a three-dimensional space according to the drive command from the servo controller. A three-dimensional force / tactile display device including a position / orientation control device.

【0006】[0006]

【作用】上記のように構成された位置姿勢制御装置に搭
載した環境提示ツールの位置と姿勢を制御することによ
り、操作者が仮想環境ないしは遠隔環境で接触した物体
の形状を操作者にフィードバックするように働く。ま
た、操作者が仮想環境ないしは遠隔環境で保持した物体
の厚さを操作者にフィードバックするように働く。そし
て、操作者が仮想環境において接触した物体の計算機内
でのモデルの特性(慣性、粘性及び剛性)ないしは操作
者が遠隔環境において接触した物体の特性(慣性、粘性
及び剛性)を操作者にフィードバックするように働く。
さらに、操作者が仮想環境ないしは遠隔環境で非接触状
態にあるとき操作者が動作を拘束されていないため速い
動作を行える。
By controlling the position and orientation of the environment presentation tool mounted on the position and orientation control device configured as described above, the shape of the object contacted by the operator in the virtual environment or the remote environment is fed back to the operator. Work like. In addition, the operator works to feed back the thickness of the object held in the virtual environment or the remote environment to the operator. Then, the characteristics of the model in the computer (inertia, viscosity and rigidity) of the object that the operator touched in the virtual environment or the characteristics (inertia, viscosity and rigidity) of the object that the operator touched in the remote environment were fed back to the operator. Work to do.
Further, when the operator is in a non-contact state in the virtual environment or the remote environment, the operator is not restricted in the operation, and thus the operator can perform a fast operation.

【0007】[0007]

【実施例】以下に、本発明の一実施例について図面を参
照して説明する。先ず、環境提示ツールを把持する位置
姿勢制御装置の正面図・側面図を図5・図6に示し、環
境提示ツール10を位置姿勢制御装置11の回転軸中心部分
(図6の搭載位置12)に搭載する。なお、全ての図面に
おいて同一符号は同一もしくは相当部材を表す。そし
て、この一実施例で採用する環境提示ツールの形態は、
図1に正面図・図2に平面図・図3に斜視図を示し、図
4に(a) で側面図・(b) で(a) のA-A 線に沿った矢視方
向の断面図・(C) で(a) のB-B 線に沿った矢視方向の断
面図をそれぞれ表す。
An embodiment of the present invention will be described below with reference to the drawings. First, FIGS. 5 and 6 are front and side views of the position and orientation control device that grips the environment presentation tool, and the environment presentation tool 10 is located at the center of the rotation axis of the position and orientation control device 11 (the mounting position 12 in FIG. 6). To be installed on. In all the drawings, the same symbols represent the same or corresponding members. Then, the form of the environment presentation tool adopted in this embodiment is
Fig. 1 is a front view, Fig. 2 is a plan view, Fig. 3 is a perspective view, and Fig. 4 is a side view of (a). Fig. 4 is a sectional view taken along the line AA of (a) of Fig. Sections (C) and (a) are cross-sectional views taken along the line BB of FIG.

【0008】 このような形状を具える環境提示ツール
は、図3において、操作者が仮想環境ないしは遠隔環境
において面物体に接触したとき、操作者に6の部分を接
触させることにより、平面物体の触覚を操作者にフィー
ドバックする。また、図3において、操作者が仮想環境
ないしは遠隔環境において凸面物体に接触したとき、操
作者に1の部分を接触させることにより、凸面物体の触
覚を操作者にフィードバックする。また、図3におい
て、操作者が仮想環境ないしは遠隔環境において凹面物
体に接触したとき、操作者に2の部分を接触させること
により、平面物体の触覚を操作者にフィードバックす
る。また、図3において、操作者が仮想環境ないしは遠
隔環境において凸曲面物体に接触したとき、操作者に3
の部分を接触させることにより、凸曲面物体の触覚を操
作者にフィードバックする。また、図3において、操作
者が仮想環境ないしは遠隔環境において凹曲面物体に接
触したとき、操作者に4の部分を接触させることによ
り、凹曲面物体の触覚を操作者にフィードバックする。
また、図3において、操作者が仮想環境ないしは遠隔環
境において平面、凸曲面及び凹曲面物体に接触したと
き、操作者に常に中央の部分を常に接触させることによ
り(モデルの接平面になるようにする)、平面、凸曲面
及び凹曲面物体の触覚を操作者にフィードバックする。
In the environment presentation tool having such a shape, in FIG. 3, when the operator touches a surface object in a virtual environment or a remote environment, the operator touches the portion 6 to make a flat object Feed back the sense of touch to the operator. Further, in FIG. 3, when the operator touches the convex object in the virtual environment or the remote environment, the tactile sensation of the convex object is fed back to the operator by touching the part 1 with the operator. Further, in FIG. 3, when the operator touches the concave object in the virtual environment or the remote environment, the tactile sensation of the planar object is fed back to the operator by touching the part 2 with the operator. Further, in FIG. 3, when the operator touches a convex curved surface object in the virtual environment or the remote environment,
The tactile sensation of the convex curved surface object is fed back to the operator by touching the part of. Further, in FIG. 3, when the operator touches the concave curved surface object in a virtual environment or a remote environment, the tactile sensation of the concave curved surface object is fed back to the operator by touching the portion 4 with the operator.
Also, in FIG. 3, when the operator touches a flat surface, a convex curved surface, or a concave curved surface object in a virtual environment or a remote environment, the central portion of the operator is always kept in contact with the object (to make it a tangent plane of the model). ), The tactile sensation of a flat surface, a convex curved surface, and a concave curved surface object is fed back to the operator.

【0009】 なお、図3において、操作者が仮想環境
ないしは遠隔環境において物体を保持したとき、操作者
に5の部分を開閉させることにより、物体の厚さを操作
者にフィードバックする。すなわち、開閉部分5は上部
5b( 固定部) と下部5a( 可動部) から成り、中央部5cが
5dを樞軸として下方に自在に開き、その開いた先端の距
離が物体の厚さを表す。
In FIG. 3, when the operator holds an object in a virtual environment or a remote environment, the operator opens and closes the portion 5 to feed back the thickness of the object to the operator. That is, the opening / closing part 5 is the upper part
5b (fixed part) and lower part 5a (movable part), the central part 5c
It freely opens downward with 5d as the axis of rotation, and the distance of the open tip represents the thickness of the object.

【0010】 例えば、図7の斜視図で示す物体の力覚
及び触覚を操作者にフィードバックするためには、操作
者が仮想環境ないしは遠隔環境で物体に接触していると
き、接触している部分は物体全体の一部分[図7のウイ
ンドウ部(一本の指先を取り巻く矩形状の枠内)]であ
る。そして、この一実施例では図8に斜視図で示すよう
に、操作者が仮想環境ないしは遠隔環境で物体と点接触
している部分[図8のウインドウ部(一本の指先を取り
巻く矩形状の枠内)の×]を、環境提示ツールで表現し
て操作者に接触させることにより、操作者に物体全体の
力覚及び触覚をフィードバックする。
For example, in order to feed back the force sense and tactile sense of the object shown in the perspective view of FIG. 7 to the operator, when the operator is in contact with the object in the virtual environment or the remote environment, the contacted part Is a part of the entire object [the window part in FIG. 7 (in the rectangular frame surrounding one fingertip)]. In this embodiment, as shown in the perspective view of FIG. 8, the portion where the operator is in point contact with the object in the virtual environment or the remote environment [the window portion (the rectangular shape surrounding one fingertip is shown. [X] in the frame) is expressed by an environment presentation tool and brought into contact with the operator, and the force and tactile sensations of the entire object are fed back to the operator.

【0011】 以上の概念を総括的に説明すれば、例え
ば、図9(a),(b),(c) の斜視図で表す一本の指先が接触
する物体の部分は、図10(a),(b),(c) の斜視図で表す
一本の指先が接触する環境提示ツールで表現して操作者
に接触させることが可能である。つまり、図9(a) の物
体の力覚及び触覚を操作者にフィードバックするために
は、図10(a) に示すように、位置姿勢制御装置に搭載さ
れた環境提示ツールの位置と姿勢を変化させて環境提示
ツールの凸曲面を操作者に接触させることにより、操作
者に図9(a) の物体の力覚及び触覚を操作者にフィード
バックする。図9(b),(c) の場合、それぞれ図10(b),
(c) に示すようにしてそれぞれの物体の力覚及び触覚を
操作者にフィードバックする。
To explain the above concept as a whole, for example, a portion of an object touched by one fingertip shown in the perspective views of FIGS. 9A, 9B, and 9C is shown in FIG. ), (b), and (c) are perspective views, and can be expressed by an environment presentation tool that can be touched by one fingertip and brought into contact with the operator. That is, in order to feed back the force sense and tactile sense of the object shown in FIG. 9 (a) to the operator, as shown in FIG. 10 (a), the position and posture of the environment presentation tool installed in the position / orientation control device are determined. By changing and bringing the convex curved surface of the environment presentation tool into contact with the operator, the operator is fed back to the operator with the force sense and tactile sense of the object shown in FIG. 9 (a). In the case of Fig. 9 (b) and (c), Fig. 10 (b) and
As shown in (c), the force sense and tactile sense of each object are fed back to the operator.

【0012】 すなわち、位置姿勢制御装置に搭載され
た環境提示ツール10の位置と姿勢を変化させて環境提示
ツールの凸面、凹面、凸曲面及び凹曲面を組み合わせて
操作者に接触させることにより、操作者が連続的に任意
の形状の物体に接触した場合でも任意の物体の力覚及び
触覚を操作者にフィードバックする。なお、平面、凸曲
面及び凹曲面は、ある面の中央を常に接触させるように
して、位置姿勢制御装置の位置と姿勢を制御して(接触
点における接平面になるように制御する)操作者に力覚
及び触覚をフィードバックすることもできる。
That is, by changing the position and orientation of the environment presentation tool 10 mounted on the position and orientation control device and combining the convex surface, the concave surface, the convex curved surface, and the concave curved surface of the environment presentation tool with the operator, the operation is performed. Even when a person continuously contacts an object of any shape, the haptic and tactile sensations of any object are fed back to the operator. An operator who controls the position and orientation of the position / orientation control device (controls to be a tangent plane at the contact point) so that the center of a plane is always in contact with the plane, the convex curved surface, and the concave curved surface. It is also possible to feed back force and touch.

【0013】 以上にして、この一実施例が適用する環
境提示ツールの全容が解明されたので、この環境提示ツ
ールをどのように制御するかという制御系統図の説明に
移る。図11はこの一実施例における制御構成を示すブロ
ック図である。また、図12(a) はCCDカメラからの遠
隔環境適用の全体システム図・図12(b) はコンピュータ
からの仮想環境適用の全体システム図、図13(a) はHM
D周辺に設けた制御要素の斜視説明図、図13(b),(c) は
物体の厚さ等の計測するときの説明図である。
Since the whole of the environment presentation tool applied to this embodiment has been clarified as described above, the control system diagram of how to control this environment presentation tool will be explained. FIG. 11 is a block diagram showing the control configuration in this embodiment. Fig. 12 (a) is an overall system diagram for applying a remote environment from a CCD camera, Fig. 12 (b) is an overall system diagram for applying a virtual environment from a computer, and Fig. 13 (a) is an HM.
FIGS. 13B and 13C are perspective explanatory views of control elements provided around D, and FIGS. 13B and 13C are explanatory views when measuring the thickness of the object and the like.

【0014】 図11において、図12(a),12(b) 及び図13
(a) に示すように、一本の指先の位置と姿勢を検出する
パッシブ・マスター・アーム111 からの位置と姿勢情報
111pは、接触面情報の第1のコンピュータ112 と、頭上
搭載ディスプレイ(HMD)に写る画像を変化させる仮
想環境処理の第2のコンピュータ113 と、環境提示ツー
ル10の位置・姿勢をインピーダンス制御する第3のコン
ピュータとに与えられる。
In FIG. 11, FIG. 12 (a), 12 (b) and FIG.
Position and posture information from the passive master arm 111 that detects the position and posture of one fingertip, as shown in (a).
111p is a first computer 112 for contact surface information, a second computer 113 for virtual environment processing that changes an image displayed on an overhead display (HMD), and a first computer for impedance control of the position / orientation of the environment presentation tool 10. Given to 3 computers.

【0015】 一方で操作者は、HMD114 とポヒマス
・センサ[polhe-mus sensor(磁場検出原理に基づく位
置姿勢センサ) ]115 を頭上に装着して、仮想環境処理
の第2のコンピュータ113 に写る仮想環境14、もしくは
CCDカメラ15に写る遠隔環境[X物体16, Y物体17…
など]を見る。その視界に入るそれぞれの環境は、ポヒ
マス・センサ115 からの操作者の頭の位置と姿勢の検出
から異なる環境が映出されるように、ロボット・コント
ローラ14を介してCCDカメラ15,マイクロホン15a ,
マニピュレータ15b を具備するロボットがその位置・姿
勢を制御される[CCDカメラ制御手段]。
On the other hand, the operator wears the HMD 114 and the Pohimas sensor [polhe-mus sensor (position and orientation sensor based on the magnetic field detection principle)] 115 above the head, and the virtual image is displayed on the second computer 113 for virtual environment processing. Environment 14 or remote environment reflected by CCD camera 15 [X object 16, Y object 17 ...
Etc.] The respective environments in the field of view are projected through the robot controller 14 such that the CCD camera 15, the microphone 15a, and the robot controller 14 can project different environments based on the detection of the position and posture of the operator's head from the Pohimas sensor 115.
A robot equipped with the manipulator 15b is controlled in its position and orientation [CCD camera control means].

【0016】 他方で遠隔環境[CCDカメラ15,マイ
クロホン15a ,マニピュレータ15b ]での環境提示ツー
ル10は次のような動作がなされる。つまり、遠隔環境の
ロボットに操作者と同じように頭と腕がついていて、操
作者の動きに追従してロボットが動き、ロボットの眼の
位置にCCDカメラ15、耳の位置にマイクロホン15a
[ここで集音された遠隔環境の音声情報はHMD114の
内部に具えるスピーカを介して操作者にフィードバック
される]、右腕の位置にマニピュレータ15b を備えてお
り、接触面情報の第1のコンピュータ112 は予めポヒマ
ス・センサ115 の出力により駆動されるロボット・コン
トローラ13により制御されるCCDカメラ15に撮像され
る遠隔環境のX物体16, Y物体17…について、時々刻々
に変化する位置と姿勢情報111pに対応して格納されてい
る接触面情報を、環境提示ツール10の位置・姿勢をイン
ピーダンス制御する第3のコンピュータ116 へ逐次与え
ている。遠隔環境では操作者の腕に遠隔環境でのロボッ
ト・アームが追従して[このロボット・アームは人間の
腕と同じ自由度配置の機構を持っており、操作者の腕に
追従して動作つまり同じ動きをする]、ロボットの力触
覚を操作者にフィードバックする。
On the other hand, the environment presentation tool 10 in the remote environment [CCD camera 15, microphone 15a, manipulator 15b] operates as follows. That is, the robot in the remote environment has the same head and arms as the operator, and the robot moves following the movement of the operator. The CCD camera 15 is located at the eye position of the robot and the microphone 15a is located at the ear position.
[The voice information of the remote environment collected here is fed back to the operator through the speaker provided inside the HMD 114], the manipulator 15b is provided at the position of the right arm, and the first computer of the contact surface information is provided. 112 is a position and attitude information that changes from moment to moment with respect to the X object 16, Y object 17 ... In the remote environment, which is imaged by the CCD camera 15 controlled by the robot controller 13 which is driven in advance by the output of the Pohymas sensor 115. The contact surface information stored in correspondence with 111p is sequentially given to the third computer 116 that controls the impedance of the position / orientation of the environment presentation tool 10. In a remote environment, a robot arm in a remote environment follows the operator's arm [This robot arm has a mechanism with the same degree of freedom arrangement as a human arm, and moves in accordance with the operator's arm. Do the same motion], and feed back the tactile sensation of the robot to the operator.

【0017】 あるいは、仮想環境13での接触面情報の
第1のコンピュータ112 は仮想環境のモデルのワールド
座標系に対する位置を記憶しており、時々刻々に変化す
る位置と姿勢情報111pに対応して格納されている接触面
情報を、環境提示ツール10の位置・姿勢をインピーダン
ス制御する第3のコンピュータ116へ逐次与えている。
Alternatively, the first computer 112 of the contact surface information in the virtual environment 13 stores the position of the model of the virtual environment with respect to the world coordinate system, and corresponds to the position and attitude information 111p that changes momentarily. The stored contact surface information is sequentially given to the third computer 116 that performs impedance control of the position / orientation of the environment presentation tool 10.

【0018】そして、環境提示ツール10の位置・姿勢を
インピーダンス制御する第3のコンピュータ116 では、
指先の位置と姿勢を検出するパッシブ・マスター・アー
ム111 からの位置と姿勢情報111pとそれに対応する第3
のコンピュータ116 からの接触面情報により環境提示ツ
ール10の位置・姿勢を制御するのであるが、その時さら
に環境提示ツール10に近接する一本の指先の近接する情
報を近接センサ119 b [操作者の手先が環境提示ツール
の面のどの位置にあるかを検出する手段]で検出すると
共に、環境提示ツール10が接触する一本の指先へ加える
力を位置姿勢制御装置が具える力センサ119 a で検出
し、それらの検出した近接情報と接触の力情報をフィー
ドバックし、位置と姿勢情報111pのサーボ演算を行う。
Then, in the third computer 116 for impedance control of the position / orientation of the environment presentation tool 10,
Position and posture information 111p from the passive master arm 111 that detects the position and posture of the fingertip and the corresponding third
The position / orientation of the environment presentation tool 10 is controlled by the contact surface information from the computer 116 of the computer. At that time, the proximity sensor 119 b [information of the proximity of one fingertip near the environment presentation tool 10 is used]. The position sensor detects the position of the hand of the environment presenting tool on the surface of the environment presenting tool]. The detected proximity information and contact force information are fed back to perform servo calculation of position and orientation information 111p.

【0019】 この第3のコンピュータ116 のディジタ
ル演算出力[例えば電圧(指令)]を受けて、サーボ・
コントローラ117 では次段の位置姿勢制御装置118 の駆
動に適したアナログ駆動指令を作成してこれを送出し、
その駆動指令を受けた位置姿勢制御装置118 はその先端
部に装着する環境提示ツール10の位置・姿勢を駆動制御
して接触面情報の第1のコンピュータ112 における仮想
環境あるいは遠隔環境に対応した位置・姿勢を現出す
る。ここで、サーボ・コントローラ117 から第3のコン
ピュータ116 への位置・姿勢のフィードバックが行われ
る。
The digital operation output [eg voltage (command)] of the third computer 116 is received to
The controller 117 creates an analog drive command suitable for driving the next position / orientation control device 118, and sends this command.
The position / orientation control device 118 that has received the drive command drives and controls the position / orientation of the environment presentation tool 10 attached to the tip end of the position and attitude control device 118, and the position corresponding to the virtual environment or the remote environment in the first computer 112 of the contact surface information.・ Show your posture. Here, the position / orientation is fed back from the servo controller 117 to the third computer 116.

【0020】 このようにして、操作者が頭上搭載ディ
スプレイ(HMD)114 とポヒマス・センサ115 から、
例えば現在の指先から10cm先に物体が存在しているとき
は、10cm移動したときにその物体の力覚及び触覚をフィ
ードバックするように、位置と姿勢情報111pが一本の指
先で位置決めされれば、それに追従して上述の第1ない
し第3のコンピュータなどが演算を行い、環境提示ツー
ル10の位置・姿勢が自動的に変化し制御されて、先の位
置決めした指先まで物体の力覚及び触覚などをサーボす
るのである。これは仮想環境あるいは遠隔環境における
物体に一本の指先が触れるのと全く同じ力覚と触覚、並
びに物体の特性の慣性,剛性,粘性、さらにまた物体の
厚さまでも環境提示ツール10の開閉部5の開度で現出し
て、位置と姿勢情報111pから予め記憶された接触面情報
を引出し、かつ環境提示ツール10の位置・姿勢とその表
現する面状態と、119 力センサ119a, 近接センサ119bで
検出される力情報のフィードバックによるサーボ演算か
ら、サーボ・コントローラからの駆動指令に従い3次元
空間において、自由にその位置と姿勢を制御する完全な
3次元力触覚ディスプレイ装置が構成されることを示し
ている。
In this way, the operator uses the overhead display (HMD) 114 and the Poimas sensor 115 to
For example, when an object exists 10 cm away from the current fingertip, if position and orientation information 111p is positioned with one fingertip so that the force and tactile sensations of the object are fed back when the object moves 10 cm. Following the above, the above-mentioned first to third computers etc. perform calculations, and the position / orientation of the environment presenting tool 10 is automatically changed and controlled, and the force and tactile sensation of the object up to the previously positioned fingertip. And servo. This is exactly the same force and tactile as one fingertip touches an object in a virtual environment or a remote environment, as well as inertia, rigidity, and viscosity of the characteristics of the object, and also the opening / closing part of the environment presentation tool 10 depending on the thickness of the object. 5, the contact surface information stored in advance is extracted from the position / orientation information 111p, and the position / orientation of the environment presentation tool 10 and the surface state represented by the information, 119 force sensor 119a, proximity sensor 119b. It is shown that a complete three-dimensional force tactile display device can be configured that freely controls the position and orientation in a three-dimensional space according to the drive command from the servo controller from the servo calculation by the feedback of the force information detected by. ing.

【0021】 なお、操作者が仮想環境ないしは遠隔環
境において接触する物体(例えばX物体16) の大きさと
環境提示ツール10の移動距離について言及してみる。操
作者が遠隔環境もしくは仮想環境において接触する物体
と、環境提示ツール10に設けられている物体との大きさ
の比により、補間しながら環境提示ツール10の位置と姿
勢を変化させる必要がある。
It should be noted that the size of an object (for example, X object 16) with which the operator contacts in the virtual environment or the remote environment and the moving distance of the environment presentation tool 10 will be referred to. It is necessary to change the position and orientation of the environment presentation tool 10 while performing interpolation depending on the size ratio of the object that the operator contacts in the remote environment or the virtual environment and the object provided in the environment presentation tool 10.

【0022】 例えば、仮想環境もしくは遠隔環境にお
いて、図13(b) に示す物体ABのエッジを触る場合、図
13(c) に示す環境提示ツール10の最初a点を触ってい
て、操作者の動きに追従して環境提示ツール10の位置を
変えながら、最後はb点を触っているというようにな
る。遠隔環境もしくは仮想環境で頂点に接触した場合に
は、操作者に環境提示ツール10の頂点を触ってもらうこ
とになる。つまり、できるだけ環境提示ツール10の形状
を用いて、触覚を操作者にフィードバックする。なお、
一本の指先が、物体表面を滑る感覚は、環境提示ツール
10に実際に面が存在しているので、位置姿勢制御装置11
を固定し、操作者が面をなぞれば、指が物体表面を滑る
感覚も出せる。
For example, when touching the edge of the object AB shown in FIG. 13B in a virtual environment or a remote environment,
The point a at the beginning of the environment presentation tool 10 shown in 13 (c) is touched, the position of the environment presentation tool 10 is changed following the movement of the operator, and the point b is touched at the end. When the vertex is touched in the remote environment or the virtual environment, the operator is asked to touch the vertex of the environment presentation tool 10. That is, the tactile sensation is fed back to the operator by using the shape of the environment presentation tool 10 as much as possible. In addition,
The feeling that one fingertip slides on the surface of an object is an environment presentation tool.
Since the surface actually exists in 10, the position and orientation control device 11
If you fix the position and the operator traces the surface, you can feel the finger slide on the surface of the object.

【0023】かくして、本発明の主な要旨とするところ
は、次の通りである。すなわち、 (a) 予め対象物体の位置情報に基づく接触面情報を記憶
していて、操作者の指先の位置と姿勢を検出するセンサ
の入力に基づく接触面情報の送出処理 (b) 上記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理 の上記に示す処理を行うコンピュータと、演算出力によ
り駆動指令を送出するサーボコントローラと、このサー
ボコントローラからの駆動指令に従い環境提示ツールを
3次元空間において自由にその位置と姿勢を制御する位
置姿勢制御装置とを具備する3次元力触覚ディスプレイ
装置であり、また、 (a) 予め対象物体の位置情報に基づく接触面情報を記憶
していて、操作者の指先の位置と姿勢を検出するセンサ
の入力に基づく接触面情報の送出処理 (b) 上記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理 (c) 予め対象物体と、操作者の身体モデルを記憶してい
て、操作者の頭部及び腕部の位置と姿勢を検出するセン
サの入力に基づく視聴覚情報の送出処理 の上記に示す処理を行うコンピュータと、演算出力によ
り駆動指令を送出するサーボコントローラと、このサー
ボコントローラからの駆動指令に従い環境提示ツールを
3次元空間において自由にその位置と姿勢を制御する位
置姿勢制御装置と、操作者に視聴覚情報を提示する視聴
覚情報提示装置とを具備する3次元力触覚ディスプレイ
装置であり、さらに (a) 予め対象物体の位置情報に基づく接触面情報を記憶
していて、操作者の指先の位置と姿勢を検出するセンサ
の入力に基づく接触面情報の送出処理 (b) 上記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理 の上記に示す処理を行うコンピュータと、操作者の頭部
の位置と姿勢を検出するセンサの入力により、操作者の
頭部の位置と姿勢に追従するように制御される遠隔環境
のロボットに搭載されたCCDカメラと、遠隔環境のロ
ボットに搭載されたマイクロホンと、操作者の腕部の位
置と姿勢を検出するセンサの入力により、操作者の腕部
の位置と姿勢に追従するように制御される遠隔環境のマ
ニピュレータと、演算出力により駆動指令を送出するサ
ーボコントローラと、このサーボコントローラからの駆
動指令に従い環境提示ツールを3次元空間において自由
にその位置と姿勢を制御する位置姿勢制御装置と、操作
者に視聴覚情報を提示する視聴覚情報提示装置とを具備
する3次元力触覚ディスプレイ装置であると言える。
The main points of the present invention are as follows. That is, (a) contact surface information based on position information of the target object is stored in advance, and contact surface information transmission processing based on input of a sensor that detects the position and orientation of the fingertip of the operator (b) the contact surface Processing of mechanical impedance control of the position / orientation of the environment presentation tool installed in the position / orientation control device by inputting information sequentially, the sensor that detects the position and orientation of the operator's fingertip, the proximity sensor, and the force sensor Of the computer, a servo controller that sends a drive command by calculation output, and a position and attitude control that freely controls the position and attitude of the environment presentation tool in a three-dimensional space according to the drive command from the servo controller. A three-dimensional force tactile display device including a device, and (a) storing contact surface information based on position information of a target object in advance. The contact surface information is sent out based on the input of the sensor that detects the position and orientation of the operator's fingertip. (B) The sensor that sequentially inputs the contact surface information and detects the position and orientation of the operator's fingertip. And processing of mechanical impedance control of the position and orientation of the environment presentation tool installed in the position and orientation control device by inputting the proximity sensor and force sensor (c) The target object and the body model of the operator are stored in advance, and the operation is performed. A computer that performs the above-described processing of audiovisual information transmission processing based on the input of a sensor that detects the position and posture of the person's head and arm, a servo controller that transmits a drive command by calculation output, and this servo controller Position and orientation control device for freely controlling the position and orientation of the environment presentation tool in a three-dimensional space in accordance with the driving command of A three-dimensional force / tactile display device including a haptic information presenting device, and (a) a sensor that stores contact surface information based on position information of a target object in advance and detects the position and orientation of the operator's fingertip. (B) The above-mentioned contact surface information is sequentially input, and the position / orientation control device is input by a sensor that detects the position and attitude of the operator's fingertip, a proximity sensor, and a force sensor. The position of the operator's head is input by the computer that performs the above-mentioned processing of mechanical impedance control of the position / orientation of the installed environment presentation tool and the sensor that detects the position and orientation of the operator's head. The CCD camera mounted on the robot in the remote environment, which is controlled so as to follow the position and the posture, the microphone mounted on the robot in the remote environment, and the position and posture of the operator's arm are detected. The manipulator in the remote environment is controlled to follow the position and posture of the operator's arm by the input of the sensor, the servo controller that sends the drive command by the calculation output, and the environment according to the drive command from this servo controller. It can be said that the presentation tool is a three-dimensional force / tactile display device including a position / orientation control device that freely controls the position and orientation of the presentation tool in a three-dimensional space, and an audiovisual information presentation device that presents audiovisual information to the operator.

【0024】[0024]

【発明の効果】本発明は、以上説明したように構成され
ているので、以下に記載されるような多くの特段の効果
を奏する。位置姿勢制御装置に搭載された環境提示ツー
ルに平面を設けて位置と姿勢を制御して操作者に環境提
示ツールの平面部を接触させることにより、操作者が仮
想環境ないしは遠隔環境で接触した平面物体の触覚を操
作者にフィードバックすることができる。位置姿勢制御
装置に搭載された環境提示ツールに凸面を設けて位置と
姿勢を制御して操作者に環境提示ツールの凸面を接触さ
せることにより、操作者が仮想環境ないしは遠隔環境で
接触した凸面物体の触覚を操作者にフィードバックする
ことができる。また、位置姿勢制御装置に搭載された環
境提示ツールに凹面を設けて位置と姿勢を制御して操作
者に環境提示ツールの凹面を接触させることにより、操
作者が仮想環境ないしは遠隔環境で接触した凹面物体の
触覚を操作者にフィードバックすることができる。さら
に、位置姿勢制御装置に搭載された環境提示ツールの側
面に凸曲面を設けて位置と姿勢を制御して操作者に環境
提示ツールの凸曲面を接触させることにより、操作者が
仮想環境ないしは遠隔環境で接触した凸曲面物体の触覚
を操作者にフィードバックすることができる。さらにま
た、位置姿勢制御装置に搭載された環境提示ツールの側
面に凹曲面を設けて位置と姿勢を制御して操作者に環境
提示ツールの凹曲面を接触させることにより、操作者が
仮想環境ないしは遠隔環境で接触した凹曲面物体の触覚
を操作者にフィードバックすることができる。しかも、
操作者が仮想環境ないしは遠隔環境で任意の形状の物体
に連続的に接触した場合、位置姿勢制御装置に搭載され
た環境提示ツールの位置と姿勢を制御して、操作者が仮
想環境ないしは遠隔環境で接触している任意の物体の一
部分を環境提示ツールで実現して操作者に接触させるこ
とにより、任意の物体全体の触覚を操作者にフィードバ
ックすることができる。なお、環境提示ツールに可動部
を設けて可動部を制御して操作者に可動部を開閉させる
ことにより、操作者が仮想環境ないしは遠隔環境で保持
した物体の厚さを操作者にフィードバックすることがで
きる。さらになお、位置姿勢制御装置に搭載された環境
提示ツールの位置と姿勢及び環境提示ツールの可動部を
インピーダンス制御することにより、操作者が仮想環境
において接触した物体の計算機内でのモデルの特性(慣
性、粘性及び剛性)ないしは操作者が遠隔環境において
接触した物体の特性(慣性、粘性及び剛性)を操作者に
フィードバックすることができる。しかもなお、操作者
の指先の位置と姿勢を検出するパッシブ・マスター・ア
ームの作業点と位置姿勢制御装置に搭載された環境提示
ツールを追従させて常に非接触状態を保つことにより、
操作者が仮想環境ないしは遠隔環境で非接触状態にある
とき操作者が動作を拘束されていないため速い動作を行
うことができる。
Since the present invention is configured as described above, it has many special effects as described below. By providing a flat surface on the environment presentation tool installed in the position and orientation control device to control the position and orientation to bring the operator into contact with the flat surface portion of the environment presentation tool, the plane that the operator touches in a virtual environment or a remote environment The tactile sense of the object can be fed back to the operator. By providing a convex surface on the environment presentation tool installed in the position and orientation control device to control the position and orientation and bringing the convex surface of the environment presentation tool into contact with the operator, a convex object that the operator has contacted in a virtual environment or a remote environment The tactile sense of can be fed back to the operator. In addition, by providing a concave surface on the environment presentation tool installed in the position and orientation control device and controlling the position and posture to bring the operator into contact with the concave surface of the environment presentation tool, the operator has contacted in a virtual environment or a remote environment. The tactile sense of the concave object can be fed back to the operator. Furthermore, by providing a convex curved surface on the side surface of the environment presentation tool installed in the position and orientation control device to control the position and posture to bring the operator into contact with the convex curved surface of the environment presentation tool, the operator can operate in a virtual environment or remotely. It is possible to feed back the tactile sensation of a convex curved surface object that comes into contact with the environment to the operator. Furthermore, by providing a concave curved surface on the side surface of the environment presentation tool installed in the position and orientation control device to control the position and posture to bring the concave curved surface of the environment presentation tool into contact with the operator, the operator can create a virtual environment or It is possible to feed back the tactile sensation of a concave curved surface object contacted in a remote environment to the operator. Moreover,
When an operator continuously contacts an object of any shape in a virtual environment or a remote environment, the operator controls the position and orientation of the environment presentation tool installed in the position and orientation control device to allow the operator to operate in the virtual or remote environment. By implementing a part of an arbitrary object that is in contact with the environment presentation tool and bringing it into contact with the operator, the tactile sense of the entire arbitrary object can be fed back to the operator. In addition, by providing a movable part in the environment presentation tool and controlling the movable part to allow the operator to open and close the movable part, the operator can feed back the thickness of the object held in the virtual environment or the remote environment to the operator. You can Furthermore, by controlling the position and orientation of the environment presentation tool installed in the position and orientation control device and impedance control of the movable part of the environment presentation tool, the characteristics of the model in the computer of the object that the operator touches in the virtual environment ( The inertia (viscosity and rigidity) or the characteristics (inertia, viscosity and rigidity) of an object with which the operator contacts in a remote environment can be fed back to the operator. Moreover, by keeping the working point of the passive master arm that detects the position and posture of the operator's fingertip and the environment presentation tool mounted on the position and posture control device, and keeping the non-contact state at all times,
When the operator is in a non-contact state in the virtual environment or the remote environment, the operator is not restricted in the operation, and thus the operator can perform a fast operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における3次元力触覚ディス
プレイ装置に適用される環境提示ツールの正面図
FIG. 1 is a front view of an environment presentation tool applied to a three-dimensional force / tactile display device according to an embodiment of the present invention.

【図2】本発明の一実施例における環境提示ツールの平
面図
FIG. 2 is a plan view of an environment presentation tool according to an embodiment of the present invention.

【図3】本発明の一実施例における環境提示ツールの斜
視図
FIG. 3 is a perspective view of an environment presentation tool according to an embodiment of the present invention.

【図4】本発明の一実施例における環境提示ツールの側
面図と側断面図
FIG. 4 is a side view and a side sectional view of the environment presentation tool according to the embodiment of the present invention.

【図5】本発明の一実施例における環境提示ツールを取
り付ける位置姿勢制御装置の正面図
FIG. 5 is a front view of a position / orientation control device for mounting an environment presentation tool according to an embodiment of the present invention.

【図6】本発明の一実施例における位置姿勢制御装置の
側面図
FIG. 6 is a side view of a position / orientation control device according to an embodiment of the present invention.

【図7】本発明の一実施例における環境提示ツールによ
り操作者に力覚及び触覚をフィードバックすることの可
能な物体例を示す斜視図
FIG. 7 is a perspective view showing an example of an object capable of feeding back a force sense and a tactile sense to an operator by the environment presentation tool according to the embodiment of the present invention.

【図8】本発明の一実施例における環境提示ツールによ
り、図7に記載された物体の力覚及び触覚を操作者にフ
ィードバックする接触点近傍を示す斜視図
FIG. 8 is a perspective view showing the vicinity of a contact point for feeding back the force sense and tactile sense of the object described in FIG. 7 to the operator by the environment presentation tool according to the embodiment of the present invention.

【図9】本発明の一実施例における環境提示ツールによ
り、操作者に力覚及び触覚をフィードバックすることの
可能な幾つかの物体例を示す斜視図
FIG. 9 is a perspective view showing some examples of objects capable of feeding back force and tactile sensations to an operator by the environment presentation tool according to the embodiment of the present invention.

【図10】本発明の一実施例における環境提示ツールに
より、図9に記載された物体の力覚及び触覚を操作者に
フィードバックする状態を示す斜視図
FIG. 10 is a perspective view showing a state in which the force sense and tactile sense of the object described in FIG. 9 are fed back to the operator by the environment presentation tool according to the embodiment of the present invention.

【図11】本発明の一実施例における制御構成を示すブ
ロック図
FIG. 11 is a block diagram showing a control configuration in an embodiment of the present invention.

【図12】本発明の一実施例における全体システム図FIG. 12 is an overall system diagram in an embodiment of the present invention.

【図13】頭上搭載ディスプレイの周辺の制御要素を説
明する斜視図及び一部の動作説明図
FIG. 13 is a perspective view and a part of operation explanatory view for explaining control elements around the overhead display.

【符号の説明】[Explanation of symbols]

1 凸面部 2 凹面部 3 凸曲面部 4 凹曲面部 5 可動部 6 平面部 10 環境提示ツール 11 位置姿勢制御装置 12 位置姿勢制御装置における環境提示ツールの搭載位
置 13 ロボット・コントローラ 14 仮想環境 15 CCDカメラ(電荷結合デバイス) 15a マイクロホン 15b マニピュレータ 16 X物体 17 Y物体 111 パッシブ・マスター・アーム 111p 一本の指先の位置と姿勢情報 112 接触面情報コンピュータ 113 仮想環境の映像を送出するコンピュータ 114 HMD(頭上搭載ディスプレイ) 115 ポヒマス・センサ (頭の位置と姿勢の検出手段) 116 位置姿勢制御装置に搭載された環境提示ツールの
位置・姿勢をメカニカルインピーダンス制御するコンピ
ュータ 117 サーボ・コントローラ 118 位置姿勢制御装置 119a 力センサ 119b 近接センサ(操作者の手先が環境提示ツールの面
のどの位置にあるかを検出する手段)
1 Convex part 2 Concave part 3 Convex curved part 4 Concave curved part 5 Movable part 6 Plane part 10 Environment presentation tool 11 Position and posture control device 12 Position of environment presentation tool in position and posture control device 13 Robot controller 14 Virtual environment 15 CCD Camera (charge coupled device) 15a Microphone 15b Manipulator 16 X object 17 Y object 111 Passive master arm 111p Position and posture information of one fingertip 112 Contact surface information computer 113 Computer sending virtual environment image 114 HMD (overhead) On-board display) 115 Poimas sensor (head position and posture detection means) 116 Computer for mechanical impedance control of the position and orientation of the environment presentation tool mounted on the position and orientation control device 117 Servo controller 118 Position and orientation control device 119a Sensor 119b Proximity sensor (operator's fingertip shows environment Means for detecting whether at any position Le of the surface)

───────────────────────────────────────────────────── フロントページの続き (71)出願人 594081179 星野 洋 東京都大田区北千束一丁目15番10号 (72)発明者 平田 亮吉 福岡県北九州市八幡西区黒崎城石2番1号 株式会社安川電機内 (72)発明者 舘 ▲すすむ▼ 茨城県つくば市梅園二丁目31番14号 (72)発明者 前田 太郎 茨城県つくば市千現一丁目13番32号寿限無 荘101号室 (72)発明者 星野 洋 東京都大田区北千束一丁目15番10号 ─────────────────────────────────────────────────── ─── Continuation of the front page (71) Applicant 594081179 Hiroshi Hoshino 1-15-10 Kita-Sentsu, Ota-ku, Tokyo (72) Inventor Ryokichi Hirata 2-1, Kurosaki-joseki, Hachiman-nishi-ku, Kitakyushu, Fukuoka Yaskawa Electric Co., Ltd. (72) Inventor Tate ▲ Susumu ▼ 2-31-14 Umezono, Tsukuba-shi, Ibaraki (72) Inventor Taro Maeda 1-13-32 Sengen 1-chome, Tsukuba, Ibaraki Prefecture Room 101 (72) Inventor Hiroshi Hoshino 1-15-10 Kita-senzuka, Ota-ku, Tokyo

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 (a) 予め対象物体の位置情報に基づく接
触面情報を記憶していて、操作者の指先の位置と姿勢を
検出するセンサの入力に基づく接触面情報の送出処理 (b) 上記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理 の上記に示す処理を行うコンピュータと、 演算出力により駆動指令を送出するサーボコントローラ
と、 このサーボコントローラからの駆動指令に従い環境提示
ツールを3次元空間において自由にその位置と姿勢を制
御する位置姿勢制御装置とを具備することを特徴とする
3次元力触覚ディスプレイ装置。
1. (a) Sending processing of contact surface information based on input of a sensor which stores contact surface information based on position information of a target object in advance and which detects a position and orientation of a fingertip of an operator (b) The mechanical impedance of the position / orientation of the environment presentation tool installed in the position / orientation control device by inputting the contact surface information sequentially and inputting the sensor for detecting the position and attitude of the operator's fingertip, the proximity sensor, and the force sensor. A computer that performs the above-described processing of control, a servo controller that sends a drive command by a calculation output, and an environment presentation tool that freely controls the position and orientation in a three-dimensional space according to the drive command from this servo controller. A three-dimensional force / tactile display device, comprising: a position / orientation control device.
【請求項2】 (a) 予め対象物体の位置情報に基づく接
触面情報を記憶していて、操作者の指先の位置と姿勢を
検出するセンサの入力に基づく接触面情報の送出処理 (b) 上記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理 (c) 予め対象物体と、操作者の身体モデルを記憶してい
て、操作者の頭部及び腕部の位置と姿勢を検出するセン
サの入力に基づく視聴覚情報の送出処理 の上記に示す処理を行うコンピュータと、 演算出力により駆動指令を送出するサーボコントローラ
と、 このサーボコントローラからの駆動指令に従い環境提示
ツールを3次元空間において自由にその位置と姿勢を制
御する位置姿勢制御装置と、操作者に視聴覚情報を提示
する視聴覚情報提示装置とを具備することを特徴とする
3次元力触覚ディスプレイ装置。
2. (a) Sending processing of contact surface information based on input of a sensor that stores contact surface information based on position information of a target object in advance and that detects a position and orientation of an operator's fingertip (b) The mechanical impedance of the position / orientation of the environment presentation tool installed in the position / orientation control device by inputting the contact surface information sequentially and inputting the sensor for detecting the position and attitude of the operator's fingertip, the proximity sensor, and the force sensor. Control processing (c) The target object and the body model of the operator are stored in advance, and the above-described processing of transmitting audiovisual information based on the input of the sensor that detects the position and posture of the operator's head and arm is described above. A computer that performs the processing shown, a servo controller that sends a drive command by calculation output, and an environment presentation tool that freely moves its position in a three-dimensional space according to the drive command from the servo controller. Position and orientation control unit for controlling the attitude, the operator three-dimensional force tactile display apparatus characterized by comprising the audiovisual information presentation device for presenting audiovisual information to.
【請求項3】 (a) 予め対象物体の位置情報に基づく接
触面情報を記憶していて、操作者の指先の位置と姿勢を
検出するセンサの入力に基づく接触面情報の送出処理 (b) 上記接触面情報を逐次入力していて、操作者の指先
の位置と姿勢を検出するセンサと近接センサと力センサ
の入力により位置姿勢制御装置に搭載された環境提示ツ
ールの位置・姿勢のメカニカルインピーダンス制御の処
理 の上記に示す処理を行うコンピュータと、 操作者の頭部の位置と姿勢を検出するセンサの入力によ
り、操作者の頭部の位置と姿勢に追従するように制御さ
れる遠隔環境のロボットに搭載されたCCDカメラと、 遠隔環境のロボットに搭載されたマイクロホンと、 操作者の腕部の位置と姿勢を検出するセンサの入力によ
り、操作者の腕部の位置と姿勢に追従するように制御さ
れる遠隔環境のマニピュレータと、 演算出力により駆動指令を送出するサーボコントローラ
と、 このサーボコントローラからの駆動指令に従い環境提示
ツールを3次元空間において自由にその位置と姿勢を制
御する位置姿勢制御装置と、操作者に視聴覚情報を提示
する視聴覚情報提示装置とを具備することを特徴とする
3次元力触覚ディスプレイ装置。
3. (a) Sending processing of contact surface information based on input of a sensor which stores contact surface information based on position information of a target object in advance and which detects a position and orientation of a fingertip of an operator (b) The mechanical impedance of the position / orientation of the environment presentation tool installed in the position / orientation control device by inputting the contact surface information sequentially and inputting the sensor for detecting the position and attitude of the operator's fingertip, the proximity sensor, and the force sensor. The remote environment is controlled so as to follow the position and posture of the operator's head by the input of the computer that performs the above-mentioned processing of control and the sensor that detects the position and posture of the operator's head. The CCD camera mounted on the robot, the microphone mounted on the robot in the remote environment, and the sensor that detects the position and posture of the operator's arm are used to track the position and posture of the operator's arm. The manipulator in the remote environment that is controlled to operate, the servo controller that sends the drive command by the operation output, and the position that freely controls the position and orientation of the environment presentation tool in the three-dimensional space according to the drive command from this servo controller. A three-dimensional force / tactile display device comprising an attitude control device and an audiovisual information presenting device for presenting audiovisual information to an operator.
【請求項4】 前記位置姿勢制御装置に搭載された前記
環境提示ツールに平面を設けて操作者が仮想環境ないし
は遠隔環境で接触した平面の触覚を操作者にフィードバ
ックする請求項1に記載の3次元力触覚ディスプレイ装
置。
4. The method according to claim 1, wherein the environment presenting tool mounted on the position / orientation control device is provided with a flat surface, and a tactile sense of the flat surface contacted by the operator in a virtual environment or a remote environment is fed back to the operator. Dimensional force tactile display device.
【請求項5】 前記位置姿勢制御装置に搭載された前記
環境提示ツールに凸面を設けて操作者が仮想環境ないし
は遠隔環境で接触した凸面物体の触覚を操作者にフィー
ドバックする請求項1に記載の3次元力触覚ディスプレ
イ装置。
5. The environment presentation tool mounted on the position / orientation control device is provided with a convex surface, and the tactile sensation of a convex object contacted by the operator in a virtual environment or a remote environment is fed back to the operator. 3D force tactile display device.
【請求項6】 前記位置姿勢制御装置に搭載された前記
環境提示ツールに凹面を設けて操作者が仮想環境ないし
は遠隔環境で接触した凹面物体の触覚を操作者にフィー
ドバックする請求項1に記載の3次元力触覚ディスプレ
イ装置。
6. The environment presentation tool mounted on the position / orientation control device is provided with a concave surface, and the tactile sensation of a concave object contacted by the operator in a virtual environment or a remote environment is fed back to the operator. 3D force tactile display device.
【請求項7】 前記位置姿勢制御装置に搭載された前記
環境提示ツールに凸曲面を設けて操作者が仮想環境ない
しは遠隔環境で接触した凸曲面物体の触覚を操作者にフ
ィードバックする請求項1に記載の3次元力触覚ディス
プレイ装置。
7. The environment presentation tool mounted on the position / orientation control device is provided with a convex curved surface, and the tactile sensation of a convex curved object contacted by the operator in a virtual environment or a remote environment is fed back to the operator. The three-dimensional force tactile display device described.
【請求項8】 前記位置姿勢制御装置に搭載された前記
環境提示ツールに凹曲面を設けて操作者が仮想環境ない
しは遠隔環境で接触した凹曲面物体の触覚を操作者にフ
ィードバックする請求項1に記載の3次元力触覚ディス
プレイ装置。
8. The method according to claim 1, wherein the environment presentation tool mounted on the position / orientation control device is provided with a concave curved surface, and the tactile sensation of the concave curved object that the operator contacts in a virtual environment or a remote environment is fed back to the operator. The three-dimensional force tactile display device described.
【請求項9】 位置姿勢制御装置に搭載された前記環境
提示ツールに平面を設けて操作者に常に平面の中心を接
触させることにより操作者が仮想環境ないしは遠隔環境
で接触した平面、凸曲面,凹曲面物体の触覚を操作者に
フィードバックする請求項1に記載の3次元力触覚ディ
スプレイ装置。
9. A flat surface, a convex curved surface, which an operator contacts in a virtual environment or a remote environment, by providing a flat surface on the environment presentation tool mounted on the position and orientation control device and keeping the center of the flat surface in contact with the operator. The three-dimensional force tactile display device according to claim 1, wherein the tactile sense of the concave curved surface object is fed back to the operator.
【請求項10】 操作者が仮想環境ないしは遠隔環境で
任意の形状の物体に連続的に接触した場合、前記平面物
体,凸面物体,凹面物体,凸曲面物体,凹曲面物体の前
記位置姿勢制御装置に搭載された前記環境提示ツールを
組み合わせて任意の物体全体の触覚を操作者にフィード
バックする請求項1に記載の3次元力触覚ディスプレイ
装置。
10. The position / orientation control device for the planar object, the convex object, the concave object, the convex curved object, and the concave curved object when an operator continuously contacts an object of an arbitrary shape in a virtual environment or a remote environment. The three-dimensional force tactile display device according to claim 1, wherein a tactile sense of an entire arbitrary object is fed back to an operator by combining the environment presenting tools installed in the.
【請求項11】 前記環境提示ツールに可動部を設けて
操作者が仮想環境ないしは遠隔環境で保持した物体の厚
さを操作者にフィードバックする請求項1に記載の3次
元力触覚ディスプレイ装置。
11. The three-dimensional force / tactile display device according to claim 1, wherein the environment presenting tool is provided with a movable portion to feed back the thickness of an object held by the operator in a virtual environment or a remote environment to the operator.
【請求項12】 前記位置姿勢制御装置に搭載された前
記環境提示ツールの位置と姿勢及び環境提示ツールの可
動部をメカニカルインピーダンス制御することにより、
操作者が仮想環境において接触した物体のコンピュータ
内でのモデルの慣性、粘性及び剛性の特性ないしは操作
者が遠隔環境において接触した物体の慣性、粘性及び剛
性の特性を操作者にフィードバックする請求項1に記載
の3次元力触覚ディスプレイ装置。
12. The mechanical impedance control of the position and orientation of the environment presentation tool and the movable part of the environment presentation tool mounted on the position and orientation control device,
The feedback of the inertial, viscous and rigid characteristics of the model of the object contacted by the operator in the virtual environment in the computer or the inertial, viscous and rigid characteristics of the object contacted by the operator in the remote environment to the operator. The three-dimensional force / tactile display device according to item 1.
【請求項13】 操作者が仮想環境ないしは遠隔環境で
非接触状態にあるとき、操作者の前記指先の位置と姿勢
を検出するセンサの作業点と前記位置姿勢制御装置に搭
載された前記環境提示ツールを追従させて、常に前記指
先の位置と姿勢を検出するセンサの作業点と前記環境提
示ツールとの非接触状態を保つことにより、操作者が拘
束されずに動作を行う請求項1に記載の3次元力触覚デ
ィスプレイ装置。
13. A working point of a sensor for detecting the position and orientation of the fingertip of the operator when the operator is in a non-contact state in a virtual environment or a remote environment, and the environment presentation mounted on the position and orientation control device. The operation is performed without being constrained by the operator by keeping the working point of the sensor that constantly detects the position and posture of the fingertip and the environment presentation tool in a non-contact state by following the tool. 3D force tactile display device.
JP10218794A 1994-04-15 1994-04-15 3D force tactile display Expired - Fee Related JP3612347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10218794A JP3612347B2 (en) 1994-04-15 1994-04-15 3D force tactile display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10218794A JP3612347B2 (en) 1994-04-15 1994-04-15 3D force tactile display

Publications (2)

Publication Number Publication Date
JPH08257947A true JPH08257947A (en) 1996-10-08
JP3612347B2 JP3612347B2 (en) 2005-01-19

Family

ID=14320669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10218794A Expired - Fee Related JP3612347B2 (en) 1994-04-15 1994-04-15 3D force tactile display

Country Status (1)

Country Link
JP (1) JP3612347B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6341869B1 (en) 1998-08-11 2002-01-29 Minolta Co., Ltd. Method and device for providing information
JP2008108054A (en) * 2006-10-25 2008-05-08 Canon Inc Contact presenting unit and method
JP2013091114A (en) * 2011-10-05 2013-05-16 Kyokko Denki Kk Interaction operating system
DE102016215481A1 (en) * 2016-08-18 2018-02-22 Technische Universität Dresden System and method for haptic interaction with virtual objects
CN113536599A (en) * 2021-08-15 2021-10-22 吉林大学 Naked finger force touch signal generation method with human body biomechanics difference characteristics
JP2024066390A (en) * 2022-11-01 2024-05-15 キム,テウォン Vr device for adult content providing tactile sensation

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6341869B1 (en) 1998-08-11 2002-01-29 Minolta Co., Ltd. Method and device for providing information
JP2008108054A (en) * 2006-10-25 2008-05-08 Canon Inc Contact presenting unit and method
JP2013091114A (en) * 2011-10-05 2013-05-16 Kyokko Denki Kk Interaction operating system
DE102016215481A1 (en) * 2016-08-18 2018-02-22 Technische Universität Dresden System and method for haptic interaction with virtual objects
US10521010B2 (en) 2016-08-18 2019-12-31 Technische Universitaet Dresden System and method for haptic interaction with virtual objects
CN113536599A (en) * 2021-08-15 2021-10-22 吉林大学 Naked finger force touch signal generation method with human body biomechanics difference characteristics
JP2024066390A (en) * 2022-11-01 2024-05-15 キム,テウォン Vr device for adult content providing tactile sensation

Also Published As

Publication number Publication date
JP3612347B2 (en) 2005-01-19

Similar Documents

Publication Publication Date Title
US5512919A (en) Three-dimensional coordinates input apparatus
JP2730915B2 (en) Robot controller
US8350843B2 (en) Virtual hand: a new 3-D haptic interface and system for virtual environments
KR20030024681A (en) Three dimensional human-computer interface
WO2004088467A2 (en) Method, apparatus, and article for force feedback based on tension control and tracking through cables
US5982353A (en) Virtual body modeling apparatus having dual-mode motion processing
JP2010287221A (en) Haptic device
KR20200110502A (en) Haptic controller, and System and Method for providing haptic feedback using the haptic controller
Zhu et al. Tapetouch: A handheld shape-changing device for haptic display of soft objects
JPH07244558A (en) Touch sense presenting device
Kulik Building on realism and magic for designing 3d interaction techniques
CN113508355A (en) Virtual reality controller
EP4121839B1 (en) Deployable controller
JPH08257947A (en) Three-dimensional display device for inner force sense and touch sense
Springer et al. State-of-the-art virtual reality hardware for computer-aided design
Achibet et al. DesktopGlove: A multi-finger force feedback interface separating degrees of freedom between hands
JP2014052975A (en) Touch sense and force sense presenting device, and touch sense and force sense presenting system using the device
Lee et al. Demonstration of torc: A virtual reality controller for in-hand high-dexterity finger interaction
Hatano et al. A vibrotactile navigation aid for remote operation of an industrial robot
CN117572965B (en) Multi-information somatosensory interactive glove system for virtual reality system
CN117251058B (en) Control method of multi-information somatosensory interaction system
JPH1133937A (en) Force tactile sense display method
JPH10254344A (en) Cooperative object operating device
JP7504374B2 (en) ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL SYSTEM
Sawada et al. Gesture recognition for human-friendly interface in designer-consumer cooperate design system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040210

A521 Written amendment

Effective date: 20040318

Free format text: JAPANESE INTERMEDIATE CODE: A523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040326

A521 Written amendment

Effective date: 20040422

Free format text: JAPANESE INTERMEDIATE CODE: A523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20041019

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041025

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081029

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081029

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091029

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20101029

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20111029

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111029

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20121029

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20121029

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees