JP2003067107A - Tactile sense presenting device - Google Patents

Tactile sense presenting device

Info

Publication number
JP2003067107A
JP2003067107A JP2001305820A JP2001305820A JP2003067107A JP 2003067107 A JP2003067107 A JP 2003067107A JP 2001305820 A JP2001305820 A JP 2001305820A JP 2001305820 A JP2001305820 A JP 2001305820A JP 2003067107 A JP2003067107 A JP 2003067107A
Authority
JP
Japan
Prior art keywords
hand
virtual
operator
blower
information input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001305820A
Other languages
Japanese (ja)
Inventor
Akira Inoue
陽 井上
Kiyotaka Kato
清敬 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Found Advancement Sci & Tech
Foundation For Advancement Of Science & Technology
Original Assignee
Found Advancement Sci & Tech
Foundation For Advancement Of Science & Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Found Advancement Sci & Tech, Foundation For Advancement Of Science & Technology filed Critical Found Advancement Sci & Tech
Priority to JP2001305820A priority Critical patent/JP2003067107A/en
Publication of JP2003067107A publication Critical patent/JP2003067107A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To apply a sense when an object is touched in a virtual space, without any equipment on an operator. SOLUTION: An operator operates a virtual hand 1b in a virtual space display means 1 via a hand information input means 2. When the virtual object 1a is touched, a blast control means 4 outputs a function group from the touching state on each object and controls a blast means 3 to blow air having characteristics of each object over the operator.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、仮想空間に表示し
た仮想オブジェクトと同仮想空間上での操作者の分身が
接触した際に与えられる力覚を操作者に提示する力覚提
示装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a force sense presentation device for presenting a force sense provided to a virtual object displayed in a virtual space to a virtual body displayed by the operator in the virtual space. Is.

【0002】[0002]

【従来の技術】仮想環境において操作者に力覚を与える
従来の装置としては、操作者の指に糸を張ったリングを
はめ、その糸の他端をモーターにとりつけて糸の張力の
制御で力覚を提示する「糸式」の力覚提示装置がある。
また、出願番号「特願平11−190638」に記述さ
れた、「実感可能な仮想空間システム」もある。これ
は、仮想空間上での仮想オブジェクトを表現し、操作者
に送風受信手段を身体や所持物に取り付ける。送風受信
手段は、送風受信部と圧力提示部から構成されている。
送風受信手段の位置や向きなどを検出する送風受信部検
出手段を用いて、仮想空間に仮想の送風受信物体を表示
し、その仮想送風受信物体と仮想オブジェクトとの仮想
接触が起こったとき、その仮想接触の状態に応じて、送
風受信部が風を受け止め、圧力提示部がその受けた風圧
を操作者に圧力として提示するものがある。
2. Description of the Related Art As a conventional device for giving a sense of force to an operator in a virtual environment, a ring with a thread attached to the operator's finger is attached, and the other end of the thread is attached to a motor to control the tension of the thread. There is a "thread-type" force sense presentation device that presents force sense.
Further, there is also "a virtual space system that can be realized" described in the application number "Japanese Patent Application No. 11-190638". This represents a virtual object in the virtual space, and attaches the air blowing and receiving means to the operator's body or belongings. The blast receiving means includes a blast receiving unit and a pressure presenting unit.
By using the blower receiving unit detecting means for detecting the position and orientation of the blower receiving means, the virtual blower receiving object is displayed in the virtual space, and when the virtual contact between the virtual blower receiving object and the virtual object occurs, Depending on the state of virtual contact, there is one in which a blower receiving unit receives wind and a pressure presenting unit presents the received wind pressure to the operator as pressure.

【0003】[0003]

【発明が解決しようとする課題】ところが、前者の「糸
式」の装置は操作者の位置情報を検出するために糸を用
いているため、操作者は自由に動けないといった操作制
限が問題となっている。また後者の「実感可能な仮想空
間システム」でも圧力を感じさせるために操作者は送風
受信手段を身体や所持物に取り付けたりする手間がかか
り、わずらわしい。
However, since the former "thread type" device uses a thread to detect the position information of the operator, there is a problem that the operator cannot move freely. Has become. Also, in the latter "actual virtual space system", since the operator feels pressure, it is troublesome for the operator to attach the air blowing and receiving means to the body or belongings.

【0004】本発明はこのような課題を解消するために
されたもので、操作者が装置を直接装着したりあるいは
装置に接触することなく、仮想空間上でオブジェクトに
接触すると物体に触っているという感覚を各物体の性質
に応じて操作者に提示する装置を提供するものである。
The present invention has been made to solve such a problem. An operator touches an object when he / she touches the object in the virtual space without directly wearing the device or touching the device. The present invention provides a device that presents such a feeling to the operator according to the property of each object.

【0005】[0005]

【課題を解決するための手段】[Means for Solving the Problems]

【実施例】図1は本発明の第1の実施例の全体構成図で
ある。仮想空間表示手段1は仮想オブジェクトを表示
し、操作者の手の位置を手情報入力手段2により入力
し、計算機内部の仮想オブジェクトデータに反映し、仮
想の手として仮想空間に表示する。この仮想空間上で仮
想の手1bと仮想オブジェクト1aが接触していない場
合には送風制御手段4が送風手段3を動作させない。し
かし、接触している場合には送風制御手段4が各オブジ
ェクトに対応した制御を行って送風手段3から操作者に
オブジェクトごとに異なる触感を風で提示するものであ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is an overall configuration diagram of a first embodiment of the present invention. The virtual space display means 1 displays a virtual object, the position of the operator's hand is input by the hand information input means 2, is reflected in the virtual object data inside the computer, and is displayed in the virtual space as a virtual hand. When the virtual hand 1b and the virtual object 1a are not in contact with each other in this virtual space, the air blowing control unit 4 does not operate the air blowing unit 3. However, when in contact, the air blow control means 4 performs control corresponding to each object, and the air blow means 3 presents the operator with a different tactile sensation for each object.

【0006】以下、本発明の第1の実施例の各構成要素
について詳細に説明する。図2は仮想空間表示手段1の
構成について説明するものである。ディスプレイ上に仮
想オブジェクト1aおよび仮想の手1bを表示・配置す
る。これは、3次元形状を2次元ディスプレイ上に投影
する機能により実現する。操作者の手は手情報入力手段
2より入力した位置情報をもとに操作者の手の動きに応
じて仮想の手の位置データを更新する。この位置更新に
より仮想の手の画面への表示も更新する。
Hereinafter, each constituent element of the first embodiment of the present invention will be described in detail. FIG. 2 illustrates the configuration of the virtual space display means 1. The virtual object 1a and the virtual hand 1b are displayed / arranged on the display. This is realized by the function of projecting a three-dimensional shape on a two-dimensional display. The operator's hand updates the virtual hand position data according to the movement of the operator's hand based on the position information input from the hand information input means 2. By this position update, the display on the screen of the virtual hand is also updated.

【0007】図3は手情報入力手段2に距離センサ2a
を用いた方法の構成について説明するものである。距離
センサ2aにより手までの距離を計測する。例えば超音
波センサを使用した場合、センサと手の距離はセンサの
送信部から手に当たってはねかえった超音波をセンサの
受信部が受け取る時間により計算して距離を測る。この
計測値情報はディジタルデータであるが、この実施例で
は、まずDA変換の回路2bを構成してこの計測値のア
ナログ値を得、次にこのアナログ値をコンピュータに取
り組むためにAD変換ボード2cを用いる。こうしてコ
ンピュータ内で手の位置情報を数値として取り込む。な
お、このコンピュータの中には仮想オブジェクト1aを
表現するためのオブジェクトデータと仮想の手のデータ
が存在し、仮想接触認識手段4aにより接触・非接触を
判断する。そして、この入力された数値により送風制御
手段4が送風手段3に送風指令4bを与え、送風する。
FIG. 3 shows a distance sensor 2a in the hand information input means 2.
The configuration of the method using is described. The distance to the hand is measured by the distance sensor 2a. For example, when an ultrasonic sensor is used, the distance between the sensor and the hand is calculated by calculating the time at which the receiving unit of the sensor receives the ultrasonic wave that is hit by the hand and rebounded from the transmitting unit of the sensor. Although this measurement value information is digital data, in this embodiment, first, the DA conversion circuit 2b is configured to obtain the analog value of this measurement value, and then this analog value is used for the computer, the AD conversion board 2c. To use. In this way, the position information of the hand is captured as a numerical value in the computer. It should be noted that this computer has object data for representing the virtual object 1a and virtual hand data, and the virtual contact recognition means 4a determines contact / non-contact. Then, the blower control means 4 gives a blower command 4b to the blower means 3 according to the inputted numerical value to blow the blower.

【0008】次に、本発明の第1の実施例の動作につい
て詳細に説明する。図4は手情報入力手段2からの位置
情報とその制御の流れを示しているフローチャートであ
る。まず、手情報入力手段2で手の位置を認識する(S
1)。次に、仮想空間表示手段1に仮想オブジェクト1
aを表示する(S2)。また、この仮想空間上に仮想の
手1bが存在するので、これを操作者が手情報入力手段
2を用いて仮想空間上で動かす(S3)。そしてこの手
がいずれかの仮想オブジェクト1aに接触しているか、
いないかを判断する(S4)。接触していればその接触
している物体によって送風制御手段4が作動し(S
3)、送風手段3によって送風する(S6)。
Next, the operation of the first embodiment of the present invention will be described in detail. FIG. 4 is a flow chart showing the positional information from the hand information input means 2 and its control flow. First, the hand information input means 2 recognizes the position of the hand (S
1). Next, the virtual object 1 is displayed on the virtual space display means 1.
a is displayed (S2). Also, since the virtual hand 1b exists in this virtual space, the operator moves it in the virtual space using the hand information input means 2 (S3). And whether this hand is in contact with any virtual object 1a,
It is determined whether there is any (S4). If they are in contact, the blower control means 4 is activated by the contacting object (S
3), the air is blown by the air blowing means 3 (S6).

【0009】図5は第2の実施例を説明するもので手情
報入力手段にカメラを用いた方法の構成について説明す
るものである。後述する入力方法により、カメラからコ
ンピュータに手の位置情報を入力し、距離センサの場合
と同様にオブジェクトデータや手のデータに基づいて接
触・非接触を判断し、送風制御手段4が送風手段3に送
風指令4bを与え、送風する。それと同時に、送風手段
本体はモーターによる可動式で、操作者の手の位置を追
いかける。
FIG. 5 illustrates the second embodiment and illustrates the configuration of a method using a camera as the hand information input means. By the input method described later, the position information of the hand is input from the camera to the computer, the contact / non-contact is determined based on the object data and the hand data as in the case of the distance sensor, and the air blowing control unit 4 sends the air blowing unit 3. A blow command 4b is given to the fan to blow the air. At the same time, the body of the blowing means is movable by a motor to follow the position of the operator's hand.

【0010】手情報入力手段のもう1つの入力方法はカ
メラを使用し、画像処理によって手の3次元情報を入力
するものである。このようにした場合、手の3次元情報
が得られるから超音波センサによる距離データだけの場
合と比較し、仮想空間内で自由に手を移動させ、仮想オ
ブジェクトに接触することが可能となる。カメラを使用
して、手の3次元情報を入力するには様々な方法が考え
られる。例えばカメラ1台を用いて、カメラに入力され
た手の大きさから距離を簡易的に計算し、さらに手の画
面上の2次元的な位置関係を使って簡易的に手の位置を
入力することができる。すなわち、図6のようにカメラ
から得られた手の画像Image1とImage2では
手の大きさが異なる。これにより簡易的に手の距離が推
定できる。また、手の重心については手の画像の重心を
とればよい。もちろんより複雑な画像処理により手の位
置を入力しても良いし、カメラ2台によるステレオ画像
を使って手の位置を入力しても良い。
Another input method of the hand information input means is to use a camera and input three-dimensional information of the hand by image processing. In this case, since three-dimensional information of the hand is obtained, it is possible to freely move the hand in the virtual space and contact the virtual object as compared with the case where only the distance data is obtained by the ultrasonic sensor. Various methods are conceivable for inputting the three-dimensional information of the hand using the camera. For example, using one camera, the distance is simply calculated from the size of the hand input to the camera, and the hand position is simply input using the two-dimensional positional relationship on the screen of the hand. be able to. That is, as shown in FIG. 6, the sizes of the hands are different between the hand images Image1 and Image2 obtained from the camera. This allows the distance of the hand to be easily estimated. As for the center of gravity of the hand, the center of gravity of the image of the hand may be taken. Of course, the position of the hand may be input by more complicated image processing, or the position of the hand may be input using a stereo image from two cameras.

【0011】次に、本発明の第2の実施例の動作につい
て詳細に説明する。図7はカメラを用いた手情報入力手
段2からの位置情報とその制御の流れを示しているフロ
ーチャートである。まず、手情報入力手段2で手の位置
を認識する(s1)。次に、仮想空間表示手段1に仮想
オブジェクト1aを表示する(s2)。また、この仮想
空間上に仮想の手1bが存在するので、これを操作者が
手情報入力手段を用いて仮想の手1bを動かす(s
3)。そしてこの手がいずれかの仮想オブジェクト1a
に接触しているか、いないかを判断する(s4)。接触
していれば既に入力されている手の位置情報から可動式
の送風手段3をモーターによって手の方を向くように追
従させる(s5)。また、第1の実施例と同様に、接触
している物体によって送風制御手段4が作動し(s
6)、操作者の手の方に向かって送風手段3によって送
風する(s7)。
Next, the operation of the second embodiment of the present invention will be described in detail. FIG. 7 is a flowchart showing the positional information from the hand information input means 2 using a camera and the flow of its control. First, the hand information input means 2 recognizes the position of the hand (s1). Next, the virtual object 1a is displayed on the virtual space display means 1 (s2). Further, since the virtual hand 1b exists in this virtual space, the operator moves the virtual hand 1b using the hand information input means (s
3). And this hand is any virtual object 1a
It is determined whether or not it is in contact with (s4). If they are in contact, the movable blower means 3 is made to follow the hand by the motor based on the hand position information that has already been input (s5). Further, as in the first embodiment, the blower control means 4 is activated by the contacting object (s
6), the air is blown toward the operator's hand by the air blower 3 (s7).

【0012】次に本発明の第3および第4の実施例の構
成要素について詳細に説明する。構成は第1の実施例で
述べた場合と同じなので、説明を省略する。この実施例
では、図3のオブジェクトデータに硬い物体と柔い物体
などの属性情報およびそれぞれの幾何データが記述され
ている。ここで、手情報入力手段2より動かすことが出
来る仮想の手1bが各仮想オブジェクト1aに触れると
本発明の第1の実施例で述べたように仮想接触認識手段
4aで接触していると認識して性質ごとに送風制御手段
4が送風手段3を駆動する。
Next, the components of the third and fourth embodiments of the present invention will be described in detail. Since the configuration is the same as that described in the first embodiment, the description will be omitted. In this embodiment, attribute information such as a hard object and a soft object and their respective geometric data are described in the object data of FIG. Here, when the virtual hand 1b which can be moved by the hand information input means 2 touches each virtual object 1a, it is recognized that the virtual contact recognition means 4a makes contact as described in the first embodiment of the present invention. Then, the blowing control means 4 drives the blowing means 3 for each property.

【0013】図8は送風制御手段4の送風手段3への送
風指令方法を示した図である。仮想空間表示手段1上で
物体に触れた時にコンピュータ内で手のデータとオブジ
ェクトデータから決まるそれぞれの属性に対して力覚提
示関数群4cを送風指令4bとして送風制御手段4から
送風手段3に入力し、送風手段3がその関数に応じた風
を操作者に提示する。
FIG. 8 is a view showing a method of instructing the air blowing means 3 of the air blowing control means 4 to blow air. When an object is touched on the virtual space display means 1, the force sense presentation function group 4c is input from the air blowing control means 4 to the air blowing means 3 as the air blowing instruction 4b for each attribute determined by the hand data and the object data in the computer. Then, the air blowing means 3 presents the operator with a wind according to the function.

【0014】送風制御手段4にオブジェクトの属性情報
が入力されると送風指令し、そのオブジェクトに触れた
時のような力覚を操作者に提示するような風を送出す
る。
When the attribute information of an object is input to the blowing control means 4, a blowing instruction is given and a wind is sent to present the operator with a force sense as when the object was touched.

【0015】第3の実施例は仮想の手の位置と仮想オブ
ジェクトとの接触時の距離による送風指令値の変化を表
す関数であり、硬い物体の場合、ある位置(仮想の手1
bと仮想オブジェクト1aが接触する位置)に来たら前
述したように送風制御手段4は駆動するが、次に硬い物
体の幾何情報により図9(a)のようにその位置で急激
に出力値が上がっている。これは硬い物体に触れたこと
を示している。この値で送風手段3により風を提供し、
操作者に硬いといった感覚を与えることができる。反対
に柔い物体の場合、図9(b)のようにある位置までは
硬い物体と同じであるが、その接触した位置から徐々に
出力値を変化させる。これにより柔い物体を表現する。
The third embodiment is a function that represents the change of the air blowing command value depending on the distance when the position of the virtual hand and the virtual object are in contact. In the case of a hard object, a certain position (the virtual hand 1
When the position b comes into contact with the virtual object 1a), the air blow control unit 4 is driven as described above, but the geometric value of the next hard object causes the output value to rapidly increase at that position as shown in FIG. 9A. Up This indicates that you have touched a hard object. With this value, the wind is provided by the air blower 3,
It is possible to give the operator a sense of hardness. On the contrary, in the case of a soft object, it is the same as a hard object up to a certain position as shown in FIG. 9B, but the output value is gradually changed from the contact position. This represents a soft object.

【0016】次に重い物体の場合、実際に重さは変わら
ないはずであるが、物体に触れて移動距離が徐々に増え
ることによって操作者に重いといったことを示すため
に、図10(a)のように近づくにつれ、少しずつ風量
が増えている。反対に軽い物体の場合、図10(b)の
ように風を微量に送風する。例えば風船を持っている場
合には実際人間は物に触れているといった程度の感覚で
あるので、この様な関数で軽い物体として表現できる。
Next, in the case of a heavy object, the weight should not actually change, but in order to show that the operator touches the object and the moving distance gradually increases, it is heavy for the operator. As you approach, the air volume gradually increases. On the contrary, in the case of a light object, a small amount of wind is blown as shown in FIG. For example, when a person has a balloon, he / she actually feels like he / she is touching an object, so it can be expressed as a light object by such a function.

【0017】次に第4の実施例では仮想の手の位置と仮
想オブジェクトとの接触後の送風指令値の時間的な変化
を表す関数である。ザラザラした物体の場合、図11
(a)に示したように距離(接触している中での微妙な
位置関係)による違いではなく、触ってから時間的変化
を用いて物体の質感を操作者に提示する方法である。反
対に図11(b)は時間の経過後もわずかな風量を送出
することによって、その風が人間になめらかな物体であ
ると感じさせるように表現している。
Next, in the fourth embodiment, it is a function that represents the temporal change of the air blowing command value after the contact between the position of the virtual hand and the virtual object. In the case of a rough object, FIG.
This is a method of presenting the texture of the object to the operator by using a temporal change after being touched, rather than a difference due to a distance (a subtle positional relationship while in contact) as shown in (a). On the other hand, FIG. 11 (b) expresses that the wind feels as a smooth object to humans by sending out a small amount of air flow even after the passage of time.

【0018】このように図9、10、11のそれぞれに
制御関数を示したが、これはほんの一例に過ぎず、硬い
・柔い、重い・軽い、ザラザラした物体・なめらかな物
体などの中でもその対象となる物体によって触った感じ
は変わってくる。そのため図9、10、11以外にも様
々な関数を用いて操作者に風を用いてそれらの感覚を表
現できる。
As described above, the control function is shown in each of FIGS. 9, 10 and 11, but this is only an example, and it can be used for hard / soft, heavy / light, rough / smooth objects, etc. The touching feeling changes depending on the target object. Therefore, it is possible to use the various functions other than those shown in FIGS.

【0019】次に、本発明の第3および第4の実施例の
動作について詳細に説明する。図12は送風の制御方法
を中心としたフローチャートである。まず第1の実施例
と同様に仮想空間表示手段1で仮想オブジェクト1aと
手情報入力手段2から動かす仮想の手1bを表示する
(ST1)。仮想空間上で仮想の手1bと仮想オブジェ
クト1aが接触したとき、手のデータとオブジェクトデ
ータから接触・非接触を判断する(ST2)。ここで接
触していれば、手情報入力手段2より各オブジェクトの
位置を認識し、各位置ごとにそれぞれの性質を表す関数
を送風指令4bによって送風手段3に送る(ST3)。
送風手段3は各関数に応じてファンを動かし操作者に各
物体の性質を操作者に感じさせるような風を送る(ST
4)。
Next, the operation of the third and fourth embodiments of the present invention will be described in detail. FIG. 12 is a flow chart centering on the method for controlling air flow. First, similar to the first embodiment, the virtual space display means 1 displays the virtual object 1a and the virtual hand 1b moved from the hand information input means 2 (ST1). When the virtual hand 1b contacts the virtual object 1a in the virtual space, contact / non-contact is determined from the hand data and the object data (ST2). If they are in contact with each other, the position of each object is recognized by the hand information input means 2, and a function representing each property for each position is sent to the blower means 3 by the blower command 4b (ST3).
The blowing means 3 moves a fan according to each function to send a wind so that the operator feels the property of each object (ST).
4).

【0020】[0020]

【発明の効果】この発明においては手情報入力手段を使
うことにより、今までにない完全に非接触の状態で自由
に手を動かしながらその情報を入力したり、逆に物体に
触れた時に操作者にその物体の感覚を返すような手段を
可能とする。また、物体の属性情報に応じた感覚関数を
用いて風を制御することにより操作者に物体の性質を提
示することが可能となる。
According to the present invention, by using the hand information inputting means, the information can be input while freely moving the hand in a completely non-contact state, which is unprecedented before, or the operation can be performed when the object is touched. It enables a means to return the feeling of the object to the person. Further, by controlling the wind using the sensory function corresponding to the attribute information of the object, it becomes possible to present the property of the object to the operator.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明の第1の実施例の全体構成図、第2図
および第3図は第1の実施例の各構成要素についての説
明図、図4は第1の実施例の動作についてのフローチャ
ート、第5図および第6図は第2の実施例の各構成要素
についての説明図、第7図は第2の実施例の動作につい
てのフローチャート、第8図は第3および第4の実施例
の構成要素についての説明図、第9〜11図は送風手段
に与える制御関数を表すグラフ、第12図は第3および
第4の実施例の動作についてのフローチャートである。
図中、1は仮想空間表示手段、2は手情報入力手段、3
は送風手段、4は送風制御手段である。また、仮想空間
表示手段1上で1aは仮想オブジェクト、1bは仮想の
手を示している。手情報入力手段2で距離センサを用い
た場合、更に2aは距離センサ、2bはDA変換回路、
2cはAD変換ボードの3つから構成されている。送風
制御手段4は4aは仮想接触認識手段、4bは送風指
令、4cは力覚提示関数群といった制御指令手段から構
成されている。
FIG. 1 is an overall configuration diagram of a first embodiment of the present invention, FIGS. 2 and 3 are explanatory diagrams of each component of the first embodiment, and FIG. 4 is an operation of the first embodiment. FIG. 5, FIG. 6 and FIG. 6 are explanatory views for each component of the second embodiment, FIG. 7 is a flow chart for the operation of the second embodiment, and FIG. 8 is the third and fourth. 9 is a graph showing a control function given to the blowing means, and FIG. 12 is a flow chart of the operation of the third and fourth embodiments.
In the figure, 1 is a virtual space display means, 2 is a hand information input means, 3
Is a blowing means, and 4 is a blowing control means. Further, on the virtual space display means 1, 1a indicates a virtual object and 1b indicates a virtual hand. When a distance sensor is used as the hand information input means 2, 2a is a distance sensor, 2b is a DA conversion circuit,
2c is composed of three AD conversion boards. The blower control unit 4 is composed of a virtual contact recognition unit 4a, a blower command 4b, and a control command unit 4c such as a force sense presentation function group.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】仮想オブジェクトと仮想の手を表示する仮
想空間表示手段、 操作者の手の位置を認識する手情報入力手段、 操作者の手の方向に風を送る送風手段、 仮想の手の位置と仮想オブジェクトの状態に応じて前記
送風手段に指令を送る送風制御手段から構成される触覚
提示装置。
1. A virtual space display means for displaying a virtual object and a virtual hand, a hand information input means for recognizing the position of the operator's hand, a blowing means for sending wind in the direction of the operator's hand, and a virtual hand. A tactile sense presentation device configured by a blower control unit that sends a command to the blower unit according to a position and a state of a virtual object.
【請求項2】請求項1において、手情報入力手段が操作
者の手の位置情報を距離センサによって認識することを
特徴とした触覚提示装置。
2. The tactile sense presentation device according to claim 1, wherein the hand information input means recognizes position information of an operator's hand by a distance sensor.
【請求項3】請求項1において、手情報入力手段が操作
者の手の位置情報をカメラによって認識する機能を有
し、送風手段が送風方向を変更するために取り付けられ
たモーターを有し、送風制御手段が前記手の位置情報を
使って操作者の手の方向に送風するように前記モーター
を駆動することを特徴とした触覚提示装置。
3. The hand information input means according to claim 1, having a function of recognizing position information of an operator's hand by a camera, and the blower means having a motor attached to change a blower direction. A tactile presentation device characterized in that the blower control means drives the motor so as to blow air in the direction of the operator's hand using the position information of the hand.
【請求項4】請求項1において、送風制御手段が、仮想
の手の位置と仮想オブジェクトの間の距離と送風指令値
の関係を表現した所定の力覚提示関数を有し、前記距離
に応じて送風指令値を変化させることを特徴とした触覚
提示装置。
4. The air blow control means according to claim 1, wherein the air blow control means has a predetermined force sense function expressing the relationship between the distance between the virtual hand position and the virtual object and the air blow command value. A tactile presentation device characterized by changing the blow command value.
【請求項5】請求項1において、送風制御手段が、時間
的に送風指令値を変化させる所定の力覚提示関数を有
し、仮想の手と仮想オブジェクトが接触した状態におい
て前記関数に応じて送風指令値を生成することを特徴と
した触覚提示装置。
5. The air blow control means according to claim 1, having a predetermined force sense presentation function for changing the air blow command value with time, and according to the function in a state where a virtual hand and a virtual object are in contact with each other. A tactile presentation device characterized by generating a blow command value.
JP2001305820A 2001-08-28 2001-08-28 Tactile sense presenting device Pending JP2003067107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001305820A JP2003067107A (en) 2001-08-28 2001-08-28 Tactile sense presenting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001305820A JP2003067107A (en) 2001-08-28 2001-08-28 Tactile sense presenting device

Publications (1)

Publication Number Publication Date
JP2003067107A true JP2003067107A (en) 2003-03-07

Family

ID=19125550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001305820A Pending JP2003067107A (en) 2001-08-28 2001-08-28 Tactile sense presenting device

Country Status (1)

Country Link
JP (1) JP2003067107A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254851A (en) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd Command input device
JP2005292976A (en) * 2004-03-31 2005-10-20 Alpine Electronics Inc Virtual interface controller
WO2010084498A1 (en) * 2009-01-26 2010-07-29 Zrro Technologies (2009) Ltd. Device and method for monitoring an object's behavior
CN103412410A (en) * 2013-07-19 2013-11-27 京东方科技集团股份有限公司 Three-dimensional touch device and display device
WO2022065120A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2024034597A1 (en) * 2022-08-09 2024-02-15 ミネベアミツミ株式会社 Non-contact tactile sense presentation device and non-contact tactile sense presentation system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005254851A (en) * 2004-03-09 2005-09-22 Nissan Motor Co Ltd Command input device
JP2005292976A (en) * 2004-03-31 2005-10-20 Alpine Electronics Inc Virtual interface controller
WO2010084498A1 (en) * 2009-01-26 2010-07-29 Zrro Technologies (2009) Ltd. Device and method for monitoring an object's behavior
US8830189B2 (en) 2009-01-26 2014-09-09 Zrro Technologies (2009) Ltd. Device and method for monitoring the object's behavior
CN103412410A (en) * 2013-07-19 2013-11-27 京东方科技集团股份有限公司 Three-dimensional touch device and display device
WO2022065120A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2024034597A1 (en) * 2022-08-09 2024-02-15 ミネベアミツミ株式会社 Non-contact tactile sense presentation device and non-contact tactile sense presentation system

Similar Documents

Publication Publication Date Title
US11507195B2 (en) Augmented reality interaction techniques
KR20230124732A (en) Fine hand gestures to control virtual and graphical elements
JP6116064B2 (en) Gesture reference control system for vehicle interface
KR20230170086A (en) Hand gestures for animating and controlling virtual and graphical elements
JP6027747B2 (en) Multi-display human machine interface with spatial correlation
EP3009914A1 (en) Haptically-enabled deformable device with rigid component
CN116719413A (en) Method for manipulating objects in an environment
EP3540561A1 (en) Systems and methods for viewport-based augmented reality haptic effects
JP2022535315A (en) Artificial reality system with self-tactile virtual keyboard
US20100128112A1 (en) Immersive display system for interacting with three-dimensional content
CN113892074A (en) Arm gaze driven user interface element gating for artificial reality systems
CN1714388A (en) Body-centric virtual interactive apparatus and method
TW201104494A (en) Stereoscopic image interactive system
JP2018508851A (en) monitoring
JP2022534639A (en) Artificial Reality System with Finger Mapping Self-Tactile Input Method
TW202105129A (en) Artificial reality systems with personal assistant element for gating user interface elements
JP2003067107A (en) Tactile sense presenting device
JP6732078B2 (en) System, method and non-transitory computer readable medium for integrating haptic overlays in augmented reality
CN111819841B (en) Information processing apparatus, information processing method, and storage medium
JP6564484B1 (en) Same room communication system
WO2019121654A1 (en) Methods, apparatus, systems, computer programs for enabling mediated reality
US20210294482A1 (en) Information processing device, information processing method, and program
US11216179B2 (en) Information processing apparatus and information processing method
CN116940915A (en) Partial perspective in virtual reality
JPH04257014A (en) Input device