JP2003337961A - Device and method for image processing, image processing program, and recording medium therefor - Google Patents

Device and method for image processing, image processing program, and recording medium therefor

Info

Publication number
JP2003337961A
JP2003337961A JP2002143904A JP2002143904A JP2003337961A JP 2003337961 A JP2003337961 A JP 2003337961A JP 2002143904 A JP2002143904 A JP 2002143904A JP 2002143904 A JP2002143904 A JP 2002143904A JP 2003337961 A JP2003337961 A JP 2003337961A
Authority
JP
Japan
Prior art keywords
finger
image
virtual space
unit
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002143904A
Other languages
Japanese (ja)
Inventor
Shigemi Sato
茂美 佐藤
Akira Kubota
晃 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002143904A priority Critical patent/JP2003337961A/en
Publication of JP2003337961A publication Critical patent/JP2003337961A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and a method for image processing, and an image processing program which can move an object such as a book by an action of throwing, etc., and rearrange and display it at a specified position on a wall, etc., in an easy-to-see state in a virtual space and to provide a recording medium therefor. <P>SOLUTION: When it is judged that coordinates of a virtual book and fingers deviate in the virtual space, the image processor computes the position of the book after the book leaves the fingers and the moving speed and flying direction from the position (step S207) to generate and display successive images wherein the book is flying (step S208). Then it is judged whether coordinates of the virtual book and a virtual wall match each other (step S209) and when it is judged that the coordinates of the book and wall (obstacle) match each other, the virtual book is displayed on the virtual wall so as to face the eyes of a user (S210). <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び画像処理方法に関し、より詳細には、仮想空間画像内
の対象物をユーザに対して正対して表示する画像処理装
置および画像処理方法、ならびに、画像処理プログラム
およびその記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more particularly, to an image processing apparatus and an image processing method for displaying an object in a virtual space image so as to face the user. The present invention also relates to an image processing program and its recording medium.

【0002】[0002]

【従来の技術】特開平6−282371号には、本等の
仮想空間画像が表示され、ユーザ(使用者)が、表示さ
れた仮想の本のページをめくる動作をすると、その動作
に応じて、前記本のページがめくれるように構成された
仮想空間デスクトップ装置が開示されている。
2. Description of the Related Art In Japanese Unexamined Patent Publication No. 6-282371, a virtual space image of a book or the like is displayed, and when a user (user) performs an operation of turning over the pages of the displayed virtual book, the operation is performed according to the operation. , A virtual space desktop device configured to turn over the pages of the book is disclosed.

【0003】しかしながら、前記従来の装置では、ユー
ザは、手や指で、本の用紙の質感や、用紙の例えばエッ
ジに接触したときの感触などを感じることができず、ま
た、手や指で本を握ったときの反力などを感じることが
できないため、違和感を覚える。
However, in the above-mentioned conventional apparatus, the user cannot feel the texture of the paper of the book or the touch when touching, for example, the edge of the paper with the hands and fingers, and the user cannot use the hands and fingers. I feel a sense of incongruity because I cannot feel the reaction force when I hold a book.

【0004】また、本のページめくりの際は、指の感触
により本の用紙のエッジを認識し、その用紙(ページ)
を指で挟んで持ち上げるようにしてページをめくるのが
自然の動作であるが、前記従来の装置では本に対して手
や指による感触が得られないので、本のページをめくる
動作の度に、本の用紙のエッジに注目して、そのエッジ
に指を移動させる動作などが必要となり、前記本のペー
ジめくりに手間と時間がかかる。
When turning pages of a book, the edge of the book sheet is recognized by the feel of a finger, and the sheet (page) is detected.
It is a natural movement to flip the pages by pinching and lifting them with your fingers, but since the conventional device does not give you the feel of the book with your hands or fingers, you can flip the pages of the book every time. It is necessary to pay attention to the edge of the paper of the book and to move the finger to the edge, and it takes time and time to turn the pages of the book.

【0005】ところで、仮想空間内で仮想の本を読む動
作を行った後に、この本を見やすい位置に並べて置い
て、次に見たいときに簡単にこの本を探し出して再度見
たいという要望も考えられる。この場合、人間が直感と
してわかりやすくまた場所を記憶しやすい方法として、
本を本棚のように並べて表示させる方法がある。
By the way, after the operation of reading a virtual book in a virtual space, it is considered that the books should be placed side by side in an easy-to-read position so that they can be easily searched and viewed again the next time they want to see them. To be In this case, as a way for human beings to understand intuitively and to remember the place,
There is a method of displaying books side by side like a bookshelf.

【0006】そして、仮想空間である点を生かして、ユ
ーザが仮想の本を壁に向かって投げる動作によって仮想
の本が本棚に並ぶように投げられた先の壁に表示される
と便利である。
[0006] It is convenient if the virtual books are displayed on the wall where the virtual books are thrown so that they are lined up on the bookshelf by the action of the user throwing the virtual books toward the wall by making the best use of the points in the virtual space. .

【0007】[0007]

【発明が解決しようとする課題】本発明は、仮想空間に
おいて、本などの対象物を投げるなどの動作により移動
させ、壁など所定の位置に見やすいように整理して表示
することができる画像処理装置および画像処理方法、な
らびに、画像処理プログラムおよびその記録媒体を提供
することを目的とする。
SUMMARY OF THE INVENTION According to the present invention, an image processing capable of moving an object such as a book by a motion such as throwing it in a virtual space and organizing and displaying it at a predetermined position such as a wall for easy viewing. An object is to provide an apparatus, an image processing method, an image processing program, and a recording medium thereof.

【0008】[0008]

【課題を解決するための手段】このような目的は、下記
(1)〜(32)の本発明により達成される。
The above object is achieved by the present invention described in (1) to (32) below.

【0009】(1) 仮想空間画像を生成する画像生成
手段と、前記画像生成手段によって生成された仮想空間
画像を表示する表示手段と、前記仮想空間画像内の仮想
の対象物の移動速度および移動方向を演算する演算手段
と、前記移動している対象物が仮想の障害物に衝突した
か否かを判定する衝突判定手段とを備え、前記衝突判定
手段により前記対象物が前記障害物に衝突したと判定さ
れる場合には、前記対象物を前記移動方向に対して概ね
正対するように表示することを特徴とする画像処理装
置。
(1) Image generation means for generating a virtual space image, display means for displaying the virtual space image generated by the image generation means, and moving speed and movement of a virtual object in the virtual space image. Comprising a calculating means for calculating a direction and a collision determining means for determining whether or not the moving object collides with a virtual obstacle, and the collision determining means causes the object to collide with the obstacle. If it is determined that the target object is displayed, the object is displayed so as to face the moving direction substantially.

【0010】(2) 前記画像生成手段は、前記演算手
段により演算された前記対象物の移動速度および移動方
向に基づいて、所定の時間間隔で仮想空間画像を更新し
て生成する上記(1)に記載の画像処理装置。
(2) The image generating means updates and generates a virtual space image at a predetermined time interval based on the moving speed and moving direction of the object calculated by the calculating means. The image processing device according to item 1.

【0011】(3) 前記表示手段は、前記仮想の対象
物の移動にともなって更新された仮想空間画像を連続的
に表示する上記(2)に記載の画像処理装置。
(3) The image processing apparatus according to (2), wherein the display means continuously displays virtual space images updated as the virtual object is moved.

【0012】(4) 指の位置を検出する指位置検出手
段と、指に与える触覚および力覚を発生する触覚・力覚
発生手段とを有する触覚・力覚提示手段をさらに備え、
前記画像生成手段は、前記仮想空間画像中の前記指位置
検出手段によって検出された指の位置に仮想の指画像を
生成し、前記表示手段は、該仮想の指画像を含む仮想空
間画像を表示する上記(1)ないし(3)のいずれかに
記載の画像処理装置。
(4) A tactile sense / force sense presenting means having a finger position detecting means for detecting the position of the finger and a tactile sense / force sense generating means for generating a tactile sense and a force sense applied to the finger,
The image generation unit generates a virtual finger image at the position of the finger detected by the finger position detection unit in the virtual space image, and the display unit displays a virtual space image including the virtual finger image. The image processing apparatus according to any one of (1) to (3) above.

【0013】(5) 前記指位置検出手段は、それらの
中心軸が互いに略直交する、第1のコイル、第2のコイ
ルおよび第3のコイルを有する直交コイル式の位置検出
手段である上記(4)に記載の画像処理装置。
(5) The finger position detecting means is an orthogonal coil type position detecting means having a first coil, a second coil and a third coil whose central axes are substantially orthogonal to each other. The image processing device according to 4).

【0014】(6) 前記指位置検出手段は、互いに略
直交するX軸、Y軸およびZ軸の回りの角速度をそれぞ
れ検出するジャイロセンサを有する上記(4)に記載の
画像処理装置。
(6) The image processing apparatus according to (4), wherein the finger position detecting means has a gyro sensor for detecting angular velocities around X, Y and Z axes which are substantially orthogonal to each other.

【0015】(7) 前記指位置検出手段によって検出
された指の位置と前記対象物の位置とが一致するとき、
その接触に相当する感覚が指腹に得られるように前記触
覚・力覚発生手段の駆動を制御する制御手段をさらに備
える上記(4)ないし(6)のいずれかに記載の画像処
理装置。
(7) When the position of the finger detected by the finger position detecting means coincides with the position of the object,
The image processing apparatus according to any one of (4) to (6), further including a control unit that controls driving of the tactile sensation / force sense generation unit so that a sensation equivalent to the contact is obtained on the finger pad.

【0016】(8) 前記制御手段は、前記指位置検出
手段によって検出された指の位置と前記対象物の位置と
がずれたとき、前記接触に相当する感覚が指腹に得られ
ないように前記触覚・力覚発生手段の駆動を制御する上
記(7)に記載の画像処理装置。
(8) When the position of the finger detected by the finger position detecting unit and the position of the object are deviated, the control unit prevents the feeling of the contact from being obtained on the finger pad. The image processing apparatus according to (7) above, which controls driving of the tactile sense / force sense generating means.

【0017】(9) 前記演算手段は、前記指位置検出
手段によって検出された指の位置と前記対象物の位置と
がずれる前の微少時間における移動距離およびそれにか
かる時間ならびに対象物の移動方向より、前記対象物が
指から離れた後の移動速度および移動方向を演算する上
記(4)ないし(8)のいずれかに記載の画像処理装
置。
(9) The calculating means calculates from a moving distance and a time required therefor in a minute time before the position of the finger detected by the finger position detecting means and the position of the object deviate from each other, and a moving direction of the object. The image processing device according to any one of (4) to (8) above, which calculates a moving speed and a moving direction after the object is separated from a finger.

【0018】(10) 前記触覚・力覚提示手段は、指
から腕にかけて装着する手袋状のものであり、前記制御
手段から駆動に関する制御データを受信し、前記指位置
検出手段により検出された指位置データを前記演算手段
に送信する通信手段を含む上記(4)ないし(9)のい
ずれかに記載の画像処理装置。
(10) The tactile / force sense presenting means is in the shape of a glove worn from a finger to an arm, receives control data regarding driving from the controlling means, and detects a finger detected by the finger position detecting means. The image processing apparatus according to any one of (4) to (9) above, including a communication unit that transmits position data to the calculation unit.

【0019】(11) 前記表示手段は、顔面に装着し
て使用するものである上記(1)ないし(10)のいず
れかに記載の画像処理装置。
(11) The image processing apparatus according to any one of (1) to (10), wherein the display means is mounted on a face for use.

【0020】(12) 前記表示手段は、前記画像生成
手段により生成された仮想空間画像データを受信する通
信手段を含む上記(1)ないし(11)のいずれかに記
載の画像処理装置。
(12) The image processing apparatus according to any one of (1) to (11), wherein the display means includes a communication means for receiving the virtual space image data generated by the image generation means.

【0021】(13) 前記画像生成手段、前記演算手
段および前記衝突判定手段、ならびに/または前記制御
手段が1つのユニットとして構成され、該1つのユニッ
トは、前記表示手段および/または前記触覚・力覚提示
手段と相互にデータを送受信する通信手段を備える上記
(1)ないし(12)のいずれかに記載の画像処理装
置。
(13) The image generation means, the calculation means and the collision determination means, and / or the control means are configured as one unit, and the one unit is the display means and / or the tactile force. The image processing apparatus according to any one of (1) to (12) above, further including a communication unit that transmits and receives data to and from the haptic presentation unit.

【0022】(14) 前記画像生成手段により生成さ
れた仮想空間画像データ、前記演算手段によって得られ
る演算結果、前記衝突判定手段によって得られる衝突判
定結果、前記触覚・力覚提示手段の前記指位置検出手段
から得られた指位置データのいずれかまたはすべてを記
憶する記憶手段をさらに備える上記(1)ないし(1
3)のいずれかに記載の画像処理装置。
(14) The virtual space image data generated by the image generation means, the calculation result obtained by the calculation means, the collision determination result obtained by the collision determination means, the finger position of the tactile / force sense presentation means The above-mentioned (1) to (1) further comprising storage means for storing any or all of the finger position data obtained from the detection means.
The image processing device according to any one of 3).

【0023】(15) 前記衝突判定手段は、前記仮想
空間画像中を移動する対象物が前記障害物である仮想空
間画像中にある所定の平面に衝突したか否かを判定する
上記(1)ないし(13)のいずれかに記載の画像処理
装置。
(15) The collision determining means determines whether or not an object moving in the virtual space image has collided with a predetermined plane in the virtual space image which is the obstacle (1). The image processing device according to any one of (1) to (13).

【0024】(16) 仮想空間画像を生成するステッ
プと、生成された仮想空間画像を表示するステップと、
前記仮想空間画像内の仮想の対象物の移動速度および移
動方向を演算するステップと、前記演算結果に基づい
て、所定の時間間隔で仮想空間画像を更新して前記仮想
の対象物の移動状態を表示するステップと、前記移動し
ている対象物が仮想の障害物に衝突したか否かを判定す
るステップと、前記対象物と前記障害物が衝突したと判
定される場合に、前記対象物を前記移動方向に対して概
ね正対するように表示するステップと、を有することを
特徴とする画像処理方法。
(16) Generating a virtual space image, displaying the generated virtual space image,
Calculating a moving speed and a moving direction of the virtual object in the virtual space image, and updating the virtual space image at a predetermined time interval based on the calculation result to show the moving state of the virtual object. A step of displaying, a step of determining whether or not the moving object has collided with a virtual obstacle, and if it is determined that the object has collided with the obstacle, And a step of displaying the image so as to substantially face the moving direction.

【0025】(17) 指の位置を検出するステップを
さらに有し、前記生成された仮想空間画像に前記指を表
示する上記(16)に記載の画像処理方法。
(17) The image processing method according to (16), further including the step of detecting the position of the finger, wherein the finger is displayed on the generated virtual space image.

【0026】(18) 前記検出された指の位置と前記
対象物の位置が一致するか否かを判定するステップと、
前記位置が一致する場合、その接触に相当する感触が指
腹に得られるように該指腹に触覚および力覚を与えるス
テップと、をさらに有する上記(16)または(17)
に記載の画像処理方法。
(18) Determining whether or not the detected finger position and the position of the object match.
(16) or (17) further comprising: providing tactile sensation and force sense to the finger pad so that a touch corresponding to the contact is obtained when the positions match.
The image processing method described in.

【0027】(19) 前記触覚および力覚を与えるス
テップの後に、前記指の位置と前記対象物の位置がずれ
たとき、前記接触に相当する感覚が得られないように指
腹に触覚および力覚を与えるのをやめるステップをさら
に有する上記(18)に記載の画像処理方法。
(19) When the position of the finger deviates from the position of the object after the step of providing the tactile sensation and the force sensation, the tactile sensation and force are applied to the finger pad so that a sensation corresponding to the contact is not obtained. The image processing method according to (18) above, further including a step of stopping giving a sensation.

【0028】(20) 前記演算ステップは、前記指の
位置と前記対象物の位置とがずれる前の微少時間におけ
る移動距離およびそれにかかる時間ならびに対象物の移
動方向より、前記対象物が指から離れた後の移動速度お
よび移動方向を演算する上記(16)ないし(19)の
いずれかに記載の画像処理方法。
(20) In the calculation step, the object is separated from the finger based on a moving distance and a time required for the minute moving time before the position of the finger and the position of the object deviate from each other and a moving direction of the object. The image processing method according to any one of (16) to (19), wherein the moving speed and the moving direction after calculation are calculated.

【0029】(21) 前記生成された仮想空間画像デ
ータを仮想空間表示装置に送信するステップをさらに有
する上記(16)ないし(20)のいずれかに記載の画
像処理方法。
(21) The image processing method according to any one of (16) to (20), further including a step of transmitting the generated virtual space image data to a virtual space display device.

【0030】(22) 前記生成された仮想空間画像デ
ータおよび前記更新された仮想空間画像データを記憶す
るステップと、前記演算ステップにおいて得られた演算
結果を記憶するステップと、前記衝突判定ステップにお
いて得られた衝突判定結果を記憶するステップと、をさ
らに有する上記(16)ないし(21)のいずれかに記
載の画像処理方法。
(22) A step of storing the generated virtual space image data and the updated virtual space image data, a step of storing the calculation result obtained in the calculation step, and a step of storing in the collision determination step. The image processing method according to any one of (16) to (21) above, further comprising the step of storing the obtained collision determination result.

【0031】(23) 前記指位置検出ステップにおい
て得られた指の位置座標データを記憶するステップをさ
らに有する上記(17)ないし(22)のいずれかに記
載の画像処理方法。
(23) The image processing method according to any one of (17) to (22), further including a step of storing the position coordinate data of the finger obtained in the finger position detecting step.

【0032】(24) 仮想空間画像を生成してユーザ
に視認できるように表示させるための情報処理装置のコ
ンピュータを、仮想空間画像を生成する画像生成手段、
前記画像生成手段によって生成された仮想空間画像を表
示する表示手段、前記仮想空間画像内の仮想の対象物の
移動速度および移動方向を演算する演算手段、前記移動
している対象物が仮想の障害物に衝突したか否かを判定
する衝突判定手段、前記衝突判定手段により前記対象物
が前記障害物に衝突したと判定される場合には、前記対
象物を前記移動方向に対して概ね正対するように表示す
る表示手段、として機能させるための情報処理装置の画
像処理プログラム。
(24) An image generating means for generating a virtual space image, which is a computer of an information processing device for generating a virtual space image and displaying the virtual space image for the user to visually recognize.
Display means for displaying the virtual space image generated by the image generating means, calculation means for calculating the moving speed and moving direction of the virtual object in the virtual space image, and the moving object is a virtual obstacle. Collision determining means for determining whether or not the object has collided, when the collision determining means determines that the object has collided with the obstacle, the object is generally directly opposed to the moving direction. An image processing program of an information processing device for causing the display unit to display as described above.

【0033】(25) 前記情報処理装置のコンピュー
タを、指の位置を検出する指位置検出手段と、指に与え
る触覚および力覚を発生する触覚・力覚発生手段とを有
する触覚・力覚提示手段として機能するためのプログラ
ムコードをさらに有し、前記画像生成手段を、前記仮想
空間画像中の前記指位置検出手段によって検出された指
の位置に仮想の指画像を生成させ、前記表示手段を、該
仮想の指画像を含む仮想空間画像を表示させるように機
能させるための上記(24)に記載の情報処理装置の画
像処理プログラム。
(25) The computer of the information processing apparatus has a finger position detection means for detecting the position of the finger, and a tactile force sense presentation means for generating a tactile force and a force sense applied to the finger. Further comprising a program code for functioning as means, causing the image generating means to generate a virtual finger image at the position of the finger detected by the finger position detecting means in the virtual space image, and displaying the display means. The image processing program of the information processing apparatus according to (24), which causes the virtual space image including the virtual finger image to be displayed.

【0034】(26) 前記情報処理装置のコンピュー
タを、前記指位置検出手段によって検出された指の位置
と前記対象物の位置とが一致するとき、その接触に相当
する感覚が指腹に得られるように前記触覚・力覚発生手
段の駆動を制御する制御手段として機能させるためのプ
ログラムコードをさらに有する上記(25)に記載の情
報処理装置の画像処理プログラム。
(26) In the computer of the information processing device, when the position of the finger detected by the finger position detecting means and the position of the object match, a feeling corresponding to the contact is obtained on the finger pad. The image processing program of the information processing apparatus according to (25) above, further including a program code for causing the tactile sensation / force sense generating means to function as control means for controlling driving.

【0035】(27) 前記制御手段には、前記指位置
検出手段によって検出された指の位置と前記対象物の位
置との一致/不一致に基づいて、前記接触に相当する感
覚が指腹に得られあるいは得られないように前記触覚・
力覚発生手段の駆動を制御させるように機能させるため
のプログラムコードが含まれる上記(26)に記載の情
報処理装置の画像処理プログラム。
(27) The control means obtains a feeling corresponding to the touch on the finger pad based on the match / mismatch between the position of the finger detected by the finger position detection means and the position of the object. The tactile sensation
The image processing program of the information processing device according to (26) above, including a program code for causing the force sense generating means to be controlled to be driven.

【0036】(28) 前記情報処理装置のコンピュー
タを、前記触覚・力覚提示手段と前記制御手段との間で
駆動に関する制御データを送受信し、前記触覚・力覚提
示手段と前記演算手段との間で前記指位置検出手段によ
り検出された指位置データを送受信する通信手段として
機能させるためのプログラムコードをさらに有する上記
(25)ないし(27)のいずれかに記載の情報処理装
置の画像処理プログラム。
(28) The computer of the information processing apparatus transmits / receives control data relating to driving between the tactile / force sense presenting means and the control means, so that the tactile / force sense presenting means and the computing means are connected. The image processing program of the information processing apparatus according to any one of (25) to (27), further including a program code for functioning as a communication unit that transmits and receives finger position data detected by the finger position detection unit. .

【0037】(29) 前記情報処理装置のコンピュー
タを、前記表示手段と前記画像生成手段との間で前記生
成された仮想空間画像データを送受信させる通信手段と
して機能させるためのプログラムコードをさらに有する
上記(24)ないし(28)のいずれかに記載の情報処
理装置の画像処理プログラム。
(29) A program code for causing a computer of the information processing apparatus to function as a communication means for transmitting and receiving the generated virtual space image data between the display means and the image generation means. An image processing program for an information processing apparatus according to any one of (24) to (28).

【0038】(30) 情報処理装置のコンピュータ
を、前記画像生成手段、前記演算手段、前記衝突判定手
段および前記制御手段の少なくとも一つと前記表示手段
および/または前記触覚・力覚提示手段との間で相互に
データを送受信する通信手段として機能させるためのプ
ログラムコードをさらに有する上記(24)ないし(2
9)のいずれかに記載の情報処理装置の画像処理プログ
ラム。
(30) A computer of the information processing device is provided between at least one of the image generation means, the calculation means, the collision determination means and the control means and the display means and / or the tactile / force sense presentation means. (24) to (2), further including a program code for functioning as communication means for transmitting and receiving data to and from each other.
An image processing program for an information processing device according to any one of 9).

【0039】(31) 情報処理装置のコンピュータ
を、前記画像生成手段により生成された仮想空間画像デ
ータ、前記演算手段によって得られる演算結果、前記衝
突判定手段によって得られる衝突判定結果、前記触覚・
力覚提示手段の前記指位置検出手段から得られた指位置
データのいずれかまたはすべてを記憶する記憶手段とし
て機能させるためのプログラムコードをさらに有する上
記(24)ないし(30)のいずれかに記載の情報処理
装置の画像処理プログラム。
(31) In the computer of the information processing device, the virtual space image data generated by the image generation means, the calculation result obtained by the calculation means, the collision determination result obtained by the collision determination means, the tactile sense
The method according to any one of (24) to (30) above, further comprising a program code for functioning as a storage unit that stores any or all of the finger position data obtained from the finger position detection unit of the force sense presentation unit. Image processing program of the information processing apparatus of.

【0040】(32) コンピュータに実行させるため
の上記(24)ないし(31)のいずれかの画像処理プ
ログラムを記録した、コンピュータに読み取り可能な記
録媒体。
(32) A computer-readable recording medium recording the image processing program according to any one of (24) to (31) to be executed by a computer.

【0041】[0041]

【発明の実施の形態】以下、図1〜図22を参照して本
発明の画像処理装置および画像処理方法の好適実施形態
を詳細に説明する。なお、この実施の形態は例示として
挙げるものであり、これにより本発明を限定的に解釈す
べきではない。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of an image processing apparatus and an image processing method according to the present invention will be described in detail below with reference to FIGS. It should be noted that this embodiment is given as an example, and the present invention should not be limitedly interpreted thereby.

【0042】図1は、本発明の触覚・力覚提示装置を含
む画像処理装置の第1実施形態の構成例を示す概念図で
あり、図2は、図1に示すリアルグローブ20の回路構
成例を示すブロック図である。また、図3は、図1に示
すリアルグローブ20の外観構成例を示す外観図(一部
図示を省略)である。
FIG. 1 is a conceptual diagram showing a configuration example of a first embodiment of an image processing apparatus including a tactile / force sense presentation device of the present invention, and FIG. 2 is a circuit configuration of the real glove 20 shown in FIG. It is a block diagram which shows an example. 3 is an external view (partially omitted from illustration) showing an example of the external configuration of the real glove 20 shown in FIG.

【0043】図1に示すように、画像処理装置1は、ユ
ーザ(使用者)の手(指)に装着され、装着された手や
各指に対して触覚(触った感覚、例えば、質感、形状、
強さ等の接触強度の分布)や力覚(触ったときに加わる
力の感覚)を与える一対のリアルグローブ(データグロ
ーブ)20、20と、仮想空間画像(仮想空間映像)を
表示する仮想空間表示装置(表示手段)5と、各リアル
グローブ20および仮想空間表示装置5の駆動制御等の
種々の処理(本発明においては、後述する図19の触覚
・力覚発生処理や図20の仮想の本整列処理など)を行
う情報処理装置8と、仮想空間画像を作成し、仮想空間
画像を用いた各種のサービスを提供する基地局9とを備
えている。
As shown in FIG. 1, the image processing apparatus 1 is attached to the hand (fingers) of a user (user), and tactile sensation (feeling of touch, for example, texture, shape,
A pair of real gloves (data gloves) 20 and 20 for giving a distribution of contact strength such as strength) and a force sense (a sense of force applied when touched), and a virtual space for displaying a virtual space image (virtual space image) Various processes such as drive control of the display device (display means) 5 and each of the real globes 20 and the virtual space display device 5 (in the present invention, tactile / force sensation generation process of FIG. 19 and virtual process of FIG. An information processing device 8 that performs the main alignment processing) and a base station 9 that creates a virtual space image and provides various services using the virtual space image are provided.

【0044】各リアルグローブ20、仮想空間表示装置
5、情報処理装置8および基地局9は、それぞれ、無線
(例えば、無線LAN(Local Area Network)、赤外線
(IR)データ通信(IrDA:Infrared Data Associ
ation)、Bluetoothなど)で信号の送信および受信(無
線通信)を行うことができる無線通信機能(無線通信手
段)を有しており、情報処理装置8と、各リアルグロー
ブ20、仮想空間表示装置5および基地局9との間で、
それぞれ、通信を行うことができるようになっている。
Each of the real globe 20, the virtual space display device 5, the information processing device 8 and the base station 9 is wireless (for example, wireless LAN (Local Area Network), infrared (IR) data communication (IrDA: Infrared Data Association).
ation), Bluetooth, etc.) has a wireless communication function (wireless communication means) capable of transmitting and receiving signals (wireless communication) by means of information processing device 8, each real globe 20, and virtual space display device. 5 and the base station 9,
Each is able to communicate.

【0045】この画像処理装置1は、基地局9、仮想空
間表示装置5および各リアルグローブ20から供給され
た情報に基づいて情報処理装置8によって作成(生成)
された仮想空間画像を仮想空間表示装置5に表示し、リ
アルグローブ20を装着した手や指を動作させることに
よってその手や指が仮想空間に表示された物体に仮想的
に接触した場合等に、その様子を仮想空間表示装置5に
表示するとともに、接触したときの触覚や力覚をリアル
グローブ20を装着した手や各指に与えるための各処理
を行う。
The image processing device 1 is created (generated) by the information processing device 8 based on the information supplied from the base station 9, the virtual space display device 5 and each real globe 20.
When the virtual space image thus displayed is displayed on the virtual space display device 5 and the hand or finger wearing the real glove 20 is operated, the hand or finger virtually contacts an object displayed in the virtual space. The state is displayed on the virtual space display device 5, and each process for giving a tactile sensation or a force sensation upon contact to the hand or fingers wearing the real glove 20 is performed.

【0046】情報処理装置8は、例えば、携帯電話端
末、無線通信機能を有するパーソナルコンピュータ、P
DA(Personal Digital Assistants)と呼ばれる携帯
型情報機器などの、無線通信機能(通信手段)および制
御機能(制御手段)を備えた各種の装置により構成され
る。
The information processing device 8 is, for example, a mobile phone terminal, a personal computer having a wireless communication function, or P
It is composed of various devices having a wireless communication function (communication means) and a control function (control means) such as portable information equipment called DA (Personal Digital Assistants).

【0047】また、基地局9は、例えば、インターネッ
トに接続されている各種サーバコンピュータ、携帯電話
端末と無線通信を行う携帯電話基地局などの、仮想空間
画像に関する情報を提供する各種の装置により構成され
る。
The base station 9 is composed of various devices such as various server computers connected to the Internet and mobile phone base stations that wirelessly communicate with mobile phone terminals, which provide information about virtual space images. To be done.

【0048】なお、本実施形態では、各リアルグローブ
20、仮想空間表示装置5、情報処理装置8および基地
局9が無線通信機能を有する構成としているが、例え
ば、その一部またはすべてが有線通信を行う構成とされ
ていてもよい。
In this embodiment, each real globe 20, the virtual space display device 5, the information processing device 8 and the base station 9 have a wireless communication function. However, for example, some or all of them are wired communication. It may be configured to perform.

【0049】また、情報処理装置8が、基地局9の機能
の一部またはすべてを有していてもよい。後述する触覚
・力覚発生処理および仮想の本整列処理では、便宜的に
情報処理装置8に基地局9のすべての機能が含まれるも
のとして説明される。
The information processing device 8 may have some or all of the functions of the base station 9. In the tactile sensation / force sensation generation process and the virtual main alignment process described later, the information processing device 8 is described as including all the functions of the base station 9 for convenience.

【0050】また、リアルグローブ20が、仮想空間表
示装置5、情報処理装置8および基地局9の機能の一部
またはすべてを有していてもよい。
The real globe 20 may have some or all of the functions of the virtual space display device 5, the information processing device 8 and the base station 9.

【0051】ここで、触覚・力覚提示装置2は、本実施
形態では、一対のリアルグローブ20、20、すなわ
ち、ユーザの左手に装着される左手用のリアルグローブ
20と、ユーザの右手に装着される右手用のリアルグロ
ーブ20とで構成されている。以下の説明では、代表的
に一方のリアルグローブ20を説明する。
Here, in the present embodiment, the tactile / force sense presentation device 2 is equipped with a pair of real gloves 20, 20, that is, the real glove 20 for the left hand worn on the left hand of the user and the real glove 20 for the right hand of the user. It is configured with the right-handed real glove 20. In the following description, one of the real gloves 20 will be representatively described.

【0052】なお、本発明において、触覚・力覚提示装
置2は、一方のリアルグローブ20のみで構成されてい
てもよい。
In the present invention, the tactile / force sense presentation device 2 may be composed of only one of the real gloves 20.

【0053】また、本発明では、触覚・力覚提示装置2
は、リアルグローブ20の他に、仮想空間表示装置5、
情報処理装置8および基地局9のうちの、いずれか1
つ、または、2つ、または、すべてを有していてもよ
い。この場合、触覚・力覚提示装置2は、それらの有す
る機能の一部を有していてもよく、また、すべてを有し
ていてもよい。
In the present invention, the tactile / force sense presentation device 2
In addition to the real globe 20, the virtual space display device 5,
Any one of the information processing device 8 and the base station 9
It may have one, two, or all. In this case, the tactile sense / force sense presentation device 2 may have some or all of the functions thereof.

【0054】図2に示すように、リアルグローブ20
は、仮想空間に現れている(仮想空間画像上の)物体
(対象物)に接触した指の感覚(例えば、質感、形状、
強さ等の接触強度の分布)を発生させるための触覚発生
部(触覚発生手段)21と、仮想空間に現れている物体
に接触したときに手や指にかかる力の強さの感覚を発生
させるための力覚発生部(力覚発生手段)22と、リア
ルグローブ20の各部の位置(リアルグローブ20を装
着した手、手首、腕、指等の各部の位置)を検出する位
置姿勢検出部23と、リアルグローブ20の各部を制御
する制御部24と、情報処理装置8に送信する検出デー
タ信号の増幅等の信号処理を行う信号処理部25と、情
報処理装置8との間で無線通信を行うための信号送受信
部(通信手段)26とを有している。
As shown in FIG. 2, the real gloves 20
Is the sense (eg, texture, shape, etc.) of a finger touching an object (object) appearing in the virtual space (on the virtual space image).
A tactile generation unit (tactile generation means) 21 for generating a distribution of contact strength such as strength) and a sense of the strength of force applied to a hand or finger when touching an object appearing in a virtual space. A force sense generating unit (force sense generating means) 22 for causing it and a position / orientation detecting unit for detecting the position of each part of the real glove 20 (the position of each part such as the hand, wrist, arm, finger, etc. wearing the real glove 20). 23, a control unit 24 that controls each unit of the real globe 20, a signal processing unit 25 that performs signal processing such as amplification of a detection data signal transmitted to the information processing apparatus 8, and wireless communication between the information processing apparatus 8. And a signal transmission / reception unit (communication means) 26 for performing.

【0055】また、図3に示すように、リアルグローブ
20の全体形状は、略長手袋状(手袋状)をなしてい
る。すなわち、リアルグローブ20は、その装着者(ユ
ーザ)の指から腕の肘近傍まで(指から腕にかけて)装
着する手袋状の装着手段として、腕を覆う筒状部20a
を備えた比較的長い手袋2aを有している。
Further, as shown in FIG. 3, the overall shape of the real glove 20 is a substantially long glove shape (glove shape). That is, the real glove 20 is a glove-like wearing unit that is worn from the wearer's (finger) 's finger to the vicinity of the elbow of the arm (from finger to arm), and is a tubular portion 20a covering the arm.
Has a relatively long glove 2a.

【0056】ユーザは、この手袋2aにより、リアルグ
ローブ20の装着および取り外しを容易かつ確実に行う
ことができる。
The user can easily and surely wear and remove the real glove 20 with the gloves 2a.

【0057】また、手袋2aはユーザの手から腕にかけ
て装着されるので、仮想空間における動作(操作)を容
易かつ確実に行うことができる。
Further, since the glove 2a is worn from the user's hand to the arm, the operation (operation) in the virtual space can be performed easily and reliably.

【0058】この手袋2aには、指先に対応する部分の
遊びを抑制または防止する遊び吸収部27と、リアルグ
ローブ20を手首に固定する手首固定部28と、該リア
ルグローブ20を腕に固定する腕固定部2dと、腕に対
応する部分のねじれを吸収するねじれ吸収部29とが、
それぞれ設けられている。
In this glove 2a, a play absorbing part 27 for suppressing or preventing play of a part corresponding to a fingertip, a wrist fixing part 28 for fixing the real glove 20 to the wrist, and the real glove 20 for fixing to the arm. The arm fixing portion 2d and the twist absorbing portion 29 that absorbs the twist of the portion corresponding to the arm,
Each is provided.

【0059】遊び吸収部27は、手袋2aの手首付近に
対応する部分に設けられている。この遊び吸収部27
は、例えば、各種ゴム等の弾性体で形成される。
The play absorbing portion 27 is provided at a portion corresponding to the vicinity of the wrist of the glove 2a. This play absorbing part 27
Is formed of an elastic body such as various rubbers.

【0060】ユーザがリアルグローブ20を装着する
と、遊び吸収部27の復元力(弾性力)により、手袋2
aは、肘方向(基端側)に引っ張られ、その状態で保持
される。これにより、指先に遊びができてしまうのを防
止または抑制することができる。
When the user puts on the real glove 20, the restoring force (elastic force) of the play absorbing portion 27 causes the glove 2 to move.
“A” is pulled in the elbow direction (base end side) and held in that state. As a result, it is possible to prevent or suppress play at the fingertips.

【0061】また、指の長さ等の手の寸法の異なる複数
のユーザが使用する場合においても、遊び吸収部27に
より、それぞれ各ユーザにおいて、指先に遊びができて
しまうのを防止または抑制することができる。
Also, when used by a plurality of users having different hand sizes such as finger lengths, the play absorbing portion 27 prevents or suppresses the play of the fingertips of each user. be able to.

【0062】手首固定部28は、手袋2aの前記遊び吸
収部27の肘側(基端側)に、遊び吸収部27に連続し
て設けられている。この手首固定部28は、例えば、各
種ゴム等の弾性体で形成される。
The wrist fixing portion 28 is provided continuously to the play absorbing portion 27 on the elbow side (base end side) of the play absorbing portion 27 of the glove 2a. The wrist fixing portion 28 is formed of, for example, an elastic body such as various kinds of rubber.

【0063】ユーザがリアルグローブ20を装着する
と、手首固定部28の復元力(弾性力)により、手袋2
aは、手首に固定される。これにより、使用中にリアル
グローブ20がずれてしまうのを防止することができ
る。
When the user wears the real glove 20, the glove 2 is restored by the restoring force (elastic force) of the wrist fixing portion 28.
a is fixed to the wrist. Thereby, it is possible to prevent the real gloves 20 from being displaced during use.

【0064】また、この手首固定部28や前記遊び吸収
部27により、後述する触覚発生部21のアクチュエー
タワイヤ212の束212aは、各アクチュエータワイ
ヤ212がそれぞれその長手方向に移動し得るように所
定の位置に保持される。
Further, by the wrist fixing portion 28 and the play absorbing portion 27, the bundle 212a of the actuator wires 212 of the tactile sense generating portion 21, which will be described later, has a predetermined length so that each actuator wire 212 can move in its longitudinal direction. Held in position.

【0065】腕固定部2dは、手袋2aの筒状部20a
の肘側(基端側)の端部に設けられている。この腕固定
部2dは、例えば、各種ゴム等の弾性体で形成される。
The arm fixing portion 2d is the tubular portion 20a of the glove 2a.
It is provided at the end of the elbow side (base end side). The arm fixing portion 2d is formed of, for example, an elastic body such as various rubbers.

【0066】ユーザがリアルグローブ20を装着する
と、腕固定部2dの復元力(弾性力)により、手袋2a
は、腕に固定される。これにより、使用中にリアルグロ
ーブ20がずれてしまうのを防止することができる。
When the user wears the real glove 20, the restoring force (elastic force) of the arm fixing portion 2d causes the glove 2a to move.
Is fixed to the arm. Thereby, it is possible to prevent the real gloves 20 from being displaced during use.

【0067】ねじれ吸収部29は、手袋2aの筒状部2
0aの途中、すなわち、前記手首固定部28と腕固定部
2dとの間に設けられている。
The twist absorbing portion 29 is the tubular portion 2 of the glove 2a.
It is provided in the middle of 0a, that is, between the wrist fixing portion 28 and the arm fixing portion 2d.

【0068】このねじれ吸収部29は、筒状部20aの
一部に3つの開口292を形成して得られる3本の帯状
部291で構成されている。各帯状部291は、それぞ
れ、例えば、伸縮性のある材料で構成された布等の伸縮
性のある部材で形成される。
The twist absorbing portion 29 is composed of three strip portions 291 obtained by forming three openings 292 in a part of the tubular portion 20a. Each strip-shaped portion 291 is formed of a stretchable member such as cloth made of a stretchable material.

【0069】ユーザがリアルグローブ20を装着し、例
えば、手首をねじる動作をすると、各帯状部291が伸
縮、変形し、これにより、筒状部20aのねじれが吸収
される。
When the user wears the real glove 20 and twists his / her wrist, for example, each strip-shaped portion 291 expands / contracts and deforms, whereby the twist of the tubular portion 20a is absorbed.

【0070】このように、ねじれ吸収部29により、リ
アルグローブ20のねじれを防止することができ、この
ため、ユーザは、手や腕を容易かつ円滑に動かすことが
できる。
As described above, the twist absorbing portion 29 can prevent the real glove 20 from being twisted. Therefore, the user can easily and smoothly move his / her hand or arm.

【0071】なお、ねじれ吸収部29の帯状部291の
数は、2本以下でもよく、また、4本以上でもよい。
The number of the strip-shaped portions 291 of the twist absorbing portion 29 may be 2 or less, or 4 or more.

【0072】また、手袋2aの各指の背側の各関節に対
応する部分には、それぞれ、開口21aが形成されてい
る。
Further, openings 21a are formed in the portions of the gloves 2a corresponding to the joints on the back side of the fingers.

【0073】これらの開口21aにより、ユーザは、各
指の各関節をそれぞれ容易かつ円滑に動かすことができ
る。
These openings 21a allow the user to easily and smoothly move each joint of each finger.

【0074】また、このリアルグローブ20には、手袋
2aの腕に対応する部分であって、前記ねじれ吸収部2
9よりも肘方向に位置する部分、すなわち、手袋2aの
筒状部20aの肘側(基端側)の端部に、制御部24、
電力供給部30、動力発生部211などが設けられてい
る。
The real glove 20 has a portion corresponding to the arm of the glove 2a, which is the twist absorbing portion 2
The control unit 24 is provided at a portion located in the elbow direction with respect to 9;
A power supply unit 30, a power generation unit 211 and the like are provided.

【0075】これら制御部24、電力供給部30および
動力発生部211の配置を前記のようにすることによ
り、リアルグローブ20の指先側(先端側)の重量を軽
く(慣性を小さく)することができ、これにより、ユー
ザは、動作(操作)を容易に行うことができる。
By arranging the control unit 24, the power supply unit 30, and the power generation unit 211 as described above, the weight of the fingertip side (tip side) of the real glove 20 can be reduced (inertia reduced). Therefore, the user can easily perform the operation (operation).

【0076】触覚発生部21の主要部は、ユーザがリア
ルグローブ20を装着したときに、ユーザの各指の第1
関節(末節骨と中節骨との間の関節)から先の指先部分
を覆う位置にそれぞれ設けられている。なお、各触覚発
生部21の構成および作用は、ほぼ同様であるので、以
下、代表的に、そのうちの1つについて説明する。
The main part of the tactile sensation generator 21 is the first part of each finger of the user when the user wears the real glove 20.
It is provided at a position that covers the fingertip portion ahead of the joint (the joint between the distal phalanx and the middle phalanx). Since the configuration and operation of each tactile sense generating unit 21 are almost the same, one of them will be described representatively below.

【0077】図4は、触覚発生部21の構成例を示す縦
断面図である。なお、図が煩雑になるのを避けるため、
図中、一部、部材の厚みを省略して図示する。
FIG. 4 is a vertical sectional view showing an example of the structure of the tactile sense generating section 21. In order to avoid making the figure complicated,
In the drawing, the thickness of some members is omitted.

【0078】触覚発生部21は、図4(A)に示すよう
に、モータ(駆動源)211aを備える動力発生部(移
動手段)211と、長手方向に移動可能に設置されたア
クチュエータワイヤ(可撓性を有する線状体)212
と、アクチュエータワイヤ212の一端を保持するワイ
ヤ保持部(付勢手段)213と、触覚を発生させるため
に指腹を押圧する触覚提示ピン(押圧部)214と、触
覚提示ピン214を支持するとともに触覚提示ピン21
4の移動方向を規制する触覚提示ピン支持部(移動方向
規制手段)215とで構成される複数の単位触覚発生部
(アクチュエータ)210を有している。各単位触覚発
生部210は、互いに独立している。
As shown in FIG. 4A, the tactile sense generating section 21 includes a power generating section (moving means) 211 having a motor (driving source) 211a and an actuator wire (movable in the longitudinal direction). Flexible linear body) 212
And a wire holding portion (biasing means) 213 that holds one end of the actuator wire 212, a tactile presentation pin (pressing portion) 214 that presses the finger pad to generate a tactile sense, and a tactile presentation pin 214 while supporting the tactile presentation pin 214. Tactile presentation pin 21
4 has a plurality of unit tactile sense generating units (actuators) 210 configured with tactile sense pin support units (moving direction regulating means) 215 that regulate the moving direction of the No. Each unit tactile sensation generator 210 is independent of each other.

【0079】なお、前記動力発生部211と、アクチュ
エータワイヤ212と、触覚提示ピン支持部215と
で、触覚提示ピン214を駆動する駆動機構が構成され
る。
The power generation section 211, the actuator wire 212, and the tactile sense presentation pin support section 215 constitute a drive mechanism for driving the tactile sense presentation pin 214.

【0080】動力発生部211は、例えば、制御部24
からの制御信号に応じて内部に備えるモータ211aを
回転駆動し、そのモータ211aの回転駆動によってア
クチュエータワイヤ212を巻き取る処理(アクチュエ
ータワイヤ212をアクチュエータワイヤ212の長手
方向に移動させる処理)を行う。制御部24は、情報処
理装置8からの指示に従って、モータ211aの回転駆
動が所定のトルクで所定時間なされるように動力発生部
211を制御する。動力発生部211は、情報処理装置
8からの指示に従ってモータ211aに回転動力を与え
ることで、アクチュエータワイヤ212を所定の長さ巻
き取る処理を行う。
The power generation section 211 is, for example, the control section 24.
The motor 211a provided therein is rotationally driven in accordance with the control signal from, and the process of winding the actuator wire 212 by the rotational driving of the motor 211a (the process of moving the actuator wire 212 in the longitudinal direction of the actuator wire 212) is performed. The control unit 24 controls the power generation unit 211 according to an instruction from the information processing device 8 so that the motor 211a is rotationally driven with a predetermined torque for a predetermined time. The power generation unit 211 performs a process of winding the actuator wire 212 for a predetermined length by applying rotational power to the motor 211a according to an instruction from the information processing device 8.

【0081】ワイヤ保持部213は、図4(A)に示す
ように、この実施形態では指の第1間接の近傍でアクチ
ュエータワイヤ212の一端(終端)を保持する。この
ワイヤ保持部213は、例えばゴムやバネなどの弾性を
有する部材(弾性体)により構成される。
As shown in FIG. 4A, the wire holding portion 213 holds one end (end) of the actuator wire 212 in the vicinity of the first joint of the finger in this embodiment. The wire holding portion 213 is made of an elastic member (elastic body) such as rubber or spring.

【0082】従って、動力発生部211のモータ211
aの駆動によりアクチュエータワイヤ212が巻き取ら
れ、そのアクチュエータワイヤ212が図4(A)中の
時計回りに移動すると、それに伴ってワイヤ保持部21
3が伸張し、アクチュエータワイヤ212は、ワイヤ保
持部213の復元力(弾性力)により、図4(A)中の
反時計回りの方向(触覚提示ピン214を突出させると
きのアクチュエータワイヤ212の移動方向と逆方向)
に付勢される。そして、動力発生部211のモータ21
1aの駆動が停止し、アクチュエータワイヤ212の巻
き取り状態が解除されると、ワイヤ保持部213が復元
力(弾性力)によって収縮し、これにより、巻き取られ
ていたアクチュエータワイヤ212が引き出され、図4
(A)中の反時計回りに移動する。
Therefore, the motor 211 of the power generation unit 211
When the actuator wire 212 is wound by driving a, and the actuator wire 212 moves clockwise in FIG. 4 (A), the wire holding portion 21 is correspondingly moved.
3 expands, and the actuator wire 212 moves in the counterclockwise direction in FIG. 4A (movement of the actuator wire 212 when the tactile sense presenting pin 214 is projected) due to the restoring force (elastic force) of the wire holding portion 213. (Direction opposite to direction)
Be urged by. Then, the motor 21 of the power generation unit 211
When the driving of the actuator 1a is stopped and the winding state of the actuator wire 212 is released, the wire holding portion 213 contracts by the restoring force (elastic force), whereby the wound actuator wire 212 is pulled out, Figure 4
Move counterclockwise in (A).

【0083】なお、動力発生部211は、アクチュエー
タワイヤ212の他端(始端)側に位置している。
The power generator 211 is located on the other end (starting end) side of the actuator wire 212.

【0084】触覚提示ピン214は、ユーザの指腹に接
触感覚(接触の有無や強さ等)を与えるために用いら
れ、指腹に接触する部分である微小な接触板(接触部)
214aと、接触板214aを支持する支持部214b
とで構成される。支持部214bは、その一端がアクチ
ュエータワイヤ212の途中に固定され、その他端に接
触板214aが設けられている。
The tactile sense presenting pin 214 is used to give a touch sensation (presence or absence of contact, strength, etc.) to the finger pad of the user, and is a minute contact plate (contact portion) which is a portion contacting the finger pad.
214a and a supporting portion 214b for supporting the contact plate 214a
Composed of and. The support portion 214b has one end fixed to the middle of the actuator wire 212 and the other end provided with a contact plate 214a.

【0085】この実施形態では、図4(A)に示すよう
に、リアルグローブ20の手袋2aは、指先を装着する
(覆う)装着部が2重構造(例えば布などの部材を2枚
重ね合わせて、重ね合わせた2枚の部材の間に何らかの
部材が収納し得るような構造)になっており、指先を覆
っている部分の内部(2重構造の内部)に、前記アクチ
ュエータワイヤ212の一部、ワイヤ保持部213およ
び支持部214bと、触覚提示ピン214のアクチュエ
ータワイヤ212の移動方向への移動を規制する触覚提
示ピン支持部215とが設けられている。そして、指が
収納される手袋2a内に、支持部214bの一端側が突
出し、接触板214aが位置している。
In this embodiment, as shown in FIG. 4 (A), the glove 2a of the real glove 20 has a double mounting structure for mounting (covering) a fingertip (for example, two members such as cloth are superposed). A structure in which some member can be housed between the two stacked members), and one of the actuator wires 212 is placed inside the portion that covers the fingertip (inside the double structure). A wire holding portion 213, a support portion 214b, and a tactile sense pin support portion 215 for restricting movement of the tactile sense pin 214 in the movement direction of the actuator wire 212. Then, one end side of the support portion 214b projects and the contact plate 214a is positioned inside the glove 2a in which the fingers are stored.

【0086】この実施形態では、その接触板214a
は、リアルグローブ20を装着した手の指先に常に接触
した状態となっている。なお、これに限らず、接触板2
14aが指先から離間した状態(接触板214aと指先
とが非接触の状態)をとり得るように構成されていても
よい。
In this embodiment, the contact plate 214a thereof is
Is always in contact with the fingertips of the hand wearing the real glove 20. The contact plate 2 is not limited to this.
14a may be configured to be in a state of being separated from the fingertip (a state where the contact plate 214a and the fingertip are not in contact with each other).

【0087】図4(A)では、説明を簡単にするため、
1つの単位触覚発生部210(1つの触覚提示ピン21
4)が代表して示されているが、前述したように、実際
には、触覚発生部21は、複数の単位触覚発生部210
を有しており、その複数の触覚提示ピン214は、ユー
ザがリアルグローブ20を装着したときのユーザの指先
の指腹に対応する位置に、例えば、指腹に沿って、かつ
指腹に対し行列状(マトリックス状)に配置されてい
る。
In FIG. 4A, in order to simplify the explanation,
One unit tactile sense generation unit 210 (one tactile sense presentation pin 21
4) is shown as a representative, as described above, in reality, the tactile sense generating unit 21 includes a plurality of unit tactile sense generating units 210.
The plurality of tactile sense presenting pins 214 are provided at positions corresponding to the finger pad of the user's fingertip when the user wears the real glove 20, for example, along the finger pad and on the finger pad. They are arranged in a matrix.

【0088】各触覚提示ピン214の前後には、それぞ
れ、その触覚提示ピン214の支持部214bのアクチ
ュエータワイヤ212の移動方向への移動を制限する触
覚提示ピン支持部215が設けられている。
Before and after each tactile sense presenting pin 214, a tactile sense presenting pin support part 215 for restricting the movement of the supporting part 214b of the tactile sense presenting pin 214 in the movement direction of the actuator wire 212 is provided.

【0089】なお、前記各触覚提示ピン214は、規則
的に配置されていてもよく、また、不規則に配置されて
いてもよい。
The tactile sense presenting pins 214 may be regularly arranged or may be irregularly arranged.

【0090】次に、触覚発生部21による触覚発生動作
について説明する。ユーザがリアルグローブ20を装着
し、手や指を動かすことによって仮想空間に現れている
物体(仮想物体)、すなわち対象物に、その指先(指
腹)が仮想的に接触すると、情報処理装置8は、実際に
接触があったとした場合の押圧力を計算し、その計算結
果に基づいて動力発生部211のPWMデータ(例え
ば、モータ211aを回転させるための励磁パターンを
示すデータ)に変換する。
Next, a tactile sense generating operation by the tactile sense generating section 21 will be described. When the user puts on the real glove 20 and moves his hand or finger, the fingertip (finger pad) virtually touches an object (virtual object) appearing in the virtual space, that is, an object, the information processing device 8 Calculates the pressing force when there is an actual contact, and converts it into PWM data of the power generation unit 211 (for example, data indicating an excitation pattern for rotating the motor 211a) based on the calculation result.

【0091】この場合、前記仮想空間(3次元空間)に
おいて、予め、互いに直交するX軸、Y軸およびZ軸、
すなわちX−Y−Z座標(3次元座標)が想定されてお
り、前記物体の座標と、前記ユーザの指先の座標との一
致を検出し、その一致が検出されると、物体の前記座標
に相当する部位とユーザの指先の前記座標に相当する部
位とが接触したと判別する。ユーザの指先の座標は、後
述する位置姿勢検出部23から信号送受信部26を介し
て情報処理装置8に送信される信号(情報)に基づいて
導出される。
In this case, in the virtual space (three-dimensional space), X-axis, Y-axis and Z-axis which are orthogonal to each other are previously set.
That is, X-Y-Z coordinates (three-dimensional coordinates) are assumed, and a match between the coordinates of the object and the coordinates of the fingertip of the user is detected, and when the match is detected, the coordinates of the object are detected. It is determined that the corresponding part and the part corresponding to the coordinates of the fingertip of the user have come into contact with each other. The coordinates of the user's fingertip are derived based on a signal (information) transmitted from the position / orientation detection unit 23, which will be described later, to the information processing device 8 via the signal transmission / reception unit 26.

【0092】次いで、情報処理装置8は、導出したPW
Mデータと、実際に接触があったとした場合の接触位置
に押圧力を与える接触板214aを動作させる動力発生
部211を特定(指定)するためのデータとを、リアル
グローブ20に送信する。リアルグローブ20は、受信
したPWMデータに応じて、指定された動力発生部21
1を駆動し、アクチュエータワイヤ212を巻き取る。
Next, the information processing device 8 determines the derived PW.
The M data and the data for specifying (designating) the power generation unit 211 that operates the contact plate 214a that applies the pressing force to the contact position when it is actually contacted are transmitted to the real glove 20. The real globe 20 has a power generation unit 21 designated according to the received PWM data.
1 to wind up the actuator wire 212.

【0093】アクチュエータワイヤ212が巻き取られ
ると、指腹に配されているアクチュエータワイヤ212
が指腹に沿って指の先端方向に向けて移動し、図4
(B)に示すように、アクチュエータワイヤ212に取
付固定されている触覚提示ピン214も、指腹に沿って
指の先端方向に向けて移動する。
When the actuator wire 212 is wound up, it is placed on the finger pad.
Moves along the finger pad toward the tip of the finger, as shown in FIG.
As shown in (B), the tactile sense presenting pin 214 fixedly attached to the actuator wire 212 also moves along the finger pad toward the tip direction of the finger.

【0094】この際、図4(C)に示すように、触覚提
示ピン214は、触覚提示ピン支持部215によって指
の先端方向への移動が制限されるとともに、触覚提示ピ
ン支持部215にガイドされて、図4(C)中上側へ移
動する(指腹に向って突出する)。すなわち、触覚提示
ピン214の接触板214aが指腹の表面に対しほぼ垂
直上方に移動する。触覚提示ピン214の支持部214
bは、待機時には(初期状態では)、図4(B)に示す
ように、垂直方向から指の先端方向に傾斜しており、前
記接触板214aがほぼ垂直上方に移動しようとする力
が働くことで、その接触板214aが指腹をほぼ垂直方
向へ押圧し、これにより、ユーザの手の指腹に押圧力を
与える。
At this time, as shown in FIG. 4C, the tactile sense presenting pin 214 is restricted by the tactile sense presenting pin support portion 215 from moving in the tip direction of the finger, and is guided by the tactile presenting pin support portion 215. Then, it moves to the upper side in FIG. 4C (projects toward the finger pad). That is, the contact plate 214a of the tactile sense providing pin 214 moves substantially vertically upward with respect to the surface of the finger pad. Support part 214 of tactile presentation pin 214
In the standby state (in the initial state), b is inclined from the vertical direction to the tip direction of the finger as shown in FIG. 4 (B), and the contact plate 214a acts so as to move almost vertically upward. As a result, the contact plate 214a presses the finger pad in a substantially vertical direction, thereby applying a pressing force to the finger pad of the user's hand.

【0095】この動作が、複数の単位触覚発生部210
のうちの指定された単位触覚発生部210でなされ、こ
れにより、ユーザの手の指腹に触覚が提示される(与え
られる)。よって、ユーザは、仮想空間画像における指
腹の物体(対象物)への接触に相当する感覚を、指腹に
得ることができる。
This operation is performed by the plurality of unit tactile sense generating units 210.
Of the designated unit tactile sensation generating unit 210, and the tactile sensation is presented (applied) to the finger pad of the user's hand. Therefore, the user can obtain, on the finger pad, a feeling corresponding to the contact of the finger pad with the object (object) in the virtual space image.

【0096】前記指定された単位触覚発生部210にお
いて、動力発生部211のモータ211aの駆動が停止
し、アクチュエータワイヤ212の巻き取り状態が解除
されると、ワイヤ保持部213が復元力(弾性力)によ
って収縮し、これにより、巻き取られていたアクチュエ
ータワイヤ212が引き出される。
In the designated unit tactile sensation generating section 210, when the driving of the motor 211a of the power generating section 211 is stopped and the winding state of the actuator wire 212 is released, the wire holding section 213 restores the elastic force (elastic force). ), The actuator wire 212 that has been wound is pulled out.

【0097】アクチュエータワイヤ212が引き出され
ると、指腹に配されているアクチュエータワイヤ212
が指腹に沿って指の基端方向(図4(C)中右側)に向
けて移動し、アクチュエータワイヤ212に取付固定さ
れている触覚提示ピン214も、指腹に沿って指の基端
方向に向けて移動し、触覚提示ピン214は、図4
(B)に示す初期状態に戻る。これにより、触覚提示ピ
ン214からユーザの手の指腹に与えられていた押圧力
が実質的に消滅する。
When the actuator wire 212 is pulled out, it is placed on the finger pad.
Moves toward the base end direction of the finger (right side in FIG. 4C) along the finger pad, and the tactile sense providing pin 214 fixedly attached to the actuator wire 212 also moves to the base end of the finger along the finger pad. Moving in the direction, the tactile presentation pin 214 is shown in FIG.
It returns to the initial state shown in (B). As a result, the pressing force applied from the tactile sense providing pin 214 to the finger pad of the user's hand is substantially eliminated.

【0098】このような触覚発生部21によれば、指腹
に対してほぼ平行に(指腹に沿って)アクチュエータワ
イヤ212を配置し、そのアクチュエータワイヤ212
を巻き取ることによって指腹に対してほぼ垂直な力を与
えるようになっているので、触覚を与えるための機構を
薄くすることができ、これにより、リアルグローブ20
の指腹側の厚みを極力抑えることができる。
According to the tactile sensation generating section 21, the actuator wire 212 is arranged substantially parallel to the finger pad (along the finger pad), and the actuator wire 212 is arranged.
Since the force is applied almost perpendicularly to the finger pad by winding, the mechanism for providing the tactile sensation can be made thin, which allows the real glove 20 to be used.
The thickness on the finger pad side of can be suppressed as much as possible.

【0099】また、アクチュエータワイヤ212の弛み
を防止することができ、触覚提示ピン214からユーザ
の指腹に、より正確かつ確実に目標の大ききの押圧力を
与えることができる。
Further, it is possible to prevent the slack of the actuator wire 212, and it is possible to more accurately and reliably apply a large target pressing force from the tactile sense providing pin 214 to the finger pad of the user.

【0100】図5および図6は、それぞれ、力覚発生部
22の構成例を示す外観図である。なお、図5は、フレ
ームカバーが取り外された状態を示す。
FIG. 5 and FIG. 6 are external views showing an example of the structure of the force sense generator 22. Note that FIG. 5 shows a state in which the frame cover is removed.

【0101】図5に示すように、力覚発生部22は、リ
アルグローブ20を装着したときのユーザの各指の背側
に設けられている。なお、力覚発生部22の構成および
作用は、ほぼ同様であるので、以下、代表的に、そのう
ちの1つについて説明する。
As shown in FIG. 5, the force sense generator 22 is provided on the back side of each finger of the user when the real glove 20 is worn. Since the configuration and operation of the force sense generator 22 are almost the same, one of them will be representatively described below.

【0102】力覚発生部22は、回動可能に連結された
複数(本実施形態では6つ)のフレーム221を備えた
リンク機構と、各フレーム221を回動させる複数(本
実施形態では7つ)のリンクモータ(駆動源)222
と、手袋2aに設けられた複数(本実施形態では4つ)
のフレームホルダ2bとを有している。
The force sense generator 22 includes a link mechanism having a plurality of (six in this embodiment) frames 221 that are rotatably connected, and a plurality (seven in this embodiment) that rotate each frame 221. Link motor (driving source) 222
And a plurality of gloves provided on the glove 2a (four in this embodiment)
Frame holder 2b.

【0103】前記フレームホルダ2bは、ユーザがリア
ルグローブ20を装着したとき、ユーザの指の第1関節
より先端側に位置する装着部と、第1関節と第2関節
(中節骨と基節骨との間の関節)との間に位置する装着
部と、第2関節と第3関節との間に位置する装着部と、
第3関節(基節骨と中手骨との間の関節)より基端側に
位置する装着部とに、それぞれ、設けられている。
When the user wears the real glove 20, the frame holder 2b has a mounting portion located on the tip side of the first joint of the user's finger, the first joint and the second joint (the middle phalanx and the proximal joint). (A joint between the bone) and a mounting portion located between the second joint and the third joint,
It is provided in each of the mounting portions located on the proximal end side of the third joint (the joint between the proximal phalanx and the metacarpal bone).

【0104】リンク機構は、前記フレームホルダ2bに
よって、手袋2aの、リアルグローブ20を装着したと
きのユーザの指の背側に取り付けられている。
The link mechanism is attached to the back of the user's finger when the real glove 20 is worn on the glove 2a by the frame holder 2b.

【0105】すなわち、リンク機構の先端側(図5中右
側)の端部のフレーム221は、ユーザがリアルグロー
ブ20を装着したときに、ユーザの指の第1関節より先
端側の部位にその端部が位置するように配置され、この
フレーム221の先端部は、フレームホルダ2bに対
し、回動可能に設置されている。
That is, when the user wears the real glove 20, the frame 221 at the tip side (right side in FIG. 5) of the link mechanism is located at the tip side of the first joint of the user's finger. The frame 221 is rotatably installed with respect to the frame holder 2b.

【0106】また、リンク機構の基端側(図5中左側)
の端部のフレーム221は、ユーザがリアルグローブ2
0を装着したときに、ユーザの指の第3関節より基端側
の部位にその端部が位置するように配置され、このフレ
ーム221の基端部は、フレームホルダ2bに対し、回
動可能に設置されている。
The base end side of the link mechanism (left side in FIG. 5)
The frame 221 at the end of the
When the user wears 0, the user's finger is arranged such that its end portion is located at a portion closer to the base end side than the third joint, and the base end portion of this frame 221 is rotatable with respect to the frame holder 2b. It is installed in.

【0107】また、リンク機構の残りの各フレーム22
1は、ユーザがリアルグローブ20を装着したときに、
ユーザの指の第1関節と第2関節との間の部位と、第2
関節と第3関節との間の部位とに、フレーム連結部が1
つおきに位置するように配置され、この1つおきのフレ
ーム連結部において、フレームホルダ2bに対し、回動
可能に設置されている。
Further, each of the remaining frames 22 of the link mechanism is
1 is when the user wears the real glove 20,
A portion of the user's finger between the first joint and the second joint, and the second joint
A frame connecting portion is provided at a portion between the joint and the third joint.
It is arranged so as to be positioned every other turn, and is installed so as to be rotatable with respect to the frame holder 2b at every other frame connecting portion.

【0108】各リンクモータ222の駆動力(回転力)
は、それぞれ、図示しない動力伝達部を介して、対応す
るフレーム221に伝達される。すなわち、リンクモー
タ222が所定方向に回転駆動すると、対応するフレー
ム221は、所定方向に回動し、これにより、フレーム
221の角度が変更(調整)される。
Driving force (rotational force) of each link motor 222
Are transmitted to the corresponding frames 221 via power transmission units (not shown). That is, when the link motor 222 is rotationally driven in the predetermined direction, the corresponding frame 221 is rotated in the predetermined direction, whereby the angle of the frame 221 is changed (adjusted).

【0109】なお、図5には、前述したアクチュエータ
ワイヤ212の束212aが示されている。
Note that FIG. 5 shows the bundle 212a of the actuator wires 212 described above.

【0110】力覚発生部22の各フレーム221や各リ
ンクモータ222は、それぞれ、図6に示すように、例
えば布製のフレームカバー2cの中に収納されている。
As shown in FIG. 6, each frame 221 and each link motor 222 of the force sense generator 22 are housed in a frame cover 2c made of cloth, for example.

【0111】また、図6に示すように、フレームカバー
2cの内側には、手や指の所定の部位の位置および姿勢
を検出する複数(本実施形態では4つ)の位置姿勢検出
部(位置検出手段)23が設置されている。各位置姿勢
検出部23は、それぞれ、位置および姿勢を検出する部
位(検出位置)に対して一定の位置関係を保持し得るよ
うに設けられている。
Further, as shown in FIG. 6, inside the frame cover 2c, a plurality of (four in this embodiment) position / orientation detecting units (positions) for detecting the position and attitude of a predetermined part of a hand or finger are positioned. The detection means) 23 is installed. Each of the position / orientation detection units 23 is provided so as to be able to maintain a fixed positional relationship with respect to a portion (detection position) for detecting the position and orientation.

【0112】すなわち、各位置姿勢検出部23は、それ
ぞれ、この実施形態では、フレームホルダ2bが設けら
れている位置に固定されている各リンクモータ222に
取付固定されている。従って、各位置姿勢検出部23が
設けられている部位と、ユーザの手のひら側の所定の部
位との位置関係は、一定に保たれる。よって、位置姿勢
検出部23が自己の位置や姿勢を検出することによっ
て、ユーザの手の平側の所定の部位の位置や姿勢を容易
かつ正確に導出することができる。
That is, each position / orientation detector 23 is attached and fixed to each link motor 222 fixed to the position where the frame holder 2b is provided in this embodiment. Therefore, the positional relationship between the part where each position / orientation detection unit 23 is provided and the predetermined part on the palm side of the user is kept constant. Therefore, the position and orientation detection unit 23 can easily and accurately derive the position and orientation of a predetermined part on the palm side of the user by detecting the position and orientation of the user.

【0113】また、各位置姿勢検出部23は、それぞ
れ、手の甲側に配置されているので、リアルグローブ2
0の指腹側の厚みを極力抑えることができる。
Further, since each position / orientation detecting unit 23 is arranged on the back side of the hand, the real glove 2
The thickness on the finger pad side of 0 can be suppressed as much as possible.

【0114】また、図3に示すように、位置姿勢検出部
23は、ユーザがリアルグローブ20を装着したとき、
リアルグローブ20の腕の基端側の部位に相当する位置
にも設置されている。
Further, as shown in FIG. 3, the position / orientation detecting unit 23, when the user wears the real glove 20,
It is also installed at a position corresponding to the base end side portion of the arm of the real glove 20.

【0115】これら位置姿勢検出部23により、リアル
グローブ20を装着した各指、手、手首、腕などの各部
の位置および姿勢を確実に把握することができる。
The position / orientation detecting unit 23 can surely grasp the position and orientation of each part such as each finger, hand, wrist, arm, etc. on which the real glove 20 is worn.

【0116】次に、力覚発生部22による力覚発生動作
について説明する。ユーザがリアルグローブ20を装着
し、手や指を動かすことによって仮想空間に現されてい
る物体(仮想物体)、すなわち対象物に、その手や指が
仮想的に接触すると、情報処理装置8は、後述する演算
処理部81によって、実際に接触があった場合の前記物
体から指(指の各関節)への反力を計算し、その計算結
果に基づいて各リンクモータ222のPWMデータ(例
えば、リンクモータ222を回転させるための励磁パタ
ーンを示すデータ)に変換する。
Next, the force sense generating operation by the force sense generating section 22 will be described. When the user wears the real glove 20 and moves his or her hand or finger, the hand or finger virtually touches an object (virtual object) appearing in the virtual space, that is, an object. The calculation processing unit 81 described later calculates the reaction force from the object to the finger (each joint of the finger) in the case of actual contact, and based on the calculation result, the PWM data of each link motor 222 (for example, , Data indicating an excitation pattern for rotating the link motor 222).

【0117】前記物体とユーザの手や指との接触の判別
は、前記触覚発生部21の場合と同様である。
The determination of the contact between the object and the user's hand or finger is the same as in the case of the tactile sense generating section 21.

【0118】情報処理装置8は、導出した各PWMデー
タと、駆動させる各リンクモータ222を示すデータと
をリアルグローブ20に送信する。リアルグローブ20
は、受信したデータに応じて、指定された各リンクモー
タ222を所定方向に回転駆動し、対応する各フレーム
221を所定方向に回動させ、各フレーム221の角度
を調整、すなわち、リンク機構の両端部のフレーム22
1の角度および各フレーム連結部の角度をそれぞれ調整
する。
The information processing device 8 transmits the derived PWM data and the data indicating each link motor 222 to be driven to the real globe 20. Real glove 20
Adjusts the angle of each frame 221 by rotating the designated link motor 222 in a predetermined direction and rotating the corresponding frame 221 in a predetermined direction in accordance with the received data. Frames 22 on both ends
The angle of 1 and the angle of each frame connection part are adjusted.

【0119】このフレーム221の角度調整により、所
定のフレームホルダ2bにそれぞれ所定の大きさの力が
加わり、これにより、前記仮想空間に現されている物体
からの反力に対応する力がユーザの指の各関節に与えら
れる。すなわち、指の各関節に対して力覚が提示される
(与えられる)。
By adjusting the angle of the frame 221, a predetermined amount of force is applied to each of the predetermined frame holders 2b, whereby a force corresponding to the reaction force from the object appearing in the virtual space is applied by the user. Given to each joint of the finger. That is, a force sensation is presented (applied) to each joint of the finger.

【0120】ここで、この力覚発生部22は、指の複数
の部位に装着する複数の装着部間の間隔を調節する機能
を有している(調節手段を兼ねている)。
Here, the force-sense generating section 22 has a function of adjusting the intervals between a plurality of mounting sections to be mounted on a plurality of parts of a finger (also serves as adjusting means).

【0121】例えば、図5に示すように、所定のフレー
ム221を回動させ、フレーム221の角度を調整する
ことにより、各フレームホルダ2b間の間隔を長くした
り、または、短くしたりすることができる。
For example, as shown in FIG. 5, by rotating a predetermined frame 221 and adjusting the angle of the frame 221, the intervals between the frame holders 2b can be lengthened or shortened. You can

【0122】図7は、リアルグローブ20の位置姿勢検
出部23の構成例を示すブロック図である。位置姿勢検
出部23には、本実施形態では、直交コイル式(直交コ
イル型)の位置センサが用いられる。すなわち、位置姿
勢検出部23は、図7に示すように、X方向検出コイル
231と、Y方向検出コイル232と、Z方向検出コイ
ル233とで構成される。なお、X方向と、Y方向と、
Z方向とは、互いに直交している。
FIG. 7 is a block diagram showing an example of the configuration of the position / orientation detection unit 23 of the real glove 20. In this embodiment, a quadrature coil type (orthogonal coil type) position sensor is used for the position / orientation detection unit 23. That is, as shown in FIG. 7, the position / orientation detection unit 23 includes an X-direction detection coil 231, a Y-direction detection coil 232, and a Z-direction detection coil 233. In addition, X direction, Y direction,
The Z direction is orthogonal to each other.

【0123】一方、情報処理装置8には、磁界を発生す
る後述する磁界発生部88が設けられている。この磁界
発生部88には、例えば、前記位置姿勢検出部23とほ
ぼ同じ構成のもの、すなわち、直交コイル式(直交コイ
ル型)の磁界発生器(X方向コイル、Y方向コイル、Z
方向コイル)が用いられる。
On the other hand, the information processing device 8 is provided with a magnetic field generator 88, which will be described later, for generating a magnetic field. The magnetic field generation unit 88 has, for example, a configuration substantially similar to that of the position / orientation detection unit 23, that is, an orthogonal coil type (orthogonal coil type) magnetic field generator (X-direction coil, Y-direction coil, Z).
Directional coil) is used.

【0124】この磁界発生部で発生した磁界は、位置姿
勢検出部23で検出される。この場合、磁界発生部のX
方向コイル、Y方向コイル、Z方向コイルの順に時分割
で磁界を発生し、それぞれコイルから発生された磁界
を、位置姿勢検出部23のX方向検出コイル231、Y
方向検出コイル232およびZ方向検出コイル233の
3つのコイルで検出する。
The magnetic field generated by this magnetic field generating section is detected by the position / orientation detecting section 23. In this case, X of the magnetic field generator
Directional coils, Y-direction coils, and Z-direction coils generate time-divided magnetic fields in order, and the magnetic fields generated by the coils are respectively detected by the X-direction detection coils 231 and Y of the position / orientation detection unit 23.
Three coils, the direction detection coil 232 and the Z direction detection coil 233, are used for detection.

【0125】位置姿勢検出部23によってXYZ各方向
について検出された各信号(検出データ)は、それぞ
れ、信号処理部25の増幅部251にて増幅され、A/
D変換部252にてデジタル信号に変換された後、図2
に示す信号送受信部26に出力され、この信号送受信部
26により情報処理装置8に送信される。
The signals (detection data) detected in the XYZ directions by the position / orientation detection unit 23 are amplified by the amplification unit 251 of the signal processing unit 25, respectively, and are A /
After being converted into a digital signal by the D conversion unit 252, FIG.
Is output to the signal transmitting / receiving unit 26, and is transmitted to the information processing device 8 by the signal transmitting / receiving unit 26.

【0126】情報処理装置8では、前記信号を受信し、
その信号(情報)に基づいて、リアルグローブ20を装
着した各指、手、手首、腕などの各部の位置および姿勢
を導出し、その情報を所定の各処理において利用する。
The information processing device 8 receives the signal,
Based on the signal (information), the position and posture of each part such as each finger, hand, wrist, and arm wearing the real glove 20 is derived, and the information is used in each predetermined process.

【0127】仮想空間表示装置5には、この実施形態で
は、顔面に装着して使用する形態のもの、すなわち、H
MD(ヘッドマウントディスプレイ)と呼ばれる眼鏡状
の装置が用いられる。
In this embodiment, the virtual space display device 5 is of a form to be mounted on the face for use, that is, H
A spectacle-shaped device called MD (head mounted display) is used.

【0128】図8は、仮想空間表示装置5の外観構成例
を示す斜視図であり、図9は、仮想空間表示装置5の回
路構成例を示すブロック図である。
FIG. 8 is a perspective view showing an example of the external configuration of the virtual space display device 5, and FIG. 9 is a block diagram showing an example of the circuit configuration of the virtual space display device 5.

【0129】仮想空間表示装置5は、装着者(ユーザ)
に対して仮想空間画像を表示する画像表示部51a、5
1bと、装着者の視線を検出する視線検出部52a、5
2bと、周囲の画像(映像)を取り込む凹凸入力部53
a、53bと、装置全体の制御を行う制御部54と、情
報処理装置8と信号を送受信する信号送受信部55と、
ユーザの視点を検出する位置姿勢検出部(位置検出手
段)56と、耳に引っかけて保持する装着部57と、各
種信号を処理する信号処理部58とを備えている。
The virtual space display device 5 is a wearer (user).
The image display portions 51a, 5a for displaying the virtual space image with respect to
1b and line-of-sight detection units 52a, 5 for detecting the line of sight of the wearer
2b and the concave / convex input unit 53 that captures the surrounding image (video)
a, 53b, a control unit 54 that controls the entire apparatus, a signal transmission / reception unit 55 that transmits / receives signals to / from the information processing device 8,
A position / orientation detection unit (position detection unit) 56 that detects a user's viewpoint, a mounting unit 57 that hooks and holds the user's ears, and a signal processing unit 58 that processes various signals are provided.

【0130】図10は、仮想空間表示装置5の凹凸入力
部53aの構成例を示す図(ブロック図、模式図)であ
る。この図10において、凹凸入力部53aは、レンズ
531と、CCD(撮像素子)532と、CCD制御部
533と、CCD出力増幅部534とを有している。
FIG. 10 is a diagram (block diagram, schematic diagram) showing a configuration example of the unevenness input section 53a of the virtual space display device 5. As shown in FIG. 10, the concave / convex input unit 53a has a lens 531, a CCD (imaging device) 532, a CCD control unit 533, and a CCD output amplification unit 534.

【0131】レンズ531に入射した光(光束)は、そ
のレンズ531により、CCD532の受光面(撮像
面)上に導かれて結像し、その被写体像(周囲の像)
は、CCD532により撮像される。このCCD532
の駆動は、CCD制御部533により制御される。
The light (light flux) incident on the lens 531 is guided by the lens 531 onto the light receiving surface (imaging surface) of the CCD 532 to form an image, and the subject image (surrounding image).
Are imaged by the CCD 532. This CCD532
The drive of is controlled by the CCD control unit 533.

【0132】CCD532から出力された信号は、CC
D出力増幅部534で増幅され、その後、凹凸入力部5
3aから出力され、図9に示す信号処理部58に入力さ
れる。そして、信号処理部58において所定の信号処理
がなされ、信号送受信部55により情報処理装置8に送
信される。
The signal output from the CCD 532 is CC
It is amplified by the D output amplifying section 534, and then the unevenness input section 5
3a is output and input to the signal processing unit 58 shown in FIG. Then, the signal processing unit 58 performs predetermined signal processing, and the signal transmitting / receiving unit 55 transmits the signal to the information processing device 8.

【0133】なお、凹凸入力部53bの構成および作用
は、前記凹凸入力部53aと同様であるので、その説明
は、省略する。
Since the structure and operation of the unevenness input section 53b are the same as those of the unevenness input section 53a, the description thereof will be omitted.

【0134】図11は、仮想空間表示装置5の画像表示
部51aの構成例を示す図(ブロック図、模式図)であ
る。この図11において、画像表示部51aは、レンズ
511と、レンズ511を移動させるレンズ移動機構5
12と、ステッピングモータ513と、モータ制御部5
14と、図示しないカラーフィルタを備えた液晶表示パ
ネル515と、液晶駆動部516と、バックライト51
7と、バックライト制御部518と、トランジスタ51
9とを有している。
FIG. 11 is a diagram (block diagram, schematic diagram) showing a configuration example of the image display section 51a of the virtual space display device 5. In FIG. 11, the image display unit 51 a includes a lens 511 and a lens moving mechanism 5 that moves the lens 511.
12, stepping motor 513, and motor controller 5
14, a liquid crystal display panel 515 having a color filter (not shown), a liquid crystal drive unit 516, and a backlight 51.
7, the backlight control unit 518, and the transistor 51
9 and 9.

【0135】画像表示部51aにおいて仮想空間画像を
表示する際は、バックライト制御部518の制御によ
り、トランジスタ519がオンし、バックライト517
が駆動し、バックライト517から液晶表示パネル51
5へ光が照射される。
When the virtual space image is displayed on the image display section 51a, the transistor 519 is turned on by the control of the backlight control section 518 to turn on the backlight 517.
Is driven, and the backlight 517 drives the liquid crystal display panel 51.
5 is irradiated with light.

【0136】そして、液晶駆動部516は、制御部54
から入力される表示信号(画像データ)に基づいて、液
晶表示パネル515の駆動を制御し、これにより、液晶
表示パネル515に仮想空間画像が表示される。
Then, the liquid crystal drive section 516 is connected to the control section 54.
The drive of the liquid crystal display panel 515 is controlled based on the display signal (image data) input from the liquid crystal display panel 515, whereby the virtual space image is displayed on the liquid crystal display panel 515.

【0137】装着者(ユーザ)は、レンズ511および
後述する視線検出部52aのハーフミラー521を介
し、この液晶表示パネル515に表示された仮想空間画
像を視認することができる。
The wearer (user) can visually recognize the virtual space image displayed on the liquid crystal display panel 515 through the lens 511 and the half mirror 521 of the line-of-sight detecting unit 52a described later.

【0138】ステッピングモータ513の駆動は、モー
タ制御部514により制御され、そのステッピングモー
タ513が所定方向に回転すると、レンズ移動機構51
2により、レンズ511は、液晶表示パネル515に接
近する方向、すなわち、装着者の目から離間する方向へ
移動する。
The driving of the stepping motor 513 is controlled by the motor control section 514. When the stepping motor 513 rotates in a predetermined direction, the lens moving mechanism 51 is moved.
2, the lens 511 moves in a direction approaching the liquid crystal display panel 515, that is, a direction away from the wearer's eyes.

【0139】また、ステッピングモータ513が前記と
逆方向に回転すると、レンズ移動機構512により、レ
ンズ511は、液晶表示パネル515から離間する方
向、すなわち、装着者の目に接近する方向へ移動する。
When the stepping motor 513 rotates in the opposite direction to the above, the lens moving mechanism 512 moves the lens 511 away from the liquid crystal display panel 515, that is, toward the wearer's eyes.

【0140】このレンズ511の位置の変更により、前
記仮想空間画像の遠近を変更することができる。
By changing the position of the lens 511, the perspective of the virtual space image can be changed.

【0141】このレンズ511の位置の調整、すなわ
ち、前記仮想空間画像の遠近の調整は、後述する視線検
出部52a、52bで検出される装着者の視線の情報に
基づいてなされる。
The adjustment of the position of the lens 511, that is, the adjustment of the perspective of the virtual space image is performed based on the information on the line of sight of the wearer detected by the line-of-sight detection units 52a and 52b described later.

【0142】なお、画像表示部51bの構成および作用
は、前記画像表示部51aと同様であるので、その説明
は、省略する。
Since the structure and operation of the image display section 51b are the same as those of the image display section 51a, the description thereof will be omitted.

【0143】視線検出部52a、52bは、装着者の視
線がどの方向にあるか(仮想空間画像のどこに焦点を合
わせようとしているか)を検出する機能と、セキュリテ
ィ情報として利用するための装着者の眼の虹彩パターン
を読み取る機能とを有している。
The line-of-sight detection units 52a and 52b have a function of detecting in which direction the line of sight of the wearer is (where in the virtual space image the focus is intended), and the wearer's line of sight for use as security information. It has the function of reading the iris pattern of the eye.

【0144】図12は、仮想空間表示装置5の視線検出
部52aの構成例を示す図(ブロック図、模式図)であ
る。この図12において、視線検出部52aは、ハーフ
ミラー521と、可視光を除去し、赤外光を透過させる
フィルタ522と、レンズ523と、CCD(撮像素
子)524と、CCD制御部525と、CCD出力増幅
部526と、赤外光を発するLED(発光ダイオード)
527と、LED制御部528と、トランジスタ529
とを有している。
FIG. 12 is a diagram (block diagram, schematic diagram) showing an example of the configuration of the line-of-sight detection unit 52a of the virtual space display device 5. 12, the line-of-sight detection unit 52a includes a half mirror 521, a filter 522 that removes visible light and transmits infrared light, a lens 523, a CCD (imaging device) 524, and a CCD control unit 525. CCD output amplifier 526 and LED (light emitting diode) that emits infrared light
527, LED control unit 528, and transistor 529.
And have.

【0145】LED527の駆動は、LED制御部52
8により制御され、そのLED制御部528の制御によ
りトランジスタ529がオンすると、LED527が駆
動し、LED527から赤外光が発せられる。
The LED 527 is driven by the LED control unit 52.
When the transistor 529 is turned on under the control of the LED control unit 528, the LED 527 is driven and infrared light is emitted from the LED 527.

【0146】LED527から発せられた赤外光は、フ
ィルタ522を透過し、ハーフミラー521でその一部
が反射して、装着者の目に照射される。
The infrared light emitted from the LED 527 is transmitted through the filter 522, part of it is reflected by the half mirror 521, and is radiated to the eyes of the wearer.

【0147】そして、装着者の目からの反射光(光束)
は、ハーフミラー521でその一部が反射して、フィル
タ522を透過し、レンズ523により、CCD524
の受光面(撮像面)上に導かれて結像し、その被写体像
(装着者の目の像)は、CCD524により撮像され
る。このCCD524の駆動は、CCD制御部525に
より制御される。
Then, reflected light (light flux) from the wearer's eyes
Is partially reflected by the half mirror 521 and transmitted through the filter 522, and the lens 523 causes the CCD 524 to pass through.
The image of the subject (the image of the wearer's eyes) is guided and formed on the light receiving surface (image pickup surface) of the CCD 524. The driving of the CCD 524 is controlled by the CCD controller 525.

【0148】CCD524から出力された信号は、CC
D出力増幅部526で増幅され、その後、視線検出部5
2aから出力され、図9に示す信号処理部58に入力さ
れ、所定の信号処理がなされ、信号送受信部55により
情報処理装置8に送信される。
The signal output from the CCD 524 is CC
It is amplified by the D output amplification unit 526, and then the line-of-sight detection unit 5
It is output from 2a, is input to the signal processing unit 58 shown in FIG. 9, is subjected to predetermined signal processing, and is transmitted to the information processing device 8 by the signal transmitting / receiving unit 55.

【0149】情報処理装置8では、仮想空間表示装置5
からの信号を受信し、その信号(情報)に基づいて、装
着者の視線がどの方向にあるか(仮想空間画像のどこに
焦点を合わせようとしているか)を検出するとともに、
装着者の眼の虹彩パターンを読み取り、解析し、セキュ
リティ情報として利用する。
In the information processing device 8, the virtual space display device 5
From the signal (information) from, the direction of the wearer's line of sight is detected (where in the virtual space image to focus), and
The iris pattern of the wearer's eye is read, analyzed, and used as security information.

【0150】一方、レンズ523側からフィルタ522
へ入射する可視光は、フィルタ522で除去され、その
可視光が装着者の目に照射されてしまうのを阻止するこ
とができる。これにより、液晶表示パネル515に表示
された仮想空間画像の視認性の低下を防止することがで
きる。
On the other hand, from the lens 523 side to the filter 522
The visible light incident on the filter 522 is removed by the filter 522, and the visible light can be prevented from being emitted to the eyes of the wearer. As a result, it is possible to prevent the visibility of the virtual space image displayed on the liquid crystal display panel 515 from being degraded.

【0151】なお、視線検出部52bの構成および作用
は、前記視線検出部52aと同様であるので、その説明
は、省略する。
Since the structure and operation of the line-of-sight detection unit 52b are the same as those of the line-of-sight detection unit 52a, description thereof will be omitted.

【0152】この仮想空間表示装置5は、2台の画像取
込装置(撮像手段)、すなわち、前記凹凸入力部53
a、53bによって周囲の画像を撮像して取り込み、情
報処理装置8に対して撮像した画像データ(映像デー
タ)を送信する。
The virtual space display device 5 includes two image capturing devices (imaging means), that is, the unevenness input section 53.
The surrounding image is captured and captured by a and 53b, and the captured image data (video data) is transmitted to the information processing device 8.

【0153】情報処理装置8は、凹凸入力部53a、5
3bにて撮像された画像、すなわち撮像された画像デー
タから視角差を導出し、その視角差等から得られる周囲
の凹凸に基づいて、仮想空間画像、すなわち仮想空間の
画像データを作成する。そして、情報処理装置8は、作
成した仮想空間の画像(映像)と、例えば、仮想壁紙や
仮想パーソナルコンピュータや仮想本などの所定の仮想
物体を周囲の凹凸に合わせて仮想空間に配置するための
画像とを合成した合成画像(合成映像)を示す画像デー
タ(映像データ)を仮想空間表示装置5に送信する。
The information processing device 8 includes the concave / convex input units 53a, 5a and 5b.
The visual angle difference is derived from the image captured in 3b, that is, the captured image data, and the virtual space image, that is, the image data of the virtual space is created based on the surrounding irregularities obtained from the visual angle difference and the like. Then, the information processing device 8 arranges the created image (video) of the virtual space and a predetermined virtual object such as a virtual wallpaper, a virtual personal computer, or a virtual book in the virtual space so as to match the surrounding unevenness. Image data (video data) indicating a composite image (composite video) obtained by combining the image and the image is transmitted to the virtual space display device 5.

【0154】仮想空間表示装置5は、情報処理装置8か
らの画像データに基づいて、その画像を画像表示部51
a、51bを用いて表示する。
The virtual space display device 5 displays the image based on the image data from the information processing device 8 in the image display section 51.
It is displayed using a and 51b.

【0155】また、仮想空間表示装置5は、装着されて
いるリアルグローブ20、すなわち、ユーザの手や腕が
画像表示部51a、51bにより表示されている画像の
領域内に入っている場合には、その手や腕に対応する画
像も、画像表示部51a、51bに表示する。
In addition, the virtual space display device 5 is designed so that when the worn real glove 20, that is, the user's hand or arm is within the area of the image displayed by the image display portions 51a and 51b. The images corresponding to the hands and arms are also displayed on the image display units 51a and 51b.

【0156】この場合、前述したように、リアルグロー
ブ20に設けられている複数の位置姿勢検出部23の検
出データが情報処理装置8に送信されることで、リアル
グローブ20の位置および姿勢、すなわち、ユーザの各
指、手、手首、腕等は情報処理装置8にて認識される。
すなわち、情報処理装置8は、逐一、リアルグローブ2
0からの前記検出データに基づいて、ユーザの各指、
手、手首、腕等の位置および姿勢を特定し、それらが画
像表示部51a、51bにより表示されている画像の領
域内に入っている場合には、それらを示す仮想空間画像
を作成し、その画像を基礎の画像に合成して、合成画像
(合成画像の画像データ)を得、その画像データを仮想
空間表示装置5に送信する。
In this case, as described above, the detection data of the plurality of position / orientation detecting units 23 provided in the real glove 20 are transmitted to the information processing device 8, whereby the position and the posture of the real glove 20, that is, the posture. The user's fingers, hands, wrists, arms, etc. are recognized by the information processing device 8.
That is, the information processing device 8 is step by step in the real globe 2
Each finger of the user based on the detection data from 0,
Positions and postures of hands, wrists, arms, etc. are specified, and when they are within the area of the image displayed by the image display units 51a and 51b, a virtual space image showing them is created, and The image is combined with the basic image to obtain a combined image (image data of the combined image), and the image data is transmitted to the virtual space display device 5.

【0157】従って、ユーザの手や腕が画像表示部51
a、51bにより表示されている画像の領域内に入って
いる場合には、その手や腕に対応する画像が、画像表示
部51a、51bに表示される。
Therefore, the user's hand or arm is displayed on the image display unit 51.
When it is within the area of the image displayed by a and 51b, the image corresponding to the hand or arm is displayed on the image display units 51a and 51b.

【0158】そして、リアルグローブ20を装着した手
や指の実際の動作に連動し、画像表示部51a、51b
に表示されている仮想空間画像においてその手や指が動
く。
Then, in conjunction with the actual movement of the hand or finger wearing the real glove 20, the image display portions 51a and 51b are linked.
The hands and fingers move in the virtual space image displayed in.

【0159】位置姿勢検出部56は、仮想空間表示装置
5の位置および姿勢、すなわち、装着者の顔面(頭部)
の位置および姿勢を検出するためのセンサである。この
位置姿勢検出部56には、本実施形態では、直交コイル
式の位置センサ、すなわち、前記位置姿勢検出部23と
同様のものが用いられる。
The position / orientation detector 56 determines the position and orientation of the virtual space display device 5, that is, the face (head) of the wearer.
Is a sensor for detecting the position and orientation of the. In this embodiment, a quadrature coil type position sensor, that is, the same as the position / orientation detecting unit 23 is used as the position / orientation detecting unit 56.

【0160】位置姿勢検出部56からの信号(検出デー
タ)は、信号処理部58に入力され、所定の信号処理が
なされ、信号送受信部55により逐一情報処理装置8に
送信される。情報処理装置8は、この検出データに基づ
いて、所定の時間間隔で逐一仮想空間画像を更新する。
The signal (detection data) from the position / orientation detecting unit 56 is input to the signal processing unit 58, subjected to predetermined signal processing, and transmitted to the information processing device 8 one by one by the signal transmitting / receiving unit 55. The information processing device 8 updates the virtual space image one by one at a predetermined time interval based on the detection data.

【0161】従って、例えば仮想空間表示装置5を装着
したユーザが首を動かした場合には、画像表示部51
a、51bに表示される仮想空間画像は、ユーザが向い
ている方向に合致した画像となるように変化する。
Therefore, for example, when the user wearing the virtual space display device 5 moves his / her neck, the image display section 51
The virtual space images displayed on a and 51b change so as to be an image that matches the direction in which the user is facing.

【0162】図13は、図1に示す情報処理装置8の回
路構成例を示すブロック図である。この図13におい
て、情報処理装置8は、演算処理部(演算手段)81
と、衝突判定部(衝突判定手段)82と、画像生成部
(画像生成手段)83と、制御部(制御手段)84と、
記憶部(記憶手段)85と、信号処理部86と、信号送
受信部(通信手段)87と、磁界発生部88とを備えて
いる。
FIG. 13 is a block diagram showing a circuit configuration example of the information processing device 8 shown in FIG. In FIG. 13, the information processing device 8 includes an arithmetic processing unit (arithmetic means) 81.
A collision determination unit (collision determination unit) 82, an image generation unit (image generation unit) 83, a control unit (control unit) 84,
A storage unit (storage unit) 85, a signal processing unit 86, a signal transmission / reception unit (communication unit) 87, and a magnetic field generation unit 88 are provided.

【0163】演算処理部81は、上述のリアルグローブ
20の指や手が仮想空間内の対象物に接触した場合に
は、その対象物がどのようなものであるかを判断して、
それから指(指の各関節)への反力を演算し、その演算
結果からリアルグローブ20の各リンクモータ222の
PWMデータに変換し、その変換データを信号処理部8
6および信号送受信部87を介してリアルグローブ20
に送信する。
When the finger or hand of the above-mentioned real glove 20 comes into contact with an object in the virtual space, the arithmetic processing section 81 determines what the object is like,
Then, the reaction force to the finger (each joint of the finger) is calculated, and the calculation result is converted into PWM data of each link motor 222 of the real glove 20, and the conversion data is converted into the signal processing unit 8.
6 and the signal transmitting / receiving unit 87, the real glove 20
Send to.

【0164】また、演算処理部81は、後述する仮想の
本整列処理において、制御部84を介して画像生成部8
3で更新して生成される仮想空間画像を入力され、その
画像データに基づいて仮想の本が移動するときの移動速
度と移動方向を演算し、その演算結果を制御部84に出
力する。
Further, the arithmetic processing section 81 uses the control section 84 to generate the image generation section 8 in the virtual main alignment processing described later.
The virtual space image generated by updating in 3 is input, the moving speed and the moving direction when the virtual book moves are calculated based on the image data, and the calculation result is output to the control unit 84.

【0165】衝突判定部82は、後述する仮想の本整列
処理において、仮想空間中を移動する対象物(図17の
仮想の本整列処理では、仮想の本)が障害物(図17の
仮想の本整列処理においては、仮想の壁)に衝突したか
否かを判定するものである。実際には、衝突判定部82
は、演算処理部81において演算された仮想の本の移動
速度および移動方向から仮想の本の現在の座標位置を特
定し、それが障害物の平面座標(通常、障害物は平面状
である)と一致するか否かを判定する。そして、その衝
突判定結果は、制御部84に出力される。
In the virtual book alignment process described later, the collision determination unit 82 determines that an object (a virtual book in the virtual book alignment process of FIG. 17) moving in the virtual space is an obstacle (a virtual book of FIG. 17). In this alignment processing, it is determined whether or not a collision has occurred with a virtual wall. Actually, the collision determination unit 82
Specifies the current coordinate position of the virtual book from the moving speed and moving direction of the virtual book calculated by the arithmetic processing unit 81, and the current coordinate position of the virtual book is the planar coordinate of the obstacle (usually, the obstacle is planar). It is determined whether or not Then, the collision determination result is output to the control unit 84.

【0166】画像生成部83は、制御部84の指示によ
り、予め基地局9から受信した仮想空間画像、あるいは
仮想空間表示装置5の凹凸入力部53a、53bによっ
て撮像され、その撮像画像から変換された仮想空間画像
に、ユーザが特定した画像(例えば、仮想の本など)と
ユーザの腕や指などの映像とを重ね合わせて、合成され
た仮想空間画像を生成し、それを信号処理部86に出力
する。また、画像生成部83は、仮想空間表示装置5の
移動にともない、所定の時間間隔で仮想空間画像を更新
して生成し、それを信号処理部86に出力する。
The image generation unit 83 is imaged by the virtual space image previously received from the base station 9 or the unevenness input units 53a and 53b of the virtual space display device 5 according to the instruction of the control unit 84, and is converted from the captured image. The image (for example, a virtual book) specified by the user and the image of the arm or finger of the user are superimposed on the virtual space image to generate a combined virtual space image, and the combined virtual space image is generated by the signal processing unit 86. Output to. Further, the image generation unit 83 updates and generates the virtual space image at predetermined time intervals with the movement of the virtual space display device 5, and outputs it to the signal processing unit 86.

【0167】また、画像生成部83は、衝突判定部82
から出力された衝突判定結果に基づいて、制御部84の
指示により、ユーザの立っている位置、すなわち、仮想
空間表示装置5(HMD)の方向に向けて正対している
ように、移動する対象物を壁(例えば、本棚などでもよ
い)の前に表示する画像を生成する。この生成された画
像は、信号処理部86および信号送受信部87を介し
て、仮想空間表示装置5に送信される。
Further, the image generation section 83 has a collision determination section 82.
Based on the collision determination result output from the control unit 84, the target to be moved by the instruction of the control unit 84 as if facing the user's standing position, that is, the direction of the virtual space display device 5 (HMD). Generate an image that displays an object in front of a wall (eg, a bookshelf, etc.). The generated image is transmitted to the virtual space display device 5 via the signal processing unit 86 and the signal transmitting / receiving unit 87.

【0168】制御部84は、上述の演算処理部81、衝
突判定部82、および画像生成部83の動作を制御し、
その演算結果、衝突判定結果、および生成画像データな
どを記憶部85の所定の格納領域に保存するとともに、
信号処理部86および信号送受信部87を介して、対応
する装置にそれらを送信する。
The control unit 84 controls the operations of the arithmetic processing unit 81, the collision determination unit 82, and the image generation unit 83,
The calculation result, the collision determination result, the generated image data, and the like are saved in a predetermined storage area of the storage unit 85, and
They are transmitted to the corresponding devices via the signal processing unit 86 and the signal transmitting / receiving unit 87.

【0169】記憶部85は、プログラムやデータ等が予
め記憶されている、図示しないコンピュータに読み取り
可能な記憶媒体(記録媒体ともいう。特許請求の範囲に
おいては記録媒体とする)を有しており、この記憶媒体
は、例えば、RAM(RandomAccess Memory:揮発性、
不揮発性のいずれをも含む)、FD(Floppy Disk(Flo
ppyは登録商標))、HD(Hard Disk)、CD−ROM
(Compact Disc Read-Only Memory)等のような、磁気
的、光学的記録媒体、もしくは半導体メモリで構成され
ている。この記憶媒体は、記憶部85に固定的に設けた
もの、もしくは着脱自在に装着するものであり、この記
憶媒体には、上記仮想空間表示装置5、情報処理装置
8、および触覚・力覚提示装置2に対応する各種アプリ
ケーションプログラム、触覚・力覚発生処理プログラ
ム、仮想の本整列処理プログラム、および各処理プログ
ラムで処理されたデータ、文書データ等が記憶される。
The storage unit 85 has a computer-readable storage medium (also referred to as a recording medium, which is also referred to as a recording medium in the claims) in which programs and data are stored in advance. The storage medium is, for example, a RAM (Random Access Memory: volatile,
Including non-volatile), FD (Floppy Disk (Flo
ppy is a registered trademark)), HD (Hard Disk), CD-ROM
It is composed of a magnetic or optical recording medium such as (Compact Disc Read-Only Memory) or a semiconductor memory. This storage medium is fixedly provided in the storage unit 85 or is detachably mounted. The storage medium includes the virtual space display device 5, the information processing device 8, and the tactile / force sense presentation. Various application programs corresponding to the device 2, a tactile / force sense generation processing program, a virtual main alignment processing program, data processed by each processing program, document data, and the like are stored.

【0170】また、この記憶媒体に記憶するプログラ
ム、データ等は、その一部もしくは全部をサーバやクラ
イアント(本実施の形態では、基地局9など)等の他の
機器からネットワーク回線(例えば、インターネット、
電話回線など)等の伝送媒体を介して信号送受信部87
から受信して記憶する構成にしてもよく、さらに、記憶
媒体はネットワーク上に構築された基地局9のサーバの
記憶媒体であってもよい。さらに、前記プログラムをネ
ットワーク回線等の伝送媒体を介してサーバやクライア
ントから伝送して情報処理装置8にインストールするよ
うに構成してもよい。また、上記プログラムは、前述し
た機能の一部を実現するためのものであって良く、さら
に前述した機能をコンピュータシステムにすでに記録さ
れているプログラムとの組み合わせで実現できるもので
あってもよい。
Further, a part or all of the programs, data, etc. stored in this storage medium are transmitted from other devices such as servers and clients (base station 9 in the present embodiment) to network lines (eg, the Internet). ,
Signal transmission / reception unit 87 via a transmission medium such as a telephone line)
It may be configured to be received and stored from the server, and the storage medium may be the storage medium of the server of the base station 9 constructed on the network. Furthermore, the program may be transmitted from a server or a client via a transmission medium such as a network line and installed in the information processing device 8. Further, the program may be a program for realizing some of the functions described above, and may be a program that can realize the functions described above in combination with a program already recorded in the computer system.

【0171】信号処理部86は、仮想空間表示装置5や
触覚・力覚提示装置2に送信する画像データや制御信号
などの増幅等の信号処理を行う。信号送受信部87は、
信号処理部86において処理された各種信号やデータを
仮想空間表示装置5や触覚・力覚提示装置2などの外部
機器との通信を行うための制御を行う。
The signal processing unit 86 performs signal processing such as amplification of image data and control signals transmitted to the virtual space display device 5 and the tactile / force sense presentation device 2. The signal transmitting / receiving unit 87 is
Control is performed to communicate various signals and data processed by the signal processing unit 86 with external devices such as the virtual space display device 5 and the tactile / force sense presentation device 2.

【0172】磁界発生部88は、詳細は図示されていな
いが、例えば、図7の位置姿勢検出部23に対応する直
交コイル式(直交コイル型)の磁界発生器(X方向コイ
ル、Y方向コイル、Z方向コイル)である。この磁界発
生部88は、制御部84からの指示により、X、Y、Z
方向コイルの順で磁界を発生し、リアルグローブ20の
位置姿勢検出部23の各方向の検出コイル231、23
2および233に発生した磁界を検出させるとともに、
仮想空間表示装置5の位置姿勢検出部56にも磁界を検
出させる。
Although the magnetic field generator 88 is not shown in detail, for example, an orthogonal coil type (orthogonal coil type) magnetic field generator (X-direction coil, Y-direction coil) corresponding to the position / orientation detector 23 of FIG. 7 is used. , Z direction coil). The magnetic field generation unit 88 receives X, Y, Z
A magnetic field is generated in the order of the direction coils, and the detection coils 231 and 23 in each direction of the position / orientation detection unit 23 of the real globe 20.
2 and 233 to detect the magnetic field generated,
The position / orientation detection unit 56 of the virtual space display device 5 also detects the magnetic field.

【0173】なお、この磁界発生部88は、図示のよう
に情報処理装置8に格納されてもよいが、磁界発生装置
として情報処理装置8とは別構成としてもよい。特に、
情報処理装置8として携帯電話機やPDAを用いるとき
は、その内部に磁界発生部を後から設けることができな
いので、別構成とすることが有用である。このように別
に磁界発生装置(又は磁界発生部)を設けたとしても、
その制御は、情報処理装置8からの制御信号によってな
される。
The magnetic field generation unit 88 may be stored in the information processing device 8 as shown in the figure, but may be configured separately from the information processing device 8 as a magnetic field generation device. In particular,
When a mobile phone or PDA is used as the information processing device 8, it is not possible to provide a magnetic field generator inside the mobile phone or PDA, so it is useful to use a different configuration. Even if a magnetic field generator (or magnetic field generator) is separately provided in this way,
The control is performed by a control signal from the information processing device 8.

【0174】次に、第1の実施の形態の画像処理装置1
の動作(作用)について説明する。ここでは、ユーザ
が、画像処理装置1を利用して、仮想空間に現れている
仮想パーソナルコンピュータの操作を行う場合を例に説
明する。
Next, the image processing apparatus 1 according to the first embodiment
The operation (action) of will be described. Here, a case where the user operates the virtual personal computer appearing in the virtual space by using the image processing apparatus 1 will be described as an example.

【0175】ユーザは、各部の電源を入れ、リアルグロ
ーブ20を両手にそれぞれ装着し、眼鏡状の仮想空間表
示装置5をかける(顔面に装着する)。すると、仮想空
間表示装置5の画像表示部51a、51bに、仮想パー
ソナルコンピュータを含む仮想空間画像が表示される。
The user turns on the power of the respective parts, puts on the real gloves 20 on both hands, and puts on the virtual space display device 5 in the form of glasses (worn on the face). Then, the virtual space image including the virtual personal computer is displayed on the image display units 51a and 51b of the virtual space display device 5.

【0176】また、ユーザの腕が画像表示部51a、5
1bで表示されている仮想空間画像内に入るようにすれ
ば、情報処理装置8の画像生成部83にて作成されたそ
の手や腕の画像が仮想空間画像に仮想物体として表示さ
れる。そして、ユーザが手や指を動かした場合には、そ
の実際の手や指の動きに連動して、仮想空間画像におい
て、表示されている手や指が動く。
Also, the user's arm is placed on the image display portions 51a, 5a and 5b.
If the image is displayed within the virtual space image displayed in 1b, the image of the hand or arm created by the image generation unit 83 of the information processing device 8 is displayed as a virtual object in the virtual space image. Then, when the user moves the hand or finger, the displayed hand or finger moves in the virtual space image in conjunction with the actual movement of the hand or finger.

【0177】情報処理装置8は、衝突判定部82によっ
て、仮想空間画像における対象物、すなわち本実施形態
では、例えば、仮想パーソナルコンピュータの一部(例
えばキーボード)と、ユーザの指の一部が同一座標とな
ったことを検出すると、演算処理部81の演算結果に基
づいて、リアルグローブ20に対して、触覚および力覚
を発生させるための指示を行う。具体的には、情報処理
装置8は、リアルグローブ20に対して、演算処理部8
1が演算した反力の演算結果から得た、駆動させる動力
発生部211およびその駆動に用いるPWMデータや、
駆動させるリンクモータ222およびその駆動に用いる
PWMデータなどを、信号送受信部87を介して送信す
る。
In the information processing apparatus 8, the collision determining unit 82 causes the object in the virtual space image, that is, in the present embodiment, for example, a part of the virtual personal computer (eg, keyboard) and a part of the user's finger to be the same. When it is detected that the coordinates have been reached, an instruction for generating a tactile sensation and a force sensation is issued to the real glove 20 based on the calculation result of the calculation processing unit 81. Specifically, the information processing device 8 is configured such that, with respect to the real globe 20, the arithmetic processing unit 8
1. The power generation unit 211 to be driven obtained from the calculation result of the reaction force calculated by 1 and PWM data used for driving the same,
The link motor 222 to be driven, PWM data used for driving the link motor 222, and the like are transmitted via the signal transmitting / receiving unit 87.

【0178】リアルグローブ20は、情報処理装置8か
らの指示に従って、指定された各動作発生部211を、
それぞれ、指定されたトルクで指定された時間だけPW
M制御により駆動する。これにより、仮想パーソナルコ
ンピュータの一部と同一座標となった部分に配置されて
いる各触覚提示ピン214の接触板214aが突出し、
仮想パーソナルコンピュータの一部と同一座標となった
ユーザの各指先に対して触覚が与えられる。すなわち、
各指先に、接触感覚、質感、形状、強さ等の感覚が与え
られる。
According to the instruction from the information processing device 8, the real globe 20 operates the designated motion generating sections 211,
PW for each specified torque and specified time
It is driven by M control. As a result, the contact plate 214a of each tactile sense providing pin 214, which is arranged at the same coordinate as a part of the virtual personal computer, projects,
A tactile sensation is given to each fingertip of the user having the same coordinates as a part of the virtual personal computer. That is,
Each fingertip is given a feeling of touch, texture, shape, strength, and the like.

【0179】同時に、リアルグローブ20は、情報処理
装置8からの指示に従って、指定された各リンクモータ
222を、それぞれ、指定されたトルクで指定された時
間だけPWM制御により駆動する。これにより、実在す
るパーソナルコンピュータの例えばキーボードに触れて
いるときに各指の各関節に与えられる力覚、すなわち、
前記各指の各関節に与えられる押圧力(反力)に相当す
る力がユーザの各指の各関節に対して与えられる。
At the same time, the real globe 20 drives each designated link motor 222 by PWM control for a designated time with a designated torque in accordance with an instruction from the information processing device 8. As a result, the force applied to each joint of each finger when touching a keyboard of an existing personal computer, that is,
A force corresponding to the pressing force (reaction force) applied to each joint of each finger is applied to each joint of each finger of the user.

【0180】また、ユーザが、さらに仮想パーソナルコ
ンピュータのキーを押し込む方向に指を動かすと、指の
座標変化に合わせて、画像表示部51a、51bに、キ
ーを押し込む様子を示す仮想空間画像が表示される。
When the user further moves the finger in the direction of pressing the key of the virtual personal computer, a virtual space image showing how the key is pressed is displayed on the image display portions 51a and 51b in accordance with the coordinate change of the finger. To be done.

【0181】この場合、情報処理装置8は、押下された
キーに基づく表示状態の変化を仮想空間画像で再現する
ための仮想空間画像の画像データを画像生成部83にお
いて生成し、それを仮想空間表示装置5に送信する処理
を行い、仮想空間表示装置5は、前記情報処理装置8か
ら受信した仮想空間画像の画像データに基づいて、仮想
パーソナルコンピュータのディスプレイにキーの押下が
反映された表示がなされる画像を表示する。
In this case, the information processing device 8 generates image data of the virtual space image for reproducing the change of the display state based on the pressed key in the virtual space image in the image generation unit 83, and generates it in the virtual space. The virtual space display device 5 performs a process of transmitting to the display device 5, and based on the image data of the virtual space image received from the information processing device 8, the virtual space display device displays a display in which a key press is reflected. Display the images that are made.

【0182】以上説明したように、この触覚・力覚提示
装置2および画像処理装置1によれば、リアルグローブ
20の装着および取り外しを容易かつ確実に行うことが
でき、また、仮想空間における動作(操作)を容易かつ
確実に行うことができる。
As described above, according to the tactile / force sense presentation device 2 and the image processing device 1, the real glove 20 can be easily and surely attached and detached, and the operation in the virtual space ( Operation) can be performed easily and reliably.

【0183】また、仮想空間画像に応じて、各指に対し
て触覚および力覚をそれぞれ正確かつ確実に提示するこ
とができる。
Further, according to the virtual space image, the tactile sensation and the force sensation can be presented to each finger accurately and surely.

【0184】これにより、ユーザは、仮想空間における
動作(操作)を、快適に、容易かつ確実に、行うことが
できる。
As a result, the user can comfortably, easily and surely perform the operation (operation) in the virtual space.

【0185】特に、触覚発生部21において、アクチュ
エータワイヤ212の弛みを防止することができ、各触
覚提示ピン214からそれぞれユーザの各指腹に、より
正確かつ確実に目標の大ききの押圧力を与えることがで
きる。
Particularly, in the tactile sense generating section 21, it is possible to prevent the slack of the actuator wire 212, and more accurately and reliably apply a target large pressing force from each tactile sense presenting pin 214 to each finger pad of the user. Can be given.

【0186】これにより、ユーザは、仮想空間画像にお
ける各指腹の物体(対象物)への接触に相当する感覚
を、より正確かつ確実に各指腹で感じることができる。
Thus, the user can more accurately and surely feel the sensation corresponding to the contact of each finger pad with the object (object) in the virtual space image.

【0187】また、触覚発生部21では、各指腹に対し
てほぼ平行に(指腹に沿って)アクチュエータワイヤ2
12が配置され、そのアクチュエータワイヤ212を巻
き取ることによって各指腹に対してほぼ垂直な力を与え
るようになっているので、触覚を与えるための機構を薄
くすることができ、これにより、リアルグローブ20の
指腹側の厚みを極力抑えることができる。
Further, in the tactile sense generating section 21, the actuator wires 2 are arranged substantially parallel to the finger pads (along the finger pads).
12 is arranged, and by winding up its actuator wire 212, a force almost perpendicular to each finger pad is applied, so that the mechanism for giving a tactile sensation can be made thin, which makes it possible to realize a realistic structure. The thickness of the glove 20 on the finger pad side can be suppressed as much as possible.

【0188】また、力覚発生部22はリンク機構を有し
ているので、指を伸ばしている状態、指を曲げている状
態のいずれにおいても対応することができ、これによ
り、より確実に、各指に対して力覚を与えることができ
る。
Further, since the force sense generating section 22 has the link mechanism, it can be dealt with both the state where the finger is extended and the state where the finger is bent, thereby more reliably. Force can be given to each finger.

【0189】なお、上述した実施形態では、使用例とし
て仮想空間画像にて表示されているパーソナルコンピュ
ータを仮想的に操作する場合について説明したが、本発
明では、これに限らず、例えば、仮想本などの他の物品
を取扱うために使用することもできる。仮想本を取扱う
場合には、例えば、仮想本の縁をさわったりページをめ
くったりするときに、実際の本の縁をさわったりページ
をめくったりするときに指に加わる触感や力感を感じる
ことができる。
In the above-described embodiment, the case where the personal computer displayed in the virtual space image is virtually operated has been described as an example of use. However, the present invention is not limited to this and, for example, a virtual book is used. It can also be used to handle other items such as. When handling a virtual book, for example, when touching the edges of a virtual book or turning a page, feel the touch or force applied to a finger when touching the edge of a real book or turning a page. You can

【0190】また、本発明では、仮想空間画像が表示さ
れなくてもよい。すなわち、仮想空間画像に対応した所
定のデータがあり、そのデータに基づいて、指に対して
触覚や力覚を提示するよう構成されていてもよい。
Further, in the present invention, the virtual space image may not be displayed. That is, there may be predetermined data corresponding to the virtual space image, and a tactile sensation or a force sensation may be presented to the finger based on the data.

【0191】次に、本発明の触覚・力覚提示装置および
画像処理装置の第2実施形態について説明する。図14
は、第2実施形態の触覚・力覚提示装置の触覚発生部の
構成例を示す縦断面図である。
Next, a second embodiment of the tactile / force sense presentation device and the image processing device of the present invention will be described. 14
FIG. 8 is a vertical cross-sectional view showing a configuration example of a tactile sense generating unit of the tactile sense / force sense presentation device of the second embodiment.

【0192】以下、第2実施形態の触覚・力覚提示装置
2および画像処理装置1について、前述した第1実施形
態との相違点を中心に説明し、同様の事項については、
その説明を省略する。
Hereinafter, the tactile and force sense presentation device 2 and the image processing device 1 of the second embodiment will be described focusing on the differences from the first embodiment described above, and the same matters will be described.
The description is omitted.

【0193】図14(A)に示すように、第2実施形態
の触覚・力覚提示装置2では、その触覚発生部21の各
単位触覚発生部(アクチュエータ)210は、それぞ
れ、モータ(駆動源)211aを備える動力発生部(移
動手段)211と、長手方向に移動可能に設置されたア
クチュエータワイヤ(可撓性を有する線状体)212
と、触覚を発生させるために指腹を押圧する触覚提示部
216とを有している。
As shown in FIG. 14 (A), in the tactile force sense presentation device 2 of the second embodiment, each unit tactile sense generating section (actuator) 210 of the tactile sense generating section 21 has a motor (driving source). ) 211 a including a power generating unit (moving means) 211 and an actuator wire (flexible linear body) 212 movably installed in the longitudinal direction.
And a tactile sense presentation unit 216 that presses the finger pad to generate a tactile sense.

【0194】触覚提示部216は、ユーザの指腹に接触
感覚(接触の有無や強さ等)を与えるために用いられ、
例えば、板バネのような弾性を有する部材(弾性体)で
形成される。この場合、触覚提示部216は、適度な剛
性を有するのが好ましく、例えば、各種金属で構成され
た弾性体で形成することができる。
The tactile sense presentation unit 216 is used to give a touch feeling (presence or absence of contact, strength, etc.) to the finger pad of the user.
For example, it is formed of an elastic member (elastic body) such as a leaf spring. In this case, the tactile sense presentation unit 216 preferably has appropriate rigidity, and can be formed of, for example, an elastic body made of various metals.

【0195】この触覚提示部216は、第1の板片(押
圧部)216aと、第2の板片(スライド部)216b
とで構成されている。第1の板片216aと第2の板片
216bとは、一端側において接合されており、第1の
板片216aの他端側には、指腹に接触する部分である
微小な接触部216cが設けられている。この接触部2
16cは、例えば、第1の板片216aの端部を第2の
板片216b側に向けて屈曲させることによって形成す
ることができる。
The tactile sense presenting section 216 includes a first plate piece (pressing section) 216a and a second plate piece (sliding section) 216b.
It consists of and. The first plate piece 216a and the second plate piece 216b are joined at one end side, and the other end side of the first plate piece 216a has a minute contact portion 216c that is a portion that comes into contact with the finger pad. Is provided. This contact part 2
16c can be formed, for example, by bending the end portion of the first plate piece 216a toward the second plate piece 216b side.

【0196】また、触覚提示部216の前記一端側、す
なわち、図14(A)中左側の端部は、図14(A)中
下側に凸となるように湾曲している。
Further, the one end side of the tactile sense presentation section 216, that is, the left end in FIG. 14A, is curved so as to be convex downward in FIG. 14A.

【0197】第1の板片216aと、第2の板片216
bとの間には、第1の板片216aの移動方向を規制す
る円柱状のガイド部(移動方向規制手段)217が設置
されている。
The first plate piece 216a and the second plate piece 216
A columnar guide part (moving direction restricting means) 217 for restricting the moving direction of the first plate piece 216a is installed between it and b.

【0198】また、触覚提示部216の図14(A)中
下側には、押え板218が設置されており、触覚提示部
216は、この押え板218に沿って移動(スライド)
し得るようになっている。この場合、触覚提示部216
は、その図14(A)中左側の端部が湾曲しているの
で、円滑かつ確実に移動することができる。
A holding plate 218 is installed on the lower side of the tactile sense presenting section 216 in FIG. 14 (A), and the tactile sense presenting section 216 moves (slides) along the holding plate 218.
Is ready to go. In this case, the tactile sense presentation unit 216
14 has a curved left end in FIG. 14 (A), it can move smoothly and reliably.

【0199】前記ガイド部217は、押え板218に固
定され、押え板218は、手袋2aに固定されている。
すなわち、ガイド部217および押え板218は、共
に、手袋2aに対して固定的に設置されている。
The guide portion 217 is fixed to the pressing plate 218, and the pressing plate 218 is fixed to the glove 2a.
That is, both the guide portion 217 and the pressing plate 218 are fixedly installed on the glove 2a.

【0200】また、触覚提示部216の第2の板片21
6bの図14(A)中右側の端部には、アクチュエータ
ワイヤ212の一端が固定されている。
Also, the second plate piece 21 of the tactile sense providing section 216
One end of the actuator wire 212 is fixed to the end portion of 6b on the right side in FIG. 14 (A).

【0201】動力発生部211のモータ211aの駆動
によりアクチュエータワイヤ212が巻き取られると、
そのアクチュエータワイヤ212は、指腹に沿って図1
4(A)中右側(指の基端方向)に移動し、これととも
にアクチュエータワイヤ212に取付固定されている触
覚提示部216も指腹に沿って図14(A)中右側に移
動する。
When the actuator wire 212 is wound up by driving the motor 211a of the power generating section 211,
The actuator wire 212 is shown in FIG.
4 (A) to the right (in the direction of the proximal end of the finger), and along with this, the tactile sense presentation unit 216 attached and fixed to the actuator wire 212 also moves to the right in FIG. 14 (A) along the finger pad.

【0202】この際、図14(B)に示すように、触覚
提示部216の第1の板片216aは、ガイド部217
によって図14(B)中右側への移動が制限されるとと
もに、ガイド部217にガイドされて、図14(B)中
上側へ移動する(指腹に向って突出する)。すなわち、
触覚提示部216が弾性変形し、その第1の板片216
aの姿勢が図14(B)に示す姿勢に変更されること
で、接触部216cは、指腹の表面に対しほぼ垂直上方
に移動する(押し上げられる)。
At this time, as shown in FIG. 14 (B), the first plate piece 216a of the tactile sense providing section 216 has the guide section 217.
14B, the movement to the right side in FIG. 14B is restricted, and the guide portion 217 guides the movement to the upper side in FIG. 14B (projects toward the finger pad). That is,
The tactile sense providing portion 216 is elastically deformed, and the first plate piece 216 thereof is
By changing the posture of “a” to the posture shown in FIG. 14B, the contact portion 216c moves (is pushed up) substantially vertically to the surface of the finger pad.

【0203】一方、アクチュエータワイヤ212は、触
覚提示部216の復元力(弾性力)により、図14
(B)中左側(第1の板片216aを突出させるときの
アクチュエータワイヤ212の移動方向と逆方向)に付
勢される。すなわち、この触覚提示部216(第1の板
片216a)は、付勢手段を兼ねる。
On the other hand, the actuator wire 212 is moved by the restoring force (elastic force) of the tactile sense presenting section 216 as shown in FIG.
(B) It is urged toward the middle left side (the direction opposite to the moving direction of the actuator wire 212 when the first plate piece 216a is projected). That is, the tactile sense presentation section 216 (first plate piece 216a) also serves as the urging means.

【0204】前記接触部216cがほぼ垂直上方に移動
しようとする力が働くことで、その接触部216cが指
腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の
指腹に押圧力を与える。
The contact portion 216c presses the finger pad in a substantially vertical direction by the force of the contact portion 216c attempting to move substantially vertically upward, thereby applying a pressing force to the finger pad of the user's hand. give.

【0205】この動作が、複数の単位触覚発生部210
のうちの指定された単位触覚発生部210でなされ、こ
れにより、ユーザの手の指腹に触覚が提示される(与え
られる)。よって、ユーザは、仮想空間画像における指
腹の物体(対象物)への接触に相当する感覚を、指腹に
得ることができる。
This operation is performed by the plurality of unit tactile sense generating units 210.
Of the designated unit tactile sensation generating unit 210, and the tactile sensation is presented (applied) to the finger pad of the user's hand. Therefore, the user can obtain, on the finger pad, a feeling corresponding to the contact of the finger pad with the object (object) in the virtual space image.

【0206】前記指定された単位触覚発生部210にお
いて、動力発生部211のモータ211aの駆動が停止
し、アクチュエータワイヤ212の巻き取り状態が解除
されると、触覚提示部216の復元力(弾性力)と、ユ
ーザの指からの圧力によって、触覚提示部216は、図
14(A)に示す初期状態に戻る。これにより、触覚提
示部216からユーザの手の指腹に与えられていた押圧
力が実質的に消滅する。
In the designated unit tactile sense generator 210, when the driving of the motor 211a of the power generator 211 is stopped and the winding state of the actuator wire 212 is released, the restoring force (elastic force) of the tactile sense presenter 216 is restored. ) And the pressure from the user's finger, the tactile sense presentation unit 216 returns to the initial state shown in FIG. As a result, the pressing force applied from the tactile sense presentation unit 216 to the finger pad of the user is substantially eliminated.

【0207】この触覚・力覚提示装置2および画像処理
装置1によれば、前述した第1実施形態と同様の効果が
得られる。
According to the tactile / force sense presentation device 2 and the image processing device 1, the same effect as that of the above-described first embodiment can be obtained.

【0208】次に、本発明の触覚・力覚提示装置および
画像処理装置の第3実施形態について説明する。
Next, a third embodiment of the tactile / force sense presentation device and the image processing device of the present invention will be described.

【0209】図15は、第3実施形態の触覚・力覚提示
装置のリアルグローブの外観構成例を示す外観図(一部
図示を省略)である。なお、図15中では、図3に示す
触覚発生部21、動力発生部211、力覚発生部22、
位置姿勢検出部23、制御部24および電力供給部30
等は、図示されていない。
FIG. 15 is an external view (a part of which is not shown) showing an external configuration example of the real glove of the tactile / force sense presentation device of the third embodiment. In addition, in FIG. 15, the tactile sense generating unit 21, the power generating unit 211, the force sense generating unit 22 shown in FIG.
Position / orientation detection unit 23, control unit 24, and power supply unit 30
Etc. are not shown.

【0210】以下、第3実施形態の触覚・力覚提示装置
2および画像処理装置1について、前述した第1実施形
態との相違点を中心に説明し、同様の事項については、
その説明を省略する。
Hereinafter, the tactile / force sense presentation device 2 and the image processing device 1 of the third embodiment will be described focusing on the differences from the above-mentioned first embodiment, and the same matters will be described.
The description is omitted.

【0211】図15に示すように、第3実施形態の触覚
・力覚提示装置2では、リアルグローブ20の手袋2a
の筒状部20aの肘側(基端側)の端部に、空気(エア
ー)の注入による空気圧(圧力)により腕に固定する形
態(エアー注入方式)の腕固定部2dが設けられてい
る。
As shown in FIG. 15, in the tactile / force sense presentation device 2 of the third embodiment, the glove 2a of the real glove 20 is used.
An arm fixing portion 2d having a form (air injection method) of fixing to the arm by air pressure (pressure) by injecting air (air) is provided at an end portion of the tubular portion 20a on the elbow side (base end side). .

【0212】この腕固定部2dは、空気が注入される袋
状の腕固定部本体21dと、その腕固定部本体21dに
設けられたエアー注入部22dとで構成されている。腕
固定部本体21dの外観形状は、筒状をなしている。
The arm fixing portion 2d is composed of a bag-shaped arm fixing portion main body 21d into which air is injected and an air injecting portion 22d provided in the arm fixing portion main body 21d. The outer shape of the arm fixing portion main body 21d is tubular.

【0213】エアー注入部22dの中空部は、腕固定部
本体21dの内部に連通しており、エアー注入部22d
の先端部には、蓋体23dが設けられている。
The hollow portion of the air injecting portion 22d communicates with the inside of the arm fixing portion main body 21d.
A lid 23d is provided at the tip of the.

【0214】蓋体23dをエアー注入部22dの先端部
に装着すると、腕固定部本体21d内の気密性が保持さ
れ、蓋体23dを取り外すと、腕固定部本体21dに対
し、エアー注入部22dを介して、空気の注入および排
出を行うことができる。
When the lid 23d is attached to the tip of the air injecting portion 22d, the airtightness inside the arm fixing portion main body 21d is maintained, and when the lid 23d is removed, the air injecting portion 22d is released from the arm fixing portion main body 21d. Air can be injected and exhausted via.

【0215】このような腕固定部2dは、各ユーザに応
じて、例えば、ゴム型等の型を用いて、ユーザの腕の形
状に合うように成形される。
The arm fixing portion 2d as described above is molded to fit the shape of the user's arm by using a mold such as a rubber mold according to each user.

【0216】ユーザは、リアルグローブ20を装着する
際は、まず、その手袋2aを装着し、次に、腕固定部2
dの腕固定部本体21d内に、空気を注入する。
When wearing the real glove 20, the user first wears the glove 2a and then the arm fixing portion 2
Air is injected into the arm fixing portion main body 21d of d.

【0217】この空気注入では、例えば、エアー注入部
22dの先端部から蓋体23dを取り外し、そのエアー
注入部22dから腕固定部本体21d内に空気を吹き込
む。そして、所定量の空気を注入し終えると、エアー注
入部22dの先端部に蓋体23dを装着する。
In this air injection, for example, the lid 23d is removed from the tip of the air injection part 22d, and air is blown into the arm fixing part main body 21d from the air injection part 22d. Then, after injecting a predetermined amount of air, the lid 23d is attached to the tip of the air injecting portion 22d.

【0218】このようにして、リアルグローブ20は、
腕固定部2dの空気圧によりユーザの腕に固定されると
ともに、手首固定部28の復元力(弾性力)によりユー
ザの手首に固定される。
In this way, the real glove 20 is
The air is fixed to the user's arm by the air pressure of the arm fixing portion 2d, and is also fixed to the user's wrist by the restoring force (elastic force) of the wrist fixing portion 28.

【0219】また、ユーザは、リアルグローブ20を取
り外す際は、まず、腕固定部2dの腕固定部本体21d
内から空気を排出し、次に、リアルグローブ20を手か
ら取り外す。
When the user removes the real glove 20, first, the arm fixing portion main body 21d of the arm fixing portion 2d.
Evacuate the air from inside and then remove the real glove 20 from your hand.

【0220】この触覚・力覚提示装置2および画像処理
装置1によれば、前述した第1実施形態と同様の効果が
得られる。
According to the tactile / force sense presentation device 2 and the image processing device 1, the same effect as that of the above-described first embodiment can be obtained.

【0221】そして、この触覚・力覚提示装置2では、
腕固定部2dがエアー注入方式のものであるので、リア
ルグローブ20の装着および取り外しを容易かつ迅速に
行うことができる。
Then, in this tactile / force sense presentation device 2,
Since the arm fixing portion 2d is of the air injection type, the real gloves 20 can be easily and quickly attached and detached.

【0222】なお、本発明では、触覚発生部21の単位
触覚発生部210を、前述した第2実施形態のように構
成してもよい。
In the present invention, the unit tactile sense generating section 210 of the tactile sense generating section 21 may be configured as in the second embodiment described above.

【0223】次に、本発明の触覚・力覚提示装置および
画像処理装置の第4実施形態について説明する。
Next, a fourth embodiment of the tactile / force sense presentation device and the image processing device of the present invention will be described.

【0224】図16は、第4実施形態の触覚・力覚提示
装置の位置姿勢検出部の構成例を示すブロック図、図1
7は、第4実施形態の触覚・力覚提示装置の位置姿勢検
出部の構成例を示す外観図(一部図示を省略)、図18
は、図17に示す位置姿勢検出部のZ方向検出センサの
構成例を示す外観図である。なお、図17および図18
中において、それぞれ、互いに直交するX軸、Y軸およ
びZ軸を想定する。
FIG. 16 is a block diagram showing an example of the arrangement of a position / orientation detection unit of the tactile / force sense presentation device of the fourth embodiment, and FIG.
FIG. 7 is an external view (partially omitted from illustration) showing a configuration example of a position / orientation detection unit of the tactile / force sense presentation device of the fourth embodiment, and FIG.
FIG. 18 is an external view showing a configuration example of a Z direction detection sensor of the position / orientation detection unit shown in FIG. 17. Note that FIG. 17 and FIG.
In the description, an X axis, a Y axis, and a Z axis that are orthogonal to each other are assumed.

【0225】以下、第4実施形態の触覚・力覚提示装置
2および画像処理装置1について、前述した第1実施形
態との相違点を中心に説明し、同様の事項については、
その説明を省略する。
Hereinafter, the tactile / force sense presentation device 2 and the image processing device 1 according to the fourth embodiment will be described focusing on the differences from the first embodiment described above, and the same matters will be described.
The description is omitted.

【0226】第4実施形態の触覚・力覚提示装置2で
は、位置姿勢検出部(位置検出手段)23として、例え
ば、コリオリ力を利用して互いに直交するX軸、Y軸お
よびZ軸の回りの角速度をそれぞれ検出するジャイロセ
ンサ(ジャイロスコープ)を用いる。
In the haptic / force sense presentation device 2 of the fourth embodiment, as the position / orientation detecting section (position detecting means) 23, for example, the X-axis, the Y-axis, and the Z-axis which are orthogonal to each other are utilized by utilizing Coriolis force. A gyro sensor (gyroscope) that detects each angular velocity of is used.

【0227】そして、この触覚・力覚提示装置2では、
凹凸入力部(撮像手段)53a、53bにより周囲を撮
像し、その撮像された周囲の画像に指に対応する部分が
含まれている場合には、凹凸入力部53a、53bから
の画像データ(映像データ)に基づいて指の位置を求
め、前記撮像された周囲の画像に指に対応する部分が含
まれていない場合には、前記各位置姿勢検出部23によ
り指の位置を検出し、各位置姿勢検出部23からの情報
に基づいて指の位置を求める。
Then, in this tactile / force sense presentation device 2,
When the surroundings are imaged by the unevenness input units (imaging means) 53a and 53b and the imaged surrounding image includes a portion corresponding to a finger, the image data (video image) from the unevenness input units 53a and 53b. The position of the finger is obtained based on the data), and when the captured surrounding image does not include the part corresponding to the finger, the position and orientation detection unit 23 detects the position of the finger, and the position is detected. The position of the finger is obtained based on the information from the posture detection unit 23.

【0228】図17に示すように、位置姿勢検出部23
は、ケーシング60と、ケーシング60内に設けられ、
X軸の回りの角速度を検出するX方向検出センサ(第1
の検出センサ)61、Y軸の回りの角速度を検出するY
方向検出センサ(第2の検出センサ)62およびZ軸の
回りの角速度を検出するZ方向検出センサ(第3の検出
センサ)63とを有している。
As shown in FIG. 17, the position / orientation detecting unit 23
Is provided in the casing 60 and the casing 60,
An X-direction detection sensor (first sensor for detecting an angular velocity around the X-axis)
Sensor 61, Y for detecting the angular velocity around the Y axis
It has a direction detection sensor (second detection sensor) 62 and a Z direction detection sensor (third detection sensor) 63 that detects an angular velocity around the Z axis.

【0229】図18に示すように、Z方向検出センサ6
3は、エリンバー(基台)64と、エリンバー64に設
置された振動用の圧電素子(振動用圧電素子)65およ
び検出用の圧電素子(検出用圧電素子)66とで構成さ
れている。このZ方向検出センサ63は、2本のワイヤ
67、68により支持されている。
As shown in FIG. 18, the Z-direction detection sensor 6
3 includes an elinvar (base) 64, a piezoelectric element for vibration (piezoelectric element for vibration) 65 and a piezoelectric element for detection (piezoelectric element for detection) 66 installed on the elinvar 64. The Z direction detection sensor 63 is supported by two wires 67 and 68.

【0230】エリンバー64の形状は、Z軸方向に長い
略直方体をなしており、その略直交する2つの面の一方
に前記振動用圧電素子65が設置され、他方に検出用圧
電素子66が設置されている。この場合、Y軸に対して
垂直な面に、振動用圧電素子65が配置され、X軸に対
して垂直な面に、検出用圧電素子66が配置されている
が、その配置を逆にしてもよい。
The shape of the elinvar 64 is a substantially rectangular parallelepiped elongated in the Z-axis direction. The vibrating piezoelectric element 65 is installed on one of the two surfaces substantially orthogonal to each other, and the detecting piezoelectric element 66 is installed on the other side. Has been done. In this case, the vibration piezoelectric element 65 is arranged on the surface perpendicular to the Y-axis, and the detection piezoelectric element 66 is arranged on the surface perpendicular to the X-axis, but the arrangement is reversed. Good.

【0231】このZ方向検出センサ63の振動用圧電素
子65に図16に示す交流電源69から交流電圧が印加
されると、その振動用圧電素子65は、X軸方向に振動
(屈曲振動)し、これによりエリンバー64もX軸方向
に振動する。このとき、Z軸の回りに回転(角速度)が
生じると、その角速度に対応したレベルの電圧(信号)
が検出用圧電素子66から検出される。
When an AC voltage is applied from the AC power supply 69 shown in FIG. 16 to the vibrating piezoelectric element 65 of the Z-direction detecting sensor 63, the vibrating piezoelectric element 65 vibrates in the X-axis direction (flexural vibration). As a result, the elinvar 64 also vibrates in the X-axis direction. At this time, when rotation (angular velocity) occurs around the Z axis, a voltage (signal) of a level corresponding to the angular velocity is generated.
Is detected by the detecting piezoelectric element 66.

【0232】なお、X方向検出センサ61およびY方向
検出センサ62の構成は、前記Z方向検出センサ63と
同様であるので、その説明は省略する。それらの作用
は、X軸の回りに回転(角速度)が生じると、その角速
度に対応したレベルの電圧(信号)がX方向検出センサ
61の検出用圧電素子66から検出され、Y軸の回りに
回転(角速度)が生じると、その角速度に対応したレベ
ルの電圧(信号)がY方向検出センサ62の検出用圧電
素子66から検出される。
The constructions of the X-direction detecting sensor 61 and the Y-direction detecting sensor 62 are similar to those of the Z-direction detecting sensor 63, and therefore their explanations are omitted. When the rotation (angular velocity) is generated around the X-axis, a voltage (signal) of a level corresponding to the angular velocity is detected by the detecting piezoelectric element 66 of the X-direction detection sensor 61, and these actions act around the Y-axis. When rotation (angular velocity) occurs, a voltage (signal) of a level corresponding to the angular velocity is detected by the detection piezoelectric element 66 of the Y-direction detection sensor 62.

【0233】図16に示すように、位置姿勢検出部23
のX方向検出センサ61によって検出されたX軸の回り
の角速度に対応した信号(検出データ)と、Y方向検出
センサ62によって検出されたY軸の回りの角速度に対
応した信号(検出データ)と、Z方向検出センサ63に
よって検出されたZ軸の回りの角速度に対応した信号
(検出データ)とは、それぞれ、信号処理部25の増幅
部251にて増幅され、A/D変換部252にてデジタ
ル信号に変換された後、図2に示す信号送受信部26に
出力され、この信号送受信部26により情報処理装置8
に送信される。
As shown in FIG. 16, the position / orientation detector 23
A signal (detection data) corresponding to the angular velocity around the X axis detected by the X direction detection sensor 61, and a signal (detection data) corresponding to the angular velocity around the Y axis detected by the Y direction detection sensor 62. , A signal (detection data) corresponding to the angular velocity around the Z-axis detected by the Z-direction detection sensor 63 is amplified by the amplification unit 251 of the signal processing unit 25, and is amplified by the A / D conversion unit 252. After being converted into a digital signal, the signal is output to the signal transmitting / receiving unit 26 shown in FIG.
Sent to.

【0234】情報処理装置8では、前記信号を受信し、
その信号(情報)に基づいて、リアルグローブ20を装
着した各指、手、手首、腕などの各部の位置および姿
勢、すなわち、前記各部の座標を導出し、その情報を所
定の各処理において利用するために記憶部85の所定の
格納領域に保存する。
The information processing device 8 receives the signal,
Based on the signal (information), the position and orientation of each part such as each finger, hand, wrist, arm, etc., wearing the real glove 20, that is, the coordinates of each part are derived, and the information is used in each predetermined process. In order to do so, it is saved in a predetermined storage area of the storage unit 85.

【0235】次に、第4の実施の形態における画像処理
装置1の動作(作用)について説明する。ここで、リア
ルグローブ20を装着した各指、手、手首、腕などの各
部の位置および姿勢を求める方法以外は、前述した第1
実施形態と同様であるので、その説明は、省略する。
Next, the operation (action) of the image processing apparatus 1 according to the fourth embodiment will be described. Here, except for the method of obtaining the position and posture of each part such as each finger, hand, wrist, arm, etc. wearing the real gloves 20, the above-mentioned first
The description is omitted because it is the same as the embodiment.

【0236】使用に先立って、ユーザは、まず、凹凸入
力部53a、53bにより撮像される周囲の画像にリア
ルグローブ20の指等の検出する部位に対応する部分が
含まれるようにする。これにより、画像処理装置1にお
いて初期設定がなされる。
Prior to use, the user first makes the surrounding image picked up by the concave / convex input units 53a and 53b include a portion corresponding to a detected portion such as a finger of the real glove 20. As a result, the image processing apparatus 1 is initialized.

【0237】この初期設定では、仮想空間表示装置5
は、2台の画像取込装置(撮像手段)、すなわち、凹凸
入力部(撮像手段)53a、53bによって周囲の画像
を撮像して取り込み、情報処理装置8に対して撮像した
画像データ(映像データ)を送信する。
In this initial setting, the virtual space display device 5
Is an image data (video data) imaged by the information processing device 8 by capturing and capturing images of the surroundings by the two image capturing devices (image capturing means), that is, the concave-convex input units (image capturing means) 53a and 53b. ) Is sent.

【0238】この場合、凹凸入力部53a、53bにて
撮像された画像にはリアルグローブ20の指等の検出す
る部位に対応する部分が含まれているので、情報処理装
置8は、凹凸入力部53a、53bにて撮像された画
像、すなわち撮像された画像データに基づいて前記指等
の位置および姿勢(座標)を求める。この求められた位
置および姿勢は、それぞれ、基準位置および基準姿勢、
すなわち基準状態とされ、その基準位置および基準姿勢
の情報は、情報処理装置8の記憶部85の所定の領域に
保存される。
In this case, since the images picked up by the concave / convex input sections 53a and 53b include a portion corresponding to a portion such as a finger of the real glove 20 to be detected, the information processing apparatus 8 has the concave / convex input section. The position and orientation (coordinates) of the finger or the like are obtained based on the images captured by 53a and 53b, that is, the captured image data. The obtained position and posture are the reference position and the reference posture, respectively.
That is, the reference state is set, and the information of the reference position and the reference posture is stored in a predetermined area of the storage unit 85 of the information processing device 8.

【0239】前記初期設定が終了すると、使用可能状態
となり、仮想空間表示装置5は、凹凸入力部(撮像手
段)53a、53bによって周囲の画像を撮像して取り
込み、情報処理装置8に対して撮像した画像データを送
信する。
Upon completion of the initial setting, the virtual space display device 5 is ready for use, and the virtual space display device 5 captures and captures the surrounding image by the concave / convex input portions (imaging means) 53a and 53b, and captures the image on the information processing device 8. Send the image data.

【0240】情報処理装置8の制御部84(判別手段)
は、凹凸入力部53a、53bにて撮像された画像、す
なわち撮像された画像データに基づいて、凹凸入力部5
3a、53bにて撮像された画像にリアルグローブ20
の指等の検出する部位に対応する部分が含まれているか
否かを判別する。
[0240] The control unit 84 (discriminating means) of the information processing device 8
Is based on the images captured by the unevenness input units 53a and 53b, that is, the imaged image data.
Real gloves 20 are added to the images captured by 3a and 53b.
It is determined whether or not the part corresponding to the part to be detected such as the finger is included.

【0241】そして、前記撮像された画像に前記指等の
検出する部位に対応する部分が含まれている場合には、
情報処理装置8は、前記撮像された画像データに基づい
て前記指等の位置および姿勢(座標)を求める。この求
められた位置および姿勢は、それぞれ、基準位置および
基準姿勢とされる。すなわち、記憶部85に記憶されて
いる基準位置および基準姿勢の情報は、前記新たな基準
位置および基準姿勢の情報に書き換えられる。
If the captured image includes a portion corresponding to the part to be detected such as the finger,
The information processing device 8 obtains the position and orientation (coordinates) of the finger or the like based on the captured image data. The obtained position and posture are set as the reference position and the reference posture, respectively. That is, the information on the reference position and the reference attitude stored in the storage unit 85 is rewritten with the information on the new reference position and the reference attitude.

【0242】逆に、前記撮像された画像に前記指等の検
出する部位に対応する部分が含まれていない場合には、
情報処理装置8は、前記各位置姿勢検出部23からの信
号(情報)に基づいて、前記指等の位置および姿勢(座
標)を求める。この場合、各位置姿勢検出部23からの
情報からは、前記基準位置および基準姿勢に対する相対
的な位置および姿勢が求まり、その相対的な位置および
姿勢の情報と、前記基準位置および基準姿勢の情報とに
基づいて、前記指等の位置および姿勢が求められる。
On the contrary, when the captured image does not include the part corresponding to the part to be detected such as the finger,
The information processing device 8 obtains the position and orientation (coordinates) of the finger or the like based on the signal (information) from each of the position and orientation detection units 23. In this case, the relative position and orientation with respect to the reference position and the reference orientation are obtained from the information from each position and orientation detection unit 23, and the information about the relative position and orientation and the information about the reference position and the reference orientation. The position and posture of the finger or the like are obtained based on

【0243】この触覚・力覚提示装置2および画像処理
装置1によれば、前述した第1実施形態と同様の効果が
得られる。
According to the tactile / force sense presentation device 2 and the image processing device 1, the same effect as that of the first embodiment described above can be obtained.

【0244】そして、この触覚・力覚提示装置2では、
手および各指の所定の部位の位置および姿勢を正確かつ
確実に求めることができるとともに、位置姿勢検出部2
3としてジャイロセンサを用いることにより、コストを
低減することができる。
In this tactile / force sense presentation device 2,
The position and orientation of a predetermined part of the hand and each finger can be accurately and surely obtained, and the position and orientation detection unit 2
By using a gyro sensor as 3, the cost can be reduced.

【0245】なお、本実施形態では、位置姿勢検出部
(位置検出手段)23は、ジャイロセンサで構成されて
いるが、本発明では、これに限定されない。
In the present embodiment, the position / orientation detecting section (position detecting means) 23 is composed of a gyro sensor, but the present invention is not limited to this.

【0246】また、本発明では、触覚発生部21の単位
触覚発生部210を、前述した第2実施形態のように構
成してもよい。
Further, in the present invention, the unit tactile-sense generating section 210 of the tactile-sense generating section 21 may be configured as in the second embodiment described above.

【0247】また、本発明では、腕固定部2dを、前述
した第3実施形態のように、空気(エアー)の注入によ
る空気圧(圧力)により腕に固定する形態(エアー注入
方式)のものにしてもよい。
Further, in the present invention, the arm fixing portion 2d is of a form (air injecting method) in which it is fixed to the arm by air pressure (pressure) by injecting air as in the third embodiment described above. May be.

【0248】なお、詳細には説明しないが、上述の構成
を仮想空間表示装置5の位置姿勢検出部56に適用する
こともできる。この場合にも、前述した第1実施形態と
同様の効果が得られる。
Although not described in detail, the above-described configuration can be applied to the position / orientation detection unit 56 of the virtual space display device 5. Also in this case, the same effect as the first embodiment described above can be obtained.

【0249】次に、図19および図20のフローチャー
トを参照して、上記実施の形態の各構成、とりわけ第1
の実施の形態の構成に基づいて、本発明の画像処理装置
の動作を説明する。ここで、これらのフローチャートに
記述されている各機能を実現するためのプログラムは、
コンピュータに読み取り可能なプログラムコードの形態
で記憶部85の記録媒体に格納されており、制御部84
はこのプログラムコードにしたがった動作を逐次実行す
る。また、制御部84は、上述のように、伝送媒体を介
して伝送されてきた上述のプログラムコードにしたがっ
た動作を逐次実行することもできる。すなわち、記録媒
体の他、伝送媒体を介して外部供給されたプログラム/
データを利用してこの実施の形態に特有の動作を実行す
ることもできる。
Next, with reference to the flow charts of FIGS. 19 and 20, each configuration of the above-described embodiment, particularly the first
The operation of the image processing apparatus of the present invention will be described based on the configuration of the embodiment. Here, the program for realizing each function described in these flowcharts is
It is stored in the recording medium of the storage unit 85 in the form of a computer-readable program code, and the control unit 84
Sequentially executes the operations according to this program code. In addition, the control unit 84 can also sequentially execute the operation according to the above-described program code transmitted via the transmission medium, as described above. That is, in addition to the recording medium, the program / externally supplied via the transmission medium /
The data can also be used to perform operations specific to this embodiment.

【0250】図19は、本発明の画像処理装置における
触覚・力覚発生処理を示すフローチャートであり、図2
0は、本発明の画像処理装置における仮想の本整列処理
を示すフローチャートである。なお、これらのフローチ
ャートは、第1の実施形態における各構成要素に基づい
て説明される。
FIG. 19 is a flow chart showing the tactile / force sense generating process in the image processing apparatus of the present invention.
0 is a flow chart showing a virtual main alignment process in the image processing apparatus of the present invention. It should be noted that these flowcharts will be described based on each component in the first embodiment.

【0251】まず、触覚・力覚発生処理から説明する。
本発明の画像処理装置1は、仮想空間画像の更新や触覚
および力覚の発生のために、電源が投入されている間、
この触覚・力覚発生処理を実行している。すなわち、リ
アルグローブ20の位置姿勢検出部23によって、ユー
ザの指(および手)の位置を検出し(ステップS10
1)、信号処理部25で所定の信号処理を行った後、信
号送受信部26を介して検出された位置信号を情報処理
装置8に送信する(ステップS102)。
First, the tactile sense / force sense generating process will be described.
The image processing device 1 according to the present invention, while the power is turned on for updating the virtual space image and generating tactile and force senses,
This tactile / force sense generation processing is executed. That is, the position and orientation detection unit 23 of the real glove 20 detects the position of the user's finger (and hand) (step S10).
1) After the signal processing unit 25 performs predetermined signal processing, the position signal detected via the signal transmitting / receiving unit 26 is transmitted to the information processing device 8 (step S102).

【0252】情報処理装置8は、信号送受信部87を介
してこの検出信号を受信する。情報処理装置8の制御部
84は、検出された指の位置が、画像生成部83におい
て生成され、仮想空間表示装置5に既に送信した現在の
仮想空間画像における指の位置(記憶部85に保存され
ている)から移動しているか否かを判断する(ステップ
S103)。指の移動を検知しない場合には、制御部8
4は何らの指示も出すことなく、画像処理装置1は、ス
テップS101に戻り、同様の処理を繰り返す。
The information processing device 8 receives this detection signal via the signal transmitting / receiving unit 87. The control unit 84 of the information processing device 8 detects the position of the finger, the position of the finger in the current virtual space image generated in the image generation unit 83 and already transmitted to the virtual space display device 5 (stored in the storage unit 85). It has been moved) (step S103). When the movement of the finger is not detected, the control unit 8
The image processing apparatus 1 returns to step S101 and repeats the same processing without issuing any instruction.

【0253】ステップS103において、指の移動を検
知した場合には、制御部84は、画像生成部83にその
指の位置データに基づいて仮想空間画像を更新して生成
させ(ステップS104)、移動した指の位置データと
更新された仮想空間画像とを記憶部85の所定の格納領
域に保存するとともに、信号処理部86および信号送受
信部87を介して更新された画像データを仮想空間表示
装置(HMD)5に送信する。この画像データを受信し
たHMD5は、制御部54の指示により、その画像デー
タを画像表示部51aおよび51bに表示する(ステッ
プS105)。
When the movement of the finger is detected in step S103, the control unit 84 causes the image generation unit 83 to update and generate the virtual space image based on the position data of the finger (step S104), and move the virtual space image. The finger position data and the updated virtual space image are stored in a predetermined storage area of the storage unit 85, and the updated image data is transferred to the virtual space display device (via the signal processing unit 86 and the signal transmitting / receiving unit 87). HMD) 5. The HMD 5 that has received this image data displays the image data on the image display units 51a and 51b according to an instruction from the control unit 54 (step S105).

【0254】それと同時に、情報処理装置8では、制御
部84は、リアルグローブ20の位置姿勢検出部23か
らの指の位置データに基づいて、演算処理部81をし
て、仮想空間に表示されている仮想の本の座標と、その
移動した指、例えば、人差し指と親指が重なり合った座
標が一致したか否かを判断させる(ステップS10
6)。ここで、「指と仮想の本との座標が一致」とは、
親指を含む複数本の指で仮想の本を掴んでいる状態をい
う。そして、不一致の場合は再びステップS101に戻
り、画像処理装置1は同様の処理を繰り返す。両者の座
標が一致した場合には、演算処理部81は、対象物(こ
こでは、本)に基づいて、本から指への反力を演算し、
信号処理部86および信号送受信部87を介してこの演
算データをリアルグローブ20に送信する(ステップS
107)。ここで、演算された反力データは、制御部8
4の指示により、記憶部85の所定の格納領域に保存さ
れる。
At the same time, in the information processing apparatus 8, the control unit 84 causes the arithmetic processing unit 81 to display the virtual space in accordance with the finger position data from the position / orientation detection unit 23 of the real glove 20. It is determined whether or not the coordinates of the existing virtual book and the coordinates of the moved finger, for example, the index finger and the thumb are overlapped (step S10).
6). Here, "the coordinates of the finger and the virtual book match" means
A state in which a virtual book is held with multiple fingers including a thumb. If they do not match, the process returns to step S101 again, and the image processing apparatus 1 repeats the same processing. When the coordinates of the both match, the arithmetic processing unit 81 calculates the reaction force from the book to the finger based on the object (here, the book),
The calculation data is transmitted to the real globe 20 via the signal processing unit 86 and the signal transmitting / receiving unit 87 (step S
107). Here, the calculated reaction force data is the control unit 8
4 is stored in a predetermined storage area of the storage unit 85.

【0255】反力の演算データを受信したリアルグロー
ブ20では、制御部24は、その演算データに基づい
て、触覚発生部21および力覚発生部22を駆動して触
覚および力覚を発生させ(ステップS108)、この触
覚・力覚発生処理を終了する。この状態における仮想空
間上での手と本の一表示例を図21(A)に示す。HM
D5の画像表示部51aおよび51bにはこの表示例に
対応する映像が映し出され、ユーザは、本を持っている
感触とともに、HMD5を介して本を持っているイメー
ジを見ることになる。
In the real glove 20 having received the reaction force calculation data, the control unit 24 drives the tactile sense generating unit 21 and the force sense generating unit 22 to generate the tactile sense and the force sense based on the calculated data ( In step S108), the tactile / force sense generation process ends. FIG. 21A shows a display example of a hand and a book in the virtual space in this state. HM
Images corresponding to this display example are displayed on the image display portions 51a and 51b of D5, and the user sees the image of holding a book through the HMD5 along with the feel of holding a book.

【0256】次に、仮想の本整列処理について説明す
る。上述の触覚・力覚発生処理のステップS108にお
いてユーザの指に触覚および力覚が発生している状態
で、この仮想の本整列処理が実行される。
Next, the virtual main alignment processing will be described. This virtual main alignment process is executed in the state where the tactile sensation and the force sensation are generated on the user's finger in step S108 of the tactile sensation / force sensation generation process described above.

【0257】上記触覚・力覚発生処理の場合と同様に、
リアルグローブ20における指の移動を検知して、情報
処理装置8において仮想空間における画像データが更新
して生成され、HMD5にその仮想空間画像が表示され
る(ステップS201〜ステップS205)。更新され
た画像データが記憶部85の所定の格納領域に保存され
るのは上記触覚・力覚発生処理と同様である。
As in the case of the above tactile / force sense generation processing,
The movement of the finger in the real glove 20 is detected, the image data in the virtual space is updated and generated in the information processing device 8, and the virtual space image is displayed on the HMD 5 (steps S201 to S205). The updated image data is stored in a predetermined storage area of the storage unit 85, as in the tactile / force sense generation process.

【0258】今度は、既に本と指との座標が一致してい
る状態であるので、情報処理装置8の制御部84は、こ
れらの座標がずれたか否かを判断する(ステップS20
6)。座標が一致したままの状態の場合、ステップS2
01に戻り、画像処理装置1は同様の処理を繰り返す。
Since the coordinates of the book and the finger have already coincided with each other this time, the control unit 84 of the information processing device 8 determines whether these coordinates have deviated (step S20).
6). If the coordinates remain the same, step S2
Returning to 01, the image processing apparatus 1 repeats similar processing.

【0259】ステップS206でこれらの座標がずれた
と判断された場合には、制御部84は、リアルグローブ
20の位置姿勢検出部23からの指の位置データに基づ
いて、演算処理部81をして、指(手)から離れた後の
本の位置とその位置からの移動速度および飛翔方向を演
算させる(ステップS207)。具体的には、制御部8
4は、指の座標と本の座標がずれる瞬間を検知し、演算
処理部81をして、その瞬間から微少時間前までのリア
ルグローブ20の指の移動距離およびその移動時間なら
びに移動方向に基づいて、指から離れた後の本の移動速
度および移動方向を演算させる。制御部84は、この演
算データを記憶部85の所定の格納領域に保存する。
If it is determined in step S206 that these coordinates have deviated, the control unit 84 causes the arithmetic processing unit 81 to operate based on the finger position data from the position / orientation detection unit 23 of the real glove 20. , The position of the book after being separated from the finger (hand), the moving speed and the flight direction from the position are calculated (step S207). Specifically, the control unit 8
4 detects the moment when the coordinate of the finger deviates from the coordinate of the book, and causes the arithmetic processing unit 81 to determine the movement distance of the finger of the real glove 20 from that moment to a minute time before and the movement time and the movement direction. Then, the moving speed and the moving direction of the book after being separated from the finger are calculated. The control unit 84 saves the calculated data in a predetermined storage area of the storage unit 85.

【0260】そして、制御部84は、その演算結果に基
づいて、本が飛翔している連続的な画像を画像生成部8
3に生成させ、その画像データを記憶部85の所定の格
納領域に保存するとともに、そのデータをHMD5に送
信する。画像データを受信したHMD5では、制御部5
4が、その画像データを画像表示部51aおよび51b
に表示させる(ステップS208)。この指から本が離
れる瞬間における仮想空間上での手と本の一表示例を図
21(B)に示す。HMD5の画像表示部51aおよび
51bにはこの表示例に対応する映像が映し出され、ユ
ーザは、本が手から離れたという感触とともに、HMD
5を介して本が飛翔しているイメージを見ることにな
る。
Then, the control unit 84, on the basis of the calculation result, generates the continuous images in which the book is flying by the image generation unit 8
3 to generate the image data, store the image data in a predetermined storage area of the storage unit 85, and transmit the data to the HMD 5. In the HMD5 that receives the image data, the control unit 5
4 displays the image data on the image display units 51a and 51b.
Is displayed (step S208). FIG. 21B shows a display example of the hand and the book in the virtual space at the moment when the book is separated from the finger. Images corresponding to this display example are displayed on the image display units 51a and 51b of the HMD 5, and the user feels that the book has been released from the hand and the HMD
Through 5 you will see the image of a book flying.

【0261】その後、情報処理装置8は、仮想の本と仮
想の壁の座標が一致したか否かを判断する(ステップS
209)。すなわち、情報処理装置8は、衝突判定部8
2をして、仮想空間中を飛翔している本が仮想空間にお
ける障害物である壁(仮想空間中の特定の平面をなす)
に衝突したか否かを判断する。ここで、本が衝突する障
害物は、仮想空間画像に組み込まれたものであればどの
ようなものでもよく、例えば、本が投げられることを考
えると、本棚や単なる整理棚などでもよい。
After that, the information processing device 8 determines whether or not the coordinates of the virtual book and the coordinates of the virtual wall match (step S).
209). That is, the information processing device 8 includes the collision determination unit 8
The wall that is 2 and the book flying in the virtual space is an obstacle in the virtual space (forms a specific plane in the virtual space)
To determine if the vehicle has collided with. Here, the obstacle with which the book collides may be any obstacle that is incorporated in the virtual space image, and for example, considering that the book is thrown, it may be a bookshelf or a simple organizer.

【0262】本の座標と障害物の座標が一致していない
と判断された場合、ステップS208に戻り、本の飛翔
映像が続けて表示される。なお、この場合に、ステップ
S207に戻って本の位置を再度演算して、その演算結
果に基づいて本の映像を表示してもよい。本と壁(障害
物)の座標が一致したと判断される場合には、制御部8
4は、演算処理部81による仮想の本の移動方向の演算
結果に基づいて、画像生成部83をして、その本を仮想
の壁にHMD5のユーザの目線に対して正対した画像
(すなわち、ユーザ側に背表紙を向けた画像)を生成さ
せ、その画像データを記憶部85の所定の格納領域に保
存するとともに、そのデータをHMD5に送信する。こ
の画像データを受信したHMD5は、そのデータに基づ
いて画像表示部51aおよび51bにその映像を表示す
る(ステップS210)。この衝突の瞬間における仮想
空間上での手と壁(本棚)の一表示例を図22に示す。
HMD5の画像表示部51aおよび51bにはこの表示
例に対応する映像が映し出され、ユーザは、HMD5を
介して、仮想の本が自分の方を向いて整列するイメージ
を見ることになる。
If it is determined that the coordinates of the book and the coordinates of the obstacle do not match, the process returns to step S208, and the flying image of the book is continuously displayed. In this case, the position of the book may be calculated again by returning to step S207, and the image of the book may be displayed based on the calculation result. If it is determined that the coordinates of the book and the wall (obstacle) match, the control unit 8
4 is an image generating unit 83 based on the calculation result of the moving direction of the virtual book by the arithmetic processing unit 81, and an image in which the book is directly faced to the line of sight of the user of the HMD 5 on the virtual wall (that is, , An image with the spine cover facing the user side) is generated, the image data is stored in a predetermined storage area of the storage unit 85, and the data is transmitted to the HMD 5. The HMD 5 that has received this image data displays the video on the image display units 51a and 51b based on the data (step S210). FIG. 22 shows a display example of a hand and a wall (bookshelf) in the virtual space at the moment of this collision.
Images corresponding to this display example are displayed on the image display units 51a and 51b of the HMD 5, and the user sees an image in which the virtual books are aligned facing himself through the HMD 5.

【0263】以上のように、本発明の画像処理装置1
は、位置姿勢検出部23により指の移動を検知し、仮想
空間画像中に表示される仮想の本と指との座標が一致し
た場合、触覚・力覚提示装置2により触覚・力覚を発生
させ、その後仮想の本と指の座標がずれたときには、演
算処理部81により本の移動速度と移動方向を演算して
表示し、衝突判定部82により仮想の壁と衝突したと判
定されると、ユーザに向けて正対して表示することとし
た。
As described above, the image processing apparatus 1 of the present invention
Detects the movement of the finger by the position / orientation detection unit 23, and when the virtual book displayed in the virtual space image and the coordinates of the finger match, the tactile / force sense presentation device 2 generates the tactile / force sense. After that, when the coordinates of the virtual book and the finger are deviated from each other, the arithmetic processing unit 81 calculates and displays the moving speed and the moving direction of the book, and the collision determination unit 82 determines that the virtual wall collides with the virtual wall. , And decided to display it facing the user.

【0264】したがって、本発明の画像処理装置および
画像処理方法によって、仮想空間画像において、読み終
えた仮想の本などの対象物を投げるなどの動作により移
動させ、本棚や壁など所定の位置に見やすいように整理
して表示することができるので、画像処理装置のユーザ
は、仮想の本などの対象物を視覚的に検索しやすく、仮
想の本などの位置が直感的で記憶にとどめやすいという
特有の効果を奏する。
Therefore, according to the image processing apparatus and the image processing method of the present invention, an object such as a virtual book that has been read can be moved by an operation such as throwing in a virtual space image so that it can be easily seen at a predetermined position such as a bookshelf or a wall. Since it can be organized and displayed as described above, the user of the image processing device can easily find an object such as a virtual book visually, and the position of the virtual book is intuitive and memorable. Produce the effect of.

【0265】以上、本発明の画像処理装置の構成を、図
示の実施形態に基づいて説明したが、本発明はこれに限
定されるものではなく、各部の構成は、同様の機能を有
する任意の構成のものに置換することができる。
The configuration of the image processing apparatus of the present invention has been described above based on the illustrated embodiment, but the present invention is not limited to this, and the configuration of each unit may be any function having the same function. It can be replaced with that of the configuration.

【0266】また、本発明では、前記各実施形態の任意
の2以上の構成(特徴)を適宜組み合わせてもよい。
Further, in the present invention, any two or more configurations (features) of the above embodiments may be combined appropriately.

【0267】なお、本発明の画像処理装置および画像処
理方法の上述の実施の形態では、仮想空間中の仮想の本
をユーザが投げて、壁などに整列させる場合について説
明したが、本発明はこれに限られない。例えば、仮想空
間中の様々な仮想の対象物、例えば、箱やパーソナルコ
ンピュータなどを棚や壁などの障害物に投げつけて整理
する場合などにも適用できる。
In the above-described embodiments of the image processing apparatus and the image processing method of the present invention, the case where the user throws a virtual book in the virtual space and aligns it on a wall or the like has been described. It is not limited to this. For example, it can be applied to various virtual objects in the virtual space, such as boxes and personal computers, which are thrown at obstacles such as shelves and walls to be organized.

【0268】また、仮想空間におけるユーザの動作は、
投げる動作のみに限定されず、例えば、対象物を押した
り、転がしたりする場合にも、本発明を適用して、その
対象物を整理して表示することができる。
The operation of the user in the virtual space is
It is not limited to the throwing operation, and for example, when pushing or rolling an object, the present invention can be applied to arrange and display the object.

【0269】[0269]

【発明の効果】以上説明したように、本発明によれば、
仮想空間において、本などの対象物を投げるなどの動作
により移動させ、壁など所定の位置に見やすいように整
理して表示することができ、整理して表示された対象物
が、ユーザにとって視覚的に検索しやすく、直感的で記
憶にとどめやすいという特有の効果を奏する。
As described above, according to the present invention,
Objects such as books can be moved in a virtual space by throwing them, and can be arranged and displayed in a predetermined position such as a wall for easy viewing. It has the unique effect of being easy to search, intuitive, and easy to remember.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の触覚・力覚提示装置の第1実施形態
およびその触覚・力覚提示装置を有する画像処理装置の
構成例を示す概念図である。
FIG. 1 is a conceptual diagram showing a configuration example of a first embodiment of a tactile / force sense presentation device of the present invention and an image processing apparatus having the tactile / force sense presentation device.

【図2】 図1に示すリアルグローブの回路構成例を示
すブロック図である。
FIG. 2 is a block diagram showing a circuit configuration example of the real glove shown in FIG.

【図3】 図1に示すリアルグローブの外観構成例を示
す外観図(一部図示を省略)である。
FIG. 3 is an external view (partially omitted from illustration) showing an external configuration example of the real glove shown in FIG. 1.

【図4】 図1に示すリアルグローブの触覚発生部の構
成例を示す縦断面図である。
FIG. 4 is a vertical cross-sectional view showing a configuration example of a tactile sense generating unit of the real glove shown in FIG.

【図5】 図1に示すリアルグローブの力覚発生部の構
成例を示す外観図である。
5 is an external view showing a configuration example of a force sense generation unit of the real glove shown in FIG.

【図6】 図1に示すリアルグローブの力覚発生部の構
成例を示す外観図である。
6 is an external view showing a configuration example of a force sense generation unit of the real glove shown in FIG.

【図7】 図1に示すリアルグローブの位置姿勢検出部
の構成例を示すブロック図である。
7 is a block diagram showing a configuration example of a position / orientation detection unit of the real glove shown in FIG.

【図8】 図1に示す仮想空間表示装置の外観構成例を
示す斜視図である。
8 is a perspective view showing an example of an external configuration of the virtual space display device shown in FIG.

【図9】 図1に示す仮想空間表示装置の回路構成例を
示すブロック図である。
9 is a block diagram showing a circuit configuration example of the virtual space display device shown in FIG. 1. FIG.

【図10】 図1に示す仮想空間表示装置の凹凸入力部
の構成例を示す図(ブロック図、模式図)である。
10 is a diagram (block diagram, schematic diagram) showing a configuration example of an unevenness input unit of the virtual space display device shown in FIG. 1. FIG.

【図11】 図1に示す仮想空間表示装置の画像表示部
の構成例を示す図(ブロック図、模式図)である。
11 is a diagram (block diagram, schematic diagram) showing a configuration example of an image display unit of the virtual space display device shown in FIG. 1. FIG.

【図12】 図1に示す仮想空間表示装置の視線検出部
の構成例を示す図(ブロック図、模式図)である。
12 is a diagram (block diagram, schematic diagram) showing a configuration example of a line-of-sight detection unit of the virtual space display device shown in FIG. 1. FIG.

【図13】 図1に示す情報処理装置の回路構成例を示
すブロック図である。
13 is a block diagram showing a circuit configuration example of the information processing apparatus shown in FIG.

【図14】 第2実施形態の触覚・力覚提示装置の触覚
発生部の構成例を示す縦断面図である。
FIG. 14 is a vertical cross-sectional view showing a configuration example of a tactile sense generating unit of the tactile sense / force sense presentation device of the second embodiment.

【図15】 第3実施形態の触覚・力覚提示装置のリア
ルグローブの外観構成例を示す外観図(一部図示を省
略)である。
FIG. 15 is an external view (partially omitted from illustration) showing an external configuration example of a real glove of the tactile / force feedback device of the third embodiment.

【図16】 第4実施形態の触覚・力覚提示装置の位置
姿勢検出部の構成例を示すブロック図である。
FIG. 16 is a block diagram showing a configuration example of a position / orientation detection unit of the tactile / force sense presentation device of the fourth embodiment.

【図17】 第4実施形態の触覚・力覚提示装置の位置
姿勢検出部の構成例を示す外観図(一部図示を省略)で
ある。
FIG. 17 is an external view (partially omitted from illustration) showing a configuration example of a position / orientation detection unit of the tactile / force sense presentation device of the fourth embodiment.

【図18】 図17に示す位置姿勢検出部のZ方向検出
センサの構成例を示す外観図である。
18 is an external view showing a configuration example of a Z-direction detection sensor of the position / orientation detection unit shown in FIG.

【図19】 本発明の画像処理装置における触覚・力覚
発生処理を示すフローチャートである。
FIG. 19 is a flowchart showing tactile / force sense generation processing in the image processing apparatus of the present invention.

【図20】 本発明の画像処理装置における仮想の本整
列処理を示すフローチャートである。
FIG. 20 is a flowchart showing virtual main alignment processing in the image processing apparatus of the present invention.

【図21】 本発明の画像処理装置における仮想の本整
列処理のステップS208に対応する概念図の一例であ
る。
FIG. 21 is an example of a conceptual diagram corresponding to step S208 of virtual main alignment processing in the image processing apparatus of the present invention.

【図22】 本発明の画像処理装置における仮想の本整
列処理のステップS210に対応する概念図の一例であ
る。
FIG. 22 is an example of a conceptual diagram corresponding to step S210 of virtual main alignment processing in the image processing apparatus of the present invention.

【符号の説明】[Explanation of symbols]

1……画像処理装置 2……触覚・力覚提示装置 2a
……手袋 2b……フレームホルダ 2c……フレーム
カバー 2d……腕固定部 20……リアルグローブ
20a……筒状部 21……触覚発生部 21a……開
口 21d……腕固定部本体 210……単位触覚発生
部 211……動力発生部 211a……モータ 21
2……アクチュエータワイヤ 212a……束 213
……ワイヤ保持部 214……触覚提示ピン 214a
……接触板 214b……支持部 215……触覚提示ピン支持部 216……触覚提示部
216a……第1の板片 216b……第2の板片
216c……接触部 217……ガイド部 218……
押え板 22……力覚発生部 22d……エアー注入部
221……フレーム 222……リンクモータ 23
……位置姿勢検出部 23d……蓋体 231……X方向検出コイル 232……Y方向検出コ
イル 233……Z方向検出コイル 24……制御部
25……信号処理部 251……増幅部 252……A
/D変換部 26……信号送受信部 27……遊び吸収
部 28……手首固定部 29……ねじれ吸収部 29
1……帯状部 292……開口 30……電力供給部
5……仮想空間表示装置 51a、51b……画像表示
部 511……レンズ 512……レンズ移動機構 5
13……ステッピングモータ 514……モータ制御部
515……液晶表示パネル 516……液晶駆動部
517……バックライト 518……バックライト制御
部 519……トランジスタ 52a、52b……視線検出部 521……ハーフミラ
ー 522……フィルタ 523……レンズ 524…
…CCD 525……CCD制御部 526……CCD
出力増幅部 527……LED 528……LED制御
部 529……トランジスタ 53a、53b……凹凸
入力部 531……レンズ 532……CCD 533
……CCD制御部 534……CCD出力増幅部 54
……制御部 55……信号送受信部 56……位置姿勢
検出部 57……装着部 58……信号処理部 60…
…ケーシング 61……X方向検出センサ 62……Y
方向検出センサ 63……Z方向検出センサ 64……
エリンバー 65……振動用圧電素子 66……検出用
圧電素子 67、68……ワイヤ 69……交流電源
8……情報処理装置 81……演算処理部 82……衝
突判定部 83……画像生成部 84……制御部 85
……記憶部 86……信号処理部 87……信号送受信
部 88……磁界発生部 9……基地局
1 ... Image processing device 2 ... Tactile / force sense presentation device 2a
…… Gloves 2b …… Frame holder 2c …… Frame cover 2d …… Arm fixing part 20 …… Real gloves
20a ... Cylindrical part 21 ... Tactile generating part 21a ... Opening 21d ... Arm fixing part main body 210 ... Unit tactile generating part 211 ... Power generating part 211a ... Motor 21
2 ... Actuator wire 212a ... Bundle 213
...... Wire holding part 214 …… Tactile presentation pin 214a
...... Contact plate 214b ...... Support portion 215 ...... Tactile presentation pin support portion 216 ...... Tactile presentation portion 216a ...... First plate piece 216b ...... Second plate piece
216c …… Contact part 217 …… Guide part 218 ……
Presser plate 22 ... Force-sense generating section 22d ... Air injecting section 221 ... Frame 222 ... Link motor 23
...... Position / orientation detector 23d ...... Lid 231 ...... X direction detection coil 232 ...... Y direction detection coil 233 ...... Z direction detection coil 24 ...... Control unit
25 ... Signal processing unit 251 ... Amplifying unit 252 ... A
/ D conversion unit 26 …… Signal transmission / reception unit 27 …… Play absorption unit 28 …… Wrist fixing unit 29 …… Twist absorption unit 29
1 ... Band-shaped portion 292 ... Aperture 30 ... Power supply section
5 ... Virtual space display device 51a, 51b ... Image display unit 511 ... Lens 512 ... Lens moving mechanism 5
13: Stepping motor 514: Motor control section 515: Liquid crystal display panel 516: Liquid crystal drive section
517 Backlight 518 Backlight control unit 519 Transistors 52a, 52b Line-of-sight detection unit 521 Half mirror 522 Filter 523 Lens 524
... CCD 525 ... CCD control unit 526 ... CCD
Output amplification section 527 ... LED 528 ... LED control section 529 ... Transistors 53a and 53b ... Convex / convex input section 531 ... Lens 532 ... CCD 533
...... CCD control unit 534 ...... CCD output amplification unit 54
...... Control unit 55 …… Signal transmission / reception unit 56 …… Position and orientation detection unit 57 …… Mounting unit 58 …… Signal processing unit 60 ……
… Casing 61 …… X direction detection sensor 62 …… Y
Direction detection sensor 63 …… Z direction detection sensor 64 ……
Elinver 65 ... Piezoelectric element for vibration 66 ... Piezoelectric element for detection 67, 68 ... Wire 69 ... AC power supply
8 ... Information processing device 81 ... Arithmetic processing unit 82 ... Collision determination unit 83 ... Image generation unit 84 ... Control unit 85
...... Memory unit 86 ...... Signal processing unit 87 ...... Signal transmission / reception unit 88 ...... Magnetic field generation unit 9 ...... Base station

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA07 BA08 BA09 CA07 EA04 EA24 FA02 GA02 5B087 AA09 CC21 CC32 DD12 DE05 5E501 AA02 AA04 AB03 BA05 CA02 CC08 CC09 CC14 FA14    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B050 BA07 BA08 BA09 CA07 EA04                       EA24 FA02 GA02                 5B087 AA09 CC21 CC32 DD12 DE05                 5E501 AA02 AA04 AB03 BA05 CA02                       CC08 CC09 CC14 FA14

Claims (32)

【特許請求の範囲】[Claims] 【請求項1】 仮想空間画像を生成する画像生成手段
と、 前記画像生成手段によって生成された仮想空間画像を表
示する表示手段と、 前記仮想空間画像内の仮想の対象物の移動速度および移
動方向を演算する演算手段と、 前記移動している対象物が仮想の障害物に衝突したか否
かを判定する衝突判定手段とを備え、 前記衝突判定手段により前記対象物が前記障害物に衝突
したと判定される場合には、前記対象物を前記移動方向
に対して概ね正対するように表示することを特徴とする
画像処理装置。
1. An image generation unit that generates a virtual space image, a display unit that displays the virtual space image generated by the image generation unit, and a moving speed and a moving direction of a virtual object in the virtual space image. And a collision determination unit that determines whether or not the moving object collides with a virtual obstacle, and the object has collided with the obstacle by the collision determination unit. If it is determined that the target object is displayed, the object is displayed so as to face the moving direction substantially.
【請求項2】 前記画像生成手段は、前記演算手段によ
り演算された前記対象物の移動速度および移動方向に基
づいて、所定の時間間隔で仮想空間画像を更新して生成
する請求項1に記載の画像処理装置。
2. The image generation means updates and generates a virtual space image at predetermined time intervals based on the moving speed and the moving direction of the object calculated by the calculating means. Image processing device.
【請求項3】 前記表示手段は、前記仮想の対象物の移
動にともなって更新された仮想空間画像を連続的に表示
する請求項2に記載の画像処理装置。
3. The image processing apparatus according to claim 2, wherein the display unit continuously displays virtual space images updated as the virtual object moves.
【請求項4】 指の位置を検出する指位置検出手段と、
指に与える触覚および力覚を発生する触覚・力覚発生手
段とを有する触覚・力覚提示手段をさらに備え、 前記画像生成手段は、前記仮想空間画像中の前記指位置
検出手段によって検出された指の位置に仮想の指画像を
生成し、前記表示手段は、該仮想の指画像を含む仮想空
間画像を表示する請求項1ないし3のいずれかに記載の
画像処理装置。
4. Finger position detecting means for detecting the position of a finger,
The image generation unit further includes a tactile force / force sense presenting unit having a tactile force / force sense generating unit that generates a tactile force and a force sense given to a finger, and the image generating unit is detected by the finger position detecting unit in the virtual space image. The image processing device according to claim 1, wherein a virtual finger image is generated at a position of a finger, and the display unit displays a virtual space image including the virtual finger image.
【請求項5】 前記指位置検出手段は、それらの中心軸
が互いに略直交する、第1のコイル、第2のコイルおよ
び第3のコイルを有する直交コイル式の位置検出手段で
ある請求項4に記載の画像処理装置。
5. The finger position detecting means is an orthogonal coil type position detecting means having a first coil, a second coil and a third coil whose central axes are substantially orthogonal to each other. The image processing device according to item 1.
【請求項6】 前記指位置検出手段は、互いに略直交す
るX軸、Y軸およびZ軸の回りの角速度をそれぞれ検出
するジャイロセンサを有する請求項4に記載の画像処理
装置。
6. The image processing apparatus according to claim 4, wherein the finger position detection means includes a gyro sensor that detects angular velocities around X-axis, Y-axis, and Z-axis that are substantially orthogonal to each other.
【請求項7】 前記指位置検出手段によって検出された
指の位置と前記対象物の位置とが一致するとき、その接
触に相当する感覚が指腹に得られるように前記触覚・力
覚発生手段の駆動を制御する制御手段をさらに備える請
求項4ないし6のいずれかに記載の画像処理装置。
7. The tactile / force sense generating means so that when the position of the finger detected by the finger position detecting means and the position of the object coincide with each other, a sensation corresponding to the contact is obtained on the finger pad. 7. The image processing apparatus according to claim 4, further comprising control means for controlling the driving of the.
【請求項8】 前記制御手段は、前記指位置検出手段に
よって検出された指の位置と前記対象物の位置とがずれ
たとき、前記接触に相当する感覚が指腹に得られないよ
うに前記触覚・力覚発生手段の駆動を制御する請求項7
に記載の画像処理装置。
8. The control means, when the position of the finger detected by the finger position detection means and the position of the object are deviated so that the feeling corresponding to the contact is not obtained on the finger pad. The drive of a tactile sense / force sense generating means is controlled.
The image processing device according to item 1.
【請求項9】 前記演算手段は、前記指位置検出手段に
よって検出された指の位置と前記対象物の位置とがずれ
る前の微少時間における移動距離およびそれにかかる時
間ならびに対象物の移動方向より、前記対象物が指から
離れた後の移動速度および移動方向を演算する請求項4
ないし8のいずれかに記載の画像処理装置。
9. The calculating means, based on a moving distance and a time required therefor in a minute time before the position of the finger detected by the finger position detecting means and the position of the object are displaced, and a moving direction of the object, 5. The moving speed and the moving direction after the object is separated from the finger are calculated.
9. The image processing device according to any one of 8 to 8.
【請求項10】 前記触覚・力覚提示手段は、指から腕
にかけて装着する手袋状のものであり、前記制御手段か
ら駆動に関する制御データを受信し、前記指位置検出手
段により検出された指位置データを前記演算手段に送信
する通信手段を含む請求項4ないし9のいずれかに記載
の画像処理装置。
10. The tactile / force sense presenting means is glove-like to be worn from a finger to an arm, receives control data regarding driving from the control means, and detects a finger position detected by the finger position detecting means. The image processing apparatus according to claim 4, further comprising a communication unit that transmits data to the calculation unit.
【請求項11】 前記表示手段は、顔面に装着して使用
するものである請求項1ないし10のいずれかに記載の
画像処理装置。
11. The image processing apparatus according to claim 1, wherein the display means is mounted on a face for use.
【請求項12】 前記表示手段は、前記画像生成手段に
より生成された仮想空間画像データを受信する通信手段
を含む請求項1ないし11のいずれかに記載の画像処理
装置。
12. The image processing apparatus according to claim 1, wherein the display unit includes a communication unit that receives the virtual space image data generated by the image generation unit.
【請求項13】 前記画像生成手段、前記演算手段およ
び前記衝突判定手段、ならびに/または前記制御手段が
1つのユニットとして構成され、該1つのユニットは、
前記表示手段および/または前記触覚・力覚提示手段と
相互にデータを送受信する通信手段を備える請求項1な
いし12のいずれかに記載の画像処理装置。
13. The image generation means, the calculation means and the collision determination means, and / or the control means are configured as one unit, and the one unit is
13. The image processing apparatus according to claim 1, further comprising a communication unit that transmits and receives data to and from the display unit and / or the tactile sense / force sense presenting unit.
【請求項14】 前記画像生成手段により生成された仮
想空間画像データ、前記演算手段によって得られる演算
結果、前記衝突判定手段によって得られる衝突判定結
果、前記触覚・力覚提示手段の前記指位置検出手段から
得られた指位置データのいずれかまたはすべてを記憶す
る記憶手段をさらに備える請求項1ないし13のいずれ
かに記載の画像処理装置。
14. The virtual space image data generated by the image generating means, the calculation result obtained by the calculating means, the collision determination result obtained by the collision determining means, and the finger position detection of the tactile / force sense presenting means. 14. The image processing apparatus according to claim 1, further comprising a storage unit that stores any or all of the finger position data obtained from the unit.
【請求項15】 前記衝突判定手段は、前記仮想空間画
像中を移動する対象物が前記障害物である仮想空間画像
中にある所定の平面に衝突したか否かを判定する請求項
1ないし13のいずれかに記載の画像処理装置。
15. The collision determination means determines whether or not an object moving in the virtual space image has collided with a predetermined plane in the virtual space image which is the obstacle. The image processing device according to any one of 1.
【請求項16】 仮想空間画像を生成するステップと、 生成された仮想空間画像を表示するステップと、 前記仮想空間画像内の仮想の対象物の移動速度および移
動方向を演算するステップと、 前記演算結果に基づいて、所定の時間間隔で仮想空間画
像を更新して前記仮想の対象物の移動状態を表示するス
テップと、 前記移動している対象物が仮想の障害物に衝突したか否
かを判定するステップと、 前記対象物と前記障害物が衝突したと判定される場合
に、前記対象物を前記移動方向に対して概ね正対するよ
うに表示するステップと、 を有することを特徴とする画像処理方法。
16. A step of generating a virtual space image, a step of displaying the generated virtual space image, a step of calculating a moving speed and a moving direction of a virtual object in the virtual space image, and the calculation. Based on the result, updating the virtual space image at a predetermined time interval to display the moving state of the virtual object, and whether the moving object collides with a virtual obstacle. An image comprising: a determining step; and a step of displaying the object so as to substantially face the moving direction when it is determined that the object collides with the obstacle. Processing method.
【請求項17】 指の位置を検出するステップをさらに
有し、 前記生成された仮想空間画像に前記指を表示する請求項
16に記載の画像処理方法。
17. The image processing method according to claim 16, further comprising the step of detecting the position of a finger, wherein the finger is displayed in the generated virtual space image.
【請求項18】 前記検出された指の位置と前記対象物
の位置が一致するか否かを判定するステップと、 前記位置が一致する場合、その接触に相当する感触が指
腹に得られるように該指腹に触覚および力覚を与えるス
テップと、 をさらに有する請求項16または17に記載の画像処理
方法。
18. A step of determining whether or not the detected position of the finger and the position of the target object match, and if the positions match, a touch corresponding to the contact is obtained on the finger pad. The image processing method according to claim 16, further comprising: providing a tactile sensation and a force sensation to the finger pad.
【請求項19】 前記触覚および力覚を与えるステップ
の後に、前記指の位置と前記対象物の位置がずれたと
き、前記接触に相当する感覚が得られないように指腹に
触覚および力覚を与えるのをやめるステップをさらに有
する請求項18に記載の画像処理方法。
19. When the position of the finger and the position of the object are deviated after the step of providing the tactile sensation and the force sensation, the tactile sensation and the force sensation are applied to the finger pad so that a feeling equivalent to the contact is not obtained. 19. The image processing method according to claim 18, further comprising the step of:
【請求項20】 前記演算ステップは、前記指の位置と
前記対象物の位置とがずれる前の微少時間における移動
距離およびそれにかかる時間ならびに対象物の移動方向
より、前記対象物が指から離れた後の移動速度および移
動方向を演算する請求項16ないし19のいずれかに記
載の画像処理方法。
20. In the calculating step, the object is separated from the finger based on a moving distance and a time required for the minute moving time before the position of the finger and the position of the object are displaced from each other and a moving direction of the object. 20. The image processing method according to claim 16, wherein the subsequent moving speed and moving direction are calculated.
【請求項21】 前記生成された仮想空間画像データを
仮想空間表示装置に送信するステップをさらに有する請
求項16ないし20のいずれかに記載の画像処理方法。
21. The image processing method according to claim 16, further comprising a step of transmitting the generated virtual space image data to a virtual space display device.
【請求項22】 前記生成された仮想空間画像データお
よび前記更新された仮想空間画像データを記憶するステ
ップと、 前記演算ステップにおいて得られた演算結果を記憶する
ステップと、 前記衝突判定ステップにおいて得られた衝突判定結果を
記憶するステップと、 をさらに有する請求項16ないし21のいずれかに記載
の画像処理方法。
22. A step of storing the generated virtual space image data and the updated virtual space image data, a step of storing the calculation result obtained in the calculation step, and a step of storing in the collision determination step. 22. The image processing method according to claim 16, further comprising: storing the collision determination result.
【請求項23】 前記指位置検出ステップにおいて得ら
れた指の位置座標データを記憶するステップをさらに有
する請求項17ないし22のいずれかに記載の画像処理
方法。
23. The image processing method according to claim 17, further comprising a step of storing the position coordinate data of the finger obtained in the finger position detecting step.
【請求項24】 仮想空間画像を生成してユーザに視認
できるように表示させるための情報処理装置のコンピュ
ータを、 仮想空間画像を生成する画像生成手段、 前記画像生成手段によって生成された仮想空間画像を表
示する表示手段、 前記仮想空間画像内の仮想の対象物の移動速度および移
動方向を演算する演算手段、 前記移動している対象物が仮想の障害物に衝突したか否
かを判定する衝突判定手段、 前記衝突判定手段により前記対象物が前記障害物に衝突
したと判定される場合には、前記対象物を前記移動方向
に対して概ね正対するように表示する表示手段、 として機能させるための情報処理装置の画像処理プログ
ラム。
24. A computer of an information processing device for generating a virtual space image and displaying the virtual space image so that it can be visually recognized by a user, image generating means for generating the virtual space image, and the virtual space image generated by the image generating means. A display unit for displaying a moving speed and a moving direction of a virtual object in the virtual space image, and a collision for determining whether or not the moving object collides with a virtual obstacle. Determination means, when the collision determination means determines that the object has collided with the obstacle, display means for displaying the object so as to face the movement direction in general. Image processing program of the information processing apparatus of.
【請求項25】 前記情報処理装置のコンピュータを、
指の位置を検出する指位置検出手段と、指に与える触覚
および力覚を発生する触覚・力覚発生手段とを有する触
覚・力覚提示手段として機能するためのプログラムコー
ドをさらに有し、 前記画像生成手段を、前記仮想空間画像中の前記指位置
検出手段によって検出された指の位置に仮想の指画像を
生成させ、前記表示手段を、該仮想の指画像を含む仮想
空間画像を表示させるように機能させるための請求項2
4に記載の情報処理装置の画像処理プログラム。
25. A computer of the information processing device,
Further comprising a program code for functioning as a tactile sense / force sense presenting means having a finger position detecting means for detecting the position of the finger, and a tactile sense / force sense generating means for generating a tactile sense and a force sense given to the finger, The image generation means generates a virtual finger image at the position of the finger detected by the finger position detection means in the virtual space image, and the display means displays the virtual space image including the virtual finger image. Claim 2 for functioning as
4. An image processing program of the information processing device according to item 4.
【請求項26】 前記情報処理装置のコンピュータを、
前記指位置検出手段によって検出された指の位置と前記
対象物の位置とが一致するとき、その接触に相当する感
覚が指腹に得られるように前記触覚・力覚発生手段の駆
動を制御する制御手段として機能させるためのプログラ
ムコードをさらに有する請求項25に記載の情報処理装
置の画像処理プログラム。
26. A computer of the information processing device,
When the position of the finger detected by the finger position detection unit coincides with the position of the object, the drive of the tactile sensation / force sense generation unit is controlled so that a sensation corresponding to the contact is obtained on the finger pad. The image processing program of the information processing apparatus according to claim 25, further comprising a program code for causing it to function as control means.
【請求項27】 前記制御手段には、前記指位置検出手
段によって検出された指の位置と前記対象物の位置との
一致/不一致に基づいて、前記接触に相当する感覚が指
腹に得られあるいは得られないように前記触覚・力覚発
生手段の駆動を制御させるように機能させるためのプロ
グラムコードが含まれる請求項26に記載の情報処理装
置の画像処理プログラム。
27. A sensation corresponding to the contact is obtained in the finger pad based on the match / mismatch between the position of the finger detected by the finger position detection unit and the position of the object in the control unit. 27. The image processing program of the information processing apparatus according to claim 26, further comprising a program code for causing a function of controlling driving of the tactile sensation / force sense generating means so as not to be obtained.
【請求項28】 前記情報処理装置のコンピュータを、
前記触覚・力覚提示手段と前記制御手段との間で駆動に
関する制御データを送受信し、前記触覚・力覚提示手段
と前記演算手段との間で前記指位置検出手段により検出
された指位置データを送受信する通信手段として機能さ
せるためのプログラムコードをさらに有する請求項25
ないし27のいずれかに記載の情報処理装置の画像処理
プログラム。
28. A computer of the information processing device,
Finger position data detected by the finger position detecting means between the tactile / force sense presenting means and the control means, and control data relating to driving is transmitted / received between the tactile / force sense presenting means and the computing means. 26. The system further comprises a program code for causing it to function as a communication means for transmitting and receiving a message.
28. An image processing program for an information processing device according to any one of 1 to 27.
【請求項29】 前記情報処理装置のコンピュータを、
前記表示手段と前記画像生成手段との間で前記生成され
た仮想空間画像データを送受信させる通信手段として機
能させるためのプログラムコードをさらに有する請求項
24ないし28のいずれかに記載の情報処理装置の画像
処理プログラム。
29. A computer of the information processing device,
29. The information processing apparatus according to claim 24, further comprising a program code for functioning as communication means for transmitting and receiving the generated virtual space image data between the display means and the image generation means. Image processing program.
【請求項30】 情報処理装置のコンピュータを、前記
画像生成手段、前記演算手段、前記衝突判定手段および
前記制御手段の少なくとも一つと前記表示手段および/
または前記触覚・力覚提示手段との間で相互にデータを
送受信する通信手段として機能させるためのプログラム
コードをさらに有する請求項24ないし29のいずれか
に記載の情報処理装置の画像処理プログラム。
30. A computer of an information processing device, at least one of the image generation means, the calculation means, the collision determination means and the control means, and the display means and / or
30. The image processing program for an information processing apparatus according to claim 24, further comprising a program code for causing the tactile sense / force sense presenting unit to function as a communication unit that transmits and receives data to and from each other.
【請求項31】 情報処理装置のコンピュータを、前記
画像生成手段により生成された仮想空間画像データ、前
記演算手段によって得られる演算結果、前記衝突判定手
段によって得られる衝突判定結果、前記触覚・力覚提示
手段の前記指位置検出手段から得られた指位置データの
いずれかまたはすべてを記憶する記憶手段として機能さ
せるためのプログラムコードをさらに有する請求項24
ないし30のいずれかに記載の情報処理装置の画像処理
プログラム。
31. A computer of an information processing apparatus, the virtual space image data generated by the image generation means, the calculation result obtained by the calculation means, the collision determination result obtained by the collision determination means, the tactile sense / force sense. 25. A program code for causing a storage unit to store any or all of the finger position data obtained from the finger position detecting unit of the presenting unit.
31. An image processing program for an information processing device according to any one of 1 to 30.
【請求項32】 コンピュータに実行させるための請求
項24ないし31のいずれかの画像処理プログラムを記
録した、コンピュータに読み取り可能な記録媒体。
32. A computer-readable recording medium recording the image processing program according to claim 24, which is to be executed by a computer.
JP2002143904A 2002-05-17 2002-05-17 Device and method for image processing, image processing program, and recording medium therefor Pending JP2003337961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002143904A JP2003337961A (en) 2002-05-17 2002-05-17 Device and method for image processing, image processing program, and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002143904A JP2003337961A (en) 2002-05-17 2002-05-17 Device and method for image processing, image processing program, and recording medium therefor

Publications (1)

Publication Number Publication Date
JP2003337961A true JP2003337961A (en) 2003-11-28

Family

ID=29703717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002143904A Pending JP2003337961A (en) 2002-05-17 2002-05-17 Device and method for image processing, image processing program, and recording medium therefor

Country Status (1)

Country Link
JP (1) JP2003337961A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277367A (en) * 2005-03-29 2006-10-12 Mazda Motor Corp Vehicle planning support system
JP2006277368A (en) * 2005-03-29 2006-10-12 Mazda Motor Corp Vehicle planning support system
KR101626375B1 (en) * 2015-06-30 2016-06-01 한양대학교 산학협력단 Glove type haptic transmission apparatus for detecting objects in augmented reality and its method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277367A (en) * 2005-03-29 2006-10-12 Mazda Motor Corp Vehicle planning support system
JP2006277368A (en) * 2005-03-29 2006-10-12 Mazda Motor Corp Vehicle planning support system
JP4636318B2 (en) * 2005-03-29 2011-02-23 マツダ株式会社 Vehicle planning support system
JP4687957B2 (en) * 2005-03-29 2011-05-25 マツダ株式会社 Vehicle planning support system
KR101626375B1 (en) * 2015-06-30 2016-06-01 한양대학교 산학협력단 Glove type haptic transmission apparatus for detecting objects in augmented reality and its method

Similar Documents

Publication Publication Date Title
US6862006B2 (en) Image processing apparatus and image processing method, and image processing program and recording medium of the same
US7250935B2 (en) Force-feedback supply apparatus and image correcting method
JP4085691B2 (en) Image processing device
US7161579B2 (en) Hand-held computer interactive device
US11982809B2 (en) Electronic device with inner display and externally accessible input-output device
JP4048999B2 (en) Image processing apparatus and image processing method
JP4023214B2 (en) Tactile / force sense presentation device and tactile / force sense presentation system
US10845895B1 (en) Handheld controllers for artificial reality and related methods
US11720175B1 (en) Spatially offset haptic feedback
JP2003316493A (en) Tactile sense presentation device
JP7390541B2 (en) Animation production system
JP2003308141A (en) Inner force sense presenting device
JP4039111B2 (en) Tactile / force sense presentation device and tactile / force sense presentation system
JP4063131B2 (en) Image processing apparatus and tactile / force-sensing method
JP2003337961A (en) Device and method for image processing, image processing program, and recording medium therefor
JP6964302B2 (en) Animation production method
JP6564484B1 (en) Same room communication system
JP2004213349A (en) Inner force sense presentation device and system
WO2021059367A1 (en) Animation production system
JP2004213351A (en) Inner force sense presentation device and system
CN111766959B (en) Virtual reality interaction method and virtual reality interaction device
WO2022113834A1 (en) System, imaging device, information processing device, information processing method, and information processing program
WO2024090303A1 (en) Information processing device and information processing method
JP2023017438A (en) Display image generation device
WO2021059356A1 (en) Animation production system