JP2003337962A - 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体 - Google Patents

画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体

Info

Publication number
JP2003337962A
JP2003337962A JP2002143905A JP2002143905A JP2003337962A JP 2003337962 A JP2003337962 A JP 2003337962A JP 2002143905 A JP2002143905 A JP 2002143905A JP 2002143905 A JP2002143905 A JP 2002143905A JP 2003337962 A JP2003337962 A JP 2003337962A
Authority
JP
Japan
Prior art keywords
finger
image
virtual space
image processing
display object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002143905A
Other languages
English (en)
Other versions
JP4085691B2 (ja
JP2003337962A5 (ja
Inventor
Shigemi Sato
茂美 佐藤
Akira Kubota
晃 窪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002143905A priority Critical patent/JP4085691B2/ja
Publication of JP2003337962A publication Critical patent/JP2003337962A/ja
Publication of JP2003337962A5 publication Critical patent/JP2003337962A5/ja
Application granted granted Critical
Publication of JP4085691B2 publication Critical patent/JP4085691B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 仮想空間において、仮想のPC画面上のアイ
コンを直接指で掴んで移動することにより、所望のアプ
リケーションソフトウェアを起動して、それを三次元で
立体的に表示できる画像処理装置、画像処理方法、画像
処理プログラム、その記録媒体を提供する。 【解決手段】 指と仮想のPC画面あるいはPC画面上
に表示されるアイコンとが衝突したと衝突判定部82で
判定されると、画像生成部83は、制御部84の指示に
より、そのアイコンに関連付けられるアプリケーション
ソフトウェアを起動して、PC画面よりも手前にそれが
表示されるように、仮想空間画像を更新して生成する。
制御部84は、衝突判定結果および生成された仮想空間
画像データなどを記憶部85の所定の格納領域に保存す
るとともに、信号処理部86および信号送受信部87を
介して、仮想空間表示装置にその画像データを送信す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理装置およ
び画像処理方法に関し、より詳細には、仮想空間画像内
のパーソナルコンピュータのアプリケーションソフトウ
ェアを表示画面より前に表示する画像処理装置および画
像処理方法、ならびに、画像処理プログラムおよびその
記録媒体に関する。
【0002】
【従来の技術】特開平6−282371号には、本等の
仮想空間画像が表示され、ユーザ(使用者)が、表示さ
れた仮想の本のページをめくる動作をすると、その動作
に応じて、前記本のページがめくれるように構成された
仮想空間デスクトップ装置が開示されている。
【0003】しかしながら、前記従来の装置では、ユー
ザは、手や指で、本の用紙の質感や、用紙の例えばエッ
ジに接触したときの感触などを感じることができず、ま
た、手や指で本を握ったときの反力などを感じることが
できないため、違和感を覚える。
【0004】また、本のページめくりの際は、指の感触
により本の用紙のエッジを認識し、その用紙(ページ)
を指で挟んで持ち上げるようにしてページをめくるのが
自然の動作であるが、前記従来の装置では本に対して手
や指による感触が得られないので、本のページをめくる
動作の度に、本の用紙のエッジに注目して、そのエッジ
に指を移動させる動作などが必要となり、前記本のペー
ジめくりに手間と時間がかかる。
【0005】ところで、仮想空間内で仮想のパーソナル
コンピュータ(以下、「PC」という)を使用する場
合、仮想空間という利点を生かして、PC画面上に表示
されているアイコンを指でタッチし、あるいはつまみ出
すことによってそのアイコンが関連付けられているアプ
リケーションソフトウェアを起動し、そのアプリケーシ
ョンをPC画面よりも前に三次元で表示したいという要
望も考えられる。特に、三次元のCAD(computer-aid
ed design)によって立体的な設計などをした場合に、
それが三次元空間でどのように見えるか確認したいとい
う要望がある。
【0006】
【発明が解決しようとする課題】本発明は、仮想空間に
おいて、仮想のPC画面上のアイコンを直接指で触れ、
あるいは掴むことによって、所望のアプリケーションソ
フトウェアを起動し、それを三次元で立体的に表示する
ことができる画像処理装置および画像処理方法、ならび
に、画像処理プログラムおよびその記録媒体を提供する
ことを目的とする。
【0007】
【課題を解決するための手段】このような目的は、下記
(1)〜(38)の本発明により達成される。
【0008】(1) 仮想空間画像を生成する画像生成
手段と、前記画像生成手段によって生成された仮想空間
画像を表示する表示手段と、指の位置を検出する指位置
検出手段と、前記指位置検出手段によって検出された指
が仮想の表示物に衝突したか否かを判定する判定手段
と、前記判定手段によって前記指と前記表示物が衝突し
たと判定される場合には、前記仮想空間内に該表示物に
関連付けられている機能を発現させる機能発現手段と、
を備えることを特徴とする画像処理装置。
【0009】(2) 仮想空間画像を生成する画像生成
手段と、前記画像生成手段によって生成された仮想空間
画像を表示する表示手段と、指の位置を検出する指位置
検出手段と、前記指位置検出手段によって検出された指
が移動したとき、その移動にともなって仮想の表示物が
移動したか否かを判定する判定手段と、前記判定手段に
よって前記指と前記表示物が同時に移動したと判定され
る場合には、前記仮想空間内に該表示物に関連付けられ
ている機能を発現させる機能発現手段と、を備えること
を特徴とする画像処理装置。
【0010】(3) 前記画像生成手段によって生成さ
れた画像データおよび前記判定手段によって判定された
判定結果を記憶する記憶手段をさらに備えることを特徴
とする上記(1)または(2)に記載の画像処理装置。
【0011】(4) 前記画像生成手段は、前記指位置
検出手段により検出された前記指の位置に基づいて、所
定の時間間隔で仮想の指画像を含む仮想空間画像を更新
して生成する上記(1)ないし(3)のいずれかに記載
の画像処理装置。
【0012】(5) 前記指位置検出手段は、それらの
中心軸が互いに略直交する、第1のコイル、第2のコイ
ルおよび第3のコイルを有する直交コイル式の位置検出
手段であることを特徴とする上記(1)ないし(4)の
いずれかに記載の画像処理装置。
【0013】(6) 前記指位置検出手段は、互いに略
直交するX軸、Y軸およびZ軸の回りの角速度をそれぞ
れ検出するジャイロセンサを有する上記(1)ないし
(5)のいずれかに記載の画像処理装置。
【0014】(7) 前記表示手段は、顔面に装着して
使用するものである上記(1)ないし(6)のいずれか
に記載の画像処理装置。
【0015】(8) 前記表示手段は、前記画像生成手
段により生成された仮想空間画像データを受信する通信
手段を含むことを特徴とする上記(1)ないし(7)の
いずれかに記載の画像処理装置。
【0016】(9) 前記発現された機能は、仮想空間
における映像および/または音の出力であり、該機能が
映像の場合において、前記判定手段により前記指が機能
を発現されている映像の所定の位置に衝突し、あるいは
該位置とともに移動したと判定されるときには、前記機
能を終了させる機能終了手段をさらに備える上記(1)
ないし(8)のいずれかに記載の画像処理装置。
【0017】(10) 前記機能終了手段により機能を
終了させられた前記表示物を初めの状態に戻して前記仮
想空間中に表示する表示物表示手段をさらに備える上記
(9)に記載の画像処理装置。
【0018】(11) 前記仮想の表示物は、仮想空間
中に形成される平面上に二次元的に配置される上記
(1)ないし(10)のいずれかに記載の画像処理装
置。
【0019】(12) 前記平面は、仮想のパーソナル
コンピュータの表示画面であり、前記表示物は、この表
示画面に表示されているアイコンである上記(11)に
記載の画像処理装置。
【0020】(13) 前記機能発現手段は、所望のア
プリケーションソフトウェアを起動してこのアプリケー
ションに関する各種処理を実行できるようにし、前記表
示手段は、仮想空間において前記パーソナルコンピュー
タの表示画面の手前に該アプリケーションのウィンドウ
画面を表示する上記(12)に記載の画像処理装置。
【0021】(14) 指に与える触覚および力覚を発
生して提示する触覚・力覚提示手段と、前記判定手段に
より前記指が前記仮想の表示物に衝突しあるいは該表示
物とともに移動したと判定される場合には、その接触に
相当する感覚が指腹に得られるように前記触覚・力覚発
生手段の駆動を制御する制御手段と、をさらに備える上
記(1)ないし(13)のいずれかに記載の画像処理装
置。
【0022】(15) 前記制御手段は、前記指位置検
出手段によって検出された指の位置と前記表示物の位置
とがずれたとき、前記接触に相当する感覚が指腹に得ら
れないように前記触覚・力覚発生手段の駆動を制御する
上記(14)に記載の画像処理装置。
【0023】(16) 指に与える触覚および力覚を発
生して提示する触覚・力覚提示手段と、前記判定手段に
より前記指が前記仮想の表示物に衝突しあるいは該表示
物とともに移動したと判定される場合には、その接触に
相当する感覚が指腹に得られるように前記触覚・力覚発
生手段の駆動を制御する制御手段とをさらに備え、前記
制御手段は、前記判定手段によって前記指と前記パーソ
ナルコンピュータの表示画面が衝突し、あるいはそれと
ともに移動したと判定される場合にも、その接触に相当
する感覚が指腹に得られるように前記触覚・力覚発生手
段の駆動を制御する上記(13)に記載の画像処理装
置。
【0024】(17) 仮想空間画像を生成するステッ
プと、前記生成された仮想空間画像を表示するステップ
と、指の位置を検出するステップと、前記検出された指
が仮想の表示物に衝突したか否かを判定するステップ
と、前記指と前記表示物が衝突したと判定される場合に
は、前記仮想空間内に該表示物に関連付けられている機
能を発現させるステップと、を有することを特徴とする
画像処理方法。
【0025】(18) 仮想空間画像を生成するステッ
プと、前記生成された仮想空間画像を表示するステップ
と、指の位置を検出するステップと、前記検出された指
が移動したとき、その移動にともなって仮想の表示物が
移動したか否かを判定するステップと、前記指と前記表
示物が同時に移動したと判定される場合には、前記仮想
空間内に該表示物に関連付けられている機能を発現させ
るステップと、を有することを特徴とする画像処理方
法。
【0026】(19) 前記生成された画像データおよ
び前記判定された判定結果を記憶するステップをさらに
有することを特徴とする上記(17)または(18)に
記載の画像処理方法。
【0027】(20) 前記画像生成ステップは、前記
指位置検出ステップで検出された前記指の位置に基づい
て、所定の時間間隔で仮想の指画像を含む仮想空間画像
を更新して生成する上記(17)ないし(19)のいず
れかに記載の画像処理方法。
【0028】(21) 前記発現された機能は、仮想空
間における映像および/または音の出力であり、該機能
が映像の場合において、前記指が機能を発現されている
映像の所定の位置に衝突し、あるいは該位置とともに移
動したと判定されるときには、前記機能を終了させるス
テップをさらに有する上記(17)ないし(20)のい
ずれかに記載の画像処理方法。
【0029】(22) 前記機能終了ステップにおいて
機能を終了させられた前記表示物を初めの状態に戻して
前記仮想空間中に表示するステップをさらに有する上記
(21)に記載の画像処理方法。
【0030】(23) 前記仮想の表示物は、仮想空間
中に形成される平面上に二次元的に配置される上記(1
7)ないし(22)のいずれかに記載の画像処理方法。
【0031】(24) 前記平面は、仮想のパーソナル
コンピュータの表示画面であり、前記表示物は、この表
示画面に表示されているアイコンである上記(23)に
記載の画像処理方法。
【0032】(25) 前記機能発現ステップでは、所
望のアプリケーションソフトウェアを起動してこのアプ
リケーションに関する各種処理を実行できるようにさ
れ、前記表示ステップは、仮想空間において前記パーソ
ナルコンピュータの表示画面の手前に該アプリケーショ
ンのウィンドウ画面を表示する上記(24)に記載の画
像処理方法。
【0033】(26) 指に与える触覚および力覚を発
生して提示するステップと、前記指が前記仮想の表示物
に衝突しあるいは該表示物とともに移動したと判定され
る場合には、その接触に相当する感覚が指腹に得られる
ように触覚および力覚の発生を制御するステップと、を
さらに有する上記(17)ないし(25)のいずれかに
記載の画像処理方法。
【0034】(27) 指に与える触覚および力覚を発
生して提示するステップと、前記指が前記仮想の表示物
に衝突しあるいは該表示物とともに移動したと判定され
る場合には、その接触に相当する感覚が指腹に得られる
ように触覚および力覚の発生を制御するステップとをさ
らに有し、前記指と前記パーソナルコンピュータの表示
画面が衝突し、あるいはそれとともに移動したと判定さ
れる場合にも、その接触に相当する感覚が指腹に得られ
るように触覚および力覚を与える上記(25)に記載の
画像処理方法。
【0035】(28) 仮想空間画像を生成してユーザ
に視認できるように表示させるための情報処理装置のコ
ンピュータを、仮想空間画像を生成する画像生成手段、
前記画像生成手段によって生成された仮想空間画像を表
示する表示手段、指の位置を検出する指位置検出手段、
前記指位置検出手段によって検出された指が仮想の表示
物に衝突したか否かを判定する判定手段、前記判定手段
によって前記指と前記表示物が衝突したと判定される場
合には、前記仮想空間内に該表示物に関連付けられてい
る機能を発現させる機能発現手段、として機能させるた
めの情報処理装置の画像処理プログラム。
【0036】(29) 仮想空間画像を生成してユーザ
に視認できるように表示させるための情報処理装置のコ
ンピュータを、仮想空間画像を生成する画像生成手段、
前記画像生成手段によって生成された仮想空間画像を表
示する表示手段、指の位置を検出する指位置検出手段、
前記指位置検出手段によって検出された指が移動したと
き、その移動にともなって、仮想の表示物が移動したか
否かを判定する判定手段、前記判定手段によって前記指
と前記表示物が同時に移動したと判定される場合には、
前記仮想空間内に該表示物に関連付けられている機能を
発現させる機能発現手段、として機能させるための情報
処理装置の画像処理プログラム。
【0037】(30) 情報処理装置のコンピュータ
を、前記画像生成手段によって生成された画像データお
よび前記判定手段によって判定された判定結果を記憶す
る記憶手段として機能させるためのプログラムコードを
さらに有する上記(28)または(29)に記載の画像
処理プログラム。
【0038】(31) 前記画像生成手段を、前記指位
置検出手段により検出された前記指の位置に基づいて、
所定の時間間隔で仮想の指画像を含む仮想空間画像を更
新して生成させるように機能させるための上記(28)
ないし(30)のいずれかに記載の画像処理プログラ
ム。
【0039】(32) 情報処理装置のコンピュータ
を、前記発現される機能が映像の場合において、前記判
定手段により前記指が機能を発現されている映像の所定
の位置に衝突し、あるいは該位置とともに移動したと判
定されるときには、前記機能を終了させる機能終了手段
として機能させるためのプログラムコードをさらに有す
る上記(28)ないし(31)のいずれかに記載の情報
処理装置の画像処理プログラム。
【0040】(33) 情報処理装置のコンピュータ
を、前記機能終了手段により機能を終了させられた前記
表示物を初めの状態に戻して前記仮想空間中に表示する
表示物表示手段として機能させるためのプログラムコー
ドをさらに有する上記(32)に記載の情報処理装置の
画像処理プログラム。
【0041】(34) 前記機能発現手段を、仮想のパ
ーソナルコンピュータの表示画面に表示されているアイ
コンである前記表示物と前記指との衝突あるいは移動に
基づいて、所望のアプリケーションソフトウェアを起動
してこのアプリケーションに関する各種処理を実行でき
るように機能させ、前記表示手段を、仮想空間において
前記パーソナルコンピュータの表示画面の手前に前記ア
プリケーションのウィンドウ画面を表示するように機能
させるためのプログラムコードをさらに有する上記(2
8)ないし(33)のいずれかに記載の画像処理プログ
ラム。
【0042】(35) 情報処理装置のコンピュータ
を、指に与える触覚および力覚を発生して提示する触覚
・力覚提示手段、前記判定手段により前記指が前記仮想
の表示物に衝突しあるいは該表示物とともに移動したと
判定される場合には、その接触に相当する感覚が指腹に
得られるように前記触覚・力覚発生手段の駆動を制御す
る制御手段、として機能させるためのプログラムコード
をさらに有する上記(28)ないし(34)のいずれか
に記載の画像処理プログラム。
【0043】(36) 前記制御手段を、前記指位置検
出手段によって検出された指の位置と前記表示物の位置
とがずれたとき、前記接触に相当する感覚が指腹に得ら
れないように触覚および力覚の発生を制御するように機
能させるためのプログラムコードを有する上記(34)
に記載の画像処理プログラム。
【0044】(37) 情報処理装置のコンピュータ
を、指に与える触覚および力覚を発生して提示する触覚
・力覚提示手段、前記判定手段により前記指が前記仮想
の表示物に衝突しあるいは該表示物とともに移動したと
判定される場合には、その接触に相当する感覚が指腹に
得られるように前記触覚・力覚発生手段の駆動を制御す
る制御手段として機能させるためのプログラムコードを
さらに有し、前記制御手段を、前記判定手段によって前
記指と前記パーソナルコンピュータの表示画面が衝突
し、あるいはそれとともに移動したと判定される場合に
も、その接触に相当する感覚が指腹に得られるように触
覚および力覚の発生を制御するように機能させるための
プログラムコードを有する上記(34)に記載の画像処
理プログラム。
【0045】(38) コンピュータに実行させるため
の上記(28)ないし(37)のいずれかの画像処理プ
ログラムを記録した、コンピュータに読み取り可能な記
録媒体。
【0046】
【発明の実施の形態】以下、図1〜図23を参照して本
発明の画像処理装置および画像処理方法の好適実施形態
を詳細に説明する。なお、この実施の形態は例示として
挙げるものであり、これにより本発明を限定的に解釈す
べきではない。
【0047】図1は、本発明の触覚・力覚提示装置を含
む画像処理装置の第1実施形態の構成例を示す概念図で
あり、図2は、図1に示すリアルグローブ20の回路構
成例を示すブロック図である。また、図3は、図1に示
すリアルグローブ20の外観構成例を示す外観図(一部
図示を省略)である。
【0048】図1に示すように、画像処理装置1は、ユ
ーザ(使用者)の手(指)に装着され、装着された手や
各指に対して触覚(触った感覚、例えば、質感、形状、
強さ等の接触強度の分布)や力覚(触ったときに加わる
力の感覚)を与える一対のリアルグローブ(データグロ
ーブ)20、20と、仮想空間画像(仮想空間映像)を
表示する仮想空間表示装置(表示手段)5と、各リアル
グローブ20および仮想空間表示装置5の駆動制御等の
種々の処理(本発明においては、後述する図19および
図20のアプリケーション起動処理や図21のアプリケ
ーション終了処理など)を行う情報処理装置8と、仮想
空間画像を作成し、仮想空間画像を用いた各種のサービ
スを提供する基地局9とを備えている。
【0049】各リアルグローブ20、仮想空間表示装置
5、情報処理装置8および基地局9は、それぞれ、無線
(例えば、無線LAN(Local Area Network)、赤外線
(IR)データ通信(IrDA:Infrared Data Associ
ation)、Bluetoothなど)で信号の送信および受信(無
線通信)を行うことができる無線通信機能(無線通信手
段)を有しており、情報処理装置8と、各リアルグロー
ブ20、仮想空間表示装置5および基地局9との間で、
それぞれ、通信を行うことができるようになっている。
【0050】この画像処理装置1は、基地局9、仮想空
間表示装置5および各リアルグローブ20から供給され
た情報に基づいて情報処理装置8によって作成(生成)
された仮想空間画像を仮想空間表示装置5に表示し、リ
アルグローブ20を装着した手や指を動作させることに
よってその手や指が仮想空間に表示された物体に仮想的
に接触した場合等に、その様子を仮想空間表示装置5に
表示するとともに、接触したときの触覚や力覚をリアル
グローブ20を装着した手や各指に与えるための各処理
を行う。
【0051】情報処理装置8は、例えば、携帯電話端
末、無線通信機能を有するパーソナルコンピュータ、P
DA(Personal Digital Assistants)と呼ばれる携帯
型情報機器などの、無線通信機能(通信手段)および制
御機能(制御手段)を備えた各種の装置により構成され
る。
【0052】また、基地局9は、例えば、インターネッ
トに接続されている各種サーバコンピュータ、携帯電話
端末と無線通信を行う携帯電話基地局などの、仮想空間
画像に関する情報を提供する各種の装置により構成され
る。
【0053】なお、本実施形態では、各リアルグローブ
20、仮想空間表示装置5、情報処理装置8および基地
局9が無線通信機能を有する構成としているが、例え
ば、その一部またはすべてが有線通信を行う構成とされ
ていてもよい。
【0054】また、情報処理装置8が、基地局9の機能
の一部またはすべてを有していてもよい。後述するアプ
リケーション起動処理およびアプリケーション終了処理
では、便宜的に情報処理装置8に基地局9のすべての機
能が含まれるものとして説明される。
【0055】また、リアルグローブ20が、仮想空間表
示装置5、情報処理装置8および基地局9の機能の一部
またはすべてを有していてもよい。
【0056】ここで、触覚・力覚提示装置2は、本実施
形態では、一対のリアルグローブ20、20、すなわ
ち、ユーザの左手に装着される左手用のリアルグローブ
20と、ユーザの右手に装着される右手用のリアルグロ
ーブ20とで構成されている。以下の説明では、代表的
に一方のリアルグローブ20を説明する。
【0057】なお、本発明において、触覚・力覚提示装
置2は、一方のリアルグローブ20のみで構成されてい
てもよい。
【0058】また、本発明では、触覚・力覚提示装置2
は、リアルグローブ20の他に、仮想空間表示装置5、
情報処理装置8および基地局9のうちの、いずれか1
つ、または、2つ、または、すべてを有していてもよ
い。この場合、触覚・力覚提示装置2は、それらの有す
る機能の一部を有していてもよく、また、すべてを有し
ていてもよい。
【0059】図2に示すように、リアルグローブ20
は、仮想空間に現れている(仮想空間画像上の)物体
(対象物)に接触した指の感覚(例えば、質感、形状、
強さ等の接触強度の分布)を発生させるための触覚発生
部(触覚発生手段)21と、仮想空間に現れている物体
に接触したときに手や指にかかる力の強さの感覚を発生
させるための力覚発生部(力覚発生手段)22と、リア
ルグローブ20の各部の位置(リアルグローブ20を装
着した手、手首、腕、指等の各部の位置)を検出する位
置姿勢検出部23と、リアルグローブ20の各部を制御
する制御部24と、情報処理装置8に送信する検出デー
タ信号の増幅等の信号処理を行う信号処理部25と、情
報処理装置8との間で無線通信を行うための信号送受信
部(通信手段)26とを有している。
【0060】また、図3に示すように、リアルグローブ
20の全体形状は、略長手袋状(手袋状)をなしてい
る。すなわち、リアルグローブ20は、その装着者(ユ
ーザ)の指から腕の肘近傍まで(指から腕にかけて)装
着する手袋状の装着手段として、腕を覆う筒状部20a
を備えた比較的長い手袋2aを有している。
【0061】ユーザは、この手袋2aにより、リアルグ
ローブ20の装着および取り外しを容易かつ確実に行う
ことができる。
【0062】また、手袋2aはユーザの手から腕にかけ
て装着されるので、仮想空間における動作(操作)を容
易かつ確実に行うことができる。
【0063】この手袋2aには、指先に対応する部分の
遊びを抑制または防止する遊び吸収部27と、リアルグ
ローブ20を手首に固定する手首固定部28と、該リア
ルグローブ20を腕に固定する腕固定部2dと、腕に対
応する部分のねじれを吸収するねじれ吸収部29とが、
それぞれ設けられている。
【0064】遊び吸収部27は、手袋2aの手首付近に
対応する部分に設けられている。この遊び吸収部27
は、例えば、各種ゴム等の弾性体で形成される。
【0065】ユーザがリアルグローブ20を装着する
と、遊び吸収部27の復元力(弾性力)により、手袋2
aは、肘方向(基端側)に引っ張られ、その状態で保持
される。これにより、指先に遊びができてしまうのを防
止または抑制することができる。
【0066】また、指の長さ等の手の寸法の異なる複数
のユーザが使用する場合においても、遊び吸収部27に
より、それぞれ各ユーザにおいて、指先に遊びができて
しまうのを防止または抑制することができる。
【0067】手首固定部28は、手袋2aの前記遊び吸
収部27の肘側(基端側)に、遊び吸収部27に連続し
て設けられている。この手首固定部28は、例えば、各
種ゴム等の弾性体で形成される。
【0068】ユーザがリアルグローブ20を装着する
と、手首固定部28の復元力(弾性力)により、手袋2
aは、手首に固定される。これにより、使用中にリアル
グローブ20がずれてしまうのを防止することができ
る。
【0069】また、この手首固定部28や前記遊び吸収
部27により、後述する触覚発生部21のアクチュエー
タワイヤ212の束212aは、各アクチュエータワイ
ヤ212がそれぞれその長手方向に移動し得るように所
定の位置に保持される。
【0070】腕固定部2dは、手袋2aの筒状部20a
の肘側(基端側)の端部に設けられている。この腕固定
部2dは、例えば、各種ゴム等の弾性体で形成される。
【0071】ユーザがリアルグローブ20を装着する
と、腕固定部2dの復元力(弾性力)により、手袋2a
は、腕に固定される。これにより、使用中にリアルグロ
ーブ20がずれてしまうのを防止することができる。
【0072】ねじれ吸収部29は、手袋2aの筒状部2
0aの途中、すなわち、前記手首固定部28と腕固定部
2dとの間に設けられている。
【0073】このねじれ吸収部29は、筒状部20aの
一部に3つの開口292を形成して得られる3本の帯状
部291で構成されている。各帯状部291は、それぞ
れ、例えば、伸縮性のある材料で構成された布等の伸縮
性のある部材で形成される。
【0074】ユーザがリアルグローブ20を装着し、例
えば、手首をねじる動作をすると、各帯状部291が伸
縮、変形し、これにより、筒状部20aのねじれが吸収
される。
【0075】このように、ねじれ吸収部29により、リ
アルグローブ20のねじれを防止することができ、この
ため、ユーザは、手や腕を容易かつ円滑に動かすことが
できる。
【0076】なお、ねじれ吸収部29の帯状部291の
数は、2本以下でもよく、また、4本以上でもよい。
【0077】また、手袋2aの各指の背側の各関節に対
応する部分には、それぞれ、開口21aが形成されてい
る。
【0078】これらの開口21aにより、ユーザは、各
指の各関節をそれぞれ容易かつ円滑に動かすことができ
る。
【0079】また、このリアルグローブ20には、手袋
2aの腕に対応する部分であって、前記ねじれ吸収部2
9よりも肘方向に位置する部分、すなわち、手袋2aの
筒状部20aの肘側(基端側)の端部に、制御部24、
電力供給部30、動力発生部211などが設けられてい
る。
【0080】これら制御部24、電力供給部30および
動力発生部211の配置を前記のようにすることによ
り、リアルグローブ20の指先側(先端側)の重量を軽
く(慣性を小さく)することができ、これにより、ユー
ザは、動作(操作)を容易に行うことができる。
【0081】触覚発生部21の主要部は、ユーザがリア
ルグローブ20を装着したときに、ユーザの各指の第1
関節(末節骨と中節骨との間の関節)から先の指先部分
を覆う位置にそれぞれ設けられている。なお、各触覚発
生部21の構成および作用は、ほぼ同様であるので、以
下、代表的に、そのうちの1つについて説明する。
【0082】図4は、触覚発生部21の構成例を示す縦
断面図である。なお、図が煩雑になるのを避けるため、
図中、一部、部材の厚みを省略して図示する。
【0083】触覚発生部21は、図4(A)に示すよう
に、モータ(駆動源)211aを備える動力発生部(移
動手段)211と、長手方向に移動可能に設置されたア
クチュエータワイヤ(可撓性を有する線状体)212
と、アクチュエータワイヤ212の一端を保持するワイ
ヤ保持部(付勢手段)213と、触覚を発生させるため
に指腹を押圧する触覚提示ピン(押圧部)214と、触
覚提示ピン214を支持するとともに触覚提示ピン21
4の移動方向を規制する触覚提示ピン支持部(移動方向
規制手段)215とで構成される複数の単位触覚発生部
(アクチュエータ)210を有している。各単位触覚発
生部210は、互いに独立している。
【0084】なお、前記動力発生部211と、アクチュ
エータワイヤ212と、触覚提示ピン支持部215と
で、触覚提示ピン214を駆動する駆動機構が構成され
る。
【0085】動力発生部211は、例えば、制御部24
からの制御信号に応じて内部に備えるモータ211aを
回転駆動し、そのモータ211aの回転駆動によってア
クチュエータワイヤ212を巻き取る処理(アクチュエ
ータワイヤ212をアクチュエータワイヤ212の長手
方向に移動させる処理)を行う。制御部24は、情報処
理装置8からの指示に従って、モータ211aの回転駆
動が所定のトルクで所定時間なされるように動力発生部
211を制御する。動力発生部211は、情報処理装置
8からの指示に従ってモータ211aに回転動力を与え
ることで、アクチュエータワイヤ212を所定の長さ巻
き取る処理を行う。
【0086】ワイヤ保持部213は、図4(A)に示す
ように、この実施形態では指の第1間接の近傍でアクチ
ュエータワイヤ212の一端(終端)を保持する。この
ワイヤ保持部213は、例えばゴムやバネなどの弾性を
有する部材(弾性体)により構成される。
【0087】従って、動力発生部211のモータ211
aの駆動によりアクチュエータワイヤ212が巻き取ら
れ、そのアクチュエータワイヤ212が図4(A)中の
時計回りに移動すると、それに伴ってワイヤ保持部21
3が伸張し、アクチュエータワイヤ212は、ワイヤ保
持部213の復元力(弾性力)により、図4(A)中の
反時計回りの方向(触覚提示ピン214を突出させると
きのアクチュエータワイヤ212の移動方向と逆方向)
に付勢される。そして、動力発生部211のモータ21
1aの駆動が停止し、アクチュエータワイヤ212の巻
き取り状態が解除されると、ワイヤ保持部213が復元
力(弾性力)によって収縮し、これにより、巻き取られ
ていたアクチュエータワイヤ212が引き出され、図4
(A)中の反時計回りに移動する。
【0088】なお、動力発生部211は、アクチュエー
タワイヤ212の他端(始端)側に位置している。
【0089】触覚提示ピン214は、ユーザの指腹に接
触感覚(接触の有無や強さ等)を与えるために用いら
れ、指腹に接触する部分である微小な接触板(接触部)
214aと、接触板214aを支持する支持部214b
とで構成される。支持部214bは、その一端がアクチ
ュエータワイヤ212の途中に固定され、その他端に接
触板214aが設けられている。
【0090】この実施形態では、図4(A)に示すよう
に、リアルグローブ20の手袋2aは、指先を装着する
(覆う)装着部が2重構造(例えば布などの部材を2枚
重ね合わせて、重ね合わせた2枚の部材の間に何らかの
部材が収納し得るような構造)になっており、指先を覆
っている部分の内部(2重構造の内部)に、前記アクチ
ュエータワイヤ212の一部、ワイヤ保持部213およ
び支持部214bと、触覚提示ピン214のアクチュエ
ータワイヤ212の移動方向への移動を規制する触覚提
示ピン支持部215とが設けられている。そして、指が
収納される手袋2a内に、支持部214bの一端側が突
出し、接触板214aが位置している。
【0091】この実施形態では、その接触板214a
は、リアルグローブ20を装着した手の指先に常に接触
した状態となっている。なお、これに限らず、接触板2
14aが指先から離間した状態(接触板214aと指先
とが非接触の状態)をとり得るように構成されていても
よい。
【0092】図4(A)では、説明を簡単にするため、
1つの単位触覚発生部210(1つの触覚提示ピン21
4)が代表して示されているが、前述したように、実際
には、触覚発生部21は、複数の単位触覚発生部210
を有しており、その複数の触覚提示ピン214は、ユー
ザがリアルグローブ20を装着したときのユーザの指先
の指腹に対応する位置に、例えば、指腹に沿って、かつ
指腹に対し行列状(マトリックス状)に配置されてい
る。
【0093】各触覚提示ピン214の前後には、それぞ
れ、その触覚提示ピン214の支持部214bのアクチ
ュエータワイヤ212の移動方向への移動を制限する触
覚提示ピン支持部215が設けられている。
【0094】なお、前記各触覚提示ピン214は、規則
的に配置されていてもよく、また、不規則に配置されて
いてもよい。
【0095】次に、触覚発生部21による触覚発生動作
について説明する。ユーザがリアルグローブ20を装着
し、手や指を動かすことによって仮想空間に現れている
物体(仮想物体)、すなわち対象物に、その指先(指
腹)が仮想的に接触すると、情報処理装置8は、実際に
接触があったとした場合の押圧力を計算し、その計算結
果に基づいて動力発生部211のPWMデータ(例え
ば、モータ211aを回転させるための励磁パターンを
示すデータ)に変換する。
【0096】この場合、前記仮想空間(3次元空間)に
おいて、予め、互いに直交するX軸、Y軸およびZ軸、
すなわちX−Y−Z座標(3次元座標)が想定されてお
り、前記物体の座標と、前記ユーザの指先の座標との一
致を検出し、その一致が検出されると、物体の前記座標
に相当する部位とユーザの指先の前記座標に相当する部
位とが接触したと判別する。ユーザの指先の座標は、後
述する位置姿勢検出部23から信号送受信部26を介し
て情報処理装置8に送信される信号(情報)に基づいて
導出される。
【0097】次いで、情報処理装置8は、導出したPW
Mデータと、実際に接触があったとした場合の接触位置
に押圧力を与える接触板214aを動作させる動力発生
部211を特定(指定)するためのデータとを、リアル
グローブ20に送信する。リアルグローブ20は、受信
したPWMデータに応じて、指定された動力発生部21
1を駆動し、アクチュエータワイヤ212を巻き取る。
【0098】アクチュエータワイヤ212が巻き取られ
ると、指腹に配されているアクチュエータワイヤ212
が指腹に沿って指の先端方向に向けて移動し、図4
(B)に示すように、アクチュエータワイヤ212に取
付固定されている触覚提示ピン214も、指腹に沿って
指の先端方向に向けて移動する。
【0099】この際、図4(C)に示すように、触覚提
示ピン214は、触覚提示ピン支持部215によって指
の先端方向への移動が制限されるとともに、触覚提示ピ
ン支持部215にガイドされて、図4(C)中上側へ移
動する(指腹に向って突出する)。すなわち、触覚提示
ピン214の接触板214aが指腹の表面に対しほぼ垂
直上方に移動する。触覚提示ピン214の支持部214
bは、待機時には(初期状態では)、図4(B)に示す
ように、垂直方向から指の先端方向に傾斜しており、前
記接触板214aがほぼ垂直上方に移動しようとする力
が働くことで、その接触板214aが指腹をほぼ垂直方
向へ押圧し、これにより、ユーザの手の指腹に押圧力を
与える。
【0100】この動作が、複数の単位触覚発生部210
のうちの指定された単位触覚発生部210でなされ、こ
れにより、ユーザの手の指腹に触覚が提示される(与え
られる)。よって、ユーザは、仮想空間画像における指
腹の物体(対象物)への接触に相当する感覚を、指腹に
得ることができる。
【0101】前記指定された単位触覚発生部210にお
いて、動力発生部211のモータ211aの駆動が停止
し、アクチュエータワイヤ212の巻き取り状態が解除
されると、ワイヤ保持部213が復元力(弾性力)によ
って収縮し、これにより、巻き取られていたアクチュエ
ータワイヤ212が引き出される。
【0102】アクチュエータワイヤ212が引き出され
ると、指腹に配されているアクチュエータワイヤ212
が指腹に沿って指の基端方向(図4(C)中右側)に向
けて移動し、アクチュエータワイヤ212に取付固定さ
れている触覚提示ピン214も、指腹に沿って指の基端
方向に向けて移動し、触覚提示ピン214は、図4
(B)に示す初期状態に戻る。これにより、触覚提示ピ
ン214からユーザの手の指腹に与えられていた押圧力
が実質的に消滅する。
【0103】このような触覚発生部21によれば、指腹
に対してほぼ平行に(指腹に沿って)アクチュエータワ
イヤ212を配置し、そのアクチュエータワイヤ212
を巻き取ることによって指腹に対してほぼ垂直な力を与
えるようになっているので、触覚を与えるための機構を
薄くすることができ、これにより、リアルグローブ20
の指腹側の厚みを極力抑えることができる。
【0104】また、アクチュエータワイヤ212の弛み
を防止することができ、触覚提示ピン214からユーザ
の指腹に、より正確かつ確実に目標の大ききの押圧力を
与えることができる。
【0105】図5および図6は、それぞれ、力覚発生部
22の構成例を示す外観図である。なお、図5は、フレ
ームカバーが取り外された状態を示す。
【0106】図5に示すように、力覚発生部22は、リ
アルグローブ20を装着したときのユーザの各指の背側
に設けられている。なお、力覚発生部22の構成および
作用は、ほぼ同様であるので、以下、代表的に、そのう
ちの1つについて説明する。
【0107】力覚発生部22は、回動可能に連結された
複数(本実施形態では6つ)のフレーム221を備えた
リンク機構と、各フレーム221を回動させる複数(本
実施形態では7つ)のリンクモータ(駆動源)222
と、手袋2aに設けられた複数(本実施形態では4つ)
のフレームホルダ2bとを有している。
【0108】前記フレームホルダ2bは、ユーザがリア
ルグローブ20を装着したとき、ユーザの指の第1関節
より先端側に位置する装着部と、第1関節と第2関節
(中節骨と基節骨との間の関節)との間に位置する装着
部と、第2関節と第3関節との間に位置する装着部と、
第3関節(基節骨と中手骨との間の関節)より基端側に
位置する装着部とに、それぞれ、設けられている。
【0109】リンク機構は、前記フレームホルダ2bに
よって、手袋2aの、リアルグローブ20を装着したと
きのユーザの指の背側に取り付けられている。
【0110】すなわち、リンク機構の先端側(図5中右
側)の端部のフレーム221は、ユーザがリアルグロー
ブ20を装着したときに、ユーザの指の第1関節より先
端側の部位にその端部が位置するように配置され、この
フレーム221の先端部は、フレームホルダ2bに対
し、回動可能に設置されている。
【0111】また、リンク機構の基端側(図5中左側)
の端部のフレーム221は、ユーザがリアルグローブ2
0を装着したときに、ユーザの指の第3関節より基端側
の部位にその端部が位置するように配置され、このフレ
ーム221の基端部は、フレームホルダ2bに対し、回
動可能に設置されている。
【0112】また、リンク機構の残りの各フレーム22
1は、ユーザがリアルグローブ20を装着したときに、
ユーザの指の第1関節と第2関節との間の部位と、第2
関節と第3関節との間の部位とに、フレーム連結部が1
つおきに位置するように配置され、この1つおきのフレ
ーム連結部において、フレームホルダ2bに対し、回動
可能に設置されている。
【0113】各リンクモータ222の駆動力(回転力)
は、それぞれ、図示しない動力伝達部を介して、対応す
るフレーム221に伝達される。すなわち、リンクモー
タ222が所定方向に回転駆動すると、対応するフレー
ム221は、所定方向に回動し、これにより、フレーム
221の角度が変更(調整)される。
【0114】なお、図5には、前述したアクチュエータ
ワイヤ212の束212aが示されている。
【0115】力覚発生部22の各フレーム221や各リ
ンクモータ222は、それぞれ、図6に示すように、例
えば布製のフレームカバー2cの中に収納されている。
【0116】また、図6に示すように、フレームカバー
2cの内側には、手や指の所定の部位の位置および姿勢
を検出する複数(本実施形態では4つ)の位置姿勢検出
部(位置検出手段)23が設置されている。各位置姿勢
検出部23は、それぞれ、位置および姿勢を検出する部
位(検出位置)に対して一定の位置関係を保持し得るよ
うに設けられている。
【0117】すなわち、各位置姿勢検出部23は、それ
ぞれ、この実施形態では、フレームホルダ2bが設けら
れている位置に固定されている各リンクモータ222に
取付固定されている。従って、各位置姿勢検出部23が
設けられている部位と、ユーザの手のひら側の所定の部
位との位置関係は、一定に保たれる。よって、位置姿勢
検出部23が自己の位置や姿勢を検出することによっ
て、ユーザの手の平側の所定の部位の位置や姿勢を容易
かつ正確に導出することができる。
【0118】また、各位置姿勢検出部23は、それぞ
れ、手の甲側に配置されているので、リアルグローブ2
0の指腹側の厚みを極力抑えることができる。
【0119】また、図3に示すように、位置姿勢検出部
23は、ユーザがリアルグローブ20を装着したとき、
リアルグローブ20の腕の基端側の部位に相当する位置
にも設置されている。
【0120】これら位置姿勢検出部23により、リアル
グローブ20を装着した各指、手、手首、腕などの各部
の位置および姿勢を確実に把握することができる。
【0121】次に、力覚発生部22による力覚発生動作
について説明する。ユーザがリアルグローブ20を装着
し、手や指を動かすことによって仮想空間に現されてい
る物体(仮想物体)、すなわち対象物に、その手や指が
仮想的に接触すると、情報処理装置8は、後述する演算
処理部81によって、実際に接触があった場合の前記物
体から指(指の各関節)への反力を計算し、その計算結
果に基づいて各リンクモータ222のPWMデータ(例
えば、リンクモータ222を回転させるための励磁パタ
ーンを示すデータ)に変換する。
【0122】前記物体とユーザの手や指との接触の判別
は、前記触覚発生部21の場合と同様である。
【0123】情報処理装置8は、導出した各PWMデー
タと、駆動させる各リンクモータ222を示すデータと
をリアルグローブ20に送信する。リアルグローブ20
は、受信したデータに応じて、指定された各リンクモー
タ222を所定方向に回転駆動し、対応する各フレーム
221を所定方向に回動させ、各フレーム221の角度
を調整、すなわち、リンク機構の両端部のフレーム22
1の角度および各フレーム連結部の角度をそれぞれ調整
する。
【0124】このフレーム221の角度調整により、所
定のフレームホルダ2bにそれぞれ所定の大きさの力が
加わり、これにより、前記仮想空間に現されている物体
からの反力に対応する力がユーザの指の各関節に与えら
れる。すなわち、指の各関節に対して力覚が提示される
(与えられる)。
【0125】ここで、この力覚発生部22は、指の複数
の部位に装着する複数の装着部間の間隔を調節する機能
を有している(調節手段を兼ねている)。
【0126】例えば、図5に示すように、所定のフレー
ム221を回動させ、フレーム221の角度を調整する
ことにより、各フレームホルダ2b間の間隔を長くした
り、または、短くしたりすることができる。
【0127】図7は、リアルグローブ20の位置姿勢検
出部23の構成例を示すブロック図である。位置姿勢検
出部23には、本実施形態では、直交コイル式(直交コ
イル型)の位置センサが用いられる。すなわち、位置姿
勢検出部23は、図7に示すように、X方向検出コイル
231と、Y方向検出コイル232と、Z方向検出コイ
ル233とで構成される。なお、X方向と、Y方向と、
Z方向とは、互いに直交している。
【0128】一方、情報処理装置8には、磁界を発生す
る後述する磁界発生部88が設けられている。この磁界
発生部88には、例えば、前記位置姿勢検出部23とほ
ぼ同じ構成のもの、すなわち、直交コイル式(直交コイ
ル型)の磁界発生器(X方向コイル、Y方向コイル、Z
方向コイル)が用いられる。
【0129】この磁界発生部で発生した磁界は、位置姿
勢検出部23で検出される。この場合、磁界発生部のX
方向コイル、Y方向コイル、Z方向コイルの順に時分割
で磁界を発生し、それぞれコイルから発生された磁界
を、位置姿勢検出部23のX方向検出コイル231、Y
方向検出コイル232およびZ方向検出コイル233の
3つのコイルで検出する。
【0130】位置姿勢検出部23によってXYZ各方向
について検出された各信号(検出データ)は、それぞ
れ、信号処理部25の増幅部251にて増幅され、A/
D変換部252にてデジタル信号に変換された後、図2
に示す信号送受信部26に出力され、この信号送受信部
26により情報処理装置8に送信される。
【0131】情報処理装置8では、前記信号を受信し、
その信号(情報)に基づいて、リアルグローブ20を装
着した各指、手、手首、腕などの各部の位置および姿勢
を導出し、その情報を所定の各処理において利用する。
【0132】仮想空間表示装置5には、この実施形態で
は、顔面に装着して使用する形態のもの、すなわち、H
MD(ヘッドマウントディスプレイ)と呼ばれる眼鏡状
の装置が用いられる。
【0133】図8は、仮想空間表示装置5の外観構成例
を示す斜視図であり、図9は、仮想空間表示装置5の回
路構成例を示すブロック図である。
【0134】仮想空間表示装置5は、装着者(ユーザ)
に対して仮想空間画像を表示する画像表示部51a、5
1bと、装着者の視線を検出する視線検出部52a、5
2bと、周囲の画像(映像)を取り込む凹凸入力部53
a、53bと、装置全体の制御を行う制御部54と、情
報処理装置8と信号を送受信する信号送受信部55と、
ユーザの視点を検出する位置姿勢検出部(位置検出手
段)56と、耳に引っかけて保持する装着部57と、各
種信号を処理する信号処理部58と、三次元加速度セン
サ59とを備えている。
【0135】図10は、仮想空間表示装置5の凹凸入力
部53aの構成例を示す図(ブロック図、模式図)であ
る。この図10において、凹凸入力部53aは、レンズ
531と、CCD(撮像素子)532と、CCD制御部
533と、CCD出力増幅部534とを有している。
【0136】レンズ531に入射した光(光束)は、そ
のレンズ531により、CCD532の受光面(撮像
面)上に導かれて結像し、その被写体像(周囲の像)
は、CCD532により撮像される。このCCD532
の駆動は、CCD制御部533により制御される。
【0137】CCD532から出力された信号は、CC
D出力増幅部534で増幅され、その後、凹凸入力部5
3aから出力され、図9に示す信号処理部58に入力さ
れる。そして、信号処理部58において所定の信号処理
がなされ、信号送受信部55により情報処理装置8に送
信される。
【0138】なお、凹凸入力部53bの構成および作用
は、前記凹凸入力部53aと同様であるので、その説明
は、省略する。
【0139】図11は、仮想空間表示装置5の画像表示
部51aの構成例を示す図(ブロック図、模式図)であ
る。この図11において、画像表示部51aは、レンズ
511と、レンズ511を移動させるレンズ移動機構5
12と、ステッピングモータ513と、モータ制御部5
14と、図示しないカラーフィルタを備えた液晶表示パ
ネル515と、液晶駆動部516と、バックライト51
7と、バックライト制御部518と、トランジスタ51
9とを有している。
【0140】画像表示部51aにおいて仮想空間画像を
表示する際は、バックライト制御部518の制御によ
り、トランジスタ519がオンし、バックライト517
が駆動し、バックライト517から液晶表示パネル51
5へ光が照射される。
【0141】そして、液晶駆動部516は、制御部54
から入力される表示信号(画像データ)に基づいて、液
晶表示パネル515の駆動を制御し、これにより、液晶
表示パネル515に仮想空間画像が表示される。
【0142】装着者(ユーザ)は、レンズ511および
後述する視線検出部52aのハーフミラー521を介
し、この液晶表示パネル515に表示された仮想空間画
像を視認することができる。
【0143】ステッピングモータ513の駆動は、モー
タ制御部514により制御され、そのステッピングモー
タ513が所定方向に回転すると、レンズ移動機構51
2により、レンズ511は、液晶表示パネル515に接
近する方向、すなわち、装着者の目から離間する方向へ
移動する。
【0144】また、ステッピングモータ513が前記と
逆方向に回転すると、レンズ移動機構512により、レ
ンズ511は、液晶表示パネル515から離間する方
向、すなわち、装着者の目に接近する方向へ移動する。
【0145】このレンズ511の位置の変更により、前
記仮想空間画像の遠近を変更することができる。
【0146】このレンズ511の位置の調整、すなわ
ち、前記仮想空間画像の遠近の調整は、後述する視線検
出部52a、52bで検出される装着者の視線の情報に
基づいてなされる。
【0147】なお、画像表示部51bの構成および作用
は、前記画像表示部51aと同様であるので、その説明
は、省略する。
【0148】視線検出部52a、52bは、装着者の視
線がどの方向にあるか(仮想空間画像のどこに焦点を合
わせようとしているか)を検出する機能と、セキュリテ
ィ情報として利用するための装着者の眼の虹彩パターン
を読み取る機能とを有している。
【0149】図12は、仮想空間表示装置5の視線検出
部52aの構成例を示す図(ブロック図、模式図)であ
る。この図12において、視線検出部52aは、ハーフ
ミラー521と、可視光を除去し、赤外光を透過させる
フィルタ522と、レンズ523と、CCD(撮像素
子)524と、CCD制御部525と、CCD出力増幅
部526と、赤外光を発するLED(発光ダイオード)
527と、LED制御部528と、トランジスタ529
とを有している。
【0150】LED527の駆動は、LED制御部52
8により制御され、そのLED制御部528の制御によ
りトランジスタ529がオンすると、LED527が駆
動し、LED527から赤外光が発せられる。
【0151】LED527から発せられた赤外光は、フ
ィルタ522を透過し、ハーフミラー521でその一部
が反射して、装着者の目に照射される。
【0152】そして、装着者の目からの反射光(光束)
は、ハーフミラー521でその一部が反射して、フィル
タ522を透過し、レンズ523により、CCD524
の受光面(撮像面)上に導かれて結像し、その被写体像
(装着者の目の像)は、CCD524により撮像され
る。このCCD524の駆動は、CCD制御部525に
より制御される。
【0153】CCD524から出力された信号は、CC
D出力増幅部526で増幅され、その後、視線検出部5
2aから出力され、図9に示す信号処理部58に入力さ
れ、所定の信号処理がなされ、信号送受信部55により
情報処理装置8に送信される。
【0154】情報処理装置8では、仮想空間表示装置5
からの信号を受信し、その信号(情報)に基づいて、装
着者の視線がどの方向にあるか(仮想空間画像のどこに
焦点を合わせようとしているか)を検出するとともに、
装着者の眼の虹彩パターンを読み取り、解析し、セキュ
リティ情報として利用する。
【0155】一方、レンズ523側からフィルタ522
へ入射する可視光は、フィルタ522で除去され、その
可視光が装着者の目に照射されてしまうのを阻止するこ
とができる。これにより、液晶表示パネル515に表示
された仮想空間画像の視認性の低下を防止することがで
きる。
【0156】なお、視線検出部52bの構成および作用
は、前記視線検出部52aと同様であるので、その説明
は、省略する。
【0157】この仮想空間表示装置5は、2台の画像取
込装置(撮像手段)、すなわち、前記凹凸入力部53
a、53bによって周囲の画像を撮像して取り込み、情
報処理装置8に対して撮像した画像データ(映像デー
タ)を送信する。
【0158】情報処理装置8は、凹凸入力部53a、5
3bにて撮像された画像、すなわち撮像された画像デー
タから視角差を導出し、その視角差等から得られる周囲
の凹凸に基づいて、仮想空間画像、すなわち仮想空間の
画像データを作成する。そして、情報処理装置8は、作
成した仮想空間の画像(映像)と、例えば、仮想壁紙や
仮想パーソナルコンピュータや仮想本などの所定の仮想
物体を周囲の凹凸に合わせて仮想空間に配置するための
画像とを合成した合成画像(合成映像)を示す画像デー
タ(映像データ)を仮想空間表示装置5に送信する。
【0159】仮想空間表示装置5は、情報処理装置8か
らの画像データに基づいて、その画像を画像表示部51
a、51bを用いて表示する。
【0160】また、仮想空間表示装置5は、装着されて
いるリアルグローブ20、すなわち、ユーザの手や腕が
画像表示部51a、51bにより表示されている画像の
領域内に入っている場合には、その手や腕に対応する画
像も、画像表示部51a、51bに表示する。
【0161】この場合、前述したように、リアルグロー
ブ20に設けられている複数の位置姿勢検出部23の検
出データが情報処理装置8に送信されることで、リアル
グローブ20の位置および姿勢、すなわち、ユーザの各
指、手、手首、腕等は情報処理装置8にて認識される。
すなわち、情報処理装置8は、逐一、リアルグローブ2
0からの前記検出データに基づいて、ユーザの各指、
手、手首、腕等の位置および姿勢を特定し、それらが画
像表示部51a、51bにより表示されている画像の領
域内に入っている場合には、それらを示す仮想空間画像
を作成し、その画像を基礎の画像に合成して、合成画像
(合成画像の画像データ)を得、その画像データを仮想
空間表示装置5に送信する。
【0162】従って、ユーザの手や腕が画像表示部51
a、51bにより表示されている画像の領域内に入って
いる場合には、その手や腕に対応する画像が、画像表示
部51a、51bに表示される。
【0163】そして、リアルグローブ20を装着した手
や指の実際の動作に連動し、画像表示部51a、51b
に表示されている仮想空間画像においてその手や指が動
く。
【0164】位置姿勢検出部56は、仮想空間表示装置
5の位置および姿勢、すなわち、装着者の顔面(頭部)
の位置および姿勢を検出するためのセンサである。この
位置姿勢検出部56には、本実施形態では、直交コイル
式の位置センサ、すなわち、前記位置姿勢検出部23と
同様のものが用いられる。
【0165】位置姿勢検出部56からの信号(検出デー
タ)は、信号処理部58に入力され、所定の信号処理が
なされ、信号送受信部55により逐一情報処理装置8に
送信される。情報処理装置8は、この検出データに基づ
いて、所定の時間間隔で逐一仮想空間画像を更新する。
【0166】従って、例えば仮想空間表示装置5を装着
したユーザが首を動かした場合には、画像表示部51
a、51bに表示される仮想空間画像は、ユーザが向い
ている方向に合致した画像となるように変化する。
【0167】三次元加速度センサ59は、仮想空間表示
装置5の略直交する三方向への加速度を検出するもので
あり、HMDに内蔵可能なものであって、ある程度の精
度を有するものであれば、圧電型でも、サーボ型でも、
ひずみゲージ型などのいずれでもよい。しかしながら、
本発明では、CMOSを用いた半導体加速度センサのよ
うに、より高精度な加速度センサが適する。
【0168】この三次元加速度センサ59で検出された
信号(加速度データ)は、信号処理部58に出力され、
増幅などの所定の信号処理がなされた後、信号送受信部
55を介して情報処理装置8に送信される。なお、この
加速度データは、HMD5の移動速度を演算する際に用
いられるが、本発明では必須の構成ではないので、その
説明を省略する。
【0169】図13は、図1に示す情報処理装置8の回
路構成例を示すブロック図である。この図13におい
て、情報処理装置8は、演算処理部(演算手段)81
と、衝突判定部(衝突判定手段)82と、画像生成部
(画像生成手段)83と、制御部(制御手段)84と、
記憶部(記憶手段)85と、信号処理部86と、信号送
受信部(通信手段)87と、磁界発生部88とを備えて
いる。
【0170】演算処理部81は、上述のリアルグローブ
20の指や手が仮想空間内の対象物に接触した場合に
は、その対象物がどのようなものであるかを判断して、
それから指(指の各関節)への反力を演算し、その演算
結果からリアルグローブ20の各リンクモータ222の
PWMデータに変換し、その変換データを信号処理部8
6および信号送受信部87を介してリアルグローブ20
に送信する。
【0171】衝突判定部82は、リアルグローブ20の
各指が仮想空間内の仮想の対象物と衝突したか否かを判
定するものである。衝突判定部82によって判定された
判定結果は、制御部84に出力される。
【0172】本発明では、衝突判定部82は、指と仮想
のPC画面との衝突の他、指とPC画面上に表示される
アイコンの衝突も判定する(指位置判定手段)。この判
定結果も同様に制御部84に出力される。
【0173】画像生成部83は、制御部84の指示によ
り、予め基地局9から受信した仮想空間画像、あるいは
仮想空間表示装置5の凹凸入力部53a、53bによっ
て撮像され、その撮像画像から変換された仮想空間画像
に、ユーザの腕や指などの映像を重ね合わせて、合成さ
れた仮想空間画像を生成し、それを信号処理部86に出
力する。また、画像生成部83は、仮想空間中に表示さ
れるリアルグローブ20または仮想空間表示装置5の移
動にともない、所定の時間間隔で仮想空間画像を更新し
て生成し、それを信号処理部86に出力する。
【0174】制御部84は、衝突判定部82の判定結果
に基づいて、演算処理部81に上述の反力を演算させ
る。また、制御部84は、上述の演算処理部81、衝突
判定部82、および画像生成部83の動作を制御し、そ
の演算結果、衝突判定結果、および生成画像データなど
を記憶部85の所定の格納領域に保存するとともに、信
号処理部86および信号送受信部87を介して、対応す
る装置にそれらを送信する。
【0175】また、制御部84は、本発明では、衝突判
定部82によって指と上記アイコンとが一致した(すな
わち、指がアイコンにタッチした、あるいは、指でアイ
コンを掴んだ)と判定される場合には、そのアイコンに
関連付けられるアプリケーションソフトウェアを起動し
(アプリケーション起動手段)、仮想空間表示装置5を
してPC画面よりも手前にそれを表示させる。
【0176】記憶部85は、プログラムやデータ等が予
め記憶されている、図示しないコンピュータに読み取り
可能な記憶媒体(記録媒体ともいう。特許請求の範囲に
おいては記録媒体とする)を有しており、この記憶媒体
は、例えば、RAM(RandomAccess Memory:揮発性、
不揮発性のいずれをも含む)、FD(Floppy Disk(Flo
ppyは登録商標))、HD(Hard Disk)、CD−ROM
(Compact Disc Read-Only Memory)等のような、磁気
的、光学的記録媒体、もしくは半導体メモリで構成され
ている。この記憶媒体は、記憶部85に固定的に設けた
もの、もしくは着脱自在に装着するものであり、この記
憶媒体には、上記仮想空間表示装置5、情報処理装置
8、および触覚・力覚提示装置2に対応する各種アプリ
ケーションプログラム、アプリケーション起動処理プロ
グラム、アプリケーション終了処理プログラム、および
各処理プログラムで処理されたデータ、文書データ等が
記憶される。
【0177】また、この記憶媒体に記憶するプログラ
ム、データ等は、その一部もしくは全部をサーバやクラ
イアント(本実施の形態では、基地局9など)等の他の
機器からネットワーク回線(例えば、インターネット、
電話回線など)等の伝送媒体を介して信号送受信部87
から受信して記憶する構成にしてもよく、さらに、記憶
媒体はネットワーク上に構築された基地局9のサーバの
記憶媒体であってもよい。さらに、前記プログラムをネ
ットワーク回線等の伝送媒体を介してサーバやクライア
ントから伝送して情報処理装置8にインストールするよ
うに構成してもよい。また、上記プログラムは、前述し
た機能の一部を実現するためのものであって良く、さら
に前述した機能をコンピュータシステムにすでに記録さ
れているプログラムとの組み合わせで実現できるもので
あってもよい。
【0178】信号処理部86は、仮想空間表示装置5や
触覚・力覚提示装置2に送信する画像データや制御信号
などの増幅等の信号処理を行う。信号送受信部87は、
信号処理部86において処理された各種信号やデータを
仮想空間表示装置5や触覚・力覚提示装置2などの外部
機器との通信を行うための制御を行う。
【0179】磁界発生部88は、詳細は図示されていな
いが、例えば、図7の位置姿勢検出部23に対応する直
交コイル式(直交コイル型)の磁界発生器(X方向コイ
ル、Y方向コイル、Z方向コイル)である。この磁界発
生部88は、制御部84からの指示により、X、Y、Z
方向コイルの順で磁界を発生し、リアルグローブ20の
位置姿勢検出部23の各方向の検出コイル231、23
2および233に発生した磁界を検出させるとともに、
仮想空間表示装置5の位置姿勢検出部56にも磁界を検
出させる。
【0180】なお、この磁界発生部88は、図示のよう
に情報処理装置8に格納されてもよいが、磁界発生装置
として情報処理装置8とは別構成としてもよい。特に、
情報処理装置8として携帯電話機やPDAを用いるとき
は、その内部に磁界発生部を後から設けることができな
いので、別構成とすることが有用である。このように別
に磁界発生装置(又は磁界発生部)を設けたとしても、
その制御は、情報処理装置8からの制御信号によってな
される。
【0181】次に、第1の実施の形態の画像処理装置1
の動作(作用)について説明する。ここでは、ユーザ
が、画像処理装置1を利用して、仮想空間に現れている
仮想パーソナルコンピュータの操作を行う場合を例に説
明する。
【0182】ユーザは、各部の電源を入れ、リアルグロ
ーブ20を両手にそれぞれ装着し、眼鏡状の仮想空間表
示装置5をかける(顔面に装着する)。すると、仮想空
間表示装置5の画像表示部51a、51bに、仮想パー
ソナルコンピュータを含む仮想空間画像が表示される。
【0183】また、ユーザの腕が画像表示部51a、5
1bで表示されている仮想空間画像内に入るようにすれ
ば、情報処理装置8の画像生成部83にて作成されたそ
の手や腕の画像が仮想空間画像に仮想物体として表示さ
れる。そして、ユーザが手や指を動かした場合には、そ
の実際の手や指の動きに連動して、仮想空間画像におい
て、表示されている手や指が動く。
【0184】情報処理装置8は、衝突判定部82によっ
て、仮想空間画像における対象物、すなわち本実施形態
では、例えば、仮想パーソナルコンピュータの一部(例
えばキーボード)と、ユーザの指の一部が同一座標とな
ったことを検出すると、演算処理部81の演算結果に基
づいて、リアルグローブ20に対して、触覚および力覚
を発生させるための指示を行う。具体的には、情報処理
装置8は、リアルグローブ20に対して、演算処理部8
1が演算した反力の演算結果から得た、駆動させる動力
発生部211およびその駆動に用いるPWMデータや、
駆動させるリンクモータ222およびその駆動に用いる
PWMデータなどを、信号送受信部87を介して送信す
る。
【0185】リアルグローブ20は、情報処理装置8か
らの指示に従って、指定された各動作発生部211を、
それぞれ、指定されたトルクで指定された時間だけPW
M制御により駆動する。これにより、仮想パーソナルコ
ンピュータの一部と同一座標となった部分に配置されて
いる各触覚提示ピン214の接触板214aが突出し、
仮想パーソナルコンピュータの一部と同一座標となった
ユーザの各指先に対して触覚が与えられる。すなわち、
各指先に、接触感覚、質感、形状、強さ等の感覚が与え
られる。
【0186】同時に、リアルグローブ20は、情報処理
装置8からの指示に従って、指定された各リンクモータ
222を、それぞれ、指定されたトルクで指定された時
間だけPWM制御により駆動する。これにより、実在す
るパーソナルコンピュータの例えばキーボードに触れて
いるときに各指の各関節に与えられる力覚、すなわち、
前記各指の各関節に与えられる押圧力(反力)に相当す
る力がユーザの各指の各関節に対して与えられる。
【0187】また、ユーザが、さらに仮想パーソナルコ
ンピュータのキーを押し込む方向に指を動かすと、指の
座標変化に合わせて、画像表示部51a、51bに、キ
ーを押し込む様子を示す仮想空間画像が表示される。
【0188】この場合、情報処理装置8は、押下された
キーに基づく表示状態の変化を仮想空間画像で再現する
ための仮想空間画像の画像データを画像生成部83にお
いて生成し、それを仮想空間表示装置5に送信する処理
を行い、仮想空間表示装置5は、前記情報処理装置8か
ら受信した仮想空間画像の画像データに基づいて、仮想
パーソナルコンピュータのディスプレイにキーの押下が
反映された表示がなされる画像を表示する。
【0189】以上説明したように、この触覚・力覚提示
装置2および画像処理装置1によれば、リアルグローブ
20の装着および取り外しを容易かつ確実に行うことが
でき、また、仮想空間における動作(操作)を容易かつ
確実に行うことができる。
【0190】また、仮想空間画像に応じて、各指に対し
て触覚および力覚をそれぞれ正確かつ確実に提示するこ
とができる。
【0191】これにより、ユーザは、仮想空間における
動作(操作)を、快適に、容易かつ確実に、行うことが
できる。
【0192】特に、触覚発生部21において、アクチュ
エータワイヤ212の弛みを防止することができ、各触
覚提示ピン214からそれぞれユーザの各指腹に、より
正確かつ確実に目標の大ききの押圧力を与えることがで
きる。
【0193】これにより、ユーザは、仮想空間画像にお
ける各指腹の物体(対象物)への接触に相当する感覚
を、より正確かつ確実に各指腹で感じることができる。
【0194】また、触覚発生部21では、各指腹に対し
てほぼ平行に(指腹に沿って)アクチュエータワイヤ2
12が配置され、そのアクチュエータワイヤ212を巻
き取ることによって各指腹に対してほぼ垂直な力を与え
るようになっているので、触覚を与えるための機構を薄
くすることができ、これにより、リアルグローブ20の
指腹側の厚みを極力抑えることができる。
【0195】また、力覚発生部22はリンク機構を有し
ているので、指を伸ばしている状態、指を曲げている状
態のいずれにおいても対応することができ、これによ
り、より確実に、各指に対して力覚を与えることができ
る。
【0196】本発明の画像処理装置および画像処理方法
によれば、読み終えた仮想の本が仮想の壁あるいは本棚
に、ユーザに背表紙を向けるように正対して表示される
ので、ユーザは、HMDでその仮想の本が見やすく、次
に読む際に視覚的に検索しやすいとともに、その本のあ
る位置がユーザにとって直感的で、記憶にとどめやすい
という効果を有する。
【0197】なお、上述した実施形態では、使用例とし
て仮想空間画像にて表示されているパーソナルコンピュ
ータを仮想的に操作する場合について説明したが、本発
明では、これに限らず、例えば、仮想本などの他の物品
を取扱うために使用することもできる。仮想本を取扱う
場合には、例えば、仮想本の縁をさわったりページをめ
くったりするときに、実際の本の縁をさわったりページ
をめくったりするときに指に加わる触感や力感を感じる
ことができる。
【0198】また、本発明では、仮想空間画像が表示さ
れなくてもよい。すなわち、仮想空間画像に対応した所
定のデータがあり、そのデータに基づいて、指に対して
触覚や力覚を提示するよう構成されていてもよい。
【0199】次に、本発明の触覚・力覚提示装置および
画像処理装置の第2実施形態について説明する。図14
は、第2実施形態の触覚・力覚提示装置の触覚発生部の
構成例を示す縦断面図である。
【0200】以下、第2実施形態の触覚・力覚提示装置
2および画像処理装置1について、前述した第1実施形
態との相違点を中心に説明し、同様の事項については、
その説明を省略する。
【0201】図14(A)に示すように、第2実施形態
の触覚・力覚提示装置2では、その触覚発生部21の各
単位触覚発生部(アクチュエータ)210は、それぞ
れ、モータ(駆動源)211aを備える動力発生部(移
動手段)211と、長手方向に移動可能に設置されたア
クチュエータワイヤ(可撓性を有する線状体)212
と、触覚を発生させるために指腹を押圧する触覚提示部
216とを有している。
【0202】触覚提示部216は、ユーザの指腹に接触
感覚(接触の有無や強さ等)を与えるために用いられ、
例えば、板バネのような弾性を有する部材(弾性体)で
形成される。この場合、触覚提示部216は、適度な剛
性を有するのが好ましく、例えば、各種金属で構成され
た弾性体で形成することができる。
【0203】この触覚提示部216は、第1の板片(押
圧部)216aと、第2の板片(スライド部)216b
とで構成されている。第1の板片216aと第2の板片
216bとは、一端側において接合されており、第1の
板片216aの他端側には、指腹に接触する部分である
微小な接触部216cが設けられている。この接触部2
16cは、例えば、第1の板片216aの端部を第2の
板片216b側に向けて屈曲させることによって形成す
ることができる。
【0204】また、触覚提示部216の前記一端側、す
なわち、図14(A)中左側の端部は、図14(A)中
下側に凸となるように湾曲している。
【0205】第1の板片216aと、第2の板片216
bとの間には、第1の板片216aの移動方向を規制す
る円柱状のガイド部(移動方向規制手段)217が設置
されている。
【0206】また、触覚提示部216の図14(A)中
下側には、押え板218が設置されており、触覚提示部
216は、この押え板218に沿って移動(スライド)
し得るようになっている。この場合、触覚提示部216
は、その図14(A)中左側の端部が湾曲しているの
で、円滑かつ確実に移動することができる。
【0207】前記ガイド部217は、押え板218に固
定され、押え板218は、手袋2aに固定されている。
すなわち、ガイド部217および押え板218は、共
に、手袋2aに対して固定的に設置されている。
【0208】また、触覚提示部216の第2の板片21
6bの図14(A)中右側の端部には、アクチュエータ
ワイヤ212の一端が固定されている。
【0209】動力発生部211のモータ211aの駆動
によりアクチュエータワイヤ212が巻き取られると、
そのアクチュエータワイヤ212は、指腹に沿って図1
4(A)中右側(指の基端方向)に移動し、これととも
にアクチュエータワイヤ212に取付固定されている触
覚提示部216も指腹に沿って図14(A)中右側に移
動する。
【0210】この際、図14(B)に示すように、触覚
提示部216の第1の板片216aは、ガイド部217
によって図14(B)中右側への移動が制限されるとと
もに、ガイド部217にガイドされて、図14(B)中
上側へ移動する(指腹に向って突出する)。すなわち、
触覚提示部216が弾性変形し、その第1の板片216
aの姿勢が図14(B)に示す姿勢に変更されること
で、接触部216cは、指腹の表面に対しほぼ垂直上方
に移動する(押し上げられる)。
【0211】一方、アクチュエータワイヤ212は、触
覚提示部216の復元力(弾性力)により、図14
(B)中左側(第1の板片216aを突出させるときの
アクチュエータワイヤ212の移動方向と逆方向)に付
勢される。すなわち、この触覚提示部216(第1の板
片216a)は、付勢手段を兼ねる。
【0212】前記接触部216cがほぼ垂直上方に移動
しようとする力が働くことで、その接触部216cが指
腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の
指腹に押圧力を与える。
【0213】この動作が、複数の単位触覚発生部210
のうちの指定された単位触覚発生部210でなされ、こ
れにより、ユーザの手の指腹に触覚が提示される(与え
られる)。よって、ユーザは、仮想空間画像における指
腹の物体(対象物)への接触に相当する感覚を、指腹に
得ることができる。
【0214】前記指定された単位触覚発生部210にお
いて、動力発生部211のモータ211aの駆動が停止
し、アクチュエータワイヤ212の巻き取り状態が解除
されると、触覚提示部216の復元力(弾性力)と、ユ
ーザの指からの圧力によって、触覚提示部216は、図
14(A)に示す初期状態に戻る。これにより、触覚提
示部216からユーザの手の指腹に与えられていた押圧
力が実質的に消滅する。
【0215】この触覚・力覚提示装置2および画像処理
装置1によれば、前述した第1実施形態と同様の効果が
得られる。
【0216】次に、本発明の触覚・力覚提示装置および
画像処理装置の第3実施形態について説明する。
【0217】図15は、第3実施形態の触覚・力覚提示
装置のリアルグローブの外観構成例を示す外観図(一部
図示を省略)である。なお、図15中では、図3に示す
触覚発生部21、動力発生部211、力覚発生部22、
位置姿勢検出部23、制御部24および電力供給部30
等は、図示されていない。
【0218】以下、第3実施形態の触覚・力覚提示装置
2および画像処理装置1について、前述した第1実施形
態との相違点を中心に説明し、同様の事項については、
その説明を省略する。
【0219】図15に示すように、第3実施形態の触覚
・力覚提示装置2では、リアルグローブ20の手袋2a
の筒状部20aの肘側(基端側)の端部に、空気(エア
ー)の注入による空気圧(圧力)により腕に固定する形
態(エアー注入方式)の腕固定部2dが設けられてい
る。
【0220】この腕固定部2dは、空気が注入される袋
状の腕固定部本体21dと、その腕固定部本体21dに
設けられたエアー注入部22dとで構成されている。腕
固定部本体21dの外観形状は、筒状をなしている。
【0221】エアー注入部22dの中空部は、腕固定部
本体21dの内部に連通しており、エアー注入部22d
の先端部には、蓋体23dが設けられている。
【0222】蓋体23dをエアー注入部22dの先端部
に装着すると、腕固定部本体21d内の気密性が保持さ
れ、蓋体23dを取り外すと、腕固定部本体21dに対
し、エアー注入部22dを介して、空気の注入および排
出を行うことができる。
【0223】このような腕固定部2dは、各ユーザに応
じて、例えば、ゴム型等の型を用いて、ユーザの腕の形
状に合うように成形される。
【0224】ユーザは、リアルグローブ20を装着する
際は、まず、その手袋2aを装着し、次に、腕固定部2
dの腕固定部本体21d内に、空気を注入する。
【0225】この空気注入では、例えば、エアー注入部
22dの先端部から蓋体23dを取り外し、そのエアー
注入部22dから腕固定部本体21d内に空気を吹き込
む。そして、所定量の空気を注入し終えると、エアー注
入部22dの先端部に蓋体23dを装着する。
【0226】このようにして、リアルグローブ20は、
腕固定部2dの空気圧によりユーザの腕に固定されると
ともに、手首固定部28の復元力(弾性力)によりユー
ザの手首に固定される。
【0227】また、ユーザは、リアルグローブ20を取
り外す際は、まず、腕固定部2dの腕固定部本体21d
内から空気を排出し、次に、リアルグローブ20を手か
ら取り外す。
【0228】この触覚・力覚提示装置2および画像処理
装置1によれば、前述した第1実施形態と同様の効果が
得られる。
【0229】そして、この触覚・力覚提示装置2では、
腕固定部2dがエアー注入方式のものであるので、リア
ルグローブ20の装着および取り外しを容易かつ迅速に
行うことができる。
【0230】なお、本発明では、触覚発生部21の単位
触覚発生部210を、前述した第2実施形態のように構
成してもよい。
【0231】次に、本発明の触覚・力覚提示装置および
画像処理装置の第4実施形態について説明する。
【0232】図16は、第4実施形態の触覚・力覚提示
装置の位置姿勢検出部の構成例を示すブロック図、図1
7は、第4実施形態の触覚・力覚提示装置の位置姿勢検
出部の構成例を示す外観図(一部図示を省略)、図18
は、図17に示す位置姿勢検出部のZ方向検出センサの
構成例を示す外観図である。なお、図17および図18
中において、それぞれ、互いに直交するX軸、Y軸およ
びZ軸を想定する。
【0233】以下、第4実施形態の触覚・力覚提示装置
2および画像処理装置1について、前述した第1実施形
態との相違点を中心に説明し、同様の事項については、
その説明を省略する。
【0234】第4実施形態の触覚・力覚提示装置2で
は、位置姿勢検出部(位置検出手段)23として、例え
ば、コリオリ力を利用して互いに直交するX軸、Y軸お
よびZ軸の回りの角速度をそれぞれ検出するジャイロセ
ンサ(ジャイロスコープ)を用いる。
【0235】そして、この触覚・力覚提示装置2では、
凹凸入力部(撮像手段)53a、53bにより周囲を撮
像し、その撮像された周囲の画像に指に対応する部分が
含まれている場合には、凹凸入力部53a、53bから
の画像データ(映像データ)に基づいて指の位置を求
め、前記撮像された周囲の画像に指に対応する部分が含
まれていない場合には、前記各位置姿勢検出部23によ
り指の位置を検出し、各位置姿勢検出部23からの情報
に基づいて指の位置を求める。
【0236】図17に示すように、位置姿勢検出部23
は、ケーシング60と、ケーシング60内に設けられ、
X軸の回りの角速度を検出するX方向検出センサ(第1
の検出センサ)61、Y軸の回りの角速度を検出するY
方向検出センサ(第2の検出センサ)62およびZ軸の
回りの角速度を検出するZ方向検出センサ(第3の検出
センサ)63とを有している。
【0237】図18に示すように、Z方向検出センサ6
3は、エリンバー(基台)64と、エリンバー64に設
置された振動用の圧電素子(振動用圧電素子)65およ
び検出用の圧電素子(検出用圧電素子)66とで構成さ
れている。このZ方向検出センサ63は、2本のワイヤ
67、68により支持されている。
【0238】エリンバー64の形状は、Z軸方向に長い
略直方体をなしており、その略直交する2つの面の一方
に前記振動用圧電素子65が設置され、他方に検出用圧
電素子66が設置されている。この場合、Y軸に対して
垂直な面に、振動用圧電素子65が配置され、X軸に対
して垂直な面に、検出用圧電素子66が配置されている
が、その配置を逆にしてもよい。
【0239】このZ方向検出センサ63の振動用圧電素
子65に図16に示す交流電源69から交流電圧が印加
されると、その振動用圧電素子65は、X軸方向に振動
(屈曲振動)し、これによりエリンバー64もX軸方向
に振動する。このとき、Z軸の回りに回転(角速度)が
生じると、その角速度に対応したレベルの電圧(信号)
が検出用圧電素子66から検出される。
【0240】なお、X方向検出センサ61およびY方向
検出センサ62の構成は、前記Z方向検出センサ63と
同様であるので、その説明は省略する。それらの作用
は、X軸の回りに回転(角速度)が生じると、その角速
度に対応したレベルの電圧(信号)がX方向検出センサ
61の検出用圧電素子66から検出され、Y軸の回りに
回転(角速度)が生じると、その角速度に対応したレベ
ルの電圧(信号)がY方向検出センサ62の検出用圧電
素子66から検出される。
【0241】図16に示すように、位置姿勢検出部23
のX方向検出センサ61によって検出されたX軸の回り
の角速度に対応した信号(検出データ)と、Y方向検出
センサ62によって検出されたY軸の回りの角速度に対
応した信号(検出データ)と、Z方向検出センサ63に
よって検出されたZ軸の回りの角速度に対応した信号
(検出データ)とは、それぞれ、信号処理部25の増幅
部251にて増幅され、A/D変換部252にてデジタ
ル信号に変換された後、図2に示す信号送受信部26に
出力され、この信号送受信部26により情報処理装置8
に送信される。
【0242】情報処理装置8では、前記信号を受信し、
その信号(情報)に基づいて、リアルグローブ20を装
着した各指、手、手首、腕などの各部の位置および姿
勢、すなわち、前記各部の座標を導出し、その情報を所
定の各処理において利用するために記憶部85の所定の
格納領域に保存する。
【0243】次に、第4の実施の形態における画像処理
装置1の動作(作用)について説明する。ここで、リア
ルグローブ20を装着した各指、手、手首、腕などの各
部の位置および姿勢を求める方法以外は、前述した第1
実施形態と同様であるので、その説明は、省略する。
【0244】使用に先立って、ユーザは、まず、凹凸入
力部53a、53bにより撮像される周囲の画像にリア
ルグローブ20の指等の検出する部位に対応する部分が
含まれるようにする。これにより、画像処理装置1にお
いて初期設定がなされる。
【0245】この初期設定では、仮想空間表示装置5
は、2台の画像取込装置(撮像手段)、すなわち、凹凸
入力部(撮像手段)53a、53bによって周囲の画像
を撮像して取り込み、情報処理装置8に対して撮像した
画像データ(映像データ)を送信する。
【0246】この場合、凹凸入力部53a、53bにて
撮像された画像にはリアルグローブ20の指等の検出す
る部位に対応する部分が含まれているので、情報処理装
置8は、凹凸入力部53a、53bにて撮像された画
像、すなわち撮像された画像データに基づいて前記指等
の位置および姿勢(座標)を求める。この求められた位
置および姿勢は、それぞれ、基準位置および基準姿勢、
すなわち基準状態とされ、その基準位置および基準姿勢
の情報は、情報処理装置8の記憶部85の所定の領域に
保存される。
【0247】前記初期設定が終了すると、使用可能状態
となり、仮想空間表示装置5は、凹凸入力部(撮像手
段)53a、53bによって周囲の画像を撮像して取り
込み、情報処理装置8に対して撮像した画像データを送
信する。
【0248】情報処理装置8の制御部84(判別手段)
は、凹凸入力部53a、53bにて撮像された画像、す
なわち撮像された画像データに基づいて、凹凸入力部5
3a、53bにて撮像された画像にリアルグローブ20
の指等の検出する部位に対応する部分が含まれているか
否かを判別する。
【0249】そして、前記撮像された画像に前記指等の
検出する部位に対応する部分が含まれている場合には、
情報処理装置8は、前記撮像された画像データに基づい
て前記指等の位置および姿勢(座標)を求める。この求
められた位置および姿勢は、それぞれ、基準位置および
基準姿勢とされる。すなわち、記憶部85に記憶されて
いる基準位置および基準姿勢の情報は、前記新たな基準
位置および基準姿勢の情報に書き換えられる。
【0250】逆に、前記撮像された画像に前記指等の検
出する部位に対応する部分が含まれていない場合には、
情報処理装置8は、前記各位置姿勢検出部23からの信
号(情報)に基づいて、前記指等の位置および姿勢(座
標)を求める。この場合、各位置姿勢検出部23からの
情報からは、前記基準位置および基準姿勢に対する相対
的な位置および姿勢が求まり、その相対的な位置および
姿勢の情報と、前記基準位置および基準姿勢の情報とに
基づいて、前記指等の位置および姿勢が求められる。
【0251】この触覚・力覚提示装置2および画像処理
装置1によれば、前述した第1実施形態と同様の効果が
得られる。
【0252】そして、この触覚・力覚提示装置2では、
手および各指の所定の部位の位置および姿勢を正確かつ
確実に求めることができるとともに、位置姿勢検出部2
3としてジャイロセンサを用いることにより、コストを
低減することができる。
【0253】なお、本実施形態では、位置姿勢検出部
(位置検出手段)23は、ジャイロセンサで構成されて
いるが、本発明では、これに限定されない。
【0254】また、本発明では、触覚発生部21の単位
触覚発生部210を、前述した第2実施形態のように構
成してもよい。
【0255】また、本発明では、腕固定部2dを、前述
した第3実施形態のように、空気(エアー)の注入によ
る空気圧(圧力)により腕に固定する形態(エアー注入
方式)のものにしてもよい。
【0256】なお、詳細には説明しないが、上述の構成
を仮想空間表示装置5の位置姿勢検出部56に適用する
こともできる。この場合にも、前述した第1実施形態と
同様の効果が得られる。
【0257】次に、図19〜図21のフローチャートを
参照して、上記実施の形態の各構成、とりわけ第1の実
施の形態の構成に基づいて、本発明の画像処理装置の動
作を説明する。ここで、これらのフローチャートに記述
されている各機能を実現するためのプログラムは、コン
ピュータに読み取り可能なプログラムコードの形態で記
憶部85の記録媒体に格納されており、制御部84はこ
のプログラムコードにしたがった動作を逐次実行する。
また、制御部84は、上述のように、伝送媒体を介して
伝送されてきた上述のプログラムコードにしたがった動
作を逐次実行することもできる。すなわち、記録媒体の
他、伝送媒体を介して外部供給されたプログラム/デー
タを利用してこの実施の形態に特有の動作を実行するこ
ともできる。
【0258】図19および図20は、本発明の画像処理
装置におけるアプリケーション起動処理を示すフローチ
ャートであり、図21は、本発明の画像処理装置におけ
るアプリケーション終了処理を示すフローチャートであ
る。なお、これらのフローチャートは、第1の実施形態
における各構成要素に基づいて説明される。
【0259】まず、図19および図20を用いてアプリ
ケーション起動処理を説明する。本発明の画像処理装置
1は、電源が投入されて、仮想空間中に仮想のPCを表
示し、ユーザがこのPCを使用しているとき、このアプ
リケーション起動処理を実行している。なお、実際の画
像処理装置1では、キーボードの操作などをする処理も
同時に実行されているが、説明の明確さのために、PC
画面(液晶画面でもCRT(Cathode-Ray Tube)でもよ
い)上に表示されているアイコン(特許請求の範囲で
は、仮想の表示物)からアプリケーションを起動するこ
と(機能発現手段に対応する)に特化したフローチャー
トを用いて説明する。
【0260】リアルグローブ20は、位置姿勢検出部
(指位置検出手段)23によってユーザの指(および
手)の位置を検出し(ステップS101)、信号処理部
25で所定の信号処理を行った後、信号送受信部(通信
手段)26を介して検出された位置信号を情報処理装置
8に送信する(ステップS102)。
【0261】情報処理装置8が信号送受信部(通信手
段)87を介してこの検出信号を受信すると、制御部8
4は、検出された指の位置が、画像生成部(画像生成手
段)83において生成され、仮想空間表示装置(表示手
段)5に既に送信した現在の仮想空間画像における指の
位置(ここでは、記憶部85に保存されている)から移
動しているか否かを判断する(ステップS103)。指
の移動を検知しない場合には、制御部84は何らの指示
も出すことなく、画像処理装置1は、ステップS101
に戻り、同様の処理を繰り返す。
【0262】ステップS103において、指の移動を検
知した場合には、制御部84は、画像生成部83にその
指の位置データに基づいて仮想空間画像を更新して生成
させ(ステップS104)、移動した指の位置データと
更新された仮想空間画像とを記憶部(記憶手段)85の
所定の格納領域に保存するとともに、信号処理部86お
よび信号送受信部87を介して更新された画像データを
仮想空間表示装置(HMD)5に送信する。この画像デ
ータを受信したHMD5は、制御部54の指示により、
その画像データを画像表示部51aおよび51bに表示
する(ステップS105)。ここまでの一連の処理は、
本発明の画像処理装置1の電源が投入されている間、常
時行われている。
【0263】それと同時に、情報処理装置8では、衝突
判定部(判定手段)82は、制御部84の指示により、
仮想のPC画面(特許請求の範囲では、仮想空間中に形
成される平面)とユーザの指の座標が一致したか否か、
すなわち、仮想のPC画面とユーザの指が衝突したか否
かを判断する(ステップS106)。そして、座標が一
致していない場合には、画像処理装置1は、ステップS
101に戻り、同様の処理を繰り返す。
【0264】逆に両者の座標が一致した場合には、演算
処理部81は、対象物(ここでは、PC画面)に基づい
て、PC画面から指への反力を演算し、信号処理部86
および信号送受信部87を介してこの演算データをリア
ルグローブ20に送信する。ここで、演算された反力デ
ータは、制御部84の指示により、記憶部85の所定の
格納領域に保存される。反力の演算データを受信したリ
アルグローブ20では、制御部(制御手段)24は、そ
の演算データに基づいて、触覚発生部21および力覚発
生部22(触覚・力覚提示手段)を駆動して触覚および
力覚を発生させる(ステップS107)。
【0265】ステップS108において、仮想のPC画
面と指の座標が一致し、ユーザの指が触覚および力覚を
感じている状態において、衝突判定部82は、PC画面
上に表示されているアイコンと指の座標が一致したか否
かを判断する。なお、フローチャートでは示されない
が、指の位置は常に検出され、指が移動した場合には、
画像生成部83は、仮想空間画像を更新して生成してい
る。ここで、「アイコンと指の座標が一致」とは、親指
を含む複数本の指で所定のアイコンを掴んでいる状態を
いう。
【0266】アイコンと指の座標が一致していないと判
断された場合には、衝突判定部82は、今度は、PC画
面と指との座標がずれたか否かを判断する(ステップS
109)。実際には、仮想のPC画面は平面であるの
で、指の座標がPC画面の平面座標よりも手前にずれた
か、すなわち、指がPC画面と衝突しなくなったか否か
を判断する。そして、制御部84は、PC画面と指の座
標がずれたときは、リアルグローブ20に対して、指に
発生させていた触覚および力覚を解除するための制御信
号を信号送受信部87に送信させ、リアルグローブ20
の制御部24は、その制御信号に基づいて、触覚発生部
21および力覚発生部22から発生している触覚・力覚
を解除させ(ステップS110)、一旦このアプリケー
ション起動処理を終了する。逆に、PC画面と指の座標
がずれていないときは、ステップS108に移行して同
様の判断をする。
【0267】アイコンと指が一致したと判断された場合
には、演算処理部81は、アイコンから指への反力を演
算し、信号処理部86および信号送受信部87を介して
この演算データをリアルグローブ20に送信する。ここ
で、演算された反力データは、制御部84の指示によ
り、記憶部85の所定の格納領域に保存される。反力の
演算データを受信したリアルグローブ20では、制御部
24は、その演算データに基づいて、触覚発生部21お
よび力覚発生部22を駆動して触覚および力覚を発生さ
せる(ステップS111)。
【0268】ステップS112において、制御部84
は、アイコンを掴んだまま、指がPC画面から手前に移
動されたか否かを判断する(特許請求の範囲では、同時
に移動した場合を判定する判定手段に対応する)。すな
わち、指がPC画面の平面座標からずれてPC画面の外
側の手前に移動したか否かが判断される。指がPC画面
から手前に移動していない場合には、まだPC画面に指
が衝突している状態であるが、制御部84は、アイコン
と指の座標がずれたか否かを判断し(ステップS11
3)、ずれていない場合には、ステップS112に戻
り、同様の判断を繰り返す。逆に指とアイコンの座標が
ずれた場合には、今まで掴んでいたアイコンが離された
ことを意味するが、未だに指はPC画面に衝突している
ので、ステップS108に移行して、再度別のあるいは
同じアイコンと指との座標が一致するか否かが判断され
る。
【0269】ステップS112において指が手前に移動
した場合には、制御部84は、続けてアイコンと指の座
標がずれたか否かを判断する(ステップS114)。ず
れていないときは、PC画面内にそのアイコンを戻す場
合も考えられるために、PC画面と指の座標が再度一致
したか否かが判断され(ステップS115)、座標が一
致しない場合には、ステップS114に移行して同様の
判断が繰り返される。逆にPC画面と指の座標が一致し
たときは、ステップS111に移行して再度触覚および
力覚が発生される。ここで、アイコンと指の座標がずれ
ていないときの一連の動作では、ユーザの指にアイコン
が掴まれた状態であり、そのときにPC画面と指の座標
が一致すると、そのPC画面上に、ユーザの指に掴まれ
たままでアイコンが表示される。
【0270】ステップS114においてアイコンと指の
座標がずれた場合には、衝突判定部82は、アイコンと
指が衝突していないと判定し、リアルグローブ20の制
御部24は、その判定結果に基づいて、触覚発生部21
および力覚発生部22に触覚および力覚を解除させる
(ステップS116)。そして、制御部84は、PC画
面から取り出されたアイコンに関連付けられている所望
のアプリケーションソフトウェアを起動して(ステップ
S117)、そのアプリケーションの操作画面をPC画
面の手前に表示させるように、画像生成部83に指示す
る。生成された画像データは、信号処理部86および信
号送受信部87を介して、HMD5に送信される。HM
D5では、画像表示部51がその画像データに基づい
て、アプリケーションの操作画面をPC画面の手前に表
示し(ステップS118)、このアプリケーション起動
処理を終了する。このようにアプリケーションが起動
し、実行可能な状態にすることを、特許請求の範囲で
は、「機能発現手段」と称する。
【0271】ここで、このアプリケーション起動処理で
は、仮想のPC画面よりも手前に起動したアプリケーシ
ョンソフトウェアの操作画面を表示する構成を示した
が、起動したアプリケーションはPC画面内に表示さ
れ、その一部、例えば、電子メールソフトの添付ファイ
ルをPC画面から手前に取り出して、その関連するアプ
リケーションを起動するとともにそれを手前に表示する
ような構成とすることもできる。その一例として、仮想
空間中のPC画面中の電子メールに添付された三次元C
ADファイルを掴む場合の概念図を図22に示す。この
添付ファイルは、例えば、CADを用いて立体的に作成
された体温計であり、図22に示すように添付ファイル
のアイコンを掴んで、手前に引っぱり出すと、三次元C
ADソフトウェアが起動して、図23(A)に示される
ように、仮想空間上では、PC画面の手前に表示された
三次元の体温計を掴むことができる。この意味におい
て、本発明における「アイコン」とは、デスクトップ上
に表示される場合にはアプリケーションソフトウェアの
アイコンを意味するが、それに限られず、電子メールに
おける添付ファイルや、各種ボタン(それにより仮想空
間内で何らかの機能が発現するような)なども含まれ
る。
【0272】なお、現実空間では、図23(B)に示さ
れるように、ユーザの顔面にはHMD5が装着されると
ともに、ユーザの手および指にはリアルグローブ20が
装着されている。
【0273】また、フローチャートでは示されないが、
上述のアプリケーション起動処理において所望のアプリ
ケーションソフトウェアが起動されると、PC画面の手
前に表示されたまま、そのアプリケーションを実行(使
用)することができる。例えば、起動されたアプリケー
ションがワードプロセッサソフトウェア(以下、「ワー
プロ」という)であり、その画面表示方法として印刷プ
レビューが設定されると、仮想空間では、ちょうどPC
画面の手前にワープロデータが印刷(プリントアウト)
されたように表示される。このとき、本発明の画像処理
装置1では、リアルグローブ20を用いて、印刷された
ように表示された用紙を掴み、それをめくることなども
できるので、ワープロデータを印刷することなく、誤字
・脱字など誤植の文章チェックをすることができる。そ
れにより、紙資源を使わなくても済むという特有の効果
を奏する。
【0274】なお、このアプリケーション起動処理で
は、指でアイコンを掴み出すことにより、所望のアプリ
ケーションが起動することとしたが、指をポインタに見
立てて仮想のPC画面上のアイコンにタッチすることに
より、そのアプリケーションが起動することとしてもよ
い。
【0275】また、上記アプリケーション起動処理によ
り起動されたアプリケーションソフトウェアがPC画面
よりも手前に三次元表示されている場合に、そのアプリ
ケーション画面(ウィンドウ)上に指で触れることによ
り、あるいはその画面上に仮想のペンなどにより文字を
書いたり線を引いたりすることにより、直接アプリケー
ションが動作するように、構成されてもよい。
【0276】さらに、仮想空間中で起動されるアプリケ
ーションソフトウェアは、画像のみで構成されるものだ
けでなく、例えば、映像と音声を組み合わせて動作し、
あるいは、音声のみを動作するようなものでもよい。
【0277】次に、図21を用いてアプリケーション終
了処理について説明する。指の移動を検知し、それにと
もなって仮想空間画像を更新して作成し、その画像をH
MD5に表示するまでのフローは、上述のアプリケーシ
ョン起動処理の場合と同様である(ステップS201〜
S205)。
【0278】ステップS206において、制御部84
は、上記アプリケーション起動処理において仮想のPC
画面の手前に表示されているアプリケーション画面の所
定の位置と指の座標が一致したか否かを判断する。
【0279】「所定の位置」としては、例えば、アプリ
ケーション画面の右上に表示される終了ボタンの位置や
左上に表示されるファイルメニューの位置が想定される
が、これに限られず、ユーザの利便性を考慮して適当な
位置とすればよい。上記具体例で示した体温計など手で
掴める大きさのものであればそのまま掴んでも問題ない
が、そうでない場合には、上記のように予め所定の位置
を決めておくか、仮想空間画像を表示するアプリケーシ
ョンにおいて所定の表示がなされている。もちろん、ア
プリケーション画面を掴もうとすると、その画面表示が
小さくなるように構成されてもよい。
【0280】両者の座標が一致しない場合には、ステッ
プS201に移行して、同様の処理を繰り返す。両者の
座標が一致した場合には、情報処理装置8の演算処理部
81は、アプリケーション画面から指への反力を演算し
(あるいは、予め設定または演算されている演算結果を
記憶部85から読み出し)、信号処理部86および信号
送受信部87を介してこの演算データをリアルグローブ
20に送信する。ここで、演算された反力データは、制
御部84の指示により、記憶部85の所定の格納領域に
保存される。反力の演算データを受信したリアルグロー
ブ20では、制御部24は、その演算データに基づい
て、触覚発生部21および力覚発生部22を駆動して触
覚および力覚を発生する(ステップS207)。
【0281】それと同時に、制御部84は、対応するア
プリケーションを終了し(ステップS208)、そのア
プリケーションをアイコン化して指に掴まれた状態で表
示する(ステップS209)。このとき、文書などのフ
ァイルを保存などする処理は、各アプリケーションソフ
トウェアの各種プログラムに基づいてなされる。
【0282】その後、確認のために、制御部84は、ア
イコンと指の座標がずれたか否かを判断する(ステップ
S210)。ずれた場合には、そのアイコンに関連付け
られているアプリケーションを再起動し(S211)、
ステップS206に移行して、同様の処理を繰り返す。
もちろん、ユーザは、そのままそのアプリケーションを
使用することも可能である。
【0283】アイコンと指の座標がずれていない場合、
衝突判定部82は、続いてPC画面と指の座標が一致し
たか否かを判断する(ステップS212)。座標が一致
しない場合、ステップS210に移行して、同様の処理
を繰り返す。
【0284】アイコンと指の座標がずれずにPC画面と
指の座標が一致した場合には、情報処理装置8の演算処
理部81は、PC画面から指への反力を演算し(あるい
は、演算結果を記憶部85から読み出し)、信号処理部
86および信号送受信部87を介してこの演算データを
リアルグローブ20に送信する。ここで、演算された反
力データは、制御部84の指示により、記憶部85の所
定の格納領域に保存される。反力の演算データを受信し
たリアルグローブ20では、制御部24は、その演算デ
ータに基づいて、触覚発生部21および力覚発生部22
を駆動して触覚および力覚を発生する(ステップS21
3)。それと同時に、対応するアプリケーションのアイ
コンがPC画面上に表示されるように、画像生成部83
は更新して仮想空間画像を生成し、この画像データをH
MD5に送信する。HMD5の画像表示部51は、受信
した画像データに基づいて、仮想空間画像の仮想のPC
画面上にアイコンを表示し(ステップS214)、この
アプリケーション終了処理を終える。
【0285】以上のように、本発明の画像処理装置1
は、アプリケーション起動処理において、仮想のPC画
面上に表示されているアイコンをタッチあるいは掴み出
すことにより、対応するアプリケーションソフトウェア
を起動し、PC画面よりも手前にそのアイコンに関連付
けられているアプリケーションソフトウェアのウィンド
ウを表示し、その後のアプリケーションの処理をPC画
面よりも手前に三次元表示したままでできるように構成
した。また、アプリケーション終了処理において、PC
画面手前に表示されているアプリケーションウィンドウ
を直接掴んで、あるいは所定の位置をタッチしあるいは
掴んでアイコン化し、そのアイコンをPC画面に押し込
むことにより、そのアプリケーションソフトウェアを終
了するように構成した。
【0286】したがって、本発明の画像処理装置および
画像処理方法によって、仮想空間において、ユーザによ
って、直感的で使いやすい(利用しやすい)操作性を提
供することができる。
【0287】以上、本発明の画像処理装置の構成を、図
示の実施形態に基づいて説明したが、本発明はこれに限
定されるものではなく、各部の構成は、同様の機能を有
する任意の構成のものに置換することができる。
【0288】また、本発明では、前記各実施形態の任意
の2以上の構成(特徴)を適宜組み合わせてもよい。
【0289】
【発明の効果】以上説明したように、本発明によれば、
仮想空間において、ユーザにとって、直感的で使いやす
い(利用しやすい)操作性を有する画像処理装置および
画像処理方法を提供することができるという特有の効果
を奏する。
【図面の簡単な説明】
【図1】 本発明の触覚・力覚提示装置の第1実施形態
およびその触覚・力覚提示装置を有する画像処理装置の
構成例を示す概念図である。
【図2】 図1に示すリアルグローブの回路構成例を示
すブロック図である。
【図3】 図1に示すリアルグローブの外観構成例を示
す外観図(一部図示を省略)である。
【図4】 図1に示すリアルグローブの触覚発生部の構
成例を示す縦断面図である。
【図5】 図1に示すリアルグローブの力覚発生部の構
成例を示す外観図である。
【図6】 図1に示すリアルグローブの力覚発生部の構
成例を示す外観図である。
【図7】 図1に示すリアルグローブの位置姿勢検出部
の構成例を示すブロック図である。
【図8】 図1に示す仮想空間表示装置の外観構成例を
示す斜視図である。
【図9】 図1に示す仮想空間表示装置の回路構成例を
示すブロック図である。
【図10】 図1に示す仮想空間表示装置の凹凸入力部
の構成例を示す図(ブロック図、模式図)である。
【図11】 図1に示す仮想空間表示装置の画像表示部
の構成例を示す図(ブロック図、模式図)である。
【図12】 図1に示す仮想空間表示装置の視線検出部
の構成例を示す図(ブロック図、模式図)である。
【図13】 図1に示す情報処理装置の回路構成例を示
すブロック図である。
【図14】 第2実施形態の触覚・力覚提示装置の触覚
発生部の構成例を示す縦断面図である。
【図15】 第3実施形態の触覚・力覚提示装置のリア
ルグローブの外観構成例を示す外観図(一部図示を省
略)である。
【図16】 第4実施形態の触覚・力覚提示装置の位置
姿勢検出部の構成例を示すブロック図である。
【図17】 第4実施形態の触覚・力覚提示装置の位置
姿勢検出部の構成例を示す外観図(一部図示を省略)で
ある。
【図18】 図17に示す位置姿勢検出部のZ方向検出
センサの構成例を示す外観図である。
【図19】 本発明の画像処理装置におけるアプリケー
ション起動処理の一部を示すフローチャートである。
【図20】 本発明の画像処理装置におけるアプリケー
ション起動処理の一部を示すフローチャートである。
【図21】 本発明の画像処理装置におけるアプリケー
ション終了処理を示すフローチャートである。
【図22】 本発明の画像処理装置における仮想空間中
のPC画面中の電子メールに添付された三次元CADフ
ァイルを掴む場合の概念図の一例である。
【図23】 本発明の画像処理装置における仮想空間中
の体温計を掴んでいる状態と、現実空間における状態の
概念図の一例である。
【符号の説明】
1……画像処理装置 2……触覚・力覚提示装置 2a
……手袋 2b……フレームホルダ 2c……フレーム
カバー 2d……腕固定部 20……リアルグローブ
20a……筒状部 21……触覚発生部 21a……開
口 21d……腕固定部本体 210……単位触覚発生
部 211……動力発生部 211a……モータ 21
2……アクチュエータワイヤ 212a……束 213
……ワイヤ保持部 214……触覚提示ピン 214a
……接触板 214b……支持部 215……触覚提示ピン支持部 216……触覚提示部
216a……第1の板片 216b……第2の板片
216c……接触部 217……ガイド部 218……
押え板 22……力覚発生部 22d……エアー注入部
221……フレーム 222……リンクモータ 23
……位置姿勢検出部 23d……蓋体 231……X方向検出コイル 232……Y方向検出コ
イル 233……Z方向検出コイル 24……制御部
25……信号処理部 251……増幅部 252……A
/D変換部 26……信号送受信部 27……遊び吸収
部 28……手首固定部 29……ねじれ吸収部 29
1……帯状部 292……開口 30……電力供給部
5……仮想空間表示装置 51a、51b……画像表示
部 511……レンズ 512……レンズ移動機構 5
13……ステッピングモータ 514……モータ制御部
515……液晶表示パネル 516……液晶駆動部
517……バックライト 518……バックライト制御
部 519……トランジスタ 52a、52b……視線検出部 521……ハーフミラ
ー 522……フィルタ 523……レンズ 524…
…CCD 525……CCD制御部 526……CCD
出力増幅部 527……LED 528……LED制御
部 529……トランジスタ 53a、53b……凹凸
入力部 531……レンズ 532……CCD 533
……CCD制御部 534……CCD出力増幅部 54
……制御部 55……信号送受信部 56……位置姿勢
検出部 57……装着部 58……信号処理部 59…
…三次元加速度センサ 60……ケーシング 61……
X方向検出センサ 62……Y方向検出センサ 63…
…Z方向検出センサ 64……エリンバー 65……振
動用圧電素子 66……検出用圧電素子 67、68…
…ワイヤ 69……交流電源 8……情報処理装置 8
1……演算処理部 82……衝突判定部 83……画像生成部 84……制
御部 85……記憶部 86……信号処理部 87……信号送受信部 88……
磁界発生部 9……基地局
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA08 BA08 BA09 CA06 CA07 EA24 FA01 FA05 FA08 FA10 5B087 AA09 BC05 BC06

Claims (38)

    【特許請求の範囲】
  1. 【請求項1】 仮想空間画像を生成する画像生成手段
    と、 前記画像生成手段によって生成された仮想空間画像を表
    示する表示手段と、 指の位置を検出する指位置検出手段と、 前記指位置検出手段によって検出された指が仮想の表示
    物に衝突したか否かを判定する判定手段と、 前記判定手段によって前記指と前記表示物が衝突したと
    判定される場合には、前記仮想空間内に該表示物に関連
    付けられている機能を発現させる機能発現手段と、 を備えることを特徴とする画像処理装置。
  2. 【請求項2】 仮想空間画像を生成する画像生成手段
    と、 前記画像生成手段によって生成された仮想空間画像を表
    示する表示手段と、 指の位置を検出する指位置検出手段と、 前記指位置検出手段によって検出された指が移動したと
    き、その移動にともなって仮想の表示物が移動したか否
    かを判定する判定手段と、 前記判定手段によって前記指と前記表示物が同時に移動
    したと判定される場合には、前記仮想空間内に該表示物
    に関連付けられている機能を発現させる機能発現手段
    と、 を備えることを特徴とする画像処理装置。
  3. 【請求項3】 前記画像生成手段によって生成された画
    像データおよび前記判定手段によって判定された判定結
    果を記憶する記憶手段をさらに備えることを特徴とする
    請求項1または2に記載の画像処理装置。
  4. 【請求項4】 前記画像生成手段は、前記指位置検出手
    段により検出された前記指の位置に基づいて、所定の時
    間間隔で仮想の指画像を含む仮想空間画像を更新して生
    成する請求項1ないし3のいずれかに記載の画像処理装
    置。
  5. 【請求項5】 前記指位置検出手段は、それらの中心軸
    が互いに略直交する、第1のコイル、第2のコイルおよ
    び第3のコイルを有する直交コイル式の位置検出手段で
    あることを特徴とする請求項1ないし4のいずれかに記
    載の画像処理装置。
  6. 【請求項6】 前記指位置検出手段は、互いに略直交す
    るX軸、Y軸およびZ軸の回りの角速度をそれぞれ検出
    するジャイロセンサを有する請求項1ないし5のいずれ
    かに記載の画像処理装置。
  7. 【請求項7】 前記表示手段は、顔面に装着して使用す
    るものである請求項1ないし6のいずれかに記載の画像
    処理装置。
  8. 【請求項8】 前記表示手段は、前記画像生成手段によ
    り生成された仮想空間画像データを受信する通信手段を
    含むことを特徴とする請求項1ないし7のいずれかに記
    載の画像処理装置。
  9. 【請求項9】 前記発現された機能は、仮想空間におけ
    る映像および/または音の出力であり、 該機能が映像の場合において、前記判定手段により前記
    指が機能を発現されている映像の所定の位置に衝突し、
    あるいは該位置とともに移動したと判定されるときに
    は、前記機能を終了させる機能終了手段をさらに備える
    請求項1ないし8のいずれかに記載の画像処理装置。
  10. 【請求項10】 前記機能終了手段により機能を終了さ
    せられた前記表示物を初めの状態に戻して前記仮想空間
    中に表示する表示物表示手段をさらに備える請求項9に
    記載の画像処理装置。
  11. 【請求項11】 前記仮想の表示物は、仮想空間中に形
    成される平面上に二次元的に配置される請求項1ないし
    10のいずれかに記載の画像処理装置。
  12. 【請求項12】 前記平面は、仮想のパーソナルコンピ
    ュータの表示画面であり、前記表示物は、この表示画面
    に表示されているアイコンである請求項11に記載の画
    像処理装置。
  13. 【請求項13】 前記機能発現手段は、所望のアプリケ
    ーションソフトウェアを起動してこのアプリケーション
    に関する各種処理を実行できるようにし、前記表示手段
    は、仮想空間において前記パーソナルコンピュータの表
    示画面の手前に該アプリケーションのウィンドウ画面を
    表示する請求項12に記載の画像処理装置。
  14. 【請求項14】 指に与える触覚および力覚を発生して
    提示する触覚・力覚提示手段と、 前記判定手段により前記指が前記仮想の表示物に衝突し
    あるいは該表示物とともに移動したと判定される場合に
    は、その接触に相当する感覚が指腹に得られるように前
    記触覚・力覚発生手段の駆動を制御する制御手段と、 をさらに備える請求項1ないし13のいずれかに記載の
    画像処理装置。
  15. 【請求項15】 前記制御手段は、前記指位置検出手段
    によって検出された指の位置と前記表示物の位置とがず
    れたとき、前記接触に相当する感覚が指腹に得られない
    ように前記触覚・力覚発生手段の駆動を制御する請求項
    14に記載の画像処理装置。
  16. 【請求項16】 指に与える触覚および力覚を発生して
    提示する触覚・力覚提示手段と、 前記判定手段により前記指が前記仮想の表示物に衝突し
    あるいは該表示物とともに移動したと判定される場合に
    は、その接触に相当する感覚が指腹に得られるように前
    記触覚・力覚発生手段の駆動を制御する制御手段とをさ
    らに備え、 前記制御手段は、前記判定手段によって前記指と前記パ
    ーソナルコンピュータの表示画面が衝突し、あるいはそ
    れとともに移動したと判定される場合にも、その接触に
    相当する感覚が指腹に得られるように前記触覚・力覚発
    生手段の駆動を制御する請求項13に記載の画像処理装
    置。
  17. 【請求項17】 仮想空間画像を生成するステップと、 前記生成された仮想空間画像を表示するステップと、 指の位置を検出するステップと、 前記検出された指が仮想の表示物に衝突したか否かを判
    定するステップと、 前記指と前記表示物が衝突したと判定される場合には、
    前記仮想空間内に該表示物に関連付けられている機能を
    発現させるステップと、 を有することを特徴とする画像処理方法。
  18. 【請求項18】 仮想空間画像を生成するステップと、 前記生成された仮想空間画像を表示するステップと、 指の位置を検出するステップと、 前記検出された指が移動したとき、その移動にともなっ
    て仮想の表示物が移動したか否かを判定するステップ
    と、 前記指と前記表示物が同時に移動したと判定される場合
    には、前記仮想空間内に該表示物に関連付けられている
    機能を発現させるステップと、 を有することを特徴とする画像処理方法。
  19. 【請求項19】 前記生成された画像データおよび前記
    判定された判定結果を記憶するステップをさらに有する
    ことを特徴とする請求項17または18に記載の画像処
    理方法。
  20. 【請求項20】 前記画像生成ステップは、前記指位置
    検出ステップで検出された前記指の位置に基づいて、所
    定の時間間隔で仮想の指画像を含む仮想空間画像を更新
    して生成する請求項17ないし19のいずれかに記載の
    画像処理方法。
  21. 【請求項21】 前記発現された機能は、仮想空間にお
    ける映像および/または音の出力であり、 該機能が映像の場合において、前記指が機能を発現され
    ている映像の所定の位置に衝突し、あるいは該位置とと
    もに移動したと判定されるときには、前記機能を終了さ
    せるステップをさらに有する請求項17ないし20のい
    ずれかに記載の画像処理方法。
  22. 【請求項22】 前記機能終了ステップにおいて機能を
    終了させられた前記表示物を初めの状態に戻して前記仮
    想空間中に表示するステップをさらに有する請求項21
    に記載の画像処理方法。
  23. 【請求項23】 前記仮想の表示物は、仮想空間中に形
    成される平面上に二次元的に配置される請求項17ない
    し22のいずれかに記載の画像処理方法。
  24. 【請求項24】 前記平面は、仮想のパーソナルコンピ
    ュータの表示画面であり、前記表示物は、この表示画面
    に表示されているアイコンである請求項23に記載の画
    像処理方法。
  25. 【請求項25】 前記機能発現ステップでは、所望のア
    プリケーションソフトウェアを起動してこのアプリケー
    ションに関する各種処理を実行できるようにされ、前記
    表示ステップは、仮想空間において前記パーソナルコン
    ピュータの表示画面の手前に該アプリケーションのウィ
    ンドウ画面を表示する請求項24に記載の画像処理方
    法。
  26. 【請求項26】 指に与える触覚および力覚を発生して
    提示するステップと、 前記指が前記仮想の表示物に衝突しあるいは該表示物と
    ともに移動したと判定される場合には、その接触に相当
    する感覚が指腹に得られるように触覚および力覚の発生
    を制御するステップと、 をさらに有する請求項17ないし25のいずれかに記載
    の画像処理方法。
  27. 【請求項27】 指に与える触覚および力覚を発生して
    提示するステップと、 前記指が前記仮想の表示物に衝突しあるいは該表示物と
    ともに移動したと判定される場合には、その接触に相当
    する感覚が指腹に得られるように触覚および力覚の発生
    を制御するステップとをさらに有し、 前記指と前記パーソナルコンピュータの表示画面が衝突
    し、あるいはそれとともに移動したと判定される場合に
    も、その接触に相当する感覚が指腹に得られるように触
    覚および力覚を与える請求項25に記載の画像処理方
    法。
  28. 【請求項28】 仮想空間画像を生成してユーザに視認
    できるように表示させるための情報処理装置のコンピュ
    ータを、 仮想空間画像を生成する画像生成手段、 前記画像生成手段によって生成された仮想空間画像を表
    示する表示手段、 指の位置を検出する指位置検出手段、 前記指位置検出手段によって検出された指が仮想の表示
    物に衝突したか否かを判定する判定手段、 前記判定手段によって前記指と前記表示物が衝突したと
    判定される場合には、前記仮想空間内に該表示物に関連
    付けられている機能を発現させる機能発現手段、 として機能させるための情報処理装置の画像処理プログ
    ラム。
  29. 【請求項29】 仮想空間画像を生成してユーザに視認
    できるように表示させるための情報処理装置のコンピュ
    ータを、 仮想空間画像を生成する画像生成手段、 前記画像生成手段によって生成された仮想空間画像を表
    示する表示手段、 指の位置を検出する指位置検出手段、 前記指位置検出手段によって検出された指が移動したと
    き、その移動にともなって、仮想の表示物が移動したか
    否かを判定する判定手段、 前記判定手段によって前記指と前記表示物が同時に移動
    したと判定される場合には、前記仮想空間内に該表示物
    に関連付けられている機能を発現させる機能発現手段、 として機能させるための情報処理装置の画像処理プログ
    ラム。
  30. 【請求項30】 情報処理装置のコンピュータを、前記
    画像生成手段によって生成された画像データおよび前記
    判定手段によって判定された判定結果を記憶する記憶手
    段として機能させるためのプログラムコードをさらに有
    する請求項28または29に記載の画像処理プログラ
    ム。
  31. 【請求項31】 前記画像生成手段を、前記指位置検出
    手段により検出された前記指の位置に基づいて、所定の
    時間間隔で仮想の指画像を含む仮想空間画像を更新して
    生成させるように機能させるための請求項28ないし3
    0のいずれかに記載の画像処理プログラム。
  32. 【請求項32】 情報処理装置のコンピュータを、前記
    発現される機能が映像の場合において、前記判定手段に
    より前記指が機能を発現されている映像の所定の位置に
    衝突し、あるいは該位置とともに移動したと判定される
    ときには、前記機能を終了させる機能終了手段として機
    能させるためのプログラムコードをさらに有する請求項
    28ないし31のいずれかに記載の情報処理装置の画像
    処理プログラム。
  33. 【請求項33】 情報処理装置のコンピュータを、前記
    機能終了手段により機能を終了させられた前記表示物を
    初めの状態に戻して前記仮想空間中に表示する表示物表
    示手段として機能させるためのプログラムコードをさら
    に有する請求項32に記載の情報処理装置の画像処理プ
    ログラム。
  34. 【請求項34】 前記機能発現手段を、仮想のパーソナ
    ルコンピュータの表示画面に表示されているアイコンで
    ある前記表示物と前記指との衝突あるいは移動に基づい
    て、所望のアプリケーションソフトウェアを起動してこ
    のアプリケーションに関する各種処理を実行できるよう
    に機能させ、前記表示手段を、仮想空間において前記パ
    ーソナルコンピュータの表示画面の手前に前記アプリケ
    ーションのウィンドウ画面を表示するように機能させる
    ためのプログラムコードをさらに有する請求項28ない
    し33のいずれかに記載の画像処理プログラム。
  35. 【請求項35】 情報処理装置のコンピュータを、 指に与える触覚および力覚を発生して提示する触覚・力
    覚提示手段、 前記判定手段により前記指が前記仮想の表示物に衝突し
    あるいは該表示物とともに移動したと判定される場合に
    は、その接触に相当する感覚が指腹に得られるように前
    記触覚・力覚発生手段の駆動を制御する制御手段、 として機能させるためのプログラムコードをさらに有す
    る請求項28ないし34のいずれかに記載の画像処理プ
    ログラム。
  36. 【請求項36】 前記制御手段を、前記指位置検出手段
    によって検出された指の位置と前記表示物の位置とがず
    れたとき、前記接触に相当する感覚が指腹に得られない
    ように触覚および力覚の発生を制御するように機能させ
    るためのプログラムコードを有する請求項34に記載の
    画像処理プログラム。
  37. 【請求項37】 情報処理装置のコンピュータを、 指に与える触覚および力覚を発生して提示する触覚・力
    覚提示手段、 前記判定手段により前記指が前記仮想の表示物に衝突し
    あるいは該表示物とともに移動したと判定される場合に
    は、その接触に相当する感覚が指腹に得られるように前
    記触覚・力覚発生手段の駆動を制御する制御手段として
    機能させるためのプログラムコードをさらに有し、 前記制御手段を、前記判定手段によって前記指と前記パ
    ーソナルコンピュータの表示画面が衝突し、あるいはそ
    れとともに移動したと判定される場合にも、その接触に
    相当する感覚が指腹に得られるように触覚および力覚の
    発生を制御するように機能させるためのプログラムコー
    ドを有する請求項34に記載の画像処理プログラム。
  38. 【請求項38】 コンピュータに実行させるための請求
    項28ないし37のいずれかの画像処理プログラムを記
    録した、コンピュータに読み取り可能な記録媒体。
JP2002143905A 2002-05-17 2002-05-17 画像処理装置 Expired - Fee Related JP4085691B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002143905A JP4085691B2 (ja) 2002-05-17 2002-05-17 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002143905A JP4085691B2 (ja) 2002-05-17 2002-05-17 画像処理装置

Publications (3)

Publication Number Publication Date
JP2003337962A true JP2003337962A (ja) 2003-11-28
JP2003337962A5 JP2003337962A5 (ja) 2005-09-29
JP4085691B2 JP4085691B2 (ja) 2008-05-14

Family

ID=29703718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002143905A Expired - Fee Related JP4085691B2 (ja) 2002-05-17 2002-05-17 画像処理装置

Country Status (1)

Country Link
JP (1) JP4085691B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083866A (ja) * 2010-10-08 2012-04-26 Jvc Kenwood Corp 指取り付け型触覚再現機能付き処理装置
WO2014054317A1 (ja) * 2012-10-05 2014-04-10 Necソフト株式会社 ユーザインタフェース装置及びユーザインタフェース方法
US9367233B2 (en) 2011-10-31 2016-06-14 Samsung Electronics Co., Ltd. Display apparatus and method thereof
JP2017530452A (ja) * 2014-08-22 2017-10-12 株式会社ソニー・インタラクティブエンタテインメント 手袋インタフェースオブジェクト
JP2018106392A (ja) * 2016-12-26 2018-07-05 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
JP2019046455A (ja) * 2018-07-06 2019-03-22 株式会社コロプラ 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
US20190107896A1 (en) * 2015-04-15 2019-04-11 Sony Interactive Entertainment Inc. Pinch and Hold Gesture Navigation on A Head-Mounted Display
US10614590B2 (en) 2017-06-27 2020-04-07 Canon Kabushiki Kaisha Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
CN110989826A (zh) * 2018-10-03 2020-04-10 柯尼卡美能达株式会社 引导装置、控制系统以及记录介质
JP2020091904A (ja) * 2014-09-10 2020-06-11 ソニー株式会社 システムおよびコントローラ
JP2020102184A (ja) * 2018-12-19 2020-07-02 国立臺北科技大學 加工制御システム及び加工制御方法
JP2021093174A (ja) * 2017-06-29 2021-06-17 アップル インコーポレイテッドApple Inc. センサ及び触覚を用いた指装着デバイス
JP2022078082A (ja) * 2016-05-09 2022-05-24 ストロング フォース アイオーティ ポートフォリオ 2016,エルエルシー 産業用のモノのインターネットのための方法およびシステム
WO2023276239A1 (ja) * 2021-06-28 2023-01-05 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2023127078A1 (ja) * 2021-12-28 2023-07-06 株式会社ソニー・インタラクティブエンタテインメント 操作装置及び操作システム
US11755878B2 (en) 2016-05-09 2023-09-12 Strong Force Iot Portfolio 2016, Llc Methods and systems of diagnosing machine components using analog sensor data and neural network
US11774944B2 (en) 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things
US11838036B2 (en) 2016-05-09 2023-12-05 Strong Force Iot Portfolio 2016, Llc Methods and systems for detection in an industrial internet of things data collection environment

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083866A (ja) * 2010-10-08 2012-04-26 Jvc Kenwood Corp 指取り付け型触覚再現機能付き処理装置
US9367233B2 (en) 2011-10-31 2016-06-14 Samsung Electronics Co., Ltd. Display apparatus and method thereof
WO2014054317A1 (ja) * 2012-10-05 2014-04-10 Necソフト株式会社 ユーザインタフェース装置及びユーザインタフェース方法
JP5863984B2 (ja) * 2012-10-05 2016-02-17 Necソリューションイノベータ株式会社 ユーザインタフェース装置及びユーザインタフェース方法
US9760180B2 (en) 2012-10-05 2017-09-12 Nec Solution Innovators, Ltd. User interface device and user interface method
JP2017530452A (ja) * 2014-08-22 2017-10-12 株式会社ソニー・インタラクティブエンタテインメント 手袋インタフェースオブジェクト
JP2018014119A (ja) * 2014-08-22 2018-01-25 株式会社ソニー・インタラクティブエンタテインメント 手袋インタフェースオブジェクト及び方法
JP2020091904A (ja) * 2014-09-10 2020-06-11 ソニー株式会社 システムおよびコントローラ
US11157080B2 (en) 2014-09-10 2021-10-26 Sony Corporation Detection device, detection method, control device, and control method
US10503269B2 (en) * 2015-04-15 2019-12-10 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
US20190107896A1 (en) * 2015-04-15 2019-04-11 Sony Interactive Entertainment Inc. Pinch and Hold Gesture Navigation on A Head-Mounted Display
US11838036B2 (en) 2016-05-09 2023-12-05 Strong Force Iot Portfolio 2016, Llc Methods and systems for detection in an industrial internet of things data collection environment
US11836571B2 (en) 2016-05-09 2023-12-05 Strong Force Iot Portfolio 2016, Llc Systems and methods for enabling user selection of components for data collection in an industrial environment
JP2022078082A (ja) * 2016-05-09 2022-05-24 ストロング フォース アイオーティ ポートフォリオ 2016,エルエルシー 産業用のモノのインターネットのための方法およびシステム
US11774944B2 (en) 2016-05-09 2023-10-03 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things
US11797821B2 (en) 2016-05-09 2023-10-24 Strong Force Iot Portfolio 2016, Llc System, methods and apparatus for modifying a data collection trajectory for centrifuges
US11755878B2 (en) 2016-05-09 2023-09-12 Strong Force Iot Portfolio 2016, Llc Methods and systems of diagnosing machine components using analog sensor data and neural network
JP2018106392A (ja) * 2016-12-26 2018-07-05 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
US10614590B2 (en) 2017-06-27 2020-04-07 Canon Kabushiki Kaisha Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium
US11914780B2 (en) 2017-06-29 2024-02-27 Apple Inc. Finger-mounted device with sensors and haptics
JP2021093174A (ja) * 2017-06-29 2021-06-17 アップル インコーポレイテッドApple Inc. センサ及び触覚を用いた指装着デバイス
JP2019046455A (ja) * 2018-07-06 2019-03-22 株式会社コロプラ 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
JP7166813B2 (ja) 2018-07-06 2022-11-08 株式会社コロプラ 仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
CN110989826B (zh) * 2018-10-03 2023-07-21 柯尼卡美能达株式会社 引导装置、控制系统以及记录介质
CN110989826A (zh) * 2018-10-03 2020-04-10 柯尼卡美能达株式会社 引导装置、控制系统以及记录介质
JP2020102184A (ja) * 2018-12-19 2020-07-02 国立臺北科技大學 加工制御システム及び加工制御方法
WO2023276239A1 (ja) * 2021-06-28 2023-01-05 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2023127078A1 (ja) * 2021-12-28 2023-07-06 株式会社ソニー・インタラクティブエンタテインメント 操作装置及び操作システム

Also Published As

Publication number Publication date
JP4085691B2 (ja) 2008-05-14

Similar Documents

Publication Publication Date Title
JP2003337963A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7250935B2 (en) Force-feedback supply apparatus and image correcting method
JP4085691B2 (ja) 画像処理装置
US20190369752A1 (en) Styluses, head-mounted display systems, and related methods
US7161579B2 (en) Hand-held computer interactive device
JP2000298544A (ja) 入出力装置と入出力方法
JP4023214B2 (ja) 触覚・力覚提示装置および触覚・力覚提示システム
JP4048999B2 (ja) 画像処理装置及び画像処理方法
WO2019225170A1 (ja) 位置指示デバイス及び空間位置指示システム
JP2003316493A (ja) 触覚提示装置
JP2003308141A (ja) 力覚提示装置
CN113508355A (zh) 虚拟现实控制器
JPH07281818A (ja) 3次元仮想指示入力システム
JP4063131B2 (ja) 画像処理装置及び触覚・力覚提示方法
JP4039111B2 (ja) 触覚・力覚提示装置および触覚・力覚提示システム
JP2003337961A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
JP6964302B2 (ja) アニメーション制作方法
JP2004213349A (ja) 力覚提示装置及び力覚提示システム
JP2004213351A (ja) 力覚提示装置及び力覚提示システム
CN111766959B (zh) 虚拟现实交互方法和虚拟现实交互装置
JP7394046B2 (ja) システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム
WO2023286316A1 (ja) 入力装置、システム、および制御方法
WO2023286761A1 (ja) 情報処理装置、情報処理方法および駆動データ生成方法
WO2022202021A1 (ja) 力覚デバイスの制御装置、制御方法、及び制御システム
JP2023017438A (ja) 表示画像生成装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080211

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees