JP2004318400A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2004318400A
JP2004318400A JP2003110367A JP2003110367A JP2004318400A JP 2004318400 A JP2004318400 A JP 2004318400A JP 2003110367 A JP2003110367 A JP 2003110367A JP 2003110367 A JP2003110367 A JP 2003110367A JP 2004318400 A JP2004318400 A JP 2004318400A
Authority
JP
Japan
Prior art keywords
image
unit
finger
display
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003110367A
Other languages
English (en)
Other versions
JP4048999B2 (ja
Inventor
Shigemi Sato
茂美 佐藤
Akira Kubota
晃 窪田
Masashi Fukuda
昌史 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003110367A priority Critical patent/JP4048999B2/ja
Publication of JP2004318400A publication Critical patent/JP2004318400A/ja
Application granted granted Critical
Publication of JP4048999B2 publication Critical patent/JP4048999B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間において、仮想の本が所定の程度開かれた際に、そこに描かれている平面画像の表示物を立体的に表示することができる画像処理装置及び画像処理方法を提供する。
【解決手段】本発明の画像処理装置1は、仮想空間画像を生成する画像生成部83と、仮想空間画像を表示する表示手段と、指の位置を検出する指位置検出手段と、指が対象物に触れているか否かを判定する衝突判定部82と、指が対象物(仮想の本)に触れている場合には、仮想の本が所定の程度開いているか否かを判定する開閉判定手段と、仮想の本が所定の程度開いている場合には、仮想の本に描かれている表示物を平面画像の表示から三次元画像の表示に切り替える表示切替手段(制御部84)と、指が仮想の対象物に触れている場合、指に与える触覚を発生して提示する触覚提示手段とを備えている。
【選択図】図13

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
本等の仮想空間画像が表示され、ユーザ(使用者)が、表示された仮想の本のページをめくる動作をすると、その動作に応じて、前記本のページがめくれるように構成された仮想空間デスクトップ装置が開示されている(例えば、特許文献1など参照)。
しかしながら、前記従来の装置では、ユーザは、手や指で、本の用紙の質感や、用紙の例えばエッジに接触したときの感触などを感じることができず、また、手や指で本を握ったときの反力などを感じることができないため、違和感を覚える。
【0003】
また、本のページめくりの際は、指の感触により本の用紙のエッジを認識し、その用紙(ページ)を指で挟んで持ち上げるようにしてページをめくるのが自然の動作であるが、前記従来の装置では本に対して手や指による感触が得られないので、本のページをめくる動作の度に、本の用紙のエッジに注目して、そのエッジに指を移動させる動作などが必要となり、前記本のページめくりに手間と時間がかかる。
【0004】
ところで、仮想空間内で仮想の本(例えば、絵本や図鑑など)を見る場合、仮想空間という利点を生かして、その仮想の本に描かれている動物や昆虫などの平面画像(仮想の本に描かれた二次元画像)を、実物大で感触(触覚)を伴った立体映像(三次元画像)として表示することによって、現実のものとして体験し、理解したいという要望も考えられる。
【0005】
【特許文献1】
特開平6−282371号公報
【0006】
【発明が解決しようとする課題】
本発明の目的は、仮想空間において、仮想の本を読んでいるとき、その仮想の本が所定の程度開かれた際に、そこに描かれている平面画像の表示物を立体的に表示することができる画像処理装置及び画像処理方法を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明の一態様において、本発明の画像処理装置は、
仮想空間画像を生成する画像生成手段と、
前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、
仮想空間中における指の位置を検出する指位置検出手段と、
前記指位置検出手段によって検出された指が仮想空間内の対象物に触れているか否かを判定する接触判定手段と、
前記接触判定手段によって前記指が前記対象物に触れていると判定された場合において、前記対象物が仮想の本であるとき、該仮想の本が所定の程度開いているか否かを判定する開閉判定手段と、
前記開閉判定手段によって前記仮想の本が所定の程度開いていると判定された場合には、前記表示手段に表示されている前記仮想の本に描かれている表示物を前記仮想の本上における平面画像の表示から前記仮想空間画像に表示される三次元画像の表示に切り替える表示切替手段と、
を備えることを特徴とする。
【0008】
本発明の画像処理装置によれば、画像生成手段によって生成された仮想空間画像において、ユーザが仮想空間内の対象物である仮想の本を見る際に、開閉判定手段によってユーザがその仮想の本を所定の程度開いたと判定されると、その本に平面的に描かれている表示物(二次元画像)を仮想空間中に立体的に(立体画像(三次元画像)として)表示する。
【0009】
したがって、本発明の画像処理装置によって、ユーザは簡単にその表示物の立体画像を体験することができる。例えば、その本が子供向けの動物図鑑や昆虫図鑑などであり、その中に載っている(表示されている)動物などを調べている際には、その調べている動物などを立体画像として表示することができるので、一度の操作(動作)でその動物などを立体画像として体験することができる。
【0010】
ここで、好ましくは、本発明の画像処理装置は、前記指に与える触覚を発生して提示する触覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように前記触覚提示手段の駆動を制御する制御手段と、
を更に備えてもよい。
【0011】
これにより、上述のように表示物を立体画像として体験するだけでなく、その表示物の感触(触覚)も体験することができる。例えば、上述のように、仮想の本が子供向けの動物図鑑などであり、その中に載っている(表示されている)動物などを調べている際には、一度の操作でその動物などの感触(触覚)を体験することができる。
【0012】
この場合、好ましくは、前記制御手段は、前記接触判定手段によって前記指が前記表示切替手段により三次元画像の表示に切り替えられた前記表示物に触れていると判定された場合、前記表示物に対応する触覚を発生して前記指に提示するよう前記触覚提示手段の駆動を制御するよう構成されてもよい。
また、好ましくは、前記開閉判定手段は、前記仮想の本が開いている角度が所定の角度以上であるか否かに基づいて、前記仮想の本が所定の程度開いているか否かを判定してもよく、あるいは、前記仮想の本に描かれている前記表示物が前記表示手段によって前記仮想空間画像中で所定の割合以上表示されているか否かに基づいて、前記仮想の本が所定の程度開いているか否かを判定してもよい。
【0013】
そして、好ましくは、本発明の画像処理装置は、前記画像生成手段によって生成された画像データ、並びに、前記接触判定手段及び前記開閉判定手段によって判定された判定結果を記憶する記憶手段を更に備えている。
また、好ましくは、前記画像生成手段は、前記指位置検出手段により検出された前記指の位置に基づいて、所定の時間間隔で仮想の指画像を含む仮想空間画像を更新して生成するよう構成される。この場合において、好ましくは、前記表示手段は、前記指の移動にともなって更新された前記仮想空間画像を連続的に表示するよう構成されてもよい。
【0014】
ここで、好ましくは、前記表示手段は、顔面に装着して使用するものである。また、好ましくは、前記表示手段は、前記画像生成手段により生成された仮想空間画像データを受信する通信手段を含むよう構成されてもよい。さらに、好ましくは、前記画像生成手段、前記接触判定手段、前記開閉判定手段及び前記表示切替手段、並びに/又は前記制御手段が1つのユニットとして構成され、該1つのユニットは、前記表示手段及び/又は前記触覚提示手段と相互にデータを送受信する通信手段を備えてもよい。
【0015】
また、本発明の別の態様において、本発明の画像処理方法は、
仮想空間画像を生成するステップと、
前記画像生成手段によって生成された仮想空間画像を表示するステップと、
仮想空間中における指の位置を検出するステップと、
前記検出された指が仮想空間内の対象物に触れているか否かを判定するステップと、
前記指が前記対象物に触れていると判定された場合において、前記対象物が仮想の本であるとき、該仮想の本が所定の程度開いているか否かを判定するステップと、
前記仮想の本が所定の程度開いていると判定された場合には、前記表示されている前記仮想の本に描かれている表示物を前記仮想の本上における平面画像の表示から前記仮想空間画像に表示される三次元画像の表示に切り替えるステップと、
を有することを特徴とする。
ここで、好ましくは、本発明の画像処理方法は、前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように、前記指に与える触覚を発生して提示するステップを更に有する。
【0016】
また、好ましくは、前記触覚提示ステップでは、前記指が前記三次元画像の表示に切り替えられた前記表示物に触れていると判定された場合、前記表示物に対応する触覚を発生して前記指に提示するように構成されてもよい。
さらに、好ましくは、本発明の画像処理方法は、前記画像生成ステップにおいて生成された画像データ及び前記判定ステップにおいて判定された判定結果を記憶するステップを更に有してもよい。
【0017】
【発明の実施の形態】
以下、図1〜図22を参照して本発明の画像処理装置及び画像処理方法の好適実施形態を詳細に説明する。なお、この実施の形態は例示として挙げるものであり、これにより本発明を限定的に解釈すべきではない。
図1は、本発明の触覚・力覚提示装置(触覚提示手段)を含む画像処理装置の第1実施形態の構成例を示す概念図であり、図2は、図1に示すリアルグローブ20の回路構成例を示すブロック図である。また、図3は、図1に示すリアルグローブ20の外観構成例を示す外観図(一部図示を省略)である。
【0018】
図1に示すように、画像処理装置1は、ユーザ(使用者)の手(指)に装着され、装着された手や各指に対して触覚(触った感覚、例えば、質感、形状、強さ等の接触強度の分布)や力覚(触ったときに加わる力の感覚)を与える一対のリアルグローブ(データグローブ)20、20と、仮想空間画像(仮想空間映像)を表示する仮想空間表示装置(表示手段)5と、各リアルグローブ20及び仮想空間表示装置5の駆動制御等の種々の処理(本発明においては、後述する図19の触覚・力覚発生処理や図20及び図21の表示切替処理など)を行う情報処理装置8と、仮想空間画像を作成し、仮想空間画像を用いた各種のサービスを提供する基地局9とを備えている。
【0019】
各リアルグローブ20、仮想空間表示装置5、情報処理装置8及び基地局9は、それぞれ、無線(例えば、無線LAN(Local Area Network)、赤外線(IR)データ通信(IrDA:Infrared Data Association)、Bluetoothなど)で信号の送信及び受信(無線通信)を行うことができる無線通信機能(通信手段)を有しており、情報処理装置8と、各リアルグローブ20、仮想空間表示装置5及び基地局9との間で、それぞれ相互に通信を行うことができるようになっている。
【0020】
この画像処理装置1は、基地局9、仮想空間表示装置5及び各リアルグローブ20から供給された情報に基づいて情報処理装置8によって作成(生成)された仮想空間画像を仮想空間表示装置5に表示し、リアルグローブ20を装着した手や指を動作させることによってその手や指が仮想空間に表示された物体に仮想的に接触した場合等に、その様子を仮想空間表示装置5に表示するとともに、リアルグローブ20を装着したユーザの手や各指に接触したときの触覚や力覚を与えるための各処理を行う。
【0021】
情報処理装置(図1では、携帯電話端末として示す)8は、例えば、携帯電話端末、無線通信機能を有するパーソナルコンピュータ、PDA(Personal Digital Assistants)と呼ばれる携帯型情報機器などの、無線通信機能(通信手段)及び制御機能(制御手段)を備えた各種の装置により構成される。
また、基地局9は、例えば、インターネットに接続されている各種サーバコンピュータ、携帯電話端末と無線通信を行う携帯電話基地局などの、仮想空間画像に関する情報を提供する各種の装置により構成される。
【0022】
なお、本実施形態では、各リアルグローブ20、仮想空間表示装置5、情報処理装置8及び基地局9が無線通信機能を有する構成としているが、例えば、その一部又はすべてが有線通信を行う構成とされていてもよい。
また、情報処理装置8が、基地局9の機能の一部又はすべてを有していてもよい。後述する図19の触覚・力覚発生処理や図20及び図21の表示切替処理では、便宜的に情報処理装置8に基地局9のすべての機能が含まれるものとして説明している。
【0023】
さらに、リアルグローブ20が、仮想空間表示装置5、情報処理装置8及び基地局9の機能の一部又はすべてを有していてもよい。
ここで、触覚・力覚提示装置(本発明では、特に、触覚提示手段として機能する)2は、本実施形態では、一対のリアルグローブ20、20、すなわち、ユーザの左手に装着される左手用のリアルグローブ20と、ユーザの右手に装着される右手用のリアルグローブ20とで構成されている。以下の説明では、代表的に一方のリアルグローブ20を説明する。
【0024】
なお、本発明において、触覚・力覚提示装置2は、一方のリアルグローブ20のみで構成されていてもよい。
また、本発明では、触覚・力覚提示装置2は、リアルグローブ20の他に、仮想空間表示装置5、情報処理装置8及び基地局9のうちの、いずれか1つ、又は、2つ、又は、すべてを有していてもよい。この場合、触覚・力覚提示装置2は、それらの有する機能の一部を有していてもよく、また、すべてを有していてもよい。
【0025】
図2に示すように、リアルグローブ20は、仮想空間に現れている(仮想空間画像上の)物体(対象物、対象物に表示されているものは表示物)に接触した指の感覚(例えば、質感、形状、強さ等の接触強度の分布)を発生させるための触覚発生部(触覚提示手段)21と、仮想空間に現れている物体に接触したときに手や指にかかる力の強さの感覚を発生させるための力覚発生部(力覚提示手段)22と、リアルグローブ20の各部の位置(リアルグローブ20を装着した手、手首、腕、指等の各部の位置)を検出する位置姿勢検出部23と、リアルグローブ20の各部を制御する制御部24と、情報処理装置8に送信する検出データ信号の増幅等の信号処理を行う信号処理部25と、情報処理装置8との間で無線通信を行うための信号送受信部(通信手段)26とを有している。
【0026】
また、図3に示すように、リアルグローブ20の全体形状は、略長手袋状(手袋状)をなしている。すなわち、リアルグローブ20は、その装着者(ユーザ)の指から腕の肘近傍まで(指から腕にかけて)装着する手袋状の装着手段として、腕を覆う筒状部20aを備えた比較的長い手袋2aを有している。
したがって、ユーザは、この手袋2aにより、リアルグローブ20の装着及び取り外しを容易かつ確実に行うことができる。
【0027】
また、手袋2aはユーザの手から腕にかけて装着されるので、仮想空間における動作(操作)を容易かつ確実に行うことができる。
この手袋2aには、指先に対応する部分の遊びを抑制又は防止する遊び吸収部27と、リアルグローブ20を手首に固定する手首固定部28と、該リアルグローブ20を腕に固定する腕固定部2dと、腕に対応する部分のねじれを吸収するねじれ吸収部29とが、それぞれ設けられている。
【0028】
遊び吸収部27は、手袋2aの手首付近に対応する部分に設けられている。この遊び吸収部27は、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、遊び吸収部27の復元力(弾性力)により、手袋2aは、肘方向(基端側)に引っ張られ、その状態で保持される。これにより、指先に遊びができてしまうのを防止又は抑制することができる。また、指の長さ等の手の寸法の異なる複数のユーザが使用する場合においても、遊び吸収部27により、それぞれ各ユーザにおいて、指先に遊びができてしまうのを防止又は抑制することができる。
【0029】
手首固定部28は、手袋2aの遊び吸収部27の肘側(基端側)に、遊び吸収部27に連続して設けられている。この手首固定部28は、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、手首固定部28の復元力(弾性力)により、手袋2aは、手首に固定される。これにより、使用中にリアルグローブ20がずれてしまうのを防止することができる。
また、この手首固定部28や遊び吸収部27により、後述する触覚発生部21のアクチュエータワイヤ212の束212aは、各アクチュエータワイヤ212がそれぞれその長手方向に移動し得るように所定の位置に保持される。
【0030】
腕固定部2dは、手袋2aの筒状部20aの肘側(基端側)の端部に設けられている。この腕固定部2dは、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、腕固定部2dの復元力(弾性力)により、手袋2aは、腕に固定される。これにより、使用中にリアルグローブ20がずれてしまうのを防止することができる。
【0031】
ねじれ吸収部29は、手袋2aの筒状部20aの途中、すなわち、手首固定部28と腕固定部2dとの間に設けられている。
このねじれ吸収部29は、筒状部20aの一部に3つの開口292を形成して得られる3本の帯状部291で構成されている。各帯状部291は、それぞれ、例えば、伸縮性のある材料で構成された布等の伸縮性のある部材で形成される。
【0032】
ユーザがリアルグローブ20を装着し、例えば、手首をねじる動作をすると、各帯状部291が伸縮、変形し、これにより、筒状部20aのねじれが吸収される。このように、ねじれ吸収部29により、リアルグローブ20のねじれを防止することができ、このため、ユーザは、手や腕を容易かつ円滑に動かすことができる。
【0033】
なお、ねじれ吸収部29の帯状部291の数は、2本以下でもよく、また、4本以上でもよい。
また、手袋2aの各指の背側の各関節に対応する部分には、それぞれ、開口21aが形成されている。これらの開口21aにより、ユーザは、各指の各関節をそれぞれ容易かつ円滑に動かすことができる。
また、このリアルグローブ20には、手袋2aの腕に対応する部分であって、ねじれ吸収部29よりも肘方向に位置する部分、すなわち、手袋2aの筒状部20aの肘側(基端側)の端部に、制御部24、電力供給部30、動力発生部211などが設けられている。
【0034】
これら制御部24、電力供給部30及び動力発生部211の配置を上述のようにすることにより、リアルグローブ20の指先側(先端側)の重量を軽く(慣性を小さく)することができ、これにより、ユーザは、動作(操作)を容易に行うことができる。
触覚発生部21の主要部は、ユーザがリアルグローブ20を装着したときに、ユーザの各指の第1関節(末節骨と中節骨との間の関節)から先の指先部分を覆う位置にそれぞれ設けられている。なお、各触覚発生部21の構成及び作用は、ほぼ同様であるので、以下、代表的に、そのうちの1つについて説明する。
【0035】
図4は、触覚発生部21の構成例を示す縦断面図である。なお、図が煩雑になるのを避けるため、図中、一部、部材の厚みを省略して図示する。
触覚発生部21は、図4(A)に示すように、モータ(駆動源)211aを備える動力発生部(移動手段)211と、長手方向に移動可能に設置されたアクチュエータワイヤ(可撓性を有する線状体)212と、アクチュエータワイヤ212の一端を保持するワイヤ保持部(付勢手段)213と、触覚を発生させるために指腹を押圧する触覚提示ピン(押圧部)214と、触覚提示ピン214を支持するとともに触覚提示ピン214の移動方向を規制する触覚提示ピン支持部(移動方向規制手段)215とで構成される複数の単位触覚発生部(アクチュエータ)210を有している。各単位触覚発生部210は、互いに独立している。
【0036】
なお、動力発生部211と、アクチュエータワイヤ212と、触覚提示ピン支持部215とで、触覚提示ピン214を駆動する駆動機構が構成され、これらが触覚発生部21の触覚提示手段に対応する。
動力発生部211は、例えば、制御部24からの制御信号に応じて内部に備えるモータ211aを回転駆動し、そのモータ211aの回転駆動によってアクチュエータワイヤ212を巻き取る処理(アクチュエータワイヤ212をアクチュエータワイヤ212の長手方向に移動させる処理)を行う。制御部24は、情報処理装置8からの指示に従って、モータ211aの回転駆動が所定のトルクで所定時間なされるように動力発生部211を制御する。動力発生部211は、情報処理装置8からの指示に従ってモータ211aに回転動力を与えることで、アクチュエータワイヤ212を所定の長さ巻き取る処理を行う。
【0037】
ワイヤ保持部213は、図4(A)に示すように、この第1実施形態では指の第1間接の近傍でアクチュエータワイヤ212の一端(終端)を保持する。このワイヤ保持部213は、例えばゴムやバネなどの弾性を有する部材(弾性体)により構成される。
したがって、動力発生部211のモータ211aの駆動によりアクチュエータワイヤ212が巻き取られ、そのアクチュエータワイヤ212が図4(A)中の時計回りに移動すると、それに伴ってワイヤ保持部213が伸張し、アクチュエータワイヤ212は、ワイヤ保持部213の復元力(弾性力)により、図4(A)中の反時計回りの方向(触覚提示ピン214を突出させるときのアクチュエータワイヤ212の移動方向と逆方向)に付勢される。そして、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、ワイヤ保持部213が復元力(弾性力)によって収縮し、これにより、巻き取られていたアクチュエータワイヤ212が引き出され、図4(A)中の反時計回りに移動する。
なお、動力発生部211は、アクチュエータワイヤ212の他端(始端)側に位置している。
【0038】
触覚提示ピン214は、ユーザの指腹に接触感覚(接触の有無や強さ等)を与えるために用いられ、指腹に接触する部分である微小な接触板(接触部)214aと、接触板214aを支持する支持部214bとで構成される。支持部214bは、その一端がアクチュエータワイヤ212の途中に固定され、その他端に接触板214aが設けられている。
【0039】
この第1実施形態では、図4(A)に示すように、リアルグローブ20の手袋2aは、指先を装着する(覆う)装着部が2重構造(例えば布などの部材を2枚重ね合わせて、重ね合わせた2枚の部材の間に何らかの部材が収納し得るような構造)になっており、指先を覆っている部分の内部(2重構造の内部)に、アクチュエータワイヤ212の一部、ワイヤ保持部213及び支持部214bと、触覚提示ピン214のアクチュエータワイヤ212の移動方向への移動を規制する触覚提示ピン支持部215とが設けられている。そして、指が収納される手袋2a内に、支持部214bの一端側が突出し、接触板214aが位置している。
この第1実施形態では、その接触板214aは、リアルグローブ20を装着した手の指先に常に接触した状態となっている。なお、これに限らず、接触板214aが指先から離間した状態(接触板214aと指先とが非接触の状態)をとり得るように構成されていてもよい。
【0040】
図4(A)では、説明を簡単にするため、1つの単位触覚発生部210(1つの触覚提示ピン214)が代表して示されているが、前述したように、実際には、触覚発生部21は、複数の単位触覚発生部210を有しており、その複数の触覚提示ピン214は、ユーザがリアルグローブ20を装着したときのユーザの指先の指腹に対応する位置に、例えば、指腹に沿って、かつ指腹に対し行列状(マトリックス状)に配置されている。
【0041】
各触覚提示ピン214の前後には、それぞれ、その触覚提示ピン214の支持部214bのアクチュエータワイヤ212の移動方向への移動を制限する触覚提示ピン支持部215が設けられている。
なお、各触覚提示ピン214は、規則的に配置されていてもよく、また、不規則に配置されていてもよい。
【0042】
次に、触覚発生部21による触覚発生動作について説明する。
ユーザがリアルグローブ20を装着し、手や指を動かすことによって仮想空間に現れている物体(仮想物体)、すなわち対象物(表示物)に、その指先(指腹)が仮想的に接触すると、情報処理装置8は、実際に接触があったとした場合の押圧力を計算し、その計算結果に基づいて動力発生部211のPWMデータ(例えば、モータ211aを回転させるための励磁パターンを示すデータ)に変換する。
【0043】
この場合、仮想空間(3次元空間)において、予め、互いに直交するX軸、Y軸及びZ軸、すなわちX−Y−Z座標(3次元座標)が想定されており、この物体の座標と、ユーザの指先の座標との一致を検出し、その一致が検出されると、物体の座標に相当する部位とユーザの指先の座標に相当する部位とが接触したと判別する。ユーザの指先の座標は、後述する位置姿勢検出部23から信号送受信部26を介して情報処理装置8に送信される信号(情報)に基づいて導出される。
【0044】
次いで、情報処理装置8は、導出したPWMデータと、実際に接触があったとした場合の接触位置に押圧力を与える接触板214aを動作させる動力発生部211を特定(指定)するためのデータとを、リアルグローブ20に送信する。リアルグローブ20は、受信したPWMデータに応じて、指定された動力発生部211を駆動し、アクチュエータワイヤ212を巻き取る。
【0045】
アクチュエータワイヤ212が巻き取られると、指腹に配されているアクチュエータワイヤ212が指腹に沿って指の先端方向に向けて移動し、図4(B)に示すように、アクチュエータワイヤ212に取付固定されている触覚提示ピン214も、指腹に沿って指の先端方向に向けて移動する。
この際、図4(C)に示すように、触覚提示ピン214は、触覚提示ピン支持部215によって指の先端方向への移動が制限されるとともに、触覚提示ピン支持部215にガイドされて、図4(C)中上側へ移動する(指腹に向って突出する)。すなわち、触覚提示ピン214の接触板214aが指腹の表面に対しほぼ垂直上方に移動する。触覚提示ピン214の支持部214bは、待機時には(初期状態では)、図4(B)に示すように、垂直方向から指の先端方向に傾斜しており、接触板214aがほぼ垂直上方に移動しようとする力が働くことで、その接触板214aが指腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の指腹に押圧力を与える。
【0046】
この動作が、複数の単位触覚発生部210のうちの指定された単位触覚発生部210でなされ、これにより、ユーザの手の指腹に触覚が提示される(与えられる)。よって、ユーザは、仮想空間画像における指腹の物体(対象物)への接触に相当する感覚を、指腹に得ることができる。
このように指定された単位触覚発生部210において、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、ワイヤ保持部213が復元力(弾性力)によって収縮し、これにより、巻き取られていたアクチュエータワイヤ212が引き出される。
【0047】
アクチュエータワイヤ212が引き出されると、指腹に配されているアクチュエータワイヤ212が指腹に沿って指の基端方向(図4(C)中右側)に向けて移動し、アクチュエータワイヤ212に取付固定されている触覚提示ピン214も、指腹に沿って指の基端方向に向けて移動し、触覚提示ピン214は、図4(B)に示す初期状態に戻る。これにより、触覚提示ピン214からユーザの手の指腹に与えられていた押圧力が実質的に消滅する。
【0048】
このような触覚発生部21によれば、指腹に対してほぼ平行に(指腹に沿って)アクチュエータワイヤ212を配置し、そのアクチュエータワイヤ212を巻き取ることによって指腹に対してほぼ垂直な力を与えるようになっているので、触覚を与えるための機構を薄くすることができ、これにより、リアルグローブ20の指腹側の厚みを極力抑えることができる。
また、アクチュエータワイヤ212の弛みを防止することができ、触覚提示ピン214からユーザの指腹に、より正確かつ確実に目標の大ききの押圧力を与えることができる。
【0049】
図5及び図6は、それぞれ、力覚発生部22の構成例を示す外観図である。なお、図5は、フレームカバーが取り外された状態を示す。
図5に示すように、力覚発生部22は、リアルグローブ20を装着したときのユーザの各指の背側に設けられている。なお、力覚発生部22の構成及び作用は、ほぼ同様であるので、以下、代表的に、そのうちの1つについて説明する。
【0050】
力覚発生部22は、回動可能に連結された複数(本実施形態では6つ)のフレーム221を備えたリンク機構と、各フレーム221を回動させる複数(本実施形態では7つ)のリンクモータ(駆動源)222と、手袋2aに設けられた複数(本実施形態では4つ)のフレームホルダ2bとを有している。
フレームホルダ2bは、ユーザがリアルグローブ20を装着したとき、ユーザの指の第1関節より先端側に位置する装着部と、第1関節と第2関節(中節骨と基節骨との間の関節)との間に位置する装着部と、第2関節と第3関節との間に位置する装着部と、第3関節(基節骨と中手骨との間の関節)より基端側に位置する装着部とに、それぞれ、設けられている。
【0051】
リンク機構は、フレームホルダ2bによって、手袋2aの、リアルグローブ20を装着したときのユーザの指の背側に取り付けられている。
すなわち、リンク機構の先端側(図5中右側)の端部のフレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第1関節より先端側の部位にその端部が位置するように配置され、このフレーム221の先端部は、フレームホルダ2bに対し、回動可能に設置されている。
【0052】
また、リンク機構の基端側(図5中左側)の端部のフレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第3関節より基端側の部位にその端部が位置するように配置され、このフレーム221の基端部は、フレームホルダ2bに対し、回動可能に設置されている。
また、リンク機構の残りの各フレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第1関節と第2関節との間の部位と、第2関節と第3関節との間の部位とに、フレーム連結部が1つおきに位置するように配置され、この1つおきのフレーム連結部において、フレームホルダ2bに対し、回動可能に設置されている。
【0053】
各リンクモータ222の駆動力(回転力)は、それぞれ、図示しない動力伝達部を介して、対応するフレーム221に伝達される。すなわち、リンクモータ222が所定方向に回転駆動すると、対応するフレーム221は、所定方向に回動し、これにより、フレーム221の角度が変更(調整)される。
【0054】
なお、図5には、前述したアクチュエータワイヤ212の束212aが示されている。
また、力覚発生部22の各フレーム221や各リンクモータ222は、それぞれ、図6に示すように、例えば布製のフレームカバー2cの中に収納されている。
【0055】
また、図6に示すように、フレームカバー2cの内側には、手や指の所定の部位の位置及び姿勢を検出する複数(本実施形態では4つ)の位置姿勢検出部(指位置検出手段)23が設置されている。各位置姿勢検出部23は、それぞれ、位置及び姿勢を検出する部位(検出位置)に対して一定の位置関係を保持し得るように設けられている。
【0056】
すなわち、各位置姿勢検出部23は、それぞれ、この実施形態では、フレームホルダ2bが設けられている位置に固定されている各リンクモータ222に取付固定されている。したがって、各位置姿勢検出部23が設けられている部位と、ユーザの手のひら側の所定の部位との位置関係は、一定に保たれる。したがって、位置姿勢検出部23が自己の位置や姿勢を検出することによって、ユーザの手の平側の所定の部位の位置や姿勢を容易かつ正確に導出することができる。
【0057】
また、各位置姿勢検出部23は、それぞれ、手の甲側に配置されているので、リアルグローブ20の指腹側の厚みを極力抑えることができる。
また、図3に示すように、位置姿勢検出部23は、ユーザがリアルグローブ20を装着したとき、リアルグローブ20の腕の基端側の部位に相当する位置にも設置されている。これら位置姿勢検出部23により、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を確実に把握することができる。
【0058】
次に、力覚発生部22による力覚発生動作について説明する。
ユーザがリアルグローブ20を装着し、手や指を動かすことによって仮想空間に現されている物体(仮想物体)、すなわち対象物に、その手や指が仮想的に接触すると、情報処理装置8は、後述する演算処理部81によって、実際に接触があった場合の物体から指(指の各関節)への反力を計算し、その計算結果に基づいて各リンクモータ222のPWMデータ(例えば、リンクモータ222を回転させるための励磁パターンを示すデータ)に変換する。
【0059】
物体とユーザの手や指との接触の判別は、触覚発生部21の場合と同様であるので、ここではその節名を省略する。
情報処理装置8は、導出した各PWMデータと、駆動させる各リンクモータ222を示すデータとをリアルグローブ20に送信する。リアルグローブ20は、受信したデータに応じて、指定された各リンクモータ222を所定方向に回転駆動し、対応する各フレーム221を所定方向に回動させ、各フレーム221の角度を調整、すなわち、リンク機構の両端部のフレーム221の角度及び各フレーム連結部の角度をそれぞれ調整する。
【0060】
このフレーム221の角度調整により、所定のフレームホルダ2bにそれぞれ所定の大きさの力が加わり、これにより、仮想空間に現されている物体からの反力に対応する力がユーザの指の各関節に与えられる。すなわち、指の各関節に対して力覚が提示される(与えられる)。
ここで、この力覚発生部22は、指の複数の部位に装着する複数の装着部間の間隔を調節する機能を有している(調節手段を兼ねている)。
例えば、図5に示すように、所定のフレーム221を回動させ、フレーム221の角度を調整することにより、各フレームホルダ2b間の間隔を長くしたり、又は、短くしたりすることができる。
【0061】
図7は、リアルグローブ20の位置姿勢検出部23の構成例を示すブロック図である。位置姿勢検出部23には、本実施形態では、直交コイル式(直交コイル型)の位置センサが用いられる。すなわち、位置姿勢検出部23は、図7に示すように、X方向検出コイル231と、Y方向検出コイル232と、Z方向検出コイル233とで構成される。なお、X方向と、Y方向と、Z方向とは、互いに直交している。
【0062】
一方、情報処理装置8には、磁界を発生する後述する磁界発生部88が設けられている。この磁界発生部88には、例えば、位置姿勢検出部23とほぼ同じ構成のもの、すなわち、直交コイル式(直交コイル型)の磁界発生器(X方向コイル、Y方向コイル、Z方向コイル)が用いられる。
この磁界発生部88で発生した磁界は、位置姿勢検出部23で検出される。この場合、磁界発生部のX方向コイル、Y方向コイル、Z方向コイルの順に時分割で磁界を発生し、それぞれコイルから発生された磁界を、位置姿勢検出部23のX方向検出コイル231、Y方向検出コイル232及びZ方向検出コイル233の3つのコイルで検出する。
【0063】
位置姿勢検出部23によってXYZ各方向について検出された各信号(検出データ)は、それぞれ、信号処理部25の増幅部251にて増幅され、A/D変換部252にてデジタル信号に変換された後、図2に示す信号送受信部26に出力され、この信号送受信部26により情報処理装置8に送信される。
情報処理装置8では、上記の信号を受信し、その信号(情報)に基づいて、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を導出し、その情報を所定の各処理において利用する。
【0064】
次に、本発明の表示手段である仮想空間表示装置5について説明する。
仮想空間表示装置(表示手段)5には、この実施形態では、顔面に装着して使用する形態のもの、すなわち、HMD(ヘッドマウントディスプレイ)と呼ばれる眼鏡状の装置が用いられる。
図8は、仮想空間表示装置5の外観構成例を示す斜視図であり、図9は、仮想空間表示装置5の回路構成例を示すブロック図である。
【0065】
仮想空間表示装置5は、装着者(ユーザ)に対して仮想空間画像を表示する画像表示部51a、51bと、装着者の視線を検出する視線検出部52a、52bと、周囲の画像(映像)を取り込む凹凸入力部53a、53bと、装置全体の制御を行う制御部54と、情報処理装置8と信号を送受信する信号送受信部55と、ユーザの視点を検出する位置姿勢検出部(位置検出手段)56と、耳に引っかけて保持する装着部57と、各種信号を処理する信号処理部58と、三次元加速度センサ59とを備えている。
【0066】
図10は、仮想空間表示装置5の凹凸入力部53aの構成例を示す図(ブロック図、模式図)である。この図10において、凹凸入力部53aは、レンズ531と、CCD(撮像素子)532と、CCD制御部533と、CCD出力増幅部534とを有している。
レンズ531に入射した光(光束)は、そのレンズ531により、CCD532の受光面(撮像面)上に導かれて結像し、その被写体像(周囲の像)は、CCD532により撮像される。このCCD532の駆動は、CCD制御部533により制御される。
【0067】
CCD532から出力された信号は、CCD出力増幅部534で増幅され、その後、凹凸入力部53aから出力され、図9に示す信号処理部58に入力される。そして、信号処理部58において所定の信号処理がなされ、信号送受信部55により情報処理装置8に送信される。
なお、凹凸入力部53bの構成及び作用は、凹凸入力部53aと同様であるので、その説明は、省略する。
【0068】
図11は、仮想空間表示装置5の画像表示部51aの構成例を示す図(ブロック図、模式図)である。この図11において、画像表示部51aは、レンズ511と、レンズ511を移動させるレンズ移動機構512と、ステッピングモータ513と、モータ制御部514と、図示しないカラーフィルタを備えた液晶表示パネル515と、液晶駆動部516と、バックライト517と、バックライト制御部518と、トランジスタ519とを有している。
【0069】
画像表示部51aにおいて仮想空間画像を表示する際は、バックライト制御部518の制御により、トランジスタ519がオンし、バックライト517が駆動し、バックライト517から液晶表示パネル515へ光が照射される。
そして、液晶駆動部516は、制御部54から入力される表示信号(画像データ)に基づいて、液晶表示パネル515の駆動を制御し、これにより、液晶表示パネル515に仮想空間画像が表示される。
装着者(ユーザ)は、レンズ511及び後述する視線検出部52aのハーフミラー521を介し、この液晶表示パネル515に表示された仮想空間画像を視認することができる。
【0070】
ステッピングモータ513の駆動は、モータ制御部514により制御され、そのステッピングモータ513が所定方向に回転すると、レンズ移動機構512により、レンズ511は、液晶表示パネル515に接近する方向、すなわち、装着者の目から離間する方向へ移動する。
また、ステッピングモータ513が上記方向と逆方向に回転すると、レンズ移動機構512により、レンズ511は、液晶表示パネル515から離間する方向、すなわち、装着者の目に接近する方向へ移動する。
【0071】
このレンズ511の位置の変更により、仮想空間画像の遠近を変更することができる。
このレンズ511の位置の調整、すなわち、仮想空間画像の遠近の調整は、後述する視線検出部52a、52bで検出される装着者の視線の情報に基づいてなされる。
【0072】
なお、画像表示部51bの構成及び作用は、画像表示部51aと同様であるので、その説明は、省略する。
視線検出部52a、52bは、装着者の視線がどの方向にあるか(仮想空間画像のどこに焦点を合わせようとしているか)を検出する機能と、セキュリティ情報として利用するための装着者の眼の虹彩パターンを読み取る機能とを有している。
【0073】
図12は、仮想空間表示装置5の視線検出部52aの構成例を示す図(ブロック図、模式図)である。この図12において、視線検出部52aは、ハーフミラー521と、可視光を除去し、赤外光を透過させるフィルタ522と、レンズ523と、CCD(撮像素子)524と、CCD制御部525と、CCD出力増幅部526と、赤外光を発するLED(発光ダイオード)527と、LED制御部528と、トランジスタ529とを有している。
【0074】
LED527の駆動は、LED制御部528により制御され、そのLED制御部528の制御によりトランジスタ529がオンすると、LED527が駆動し、LED527から赤外光が発せられる。
LED527から発せられた赤外光は、フィルタ522を透過し、ハーフミラー521でその一部が反射して、装着者の目に照射される。
【0075】
そして、装着者の目からの反射光(光束)は、ハーフミラー521でその一部が反射して、フィルタ522を透過し、レンズ523により、CCD524の受光面(撮像面)上に導かれて結像し、その被写体像(装着者の目の像)は、CCD524により撮像される。このCCD524の駆動は、CCD制御部525により制御される。
【0076】
CCD524から出力された信号は、CCD出力増幅部526で増幅され、その後、視線検出部52aから出力され、図9に示す信号処理部58に入力され、所定の信号処理がなされ、信号送受信部55により情報処理装置8に送信される。
情報処理装置8では、仮想空間表示装置5からの信号を受信し、その信号(情報)に基づいて、装着者の視線がどの方向にあるか(仮想空間画像のどこに焦点を合わせようとしているか)を検出するとともに、装着者の眼の虹彩パターンを読み取り、解析し、セキュリティ情報として利用する。
【0077】
一方、レンズ523側からフィルタ522へ入射する可視光は、フィルタ522で除去され、その可視光が装着者の目に照射されてしまうのを阻止することができる。これにより、液晶表示パネル515に表示された仮想空間画像の視認性の低下を防止することができる。
なお、視線検出部52bの構成及び作用は、視線検出部52aと同様であるので、その説明は、省略する。
【0078】
この仮想空間表示装置5は、2台の画像取込装置(撮像手段)、すなわち、凹凸入力部53a、53bによって周囲の画像を撮像して取り込み、情報処理装置8に対して撮像した画像データ(映像データ)を送信する。
情報処理装置8は、凹凸入力部53a、53bにて撮像された画像、すなわち撮像された画像データから視角差を導出し、その視角差等から得られる周囲の凹凸に基づいて、仮想空間画像、すなわち仮想空間の画像データを作成する。そして、情報処理装置8は、作成した仮想空間の画像(映像)と、例えば、仮想壁紙や仮想パーソナルコンピュータや仮想本などの所定の仮想物体を周囲の凹凸に合わせて仮想空間に配置するための画像とを合成した合成画像(合成映像)を示す画像データ(映像データ)を仮想空間表示装置5に送信する。
【0079】
仮想空間表示装置5は、情報処理装置8からの画像データに基づいて、その画像を画像表示部51a、51bを用いて表示する。
また、仮想空間表示装置5は、装着されているリアルグローブ20、すなわち、ユーザの手や腕が画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、その手や腕に対応する画像も、画像表示部51a、51bに表示する。
【0080】
この場合、前述したように、リアルグローブ20に設けられている複数の位置姿勢検出部23の検出データが情報処理装置8に送信されることで、リアルグローブ20の位置及び姿勢、すなわち、ユーザの各指、手、手首、腕等は情報処理装置8にて認識される。すなわち、情報処理装置8は、逐一、リアルグローブ20からの検出データに基づいて、ユーザの各指、手、手首、腕等の位置及び姿勢を特定し、それらが画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、それらを示す仮想空間画像を作成し、その画像を基礎の画像に合成して、合成画像(合成画像の画像データ)を得、その画像データを仮想空間表示装置5に送信する。
【0081】
したがって、ユーザの手や腕が画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、その手や腕に対応する画像が、画像表示部51a、51bに表示される。
そして、リアルグローブ20を装着した手や指の実際の動作に連動し、画像表示部51a、51bに表示されている仮想空間画像においてその手や指が動く。
【0082】
位置姿勢検出部56は、仮想空間表示装置5の位置及び姿勢、すなわち、装着者の顔面(頭部)の位置及び姿勢を検出するためのセンサである。この位置姿勢検出部56には、本実施形態では、直交コイル式の位置センサ、すなわち、位置姿勢検出部23と同様のものが用いられる。
位置姿勢検出部56からの信号(検出データ)は、信号処理部58に入力され、所定の信号処理がなされ、信号送受信部55により逐一情報処理装置8に送信される。情報処理装置8は、この検出データに基づいて、所定の時間間隔で逐一仮想空間画像を更新する。
したがって、例えば仮想空間表示装置5を装着したユーザが首を動かした場合には、画像表示部51a、51bに表示される仮想空間画像は、ユーザが向いている方向に合致した画像となるように変化する。
【0083】
三次元加速度センサ59は、仮想空間表示装置5の略直交する三方向への加速度を検出するものであり、HMDに内蔵可能なものであって、ある程度の精度を有するものであれば、圧電型でも、サーボ型でも、ひずみゲージ型などのいずれでもよい。しかしながら、本発明では、CMOSを用いた半導体加速度センサのように、より高精度な加速度センサが適する。
【0084】
この三次元加速度センサ59で検出された信号(加速度データ)は、信号処理部58に出力され、増幅などの所定の信号処理がなされた後、信号送受信部55を介して情報処理装置8に送信される。なお、この加速度データは、HMD5の移動速度を演算する際に用いられるが、本発明では必須の構成ではないので、その説明を省略する。
【0085】
次に、本発明の画像処理装置の一部である情報処理装置8について説明する。図13は、図1に示す情報処理装置8の回路構成例を示すブロック図である。この図13において、情報処理装置8は、演算処理部(演算手段)81と、衝突判定部(衝突判定手段、接触判定手段も兼ねる)82と、画像生成部(画像生成手段)83と、制御部(制御手段、開閉判定手段も兼ねる)84と、記憶部(記憶手段)85と、信号処理部86と、信号送受信部(通信手段)87と、磁界発生部88とを備えている。
【0086】
演算処理部81は、上述のリアルグローブ20の指や手が仮想空間内の対象物(表示物を含む)に接触した場合には、その対象物がどのようなものであるかを判断して、それから指(指の各関節)への反力(触覚及び/又は力覚)を演算し、その演算結果からリアルグローブ20の各リンクモータ222のPWMデータに変換し、その変換データを信号処理部86及び信号送受信部87を介してリアルグローブ20に送信する。
【0087】
衝突判定部82は、リアルグローブ20の各指が仮想空間内の仮想の対象物(表示物)と衝突したか否か(接触したか否か)を判定するものである。衝突判定部82によって判定された判定結果は、制御部84に出力される。本発明では、衝突判定部82は、指と仮想の本との衝突又は接触のみならず、表示切り替え処理によって三次元表示された表示物との接触についても判定する。この判定結果も同様に制御部84に出力される。
【0088】
画像生成部83は、制御部84の指示により、予め基地局9から受信した仮想空間画像、あるいは仮想空間表示装置5の凹凸入力部53a、53bによって撮像され、その撮像画像から変換された仮想空間画像に、ユーザの腕や指などの映像を重ね合わせて、合成された仮想空間画像を生成し、それを信号処理部86に出力する。また、画像生成部83は、仮想空間中に表示されるリアルグローブ20又は仮想空間表示装置5の移動にともない、所定の時間間隔で仮想空間画像を更新して生成し、それを信号処理部86に出力する。
【0089】
制御部84は、衝突判定部82の判定結果に基づいて、演算処理部81に上述の反力を演算させる。また、制御部84は、上述の演算処理部81、衝突判定部82、及び画像生成部83の動作を制御し、その演算結果、衝突判定結果(接触判定結果)、及び生成画像データなどを記憶部85の所定の格納領域に保存するとともに、信号処理部86及び信号送受信部87を介して、対応する装置にそれらを送信する。
【0090】
また、制御部84は、本発明では、衝突判定部82によって指と上記仮想の本とが一致した(すなわち、指が仮想の本にタッチした、あるいは、指で仮想の本を掴んだ)と判定される場合には、その仮想の本が所定の程度開いているか否かを判定し(開閉判定手段)、その判定結果に基づいて、画像生成部83に二次元画像又は三次元画像を生成させ、その画像データを信号処理部86及び信号送受信部87を介して仮想空間表示装置5に送信させる。なお、仮想空間表示装置5は、この判定結果に基づいて、二次元表示から三次元表示に、あるいは三次元表示から二次元表示に切り替えて(表示切替手段)、表示物(ここでは、本に描かれているもの)を表示する。
【0091】
記憶部85は、プログラムやデータ等が予め記憶されている、図示しないコンピュータに読み取り可能な記憶媒体(記録媒体ともいう。特許請求の範囲においては記録媒体とする)を有しており、この記憶媒体は、例えば、RAM(Random Access Memory:揮発性、不揮発性のいずれをも含む)、FD(Floppy Disk(Floppyは登録商標))、HD(Hard Disk)、CD−ROM(Compact Disc Read−Only Memory)等のような、磁気的、光学的記録媒体、もしくは半導体メモリで構成されている。この記憶媒体は、記憶部85に固定的に設けたもの、もしくは着脱自在に装着するものであり、この記憶媒体には、上記仮想空間表示装置5、情報処理装置8、及び触覚・力覚提示装置2に対応する各種アプリケーションプログラム、触覚・力覚提示処理プログラム、表示切替処理プログラム、及び各処理プログラムで処理されたデータ、文書データ等が記憶される。
【0092】
また、この記憶媒体に記憶するプログラム、データ等は、その一部もしくは全部をサーバやクライアント(本実施形態では、基地局9など)等の他の機器からネットワーク回線(例えば、インターネット、電話回線など)等の伝送媒体を介して信号送受信部87から受信して記憶する構成にしてもよく、さらに、記憶媒体はネットワーク上に構築された基地局9のサーバの記憶媒体であってもよい。さらに、このようなプログラムをネットワーク回線等の伝送媒体を介してサーバやクライアントから伝送して情報処理装置8にインストールするように構成してもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであって良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
【0093】
信号処理部86は、仮想空間表示装置5や触覚・力覚提示装置2に送信する画像データや制御信号などの増幅等の信号処理を行う。信号送受信部87は、信号処理部86において処理された各種信号やデータを仮想空間表示装置5や触覚・力覚提示装置2などの外部機器との通信を行うための制御を行う。
磁界発生部88は、詳細は図示されていないが、例えば、図7の位置姿勢検出部23に対応する直交コイル式(直交コイル型)の磁界発生器(X方向コイル、Y方向コイル、Z方向コイル)である。この磁界発生部88は、制御部84からの指示により、X、Y、Z方向コイルの順で磁界を発生し、リアルグローブ20の位置姿勢検出部23の各方向の検出コイル231、232及び233に発生した磁界を検出させるとともに、仮想空間表示装置5の位置姿勢検出部56にも磁界を検出させる。
【0094】
なお、この磁界発生部88は、図示のように情報処理装置8に格納されてもよいが、磁界発生装置として情報処理装置8とは別構成としてもよい。特に、情報処理装置8として携帯電話機やPDAを用いるときは、その内部に磁界発生部を後から設けることができないので、別構成とすることが有用である。このように別に磁界発生装置(又は磁界発生部)を設けたとしても、その制御は、情報処理装置8からの制御信号によってなされる。
【0095】
次に、第1実施形態の画像処理装置1の動作(作用)について説明する。ここでは、ユーザが、画像処理装置1を利用して、仮想空間に現れている仮想パーソナルコンピュータの操作を行う場合を例に説明する。
ユーザは、各部の電源を入れ、リアルグローブ20を両手にそれぞれ装着し、眼鏡状の仮想空間表示装置5をかける(顔面に装着する)。すると、仮想空間表示装置5の画像表示部51a、51bに、仮想パーソナルコンピュータを含む仮想空間画像が表示される。
【0096】
また、ユーザの腕が画像表示部51a、51bで表示されている仮想空間画像内に入るようにすれば、情報処理装置8の画像生成部83にて作成されたその手や腕の画像が仮想空間画像に仮想物体として表示される。そして、ユーザが手や指を動かした場合には、その実際の手や指の動きに連動して、仮想空間画像において、表示されている手や指が動く。
【0097】
情報処理装置8は、衝突判定部82によって、仮想空間画像における対象物、すなわち本実施形態では、例えば、仮想パーソナルコンピュータの一部(例えばキーボード)と、ユーザの指の一部が同一座標となったことを検出すると、演算処理部81の演算結果に基づいて、リアルグローブ20に対して、触覚及び力覚を発生させるための指示を行う。具体的には、情報処理装置8は、リアルグローブ20に対して、演算処理部81が演算した反力の演算結果から得た、駆動させる動力発生部211及びその駆動に用いるPWMデータや、駆動させるリンクモータ222及びその駆動に用いるPWMデータなどを、信号送受信部87を介して送信する。
【0098】
リアルグローブ20は、情報処理装置8からの指示に従って、指定された各動作発生部211を、それぞれ、指定されたトルクで指定された時間だけPWM制御により駆動する。これにより、仮想パーソナルコンピュータの一部と同一座標となった部分に配置されている各触覚提示ピン214の接触板214aが突出し、仮想パーソナルコンピュータの一部と同一座標となったユーザの各指先に対して触覚が与えられる。すなわち、各指先に、接触感覚、質感、形状、強さ等の感覚が与えられる。
【0099】
同時に、リアルグローブ20は、情報処理装置8からの指示に従って、指定された各リンクモータ222を、それぞれ、指定されたトルクで指定された時間だけPWM制御により駆動する。これにより、実在するパーソナルコンピュータの例えばキーボードに触れているときに各指の各関節に与えられる力覚、すなわち、各指の各関節に与えられる押圧力(反力)に相当する力がユーザの各指の各関節に対して与えられる。
【0100】
また、ユーザが、さらに仮想パーソナルコンピュータのキーを押し込む方向に指を動かすと、指の座標変化に合わせて、画像表示部51a、51bに、キーを押し込む様子を示す仮想空間画像が表示される。
この場合、情報処理装置8は、押下されたキーに基づく表示状態の変化を仮想空間画像で再現するための仮想空間画像の画像データを画像生成部83において生成し、それを仮想空間表示装置5に送信する処理を行い、仮想空間表示装置5は、情報処理装置8から受信した仮想空間画像の画像データに基づいて、仮想パーソナルコンピュータのディスプレイにキーの押下が反映された表示がなされる画像を表示する。
【0101】
以上説明したように、この触覚・力覚提示装置2及び画像処理装置1によれば、リアルグローブ20の装着及び取り外しを容易かつ確実に行うことができ、また、仮想空間における動作(操作)を容易かつ確実に行うことができる。
また、仮想空間画像に応じて、各指に対して触覚及び力覚をそれぞれ正確かつ確実に提示することができる。
【0102】
これにより、ユーザは、仮想空間における動作(操作)を、快適に、容易かつ確実に、行うことができる。
特に、触覚発生部21において、アクチュエータワイヤ212の弛みを防止することができ、各触覚提示ピン214からそれぞれユーザの各指腹に、より正確かつ確実に目標の大ききの押圧力を与えることができる。
【0103】
これにより、ユーザは、仮想空間画像における各指腹の物体(対象物)への接触に相当する感覚を、より正確かつ確実に各指腹で感じることができる。
また、触覚発生部21では、各指腹に対してほぼ平行に(指腹に沿って)アクチュエータワイヤ212が配置され、そのアクチュエータワイヤ212を巻き取ることによって各指腹に対してほぼ垂直な力を与えるようになっているので、触覚を与えるための機構を薄くすることができ、これにより、リアルグローブ20の指腹側の厚みを極力抑えることができる。
【0104】
また、力覚発生部22はリンク機構を有しているので、指を伸ばしている状態、指を曲げている状態のいずれにおいても対応することができ、これにより、より確実に、各指に対して力覚を与えることができる。
なお、上述した実施形態では、使用例として仮想空間画像にて表示されているパーソナルコンピュータを仮想的に操作する場合について説明したが、本発明では、これに限らず、例えば、仮想本などの他の物品を取扱うために使用することもできる。仮想本を取扱う場合には、例えば、仮想本の縁をさわったりページをめくったりするときに、実際の本の縁をさわったりページをめくったりするときに指に加わる触感や力感を感じることができる。
【0105】
次に、本発明の画像処理装置の第2実施形態について説明する。図14は、本発明の第2実施形態における触覚・力覚提示装置の触覚発生部の構成例を示す縦断面図である。
以下、第2実施形態の触覚・力覚提示装置2及び画像処理装置1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
【0106】
図14(A)に示すように、第2実施形態の触覚・力覚提示装置2では、その触覚発生部21の各単位触覚発生部(アクチュエータ)210は、それぞれ、モータ(駆動源)211aを備える動力発生部(移動手段)211と、長手方向に移動可能に設置されたアクチュエータワイヤ(可撓性を有する線状体)212と、触覚を発生させるために指腹を押圧する触覚提示部216とを有している。なお、第2実施形態では、触覚提示部216が触覚提示手段の主要部を構成する。
【0107】
触覚提示部216は、ユーザの指腹に接触感覚(接触の有無や強さ等)を与えるために用いられ、例えば、板バネのような弾性を有する部材(弾性体)で形成される。この場合、触覚提示部216は、適度な剛性を有するのが好ましく、例えば、各種金属で構成された弾性体で形成することができる。
この触覚提示部216は、第1の板片(押圧部)216aと、第2の板片(スライド部)216bとで構成されている。第1の板片216aと第2の板片216bとは、一端側において接合されており、第1の板片216aの他端側には、指腹に接触する部分である微小な接触部216cが設けられている。この接触部216cは、例えば、第1の板片216aの端部を第2の板片216b側に向けて屈曲させることによって形成することができる。
また、触覚提示部216の一端側、すなわち、図14(A)中左側の端部は、図14(A)中下側に凸となるように湾曲している。
【0108】
第1の板片216aと、第2の板片216bとの間には、第1の板片216aの移動方向を規制する円柱状のガイド部(移動方向規制手段)217が設置されている。
また、触覚提示部216の図14(A)中下側には、押え板218が設置されており、触覚提示部216は、この押え板218に沿って移動(スライド)し得るようになっている。この場合、触覚提示部216は、その図14(A)中左側の端部が湾曲しているので、円滑かつ確実に移動することができる。
【0109】
ガイド部217は、押え板218に固定され、押え板218は、手袋2aに固定されている。すなわち、ガイド部217及び押え板218は、共に、手袋2aに対して固定的に設置されている。
また、触覚提示部216の第2の板片216bの図14(A)中右側の端部には、アクチュエータワイヤ212の一端が固定されている。
【0110】
動力発生部211のモータ211aの駆動によりアクチュエータワイヤ212が巻き取られると、そのアクチュエータワイヤ212は、指腹に沿って図14(A)中右側(指の基端方向)に移動し、これとともにアクチュエータワイヤ212に取付固定されている触覚提示部216も指腹に沿って図14(A)中右側に移動する。
【0111】
この際、図14(B)に示すように、触覚提示部216の第1の板片216aは、ガイド部217によって図14(B)中右側への移動が制限されるとともに、ガイド部217にガイドされて、図14(B)中上側へ移動する(指腹に向って突出する)。すなわち、触覚提示部216が弾性変形し、その第1の板片216aの姿勢が図14(B)に示す姿勢に変更されることで、接触部216cは、指腹の表面に対しほぼ垂直上方に移動する(押し上げられる)。
【0112】
一方、アクチュエータワイヤ212は、触覚提示部216の復元力(弾性力)により、図14(B)中左側(第1の板片216aを突出させるときのアクチュエータワイヤ212の移動方向と逆方向)に付勢される。すなわち、この触覚提示部216(第1の板片216a)は、付勢手段を兼ねる。
接触部216cがほぼ垂直上方に移動しようとする力が働くことで、その接触部216cが指腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の指腹に押圧力を与える。
【0113】
この動作が、複数の単位触覚発生部210のうちの指定された単位触覚発生部210でなされ、これにより、ユーザの手の指腹に触覚が提示される(与えられる)。よって、ユーザは、仮想空間画像における指腹の物体(対象物)への接触に相当する感覚を、指腹に得ることができる。
このように指定された単位触覚発生部210において、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、触覚提示部216の復元力(弾性力)と、ユーザの指からの圧力によって、触覚提示部216は、図14(A)に示す初期状態に戻る。これにより、触覚提示部216からユーザの手の指腹に与えられていた押圧力が実質的に消滅する。
この触覚・力覚提示装置2及び画像処理装置1によれば、前述した第1実施形態と同様の効果が得られる。
【0114】
次に、本発明の画像処理装置の第3実施形態について説明する。図15は、第3実施形態の触覚・力覚提示装置のリアルグローブの外観構成例を示す外観図(一部図示を省略)である。なお、図15中では、図3に示す触覚発生部21、動力発生部211、力覚発生部22、位置姿勢検出部23、制御部24及び電力供給部30等は、図示されていない。
【0115】
以下、第3実施形態の触覚・力覚提示装置2及び画像処理装置1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
図15に示すように、第3実施形態の触覚・力覚提示装置2では、リアルグローブ20の手袋2aの筒状部20aの肘側(基端側)の端部に、空気(エアー)の注入による空気圧(圧力)により腕に固定する形態(エアー注入方式)の腕固定部2dが設けられている。
【0116】
この腕固定部2dは、空気が注入される袋状の腕固定部本体21dと、その腕固定部本体21dに設けられたエアー注入部22dとで構成されている。腕固定部本体21dの外観形状は、筒状をなしている。
エアー注入部22dの中空部は、腕固定部本体21dの内部に連通しており、エアー注入部22dの先端部には、蓋体23dが設けられている。
【0117】
蓋体23dをエアー注入部22dの先端部に装着すると、腕固定部本体21d内の気密性が保持され、蓋体23dを取り外すと、腕固定部本体21dに対し、エアー注入部22dを介して、空気の注入及び排出を行うことができる。
このような腕固定部2dは、各ユーザに応じて、例えば、ゴム型等の型を用いて、ユーザの腕の形状に合うように成形される。
【0118】
ユーザは、リアルグローブ20を装着する際は、まず、その手袋2aを装着し、次に、腕固定部2dの腕固定部本体21d内に、空気を注入する。
この空気注入では、例えば、エアー注入部22dの先端部から蓋体23dを取り外し、そのエアー注入部22dから腕固定部本体21d内に空気を吹き込む。そして、所定量の空気を注入し終えると、エアー注入部22dの先端部に蓋体23dを装着する。
【0119】
このようにして、リアルグローブ20は、腕固定部2dの空気圧によりユーザの腕に固定されるとともに、手首固定部28の復元力(弾性力)によりユーザの手首に固定される。
また、ユーザは、リアルグローブ20を取り外す際は、まず、腕固定部2dの腕固定部本体21d内から空気を排出し、次に、リアルグローブ20を手から取り外す。
このように、本発明の第3実施形態の画像処理装置1によれば、前述した第1実施形態と同様の効果が得られる。
【0120】
そして、この触覚・力覚提示装置2では、腕固定部2dがエアー注入方式のものであるので、リアルグローブ20の装着及び取り外しを容易かつ迅速に行うことができる。
なお、本発明では、触覚発生部21の単位触覚発生部210を、前述した第2実施形態のように構成してもよい。
【0121】
次に、本発明画像処理装置の第4実施形態について説明する。図16は、第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示すブロック図、図17は、第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示す外観図(一部図示を省略)、図18は、図17に示す位置姿勢検出部のZ方向検出センサの構成例を示す外観図である。なお、図17及び図18中において、それぞれ、互いに直交するX軸、Y軸及びZ軸を想定する。
【0122】
以下、第4実施形態の触覚・力覚提示装置2及び画像処理装置1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
第4実施形態の触覚・力覚提示装置2では、位置姿勢検出部(指位置検出手段)23として、例えば、コリオリ力を利用して互いに直交するX軸、Y軸及びZ軸の回りの角速度をそれぞれ検出するジャイロセンサ(ジャイロスコープ)を用いる。
【0123】
そして、この触覚・力覚提示装置2では、凹凸入力部(撮像手段)53a、53bにより周囲を撮像し、その撮像された周囲の画像に指に対応する部分が含まれている場合には、凹凸入力部53a、53bからの画像データ(映像データ)に基づいて指の位置を求め、このように撮像された周囲の画像に指に対応する部分が含まれていない場合には、各位置姿勢検出部23により指の位置を検出し、各位置姿勢検出部23からの情報に基づいて指の位置を求める。
【0124】
図17に示すように、位置姿勢検出部23は、ケーシング60と、ケーシング60内に設けられ、X軸の回りの角速度を検出するX方向検出センサ(第1の検出センサ)61、Y軸の回りの角速度を検出するY方向検出センサ(第2の検出センサ)62及びZ軸の回りの角速度を検出するZ方向検出センサ(第3の検出センサ)63とを有している。
【0125】
図18に示すように、Z方向検出センサ63は、エリンバー(基台)64と、エリンバー64に設置された振動用の圧電素子(振動用圧電素子)65及び検出用の圧電素子(検出用圧電素子)66とで構成されている。このZ方向検出センサ63は、2本のワイヤ67、68により支持されている。
エリンバー64の形状は、Z軸方向に長い略直方体をなしており、その略直交する2つの面の一方に振動用圧電素子65が設置され、他方に検出用圧電素子66が設置されている。この場合、Y軸に対して垂直な面に、振動用圧電素子65が配置され、X軸に対して垂直な面に、検出用圧電素子66が配置されているが、その配置を逆にしてもよい。
【0126】
このZ方向検出センサ63の振動用圧電素子65に図16に示す交流電源69から交流電圧が印加されると、その振動用圧電素子65は、X軸方向に振動(屈曲振動)し、これによりエリンバー64もX軸方向に振動する。このとき、Z軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)が検出用圧電素子66から検出される。
【0127】
なお、X方向検出センサ61及びY方向検出センサ62の構成は、Z方向検出センサ63と同様であるので、その説明は省略する。それらの作用は、X軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)がX方向検出センサ61の検出用圧電素子66から検出され、Y軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)がY方向検出センサ62の検出用圧電素子66から検出される。
【0128】
図16に示すように、位置姿勢検出部23のX方向検出センサ61によって検出されたX軸の回りの角速度に対応した信号(検出データ)と、Y方向検出センサ62によって検出されたY軸の回りの角速度に対応した信号(検出データ)と、Z方向検出センサ63によって検出されたZ軸の回りの角速度に対応した信号(検出データ)とは、それぞれ、信号処理部25の増幅部251にて増幅され、A/D変換部252にてデジタル信号に変換された後、図2に示す信号送受信部26に出力され、この信号送受信部26により情報処理装置8に送信される。
情報処理装置8では、リアルグローブ20から送信された信号を受信し、その信号(情報)に基づいて、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢、すなわち、各部の座標を導出し、その情報を所定の各処理において利用するために記憶部85の所定の格納領域に保存する。
【0129】
次に、第4実施形態における画像処理装置1の動作(作用)について説明する。ここで、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を求める方法以外は、前述した第1実施形態と同様であるので、その説明は、省略する。
使用に先立って、ユーザは、まず、凹凸入力部53a、53bにより撮像される周囲の画像にリアルグローブ20の指等の検出する部位に対応する部分が含まれるようにする。これにより、画像処理装置1において初期設定がなされる。
【0130】
この初期設定では、仮想空間表示装置5は、2台の画像取込装置(撮像手段)、すなわち、凹凸入力部(撮像手段)53a、53bによって周囲の画像を撮像して取り込み、情報処理装置8に対して撮像した画像データ(映像データ)を送信する。
この場合、凹凸入力部53a、53bにて撮像された画像にはリアルグローブ20の指等の検出する部位に対応する部分が含まれているので、情報処理装置8は、凹凸入力部53a、53bにて撮像された画像、すなわち撮像された画像データに基づいて指等の位置及び姿勢(座標)を求める。この求められた位置及び姿勢は、それぞれ、基準位置及び基準姿勢、すなわち基準状態とされ、その基準位置及び基準姿勢の情報は、情報処理装置8の記憶部85の所定の領域に保存される。
【0131】
初期設定が終了すると、使用可能状態となり、仮想空間表示装置5は、凹凸入力部(撮像手段)53a、53bによって周囲の画像を撮像して取り込み、情報処理装置8に対して撮像した画像データを送信する。
情報処理装置8の制御部84(判別手段)は、凹凸入力部53a、53bにて撮像された画像、すなわち撮像された画像データに基づいて、凹凸入力部53a、53bにて撮像された画像にリアルグローブ20の指等の検出する部位に対応する部分が含まれているか否かを判別する。
【0132】
そして、撮像された画像に指等の検出する部位に対応する部分が含まれている場合には、情報処理装置8は、撮像された画像データに基づいて指等の位置及び姿勢(座標)を求める。この求められた位置及び姿勢は、それぞれ、基準位置及び基準姿勢とされる。すなわち、記憶部85に記憶されている基準位置及び基準姿勢の情報は、新たな基準位置及び基準姿勢の情報に書き換えられる。
【0133】
逆に、撮像された画像に指等の検出する部位に対応する部分が含まれていない場合には、情報処理装置8は、各位置姿勢検出部23からの信号(情報)に基づいて、指等の位置及び姿勢(座標)を求める。この場合、各位置姿勢検出部23からの情報からは、基準位置及び基準姿勢に対する相対的な位置及び姿勢が求まり、その相対的な位置及び姿勢の情報と、基準位置及び基準姿勢の情報とに基づいて、指等の位置及び姿勢が求められる。
【0134】
この触覚・力覚提示装置2及び画像処理装置1によれば、前述した第1実施形態と同様の効果が得られる。
そして、この触覚・力覚提示装置2では、手及び各指の所定の部位の位置及び姿勢を正確かつ確実に求めることができるとともに、位置姿勢検出部23としてジャイロセンサを用いることにより、コストを低減することができる。
なお、本実施形態では、位置姿勢検出部(指位置検出手段)23は、ジャイロセンサで構成されているが、本発明では、これに限定されない。
【0135】
また、本発明では、触覚発生部21の単位触覚発生部210を、前述した第2実施形態のように構成してもよい。
また、本発明では、腕固定部2dを、前述した第3実施形態のように、空気(エアー)の注入による空気圧(圧力)により腕に固定する形態(エアー注入方式)のものにしてもよい。
なお、詳細には説明しないが、上述の構成を仮想空間表示装置5の位置姿勢検出部56に適用することもできる。この場合にも、前述した第1実施形態と同様の効果が得られる。
【0136】
次に、図19〜図21のフローチャートを参照して、上記実施形態の各構成、とりわけ第1実施形態の構成に基づいて、本発明の画像処理装置の動作を説明する。ここで、これらのフローチャートに記述されている各機能を実現するためのプログラムは、コンピュータに読み取り可能なプログラムコードの形態で記憶部85の記録媒体に格納されており、制御部84はこのプログラムコードに従った動作を逐次実行する。また、制御部84は、上述のように、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施形態に特有の動作を実行することもできる。
【0137】
図19は、本発明の画像処理装置における触覚・力覚発生処理を示すフローチャートであり、図20は、本発明の画像処理装置における表示切替処理の他の例を示すフローチャートであり、図21は、本発明の画像処理装置における表示切替処理の他の例を示すフローチャートである。なお、これらのフローチャートは、第1実施形態における各構成要素に基づいて説明される。
【0138】
まず、触覚・力覚発生処理について説明する。本発明の画像処理装置1は、仮想空間画像の更新や触覚及び力覚の発生のために、電源が投入されている間、この触覚・力覚発生処理を実行している。すなわち、リアルグローブ20の位置姿勢検出部23によって、ユーザの指(及び手)の位置を検出し(ステップS101)、信号処理部25で所定の信号処理を行った後、信号送受信部26を介して検出された位置信号を情報処理装置8に送信する(ステップS102)。
【0139】
情報処理装置8は、信号送受信部87を介してこの検出信号を受信する。そして、情報処理装置8の制御部84は、検出された指(及び手)の位置が、画像生成部83において生成され、仮想空間表示装置5に既に送信した現在の仮想空間画像における指の位置(記憶部85に保存されている)から移動しているか否かを判断する(ステップS103)。指の移動を検知しない場合には、制御部84は何らの指示も出すことなく、画像処理装置1は、ステップS101に戻り、同様の処理を繰り返す。
【0140】
ステップS103において、指の移動を検知したと判断された場合には、制御部84は、画像生成部83にその指の位置データに基づいて仮想空間画像を更新して生成させ(ステップS104)、移動した指の位置データと更新された仮想空間画像とを記憶部85の所定の格納領域に保存するとともに、信号処理部86及び信号送受信部87を介して更新された画像データ(仮想空間画像データ)を仮想空間表示装置(HMD)5に送信させる。この画像データを受信したHMD5は、制御部54の指示により、その画像データを画像表示部51a及び51bに表示する(ステップS105)。
【0141】
それと同時に、情報処理装置8では、制御部84は、リアルグローブ20の位置姿勢検出部23からの指の位置データに基づいて、演算処理部81をして、仮想空間に表示されている仮想の本の座標と、その移動した指、例えば、人差し指と親指が重なり合った座標が一致したか否かを判断させる(ステップS106)。ここで、「指と仮想の本との座標が一致」とは、親指を含む複数本の指で仮想の本を掴んでいる状態や、1又は複数本の指が仮想の本に触れている状態などをいう。
【0142】
そして、両者の座標が一致していないと判断された場合には、再びステップS101に戻り、画像処理装置1は同様の処理(位置検出処理など)を繰り返す。両者の座標が一致していると判断された場合には、演算処理部81は、対象物(ここでは、本)に基づいて、本から指への反力を演算し、信号処理部86及び信号送受信部87を介してこの演算データをリアルグローブ20に送信する(ステップS107)。なお、このステップにおいて演算された反力データは、制御部84の指示により、記憶部85の所定の格納領域に保存される。
【0143】
反力の演算データを受信したリアルグローブ20では、制御部24は、その演算データに基づいて、触覚発生部21及び力覚発生部22を駆動して触覚及び力覚を発生させ(ステップS108)、ユーザの指に触覚及び力覚を提示して、この触覚・力覚発生処理を終了する。なお、本発明の画像処理装置1は、このステップS108の処理(タスク)を終了後、ステップS101に移行して、同様の処理を繰り返すよう構成されてもよい。また、触覚及び力覚を発生し、ユーザの指などにその触覚・力覚を提示している状態においても、指の位置を検出し、本と指の座標が一致しない状態になったときに、発生していた触覚及び力覚の発生を停止させてもよい。
【0144】
なお、触覚及び力覚の一方のみを発生し、それをユーザの指などに提示してもよい。しかしながら、後述する表示切替処理において、三次元画像に表示が切り替えられた表示物(後述の例では、動物図鑑に表示されたライオン)がある場合については、ユーザの指にその表示物(ライオン)の触覚が提示されるのが好ましい。
【0145】
次に、本発明の表示切替処理について説明する。上述の触覚・力覚発生処理のステップS108においてユーザの指に触覚及び力覚が発生している状態で、この表示切替処理が実行され得るが、本発明では、特に、ユーザが仮想空間中において本を開く(読む)ときに実行される。なお、その他適用可能であれば、いずれの場合に表示切替処理が実行されてもよい。
【0146】
まず、図20に示す表示切替処理の一例から説明する。仮想空間中において、ユーザの指及び手が仮想の本を読むことができるような状態で、仮想空間でユーザが仮想の本を持って(掴んで)いる際に、この表示切替処理が実行される。なお、この表示切替処理では、開閉判定手段は、ユーザが持っている(掴んでいる)本のページの開き角度に基づいて、その仮想の本が開かれているか否かを判定し、表示切替手段は、その判定結果に基づいて、二次元表示と三次元表示とを切り替えている。
【0147】
情報処理装置8の演算処理部81は、仮想空間画像に表示されている仮想の本の開き角度を演算する(ステップS201)。この場合、例えば、仮想空間中に表示されている仮想の本の表紙の1点と背表紙の1点を結んだ線と、裏表紙の1点と背表紙の1点を結んだ線とが作る角度(仮想の本の中を読むことができる側の角度)を演算することにより、この仮想の本の開き角度が演算される。なお、これら2本の線は、本が横書きの場合における行に平行な線であり、2本の線が通る背表紙の1点は、同一の点であることが好ましい。
【0148】
ステップS202において、制御部84は、この開き角度が所定の角度以上であるか否かを判断する。所定の角度以上であると判断された場合には、開閉判定手段は、この本が開いていると判定する(ステップS203)。そして、現在、その表示物が仮想空間中に二次元表示、すなわち、その本に表示されている場合には、その仮想の本の対応するページに描かれている表示物(例えば、動物図鑑のライオン)を仮想空間表示装置5において三次元で表示させるために、制御部84は、画像生成部83に仮想空間画像を生成させ、あるいは、記憶部85に記憶されているその表示物の三次元画像を読み出して、信号処理部86及び信号送受信部87を介してその画像データを仮想空間表示装置5に送信する。そして、この画像データを受信した仮想空間表示装置5は、表示を切り替えて、その表示物を三次元表示する(ステップS204)。これとは逆に、この表示物が既に三次元で表示されている場合には、そのままその表示状態を継続する。
【0149】
一方、所定の角度以上ではないと判断された場合には、開閉判定手段は、その仮想の本が閉じていると判定する(ステップS205)。そして、現在、その表示物が仮想空間中に三次元表示、すなわち、立体的に表示されている場合には、その仮想空間中に三次元表示されている表示物(例えば、動物図鑑から飛び出してきたライオン)を仮想空間表示装置5において二次元で表示させるために(すなわち、元の本のページに描かれているように表示させるために)、制御部84は、画像生成部83に仮想空間画像を更新して生成させ、信号処理部86及び信号送受信部87を介してその画像データを仮想空間表示装置5に送信する。そして、この画像データを受信した仮想空間表示装置5は、表示を切り替えて、その表示物を二次元表示する(ステップS206)。これとは逆に、この表示物が既に二次元で表示されている場合には、そのままその表示状態を継続する。
【0150】
なお、仮想の本に描かれていた表示物を三次元で表示しているとき、その表示物は、等身大(実際の大きさ)で表示されるのが好ましい。また、上述のように、そのように表示物が三次元表示されている場合には、接触判定手段は、ユーザの指が表示物と接触しているか否かを判定し、接触している場合には、触覚提示手段は、ユーザの指に対して、表示物に対応する触覚(例えば、肌触り、感触など)を提示するように構成されてもよい。
【0151】
また、ステップS202において開き角度と比較される所定の角度(所定の角度閾値)としては、例えば、90°や120°など、仮想の本が開いていると考えられる角度が好ましく、例えば、完全に開いたと考えられる180°でもよい。また、この所定の角度は、記憶部(記憶手段)85に予め記憶されており、開閉判定手段(本実施形態では、制御部84)によって判定される際に読み出すように構成されてもよく、あるいは、所定のタイミング(例えば、表示切替処理を実行する前)においてユーザによって設定され得るように構成されてもよい。
【0152】
次に、図21に示す表示切替処理の別の例について説明する。上述の図20のフローチャートの場合と同様に、仮想空間中において、ユーザの指及び手が仮想の本を読むことができるような状態で、仮想空間でユーザが仮想の本を持って(掴んで)いる際に、この表示切替処理が実行される。なお、この表示切替処理では、開閉判定手段は、ユーザが持っている(掴んでいる)本のページに描かれている表示物が仮想空間画像において表示されている割合に基づいて、その仮想の本が開かれているか否かを判定し、表示切替手段は、その判定結果に基づいて、二次元表示と三次元表示とを切り替えている。
【0153】
情報処理装置8の演算処理部81は、仮想空間中に表示されている仮想の本(例えば、動物図鑑など)の開かれようとしているページに描かれている表示物(例えば、ライオンなど)の仮想空間画像における面積を演算する(ステップS301)。なお、本実施形態において、仮想の本に描かれているすべての表示物(表示対象)の面積が、記憶部(記憶手段)85に予め記憶されていてもよい。この場合、このステップでは、対象となる表示物の面積(「A」とする)を記憶部85から読み出すことになる。
【0154】
次いで、演算処理部81は、ユーザの指や仮想の本の状態に応じて画像生成部83によって更新して生成されている仮想空間画像において、現在仮想空間表示装置5に表示されている、上記対象となる表示物の面積(「B」とする)を演算する(ステップS302)。そして、演算処理部81は、この対象となる表示物全体の面積に対する現在表示されている面積の割合(表示割合)、すなわち、B/Aを演算する(ステップS303)。
【0155】
ステップS304において、制御部84は、このように演算された表示割合が所定の割合以上であるか否かを判断する。表示割合が所定の割合以上であると判断された場合には、開閉判定手段は、この本が開いていると判定する(ステップS305)。そして、現在、その表示物が仮想空間中に二次元表示、すなわち、その本に表示されている場合には、その仮想の本の対応するページに描かれている表示物(例えば、動物図鑑のライオン)を仮想空間表示装置5において三次元で表示させるために、制御部84は、画像生成部83に仮想空間画像を生成させ、あるいは、記憶部85に記憶されているその表示物の三次元画像を読み出して、信号処理部86及び信号送受信部87を介してその画像データを仮想空間表示装置5に送信する。そして、この画像データを受信した仮想空間表示装置5は、表示を切り替えて、その表示物を三次元表示する(ステップS306)。これとは逆に、この表示物が既に三次元で表示されている場合には、そのままその表示状態を継続する。
【0156】
一方、表示割合が所定の割合以上ではないと判断された場合には、開閉判定手段は、その仮想の本が閉じていると判定する(ステップS307)。そして、現在、その表示物が仮想空間中に三次元表示、すなわち、立体的に表示されている場合には、その仮想空間中に三次元表示されている表示物(例えば、動物図鑑から飛び出してきたライオン)を仮想空間表示装置5において二次元で表示させるために(すなわち、元の本のページに描かれているように表示させるために)、制御部84は、画像生成部83に仮想空間画像を更新して生成させ、信号処理部86及び信号送受信部87を介してその画像データを仮想空間表示装置5に送信する。そして、この画像データを受信した仮想空間表示装置5は、表示を切り替えて、その表示物を二次元表示する(ステップS308)。これとは逆に、この表示物が既に二次元で表示されている場合には、そのままその表示状態を継続する。
【0157】
なお、仮想の本に描かれていた表示物を三次元で表示しているとき、その表示物は、等身大(実際の大きさ)で表示されるのが好ましい。また、上述のように、そのように表示物が三次元表示されている場合には、接触判定手段は、ユーザの指が表示物と接触しているか否かを判定し、接触している場合には、触覚提示手段は、ユーザの指に対して、表示物に対応する触覚(例えば、肌触り、感触など)を提示するように構成されてもよい。
また、上記所定の割合(表示割合)は、例えば、50%や70%などどのような値でもよいが、ユーザが仮想空間においてその仮想の本で表示物を確認できる程度の割合(仮想空間中において目視などによる確認ができる程度の割合)であるのが好ましい。
【0158】
以上説明したように、本発明の画像処理装置1は、位置姿勢検出部(指位置検出手段)23により指の位置及び移動を検知(検出)し、仮想空間画像中に表示される仮想の本と指との座標が一致した(仮想の本と指が接触した)場合、触覚・力覚提示装置2により触覚・力覚を発生させ、その状態において、本が開かれたときには、演算処理部81により開かれた本の開き角度あるいはそのページに表示されている表示物の表示割合を演算して、開閉判定手段によって所定の角度又は範囲以上であるか否かを判定し、所定の角度又は範囲以上である場合には、表示手段及び表示切替手段によりその表示物を仮想空間中に三次元表示することとした。
【0159】
また、上記表示物が表示手段によって三次元表示されているときには、衝突判定部82によりその表示物と指(手)が接触しているか否かを判定し、接触していると判定される場合には、触覚・力覚提示装置2の触覚発生部21あるいは触覚提示部216(触覚提示手段)によってその表示物に対応する触覚を指に提示することとした。
【0160】
したがって、本発明の画像処理装置及び画像処理方法によって、ユーザは簡単にその表示物の立体映像(三次元画像)を体験することができるのみならず、その表示物の感触(触覚)も体験することができる。例えば、その仮想の本が子供向けの動物図鑑や昆虫図鑑などであり、その中に載っている(表示されている)動物などを調べている際には、その調べている動物などを立体画像として表示するとともに、その触覚も提示されるので、一度の操作(動作)でその動物などを立体画像として体験することができ、その動物などを触った際の感触などを体験することができる。
【0161】
以上、本発明の画像処理装置の構成を、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明の画像処理装置は、上述の各実施形態の任意の2以上の構成(特徴)を適宜組み合わせて構成されてもよい。
【図面の簡単な説明】
【図1】本発明の触覚・力覚提示装置の第1実施形態及びその触覚・力覚提示装置を有する画像処理装置の構成例を示す概念図である。
【図2】図1に示すリアルグローブの回路構成例を示すブロック図である。
【図3】図1に示すリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【図4】図1に示すリアルグローブの触覚発生部の構成例を示す縦断面図である。
【図5】図1に示すリアルグローブの力覚発生部の構成例を示す外観図である。
【図6】図1に示すリアルグローブの力覚発生部の構成例を示す外観図である。
【図7】図1に示すリアルグローブの位置姿勢検出部の構成例を示すブロック図である。
【図8】図1に示す仮想空間表示装置の外観構成例を示す斜視図である。
【図9】図1に示す仮想空間表示装置の回路構成例を示すブロック図である。
【図10】図1に示す仮想空間表示装置の凹凸入力部の構成例を示す図(ブロック図、模式図)である。
【図11】図1に示す仮想空間表示装置の画像表示部の構成例を示す図(ブロック図、模式図)である。
【図12】図1に示す仮想空間表示装置の視線検出部の構成例を示す図(ブロック図、模式図)である。
【図13】図1に示す情報処理装置の回路構成例を示すブロック図である。
【図14】第2実施形態の触覚・力覚提示装置の触覚発生部の構成例を示す縦断面図である。
【図15】第3実施形態の触覚・力覚提示装置のリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【図16】第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示すブロック図である。
【図17】第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示す外観図(一部図示を省略)である。
【図18】図17に示す位置姿勢検出部のZ方向検出センサの構成例を示す外観図である。
【図19】本発明の画像処理装置における触覚・力覚発生処理を示すフローチャートである。
【図20】本発明の画像処理装置における表示切替処理の一例を示すフローチャートである。
【図21】本発明の画像処理装置における表示切替処理の他の例を示すフローチャートである。
【図22】本発明の画像処理装置における表示切替処理の各ステップに対応する概念図の一例である。
【符号の説明】
1……画像処理装置 2……触覚・力覚提示装置 2a……手袋 2b……フレームホルダ 2c……フレームカバー 2d……腕固定部 20……リアルグローブ 20a……筒状部 21……触覚発生部 21a……開口 21d……腕固定部本体 210……単位触覚発生部 211……動力発生部 211a……モータ 212……アクチュエータワイヤ 212a……束 213……ワイヤ保持部 214……触覚提示ピン 214a……接触板 214b……支持部
215……触覚提示ピン支持部 216……触覚提示部 216a……第1の板片 216b……第2の板片 216c……接触部 217……ガイド部 218……押え板 22……力覚発生部 22d……エアー注入部 221……フレーム 222……リンクモータ 23……位置姿勢検出部 23d……蓋体
231……X方向検出コイル 232……Y方向検出コイル 233……Z方向検出コイル 24……制御部 25……信号処理部 251……増幅部 252……A/D変換部 26……信号送受信部 27……遊び吸収部 28……手首固定部 29……ねじれ吸収部 291……帯状部 292……開口 30……電力供給部 5……仮想空間表示装置 51a、51b……画像表示部 511……レンズ 512……レンズ移動機構 513……ステッピングモータ 514……モータ制御部 515……液晶表示パネル 516……液晶駆動部 517……バックライト 518……バックライト制御部 519……トランジスタ
52a、52b……視線検出部 521……ハーフミラー 522……フィルタ 523……レンズ 524……CCD 525……CCD制御部 526……CCD出力増幅部 527……LED 528……LED制御部 529……トランジスタ 53a、53b……凹凸入力部 531……レンズ 532……CCD 533……CCD制御部 534……CCD出力増幅部 54……制御部 55……信号送受信部 56……位置姿勢検出部 57……装着部 58……信号処理部 59……三次元加速度センサ 60……ケーシング 61……X方向検出センサ 62……Y方向検出センサ 63……Z方向検出センサ 64……エリンバー 65……振動用圧電素子 66……検出用圧電素子 67、68……ワイヤ 69……交流電源 8……情報処理装置 81……演算処理部
82……衝突判定部 83……画像生成部 84……制御部 85……記憶部
86……信号処理部 87……信号送受信部 88……磁界発生部 9……基地局

Claims (15)

  1. 仮想空間画像を生成する画像生成手段と、
    前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、
    仮想空間中における指の位置を検出する指位置検出手段と、
    前記指位置検出手段によって検出された指が仮想空間内の対象物に触れているか否かを判定する接触判定手段と、
    前記接触判定手段によって前記指が前記対象物に触れていると判定された場合において、前記対象物が仮想の本であるとき、該仮想の本が所定の程度開いているか否かを判定する開閉判定手段と、
    前記開閉判定手段によって前記仮想の本が所定の程度開いていると判定された場合には、前記表示手段に表示されている前記仮想の本に描かれている表示物を前記仮想の本上における平面画像の表示から前記仮想空間画像に表示される三次元画像の表示に切り替える表示切替手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記指に与える触覚を発生して提示する触覚提示手段と、
    前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように前記触覚提示手段の駆動を制御する制御手段と、
    を更に備える請求項1に記載の画像処理装置。
  3. 前記制御手段は、前記接触判定手段によって前記指が前記表示切替手段により三次元画像の表示に切り替えられた前記表示物に触れていると判定された場合、前記表示物に対応する触覚を発生して前記指に提示するよう前記触覚提示手段の駆動を制御する請求項2に記載の画像処理装置。
  4. 前記開閉判定手段は、前記仮想の本が開いている角度が所定の角度以上であるか否かに基づいて、前記仮想の本が所定の程度開いているか否かを判定する請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記開閉判定手段は、前記仮想の本に描かれている前記表示物が前記表示手段によって前記仮想空間画像中で所定の割合以上表示されているか否かに基づいて、前記仮想の本が所定の程度開いているか否かを判定する請求項1乃至3のいずれかに記載の画像処理装置。
  6. 前記画像生成手段によって生成された画像データ、並びに、前記接触判定手段及び前記開閉判定手段によって判定された判定結果を記憶する記憶手段を更に備えることを特徴とする請求項1乃至5のいずれかに記載の画像処理装置。
  7. 前記画像生成手段は、前記指位置検出手段により検出された前記指の位置に基づいて、所定の時間間隔で仮想の指画像を含む仮想空間画像を更新して生成する請求項1乃至6のいずれかに記載の画像処理装置。
  8. 前記表示手段は、前記指の移動にともなって更新された前記仮想空間画像を連続的に表示する請求項7に記載の画像処理装置。
  9. 前記表示手段は、顔面に装着して使用するものである請求項1乃至8のいずれかに記載の画像処理装置。
  10. 前記表示手段は、前記画像生成手段により生成された仮想空間画像データを受信する通信手段を含む請求項1乃至9のいずれかに記載の画像処理装置。
  11. 前記画像生成手段、前記接触判定手段、前記開閉判定手段及び前記表示切替手段、並びに/又は前記制御手段が1つのユニットとして構成され、該1つのユニットは、前記表示手段及び/又は前記触覚提示手段と相互にデータを送受信する通信手段を備える請求項1乃至10のいずれかに記載の画像処理装置。
  12. 仮想空間画像を生成するステップと、
    前記画像生成手段によって生成された仮想空間画像を表示するステップと、
    仮想空間中における指の位置を検出するステップと、
    前記検出された指が仮想空間内の対象物に触れているか否かを判定するステップと、
    前記指が前記対象物に触れていると判定された場合において、前記対象物が仮想の本であるとき、該仮想の本が所定の程度開いているか否かを判定するステップと、
    前記仮想の本が所定の程度開いていると判定された場合には、前記表示されている前記仮想の本に描かれている表示物を前記仮想の本上における平面画像の表示から前記仮想空間画像に表示される三次元画像の表示に切り替えるステップと、
    を有することを特徴とする画像処理方法。
  13. 前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように、前記指に与える触覚を発生して提示するステップを更に有する請求項12に記載の画像処理方法。
  14. 前記触覚提示ステップでは、前記指が前記三次元画像の表示に切り替えられた前記表示物に触れていると判定された場合、前記表示物に対応する触覚を発生して前記指に提示する請求項13に記載の画像処理方法。
  15. 前記画像生成ステップにおいて生成された画像データ及び前記判定ステップにおいて判定された判定結果を記憶するステップを更に有する請求項12乃至14のいずれかに記載の画像処理方法。
JP2003110367A 2003-04-15 2003-04-15 画像処理装置及び画像処理方法 Expired - Fee Related JP4048999B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003110367A JP4048999B2 (ja) 2003-04-15 2003-04-15 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003110367A JP4048999B2 (ja) 2003-04-15 2003-04-15 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2004318400A true JP2004318400A (ja) 2004-11-11
JP4048999B2 JP4048999B2 (ja) 2008-02-20

Family

ID=33471249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003110367A Expired - Fee Related JP4048999B2 (ja) 2003-04-15 2003-04-15 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP4048999B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011509488A (ja) * 2008-01-08 2011-03-24 イマーション メディカル,インク. 仮想道具操作システム
JP2012073963A (ja) * 2010-09-29 2012-04-12 Toshiba Corp 電子入力システム、および電子入力方法
JP2013029941A (ja) * 2011-07-27 2013-02-07 Kyocera Corp 表示機器、制御システムおよび制御プログラム
JP5270764B2 (ja) * 2009-09-28 2013-08-21 トヨタ自動車株式会社 触覚ディスプレイ及びcadシステム
JP2014510336A (ja) * 2011-02-11 2014-04-24 得鋒 黄 ヒューマンコンピュータインタラクションの制御方法及びその運用
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2017183858A1 (ko) * 2016-04-19 2017-10-26 주식회사 테그웨이 열적 피드백을 제공하는 피드백 디바이스
US10120526B2 (en) 2012-12-20 2018-11-06 Samsung Electronics Co., Ltd. Volumetric image display device and method of providing user interface using visual indicator
US10268175B2 (en) 2015-07-31 2019-04-23 Fujitsu Limited Information presentation method and information presentation apparatus
US10408688B2 (en) 2016-04-19 2019-09-10 Tegway Co., Ltd. Feedback device providing thermal feedback
JP2019194798A (ja) * 2018-05-02 2019-11-07 コニカミノルタ株式会社 制御システム、および制御プログラム
WO2021172580A1 (ja) * 2020-02-27 2021-09-02 学校法人慶應義塾 位置・力制御システム、装着ユニット、制御ユニット、位置・力制御方法及びプログラム
US11118819B2 (en) 2016-10-31 2021-09-14 Tegway Co., Ltd. Feedback device and thermal feedback providing method using same
JP2021149890A (ja) * 2020-03-24 2021-09-27 株式会社エヌアンドエヌ 情報伝達装置及び情報伝達システム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011509488A (ja) * 2008-01-08 2011-03-24 イマーション メディカル,インク. 仮想道具操作システム
US9881520B2 (en) 2008-01-08 2018-01-30 Immersion Medical, Inc. Virtual tool manipulation system
JP2015133143A (ja) * 2008-01-08 2015-07-23 イマーション メディカル,インク. 仮想道具操作システム
US8836660B2 (en) 2009-09-28 2014-09-16 Toyota Jidosha Kabushiki Kaisha Tactile display and CAD system
JP5270764B2 (ja) * 2009-09-28 2013-08-21 トヨタ自動車株式会社 触覚ディスプレイ及びcadシステム
JP2012073963A (ja) * 2010-09-29 2012-04-12 Toshiba Corp 電子入力システム、および電子入力方法
JP2014510336A (ja) * 2011-02-11 2014-04-24 得鋒 黄 ヒューマンコンピュータインタラクションの制御方法及びその運用
US9013475B2 (en) 2011-07-27 2015-04-21 Kyocera Corporation Display device, control system, and storage medium storing control program
JP2013029941A (ja) * 2011-07-27 2013-02-07 Kyocera Corp 表示機器、制御システムおよび制御プログラム
US10120526B2 (en) 2012-12-20 2018-11-06 Samsung Electronics Co., Ltd. Volumetric image display device and method of providing user interface using visual indicator
JP2015115848A (ja) * 2013-12-13 2015-06-22 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10268175B2 (en) 2015-07-31 2019-04-23 Fujitsu Limited Information presentation method and information presentation apparatus
WO2017183858A1 (ko) * 2016-04-19 2017-10-26 주식회사 테그웨이 열적 피드백을 제공하는 피드백 디바이스
US10408688B2 (en) 2016-04-19 2019-09-10 Tegway Co., Ltd. Feedback device providing thermal feedback
US10533900B1 (en) 2016-04-19 2020-01-14 Tegway Co., Ltd. Feedback device providing thermal feedback
US11118819B2 (en) 2016-10-31 2021-09-14 Tegway Co., Ltd. Feedback device and thermal feedback providing method using same
US11747056B2 (en) 2016-10-31 2023-09-05 Tegway Co., Ltd. Feedback device and thermal feedback providing method using same
JP2019194798A (ja) * 2018-05-02 2019-11-07 コニカミノルタ株式会社 制御システム、および制御プログラム
WO2021172580A1 (ja) * 2020-02-27 2021-09-02 学校法人慶應義塾 位置・力制御システム、装着ユニット、制御ユニット、位置・力制御方法及びプログラム
JP2021149890A (ja) * 2020-03-24 2021-09-27 株式会社エヌアンドエヌ 情報伝達装置及び情報伝達システム

Also Published As

Publication number Publication date
JP4048999B2 (ja) 2008-02-20

Similar Documents

Publication Publication Date Title
US6862006B2 (en) Image processing apparatus and image processing method, and image processing program and recording medium of the same
JP2004213350A (ja) 力覚提示装置及び画像補正方法
JP4085691B2 (ja) 画像処理装置
JP4023214B2 (ja) 触覚・力覚提示装置および触覚・力覚提示システム
JP4048999B2 (ja) 画像処理装置及び画像処理方法
US11720175B1 (en) Spatially offset haptic feedback
US10845895B1 (en) Handheld controllers for artificial reality and related methods
WO2014034550A1 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP2003316493A (ja) 触覚提示装置
JP7155613B2 (ja) 情報処理装置及びプログラム
JP2003308141A (ja) 力覚提示装置
JP4039111B2 (ja) 触覚・力覚提示装置および触覚・力覚提示システム
JP6341096B2 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP4063131B2 (ja) 画像処理装置及び触覚・力覚提示方法
JP6964302B2 (ja) アニメーション制作方法
JP2004213349A (ja) 力覚提示装置及び力覚提示システム
JP2021192130A (ja) 触覚提示装置及び触覚提示システム
JPH04210390A (ja) ロボットハンドの遠隔操作システム
JP2012194626A (ja) 表示装置
US11550397B1 (en) Systems and methods for simulating a sensation of expending effort in a virtual environment
US11490669B1 (en) Lockable beams for haptics applications and related systems and methods
JP6428629B2 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびプログラム
JP2003337961A (ja) 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
JP2004213351A (ja) 力覚提示装置及び力覚提示システム
JPWO2021059367A1 (ja) アニメーション制作システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101207

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111207

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121207

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees