JP4063131B2 - Image processing apparatus and tactile / force-sensing method - Google Patents

Image processing apparatus and tactile / force-sensing method Download PDF

Info

Publication number
JP4063131B2
JP4063131B2 JP2003110366A JP2003110366A JP4063131B2 JP 4063131 B2 JP4063131 B2 JP 4063131B2 JP 2003110366 A JP2003110366 A JP 2003110366A JP 2003110366 A JP2003110366 A JP 2003110366A JP 4063131 B2 JP4063131 B2 JP 4063131B2
Authority
JP
Japan
Prior art keywords
finger
unit
virtual space
image
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003110366A
Other languages
Japanese (ja)
Other versions
JP2004318399A (en
Inventor
茂美 佐藤
晃 窪田
昌史 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003110366A priority Critical patent/JP4063131B2/en
Publication of JP2004318399A publication Critical patent/JP2004318399A/en
Application granted granted Critical
Publication of JP4063131B2 publication Critical patent/JP4063131B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置及び触覚・力覚提示方法に関する。
【0002】
【従来の技術】
本等の仮想空間画像が表示され、ユーザ(使用者)が、表示された仮想の本のページをめくる動作をすると、その動作に応じて、前記本のページがめくれるように構成された仮想空間デスクトップ装置が開示されている(例えば、特許文献1など参照)。
【0003】
しかしながら、前記従来の装置では、ユーザは、手や指で、本の用紙の質感や、用紙の例えばエッジに接触したときの感触などを感じることができず、また、手や指で本を握ったときの反力などを感じることができないため、違和感を覚える。
また、本のページめくりの際は、指の感触により本の用紙のエッジを認識し、その用紙(ページ)を指で挟んで持ち上げるようにしてページをめくるのが自然の動作であるが、前記従来の装置では本に対して手や指による感触が得られないので、本のページをめくる動作の度に、本の用紙のエッジに注目して、そのエッジに指を移動させる動作などが必要となり、前記本のページめくりに手間と時間がかかる。
【0004】
ところで、仮想空間内において、パーソナルコンピュータ(PC)を操作し、例えば、インターネットなどのネットワークを介して仮想の商品(例えば、電動工具など)を表示させている場合や、CD−ROMなどの記録媒体に記録された商品カタログのデータを見ている場合に、仮想空間という利点を生かして、その仮想の商品に立体的に表示して触れたり、あるいは、その商品が電動工具などのときには、それを試してみたりしたいという要望も考えられる。
【0005】
このような場合において、上記仮想空間デスクトップ装置などの従来の仮想空間表示装置では、仮想の商品を危険な状態で用いているときに、ユーザの手などにそのまま力覚を提示してしまう可能性がある。このようなときに、ユーザに注意を喚起し、あるいは、適切な状態で使用するためにユーザを誘導することは重要である。
【0006】
【特許文献1】
特開平6−282371号公報
【0007】
【発明が解決しようとする課題】
本発明の目的は、仮想空間に表示されている対象物を取り扱うとき、その対象物が不適切に用いられた場合に、ユーザに注意を喚起することができる画像処理装置及び触覚・力覚提示方法を提供することにある。
【0008】
【課題を解決するための手段】
上記課題を解決するために、本発明の一態様において、本発明の一実施形態における画像処理装置は、
仮想空間画像を生成する画像生成手段と、
前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、
仮想空間中における指の位置を検出する指位置検出手段と、
前記指位置検出手段によって検出された指が仮想空間内の対象物に触れているか否かを判定する接触判定手段と、
前記接触判定手段によって前記指が前記対象物に触れていると判定された場合には、前記指及び前記対象物が不適正な位置関係にあるか否かを判定する適正位置判定手段と、
前記指に与える触覚を発生して提示する触覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように前記触覚提示手段の駆動を制御する制御手段とを備え、
前記制御手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記対象物の感触とは異なる感触を前記指腹に与えるように前記触覚提示手段を駆動制御することを特徴とする。
【0009】
本発明の画像処理装置によれば、画像生成手段によって生成された仮想空間画像において、ユーザが仮想空間内に表示されている対象物を取り扱う(触る、あるいは、用いる)際に、適正位置判定手段によって指及び対象物が不適正な位置関係にあると判定された場合には、対象物の感触とは異なる感触を指腹に与えるように触覚提示手段を駆動制御する。
【0010】
したがって、本発明の画像処理装置によって、ユーザは仮想空間中に表示される対象物を実際に扱うことができるとともに、その対象物が不適切に用いられた場合には注意を喚起するように触覚を提示するので、実際にその対象物を取り扱っているような体験をすることができる。例えば、対象物が購入を検討している商品(実際に動かすような商品であり、例えば、電動工具など)である場合、仮想空間中で実体験ができるので、商品の選択を容易にすることができる。また、例えば、対象物が習得すべき道具である場合、仮想空間中で実体験ができるので、その道具を持っていなくとも、その道具の習得を容易にすることができる。
【0011】
ここで、好ましくは、本発明の画像処理装置は、前記指に与える力覚を発生して提示する力覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が前記指腹に得られるように前記力覚提示手段の駆動を制御する制御手段と、
を更に備え、前記制御手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記指を前記対象物から遠ざけるような感触を前記指腹に与えるように前記力覚提示手段を駆動制御するよう構成されてもよい。
これにより、上述のように注意を喚起するような場合に、触覚の提示だけでなく、ユーザの指に力覚を提示することもできる。
【0012】
また、本発明のもう一つの実施形態における画像処理装置は、
仮想空間画像を生成する画像生成手段と、
前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、
仮想空間中における指の位置を検出する指位置検出手段と、
前記指位置検出手段によって検出された指が仮想空間内の対象物に触れているか否かを判定する接触判定手段と、
前記接触判定手段によって前記指が前記対象物に触れていると判定された場合には、前記指及び前記対象物が不適正な位置関係にあるか否かを判定する適正位置判定手段と、
前記指に与える力覚を発生して提示する力覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が前記指腹に得られるように前記力覚提示手段の駆動を制御する制御手段とを備え、
前記制御手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記指を前記対象物から遠ざけるような感触を前記指腹に与えるように前記力覚提示手段を駆動制御することを特徴とする。
【0013】
ここで、好ましくは、本発明の画像処理装置は、前記指に与える触覚を発生して提示する触覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように前記触覚提示手段の駆動を制御する制御手段とを更に備え、
前記制御手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記対象物の感触とは異なる感触を前記指腹に与えるように前記触覚提示手段を駆動制御するよう構成されてもよい。
【0014】
また、好ましくは、前記表示手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記仮想空間中の所定の位置に所定のメッセージを表示するよう構成されてもよい。この場合、好ましくは、前記所定の位置は、前記不適正な位置関係にあるときの前記対象物の近傍である。また、好ましくは、前記所定のメッセージは、前記対象物に対応する警告文である。
そして、好ましくは、本発明の画像処理装置は、前記画像生成手段によって生成された画像データ、並びに、前記接触判定手段及び前記適正位置判定手段によって判定された判定結果を記憶する記憶手段を更に備える。
【0015】
また、好ましくは、前記画像生成手段は、前記指位置検出手段により検出された前記指の位置に基づいて、所定の時間間隔で仮想の指画像を含む仮想空間画像を更新して生成するよう構成される。この場合において、好ましくは、前記表示手段は、前記指の移動にともなって更新された前記仮想空間画像を連続的に表示するよう構成されてもよい。
【0016】
ここで、好ましくは、前記表示手段は、顔面に装着して使用するものである。また、好ましくは、前記表示手段は、前記画像生成手段により生成された仮想空間画像データを受信する通信手段を含むよう構成されてもよい。さらに、好ましくは、前記画像生成手段、前記接触判定手段、前記適正位置判定手段及び前記制御手段は、1つのユニットとして構成され、該1つのユニットは、前記表示手段及び/又は前記触覚提示手段と相互にデータを送受信する通信手段を備えてもよい。
【0017】
また、本発明の別の態様において、本発明の一実施形態における触覚・力覚提示方法は、
仮想空間画像を生成するステップと、
前記画像生成手段によって生成された仮想空間画像を表示するステップと、
仮想空間中における指の位置を検出するステップと、
前記検出された指が仮想空間内の対象物に触れているか否かを判定するステップと、
前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように、前記指に与える触覚を発生して提示するステップと、
前記指が前記対象物に触れていると判定された場合には、前記指及び前記対象物が不適正な位置関係にあるか否かを判定するステップと、
前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記対象物の感触とは異なる感触を前記指腹に与えるように、前記指に与える触覚を発生して提示するステップと、
を有することを特徴とする。
【0018】
また、本発明のもう一つの実施形態における触覚・力覚提示方法は、
仮想空間画像を生成するステップと、
前記画像生成手段によって生成された仮想空間画像を表示するステップと、
仮想空間中における指の位置を検出するステップと、
前記検出された指が仮想空間内の対象物に触れているか否かを判定するステップと、
前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が前記指腹に得られるように、前記指に与える力覚を発生して提示するステップと、
前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記指を前記対象物から遠ざけるような感触を前記指腹に与えるように、前記指に与える力覚を発生して提示するステップと、
を有することを特徴とする。
ここで、好ましくは、本発明の触覚・力覚提示方法は、前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記仮想空間中の所定の位置に所定のメッセージを表示するステップを更に有してもよい。
【0019】
【発明の実施の形態】
以下、図1〜図25を参照して本発明の画像処理装置及び触覚・力覚提示方法の好適実施形態を詳細に説明する。なお、この実施の形態は例示として挙げるものであり、これにより本発明を限定的に解釈すべきではない。
図1は、本発明の触覚・力覚提示装置(触覚提示手段及び力覚提示手段)を含む画像処理装置の第1実施形態の構成例を示す概念図であり、図2は、図1に示すリアルグローブ20の回路構成例を示すブロック図である。また、図3は、図1に示すリアルグローブ20の外観構成例を示す外観図(一部図示を省略)である。
【0020】
図1に示すように、画像処理装置1は、ユーザ(使用者)の手(指)に装着され、装着された手や各指に対して触覚(触った感覚、例えば、質感、形状、強さ等の接触強度の分布)や力覚(触ったときに加わる力の感覚)を与える一対のリアルグローブ(データグローブ)20、20と、仮想空間画像(仮想空間映像)を表示する仮想空間表示装置(表示手段)5と、各リアルグローブ20及び仮想空間表示装置5の駆動制御等の種々の処理(本発明においては、後述する図19及び図20の商品表示処理や図22及び図24の適正位置判定処理など)を行う情報処理装置8と、仮想空間画像を作成し、仮想空間画像を用いた各種のサービスを提供する基地局9とを備えている。
【0021】
各リアルグローブ20、仮想空間表示装置5、情報処理装置8及び基地局9は、それぞれ、無線(例えば、無線LAN(Local Area Network)、赤外線(IR)データ通信(IrDA:Infrared Data Association)、Bluetoothなど)で信号の送信及び受信(無線通信)を行うことができる無線通信機能(通信手段)を有しており、情報処理装置8と、各リアルグローブ20、仮想空間表示装置5及び基地局9との間で、それぞれ相互に通信を行うことができるようになっている。
【0022】
この画像処理装置1は、基地局9、仮想空間表示装置5及び各リアルグローブ20から供給された情報に基づいて情報処理装置8によって作成(生成)された仮想空間画像を仮想空間表示装置5に表示し、リアルグローブ20を装着した手や指を動作させることによってその手や指が仮想空間に表示された物体に仮想的に接触した場合等に、その様子を仮想空間表示装置5に表示するとともに、リアルグローブ20を装着したユーザの手や各指に接触したときの触覚や力覚を与えるための各処理を行う。
【0023】
情報処理装置(図1では、携帯電話端末として示す)8は、例えば、携帯電話端末、無線通信機能を有するパーソナルコンピュータ、PDA(Personal Digital Assistants)と呼ばれる携帯型情報機器などの、無線通信機能(通信手段)及び制御機能(制御手段)を備えた各種の装置により構成される。
また、基地局9は、例えば、インターネットに接続されている各種サーバコンピュータ、携帯電話端末と無線通信を行う携帯電話基地局などの、仮想空間画像に関する情報を提供する各種の装置により構成される。
【0024】
なお、本実施形態では、各リアルグローブ20、仮想空間表示装置5、情報処理装置8及び基地局9が無線通信機能を有する構成としているが、例えば、その一部又はすべてが有線通信を行う構成とされていてもよい。
また、情報処理装置8が、基地局9の機能の一部又はすべてを有していてもよい。後述する商品表示処理では、便宜的に情報処理装置8に基地局9のすべての機能が含まれるものとして説明している。
【0025】
さらに、リアルグローブ20が、仮想空間表示装置5、情報処理装置8及び基地局9の機能の一部又はすべてを有していてもよい。
ここで、触覚・力覚提示装置2は、本実施形態では、一対のリアルグローブ20、20、すなわち、ユーザの左手に装着される左手用のリアルグローブ20と、ユーザの右手に装着される右手用のリアルグローブ20とで構成されている。以下の説明では、代表的に一方のリアルグローブ20について説明する。
【0026】
なお、本発明において、触覚・力覚提示装置2は、一方のリアルグローブ20のみで構成されていてもよい。
また、本発明では、触覚・力覚提示装置2は、リアルグローブ20の他に、仮想空間表示装置5、情報処理装置8及び基地局9のうちの、いずれか1つ、又は、2つ、又は、すべてを有していてもよい。この場合、触覚・力覚提示装置2は、それらの有する機能の一部を有していてもよく、また、それらの機能のすべてを有していてもよい。
【0027】
図2に示すように、リアルグローブ20は、仮想空間に現れている(仮想空間画像上の)物体(対象物、対象物に表示されているものは表示物)に接触した指の感覚(例えば、質感、形状、強さ等の接触強度の分布)を発生させるための触覚発生部(触覚提示手段)21と、仮想空間に現れている物体に接触したときに手や指にかかる力の強さの感覚を発生させるための力覚発生部(力覚提示手段)22と、リアルグローブ20の各部の位置(リアルグローブ20を装着した手、手首、腕、指等の各部の位置)を検出する位置姿勢検出部23と、リアルグローブ20の各部を制御する制御部24と、情報処理装置8に送信する検出データ信号の増幅等の信号処理を行う信号処理部25と、情報処理装置8との間で無線通信を行うための信号送受信部(通信手段)26とを有している。
【0028】
また、図3に示すように、リアルグローブ20の全体形状は、略長手袋状(手袋状)をなしている。すなわち、リアルグローブ20は、その装着者(ユーザ)の指から腕の肘近傍まで(指から腕にかけて)装着する手袋状の装着手段として、腕を覆う筒状部20aを備えた比較的長い手袋2aを有している。
したがって、ユーザは、この手袋2aにより、リアルグローブ20の装着及び取り外しを容易かつ確実に行うことができる。
【0029】
また、手袋2aはユーザの手から腕にかけて装着されるので、仮想空間における動作(操作)を容易かつ確実に行うことができる。
この手袋2aには、指先に対応する部分の遊びを抑制又は防止する遊び吸収部27と、リアルグローブ20を手首に固定する手首固定部28と、該リアルグローブ20を腕に固定する腕固定部2dと、腕に対応する部分のねじれを吸収するねじれ吸収部29とが、それぞれ設けられている。
遊び吸収部27は、手袋2aの手首付近に対応する部分に設けられている。この遊び吸収部27は、例えば、各種ゴム等の弾性体で形成される。
【0030】
ユーザがリアルグローブ20を装着すると、遊び吸収部27の復元力(弾性力)により、手袋2aは、肘方向(基端側)に引っ張られ、その状態で保持される。これにより、指先に遊びができてしまうのを防止又は抑制することができる。また、指の長さ等の手の寸法の異なる複数のユーザが使用する場合においても、遊び吸収部27により、それぞれ各ユーザにおいて、指先に遊びができてしまうのを防止又は抑制することができる。
【0031】
手首固定部28は、手袋2aの遊び吸収部27の肘側(基端側)に、遊び吸収部27に連続して設けられている。この手首固定部28は、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、手首固定部28の復元力(弾性力)により、手袋2aは、手首に固定される。これにより、使用中にリアルグローブ20がずれてしまうのを防止することができる。
また、この手首固定部28や遊び吸収部27により、後述する触覚発生部21のアクチュエータワイヤ212の束212aは、各アクチュエータワイヤ212がそれぞれその長手方向に移動し得るように所定の位置に保持される。
【0032】
腕固定部2dは、手袋2aの筒状部20aの肘側(基端側)の端部に設けられている。この腕固定部2dは、例えば、各種ゴム等の弾性体で形成される。
ユーザがリアルグローブ20を装着すると、腕固定部2dの復元力(弾性力)により、手袋2aは、腕に固定される。これにより、使用中にリアルグローブ20がずれてしまうのを防止することができる。
【0033】
ねじれ吸収部29は、手袋2aの筒状部20aの途中、すなわち、手首固定部28と腕固定部2dとの間に設けられている。
このねじれ吸収部29は、筒状部20aの一部に3つの開口292を形成して得られる3本の帯状部291で構成されている。各帯状部291は、それぞれ、例えば、伸縮性のある材料で構成された布等の伸縮性のある部材で形成される。
【0034】
ユーザがリアルグローブ20を装着し、例えば、手首をねじる動作をすると、各帯状部291が伸縮、変形し、これにより、筒状部20aのねじれが吸収される。このように、ねじれ吸収部29により、リアルグローブ20のねじれを防止することができ、このため、ユーザは、手や腕を容易かつ円滑に動かすことができる。
なお、ねじれ吸収部29の帯状部291の数は、2本以下でもよく、また、4本以上でもよい。
【0035】
また、手袋2aの各指の背側の各関節に対応する部分には、それぞれ、開口21aが形成されている。これらの開口21aにより、ユーザは、各指の各関節をそれぞれ容易かつ円滑に動かすことができる。
また、このリアルグローブ20には、手袋2aの腕に対応する部分であって、ねじれ吸収部29よりも肘方向に位置する部分、すなわち、手袋2aの筒状部20aの肘側(基端側)の端部に、制御部24、電力供給部30、動力発生部211などが設けられている。
これら制御部24、電力供給部30及び動力発生部211の配置を上述のようにすることにより、リアルグローブ20の指先側(先端側)の重量を軽く(慣性を小さく)することができ、これにより、ユーザは、動作(操作)を容易に行うことができる。
【0036】
触覚発生部21の主要部は、ユーザがリアルグローブ20を装着したときに、ユーザの各指の第1関節(末節骨と中節骨との間の関節)から先の指先部分を覆う位置にそれぞれ設けられている。なお、各触覚発生部21の構成及び作用は、ほぼ同様であるので、以下、代表的に、そのうちの1つについて説明する。
図4は、触覚発生部21の構成例を示す縦断面図である。なお、図が煩雑になるのを避けるため、図中、一部、部材の厚みを省略して図示する。
【0037】
触覚発生部21は、図4(A)に示すように、モータ(駆動源)211aを備える動力発生部(移動手段)211と、長手方向に移動可能に設置されたアクチュエータワイヤ(可撓性を有する線状体)212と、アクチュエータワイヤ212の一端を保持するワイヤ保持部(付勢手段)213と、触覚を発生させるために指腹を押圧する触覚提示ピン(押圧部)214と、触覚提示ピン214を支持するとともに触覚提示ピン214の移動方向を規制する触覚提示ピン支持部(移動方向規制手段)215とで構成される複数の単位触覚発生部(アクチュエータ)210を有している。各単位触覚発生部210は、互いに独立している。
【0038】
なお、動力発生部211と、アクチュエータワイヤ212と、触覚提示ピン支持部215とで、触覚提示ピン214を駆動する駆動機構が構成され、これらが触覚発生部21の触覚提示手段に対応する。
動力発生部211は、例えば、制御部24からの制御信号に応じて内部に備えるモータ211aを回転駆動し、そのモータ211aの回転駆動によってアクチュエータワイヤ212を巻き取る処理(アクチュエータワイヤ212をアクチュエータワイヤ212の長手方向に移動させる処理)を行う。制御部24は、情報処理装置8からの指示に従って、モータ211aの回転駆動が所定のトルクで所定時間なされるように動力発生部211を制御する。動力発生部211は、情報処理装置8からの指示に従ってモータ211aに回転動力を与えることで、アクチュエータワイヤ212を所定の長さ巻き取る処理を行う。
【0039】
ワイヤ保持部213は、図4(A)に示すように、この第1実施形態では指の第1間接の近傍でアクチュエータワイヤ212の一端(終端)を保持する。このワイヤ保持部213は、例えばゴムやバネなどの弾性を有する部材(弾性体)により構成される。
したがって、動力発生部211のモータ211aの駆動によりアクチュエータワイヤ212が巻き取られ、そのアクチュエータワイヤ212が図4(A)中の時計回りに移動すると、それに伴ってワイヤ保持部213が伸張し、アクチュエータワイヤ212は、ワイヤ保持部213の復元力(弾性力)により、図4(A)中の反時計回りの方向(触覚提示ピン214を突出させるときのアクチュエータワイヤ212の移動方向と逆方向)に付勢される。そして、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、ワイヤ保持部213が復元力(弾性力)によって収縮し、これにより、巻き取られていたアクチュエータワイヤ212が引き出され、図4(A)中の反時計回りに移動する。
なお、動力発生部211は、アクチュエータワイヤ212の他端(始端)側に位置している。
【0040】
触覚提示ピン214は、ユーザの指腹に接触感覚(接触の有無や強さ等)を与えるために用いられ、指腹に接触する部分である微小な接触板(接触部)214aと、接触板214aを支持する支持部214bとで構成される。支持部214bは、その一端がアクチュエータワイヤ212の途中に固定され、その他端に接触板214aが設けられている。
【0041】
この第1実施形態では、図4(A)に示すように、リアルグローブ20の手袋2aは、指先を装着する(覆う)装着部が2重構造(例えば布などの部材を2枚重ね合わせて、重ね合わせた2枚の部材の間に何らかの部材が収納し得るような構造)になっており、指先を覆っている部分の内部(2重構造の内部)に、アクチュエータワイヤ212の一部、ワイヤ保持部213及び支持部214bと、触覚提示ピン214のアクチュエータワイヤ212の移動方向への移動を規制する触覚提示ピン支持部215とが設けられている。そして、指が収納される手袋2a内に、支持部214bの一端側が突出し、接触板214aが位置している。
この第1実施形態では、その接触板214aは、リアルグローブ20を装着した手の指先に常に接触した状態となっている。なお、これに限らず、接触板214aが指先から離間した状態(接触板214aと指先とが非接触の状態)をとり得るように構成されていてもよい。
【0042】
図4(A)では、説明を簡単にするため、1つの単位触覚発生部210(1つの触覚提示ピン214)が代表して示されているが、前述したように、実際には、触覚発生部21は、複数の単位触覚発生部210を有しており、その複数の触覚提示ピン214は、ユーザがリアルグローブ20を装着したときのユーザの指先の指腹に対応する位置に、例えば、指腹に沿って、かつ指腹に対し行列状(マトリックス状)に配置されている。
【0043】
各触覚提示ピン214の前後には、それぞれ、その触覚提示ピン214の支持部214bのアクチュエータワイヤ212の移動方向への移動を制限する触覚提示ピン支持部215が設けられている。
なお、各触覚提示ピン214は、規則的に配置されていてもよく、また、不規則に配置されていてもよい。
【0044】
次に、触覚発生部21による触覚発生動作について説明する。
ユーザがリアルグローブ20を装着し、手や指を動かすことによって仮想空間に現れている物体(仮想物体)、すなわち対象物(表示物)に、その指先(指腹)が仮想的に接触すると、情報処理装置8は、実際に接触があったとした場合の押圧力を計算し、その計算結果に基づいて動力発生部211のPWMデータ(例えば、モータ211aを回転させるための励磁パターンを示すデータ)に変換する。
【0045】
この場合、仮想空間(3次元空間)において、予め、互いに直交するX軸、Y軸及びZ軸、すなわちX−Y−Z座標(3次元座標)が想定されており、この物体の座標と、ユーザの指先の座標との一致を検出し、その一致が検出されると、物体の座標に相当する部位とユーザの指先の座標に相当する部位とが接触したと判別する。ユーザの指先の座標は、後述する位置姿勢検出部23から信号送受信部26を介して情報処理装置8に送信される信号(情報)に基づいて導出される。
【0046】
次いで、情報処理装置8は、導出したPWMデータと、実際に接触があったとした場合の接触位置に押圧力を与える接触板214aを動作させる動力発生部211を特定(指定)するためのデータとを、リアルグローブ20に送信する。リアルグローブ20は、受信したPWMデータに応じて、指定された動力発生部211を駆動し、アクチュエータワイヤ212を巻き取る。
【0047】
アクチュエータワイヤ212が巻き取られると、指腹に配されているアクチュエータワイヤ212が指腹に沿って指の先端方向に向けて移動し、図4(B)に示すように、アクチュエータワイヤ212に取付固定されている触覚提示ピン214も、指腹に沿って指の先端方向に向けて移動する。
この際、図4(C)に示すように、触覚提示ピン214は、触覚提示ピン支持部215によって指の先端方向への移動が制限されるとともに、触覚提示ピン支持部215にガイドされて、図4(C)中上側へ移動する(指腹に向って突出する)。すなわち、触覚提示ピン214の接触板214aが指腹の表面に対しほぼ垂直上方に移動する。触覚提示ピン214の支持部214bは、待機時には(初期状態では)、図4(B)に示すように、垂直方向から指の先端方向に傾斜しており、接触板214aがほぼ垂直上方に移動しようとする力が働くことで、その接触板214aが指腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の指腹に押圧力を与える。
【0048】
この動作が、複数の単位触覚発生部210のうちの指定された単位触覚発生部210でなされ、これにより、ユーザの手の指腹に触覚が提示される(与えられる)。よって、ユーザは、仮想空間画像における指腹の物体(対象物)への接触に相当する感覚を、指腹に得ることができる。
このように指定された単位触覚発生部210において、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、ワイヤ保持部213が復元力(弾性力)によって収縮し、これにより、巻き取られていたアクチュエータワイヤ212が引き出される。
【0049】
アクチュエータワイヤ212が引き出されると、指腹に配されているアクチュエータワイヤ212が指腹に沿って指の基端方向(図4(C)中右側)に向けて移動し、アクチュエータワイヤ212に取付固定されている触覚提示ピン214も、指腹に沿って指の基端方向に向けて移動し、触覚提示ピン214は、図4(B)に示す初期状態に戻る。これにより、触覚提示ピン214からユーザの手の指腹に与えられていた押圧力が実質的に消滅する。
【0050】
このような触覚発生部21によれば、指腹に対してほぼ平行に(指腹に沿って)アクチュエータワイヤ212を配置し、そのアクチュエータワイヤ212を巻き取ることによって指腹に対してほぼ垂直な力を与えるようになっているので、触覚を与えるための機構を薄くすることができ、これにより、リアルグローブ20の指腹側の厚みを極力抑えることができる。
また、アクチュエータワイヤ212の弛みを防止することができ、触覚提示ピン214からユーザの指腹に、より正確かつ確実に目標の大ききの押圧力を与えることができる。
【0051】
図5及び図6は、それぞれ、力覚発生部22の構成例を示す外観図である。なお、図5は、フレームカバーが取り外された状態を示す。
図5に示すように、力覚発生部22は、リアルグローブ20を装着したときのユーザの各指の背側に設けられている。なお、力覚発生部22の構成及び作用は、ほぼ同様であるので、以下、代表的に、そのうちの1つについて説明する。
【0052】
力覚発生部22は、回動可能に連結された複数(本実施形態では6つ)のフレーム221を備えたリンク機構と、各フレーム221を回動させる複数(本実施形態では7つ)のリンクモータ(駆動源)222と、手袋2aに設けられた複数(本実施形態では4つ)のフレームホルダ2bとを有している。
フレームホルダ2bは、ユーザがリアルグローブ20を装着したとき、ユーザの指の第1関節より先端側に位置する装着部と、第1関節と第2関節(中節骨と基節骨との間の関節)との間に位置する装着部と、第2関節と第3関節との間に位置する装着部と、第3関節(基節骨と中手骨との間の関節)より基端側に位置する装着部とに、それぞれ、設けられている。
【0053】
リンク機構は、フレームホルダ2bによって、手袋2aの、リアルグローブ20を装着したときのユーザの指の背側に取り付けられている。
すなわち、リンク機構の先端側(図5中右側)の端部のフレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第1関節より先端側の部位にその端部が位置するように配置され、このフレーム221の先端部は、フレームホルダ2bに対し、回動可能に設置されている。
【0054】
また、リンク機構の基端側(図5中左側)の端部のフレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第3関節より基端側の部位にその端部が位置するように配置され、このフレーム221の基端部は、フレームホルダ2bに対し、回動可能に設置されている。
また、リンク機構の残りの各フレーム221は、ユーザがリアルグローブ20を装着したときに、ユーザの指の第1関節と第2関節との間の部位と、第2関節と第3関節との間の部位とに、フレーム連結部が1つおきに位置するように配置され、この1つおきのフレーム連結部において、フレームホルダ2bに対し、回動可能に設置されている。
【0055】
各リンクモータ222の駆動力(回転力)は、それぞれ、図示しない動力伝達部を介して、対応するフレーム221に伝達される。すなわち、リンクモータ222が所定方向に回転駆動すると、対応するフレーム221は、所定方向に回動し、これにより、フレーム221の角度が変更(調整)される。
なお、図5には、前述したアクチュエータワイヤ212の束212aが示されている。
【0056】
また、力覚発生部22の各フレーム221や各リンクモータ222は、それぞれ、図6に示すように、例えば布製のフレームカバー2cの中に収納されている。
また、図6に示すように、フレームカバー2cの内側には、手や指の所定の部位の位置及び姿勢を検出する複数(本実施形態では4つ)の位置姿勢検出部(指位置検出手段)23が設置されている。各位置姿勢検出部23は、それぞれ、位置及び姿勢を検出する部位(検出位置)に対して一定の位置関係を保持し得るように設けられている。
【0057】
すなわち、各位置姿勢検出部23は、それぞれ、この実施形態では、フレームホルダ2bが設けられている位置に固定されている各リンクモータ222に取付固定されている。したがって、各位置姿勢検出部23が設けられている部位と、ユーザの手のひら側の所定の部位との位置関係は、一定に保たれる。したがって、位置姿勢検出部23が自己の位置や姿勢を検出することによって、ユーザの手の平側の所定の部位の位置や姿勢を容易かつ正確に導出することができる。
【0058】
また、各位置姿勢検出部23は、それぞれ、手の甲側に配置されているので、リアルグローブ20の指腹側の厚みを極力抑えることができる。
また、図3に示すように、位置姿勢検出部23は、ユーザがリアルグローブ20を装着したとき、リアルグローブ20の腕の基端側の部位に相当する位置にも設置されている。これら位置姿勢検出部23により、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を確実に把握することができる。
【0059】
次に、力覚発生部22による力覚発生動作について説明する。
ユーザがリアルグローブ20を装着し、手や指を動かすことによって仮想空間に現されている物体(仮想物体)、すなわち対象物に、その手や指が仮想的に接触すると、情報処理装置8は、後述する演算処理部81によって、実際に接触があった場合の物体から指(指の各関節)への反力を計算し、その計算結果に基づいて各リンクモータ222のPWMデータ(例えば、リンクモータ222を回転させるための励磁パターンを示すデータ)に変換する。
【0060】
物体とユーザの手や指との接触の判別は、触覚発生部21の場合と同様であるので、ここではその節名を省略する。
情報処理装置8は、導出した各PWMデータと、駆動させる各リンクモータ222を示すデータとをリアルグローブ20に送信する。リアルグローブ20は、受信したデータに応じて、指定された各リンクモータ222を所定方向に回転駆動し、対応する各フレーム221を所定方向に回動させ、各フレーム221の角度を調整、すなわち、リンク機構の両端部のフレーム221の角度及び各フレーム連結部の角度をそれぞれ調整する。
【0061】
このフレーム221の角度調整により、所定のフレームホルダ2bにそれぞれ所定の大きさの力が加わり、これにより、仮想空間に現されている物体からの反力に対応する力がユーザの指の各関節に与えられる。すなわち、指の各関節に対して力覚が提示される(与えられる)。
ここで、この力覚発生部22は、指の複数の部位に装着する複数の装着部間の間隔を調節する機能を有している(調節手段を兼ねている)。
例えば、図5に示すように、所定のフレーム221を回動させ、フレーム221の角度を調整することにより、各フレームホルダ2b間の間隔を長くしたり、又は、短くしたりすることができる。
【0062】
図7は、リアルグローブ20の位置姿勢検出部23の構成例を示すブロック図である。位置姿勢検出部23には、本実施形態では、直交コイル式(直交コイル型)の位置センサが用いられる。すなわち、位置姿勢検出部23は、図7に示すように、X方向検出コイル231と、Y方向検出コイル232と、Z方向検出コイル233とで構成される。なお、X方向と、Y方向と、Z方向とは、互いに直交している。
【0063】
一方、情報処理装置8には、磁界を発生する後述する磁界発生部88が設けられている。この磁界発生部88には、例えば、位置姿勢検出部23とほぼ同じ構成のもの、すなわち、直交コイル式(直交コイル型)の磁界発生器(X方向コイル、Y方向コイル、Z方向コイル)が用いられる。
この磁界発生部88で発生した磁界は、位置姿勢検出部23で検出される。この場合、磁界発生部のX方向コイル、Y方向コイル、Z方向コイルの順に時分割で磁界を発生し、それぞれコイルから発生された磁界を、位置姿勢検出部23のX方向検出コイル231、Y方向検出コイル232及びZ方向検出コイル233の3つのコイルで検出する。
【0064】
位置姿勢検出部23によってXYZ各方向について検出された各信号(検出データ)は、それぞれ、信号処理部25の増幅部251にて増幅され、A/D変換部252にてデジタル信号に変換された後、図2に示す信号送受信部26に出力され、この信号送受信部26により情報処理装置8に送信される。
情報処理装置8では、上記の信号を受信し、その信号(情報)に基づいて、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を導出し、その情報を所定の各処理において利用する。
【0065】
次に、本発明の表示手段である仮想空間表示装置5について説明する。
仮想空間表示装置(表示手段)5には、この実施形態では、顔面に装着して使用する形態のもの、すなわち、HMD(ヘッドマウントディスプレイ)と呼ばれる眼鏡状の装置が用いられる。
図8は、仮想空間表示装置5の外観構成例を示す斜視図であり、図9は、仮想空間表示装置5の回路構成例を示すブロック図である。
【0066】
仮想空間表示装置5は、装着者(ユーザ)に対して仮想空間画像を表示する画像表示部51a、51bと、装着者の視線を検出する視線検出部52a、52bと、周囲の画像(映像)を取り込む凹凸入力部53a、53bと、装置全体の制御を行う制御部54と、情報処理装置8と信号を送受信する信号送受信部55と、ユーザの視点を検出する位置姿勢検出部(位置検出手段)56と、耳に引っかけて保持する装着部57と、各種信号を処理する信号処理部58と、三次元加速度センサ59とを備えている。
【0067】
図10は、仮想空間表示装置5の凹凸入力部53aの構成例を示す図(ブロック図、模式図)である。この図10において、凹凸入力部53aは、レンズ531と、CCD(撮像素子)532と、CCD制御部533と、CCD出力増幅部534とを有している。
レンズ531に入射した光(光束)は、そのレンズ531により、CCD532の受光面(撮像面)上に導かれて結像し、その被写体像(周囲の像)は、CCD532により撮像される。このCCD532の駆動は、CCD制御部533により制御される。
【0068】
CCD532から出力された信号は、CCD出力増幅部534で増幅され、その後、凹凸入力部53aから出力され、図9に示す信号処理部58に入力される。そして、信号処理部58において所定の信号処理がなされ、信号送受信部55により情報処理装置8に送信される。
なお、凹凸入力部53bの構成及び作用は、凹凸入力部53aと同様であるので、その説明は、省略する。
【0069】
図11は、仮想空間表示装置5の画像表示部51aの構成例を示す図(ブロック図、模式図)である。この図11において、画像表示部51aは、レンズ511と、レンズ511を移動させるレンズ移動機構512と、ステッピングモータ513と、モータ制御部514と、図示しないカラーフィルタを備えた液晶表示パネル515と、液晶駆動部516と、バックライト517と、バックライト制御部518と、トランジスタ519とを有している。
【0070】
画像表示部51aにおいて仮想空間画像を表示する際は、バックライト制御部518の制御により、トランジスタ519がオンし、バックライト517が駆動し、バックライト517から液晶表示パネル515へ光が照射される。
そして、液晶駆動部516は、制御部54から入力される表示信号(画像データ)に基づいて、液晶表示パネル515の駆動を制御し、これにより、液晶表示パネル515に仮想空間画像が表示される。
装着者(ユーザ)は、レンズ511及び後述する視線検出部52aのハーフミラー521を介し、この液晶表示パネル515に表示された仮想空間画像を視認することができる。
【0071】
ステッピングモータ513の駆動は、モータ制御部514により制御され、そのステッピングモータ513が所定方向に回転すると、レンズ移動機構512により、レンズ511は、液晶表示パネル515に接近する方向、すなわち、装着者の目から離間する方向へ移動する。
また、ステッピングモータ513が上記方向と逆方向に回転すると、レンズ移動機構512により、レンズ511は、液晶表示パネル515から離間する方向、すなわち、装着者の目に接近する方向へ移動する。
【0072】
このレンズ511の位置の変更により、仮想空間画像の遠近を変更することができる。
このレンズ511の位置の調整、すなわち、仮想空間画像の遠近の調整は、後述する視線検出部52a、52bで検出される装着者の視線の情報に基づいてなされる。
なお、画像表示部51bの構成及び作用は、画像表示部51aと同様であるので、その説明は、省略する。
【0073】
視線検出部52a、52bは、装着者の視線がどの方向にあるか(仮想空間画像のどこに焦点を合わせようとしているか)を検出する機能と、セキュリティ情報として利用するための装着者の眼の虹彩パターンを読み取る機能とを有している。
図12は、仮想空間表示装置5の視線検出部52aの構成例を示す図(ブロック図、模式図)である。この図12において、視線検出部52aは、ハーフミラー521と、可視光を除去し、赤外光を透過させるフィルタ522と、レンズ523と、CCD(撮像素子)524と、CCD制御部525と、CCD出力増幅部526と、赤外光を発するLED(発光ダイオード)527と、LED制御部528と、トランジスタ529とを有している。
【0074】
LED527の駆動は、LED制御部528により制御され、そのLED制御部528の制御によりトランジスタ529がオンすると、LED527が駆動し、LED527から赤外光が発せられる。
LED527から発せられた赤外光は、フィルタ522を透過し、ハーフミラー521でその一部が反射して、装着者の目に照射される。
【0075】
そして、装着者の目からの反射光(光束)は、ハーフミラー521でその一部が反射して、フィルタ522を透過し、レンズ523により、CCD524の受光面(撮像面)上に導かれて結像し、その被写体像(装着者の目の像)は、CCD524により撮像される。このCCD524の駆動は、CCD制御部525により制御される。
【0076】
CCD524から出力された信号は、CCD出力増幅部526で増幅され、その後、視線検出部52aから出力され、図9に示す信号処理部58に入力され、所定の信号処理がなされ、信号送受信部55により情報処理装置8に送信される。
情報処理装置8では、仮想空間表示装置5からの信号を受信し、その信号(情報)に基づいて、装着者の視線がどの方向にあるか(仮想空間画像のどこに焦点を合わせようとしているか)を検出するとともに、装着者の眼の虹彩パターンを読み取り、解析し、セキュリティ情報として利用する。
【0077】
一方、レンズ523側からフィルタ522へ入射する可視光は、フィルタ522で除去され、その可視光が装着者の目に照射されてしまうのを阻止することができる。これにより、液晶表示パネル515に表示された仮想空間画像の視認性の低下を防止することができる。
なお、視線検出部52bの構成及び作用は、視線検出部52aと同様であるので、その説明は、省略する。
【0078】
この仮想空間表示装置5は、2台の画像取込装置(撮像手段)、すなわち、凹凸入力部53a、53bによって周囲の画像を撮像して取り込み、情報処理装置8に対して撮像した画像データ(映像データ)を送信する。
情報処理装置8は、凹凸入力部53a、53bにて撮像された画像、すなわち撮像された画像データから視角差を導出し、その視角差等から得られる周囲の凹凸に基づいて、仮想空間画像、すなわち仮想空間の画像データを作成する。そして、情報処理装置8は、作成した仮想空間の画像(映像)と、例えば、仮想壁紙や仮想パーソナルコンピュータや仮想本などの所定の仮想物体を周囲の凹凸に合わせて仮想空間に配置するための画像とを合成した合成画像(合成映像)を示す画像データ(映像データ)を仮想空間表示装置5に送信する。
【0079】
仮想空間表示装置5は、情報処理装置8からの画像データに基づいて、その画像を画像表示部51a、51bを用いて表示する。
また、仮想空間表示装置5は、装着されているリアルグローブ20、すなわち、ユーザの手や腕が画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、その手や腕に対応する画像も、画像表示部51a、51bに表示する。
【0080】
この場合、前述したように、リアルグローブ20に設けられている複数の位置姿勢検出部23の検出データが情報処理装置8に送信されることで、リアルグローブ20の位置及び姿勢、すなわち、ユーザの各指、手、手首、腕等は情報処理装置8にて認識される。すなわち、情報処理装置8は、逐一、リアルグローブ20からの検出データに基づいて、ユーザの各指、手、手首、腕等の位置及び姿勢を特定し、それらが画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、それらを示す仮想空間画像を作成し、その画像を基礎の画像に合成して、合成画像(合成画像の画像データ)を得、その画像データを仮想空間表示装置5に送信する。
【0081】
したがって、ユーザの手や腕が画像表示部51a、51bにより表示されている画像の領域内に入っている場合には、その手や腕に対応する画像が、画像表示部51a、51bに表示される。
そして、リアルグローブ20を装着した手や指の実際の動作に連動し、画像表示部51a、51bに表示されている仮想空間画像においてその手や指が動く。
【0082】
位置姿勢検出部56は、仮想空間表示装置5の位置及び姿勢、すなわち、装着者の顔面(頭部)の位置及び姿勢を検出するためのセンサである。この位置姿勢検出部56には、本実施形態では、直交コイル式の位置センサ、すなわち、位置姿勢検出部23と同様のものが用いられる。
位置姿勢検出部56からの信号(検出データ)は、信号処理部58に入力され、所定の信号処理がなされ、信号送受信部55により逐一情報処理装置8に送信される。情報処理装置8は、この検出データに基づいて、所定の時間間隔で逐一仮想空間画像を更新する。
【0083】
したがって、例えば仮想空間表示装置5を装着したユーザが首を動かした場合には、画像表示部51a、51bに表示される仮想空間画像は、ユーザが向いている方向に合致した画像となるように変化する。
三次元加速度センサ59は、仮想空間表示装置5の略直交する三方向への加速度を検出するものであり、HMDに内蔵可能なものであって、ある程度の精度を有するものであれば、圧電型でも、サーボ型でも、ひずみゲージ型などのいずれでもよい。しかしながら、本発明では、CMOSを用いた半導体加速度センサのように、より高精度な加速度センサが適する。
【0084】
この三次元加速度センサ59で検出された信号(加速度データ)は、信号処理部58に出力され、増幅などの所定の信号処理がなされた後、信号送受信部55を介して情報処理装置8に送信される。なお、この加速度データは、HMD5の移動速度を演算する際に用いられるが、本発明では必須の構成ではないので、その説明を省略する。
【0085】
次に、本発明の画像処理装置の一部である情報処理装置8について説明する。図13は、図1に示す情報処理装置8の回路構成例を示すブロック図である。この図13において、情報処理装置8は、演算処理部(演算手段)81と、衝突判定部(衝突判定手段、接触判定手段も兼ねる)82と、画像生成部(画像生成手段)83と、制御部(制御手段、適正位置判定手段も兼ねる)84と、記憶部(記憶手段)85と、信号処理部86と、信号送受信部(通信手段)87と、磁界発生部88とを備えている。
【0086】
演算処理部81は、上述のリアルグローブ20の指や手が仮想空間内の対象物に接触した場合には、その対象物がどのようなものであるかを判断して、それから指(指の各関節)への反力(触覚及び/又は力覚)を演算し、その演算結果からリアルグローブ20の各リンクモータ222のPWMデータに変換し、その変換データを信号処理部86及び信号送受信部87を介してリアルグローブ20に送信する。
【0087】
衝突判定部82は、リアルグローブ20の各指が仮想空間内の仮想の対象物(表示物)と衝突したか否か(接触したか否か)を判定するものである。衝突判定部82によって判定された判定結果は、制御部84に出力される。本発明では、衝突判定部82は、指と仮想のパーソナルコンピュータの液晶画面との衝突のみならず、商品表示処理によって表示された商品との衝突又は接触についても判定する。この判定結果も同様に制御部84に出力される。
【0088】
画像生成部83は、制御部84の指示により、予め基地局9から受信した仮想空間画像、あるいは仮想空間表示装置5の凹凸入力部53a、53bによって撮像され、その撮像画像から変換された仮想空間画像に、ユーザの腕や指などの映像を重ね合わせて、合成された仮想空間画像を生成し、それを信号処理部86に出力する。また、画像生成部83は、仮想空間中に表示されるリアルグローブ20又は仮想空間表示装置5の移動にともない、所定の時間間隔で仮想空間画像を更新して生成し、それを信号処理部86に出力する。
【0089】
制御部84は、衝突判定部82の判定結果に基づいて、演算処理部81に上述の反力を演算させる。また、制御部84は、上述の演算処理部81、衝突判定部82、及び画像生成部83の動作を制御し、その演算結果、衝突判定結果(接触判定結果)、及び生成画像データなどを記憶部85の所定の格納領域に保存するとともに、信号処理部86及び信号送受信部87を介して、対応する装置にそれらを送信する。
【0090】
また、制御部84は、本発明では、衝突判定部82によって指と上記仮想のパーソナルコンピュータの液晶画面(あるいは、それに表示されている商品)とが一致した(すなわち、指が仮想の商品にタッチした、あるいは、指で仮想の商品を掴んだ)と判定される場合には、その仮想の商品を仮想空間画像中に挿入するよう画像生成部83に仮想空間画像データを生成させ、その画像を仮想空間表示装置5に表示させる。
【0091】
さらに、制御部84は、指と仮想の商品とが衝突(接触)している場合、指とその仮想の商品の位置関係が不適切であるか否かを判定し(適正位置判定手段)、その判定結果に基づいて、触覚・力覚提示装置2(触覚提示手段、力覚提示手段)によってユーザの指に触覚及び/又は力覚を提示させ、あるいは、画像生成部83に警告メッセージを生成させ、そのメッセージデータを信号処理部86及び信号送受信部87を介して仮想空間表示装置5に送信させる。なお、仮想空間表示装置5は、このように受信した警告メッセージデータを仮想空間画像において所定の位置にを表示する。
【0092】
記憶部85は、プログラムやデータ等が予め記憶されている、図示しないコンピュータに読み取り可能な記憶媒体(記録媒体ともいう。特許請求の範囲においては記録媒体とする)を有しており、この記憶媒体は、例えば、RAM(Random Access Memory:揮発性、不揮発性のいずれをも含む)、FD(Floppy Disk(Floppyは登録商標))、HD(Hard Disk)、CD−ROM(Compact Disc Read-Only Memory)等のような、磁気的、光学的記録媒体、もしくは半導体メモリで構成されている。この記憶媒体は、記憶部85に固定的に設けたもの、もしくは着脱自在に装着するものであり、この記憶媒体には、上記仮想空間表示装置5、情報処理装置8、及び触覚・力覚提示装置2に対応する各種アプリケーションプログラム、商品表示処理プログラム、適正位置判定処理プログラム、及び各処理プログラムで処理されたデータ、文書データ等が記憶される。
【0093】
また、この記憶媒体に記憶するプログラム、データ等は、その一部もしくは全部をサーバやクライアント(本実施形態では、基地局9など)等の他の機器からネットワーク回線(例えば、インターネット、電話回線など)等の伝送媒体を介して信号送受信部87から受信して記憶する構成にしてもよく、さらに、記憶媒体はネットワーク上に構築された基地局9のサーバの記憶媒体であってもよい。さらに、このようなプログラムをネットワーク回線等の伝送媒体を介してサーバやクライアントから伝送して情報処理装置8にインストールするように構成してもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであって良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
【0094】
信号処理部86は、仮想空間表示装置5や触覚・力覚提示装置2に送信する画像データや制御信号などの増幅等の信号処理を行う。信号送受信部87は、信号処理部86において処理された各種信号やデータを仮想空間表示装置5や触覚・力覚提示装置2などの外部機器との通信を行うための制御を行う。
磁界発生部88は、詳細は図示されていないが、例えば、図7の位置姿勢検出部23に対応する直交コイル式(直交コイル型)の磁界発生器(X方向コイル、Y方向コイル、Z方向コイル)である。この磁界発生部88は、制御部84からの指示により、X、Y、Z方向コイルの順で磁界を発生し、リアルグローブ20の位置姿勢検出部23の各方向の検出コイル231、232及び233に発生した磁界を検出させるとともに、仮想空間表示装置5の位置姿勢検出部56にも磁界を検出させる。
【0095】
なお、この磁界発生部88は、図示のように情報処理装置8に格納されてもよいが、磁界発生装置として情報処理装置8とは別構成としてもよい。特に、情報処理装置8として携帯電話機やPDAを用いるときは、その内部に磁界発生部を後から設けることができないので、別構成とすることが有用である。このように別に磁界発生装置(又は磁界発生部)を設けたとしても、その制御は、情報処理装置8からの制御信号によってなされる。
【0096】
次に、第1実施形態の画像処理装置1の動作(作用)について説明する。ここでは、ユーザが、画像処理装置1を利用して、仮想空間に現れている仮想パーソナルコンピュータの操作を行う場合を例に説明する。
ユーザは、各部の電源を入れ、リアルグローブ20を両手にそれぞれ装着し、眼鏡状の仮想空間表示装置5をかける(顔面に装着する)。すると、仮想空間表示装置5の画像表示部51a、51bに、仮想パーソナルコンピュータを含む仮想空間画像が表示される。
【0097】
また、ユーザの腕が画像表示部51a、51bで表示されている仮想空間画像内に入るようにすれば、情報処理装置8の画像生成部83にて作成されたその手や腕の画像が仮想空間画像に仮想物体として表示される。そして、ユーザが手や指を動かした場合には、その実際の手や指の動きに連動して、仮想空間画像において、表示されている手や指が動く。
【0098】
情報処理装置8は、衝突判定部82によって、仮想空間画像における対象物、すなわち本実施形態では、例えば、仮想パーソナルコンピュータの一部(例えばキーボード)と、ユーザの指の一部が同一座標となったことを検出すると、演算処理部81の演算結果に基づいて、リアルグローブ20に対して、触覚及び力覚を発生させるための指示を行う。具体的には、情報処理装置8は、リアルグローブ20に対して、演算処理部81が演算した反力の演算結果から得た、駆動させる動力発生部211及びその駆動に用いるPWMデータや、駆動させるリンクモータ222及びその駆動に用いるPWMデータなどを、信号送受信部87を介して送信する。
【0099】
リアルグローブ20は、情報処理装置8からの指示に従って、指定された各動作発生部211を、それぞれ、指定されたトルクで指定された時間だけPWM制御により駆動する。これにより、仮想パーソナルコンピュータの一部と同一座標となった部分に配置されている各触覚提示ピン214の接触板214aが突出し、仮想パーソナルコンピュータの一部と同一座標となったユーザの各指先に対して触覚が与えられる。すなわち、各指先に、接触感覚、質感、形状、強さ等の感覚が与えられる。
【0100】
同時に、リアルグローブ20は、情報処理装置8からの指示に従って、指定された各リンクモータ222を、それぞれ、指定されたトルクで指定された時間だけPWM制御により駆動する。これにより、実在するパーソナルコンピュータの例えばキーボードに触れているときに各指の各関節に与えられる力覚、すなわち、各指の各関節に与えられる押圧力(反力)に相当する力がユーザの各指の各関節に対して与えられる。
【0101】
また、ユーザが、さらに仮想パーソナルコンピュータのキーを押し込む方向に指を動かすと、指の座標変化に合わせて、画像表示部51a、51bに、キーを押し込む様子を示す仮想空間画像が表示される。
この場合、情報処理装置8は、押下されたキーに基づく表示状態の変化を仮想空間画像で再現するための仮想空間画像の画像データを画像生成部83において生成し、それを仮想空間表示装置5に送信する処理を行い、仮想空間表示装置5は、情報処理装置8から受信した仮想空間画像の画像データに基づいて、仮想パーソナルコンピュータのディスプレイにキーの押下が反映された表示がなされる画像を表示する。
【0102】
以上説明したように、この触覚・力覚提示装置2及び画像処理装置1によれば、リアルグローブ20の装着及び取り外しを容易かつ確実に行うことができ、また、仮想空間における動作(操作)を容易かつ確実に行うことができる。
また、仮想空間画像に応じて、各指に対して触覚及び力覚をそれぞれ正確かつ確実に提示することができる。
【0103】
これにより、ユーザは、仮想空間における動作(操作)を、快適に、容易かつ確実に、行うことができる。
特に、触覚発生部21において、アクチュエータワイヤ212の弛みを防止することができ、各触覚提示ピン214からそれぞれユーザの各指腹に、より正確かつ確実に目標の大ききの押圧力を与えることができる。
【0104】
これにより、ユーザは、仮想空間画像における各指腹の物体(対象物)への接触に相当する感覚を、より正確かつ確実に各指腹で感じることができる。
また、触覚発生部21では、各指腹に対してほぼ平行に(指腹に沿って)アクチュエータワイヤ212が配置され、そのアクチュエータワイヤ212を巻き取ることによって各指腹に対してほぼ垂直な力を与えるようになっているので、触覚を与えるための機構を薄くすることができ、これにより、リアルグローブ20の指腹側の厚みを極力抑えることができる。
【0105】
また、力覚発生部22はリンク機構を有しているので、指を伸ばしている状態、指を曲げている状態のいずれにおいても対応することができ、これにより、より確実に、各指に対して力覚を与えることができる。
なお、上述した実施形態では、使用例として仮想空間画像にて表示されているパーソナルコンピュータを仮想的に操作する場合について説明したが、本発明では、これに限らず、例えば、仮想本などの他の物品を取扱うために使用することもできる。仮想本を取扱う場合には、例えば、仮想本の縁をさわったりページをめくったりするときに、実際の本の縁をさわったりページをめくったりするときに指に加わる触感や力感を感じることができる。
【0106】
次に、本発明の画像処理装置の第2実施形態について説明する。図14は、本発明の第2実施形態における触覚・力覚提示装置の触覚発生部の構成例を示す縦断面図である。
以下、第2実施形態の触覚・力覚提示装置2及び画像処理装置1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
【0107】
図14(A)に示すように、第2実施形態の触覚・力覚提示装置2では、その触覚発生部21の各単位触覚発生部(アクチュエータ)210は、それぞれ、モータ(駆動源)211aを備える動力発生部(移動手段)211と、長手方向に移動可能に設置されたアクチュエータワイヤ(可撓性を有する線状体)212と、触覚を発生させるために指腹を押圧する触覚提示部216とを有している。なお、第2実施形態では、触覚提示部216が触覚提示手段の主要部を構成する。
【0108】
触覚提示部216は、ユーザの指腹に接触感覚(接触の有無や強さ等)を与えるために用いられ、例えば、板バネのような弾性を有する部材(弾性体)で形成される。この場合、触覚提示部216は、適度な剛性を有するのが好ましく、例えば、各種金属で構成された弾性体で形成することができる。
この触覚提示部216は、第1の板片(押圧部)216aと、第2の板片(スライド部)216bとで構成されている。第1の板片216aと第2の板片216bとは、一端側において接合されており、第1の板片216aの他端側には、指腹に接触する部分である微小な接触部216cが設けられている。この接触部216cは、例えば、第1の板片216aの端部を第2の板片216b側に向けて屈曲させることによって形成することができる。
【0109】
また、触覚提示部216の一端側、すなわち、図14(A)中左側の端部は、図14(A)中下側に凸となるように湾曲している。
第1の板片216aと、第2の板片216bとの間には、第1の板片216aの移動方向を規制する円柱状のガイド部(移動方向規制手段)217が設置されている。
また、触覚提示部216の図14(A)中下側には、押え板218が設置されており、触覚提示部216は、この押え板218に沿って移動(スライド)し得るようになっている。この場合、触覚提示部216は、その図14(A)中左側の端部が湾曲しているので、円滑かつ確実に移動することができる。
【0110】
ガイド部217は、押え板218に固定され、押え板218は、手袋2aに固定されている。すなわち、ガイド部217及び押え板218は、共に、手袋2aに対して固定的に設置されている。
また、触覚提示部216の第2の板片216bの図14(A)中右側の端部には、アクチュエータワイヤ212の一端が固定されている。
【0111】
動力発生部211のモータ211aの駆動によりアクチュエータワイヤ212が巻き取られると、そのアクチュエータワイヤ212は、指腹に沿って図14(A)中右側(指の基端方向)に移動し、これとともにアクチュエータワイヤ212に取付固定されている触覚提示部216も指腹に沿って図14(A)中右側に移動する。
【0112】
この際、図14(B)に示すように、触覚提示部216の第1の板片216aは、ガイド部217によって図14(B)中右側への移動が制限されるとともに、ガイド部217にガイドされて、図14(B)中上側へ移動する(指腹に向って突出する)。すなわち、触覚提示部216が弾性変形し、その第1の板片216aの姿勢が図14(B)に示す姿勢に変更されることで、接触部216cは、指腹の表面に対しほぼ垂直上方に移動する(押し上げられる)。
【0113】
一方、アクチュエータワイヤ212は、触覚提示部216の復元力(弾性力)により、図14(B)中左側(第1の板片216aを突出させるときのアクチュエータワイヤ212の移動方向と逆方向)に付勢される。すなわち、この触覚提示部216(第1の板片216a)は、付勢手段を兼ねる。
接触部216cがほぼ垂直上方に移動しようとする力が働くことで、その接触部216cが指腹をほぼ垂直方向へ押圧し、これにより、ユーザの手の指腹に押圧力を与える。
【0114】
この動作が、複数の単位触覚発生部210のうちの指定された単位触覚発生部210でなされ、これにより、ユーザの手の指腹に触覚が提示される(与えられる)。よって、ユーザは、仮想空間画像における指腹の物体(対象物)への接触に相当する感覚を、指腹に得ることができる。
このように指定された単位触覚発生部210において、動力発生部211のモータ211aの駆動が停止し、アクチュエータワイヤ212の巻き取り状態が解除されると、触覚提示部216の復元力(弾性力)と、ユーザの指からの圧力によって、触覚提示部216は、図14(A)に示す初期状態に戻る。これにより、触覚提示部216からユーザの手の指腹に与えられていた押圧力が実質的に消滅する。
この触覚・力覚提示装置2及び画像処理装置1によれば、前述した第1実施形態と同様の効果が得られる。
【0115】
次に、本発明の画像処理装置の第3実施形態について説明する。図15は、第3実施形態の触覚・力覚提示装置のリアルグローブの外観構成例を示す外観図(一部図示を省略)である。なお、図15中では、図3に示す触覚発生部21、動力発生部211、力覚発生部22、位置姿勢検出部23、制御部24及び電力供給部30等は、図示されていない。
【0116】
以下、第3実施形態の触覚・力覚提示装置2及び画像処理装置1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
図15に示すように、第3実施形態の触覚・力覚提示装置2では、リアルグローブ20の手袋2aの筒状部20aの肘側(基端側)の端部に、空気(エアー)の注入による空気圧(圧力)により腕に固定する形態(エアー注入方式)の腕固定部2dが設けられている。
【0117】
この腕固定部2dは、空気が注入される袋状の腕固定部本体21dと、その腕固定部本体21dに設けられたエアー注入部22dとで構成されている。腕固定部本体21dの外観形状は、筒状をなしている。
エアー注入部22dの中空部は、腕固定部本体21dの内部に連通しており、エアー注入部22dの先端部には、蓋体23dが設けられている。
【0118】
蓋体23dをエアー注入部22dの先端部に装着すると、腕固定部本体21d内の気密性が保持され、蓋体23dを取り外すと、腕固定部本体21dに対し、エアー注入部22dを介して、空気の注入及び排出を行うことができる。
このような腕固定部2dは、各ユーザに応じて、例えば、ゴム型等の型を用いて、ユーザの腕の形状に合うように成形される。
【0119】
ユーザは、リアルグローブ20を装着する際は、まず、その手袋2aを装着し、次に、腕固定部2dの腕固定部本体21d内に、空気を注入する。
この空気注入では、例えば、エアー注入部22dの先端部から蓋体23dを取り外し、そのエアー注入部22dから腕固定部本体21d内に空気を吹き込む。そして、所定量の空気を注入し終えると、エアー注入部22dの先端部に蓋体23dを装着する。
【0120】
このようにして、リアルグローブ20は、腕固定部2dの空気圧によりユーザの腕に固定されるとともに、手首固定部28の復元力(弾性力)によりユーザの手首に固定される。
また、ユーザは、リアルグローブ20を取り外す際は、まず、腕固定部2dの腕固定部本体21d内から空気を排出し、次に、リアルグローブ20を手から取り外す。
【0121】
このように、本発明の第3実施形態の画像処理装置1によれば、前述した第1実施形態と同様の効果が得られる。
そして、この触覚・力覚提示装置2では、腕固定部2dがエアー注入方式のものであるので、リアルグローブ20の装着及び取り外しを容易かつ迅速に行うことができる。
なお、本発明では、触覚発生部21の単位触覚発生部210を、前述した第2実施形態のように構成してもよい。
【0122】
次に、本発明画像処理装置の第4実施形態について説明する。図16は、第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示すブロック図、図17は、第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示す外観図(一部図示を省略)、図18は、図17に示す位置姿勢検出部のZ方向検出センサの構成例を示す外観図である。なお、図17及び図18中において、それぞれ、互いに直交するX軸、Y軸及びZ軸を想定する。
【0123】
以下、第4実施形態の触覚・力覚提示装置2及び画像処理装置1について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
第4実施形態の触覚・力覚提示装置2では、位置姿勢検出部(指位置検出手段)23として、例えば、コリオリ力を利用して互いに直交するX軸、Y軸及びZ軸の回りの角速度をそれぞれ検出するジャイロセンサ(ジャイロスコープ)を用いる。
【0124】
そして、この触覚・力覚提示装置2では、凹凸入力部(撮像手段)53a、53bにより周囲を撮像し、その撮像された周囲の画像に指に対応する部分が含まれている場合には、凹凸入力部53a、53bからの画像データ(映像データ)に基づいて指の位置を求め、このように撮像された周囲の画像に指に対応する部分が含まれていない場合には、各位置姿勢検出部23により指の位置を検出し、各位置姿勢検出部23からの情報に基づいて指の位置を求める。
【0125】
図17に示すように、位置姿勢検出部23は、ケーシング60と、ケーシング60内に設けられ、X軸の回りの角速度を検出するX方向検出センサ(第1の検出センサ)61、Y軸の回りの角速度を検出するY方向検出センサ(第2の検出センサ)62及びZ軸の回りの角速度を検出するZ方向検出センサ(第3の検出センサ)63とを有している。
【0126】
図18に示すように、Z方向検出センサ63は、エリンバー(基台)64と、エリンバー64に設置された振動用の圧電素子(振動用圧電素子)65及び検出用の圧電素子(検出用圧電素子)66とで構成されている。このZ方向検出センサ63は、2本のワイヤ67、68により支持されている。
エリンバー64の形状は、Z軸方向に長い略直方体をなしており、その略直交する2つの面の一方に振動用圧電素子65が設置され、他方に検出用圧電素子66が設置されている。この場合、Y軸に対して垂直な面に、振動用圧電素子65が配置され、X軸に対して垂直な面に、検出用圧電素子66が配置されているが、その配置を逆にしてもよい。
【0127】
このZ方向検出センサ63の振動用圧電素子65に図16に示す交流電源69から交流電圧が印加されると、その振動用圧電素子65は、X軸方向に振動(屈曲振動)し、これによりエリンバー64もX軸方向に振動する。このとき、Z軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)が検出用圧電素子66から検出される。
【0128】
なお、X方向検出センサ61及びY方向検出センサ62の構成は、Z方向検出センサ63と同様であるので、その説明は省略する。それらの作用は、X軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)がX方向検出センサ61の検出用圧電素子66から検出され、Y軸の回りに回転(角速度)が生じると、その角速度に対応したレベルの電圧(信号)がY方向検出センサ62の検出用圧電素子66から検出される。
【0129】
図16に示すように、位置姿勢検出部23のX方向検出センサ61によって検出されたX軸の回りの角速度に対応した信号(検出データ)と、Y方向検出センサ62によって検出されたY軸の回りの角速度に対応した信号(検出データ)と、Z方向検出センサ63によって検出されたZ軸の回りの角速度に対応した信号(検出データ)とは、それぞれ、信号処理部25の増幅部251にて増幅され、A/D変換部252にてデジタル信号に変換された後、図2に示す信号送受信部26に出力され、この信号送受信部26により情報処理装置8に送信される。
情報処理装置8では、リアルグローブ20から送信された信号を受信し、その信号(情報)に基づいて、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢、すなわち、各部の座標を導出し、その情報を所定の各処理において利用するために記憶部85の所定の格納領域に保存する。
【0130】
次に、第4実施形態における画像処理装置1の動作(作用)について説明する。ここで、リアルグローブ20を装着した各指、手、手首、腕などの各部の位置及び姿勢を求める方法以外は、前述した第1実施形態と同様であるので、その説明は、省略する。
使用に先立って、ユーザは、まず、凹凸入力部53a、53bにより撮像される周囲の画像にリアルグローブ20の指等の検出する部位に対応する部分が含まれるようにする。これにより、画像処理装置1において初期設定がなされる。
【0131】
この初期設定では、仮想空間表示装置5は、2台の画像取込装置(撮像手段)、すなわち、凹凸入力部(撮像手段)53a、53bによって周囲の画像を撮像して取り込み、情報処理装置8に対して撮像した画像データ(映像データ)を送信する。
この場合、凹凸入力部53a、53bにて撮像された画像にはリアルグローブ20の指等の検出する部位に対応する部分が含まれているので、情報処理装置8は、凹凸入力部53a、53bにて撮像された画像、すなわち撮像された画像データに基づいて指等の位置及び姿勢(座標)を求める。この求められた位置及び姿勢は、それぞれ、基準位置及び基準姿勢、すなわち基準状態とされ、その基準位置及び基準姿勢の情報は、情報処理装置8の記憶部85の所定の領域に保存される。
【0132】
初期設定が終了すると、使用可能状態となり、仮想空間表示装置5は、凹凸入力部(撮像手段)53a、53bによって周囲の画像を撮像して取り込み、情報処理装置8に対して撮像した画像データを送信する。
情報処理装置8の制御部84(判別手段)は、凹凸入力部53a、53bにて撮像された画像、すなわち撮像された画像データに基づいて、凹凸入力部53a、53bにて撮像された画像にリアルグローブ20の指等の検出する部位に対応する部分が含まれているか否かを判別する。
【0133】
そして、撮像された画像に指等の検出する部位に対応する部分が含まれている場合には、情報処理装置8は、撮像された画像データに基づいて指等の位置及び姿勢(座標)を求める。この求められた位置及び姿勢は、それぞれ、基準位置及び基準姿勢とされる。すなわち、記憶部85に記憶されている基準位置及び基準姿勢の情報は、新たな基準位置及び基準姿勢の情報に書き換えられる。
【0134】
逆に、撮像された画像に指等の検出する部位に対応する部分が含まれていない場合には、情報処理装置8は、各位置姿勢検出部23からの信号(情報)に基づいて、指等の位置及び姿勢(座標)を求める。この場合、各位置姿勢検出部23からの情報からは、基準位置及び基準姿勢に対する相対的な位置及び姿勢が求まり、その相対的な位置及び姿勢の情報と、基準位置及び基準姿勢の情報とに基づいて、指等の位置及び姿勢が求められる。
【0135】
この触覚・力覚提示装置2及び画像処理装置1によれば、前述した第1実施形態と同様の効果が得られる。
そして、この触覚・力覚提示装置2では、手及び各指の所定の部位の位置及び姿勢を正確かつ確実に求めることができるとともに、位置姿勢検出部23としてジャイロセンサを用いることにより、コストを低減することができる。
なお、本実施形態では、位置姿勢検出部(指位置検出手段)23は、ジャイロセンサで構成されているが、本発明では、これに限定されない。
【0136】
また、本発明では、触覚発生部21の単位触覚発生部210を、前述した第2実施形態のように構成してもよい。
また、本発明では、腕固定部2dを、前述した第3実施形態のように、空気(エアー)の注入による空気圧(圧力)により腕に固定する形態(エアー注入方式)のものにしてもよい。
なお、詳細には説明しないが、上述の構成を仮想空間表示装置5の位置姿勢検出部56に適用することもできる。この場合にも、前述した第1実施形態と同様の効果が得られる。
【0137】
次に、図19、図20、図22及び図24のフローチャート並びに図21、図23及び図25の概念図を参照して、上記実施形態の各構成、とりわけ第1実施形態の構成に基づいて、本発明の画像処理装置の動作を説明する。ここで、これらのフローチャートに記述されている各機能を実現するためのプログラムは、コンピュータに読み取り可能なプログラムコードの形態で記憶部85の記録媒体に格納されており、制御部84はこのプログラムコードに従った動作を逐次実行する。また、制御部84は、上述のように、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施形態に特有の動作を実行することもできる。
【0138】
図19及び図20は、本発明の画像処理装置における商品表示処理を示すフローチャートであり、図21は、本発明の画像処理装置におけるアプリケーション終了処理を示すフローチャートである。なお、これらのフローチャートは、第1の実施形態における各構成要素に基づいて説明される。
まず、図19及び図20を用いて商品表示処理を説明する。本発明の画像処理装置1は、電源が投入されて、仮想空間中に仮想のPCを表示し、ユーザがこのPCを使用しているとき、この商品表示処理を実行している。なお、実際の画像処理装置1では、キーボードの操作などをする処理も同時に実行されているが、説明の明確さのために、PC画面(液晶画面でもCRT(Cathode-Ray Tube)でもよい)上に表示されている商品のアイコン(以下、単に「アイコン」と省略する場合もある)を仮想空間中に表示することに特化したフローチャートを用いて説明する。
【0139】
リアルグローブ20は、位置姿勢検出部(指位置検出手段)23によってユーザの指(及び手)の位置を検出し(ステップS101)、信号処理部25で所定の信号処理を行った後、信号送受信部(通信手段)26を介して検出された位置信号を情報処理装置8に送信する(ステップS102)。
情報処理装置8が信号送受信部(通信手段)87を介してこの検出信号を受信すると、制御部84は、検出された指の位置が、画像生成部(画像生成手段)83において生成され、仮想空間表示装置(表示手段)5に既に送信した現在の仮想空間画像における指の位置(ここでは、記憶部85に保存されている)から移動しているか否かを判断する(ステップS103)。指の移動を検知しないと判断された場合には、制御部84は、何らの指示も出すことなく、画像処理装置1は、ステップS101に戻り、同様の処理を繰り返す。
【0140】
ステップS103において、指の移動を検知したと判断された場合には、制御部84は、画像生成部83にその指の位置データに基づいて仮想空間画像を更新して生成させ(ステップS104)、移動した指の位置データと更新された仮想空間画像データとを記憶部(記憶手段)85の所定の格納領域に保存するとともに、信号処理部86及び信号送受信部87を介して更新された仮想空間画像データを仮想空間表示装置(HMD、表示手段)5に送信する。この画像データを受信したHMD5は、制御部54の指示により、その画像データを画像表示部51a及び51bに表示する(ステップS105)。ここまでの一連の処理は、本発明の画像処理装置1の電源が投入されている間、常時行われている。
【0141】
それと同時に、情報処理装置8では、衝突判定部(接触判定手段)82は、制御部84の指示により、仮想のPC画面とユーザの指の座標が一致したか否か、すなわち、仮想のPC画面とユーザの指が衝突(接触)したか否かを判断する(ステップS106)。そして、座標が一致していないと判断された場合には、画像処理装置1は、ステップS101に戻り、同様の処理を繰り返す。
【0142】
逆に、両者の座標が一致したと判断された場合には、演算処理部81は、対象物(ここでは、PC画面)に基づいて、PC画面から指への反力を演算し、信号処理部86及び信号送受信部87を介してこの演算データをリアルグローブ20に送信する。ここで、演算された反力データは、制御部84の指示により、記憶部85の所定の格納領域に保存される。反力の演算データを受信したリアルグローブ20では、制御部24は、その演算データに基づいて、触覚発生部21及び力覚発生部22(触覚提示手段、力覚提示手段)を駆動して触覚及び力覚を発生させ(ステップS107)、ユーザの指にその触覚及び力覚を提示させる。
【0143】
ステップS108において、仮想のPC画面と指の座標が一致し、ユーザの指が触覚及び力覚を感じている状態において、衝突判定部82は、PC画面上に表示されているアイコン(ここでは、商品のアイコン)と指の座標が一致したか否かを判断する。なお、フローチャートでは示されないが、指の位置は常に検出され、指が移動した場合には、画像生成部83は、仮想空間画像を更新して生成している。ここで、「アイコンと指の座標が一致」とは、親指を含む複数本の指で所定のアイコンを掴んでいる状態をいう。
【0144】
アイコンと指の座標が一致していないと判断された場合には、衝突判定部82は、今度は、PC画面と指との座標がずれたか否かを判断する(ステップS109)。実際には、仮想のPC画面は平面であるので、指の座標がPC画面の平面座標よりも手前にずれたか、すなわち、指がPC画面と衝突しなくなったか否かを判断する。そして、制御部84は、PC画面と指の座標がずれたと判断されたときは、リアルグローブ20に対して、指に発生させていた触覚及び力覚を解除するための制御信号を信号送受信部87に送信させ、リアルグローブ20の制御部24は、その制御信号に基づいて、触覚発生部21及び力覚発生部22から発生している触覚・力覚を解除させ(ステップS110)、一旦この商品表示処理を終了する。逆に、PC画面と指の座標がずれていないと判断されたときは、ステップS108に移行して同様の判断を繰り返す。
【0145】
ステップS108においてアイコンと指が一致したと判断された場合には、演算処理部81は、アイコンから指への反力を演算し、信号処理部86及び信号送受信部87を介してこの演算データをリアルグローブ20に送信する。ここで、演算された反力データは、制御部84の指示により、記憶部85の所定の格納領域に保存される。反力の演算データを受信したリアルグローブ20では、制御部24は、その演算データに基づいて、触覚発生部21及び力覚発生部22を駆動して触覚及び力覚を発生させ(ステップS111)、ユーザの指にその触覚及び力覚を提示させる。
【0146】
ステップS112において、制御部84は、アイコンを掴んだまま、指がPC画面から手前に移動されたか否かを判断する(特許請求の範囲では、同時に移動した場合を判定する接触判定手段に対応する)。すなわち、指がPC画面の平面座標からずれてPC画面の外側の手前に移動したか否かが判断される。指がPC画面から手前に移動していないと判断された場合には、まだPC画面に指が衝突している状態であるが、続いて、制御部84は、アイコンと指の座標がずれたか否かを判断し(ステップS113)、それらがずれていないと判断された場合には、ステップS112に戻り、同様の判断を繰り返す。逆に、指とアイコンの座標がずれたと判断された場合には、今まで掴んでいたアイコン(商品のアイコン)が指から離されたことを意味するが、未だに指はPC画面に衝突しているので、ステップS108に移行して、再度別のあるいは同じアイコンと指との座標が一致するか否かが判断される。
【0147】
ステップS112において指が手前に移動したと判断された場合には、制御部84は、続けてアイコンと指の座標がずれたか否かを判断する(ステップS114)。それらがずれていないと判断されたときは、PC画面内にそのアイコンを戻す場合も考えられるために、PC画面と指の座標が再度一致したか否かが判断され(ステップS115)、それらの座標が一致しないと判断された場合には、ステップS114に移行して同様の判断が繰り返される。逆に、PC画面と指の座標が一致したと判断されたときは、ステップS111に移行して触覚・力覚提示装置2により再度触覚及び力覚を発生して、ユーザの指に提示される。ここで、アイコンと指の座標がずれていないときの一連の動作では、ユーザの指にアイコンが掴まれた状態であり、そのときにPC画面と指の座標が一致すると、そのPC画面上に、ユーザの指に掴まれたままでアイコンが表示されている。
【0148】
ステップS114においてアイコンと指の座標がずれたと判断された場合には、衝突判定部82は、アイコンと指が衝突していないと判定し、リアルグローブ20の制御部24は、その判定結果に基づいて、触覚発生部21及び力覚発生部22に触覚及び力覚を解除させる(ステップS116)。そして、制御部84は、PC画面から取り出されたアイコンに関連付けられている商品を仮想空間に表示させるように、画像生成部83に指示する。生成された画像データは、信号処理部86及び信号送受信部87を介して、HMD5に送信される。HMD5では、画像表示部51a、51bがその画像データに基づいて、仮想の商品を仮想空間画像中に表示し(ステップS118)、この商品表示処理を終了する。
【0149】
なお、仮想空間中で仮想の商品のアイコンをユーザが掴んでいる状態の一例を図21に示す。この状態は、上述の商品表示処理におけるステップS111の状態に対応している。
なお、この商品表示処理では、指でアイコン(商品のアイコン)を掴み出すことにより、所望の商品を仮想空間中に実物大で表示することとしたが、指をポインタに見立てて仮想のPC画面上のアイコンにタッチすることにより、その商品が仮想空間中に表示されることとしてもよい。
【0150】
次に、図22〜図25を用いて適正位置判定処理について説明する。なお、この適正位置判定処理は、上述の商品表示処理が実行され、仮想空間中に仮想の商品が表示している状態において実行される。また、ユーザの指の移動に伴って仮想空間画像が更新して作成され、それを仮想空間表示装置5が表示する処理については、上述の商品表示処理のステップS101〜S105と同様であるので、ここでは一部省略するが、この適正位置判定処理とともに、商品表示処理の一部(特に、仮想空間画像の更新処理など)が実行されている。
【0151】
まず、適正位置判定処理の一例を図22及び図23を用いて説明する。リアルグローブ20は、位置姿勢検出部(指位置検出手段)23によってユーザの指(及び手)の位置を検出し(ステップS201)、信号処理部25で所定の信号処理を行った後、信号送受信部(通信手段)26を介して検出された位置信号を情報処理装置8に送信する。
【0152】
ステップS202において、制御部84は、上記商品表示処理において仮想空間中に表示されている仮想の商品の所定の位置と指の座標が一致したか否か、すなわち、ユーザの指が仮想の商品の所定の位置に接触しているか(触れているか)否かを判断する。ここで、「所定の位置」とは、このフローチャートのように仮想の商品が電動ドリルである場合、例えば、その仮想の電動ドリルの駆動をオン/オフすることができる位置、すなわち、仮想の電動ドリルのスイッチの位置である。
【0153】
両者の座標が一致していないと判断された場合には、ステップS201に移行して、同様の処理を繰り返す。一方、両者の座標が一致したと判断された場合には、制御部84は、続いて、上記とは別の指(通常、所定の位置に触れている手と反対の手のいずれかの指)と不適正な位置の座標が一致したか否か、すなわち、その別の指が仮想の商品の不適正な位置に接触しているか(触れているか)否かを判断する(ステップS203、適正位置判定手段)。ここで、「不適正な位置」とは、このフローチャートのように仮想の商品が電動ドリルである場合、例えば、その電動ドリルのチャック(ドリルチャック)の位置(部分)である。
【0154】
この両者の座標が一致していないと判断された場合には、ステップS201に移行して、同様の処理を繰り返す。一方、両者の座標が一致したと判断された場合には、制御部84は、両者が不適正な位置関係(不適切な位置関係)にあると判断し、その不適正な位置にある指の指腹に通常のチャックを触ったときの感触とは異なる感触を与えるように、信号処理部86及び信号送受信部87を介して所定の制御信号(駆動信号)をリアルグローブ20に送信する。そして、リアルグローブ20は、その所定の制御信号に基づいて、不適正な位置にある指の指腹部に異なる触覚(例えば、生け花の剣山に触れたときのような触覚など)を触覚発生部21に発生させ、その触覚を対象の指に提示する(ステップS204)。
【0155】
ここで、「不適正な位置関係」とは、上述のように、一方の指(手)で電動ドリルのスイッチの位置に触れたまま、他方の指(手)でその電動ドリルのドリルチャックを触っているような位置関係をいう。この不適正な位置関係の状態の概念図を図23に示す。実際の電動ドリルを扱っている場合において、ドリルチャックに触れながら誤って電動ドリルのスイッチをオンすると、ユーザが大けがをしてしまうので、このような間違った取り扱いをさせないために、本発明の触覚・力覚提示方法では、対象となる指に通常とは異なる触覚を与えている。したがって、本発明の画像処理装置及び触覚・力覚提示方法によって、仮想空間中の実体験により商品の正しい取り扱い方法を習得することができる。
【0156】
また、制御部84は、不適正な位置(仮想の電動ドリルのドリルチャックの位置)にある指をその不適正な位置から遠ざけるように、信号処理部86及び信号送受信部87を介して所定の制御信号(駆動信号)をリアルグローブ20に送信する。そして、リアルグローブ20は、その所定の制御信号に基づいて、不適正な位置にある指をその不適正な位置から遠ざけるような力覚を力覚発生部22に発生させ、それを対象の指に提示する(ステップS205)。
【0157】
さらに、制御部84は、仮想空間中の所定の位置(例えば、ドリルチャックの近傍など)に所定のメッセージ(例えば、警告文「電動ドリルのスイッチに指をかけたまま、ドリルチャックの操作をしないこと」など)を表示するように、画像生成部83にメッセージの画像を生成させ、それを仮想空間画像と重ね合わせた画像データを仮想空間表示装置5に送信する。そして、仮想空間表示装置5は、その警告のメッセージを含む仮想空間画像を画像表示部51a、51bに表示させる(ステップS206)。
【0158】
なお、この適正位置判定処理では、ステップS204〜S206の各処理(触覚提示、力覚提示及びメッセージ表示)の一部が省略されてもよい。また、このフローチャートでは示していないが、指が不適正な位置関係を脱すると、触覚及び力覚の提示が解除され、警告メッセージが消えて、この適正位置判定処理を終了する。
【0159】
次に、適正位置判定処理の別の例を図24及び図25を用いて説明する。ここでは、仮想の商品として木材や金属をカットするジグソーを用いて説明する。上述の例と同様に、リアルグローブ20は、位置姿勢検出部(指位置検出手段)23によってユーザの指(及び手)の位置を検出し(ステップS301)、信号処理部25で所定の信号処理を行った後、信号送受信部(通信手段)26を介して検出された位置信号を情報処理装置8に送信する。
【0160】
ステップS302において、制御部84は、上記商品表示処理において仮想空間中に表示されている仮想のジグソーの所定の位置と指の座標が一致したか否か、すなわち、ユーザの指が仮想のジグソーの所定の位置に接触しているか(触れているか)否かを判断する。ここで、「所定の位置」とは、例えば、仮想のジグソーの駆動をオン/オフすることができる位置、すなわち、仮想のジグソーのスイッチの位置である。
【0161】
両者の座標が一致していないと判断された場合には、ステップS301に移行して、同様の処理を繰り返す。一方、両者の座標が一致したと判断された場合には、制御部84は、続いて、上記とは別の指(通常、所定の位置に触れている手と反対の手のいずれかの指)と不適正な位置の座標が一致したか否か、すなわち、その別の指が仮想の商品の不適正な位置に接触しているか(触れているか)否かを判断する(ステップS303、適正位置判定手段)。ここで、「不適正な位置」とは、このフローチャートのように仮想の商品がジグソーである場合、例えば、そのジグソーの刃の位置(部分)である。
【0162】
この両者の座標が一致していないと判断された場合には、ステップS301に移行して、同様の処理を繰り返す。一方、両者の座標が一致したと判断された場合には、制御部84は、両者が不適正な位置関係にあると判断し、その不適正な位置にある指の指腹に通常のジグソーの刃を触ったときの感触とは異なる感触を与えるように、信号処理部86及び信号送受信部87を介して所定の制御信号(駆動信号)をリアルグローブ20に送信する。そして、リアルグローブ20は、その所定の制御信号に基づいて、不適正な位置にある指の指腹部に異なる触覚(例えば、生け花の剣山に触れたときのような触覚など)を触覚発生部21に発生させ、その触覚を対象の指に提示する(ステップS304)。
【0163】
ここで、「不適正な位置関係」とは、上述のように、一方の指(手)でジグソーのスイッチの位置に触れたまま、他方の指(手)でそのジグソーの刃を触っているような位置関係をいう。この不適正な位置関係の状態の概念図を図25に示す。実際のジグソーを扱っている場合において、ジグソーの刃に触れながら誤ってジグソーのスイッチをオンすると、ユーザが大けがをしてしまうので、このような間違った取り扱いをさせないために、本発明の触覚・力覚提示方法では、対象となる指に通常とは異なる触覚を与えている。したがって、本発明の画像処理装置及び触覚・力覚提示方法によって、仮想空間中の実体験により商品の正しい取り扱い方法を習得することができる。
【0164】
また、制御部84は、不適正な位置(仮想のジグソーの刃の位置)にある指をその不適正な位置から遠ざけるように、信号処理部86及び信号送受信部87を介して所定の制御信号(駆動信号)をリアルグローブ20に送信する。そして、リアルグローブ20は、その所定の制御信号に基づいて、不適正な位置にある指をその不適正な位置から遠ざけるような力覚を力覚発生部22に発生させ、それを対象の指に提示する(ステップS305)。
【0165】
さらに、制御部84は、仮想空間中の所定の位置(例えば、ジグソーの刃の近傍など)に所定のメッセージ(例えば、警告文「ジグソーのスイッチに指をかけたまま、ジグソーの刃の操作をしないこと」など)を表示するように、画像生成部83にメッセージの画像を生成させ、それを仮想空間画像と重ね合わせた画像データを仮想空間表示装置5に送信する。そして、仮想空間表示装置5は、その警告のメッセージを含む仮想空間画像を画像表示部51a、51bに表示させる(ステップS306)。
【0166】
なお、この適正位置判定処理では、ステップS304〜S306の各処理(触覚提示、力覚提示及びメッセージ表示)の一部が省略されてもよい。また、このフローチャートでは示していないが、指が不適正な位置関係を脱すると、触覚及び力覚の提示が解除され、警告メッセージが消えて、この適正位置判定処理を終了する。
【0167】
以上説明したように、本発明の画像処理装置1は、位置姿勢検出部(指位置検出手段)23により指の位置及び移動を検知(検出)し、仮想空間画像中に表示される仮想の対象物(実施形態では、電動ドリルやジグソー)の所定の位置(例えば、そのスイッチの位置)と指との座標が一致した(指が仮想の対象物のスイッチに接触した)場合において、別の指が対象物の不適正な位置(例えば、電動ドリルのドリルチャックやジグソーの刃の位置)に接触している(触れている)とき、触覚・力覚提示装置2により通常とは異なる触覚・力覚を発生させ、仮想空間表示装置5により警告のメッセージを仮想空間の所定の位置に表示させることとした。
【0168】
したがって、本発明の画像処理装置1及び触覚・力覚提示方法によって、仮想空間に表示されている対象物を取り扱うとき、その対象物が不適切に用いられた場合に、ユーザに注意を喚起することができるので、例えば、商品の正しい取り扱い方法を仮想空間中の実体験により習得し、あるいは、インターネットなどのネットワークを介した通信販売において、商品を実体験を伴って選択することができる。
【0169】
以上、本発明の画像処理装置の構成を、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明の画像処理装置は、上述の各実施形態の任意の2以上の構成(特徴)を適宜組み合わせて構成されてもよい。
【図面の簡単な説明】
【図1】 本発明の触覚・力覚提示装置の第1実施形態及びその触覚・力覚提示装置を有する画像処理装置の構成例を示す概念図である。
【図2】 図1に示すリアルグローブの回路構成例を示すブロック図である。
【図3】 図1に示すリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【図4】 図1に示すリアルグローブの触覚発生部の構成例を示す縦断面図である。
【図5】 図1に示すリアルグローブの力覚発生部の構成例を示す外観図である。
【図6】 図1に示すリアルグローブの力覚発生部の構成例を示す外観図である。
【図7】 図1に示すリアルグローブの位置姿勢検出部の構成例を示すブロック図である。
【図8】 図1に示す仮想空間表示装置の外観構成例を示す斜視図である。
【図9】 図1に示す仮想空間表示装置の回路構成例を示すブロック図である。
【図10】 図1に示す仮想空間表示装置の凹凸入力部の構成例を示す図(ブロック図、模式図)である。
【図11】 図1に示す仮想空間表示装置の画像表示部の構成例を示す図(ブロック図、模式図)である。
【図12】 図1に示す仮想空間表示装置の視線検出部の構成例を示す図(ブロック図、模式図)である。
【図13】 図1に示す情報処理装置の回路構成例を示すブロック図である。
【図14】 第2実施形態の触覚・力覚提示装置の触覚発生部の構成例を示す縦断面図である。
【図15】 第3実施形態の触覚・力覚提示装置のリアルグローブの外観構成例を示す外観図(一部図示を省略)である。
【図16】 第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示すブロック図である。
【図17】 第4実施形態の触覚・力覚提示装置の位置姿勢検出部の構成例を示す外観図(一部図示を省略)である。
【図18】 図17に示す位置姿勢検出部のZ方向検出センサの構成例を示す外観図である。
【図19】 本発明の画像処理装置における商品表示処理の一部を示すフローチャートである。
【図20】 本発明の画像処理装置における商品表示処理の一部を示すフローチャートである。
【図21】 本発明の画像処理装置における仮想空間中のPC画面に表示された商品を掴む場合の概念図の一例である。
【図22】 本発明の画像処理装置における適正位置判定処理の一例を示すフローチャートである。
【図23】 本発明の画像処理装置における仮想空間中の電動ドリルを取り扱っている場合の概念図の一例である。
【図24】 本発明の画像処理装置における適正位置判定処理の他の例を示すフローチャートである。
【図25】 本発明の画像処理装置における仮想空間中のジグソーを取り扱っている場合の概念図の一例である。
【符号の説明】
1……画像処理装置 2……触覚・力覚提示装置 2a……手袋 2b……フレームホルダ 2c……フレームカバー 2d……腕固定部 20……リアルグローブ 20a……筒状部 21……触覚発生部 21a……開口 21d……腕固定部本体 210……単位触覚発生部 211……動力発生部 211a……モータ 212……アクチュエータワイヤ 212a……束 213……ワイヤ保持部 214……触覚提示ピン 214a……接触板 214b……支持部
215……触覚提示ピン支持部 216……触覚提示部 216a……第1の板片 216b……第2の板片 216c……接触部 217……ガイド部 218……押え板 22……力覚発生部 22d……エアー注入部 221……フレーム 222……リンクモータ 23……位置姿勢検出部 23d……蓋体
231……X方向検出コイル 232……Y方向検出コイル 233……Z方向検出コイル 24……制御部 25……信号処理部 251……増幅部 252……A/D変換部 26……信号送受信部 27……遊び吸収部 28……手首固定部 29……ねじれ吸収部 291……帯状部 292……開口 30……電力供給部 5……仮想空間表示装置 51a、51b……画像表示部 511……レンズ 512……レンズ移動機構 513……ステッピングモータ 514……モータ制御部 515……液晶表示パネル 516……液晶駆動部 517……バックライト 518……バックライト制御部 519……トランジスタ
52a、52b……視線検出部 521……ハーフミラー 522……フィルタ 523……レンズ 524……CCD 525……CCD制御部 526……CCD出力増幅部 527……LED 528……LED制御部 529……トランジスタ 53a、53b……凹凸入力部 531……レンズ 532……CCD 533……CCD制御部 534……CCD出力増幅部 54……制御部 55……信号送受信部 56……位置姿勢検出部 57……装着部 58……信号処理部 59……三次元加速度センサ 60……ケーシング 61……X方向検出センサ 62……Y方向検出センサ 63……Z方向検出センサ 64……エリンバー 65……振動用圧電素子 66……検出用圧電素子 67、68……ワイヤ 69……交流電源 8……情報処理装置 81……演算処理部
82……衝突判定部 83……画像生成部 84……制御部 85……記憶部
86……信号処理部 87……信号送受信部 88……磁界発生部 9……基地局
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and a tactile / force sense presentation method.
[0002]
[Prior art]
When a virtual space image such as a book is displayed and a user (user) turns the displayed virtual book page, the virtual space is configured so that the book page turns according to the action. A desktop device is disclosed (for example, see Patent Document 1).
[0003]
However, in the above-described conventional apparatus, the user cannot feel the texture of the book paper with a hand or finger or the touch when touching the edge of the paper, for example, and the user holds the book with the hand or finger. I feel uncomfortable because I cannot feel the reaction force.
When turning a page of a book, it is a natural action to turn the page by recognizing the edge of the book paper by the touch of a finger and lifting the paper (page) with a finger. With conventional devices, you can't get a feel for a book with your hand or fingers, so every time you turn a page of a book, you need to pay attention to the edge of the book's paper and move your finger to that edge. Therefore, it takes time and effort to turn the pages of the book.
[0004]
By the way, in a virtual space, a personal computer (PC) is operated to display a virtual product (for example, a power tool) via a network such as the Internet, or a recording medium such as a CD-ROM. When viewing the product catalog data recorded in the above, take advantage of the virtual space to display and touch the virtual product in three dimensions, or when the product is a power tool, etc. There may be a desire to give it a try.
[0005]
In such a case, in a conventional virtual space display device such as the virtual space desktop device, when a virtual product is used in a dangerous state, there is a possibility that a force sensation is presented as it is to the user's hand or the like. There is. At such times, it is important to alert the user or guide the user to use it in an appropriate state.
[0006]
[Patent Document 1]
JP-A-6-282371
[0007]
[Problems to be solved by the invention]
An object of the present invention is to provide an image processing apparatus and a tactile / force-sensitive presentation that can alert a user when an object displayed in a virtual space is handled inappropriately. It is to provide a method.
[0008]
[Means for Solving the Problems]
In order to solve the above problems, in one aspect of the present invention, an image processing apparatus according to an embodiment of the present invention includes:
Image generating means for generating a virtual space image;
Display means for displaying the virtual space image generated by the image generation means;
Finger position detecting means for detecting the position of the finger in the virtual space;
Contact determination means for determining whether or not the finger detected by the finger position detection means is touching an object in a virtual space;
When it is determined by the contact determination means that the finger is touching the object, appropriate position determination means for determining whether or not the finger and the object are in an inappropriate positional relationship;
Tactile presentation means for generating and presenting a tactile sensation to be applied to the finger
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the tactile sense providing means is driven so that a sense corresponding to the contact is obtained on the finger pad. Control means for controlling,
When the appropriate position determining means determines that the finger and the object are in an inappropriate positional relationship, the control means gives a feel different from the feel of the object to the finger pad. The tactile sense presenting means is drive-controlled.
[0009]
According to the image processing apparatus of the present invention, in the virtual space image generated by the image generation means, when the user handles (touches or uses) an object displayed in the virtual space, the appropriate position determination means. When it is determined that the finger and the object are in an inappropriate positional relationship, the tactile sense providing means is driven and controlled so as to give the finger pad a feel different from the feel of the object.
[0010]
Therefore, with the image processing apparatus of the present invention, the user can actually handle the object displayed in the virtual space, and when the object is improperly used, a tactile sensation is generated. Because it presents, you can experience the actual handling of the object. For example, if the target is a product that you are considering purchasing (a product that actually moves, such as a power tool), you can experience it in a virtual space, so that you can easily select the product. Can do. In addition, for example, when the object is a tool to be learned, it is possible to experience in the virtual space, so that it is possible to easily learn the tool without having the tool.
[0011]
Here, preferably, the image processing apparatus of the present invention preferably includes a force sense presentation unit that generates and presents a force sense given to the finger,
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the force sense presenting means of the force sense presenting means can obtain a sense corresponding to the contact on the finger pad. Control means for controlling the drive;
And the control means has a feel that keeps the finger away from the object when the appropriate position determination means determines that the finger and the object are in an inappropriate positional relationship. The force sense presentation unit may be configured to drive and control so as to be applied to the finger pad.
Thereby, when calling attention as mentioned above, not only a tactile sense but also a force sense can be presented to the user's finger.
[0012]
An image processing apparatus according to another embodiment of the present invention includes:
Image generating means for generating a virtual space image;
Display means for displaying the virtual space image generated by the image generation means;
Finger position detecting means for detecting the position of the finger in the virtual space;
Contact determination means for determining whether or not the finger detected by the finger position detection means is touching an object in a virtual space;
When it is determined by the contact determination means that the finger is touching the object, appropriate position determination means for determining whether or not the finger and the object are in an inappropriate positional relationship;
Force sense presenting means for generating and presenting force sense given to the finger;
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the force sense presenting means of the force sense presenting means can obtain a sense corresponding to the contact on the finger pad. Control means for controlling the drive,
When the appropriate position determining means determines that the finger and the object are in an inappropriate positional relationship, the control means gives a feel to the finger pad so as to keep the finger away from the object. As described above, the force sense presenting means is driven and controlled.
[0013]
Here, preferably, the image processing apparatus of the present invention preferably includes a tactile sensation presentation unit that generates and presents a tactile sensation to be given to the finger
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the tactile sense providing means is driven so that a sense corresponding to the contact is obtained on the finger pad. Control means for controlling,
When the appropriate position determining means determines that the finger and the object are in an inappropriate positional relationship, the control means gives a feel different from the feel of the object to the finger pad. The tactile sense presenting means may be configured to drive and control.
[0014]
Preferably, when the appropriate position determining means determines that the finger and the object are in an inappropriate positional relationship, the display means has a predetermined message at a predetermined position in the virtual space. May be configured to display. In this case, preferably, the predetermined position is in the vicinity of the object when the improper positional relationship is established. Preferably, the predetermined message is a warning text corresponding to the object.
Preferably, the image processing apparatus of the present invention further includes storage means for storing the image data generated by the image generation means, and the determination results determined by the contact determination means and the appropriate position determination means. .
[0015]
Preferably, the image generation unit is configured to update and generate a virtual space image including a virtual finger image at a predetermined time interval based on the position of the finger detected by the finger position detection unit. Is done. In this case, preferably, the display means may be configured to continuously display the virtual space image updated as the finger moves.
[0016]
Here, preferably, the display means is used by being mounted on a face. Preferably, the display unit may include a communication unit that receives virtual space image data generated by the image generation unit. Further preferably, the image generation unit, the contact determination unit, the appropriate position determination unit, and the control unit are configured as one unit, and the one unit includes the display unit and / or the tactile sense presentation unit. You may provide the communication means which transmits / receives data mutually.
[0017]
In another aspect of the present invention, a tactile / force-sensing presentation method according to an embodiment of the present invention includes:
Generating a virtual space image;
Displaying a virtual space image generated by the image generation means;
Detecting the position of the finger in the virtual space;
Determining whether the detected finger is touching an object in virtual space;
When it is determined that the finger has touched the object or moved together with the object, a tactile sensation applied to the finger is generated and presented so that a sense corresponding to the contact can be obtained from the finger pad. Steps,
If it is determined that the finger is touching the object, determining whether the finger and the object are in an inappropriate positional relationship;
When it is determined that the finger and the object are in an inappropriate positional relationship, a tactile sensation to be given to the finger is generated and presented so as to give the finger pad a feel different from that of the object. And steps to
It is characterized by having.
[0018]
In addition, a tactile sensation / force sense presentation method in another embodiment of the present invention includes:
Generating a virtual space image;
Displaying a virtual space image generated by the image generation means;
Detecting the position of the finger in the virtual space;
Determining whether the detected finger is touching an object in virtual space;
When it is determined that the finger has touched the object or moved together with the object, a force sensation applied to the finger is generated so that a sense corresponding to the contact is obtained on the finger pad. Presenting steps;
When it is determined that the finger and the object are in an inappropriate positional relationship, a force sensation applied to the finger is generated so as to give the finger pad a feeling of moving the finger away from the object And presenting the steps
It is characterized by having.
Here, preferably, in the tactile / force sense presentation method according to the present invention, when it is determined that the finger and the object are in an inappropriate positional relationship, a predetermined position is set at a predetermined position in the virtual space. You may further have the step which displays a message.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of an image processing apparatus and a tactile / force-sensing presentation method of the present invention will be described in detail with reference to FIGS. This embodiment is given as an example, and the present invention should not be construed as being limited thereto.
FIG. 1 is a conceptual diagram showing a configuration example of a first embodiment of an image processing apparatus including a tactile / force sense presentation device (tactile sense presenting means and force sense presenting means) according to the present invention, and FIG. It is a block diagram which shows the circuit structural example of the real glove 20 to show. 3 is an external view (partially omitted) showing an external configuration example of the real glove 20 shown in FIG.
[0020]
As shown in FIG. 1, the image processing apparatus 1 is mounted on a user (user) hand (finger) and touches the touched hand or each finger (feeling touched, for example, texture, shape, strength, etc.). A virtual space display that displays a pair of real gloves (data gloves) 20 and 20 and a virtual space image (virtual space image) that gives a distribution of contact intensity (such as contact strength) and force sense (sense of force applied when touched). Various processes such as drive control of the device (display means) 5 and each real globe 20 and the virtual space display device 5 (in the present invention, the product display process of FIG. 19 and FIG. 20 described later and the processing of FIG. 22 and FIG. An information processing device 8 that performs a suitable position determination process and the like, and a base station 9 that creates a virtual space image and provides various services using the virtual space image.
[0021]
Each real globe 20, virtual space display device 5, information processing device 8, and base station 9 are respectively wireless (for example, wireless local area network (LAN), infrared (IR) data communication (IrDA: Infrared Data Association), Bluetooth Etc.) and has a wireless communication function (communication means) capable of performing signal transmission and reception (wireless communication), and includes an information processing device 8, each real globe 20, virtual space display device 5, and base station 9 Can communicate with each other.
[0022]
The image processing device 1 uses the virtual space image created (generated) by the information processing device 8 based on the information supplied from the base station 9, the virtual space display device 5, and each real globe 20 in the virtual space display device 5. When a hand or a finger wearing the real glove 20 is moved and the hand or finger virtually touches an object displayed in the virtual space, the state is displayed on the virtual space display device 5. At the same time, each process for giving a tactile sensation and a force sensation when touching the user's hand or each finger wearing the real glove 20 is performed.
[0023]
The information processing apparatus (shown as a mobile phone terminal in FIG. 1) 8 has a wireless communication function (such as a mobile phone terminal, a personal computer having a wireless communication function, and a portable information device called PDA (Personal Digital Assistants). It is comprised by the various apparatuses provided with the communication means) and the control function (control means).
In addition, the base station 9 is configured by various devices that provide information related to the virtual space image, such as various server computers connected to the Internet and mobile phone base stations that perform wireless communication with mobile phone terminals.
[0024]
In the present embodiment, each real globe 20, the virtual space display device 5, the information processing device 8, and the base station 9 is configured to have a wireless communication function. However, for example, a configuration in which some or all of them perform wired communication. It may be said.
Further, the information processing apparatus 8 may have some or all of the functions of the base station 9. In the product display process described later, the information processing apparatus 8 is described as including all functions of the base station 9 for convenience.
[0025]
Furthermore, the real globe 20 may have some or all of the functions of the virtual space display device 5, the information processing device 8, and the base station 9.
Here, in this embodiment, the tactile / force sense presentation device 2 includes a pair of real gloves 20, 20, that is, a real glove 20 for the left hand worn on the left hand of the user, and a right hand worn on the right hand of the user. And a real glove 20 for use. In the following description, one real glove 20 will be described as a representative.
[0026]
In the present invention, the tactile / force sense presentation device 2 may be configured by only one real glove 20.
In addition, in the present invention, the tactile / force sense presentation device 2 is one of the virtual space display device 5, the information processing device 8, and the base station 9 in addition to the real globe 20, or two, Or you may have everything. In this case, the tactile / force sense presentation device 2 may have a part of the functions thereof or may have all of the functions.
[0027]
As shown in FIG. 2, the real globe 20 senses a finger touching an object (on the virtual space image) appearing in the virtual space (target object, or a display object displayed on the target object) (for example, , A tactile sensation generating unit (tactile sensation presentation means) 21 for generating a contact strength distribution such as texture, shape, strength, and the like, and the strength of force applied to the hand or finger when touching an object appearing in the virtual space Sense of force generation part (force sensation presentation means) 22 for generating a sense of height and the position of each part of the real glove 20 (position of each part such as a hand, wrist, arm, and finger wearing the real glove 20) A position / orientation detection unit 23, a control unit 24 that controls each unit of the real globe 20, a signal processing unit 25 that performs signal processing such as amplification of a detection data signal transmitted to the information processing device 8, and the information processing device 8 Signal transmission for wireless communication between Shin portion and a (communication means) 26.
[0028]
In addition, as shown in FIG. 3, the entire shape of the real glove 20 has a substantially long glove shape (glove shape). That is, the real glove 20 is a relatively long glove having a cylindrical portion 20a covering the arm as a glove-like wearing means worn from the wearer's (user) finger to the vicinity of the elbow of the arm (from the finger to the arm). 2a.
Therefore, the user can easily and reliably attach and detach the real glove 20 with the glove 2a.
[0029]
Further, since the glove 2a is worn from the user's hand to the arm, the operation (operation) in the virtual space can be easily and reliably performed.
The glove 2a includes a play absorbing portion 27 for suppressing or preventing play at a portion corresponding to the fingertip, a wrist fixing portion 28 for fixing the real glove 20 to the wrist, and an arm fixing portion for fixing the real glove 20 to the arm. 2d and a torsion absorbing portion 29 that absorbs torsion of a portion corresponding to the arm are provided.
The play absorption part 27 is provided in the part corresponding to the wrist vicinity of the glove 2a. The play absorbing portion 27 is formed of an elastic body such as various rubbers, for example.
[0030]
When the user wears the real glove 20, the glove 2a is pulled in the elbow direction (base end side) by the restoring force (elastic force) of the play absorbing portion 27 and held in that state. Thereby, it can prevent or suppress that a fingertip can play. Further, even when a plurality of users having different hand dimensions such as finger lengths are used, the play absorbing unit 27 can prevent or suppress each user from playing with the fingertip. .
[0031]
The wrist fixing portion 28 is provided continuously to the play absorbing portion 27 on the elbow side (base end side) of the play absorbing portion 27 of the glove 2a. The wrist fixing portion 28 is formed of an elastic body such as various rubbers, for example.
When the user wears the real glove 20, the glove 2a is fixed to the wrist by the restoring force (elastic force) of the wrist fixing portion 28. Thereby, it can prevent that the real glove 20 slip | deviates during use.
Further, the wrist fixing portion 28 and the play absorbing portion 27 hold a bundle 212a of actuator wires 212 of the tactile sensation generating portion 21, which will be described later, in a predetermined position so that each actuator wire 212 can move in the longitudinal direction. The
[0032]
The arm fixing portion 2d is provided at an end portion on the elbow side (base end side) of the tubular portion 20a of the glove 2a. The arm fixing portion 2d is formed of an elastic body such as various rubbers, for example.
When the user wears the real glove 20, the glove 2a is fixed to the arm by the restoring force (elastic force) of the arm fixing portion 2d. Thereby, it can prevent that the real glove 20 slip | deviates during use.
[0033]
The twist absorbing portion 29 is provided in the middle of the tubular portion 20a of the glove 2a, that is, between the wrist fixing portion 28 and the arm fixing portion 2d.
The twist absorbing portion 29 is composed of three strip-shaped portions 291 obtained by forming three openings 292 in a part of the cylindrical portion 20a. Each belt-like portion 291 is formed of a stretchable member such as a cloth made of a stretchable material, for example.
[0034]
When the user wears the real glove 20 and performs an operation of twisting the wrist, for example, each band-shaped portion 291 expands and contracts, thereby absorbing the twist of the tubular portion 20a. As described above, the twist absorbing portion 29 can prevent the real glove 20 from being twisted. Therefore, the user can easily and smoothly move the hand and the arm.
In addition, the number of the strip | belt-shaped parts 291 of the twist absorption part 29 may be two or less, and may be four or more.
[0035]
Moreover, the opening 21a is formed in the part corresponding to each joint of the back side of each finger | toe of the glove 2a, respectively. With these openings 21a, the user can easily and smoothly move each joint of each finger.
Further, the real glove 20 is a portion corresponding to the arm of the glove 2a and located in the elbow direction relative to the twist absorbing portion 29, that is, the elbow side (base end side) of the tubular portion 20a of the glove 2a. ) Are provided with a control unit 24, a power supply unit 30, a power generation unit 211, and the like.
By arranging the control unit 24, the power supply unit 30, and the power generation unit 211 as described above, the weight on the fingertip side (tip side) of the real glove 20 can be reduced (inertia is reduced). Thus, the user can easily perform the operation (operation).
[0036]
When the user wears the real glove 20, the main part of the tactile sensation generating unit 21 is located at a position that covers the fingertip portion from the first joint (joint between the distal phalanx and the middle phalanx) of each finger of the user. Each is provided. In addition, since the structure and effect | action of each tactile sense generation part 21 are substantially the same, below, one of them is demonstrated typically.
FIG. 4 is a longitudinal sectional view showing a configuration example of the tactile sensation generating unit 21. In addition, in order to avoid that a figure becomes complicated, the thickness of a member is abbreviate | omitted and illustrated in the figure.
[0037]
As shown in FIG. 4A, the tactile sensation generating unit 21 includes a motive power generating unit (moving means) 211 including a motor (driving source) 211a, and an actuator wire (flexible) that is movably installed in the longitudinal direction. A linear body) 212, a wire holding part (biasing means) 213 that holds one end of the actuator wire 212, a tactile presentation pin (pressing part) 214 that presses the finger pad to generate a tactile sensation, and a tactile presentation A plurality of unit tactile sensation generators (actuators) 210 configured to include a tactile sense pin support part (movement direction restricting means) 215 that supports the pin 214 and restricts the movement direction of the tactile sense presentation pin 214. Each unit tactile sensation generator 210 is independent of each other.
[0038]
The power generation unit 211, the actuator wire 212, and the tactile presentation pin support unit 215 constitute a drive mechanism that drives the tactile presentation pin 214, and these correspond to the tactile presentation means of the tactile generation unit 21.
For example, the power generation unit 211 rotationally drives a motor 211a provided therein in response to a control signal from the control unit 24, and winds up the actuator wire 212 by the rotational drive of the motor 211a (the actuator wire 212 is converted into the actuator wire 212). To move in the longitudinal direction). In accordance with an instruction from the information processing device 8, the control unit 24 controls the power generation unit 211 so that the motor 211a is rotationally driven with a predetermined torque for a predetermined time. The power generation unit 211 performs a process of winding the actuator wire 212 for a predetermined length by applying rotational power to the motor 211a in accordance with an instruction from the information processing device 8.
[0039]
As shown in FIG. 4A, the wire holding portion 213 holds one end (termination) of the actuator wire 212 in the first indirect vicinity of the finger in the first embodiment. This wire holding part 213 is comprised by members (elastic body) which have elasticity, such as rubber | gum and a spring, for example.
Therefore, when the actuator wire 212 is wound up by driving the motor 211a of the power generation unit 211 and the actuator wire 212 moves clockwise in FIG. 4A, the wire holding unit 213 expands accordingly, and the actuator wire 212 is expanded. The wire 212 is rotated counterclockwise in FIG. 4A by the restoring force (elastic force) of the wire holding portion 213 (the direction opposite to the moving direction of the actuator wire 212 when the tactile sense providing pin 214 is projected). Be energized. When the driving of the motor 211a of the power generation unit 211 is stopped and the winding state of the actuator wire 212 is released, the wire holding unit 213 is contracted by a restoring force (elastic force), and is thereby wound up. The actuator wire 212 is pulled out and moves counterclockwise in FIG.
The power generation unit 211 is located on the other end (starting end) side of the actuator wire 212.
[0040]
The tactile sense presentation pin 214 is used to give a touch sensation (the presence / absence of contact, strength, etc.) to the user's finger pad, and includes a minute contact plate (contact part) 214a that is a part that contacts the finger pad, and a contact plate It is comprised with the support part 214b which supports 214a. One end of the support portion 214b is fixed in the middle of the actuator wire 212, and a contact plate 214a is provided at the other end.
[0041]
In the first embodiment, as shown in FIG. 4 (A), the glove 2a of the real glove 20 has a double structure (for example, two sheets of cloth or the like) with a mounting portion for mounting (covering) a fingertip. A structure in which any member can be accommodated between the two overlapped members), a part of the actuator wire 212 inside the portion covering the fingertip (inside the double structure), A wire holding portion 213 and a support portion 214b, and a tactile sense pin support portion 215 that restricts movement of the tactile sense pin 214 in the moving direction of the actuator wire 212 are provided. And the one end side of the support part 214b protrudes in the glove 2a in which a finger is accommodated, and the contact plate 214a is located.
In the first embodiment, the contact plate 214a is always in contact with the fingertip of the hand wearing the real glove 20. However, the present invention is not limited to this, and the contact plate 214a may be configured to be separated from the fingertip (the contact plate 214a and the fingertip are not in contact).
[0042]
In FIG. 4A, for simplicity of explanation, one unit tactile sensation generating unit 210 (one tactile sense presenting pin 214) is shown as a representative. The unit 21 includes a plurality of unit tactile sense generating units 210, and the plurality of tactile sense providing pins 214 are located at positions corresponding to the finger pads of the user's fingertip when the user wears the real glove 20, for example. It is arranged along the finger pad and in a matrix (matrix) with respect to the finger pad.
[0043]
Before and after each tactile sense presentation pin 214, a tactile sense pin support portion 215 that restricts the movement of the support portion 214b of the tactile sense presentation pin 214 in the movement direction of the actuator wire 212 is provided.
Each tactile sense presentation pin 214 may be regularly arranged or irregularly arranged.
[0044]
Next, a tactile sensation generating operation by the tactile sensation generating unit 21 will be described.
When the fingertip (fingerpad) virtually contacts an object (virtual object) appearing in a virtual space by wearing a real glove 20 and moving a hand or finger, that is, a target object (display object), The information processing device 8 calculates a pressing force when it is actually in contact, and PWM data of the power generation unit 211 based on the calculation result (for example, data indicating an excitation pattern for rotating the motor 211a). Convert to
[0045]
In this case, in the virtual space (three-dimensional space), an X axis, a Y axis, and a Z axis that are orthogonal to each other, that is, XYZ coordinates (three-dimensional coordinates) are assumed in advance. When a coincidence with the coordinates of the user's fingertip is detected and the coincidence is detected, it is determined that a part corresponding to the coordinates of the object has come into contact with a part corresponding to the coordinates of the user's fingertip. The coordinates of the user's fingertip are derived based on a signal (information) transmitted from the position / orientation detection unit 23 described later to the information processing apparatus 8 via the signal transmission / reception unit 26.
[0046]
Next, the information processing device 8 specifies the derived PWM data and data for specifying (specifying) the power generation unit 211 that operates the contact plate 214a that applies a pressing force to the contact position when it is assumed that contact has actually occurred. Is transmitted to the real glove 20. The real glove 20 drives the designated power generation unit 211 according to the received PWM data, and winds up the actuator wire 212.
[0047]
When the actuator wire 212 is wound, the actuator wire 212 disposed on the finger pad moves toward the tip of the finger along the finger pad, and is attached to the actuator wire 212 as shown in FIG. The fixed tactile sense presentation pin 214 also moves toward the tip of the finger along the finger pad.
At this time, as shown in FIG. 4C, the tactile sense presentation pin 214 is restricted from moving in the tip direction of the finger by the tactile sense pin support section 215 and is guided by the tactile sense presentation pin support section 215, Moves upward in FIG. 4C (projects toward the finger pad). That is, the contact plate 214a of the tactile sense presentation pin 214 moves substantially vertically upward with respect to the finger pad surface. In the standby state (in the initial state), the support portion 214b of the tactile sense presentation pin 214 is inclined from the vertical direction toward the tip of the finger as shown in FIG. 4B, and the contact plate 214a moves substantially vertically upward. When the force to be applied works, the contact plate 214a presses the finger pad in a substantially vertical direction, thereby applying a pressing force to the finger pad of the user's hand.
[0048]
This operation is performed by a designated unit tactile sensation generating unit 210 among the plurality of unit tactile sensation generating units 210, whereby a tactile sensation is presented (given) to the finger pad of the user's hand. Therefore, the user can obtain a sense corresponding to contact with the object (target object) of the finger pad in the virtual space image on the finger pad.
In the unit tactile sensation generation unit 210 specified in this way, when the driving of the motor 211a of the power generation unit 211 is stopped and the winding state of the actuator wire 212 is released, the wire holding unit 213 is restored (elastic force). The actuator wire 212 that has been wound up is pulled out.
[0049]
When the actuator wire 212 is pulled out, the actuator wire 212 arranged on the finger pad moves toward the base end direction of the finger (right side in FIG. 4C) along the finger pad, and is fixed to the actuator wire 212. The tactile sense providing pin 214 also moves toward the proximal end of the finger along the finger pad, and the tactile sense presenting pin 214 returns to the initial state shown in FIG. As a result, the pressing force applied from the tactile sense presentation pin 214 to the finger pad of the user's hand substantially disappears.
[0050]
According to such a tactile sensation generating unit 21, the actuator wire 212 is arranged substantially parallel to the finger pad (along the finger pad), and the actuator wire 212 is wound up to be substantially perpendicular to the finger pad. Since the force is applied, the mechanism for giving a tactile sensation can be made thin, and thereby the thickness of the finger pad side of the real glove 20 can be suppressed as much as possible.
In addition, it is possible to prevent the actuator wire 212 from being loosened, and to apply a target large pressing force from the tactile sense presentation pin 214 to the finger pad of the user more accurately and reliably.
[0051]
5 and 6 are external views showing examples of the configuration of the force sense generating unit 22, respectively. FIG. 5 shows a state where the frame cover is removed.
As shown in FIG. 5, the force sense generator 22 is provided on the back side of each finger of the user when the real glove 20 is worn. In addition, since the structure and effect | action of the force sense generation part 22 are substantially the same, below, one of them is demonstrated typically.
[0052]
The force sense generating unit 22 includes a link mechanism including a plurality of (six in this embodiment) frames 221 that are rotatably connected, and a plurality (seven in this embodiment) that rotates each frame 221. It has a link motor (drive source) 222 and a plurality (four in this embodiment) of frame holders 2b provided on the gloves 2a.
When the user wears the real glove 20, the frame holder 2b includes a mounting portion located on the distal side of the first joint of the user's finger, a first joint, and a second joint (between the middle phalanx and the proximal phalanx. , A mounting portion located between the second joint and the third joint, and a proximal end from the third joint (joint between the proximal phalanx and the metacarpal bone) And a mounting portion located on the side.
[0053]
The link mechanism is attached to the back side of the user's finger when wearing the real glove 20 of the glove 2a by the frame holder 2b.
That is, when the user wears the real glove 20, the end portion of the frame 221 on the distal end side (right side in FIG. 5) of the link mechanism is positioned at the distal end portion of the first joint of the user's finger. The distal end portion of the frame 221 is rotatably installed with respect to the frame holder 2b.
[0054]
Further, the frame 221 at the end on the base end side (left side in FIG. 5) of the link mechanism has an end portion at a position closer to the base end side than the third joint of the user's finger when the user wears the real glove 20. The base end of the frame 221 is rotatably installed with respect to the frame holder 2b.
In addition, each of the remaining frames 221 of the link mechanism includes a portion between the first joint and the second joint of the user's finger, the second joint, and the third joint when the user wears the real glove 20. At every other part, the frame connecting portions are arranged so that every other frame connecting portion is located, and at every other frame connecting portion, it is installed so as to be rotatable with respect to the frame holder 2b.
[0055]
The driving force (rotational force) of each link motor 222 is transmitted to the corresponding frame 221 via a power transmission unit (not shown). That is, when the link motor 222 is rotationally driven in a predetermined direction, the corresponding frame 221 is rotated in the predetermined direction, whereby the angle of the frame 221 is changed (adjusted).
FIG. 5 shows the bundle 212a of the actuator wires 212 described above.
[0056]
Each frame 221 and each link motor 222 of the force generation unit 22 are housed in, for example, a cloth frame cover 2c as shown in FIG.
Further, as shown in FIG. 6, a plurality of (four in this embodiment) position and orientation detection units (finger position detection means) for detecting the position and posture of a predetermined part of the hand or finger are provided inside the frame cover 2c. ) 23 is installed. Each position and orientation detection unit 23 is provided so as to maintain a certain positional relationship with respect to a part (detection position) for detecting the position and orientation.
[0057]
That is, in this embodiment, each position and orientation detection unit 23 is fixedly attached to each link motor 222 that is fixed at a position where the frame holder 2b is provided. Therefore, the positional relationship between the part where each position and orientation detection unit 23 is provided and the predetermined part on the palm side of the user is kept constant. Therefore, the position and orientation detection unit 23 detects its own position and orientation, so that the position and orientation of a predetermined part on the palm side of the user's palm can be derived easily and accurately.
[0058]
Moreover, since each position and orientation detection part 23 is arrange | positioned at the back side of the hand, respectively, the thickness of the finger pad side of the real glove 20 can be suppressed as much as possible.
As shown in FIG. 3, the position / orientation detection unit 23 is also installed at a position corresponding to the proximal end portion of the arm of the real glove 20 when the user wears the real glove 20. The position and orientation detection unit 23 can reliably grasp the position and orientation of each part such as each finger, hand, wrist, and arm wearing the real glove 20.
[0059]
Next, the force sense generating operation by the force sense generating unit 22 will be described.
When the user wears the real glove 20 and moves the hand or finger, when the hand or finger virtually touches an object (virtual object), that is, a target object that appears in the virtual space, the information processing apparatus 8 The calculation processing unit 81, which will be described later, calculates a reaction force from the object to the finger (each joint of the finger) when actually touched, and based on the calculation result, PWM data (for example, each link motor 222) (Data indicating an excitation pattern for rotating the link motor 222).
[0060]
The determination of the contact between the object and the user's hand or finger is the same as in the case of the tactile sensation generating unit 21, so the section name is omitted here.
The information processing device 8 transmits the derived PWM data and data indicating each link motor 222 to be driven to the real globe 20. In accordance with the received data, the real globe 20 rotates and drives each designated link motor 222 in a predetermined direction, rotates each corresponding frame 221 in a predetermined direction, and adjusts the angle of each frame 221. The angles of the frames 221 at both ends of the link mechanism and the angles of the frame connecting portions are adjusted.
[0061]
By adjusting the angle of the frame 221, a predetermined amount of force is applied to the predetermined frame holder 2b, whereby a force corresponding to the reaction force from the object appearing in the virtual space is applied to each joint of the user's finger. Given to. That is, a force sense is presented (given) to each joint of the finger.
Here, the force generation unit 22 has a function of adjusting the interval between the plurality of mounting parts to be mounted on a plurality of parts of the finger (also serves as an adjusting unit).
For example, as shown in FIG. 5, the interval between the frame holders 2b can be lengthened or shortened by rotating a predetermined frame 221 and adjusting the angle of the frame 221.
[0062]
FIG. 7 is a block diagram illustrating a configuration example of the position / orientation detection unit 23 of the real globe 20. In the present embodiment, a position sensor of an orthogonal coil type (orthogonal coil type) is used for the position / orientation detection unit 23. That is, the position / orientation detection unit 23 includes an X direction detection coil 231, a Y direction detection coil 232, and a Z direction detection coil 233, as shown in FIG. Note that the X direction, the Y direction, and the Z direction are orthogonal to each other.
[0063]
On the other hand, the information processing apparatus 8 is provided with a magnetic field generator 88 (described later) that generates a magnetic field. For example, the magnetic field generator 88 has substantially the same configuration as the position and orientation detector 23, that is, an orthogonal coil type (orthogonal coil type) magnetic field generator (X direction coil, Y direction coil, Z direction coil). Used.
The magnetic field generated by the magnetic field generator 88 is detected by the position / orientation detector 23. In this case, a magnetic field is generated in a time division order in the order of the X direction coil, the Y direction coil, and the Z direction coil of the magnetic field generation unit, and the magnetic fields generated from the coils are respectively converted into the X direction detection coils 231 and Y of the position and orientation detection unit 23. Detection is performed by three coils, that is, a direction detection coil 232 and a Z direction detection coil 233.
[0064]
Each signal (detection data) detected in each of the XYZ directions by the position / orientation detection unit 23 is amplified by the amplification unit 251 of the signal processing unit 25 and converted into a digital signal by the A / D conversion unit 252. Thereafter, the signal is output to the signal transmitting / receiving unit 26 illustrated in FIG. 2 and transmitted to the information processing apparatus 8 by the signal transmitting / receiving unit 26.
The information processing apparatus 8 receives the above signal, derives the position and posture of each part such as each finger, hand, wrist, and arm wearing the real glove 20 based on the signal (information), and obtains the information. Used in each predetermined process.
[0065]
Next, the virtual space display device 5 which is a display means of the present invention will be described.
In this embodiment, the virtual space display device (display unit) 5 is a spectacle-shaped device called an HMD (head mounted display), that is, a device mounted on the face.
FIG. 8 is a perspective view showing an external configuration example of the virtual space display device 5, and FIG. 9 is a block diagram showing a circuit configuration example of the virtual space display device 5.
[0066]
The virtual space display device 5 includes image display units 51a and 51b that display a virtual space image for a wearer (user), line-of-sight detection units 52a and 52b that detect the line of sight of the wearer, and surrounding images (video). Unevenness input units 53a and 53b for capturing the image, a control unit 54 for controlling the entire apparatus, a signal transmission / reception unit 55 for transmitting / receiving signals to / from the information processing device 8, and a position / orientation detection unit (position detection means) ) 56, a mounting portion 57 that is hooked and held by the ear, a signal processing portion 58 that processes various signals, and a three-dimensional acceleration sensor 59.
[0067]
FIG. 10 is a diagram (block diagram, schematic diagram) illustrating a configuration example of the unevenness input unit 53 a of the virtual space display device 5. In FIG. 10, the concave / convex input unit 53 a includes a lens 531, a CCD (imaging device) 532, a CCD control unit 533, and a CCD output amplification unit 534.
The light (light beam) incident on the lens 531 is guided by the lens 531 onto the light receiving surface (imaging surface) of the CCD 532 to form an image, and the subject image (surrounding image) is captured by the CCD 532. The driving of the CCD 532 is controlled by the CCD controller 533.
[0068]
The signal output from the CCD 532 is amplified by the CCD output amplifying unit 534, and then output from the concavo-convex input unit 53a and input to the signal processing unit 58 shown in FIG. Then, predetermined signal processing is performed in the signal processing unit 58 and transmitted to the information processing apparatus 8 by the signal transmission / reception unit 55.
In addition, since the structure and effect | action of the uneven | corrugated input part 53b are the same as that of the uneven | corrugated input part 53a, the description is abbreviate | omitted.
[0069]
FIG. 11 is a diagram (block diagram, schematic diagram) illustrating a configuration example of the image display unit 51 a of the virtual space display device 5. In FIG. 11, an image display unit 51a includes a lens 511, a lens moving mechanism 512 that moves the lens 511, a stepping motor 513, a motor control unit 514, a liquid crystal display panel 515 having a color filter (not shown), A liquid crystal driver 516, a backlight 517, a backlight controller 518, and a transistor 519 are provided.
[0070]
When the virtual space image is displayed on the image display unit 51a, the transistor 519 is turned on by the control of the backlight control unit 518, the backlight 517 is driven, and the liquid crystal display panel 515 is irradiated with light from the backlight 517. .
Then, the liquid crystal driving unit 516 controls driving of the liquid crystal display panel 515 based on the display signal (image data) input from the control unit 54, thereby displaying a virtual space image on the liquid crystal display panel 515. .
The wearer (user) can visually recognize the virtual space image displayed on the liquid crystal display panel 515 via the lens 511 and a half mirror 521 of the line-of-sight detection unit 52a described later.
[0071]
The driving of the stepping motor 513 is controlled by the motor control unit 514. When the stepping motor 513 rotates in a predetermined direction, the lens moving mechanism 512 causes the lens 511 to approach the liquid crystal display panel 515, that is, the wearer's direction. Move away from the eyes.
When the stepping motor 513 is rotated in the direction opposite to the above direction, the lens moving mechanism 512 causes the lens 511 to move away from the liquid crystal display panel 515, that is, in a direction approaching the wearer's eyes.
[0072]
By changing the position of the lens 511, the perspective of the virtual space image can be changed.
The adjustment of the position of the lens 511, that is, the adjustment of the perspective of the virtual space image is performed based on the information on the line of sight of the wearer detected by the line-of-sight detection units 52a and 52b described later.
In addition, since the structure and effect | action of the image display part 51b are the same as that of the image display part 51a, the description is abbreviate | omitted.
[0073]
The line-of-sight detection units 52a and 52b detect in which direction the wearer's line of sight is located (where the virtual space image is focused) and the iris of the wearer's eye for use as security information And a function of reading a pattern.
FIG. 12 is a diagram (block diagram, schematic diagram) illustrating a configuration example of the line-of-sight detection unit 52 a of the virtual space display device 5. In FIG. 12, the line-of-sight detection unit 52a includes a half mirror 521, a filter 522 that removes visible light and transmits infrared light, a lens 523, a CCD (imaging device) 524, a CCD control unit 525, It has a CCD output amplifier 526, an LED (light emitting diode) 527 that emits infrared light, an LED controller 528, and a transistor 529.
[0074]
The driving of the LED 527 is controlled by the LED control unit 528. When the transistor 529 is turned on by the control of the LED control unit 528, the LED 527 is driven and infrared light is emitted from the LED 527.
Infrared light emitted from the LED 527 is transmitted through the filter 522, a part of which is reflected by the half mirror 521, and is irradiated to the wearer's eyes.
[0075]
Then, a part of the reflected light (light beam) from the wearer's eyes is reflected by the half mirror 521, passes through the filter 522, and is guided onto the light receiving surface (imaging surface) of the CCD 524 by the lens 523. The image is formed and the subject image (the image of the wearer's eyes) is captured by the CCD 524. The driving of the CCD 524 is controlled by the CCD controller 525.
[0076]
The signal output from the CCD 524 is amplified by the CCD output amplifying unit 526, then output from the line-of-sight detection unit 52a, input to the signal processing unit 58 shown in FIG. 9, subjected to predetermined signal processing, and the signal transmission / reception unit 55. Is transmitted to the information processing device 8.
The information processing device 8 receives a signal from the virtual space display device 5, and based on the signal (information), which direction the wearer's line of sight is in (where the virtual space image is to be focused) Is detected, the iris pattern of the wearer's eye is read, analyzed, and used as security information.
[0077]
On the other hand, visible light incident on the filter 522 from the lens 523 side is removed by the filter 522, and the visible light can be prevented from being irradiated to the eyes of the wearer. Thereby, it is possible to prevent the visibility of the virtual space image displayed on the liquid crystal display panel 515 from being lowered.
In addition, since the structure and effect | action of the gaze detection part 52b are the same as that of the gaze detection part 52a, the description is abbreviate | omitted.
[0078]
The virtual space display device 5 captures and captures surrounding images with two image capturing devices (imaging means), that is, the concave and convex input sections 53a and 53b, and captures image data captured by the information processing device 8 ( Video data).
The information processing device 8 derives a viewing angle difference from the images captured by the unevenness input units 53a and 53b, that is, the captured image data, and based on the surrounding unevenness obtained from the viewing angle difference, the virtual space image, That is, image data in a virtual space is created. Then, the information processing apparatus 8 arranges the created virtual space image (video) and a predetermined virtual object such as a virtual wallpaper, a virtual personal computer, or a virtual book in the virtual space according to the surrounding irregularities. Image data (video data) indicating a synthesized image (synthesized video) synthesized with the image is transmitted to the virtual space display device 5.
[0079]
The virtual space display device 5 displays the image using the image display units 51 a and 51 b based on the image data from the information processing device 8.
In addition, the virtual space display device 5 has a real glove 20 that is worn, that is, when the user's hand or arm is within the area of the image displayed by the image display units 51a and 51b, Images corresponding to the arm and the arm are also displayed on the image display units 51a and 51b.
[0080]
In this case, as described above, the detection data of the plurality of position / orientation detection units 23 provided in the real globe 20 is transmitted to the information processing apparatus 8, so that the position and orientation of the real globe 20, that is, the user's Each finger, hand, wrist, arm and the like are recognized by the information processing device 8. That is, the information processing device 8 identifies the position and posture of each finger, hand, wrist, arm, etc. of the user based on the detection data from the real glove 20 one by one and displays them by the image display units 51a and 51b. If it is within the area of the image being created, a virtual space image showing them is created, and the image is synthesized with the basic image to obtain a synthesized image (image data of the synthesized image). Data is transmitted to the virtual space display device 5.
[0081]
Therefore, when the user's hand or arm is within the area of the image displayed by the image display units 51a and 51b, an image corresponding to the hand or arm is displayed on the image display unit 51a or 51b. The
Then, in conjunction with the actual movement of the hand or finger wearing the real glove 20, the hand or finger moves in the virtual space image displayed on the image display units 51a and 51b.
[0082]
The position / orientation detection unit 56 is a sensor for detecting the position and orientation of the virtual space display device 5, that is, the position and orientation of the face (head) of the wearer. In the present embodiment, the position / orientation detection unit 56 is an orthogonal coil type position sensor, that is, the same one as the position / orientation detection unit 23.
A signal (detection data) from the position / orientation detection unit 56 is input to the signal processing unit 58, subjected to predetermined signal processing, and transmitted to the information processing apparatus 8 by the signal transmission / reception unit 55 one by one. The information processing device 8 updates the virtual space image one by one at predetermined time intervals based on the detection data.
[0083]
Therefore, for example, when the user wearing the virtual space display device 5 moves his / her neck, the virtual space image displayed on the image display units 51a and 51b is an image that matches the direction in which the user is facing. Change.
The three-dimensional acceleration sensor 59 detects acceleration in three directions substantially orthogonal to the virtual space display device 5 and can be incorporated in the HMD and has a certain degree of accuracy. However, either a servo type or a strain gauge type may be used. However, in the present invention, a highly accurate acceleration sensor is suitable, such as a semiconductor acceleration sensor using CMOS.
[0084]
A signal (acceleration data) detected by the three-dimensional acceleration sensor 59 is output to the signal processing unit 58, subjected to predetermined signal processing such as amplification, and then transmitted to the information processing device 8 via the signal transmission / reception unit 55. Is done. Although this acceleration data is used when calculating the moving speed of the HMD 5, it is not an indispensable configuration in the present invention, so that the description thereof is omitted.
[0085]
Next, the information processing apparatus 8 that is a part of the image processing apparatus of the present invention will be described. FIG. 13 is a block diagram illustrating a circuit configuration example of the information processing apparatus 8 illustrated in FIG. 1. In FIG. 13, an information processing apparatus 8 includes an arithmetic processing unit (calculating unit) 81, a collision determining unit (also serving as a collision determining unit and a contact determining unit) 82, an image generating unit (image generating unit) 83, a control A storage unit (storage unit) 85, a signal processing unit 86, a signal transmission / reception unit (communication unit) 87, and a magnetic field generation unit 88.
[0086]
When the finger or hand of the above-mentioned real glove 20 comes into contact with an object in the virtual space, the arithmetic processing unit 81 determines what the object is, and then the finger (finger The reaction force (tactile sense and / or force sense) to each joint) is calculated, and the calculation result is converted into PWM data of each link motor 222 of the real globe 20, and the converted data is converted into a signal processing unit 86 and a signal transmitting / receiving unit. It transmits to the real glove 20 via 87.
[0087]
The collision determination unit 82 determines whether or not each finger of the real globe 20 has collided with a virtual object (display object) in the virtual space (whether or not it has contacted). The determination result determined by the collision determination unit 82 is output to the control unit 84. In the present invention, the collision determination unit 82 determines not only the collision between the finger and the liquid crystal screen of the virtual personal computer, but also the collision or contact with the product displayed by the product display process. This determination result is similarly output to the control unit 84.
[0088]
The image generation unit 83 is a virtual space image that is received in advance from the base station 9 according to an instruction from the control unit 84 or is captured by the unevenness input units 53a and 53b of the virtual space display device 5 and converted from the captured image. The image such as the user's arm or finger is superimposed on the image to generate a synthesized virtual space image, which is output to the signal processing unit 86. In addition, the image generation unit 83 updates and generates a virtual space image at a predetermined time interval as the real globe 20 or the virtual space display device 5 displayed in the virtual space moves, and generates the signal processing unit 86. Output to.
[0089]
The control unit 84 causes the calculation processing unit 81 to calculate the reaction force based on the determination result of the collision determination unit 82. In addition, the control unit 84 controls the operations of the arithmetic processing unit 81, the collision determination unit 82, and the image generation unit 83, and stores the calculation result, the collision determination result (contact determination result), the generated image data, and the like. The data is stored in a predetermined storage area of the unit 85 and is transmitted to the corresponding device via the signal processing unit 86 and the signal transmission / reception unit 87.
[0090]
In the present invention, the controller 84 matches the finger with the virtual personal computer's liquid crystal screen (or the product displayed on it) by the collision determination unit 82 (that is, the finger touches the virtual product). Or the virtual product is generated by the image generation unit 83 so that the virtual product is inserted into the virtual space image. It is displayed on the virtual space display device 5.
[0091]
Furthermore, when the finger and the virtual product collide (contact), the control unit 84 determines whether the positional relationship between the finger and the virtual product is inappropriate (appropriate position determination unit), Based on the determination result, the tactile sense / force sense presentation device 2 (tactile sense presenting means, force sense presenting means) causes the user's finger to present a tactile sense and / or force sense, or the image generation unit 83 generates a warning message. The message data is transmitted to the virtual space display device 5 via the signal processing unit 86 and the signal transmission / reception unit 87. The virtual space display device 5 displays the warning message data received in this way at a predetermined position in the virtual space image.
[0092]
The storage unit 85 includes a computer-readable storage medium (also referred to as a recording medium, which is referred to as a recording medium in the claims) in which programs, data, and the like are stored in advance. Examples of the medium include RAM (Random Access Memory: including both volatile and nonvolatile), FD (Floppy Disk (Floppy is a registered trademark)), HD (Hard Disk), and CD-ROM (Compact Disc Read-Only). Memory) or the like, or a magnetic or optical recording medium, or a semiconductor memory. This storage medium is fixedly attached to the storage unit 85 or is detachably mounted. The storage medium includes the virtual space display device 5, the information processing device 8, and the tactile / force sense presentation. Various application programs corresponding to the apparatus 2, a product display processing program, an appropriate position determination processing program, data processed by each processing program, document data, and the like are stored.
[0093]
Further, some or all of the programs, data, and the like stored in the storage medium are connected to network lines (for example, the Internet, telephone lines, etc.) from other devices such as servers and clients (in the present embodiment, the base station 9). ), Etc., may be received from the signal transmission / reception unit 87 and stored, and the storage medium may be a storage medium of the server of the base station 9 built on the network. Furthermore, such a program may be transmitted from a server or client via a transmission medium such as a network line and installed in the information processing apparatus 8. Further, the program may be for realizing a part of the functions described above, and may be capable of realizing the functions described above in combination with a program already recorded in the computer system.
[0094]
The signal processing unit 86 performs signal processing such as amplification of image data and control signals transmitted to the virtual space display device 5 and the tactile / force sense presentation device 2. The signal transmission / reception unit 87 performs control for communicating various signals and data processed by the signal processing unit 86 with external devices such as the virtual space display device 5 and the tactile / force sense presentation device 2.
The details of the magnetic field generator 88 are not shown, but for example, an orthogonal coil type (orthogonal coil type) magnetic field generator (X direction coil, Y direction coil, Z direction) corresponding to the position and orientation detection unit 23 of FIG. Coil). The magnetic field generation unit 88 generates magnetic fields in the order of X, Y, and Z direction coils in accordance with instructions from the control unit 84, and detection coils 231, 232, and 233 in each direction of the position and orientation detection unit 23 of the real globe 20. The position / orientation detection unit 56 of the virtual space display device 5 also detects the magnetic field.
[0095]
The magnetic field generation unit 88 may be stored in the information processing apparatus 8 as illustrated, but may be configured separately from the information processing apparatus 8 as a magnetic field generation apparatus. In particular, when a mobile phone or a PDA is used as the information processing apparatus 8, it is useful to have a separate configuration because a magnetic field generator cannot be provided later. Even if a separate magnetic field generator (or magnetic field generator) is provided as described above, the control is performed by a control signal from the information processing device 8.
[0096]
Next, the operation (action) of the image processing apparatus 1 according to the first embodiment will be described. Here, a case where the user operates the virtual personal computer appearing in the virtual space using the image processing apparatus 1 will be described as an example.
The user turns on the power of each part, wears the real glove 20 in both hands, and puts on the glasses-like virtual space display device 5 (wears on the face). Then, a virtual space image including the virtual personal computer is displayed on the image display units 51 a and 51 b of the virtual space display device 5.
[0097]
Further, if the user's arm falls within the virtual space image displayed on the image display units 51a and 51b, the image of the hand or arm created by the image generation unit 83 of the information processing device 8 is virtual. It is displayed as a virtual object in the spatial image. When the user moves the hand or finger, the displayed hand or finger moves in the virtual space image in conjunction with the actual movement of the hand or finger.
[0098]
In the information processing apparatus 8, the collision determination unit 82 causes the object in the virtual space image, that is, in this embodiment, for example, a part of the virtual personal computer (for example, a keyboard) and a part of the user's finger to have the same coordinates. When this is detected, an instruction for generating a tactile sensation and a force sensation is given to the real globe 20 based on the calculation result of the calculation processing unit 81. Specifically, the information processing device 8 obtains the driving power generation unit 211 to be driven and the PWM data used for driving the driving force obtained from the calculation result of the reaction force calculated by the calculation processing unit 81 with respect to the real globe 20, the driving The link motor 222 to be driven and PWM data used for driving the link motor 222 are transmitted via the signal transmission / reception unit 87.
[0099]
In accordance with an instruction from the information processing device 8, the real globe 20 drives each designated motion generation unit 211 by PWM control for a designated time with a designated torque. As a result, the contact plate 214a of each tactile sense presentation pin 214 arranged at the same coordinate as that of a part of the virtual personal computer protrudes to each fingertip of the user having the same coordinate as a part of the virtual personal computer. A tactile sensation is given. That is, a sense of touch, texture, shape, strength, etc. is given to each fingertip.
[0100]
At the same time, the real globe 20 drives each designated link motor 222 according to an instruction from the information processing device 8 by PWM control for a designated time with a designated torque. As a result, the force sense applied to each joint of each finger when touching, for example, the keyboard of an actual personal computer, that is, the force corresponding to the pressing force (reaction force) applied to each joint of each finger is Given for each joint of each finger.
[0101]
Further, when the user further moves his / her finger in the direction of pressing the key of the virtual personal computer, a virtual space image showing a state in which the key is pressed is displayed on the image display units 51a and 51b in accordance with the coordinate change of the finger.
In this case, the information processing device 8 generates image data of a virtual space image for reproducing the change in the display state based on the pressed key with the virtual space image, and generates it in the virtual space display device 5. The virtual space display device 5 displays an image on which a key press is reflected on the display of the virtual personal computer based on the image data of the virtual space image received from the information processing device 8. indicate.
[0102]
As described above, according to the tactile / force sense presentation device 2 and the image processing device 1, the real glove 20 can be attached and detached easily and reliably, and the operation (operation) in the virtual space can be performed. It can be done easily and reliably.
Moreover, according to the virtual space image, a tactile sensation and a force sensation can be accurately and reliably presented to each finger.
[0103]
Thereby, the user can perform the operation (operation) in the virtual space comfortably, easily and reliably.
In particular, in the tactile sensation generating unit 21, the actuator wire 212 can be prevented from slacking, and a target large pressing force can be applied from each tactile sense presentation pin 214 to each finger pad of the user more accurately and reliably. it can.
[0104]
Thereby, the user can feel the sensation corresponding to the contact with the object (target object) of each finger pad in the virtual space image more accurately and reliably with each finger pad.
In the tactile sensation generating unit 21, an actuator wire 212 is disposed substantially parallel (along the finger pad) with respect to each finger pad, and a force that is substantially perpendicular to each finger pad is wound by winding the actuator wire 212. Since the mechanism for giving a sense of touch can be made thin, the thickness on the finger pad side of the real glove 20 can be suppressed as much as possible.
[0105]
Further, since the force sense generating unit 22 has a link mechanism, it can cope with both a finger stretched state and a finger bent state. Force sensation can be given.
In the above-described embodiment, the case where the personal computer displayed in the virtual space image is virtually operated as an example of use has been described. However, the present invention is not limited to this, and other examples such as a virtual book are used. It can also be used to handle other items. When dealing with virtual books, for example, when touching the edges of a virtual book or turning a page, when touching the edges of an actual book or turning a page, feel the tactile sensation and power applied to the finger. Can do.
[0106]
Next, a second embodiment of the image processing apparatus of the present invention will be described. FIG. 14 is a longitudinal sectional view showing a configuration example of a tactile sensation generating unit of the tactile / force sense presentation device according to the second embodiment of the present invention.
Hereinafter, the tactile / force sense presentation device 2 and the image processing device 1 according to the second embodiment will be described with a focus on differences from the first embodiment described above, and descriptions of similar matters will be omitted.
[0107]
As shown in FIG. 14 (A), in the haptic / force-sensing presentation apparatus 2 of the second embodiment, each unit haptic generator (actuator) 210 of the haptic generator 21 has a motor (drive source) 211a. Power generation unit (moving means) 211 provided, an actuator wire (flexible linear body) 212 movably installed in the longitudinal direction, and a tactile sense presentation unit 216 that presses the finger pad to generate a tactile sense And have. In the second embodiment, the tactile sense presenting unit 216 constitutes a main part of the tactile sense presenting means.
[0108]
The tactile sense presentation unit 216 is used to give a touch sensation (the presence or absence of contact, strength, etc.) to the user's finger pad, and is formed of, for example, a member (elastic body) having elasticity such as a leaf spring. In this case, the tactile sense providing unit 216 preferably has an appropriate rigidity, and can be formed of an elastic body made of various metals, for example.
The tactile sense presentation unit 216 includes a first plate piece (pressing unit) 216a and a second plate piece (slide unit) 216b. The first plate piece 216a and the second plate piece 216b are joined at one end side, and a minute contact portion 216c that is a portion that contacts the finger pad is provided at the other end side of the first plate piece 216a. Is provided. The contact portion 216c can be formed by, for example, bending the end portion of the first plate piece 216a toward the second plate piece 216b.
[0109]
In addition, one end side of the tactile sense providing unit 216, that is, the left end portion in FIG. 14A is curved so as to protrude downward in FIG. 14A.
Between the first plate piece 216a and the second plate piece 216b, a columnar guide portion (movement direction regulating means) 217 for regulating the movement direction of the first plate piece 216a is installed.
Further, a presser plate 218 is installed on the lower side of the tactile sense presenting unit 216 in FIG. 14A, and the tactile sense presenting unit 216 can move (slide) along the presser plate 218. Yes. In this case, the tactile sense providing unit 216 can move smoothly and reliably because the left end in FIG. 14A is curved.
[0110]
The guide part 217 is fixed to the presser plate 218, and the presser plate 218 is fixed to the glove 2a. That is, the guide part 217 and the presser plate 218 are both fixedly installed on the glove 2a.
In addition, one end of the actuator wire 212 is fixed to the right end in FIG. 14A of the second plate piece 216b of the tactile sense presentation unit 216.
[0111]
When the actuator wire 212 is wound by driving the motor 211a of the power generation unit 211, the actuator wire 212 moves along the finger pad to the right side (the base end direction of the finger) in FIG. The tactile sense presentation unit 216 attached and fixed to the actuator wire 212 also moves to the right side in FIG. 14A along the finger pad.
[0112]
At this time, as shown in FIG. 14B, the movement of the first plate piece 216a of the tactile sense presentation unit 216 to the right side in FIG. It is guided and moves upward in FIG. 14B (projects toward the finger pad). That is, the tactile sense presentation unit 216 is elastically deformed, and the posture of the first plate piece 216a is changed to the posture shown in FIG. 14B, so that the contact unit 216c is substantially vertically upward with respect to the surface of the finger pad. Move to (push up).
[0113]
On the other hand, the actuator wire 212 is moved to the left side in FIG. 14B (the direction opposite to the moving direction of the actuator wire 212 when the first plate piece 216a is projected) by the restoring force (elastic force) of the tactile sense presentation unit 216. Be energized. That is, the tactile sense presentation unit 216 (first plate piece 216a) also serves as an urging unit.
The contact portion 216c exerts a force to move substantially vertically upward, so that the contact portion 216c presses the finger pad in a substantially vertical direction, thereby applying a pressing force to the finger pad of the user's hand.
[0114]
This operation is performed by a designated unit tactile sensation generating unit 210 among the plurality of unit tactile sensation generating units 210, whereby a tactile sensation is presented (given) to the finger pad of the user's hand. Therefore, the user can obtain a sense corresponding to contact with the object (target object) of the finger pad in the virtual space image on the finger pad.
In the unit tactile sensation generating unit 210 specified in this way, when the driving of the motor 211a of the power generating unit 211 is stopped and the winding state of the actuator wire 212 is released, the restoring force (elastic force) of the tactile sense providing unit 216 is released. Then, the tactile sense providing unit 216 returns to the initial state shown in FIG. 14A by the pressure from the user's finger. As a result, the pressing force applied to the finger pad of the user's hand from the tactile sense presentation unit 216 substantially disappears.
According to the tactile / force sense presentation device 2 and the image processing device 1, the same effects as those of the first embodiment described above can be obtained.
[0115]
Next, a third embodiment of the image processing apparatus of the present invention will be described. FIG. 15 is an external view (partially omitted) illustrating an external configuration example of a real glove of the tactile / force-sensitive presentation device of the third embodiment. 15, the tactile sensation generating unit 21, the power generating unit 211, the force sensation generating unit 22, the position / orientation detecting unit 23, the control unit 24, the power supply unit 30, and the like shown in FIG. 3 are not shown.
[0116]
Hereinafter, the tactile / force sense presentation device 2 and the image processing device 1 according to the third embodiment will be described with a focus on differences from the first embodiment described above, and descriptions of similar matters will be omitted.
As shown in FIG. 15, in the tactile / force sense presentation device 2 according to the third embodiment, air (air) is provided at the elbow side (base end side) end of the tubular portion 20 a of the glove 2 a of the real glove 20. An arm fixing portion 2d is provided that is fixed to the arm by air pressure (pressure) by injection (air injection method).
[0117]
The arm fixing portion 2d is composed of a bag-like arm fixing portion main body 21d into which air is injected and an air injection portion 22d provided on the arm fixing portion main body 21d. The external shape of the arm fixing portion main body 21d is cylindrical.
The hollow portion of the air injection portion 22d communicates with the inside of the arm fixing portion main body 21d, and a lid body 23d is provided at the tip of the air injection portion 22d.
[0118]
When the lid 23d is attached to the tip of the air injection portion 22d, the airtightness in the arm fixing portion main body 21d is maintained, and when the lid 23d is removed, the arm fixing portion main body 21d is passed through the air injection portion 22d. Injecting and discharging air can be performed.
Such an arm fixing part 2d is formed according to each user, for example, using a mold such as a rubber mold so as to match the shape of the user's arm.
[0119]
When wearing the real glove 20, the user first wears the glove 2a, and then injects air into the arm fixing portion main body 21d of the arm fixing portion 2d.
In this air injection, for example, the lid 23d is removed from the tip of the air injection part 22d, and air is blown into the arm fixing part main body 21d from the air injection part 22d. When the predetermined amount of air has been injected, the lid 23d is attached to the tip of the air injection portion 22d.
[0120]
In this way, the real glove 20 is fixed to the user's arm by the air pressure of the arm fixing portion 2d, and is fixed to the user's wrist by the restoring force (elastic force) of the wrist fixing portion 28.
Further, when removing the real glove 20, the user first discharges air from the arm fixing portion main body 21d of the arm fixing portion 2d, and then removes the real glove 20 from the hand.
[0121]
Thus, according to the image processing apparatus 1 of the third embodiment of the present invention, the same effects as those of the first embodiment described above can be obtained.
In the tactile / force sense presentation device 2, the arm fixing portion 2 d is of the air injection type, so that the real glove 20 can be attached and detached easily and quickly.
In the present invention, the unit tactile sensation generating unit 210 of the tactile sensation generating unit 21 may be configured as described in the second embodiment.
[0122]
Next, a fourth embodiment of the image processing apparatus of the present invention will be described. FIG. 16 is a block diagram illustrating a configuration example of the position / orientation detection unit of the tactile / force sense presentation device according to the fourth embodiment, and FIG. 17 illustrates a configuration of the position / orientation detection unit of the tactile / force sense presentation device according to the fourth embodiment. FIG. 18 is an external view showing an example of the configuration of the Z direction detection sensor of the position and orientation detection unit shown in FIG. 17. In FIGS. 17 and 18, an X axis, a Y axis, and a Z axis that are orthogonal to each other are assumed.
[0123]
Hereinafter, the tactile / force sense presentation device 2 and the image processing device 1 according to the fourth embodiment will be described with a focus on differences from the first embodiment described above, and descriptions of similar matters will be omitted.
In the tactile / force sense presentation device 2 of the fourth embodiment, as the position / orientation detection unit (finger position detection means) 23, for example, angular velocities around the X, Y, and Z axes that are orthogonal to each other using Coriolis force. A gyro sensor (gyroscope) for detecting each of the above is used.
[0124]
In the tactile / force sense presentation device 2, when the surroundings are imaged by the unevenness input units (imaging means) 53 a and 53 b and a portion corresponding to the finger is included in the captured surrounding image, If the position of the finger is obtained based on the image data (video data) from the concave / convex input units 53a and 53b, and the surrounding image captured in this way does not include a part corresponding to the finger, each position and orientation The position of the finger is detected by the detection unit 23 and the position of the finger is obtained based on information from each position and orientation detection unit 23.
[0125]
As shown in FIG. 17, the position / orientation detection unit 23 is provided in the casing 60, an X direction detection sensor (first detection sensor) 61 that is provided in the casing 60 and detects an angular velocity around the X axis, It has a Y direction detection sensor (second detection sensor) 62 that detects an angular velocity around and a Z direction detection sensor (third detection sensor) 63 that detects an angular velocity around the Z axis.
[0126]
As shown in FIG. 18, the Z-direction detection sensor 63 includes an limbin (base) 64, a vibration piezoelectric element (vibration piezoelectric element) 65 installed on the elimber 64, and a detection piezoelectric element (detection piezoelectric element). Element) 66. The Z direction detection sensor 63 is supported by two wires 67 and 68.
The shape of the ellimber 64 is a substantially rectangular parallelepiped that is long in the Z-axis direction, and the vibration piezoelectric element 65 is disposed on one of two surfaces that are substantially orthogonal to each other, and the detection piezoelectric element 66 is disposed on the other. In this case, the vibration piezoelectric element 65 is disposed on the surface perpendicular to the Y axis, and the detection piezoelectric element 66 is disposed on the surface perpendicular to the X axis. Also good.
[0127]
When an AC voltage is applied from the AC power source 69 shown in FIG. 16 to the vibration piezoelectric element 65 of the Z direction detection sensor 63, the vibration piezoelectric element 65 vibrates in the X-axis direction (bending vibration), thereby The ellimber 64 also vibrates in the X-axis direction. At this time, when rotation (angular velocity) occurs around the Z axis, a voltage (signal) of a level corresponding to the angular velocity is detected from the detecting piezoelectric element 66.
[0128]
Note that the configurations of the X-direction detection sensor 61 and the Y-direction detection sensor 62 are the same as those of the Z-direction detection sensor 63, and thus the description thereof is omitted. As for their action, when rotation (angular velocity) occurs around the X axis, a voltage (signal) at a level corresponding to the angular velocity is detected from the detection piezoelectric element 66 of the X direction detection sensor 61, and around the Y axis. When rotation (angular velocity) occurs, a voltage (signal) at a level corresponding to the angular velocity is detected from the detection piezoelectric element 66 of the Y-direction detection sensor 62.
[0129]
As shown in FIG. 16, a signal (detection data) corresponding to the angular velocity around the X axis detected by the X direction detection sensor 61 of the position / orientation detection unit 23, and the Y axis detection detected by the Y direction detection sensor 62 The signal corresponding to the angular velocity around (detection data) and the signal corresponding to the angular velocity around the Z axis detected by the Z direction detection sensor 63 (detection data) are respectively sent to the amplification unit 251 of the signal processing unit 25. After being amplified and converted into a digital signal by the A / D conversion unit 252, the digital signal is output to the signal transmission / reception unit 26 shown in FIG. 2 and transmitted to the information processing apparatus 8 by the signal transmission / reception unit 26.
The information processing apparatus 8 receives a signal transmitted from the real glove 20, and based on the signal (information), the position and posture of each part such as each finger, hand, wrist, and arm wearing the real glove 20, that is, The coordinates of each part are derived, and the information is stored in a predetermined storage area of the storage unit 85 for use in each predetermined process.
[0130]
Next, the operation (action) of the image processing apparatus 1 in the fourth embodiment will be described. Here, since it is the same as that of 1st Embodiment mentioned above except the method of calculating | requiring the position and attitude | position of each part, such as each finger | toe with which the real glove 20 was mounted | worn, a hand, a wrist, and an arm, the description is abbreviate | omitted.
Prior to use, the user first causes the surrounding image captured by the concave / convex input units 53a and 53b to include a portion corresponding to a portion to be detected such as a finger of the real glove 20. Thereby, the initial setting is made in the image processing apparatus 1.
[0131]
In this initial setting, the virtual space display device 5 captures and captures surrounding images with two image capturing devices (imaging means), that is, the unevenness input units (imaging means) 53a and 53b, and the information processing device 8 The captured image data (video data) is transmitted.
In this case, since the image picked up by the unevenness input units 53a and 53b includes a portion corresponding to a portion to be detected such as a finger of the real glove 20, the information processing apparatus 8 uses the unevenness input units 53a and 53b. The position and orientation (coordinates) of the finger or the like are obtained based on the image captured at, that is, the captured image data. The obtained position and orientation are set as a reference position and a reference orientation, that is, a reference state, and information on the reference position and reference orientation is stored in a predetermined area of the storage unit 85 of the information processing apparatus 8.
[0132]
When the initial setting is completed, the virtual space display device 5 is ready for use, and the virtual space display device 5 captures and captures surrounding images with the unevenness input units (imaging means) 53a and 53b, and captures the image data captured by the information processing device 8. Send.
The control unit 84 (discriminating unit) of the information processing apparatus 8 converts the image captured by the unevenness input units 53a and 53b, that is, the image captured by the unevenness input units 53a and 53b based on the captured image data. It is determined whether or not a portion corresponding to a detected part such as a finger of the real glove 20 is included.
[0133]
If the captured image includes a portion corresponding to a detected part such as a finger, the information processing device 8 determines the position and orientation (coordinates) of the finger based on the captured image data. Ask. The obtained position and orientation are set as a reference position and a reference orientation, respectively. That is, the reference position and reference posture information stored in the storage unit 85 is rewritten with new reference position and reference posture information.
[0134]
On the other hand, when the captured image does not include a part corresponding to a detected part such as a finger, the information processing apparatus 8 determines the finger based on the signal (information) from each position and orientation detection unit 23. The position and orientation (coordinates) are obtained. In this case, the relative position and orientation relative to the reference position and the reference orientation are obtained from the information from each position and orientation detection unit 23, and the relative position and orientation information and the reference position and reference orientation information are used. Based on this, the position and posture of the finger or the like are obtained.
[0135]
According to the tactile / force sense presentation device 2 and the image processing device 1, the same effects as those of the first embodiment described above can be obtained.
The tactile / force-sensing presentation device 2 can accurately and surely determine the position and posture of a predetermined part of the hand and each finger, and the cost can be reduced by using a gyro sensor as the position and posture detection unit 23. Can be reduced.
In the present embodiment, the position / orientation detection unit (finger position detection means) 23 is configured by a gyro sensor, but the present invention is not limited to this.
[0136]
In the present invention, the unit tactile sensation generating unit 210 of the tactile sensation generating unit 21 may be configured as in the second embodiment described above.
In the present invention, the arm fixing portion 2d may be configured to be fixed to the arm (air injection method) by air pressure (pressure) by air (air) injection as in the third embodiment described above. .
Although not described in detail, the above-described configuration can also be applied to the position / orientation detection unit 56 of the virtual space display device 5. Also in this case, the same effect as the first embodiment described above can be obtained.
[0137]
Next, referring to the flowcharts of FIGS. 19, 20, 22, and 24 and the conceptual diagrams of FIGS. 21, 23, and 25, based on each configuration of the above-described embodiment, especially the configuration of the first embodiment. The operation of the image processing apparatus of the present invention will be described. Here, a program for realizing each function described in these flowcharts is stored in the recording medium of the storage unit 85 in the form of a computer-readable program code, and the control unit 84 stores the program code. The operation according to is executed sequentially. In addition, as described above, the control unit 84 can sequentially execute the operation according to the above-described program code transmitted via the transmission medium. That is, in addition to the recording medium, the program / data externally supplied via the transmission medium can be used to execute operations specific to this embodiment.
[0138]
19 and 20 are flowcharts showing the product display process in the image processing apparatus of the present invention, and FIG. 21 is a flowchart showing the application end process in the image processing apparatus of the present invention. Note that these flowcharts are described based on each component in the first embodiment.
First, the product display process will be described with reference to FIGS. 19 and 20. The image processing apparatus 1 of the present invention displays a virtual PC in a virtual space when the power is turned on, and executes the product display process when the user is using this PC. In the actual image processing apparatus 1, processing for operating the keyboard and the like is also performed at the same time. However, for clarity of explanation, it may be on a PC screen (which may be a liquid crystal screen or a CRT (Cathode-Ray Tube)). Will be described with reference to a flowchart specialized in displaying the icon of the product displayed in the above (hereinafter sometimes simply referred to as “icon”) in the virtual space.
[0139]
The real glove 20 detects the position of the user's finger (and hand) by the position and orientation detection unit (finger position detection means) 23 (step S101), performs predetermined signal processing by the signal processing unit 25, and then transmits and receives signals. The position signal detected via the unit (communication means) 26 is transmitted to the information processing apparatus 8 (step S102).
When the information processing apparatus 8 receives this detection signal via the signal transmission / reception unit (communication unit) 87, the control unit 84 generates the detected finger position in the image generation unit (image generation unit) 83, and generates a virtual It is determined whether or not the finger has moved from the position of the finger in the current virtual space image already transmitted to the space display device (display means) 5 (stored in the storage unit 85 in this case) (step S103). If it is determined that finger movement is not detected, the control unit 84 returns to step S101 without repeating any instruction and repeats the same processing.
[0140]
If it is determined in step S103 that the finger movement is detected, the control unit 84 causes the image generation unit 83 to update and generate a virtual space image based on the finger position data (step S104). The position data of the moved finger and the updated virtual space image data are stored in a predetermined storage area of the storage unit (storage unit) 85, and updated via the signal processing unit 86 and the signal transmission / reception unit 87. The image data is transmitted to the virtual space display device (HMD, display means) 5. The HMD 5 that has received the image data displays the image data on the image display units 51a and 51b in accordance with an instruction from the control unit 54 (step S105). The series of processes so far are always performed while the power of the image processing apparatus 1 of the present invention is turned on.
[0141]
At the same time, in the information processing apparatus 8, the collision determination unit (contact determination unit) 82 determines whether or not the virtual PC screen and the coordinates of the user's finger match according to an instruction from the control unit 84, that is, the virtual PC screen. It is determined whether or not the user's finger collides (contacts) (step S106). If it is determined that the coordinates do not match, the image processing apparatus 1 returns to step S101 and repeats the same processing.
[0142]
On the contrary, when it is determined that the coordinates of the two coincide, the arithmetic processing unit 81 calculates the reaction force from the PC screen to the finger based on the object (here, the PC screen), and performs signal processing. The calculation data is transmitted to the real globe 20 via the unit 86 and the signal transmission / reception unit 87. Here, the calculated reaction force data is stored in a predetermined storage area of the storage unit 85 in accordance with an instruction from the control unit 84. In the real glove 20 that has received the reaction force calculation data, the control unit 24 drives the haptic generation unit 21 and the haptic generation unit 22 (tactile presentation means, haptic presentation means) based on the calculation data to detect the haptic sense. Then, a force sense is generated (step S107), and the tactile sense and force sense are presented to the user's finger.
[0143]
In step S108, in a state in which the coordinates of the virtual PC screen and the finger coordinate match and the user's finger feels a tactile sensation and a force sensation, the collision determination unit 82 displays the icon (here, It is determined whether or not the product icon) matches the finger coordinates. Although not shown in the flowchart, the position of the finger is always detected, and when the finger moves, the image generation unit 83 updates and generates the virtual space image. Here, “the coordinates of the icon and the finger match” means a state where a predetermined icon is held by a plurality of fingers including the thumb.
[0144]
If it is determined that the coordinates of the icon and the finger do not match, the collision determination unit 82 next determines whether or not the coordinates of the PC screen and the finger have shifted (step S109). Actually, since the virtual PC screen is a plane, it is determined whether or not the coordinates of the finger are shifted forward from the plane coordinates of the PC screen, that is, whether or not the finger no longer collides with the PC screen. And when it is judged that the coordinate of the PC screen and the finger | toe shifted | deviated, the control part 84 is a signal transmission-and-reception part to the real glove 20 for the control signal for canceling the tactile sensation and the force sensation which were generated on the finger 87, the control unit 24 of the real glove 20 cancels the tactile sensation / force sensation generated from the tactile sensation generating unit 21 and the force sensation generating unit 22 based on the control signal (step S110). The product display process is terminated. On the contrary, when it is determined that the coordinates of the PC screen and the finger are not shifted, the process proceeds to step S108 and the same determination is repeated.
[0145]
If it is determined in step S108 that the icon and the finger match, the arithmetic processing unit 81 calculates a reaction force from the icon to the finger, and uses the calculated data via the signal processing unit 86 and the signal transmitting / receiving unit 87. Send to the real glove 20. Here, the calculated reaction force data is stored in a predetermined storage area of the storage unit 85 in accordance with an instruction from the control unit 84. In the real glove 20 that has received the reaction force calculation data, the control unit 24 drives the tactile sensation generation unit 21 and the force sensation generation unit 22 based on the calculation data to generate tactile sensation and force sensation (step S111). The tactile sensation and the force sensation are presented on the user's finger.
[0146]
In step S112, the control unit 84 determines whether or not the finger has been moved forward from the PC screen while holding the icon (in the claims, corresponds to a contact determination unit that determines the case of simultaneous movement). ). That is, it is determined whether or not the finger has shifted from the plane coordinates of the PC screen and moved to the near side outside the PC screen. When it is determined that the finger has not moved forward from the PC screen, the finger is still colliding with the PC screen. Subsequently, the control unit 84 determines whether the coordinates of the icon and the finger are misaligned. If it is determined whether or not they are not shifted, the process returns to step S112 and the same determination is repeated. Conversely, if it is determined that the coordinates of the finger and the icon have deviated, this means that the icon (product icon) that has been grasped so far has been released from the finger, but the finger still collides with the PC screen. Therefore, the process proceeds to step S108, and it is determined again whether the coordinates of another or the same icon and the finger match.
[0147]
If it is determined in step S112 that the finger has moved forward, the control unit 84 determines whether or not the coordinates of the icon and the finger have shifted (step S114). When it is determined that they are not shifted, the icon may be returned to the PC screen. Therefore, it is determined whether or not the coordinates of the PC screen and the finger match again (step S115). If it is determined that the coordinates do not match, the process proceeds to step S114 and the same determination is repeated. On the other hand, when it is determined that the coordinates of the PC screen and the finger coincide with each other, the process proceeds to step S111 to generate a tactile sense and a force sense again by the tactile sense / force sense presentation device 2 and present it to the user's finger. . Here, in a series of operations when the coordinates of the icon and the finger are not shifted, the icon is gripped by the user's finger. If the coordinates of the PC screen and the finger match at that time, the icon is displayed on the PC screen. The icon is displayed while being held by the user's finger.
[0148]
If it is determined in step S114 that the coordinates of the icon and the finger have shifted, the collision determination unit 82 determines that the icon and the finger do not collide, and the control unit 24 of the real glove 20 determines based on the determination result. Then, the tactile sensation generation unit 21 and the force sensation generation unit 22 release the tactile sensation and the force sensation (step S116). Then, the control unit 84 instructs the image generation unit 83 to display the product associated with the icon extracted from the PC screen in the virtual space. The generated image data is transmitted to the HMD 5 via the signal processing unit 86 and the signal transmission / reception unit 87. In the HMD 5, the image display units 51a and 51b display a virtual product in the virtual space image based on the image data (step S118), and the product display process is terminated.
[0149]
FIG. 21 shows an example of a state where the user is holding a virtual product icon in the virtual space. This state corresponds to the state of step S111 in the above-described product display process.
In this merchandise display processing, a desired product is displayed in full size in a virtual space by grasping an icon (product icon) with a finger, but a virtual PC screen with a finger as a pointer The product may be displayed in the virtual space by touching the upper icon.
[0150]
Next, the appropriate position determination process will be described with reference to FIGS. This appropriate position determination process is executed in a state where the above-described product display process is executed and a virtual product is displayed in the virtual space. In addition, since the virtual space image is updated and created in accordance with the movement of the user's finger and the virtual space display device 5 displays it, it is the same as steps S101 to S105 of the above-described product display processing. Although a part is omitted here, a part of the product display process (particularly, a virtual space image update process or the like) is executed together with the appropriate position determination process.
[0151]
First, an example of the appropriate position determination process will be described with reference to FIGS. The real glove 20 detects the position of the user's finger (and hand) by the position / orientation detection unit (finger position detection unit) 23 (step S201), performs predetermined signal processing by the signal processing unit 25, and then transmits and receives signals. The position signal detected via the unit (communication means) 26 is transmitted to the information processing apparatus 8.
[0152]
In step S202, the control unit 84 determines whether or not the predetermined position of the virtual product displayed in the virtual space in the product display process matches the coordinate of the finger, that is, the user's finger is the virtual product. It is determined whether or not a predetermined position is touched (touched). Here, the “predetermined position” refers to a position where the drive of the virtual electric drill can be turned on / off, for example, when the virtual product is an electric drill as shown in this flowchart, that is, the virtual electric drill The position of the switch on the drill.
[0153]
If it is determined that the coordinates of the two do not match, the process proceeds to step S201 and the same process is repeated. On the other hand, when it is determined that the coordinates of the two coincide, the control unit 84 then continues with a finger different from the above (usually one of the fingers opposite to the hand touching the predetermined position). ) And the coordinates of the improper position, that is, whether or not the other finger is in contact with the improper position of the virtual product (step S203, proper) Position determination means). Here, the “inappropriate position” is, for example, the position (part) of the chuck (drill chuck) of the electric drill when the virtual product is an electric drill as shown in this flowchart.
[0154]
If it is determined that the coordinates of the two do not match, the process proceeds to step S201 and the same process is repeated. On the other hand, if it is determined that the coordinates of the two match, the control unit 84 determines that the two are in an inappropriate positional relationship (inappropriate positional relationship), and the finger at the inappropriate position is determined. A predetermined control signal (drive signal) is transmitted to the real glove 20 via the signal processing unit 86 and the signal transmission / reception unit 87 so as to give a feeling different from the feeling when the normal chuck is touched on the finger pad. Then, based on the predetermined control signal, the real glove 20 gives a different tactile sensation (for example, a tactile sensation when touching the sword mountain of ikebana) to the finger pad of the finger at an inappropriate position. The tactile sensation is presented to the target finger (step S204).
[0155]
Here, “inappropriate positional relationship” means that the drill chuck of the electric drill is held with the other finger (hand) while touching the position of the switch of the electric drill with one finger (hand) as described above. A positional relationship like touching. FIG. 23 shows a conceptual diagram of this inappropriate positional relationship. In the case of handling an actual electric drill, if the user turns on the electric drill accidentally while touching the drill chuck, the user will be seriously injured. In the tactile sensation / force sensation presentation method, an unusual tactile sensation is given to a target finger. Therefore, with the image processing apparatus and the tactile / force-sensing presentation method of the present invention, it is possible to learn a correct method for handling products through actual experience in a virtual space.
[0156]
In addition, the control unit 84 performs a predetermined process via the signal processing unit 86 and the signal transmission / reception unit 87 so as to keep the finger at an inappropriate position (the position of the drill chuck of the virtual electric drill) away from the inappropriate position. A control signal (drive signal) is transmitted to the real globe 20. Then, based on the predetermined control signal, the real glove 20 causes the force sense generating unit 22 to generate a force sense that moves the finger at an inappropriate position away from the inappropriate position. (Step S205).
[0157]
Further, the control unit 84 does not operate the drill chuck with a predetermined message (for example, the vicinity of the drill chuck, etc.) in a virtual space (for example, a warning message “While a finger is put on the switch of the electric drill”). The image of the message is generated by the image generation unit 83, and image data obtained by superimposing the image on the virtual space image is transmitted to the virtual space display device 5. Then, the virtual space display device 5 displays a virtual space image including the warning message on the image display units 51a and 51b (step S206).
[0158]
In this appropriate position determination process, a part of each process (tactile sense presentation, force presentation, and message display) of steps S204 to S206 may be omitted. Although not shown in this flowchart, when the finger leaves the inappropriate positional relationship, the presentation of the tactile sensation and the force sense is canceled, the warning message disappears, and the appropriate position determination process ends.
[0159]
Next, another example of the appropriate position determination process will be described with reference to FIGS. Here, a description will be given using a jigsaw for cutting wood or metal as a virtual product. Similarly to the above-described example, the real globe 20 detects the position of the user's finger (and hand) by the position / orientation detection unit (finger position detection unit) 23 (step S301), and the signal processing unit 25 performs predetermined signal processing. Then, the position signal detected via the signal transmission / reception unit (communication means) 26 is transmitted to the information processing device 8.
[0160]
In step S302, the control unit 84 determines whether or not the predetermined position of the virtual jigsaw displayed in the virtual space in the product display process matches the finger coordinates, that is, the user's finger is a virtual jigsaw. It is determined whether or not a predetermined position is touched (touched). Here, the “predetermined position” is, for example, a position where the driving of the virtual jigsaw can be turned on / off, that is, the position of the virtual jigsaw switch.
[0161]
If it is determined that the two coordinates do not match, the process proceeds to step S301, and the same processing is repeated. On the other hand, when it is determined that the coordinates of the two coincide, the control unit 84 then continues with a finger different from the above (usually one of the fingers opposite to the hand touching the predetermined position). ) And the coordinates of the inappropriate position, that is, whether or not the other finger is in contact with the inappropriate position of the virtual product (step S303, appropriate) Position determination means). Here, the “inappropriate position” is, for example, the position (part) of the jigsaw blade when the virtual product is a jigsaw as shown in this flowchart.
[0162]
If it is determined that the coordinates of the two do not match, the process proceeds to step S301 and the same process is repeated. On the other hand, if it is determined that the coordinates of the two coincide, the control unit 84 determines that the two are in an inappropriate positional relationship, and a normal jigsaw is placed on the finger pad of the finger at the inappropriate position. A predetermined control signal (drive signal) is transmitted to the real glove 20 through the signal processing unit 86 and the signal transmission / reception unit 87 so as to give a feeling different from the feeling when the blade is touched. Then, based on the predetermined control signal, the real glove 20 gives a different tactile sensation (for example, a tactile sensation when touching the sword mountain of ikebana) to the finger pad of the finger at an inappropriate position. The tactile sensation is presented to the target finger (step S304).
[0163]
Here, the “inappropriate positional relationship” means that the jigsaw blade is touched with the other finger (hand) while touching the position of the switch of the jigsaw with one finger (hand) as described above. Such a positional relationship is said. FIG. 25 shows a conceptual diagram of this inappropriate positional relationship. When handling an actual jigsaw, if the jigsaw switch is accidentally turned on while touching the jigsaw blade, the user will be seriously injured. -In the haptic presentation method, a tactile sensation different from normal is given to the target finger. Therefore, with the image processing apparatus and the tactile / force-sensing presentation method of the present invention, it is possible to learn a correct method for handling products through actual experience in a virtual space.
[0164]
In addition, the control unit 84 transmits a predetermined control signal via the signal processing unit 86 and the signal transmission / reception unit 87 so as to keep the finger at an inappropriate position (the position of the virtual jigsaw blade) away from the inappropriate position. (Drive signal) is transmitted to the real globe 20. Then, based on the predetermined control signal, the real glove 20 causes the force sense generating unit 22 to generate a force sense that moves the finger at an inappropriate position away from the inappropriate position. (Step S305).
[0165]
Further, the control unit 84 operates the jigsaw blade while keeping a finger on the warning message “Jigsaw switch” at a predetermined position in the virtual space (for example, near the jigsaw blade). The image generation unit 83 generates an image of the message so as to display “do not do”, and the like, and transmits the image data superimposed on the virtual space image to the virtual space display device 5. Then, the virtual space display device 5 displays a virtual space image including the warning message on the image display units 51a and 51b (step S306).
[0166]
In this appropriate position determination process, a part of each process (tactile sense presentation, force sense presentation, and message display) of steps S304 to S306 may be omitted. Although not shown in this flowchart, when the finger leaves the inappropriate positional relationship, the presentation of the tactile sensation and the force sense is canceled, the warning message disappears, and the appropriate position determination process ends.
[0167]
As described above, the image processing apparatus 1 according to the present invention detects (detects) the position and movement of the finger by the position / orientation detection unit (finger position detection unit) 23 and displays the virtual object displayed in the virtual space image. When a predetermined position (for example, the position of the switch) of the object (in the embodiment, the position of the switch) and the coordinates of the finger coincide (the finger touches the switch of the virtual object), another finger Is touching (touching) an improper position of the object (for example, the position of the drill chuck of a power drill or jigsaw blade), the tactile / force-sensing device 2 may change the tactile / force different from normal. The virtual space display device 5 displays a warning message at a predetermined position in the virtual space.
[0168]
Therefore, when the object displayed in the virtual space is handled by the image processing apparatus 1 and the tactile / force sense presentation method of the present invention, the user is alerted when the object is inappropriately used. Therefore, for example, the correct handling method of the product can be learned through actual experience in the virtual space, or the product can be selected with actual experience in mail order sales via a network such as the Internet.
[0169]
The configuration of the image processing apparatus of the present invention has been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary configuration having the same function. Can be substituted. The image processing apparatus of the present invention may be configured by appropriately combining any two or more configurations (features) of the above-described embodiments.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram illustrating a configuration example of a first embodiment of a haptic / force-sensing presentation apparatus of the present invention and an image processing apparatus having the haptic / force-sensing presentation apparatus.
FIG. 2 is a block diagram illustrating an example of a circuit configuration of a real glove illustrated in FIG.
3 is an external view (partially omitted) showing an external configuration example of the real glove shown in FIG. 1. FIG.
4 is a longitudinal sectional view showing a configuration example of a real glove tactile sensation generating unit shown in FIG.
FIG. 5 is an external view showing a configuration example of a real glove force generation unit shown in FIG. 1;
6 is an external view showing a configuration example of a real glove force generation unit shown in FIG. 1; FIG.
7 is a block diagram illustrating a configuration example of a real glove position and orientation detection unit illustrated in FIG. 1; FIG.
8 is a perspective view showing an example of an external configuration of the virtual space display device shown in FIG. 1. FIG.
9 is a block diagram illustrating a circuit configuration example of the virtual space display device illustrated in FIG. 1;
10 is a diagram (block diagram, schematic diagram) illustrating a configuration example of an unevenness input unit of the virtual space display device illustrated in FIG. 1;
11 is a diagram (block diagram, schematic diagram) illustrating a configuration example of an image display unit of the virtual space display device illustrated in FIG. 1;
12 is a diagram (block diagram, schematic diagram) illustrating a configuration example of a line-of-sight detection unit of the virtual space display device illustrated in FIG. 1;
13 is a block diagram illustrating a circuit configuration example of the information processing apparatus illustrated in FIG. 1;
FIG. 14 is a longitudinal sectional view showing a configuration example of a tactile sensation generating unit of the tactile / force sense presentation device according to the second embodiment.
FIG. 15 is an external view (partially omitted) showing an example of the external configuration of a real glove of the tactile / force sense presentation device of the third embodiment.
FIG. 16 is a block diagram illustrating a configuration example of a position / orientation detection unit of the tactile / force sense presentation device according to the fourth embodiment;
FIG. 17 is an external view (partially omitted) illustrating a configuration example of a position / orientation detection unit of the tactile / force sense presentation device according to the fourth embodiment;
18 is an external view illustrating a configuration example of a Z direction detection sensor of the position and orientation detection unit illustrated in FIG.
FIG. 19 is a flowchart showing a part of product display processing in the image processing apparatus of the present invention.
FIG. 20 is a flowchart showing a part of product display processing in the image processing apparatus of the present invention.
FIG. 21 is an example of a conceptual diagram when a product displayed on a PC screen in a virtual space is grasped in the image processing apparatus of the present invention.
FIG. 22 is a flowchart illustrating an example of appropriate position determination processing in the image processing apparatus of the present invention.
FIG. 23 is an example of a conceptual diagram when an electric drill in a virtual space is handled in the image processing apparatus of the present invention.
FIG. 24 is a flowchart showing another example of appropriate position determination processing in the image processing apparatus of the present invention.
FIG. 25 is an example of a conceptual diagram when a jigsaw in a virtual space is handled in the image processing apparatus of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image processing device 2 ... Tactile sensation / force sense presentation device 2a ... Gloves 2b ... Frame holder 2c ... Frame cover 2d ... Arm fixing part 20 ... Real glove 20a ... Cylindrical part 21 ... Tactile sense Generating part 21a …… Opening 21d …… Arm fixing part main body 210 …… Unit tactile sense generating part 211 …… Power generating part 211a …… Motor 212 …… Actuator wire 212a …… Bundle 213 …… Wire holding part 214 …… Tactile presentation Pin 214a …… Contact plate 214b …… Supporting part
215 …… Tactile sense presentation pin support portion 216 …… Tactile sense presentation portion 216a …… First plate piece 216b …… Second plate piece 216c …… Contact portion 217 …… Guide portion 218 …… Presser plate 22 …… Force sense Generation unit 22d …… Air injection unit 221 …… Frame 222 …… Link motor 23 …… Position / attitude detection unit 23d …… Cover body
231 …… X direction detection coil 232 …… Y direction detection coil 233 …… Z direction detection coil 24 …… Control section 25 …… Signal processing section 251 …… Amplification section 252 …… A / D conversion section 26 …… Signal transmission / reception Numeral 27 ...... Play absorbing part 28 ...... Wrist fixing part 29 ...... Torsion absorbing part 291 ...... Band-shaped part 292 ...... Opening 30 …… Power supply part 5 …… Virtual space display devices 51 a, 51 b ...... Image display part 511 …… Lens 512 …… Lens moving mechanism 513 …… Stepping motor 514 …… Motor controller 515 …… Liquid crystal display panel 516 …… Liquid crystal driver 517 …… Backlight 518 …… Backlight controller 519 …… Transistor
52a, 52b …… Gaze detection unit 521 …… Half mirror 522 …… Filter 523 …… Lens 524 …… CCD 525 …… CCD control unit 526 …… CCD output amplification unit 527 …… LED 528 …… LED control unit 529… ... transistors 53a, 53b ...... unevenness input unit 531 ... lens 532 ... CCD 533 ... CCD control unit 534 ... CCD output amplification unit 54 ... control unit 55 ... signal transmission / reception unit 56 ... position and orientation detection unit 57 …… Mounting part 58 …… Signal processing part 59 …… Three-dimensional acceleration sensor 60 ...... Case 61 …… X direction detection sensor 62 …… Y direction detection sensor 63 …… Z direction detection sensor 64 …… Ellinbar 65 …… Vibration Piezoelectric element 66 …… Detection piezoelectric element 67, 68 …… Wire 69 …… AC power supply 8 …… Information processing device 81 …… Performance Arithmetic processing part
82 …… Collision determination unit 83 …… Image generation unit 84 …… Control unit 85 …… Storage unit
86 …… Signal processor 87 …… Signal transmitter / receiver 88 …… Magnetic field generator 9 …… Base station

Claims (16)

仮想空間画像を生成する画像生成手段と、
前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、
仮想空間中における指の位置を検出する指位置検出手段と、
前記指位置検出手段によって検出された指の位置に基づいて、前記指が仮想空間内の対象物に触れているか否かを判定する接触判定手段と、
前記接触判定手段によって前記指が前記対象物の所定の位置に触れていると判定された場合には、前記所定の位置に触れていると判定された指とは別の指及び前記対象物が不適正な位置関係にあるか否かを判定する適正位置判定手段と、
前記指に与える触覚を発生して提示する触覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように前記触覚提示手段の駆動を制御する制御手段とを備え、
前記制御手段は、前記適正位置判定手段によって前記別の指及び前記対象物が不適正な位置関係にあると判定された場合には、前記対象物の感触とは異なる感触を前記不適正な位置関係にあると判定された指の指腹に与えるように前記触覚提示手段を駆動制御することを特徴とする画像処理装置。
Image generating means for generating a virtual space image;
Display means for displaying the virtual space image generated by the image generation means;
Finger position detecting means for detecting the position of the finger in the virtual space;
Contact determining means for determining whether or not the finger is touching an object in a virtual space based on the position of the finger detected by the finger position detecting means;
If it is determined that the finger touches a predetermined position of the object by said contact determination means, said another finger and the object is a predetermined have been judged finger touching position Appropriate position determination means for determining whether or not the position relationship is inappropriate;
Tactile presentation means for generating and presenting a tactile sensation to be applied to the finger
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the tactile sense providing means is driven so that a sense corresponding to the contact is obtained on the finger pad. Control means for controlling,
Wherein, when said the another finger and the object by properly position determining means is determined to be improper positional relationship, the improper position different feel and touch of the object An image processing apparatus, wherein the tactile sense presenting means is driven and controlled to be applied to a finger pad of a finger determined to have a relationship .
前記指に与える力覚を発生して提示する力覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が前記指腹に得られるように前記力覚提示手段の駆動を制御する制御手段とを更に備え、
前記制御手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記指を前記対象物から遠ざけるような感触を前記指腹に与えるように前記力覚提示手段を駆動制御する請求項1に記載の画像処理装置。
Force sense presenting means for generating and presenting force sense given to the finger;
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the force sense presenting means of the force sense presenting means can obtain a sense corresponding to the contact on the finger pad. Control means for controlling the drive,
When the appropriate position determining means determines that the finger and the object are in an inappropriate positional relationship, the control means gives a feel to the finger pad so as to keep the finger away from the object. The image processing apparatus according to claim 1, wherein the force sense presentation unit is driven and controlled as described above.
仮想空間画像を生成する画像生成手段と、
前記画像生成手段によって生成された仮想空間画像を表示する表示手段と、
仮想空間中における指の位置を検出する指位置検出手段と、
前記指位置検出手段によって検出された指の位置に基づいて、前記指が仮想空間内の対象物に触れているか否かを判定する接触判定手段と、
前記接触判定手段によって前記指が前記対象物の所定の位置に触れていると判定された場合には、前記所定の位置に触れていると判定された指とは別の指及び前記対象物が不適正な位置関係にあるか否かを判定する適正位置判定手段と、
前記指に与える力覚を発生して提示する力覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が前記指腹に得られるように前記力覚提示手段の駆動を制御する制御手段とを備え、
前記制御手段は、前記適正位置判定手段によって前記別の指及び前記対象物が不適正な位置関係にあると判定された場合には、前記指を前記対象物から遠ざけるような感触を前記不適正な位置関係にあると判定された指の指腹に与えるように前記力覚提示手段を駆動制御することを特徴とする画像処理装置。
Image generating means for generating a virtual space image;
Display means for displaying the virtual space image generated by the image generation means;
Finger position detecting means for detecting the position of the finger in the virtual space;
Contact determining means for determining whether or not the finger is touching an object in a virtual space based on the position of the finger detected by the finger position detecting means;
If it is determined that the finger touches a predetermined position of the object by said contact determination means, said another finger and the object is a predetermined have been judged finger touching position Appropriate position determination means for determining whether or not the position relationship is inappropriate;
Force sense presenting means for generating and presenting force sense given to the finger;
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the force sense presenting means of the force sense presenting means can obtain a sense corresponding to the contact on the finger pad. Control means for controlling the drive,
Wherein, when said another finger and the object by the proper position determining means is determined to be improper positional relationship, a like feel away the finger from the object the improper An image processing apparatus that drives and controls the force sense presentation unit so as to be applied to a finger pad of a finger that is determined to have a proper positional relationship .
前記指に与える触覚を発生して提示する触覚提示手段と、
前記接触判定手段により前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように前記触覚提示手段の駆動を制御する制御手段とを更に備え、
前記制御手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記対象物の感触とは異なる感触を前記指腹に与えるように前記触覚提示手段を駆動制御する請求項3に記載の画像処理装置。
Tactile presentation means for generating and presenting a tactile sensation to be applied to the finger
When it is determined by the contact determination means that the finger has touched the object or moved together with the object, the tactile sense providing means is driven so that a sense corresponding to the contact is obtained on the finger pad. Control means for controlling,
When the appropriate position determining means determines that the finger and the object are in an inappropriate positional relationship, the control means gives a feel different from the feel of the object to the finger pad. The image processing apparatus according to claim 3, wherein the tactile sense presenting unit is driven and controlled.
前記表示手段は、前記適正位置判定手段によって前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記仮想空間中の所定の位置に所定のメッセージを表示する請求項1乃至4のいずれかに記載の画像処理装置。  The display means displays a predetermined message at a predetermined position in the virtual space when it is determined by the appropriate position determination means that the finger and the object are in an inappropriate positional relationship. The image processing apparatus according to any one of 1 to 4. 前記所定の位置は、前記不適正な位置関係にあるときの前記対象物の近傍である請求項5に記載の画像処理装置。  The image processing apparatus according to claim 5, wherein the predetermined position is in the vicinity of the object when in the inappropriate positional relationship. 前記所定のメッセージは、前記対象物に対応する警告文である請求項5又は6に記載の画像処理装置。  The image processing apparatus according to claim 5, wherein the predetermined message is a warning text corresponding to the object. 前記画像生成手段によって生成された画像データ、並びに、前記接触判定手段及び前記適正位置判定手段によって判定された判定結果を記憶する記憶手段を更に備えることを特徴とする請求項1乃至7のいずれかに記載の画像処理装置。  8. The storage device according to claim 1, further comprising a storage unit that stores the image data generated by the image generation unit and the determination result determined by the contact determination unit and the appropriate position determination unit. An image processing apparatus according to 1. 前記画像生成手段は、前記指位置検出手段により検出された前記指の位置に基づいて、所定の時間間隔で仮想の指画像を含む仮想空間画像を更新して生成する請求項1乃至8のいずれかに記載の画像処理装置。  The said image generation means updates and produces | generates the virtual space image containing a virtual finger image at predetermined time intervals based on the position of the said finger detected by the said finger position detection means. An image processing apparatus according to claim 1. 前記表示手段は、前記指の移動にともなって更新された前記仮想空間画像を連続的に表示する請求項9に記載の画像処理装置。  The image processing apparatus according to claim 9, wherein the display unit continuously displays the virtual space image updated as the finger moves. 前記表示手段は、顔面に装着して使用するものである請求項1乃至10のいずれかに記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the display unit is used by being mounted on a face. 前記表示手段は、前記画像生成手段により生成された仮想空間画像データを受信する通信手段を含む請求項1乃至11のいずれかに記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the display unit includes a communication unit that receives virtual space image data generated by the image generation unit. 前記画像生成手段、前記接触判定手段、前記適正位置判定手段及び前記制御手段は、1つのユニットとして構成され、該1つのユニットは、前記表示手段及び/又は前記触覚提示手段と相互にデータを送受信する通信手段を備える請求項1乃至12のいずれかに記載の画像処理装置。  The image generation unit, the contact determination unit, the appropriate position determination unit, and the control unit are configured as one unit, and the one unit transmits and receives data to and from the display unit and / or the tactile presentation unit. The image processing apparatus according to claim 1, further comprising a communication unit. 仮想空間画像を生成するステップと、
前記画像生成手段によって生成された仮想空間画像を表示するステップと、
仮想空間中における指の位置を検出するステップと、
前記検出された指の位置に基づいて、前記指が仮想空間内の対象物に触れているか否かを判定するステップと、
前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が指腹に得られるように、前記指に与える触覚を発生して提示するステップと、
前記指が前記対象物の所定の位置に触れていると判定された場合には、前記所定の位置に触れていると判定された指とは別の指及び前記対象物が不適正な位置関係にあるか否かを判定するステップと、
前記別の指及び前記対象物が不適正な位置関係にあると判定された場合には、前記対象物の感触とは異なる感触を前記不適正な位置関係にあると判定された指の指腹に与えるように、前記指に与える触覚を発生して提示するステップと、
を有することを特徴とする触覚・力覚提示方法。
Generating a virtual space image;
Displaying a virtual space image generated by the image generation means;
Detecting the position of the finger in the virtual space;
Determining whether the finger is touching an object in a virtual space based on the detected finger position ;
When it is determined that the finger has touched the object or moved together with the object, a tactile sensation applied to the finger is generated and presented so that a sense corresponding to the contact can be obtained from the finger pad. Steps,
When the finger is determined to be touched to a predetermined position of the object, said another finger and the object is a finger is determined that the touch at predetermined positions improper positional relationship Determining whether or not
When it is determined that the other finger and the target object are in an inappropriate positional relationship, a touch of the finger determined to be in the incorrect positional relationship is different from the touch of the target object. Generating and presenting a tactile sensation to be given to the finger, as given to:
A tactile and haptic presentation method characterized by comprising:
仮想空間画像を生成するステップと、
前記画像生成手段によって生成された仮想空間画像を表示するステップと、
仮想空間中における指の位置を検出するステップと、
前記検出された指の位置に基づいて、前記指が仮想空間内の対象物に触れているか否かを判定するステップと、
前記指が前記対象物に接触しあるいは該対象物とともに移動したと判定される場合には、その接触に相当する感覚が前記指腹に得られるように、前記指に与える力覚を発生して提示するステップと、
前記検出された指が前記対象物の所定の位置に触れていると判定された場合に、前記所定の位置に触れていると判定された指とは別の指及び前記対象物が不適正な位置関係にあると判定された場合には、前記不適正な位置関係にあると判定された指を前記対象物から遠ざけるような感触を前記不適正な位置関係にあると判定された指の指腹に与えるように、前記指に与える力覚を発生して提示するステップと、
を有することを特徴とする触覚・力覚提示方法。
Generating a virtual space image;
Displaying a virtual space image generated by the image generation means;
Detecting the position of the finger in the virtual space;
Determining whether the finger is touching an object in a virtual space based on the detected finger position ;
When it is determined that the finger has touched the object or moved together with the object, a force sensation applied to the finger is generated so that a sense corresponding to the contact is obtained on the finger pad. Presenting steps;
When it is determined that the detected finger is touching a predetermined position of the object, a finger other than the finger determined to be touching the predetermined position and the object are inappropriate. If it is determined that there is a positional relationship, the finger of the finger that is determined to be in the inappropriate positional relationship such that the finger determined to be in the inappropriate positional relationship moves away from the object. Generating and presenting a sensation to be applied to the finger to give to the belly;
A tactile and haptic presentation method characterized by comprising:
前記指及び前記対象物が不適正な位置関係にあると判定された場合には、前記仮想空間中の所定の位置に所定のメッセージを表示するステップを更に有する請求項14又は15に記載の触覚・力覚提示方法。  The tactile sensation according to claim 14 or 15, further comprising a step of displaying a predetermined message at a predetermined position in the virtual space when it is determined that the finger and the object are in an inappropriate positional relationship. -Force display method.
JP2003110366A 2003-04-15 2003-04-15 Image processing apparatus and tactile / force-sensing method Expired - Fee Related JP4063131B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003110366A JP4063131B2 (en) 2003-04-15 2003-04-15 Image processing apparatus and tactile / force-sensing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003110366A JP4063131B2 (en) 2003-04-15 2003-04-15 Image processing apparatus and tactile / force-sensing method

Publications (2)

Publication Number Publication Date
JP2004318399A JP2004318399A (en) 2004-11-11
JP4063131B2 true JP4063131B2 (en) 2008-03-19

Family

ID=33471248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003110366A Expired - Fee Related JP4063131B2 (en) 2003-04-15 2003-04-15 Image processing apparatus and tactile / force-sensing method

Country Status (1)

Country Link
JP (1) JP4063131B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185252A (en) * 2004-12-28 2006-07-13 Univ Of Electro-Communications Interface device
JP4989383B2 (en) * 2007-09-10 2012-08-01 キヤノン株式会社 Information processing apparatus and information processing method
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
JP6891842B2 (en) * 2018-03-26 2021-06-18 日本電信電話株式会社 Tactile system

Also Published As

Publication number Publication date
JP2004318399A (en) 2004-11-11

Similar Documents

Publication Publication Date Title
US6862006B2 (en) Image processing apparatus and image processing method, and image processing program and recording medium of the same
US7250935B2 (en) Force-feedback supply apparatus and image correcting method
JP4085691B2 (en) Image processing device
US11481031B1 (en) Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11596858B2 (en) Operating device and control system
JP4048999B2 (en) Image processing apparatus and image processing method
JP4023214B2 (en) Tactile / force sense presentation device and tactile / force sense presentation system
US8035629B2 (en) Hand-held computer interactive device
JP7401427B2 (en) Positioning device and spatial positioning system
CN110549353B (en) Force vision device, robot, and computer-readable medium storing force vision program
JP2003316493A (en) Tactile sense presentation device
JP2011059862A (en) Non-grounded inner force sense presentation device
JP4063131B2 (en) Image processing apparatus and tactile / force-sensing method
JP2003308141A (en) Inner force sense presenting device
JP4039111B2 (en) Tactile / force sense presentation device and tactile / force sense presentation system
JPH07281818A (en) Three-dimensional virtual instruction input system
JP2003337961A (en) Device and method for image processing, image processing program, and recording medium therefor
JP2004213349A (en) Inner force sense presentation device and system
JP6964302B2 (en) Animation production method
JP2004213351A (en) Inner force sense presentation device and system
WO2021059367A1 (en) Animation production system
JP2023017438A (en) Display image generation device
JP7394046B2 (en) System, imaging device, information processing device, information processing method, and information processing program
WO2019043787A1 (en) Vibration control device
JPWO2021059356A1 (en) Animation production system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140111

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees