JP6049788B2 - 仮想道具操作システム - Google Patents

仮想道具操作システム Download PDF

Info

Publication number
JP6049788B2
JP6049788B2 JP2015054107A JP2015054107A JP6049788B2 JP 6049788 B2 JP6049788 B2 JP 6049788B2 JP 2015054107 A JP2015054107 A JP 2015054107A JP 2015054107 A JP2015054107 A JP 2015054107A JP 6049788 B2 JP6049788 B2 JP 6049788B2
Authority
JP
Japan
Prior art keywords
virtual
tool
hand
virtual tool
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015054107A
Other languages
English (en)
Other versions
JP2015133143A (ja
Inventor
ジェー. ウルリッヒ,クリストファー
ジェー. ウルリッヒ,クリストファー
ジェー. クンクラー,ケヴィン
ジェー. クンクラー,ケヴィン
Original Assignee
イマーション メディカル,インク.
イマーション メディカル,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イマーション メディカル,インク., イマーション メディカル,インク. filed Critical イマーション メディカル,インク.
Publication of JP2015133143A publication Critical patent/JP2015133143A/ja
Application granted granted Critical
Publication of JP6049788B2 publication Critical patent/JP6049788B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/741Glove like input devices, e.g. "data gloves"
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Medicinal Chemistry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、包括的には仮想現実に関し、より詳細には、仮想環境内で操作することができる道具をシミュレートすることに関する。
実習生は、訓練中、特定の職業に関連する道具の使用方法を学ぶ。通常、訓練プロセスは、実習生が、対象物に対する特定の行為を行うために、監督の下、実際の道具を用いて練習することを含む。たとえば、この点において、対象物は、特に使用されている道具のタイプに依拠して生物又は無生物とすることができる。道具操作技能は、たとえば研修生がその職業において十分に習熟するまで育成することができる。たとえば医療分野であっても、医学生又は外科研修医は、様々なタイプの外科的処置又は介入処置を実施するために特化した道具を扱うための技能を学ぶ。
医学訓練では、外科研修医は通常、死体、動物、又は箱型訓練装置に対して、道具を扱うこつを学ぶ。しかしながら、近年、実体が必要とされない仮想環境において研修生が外科的処置を練習することを可能にするシステムが開発されてきた。幾つかの仮想現実システムでは、外科的道具の実際の柄が道具の残りの部分から取り除かれる。次に、3次元空間における道具の位置及び配向を検出するために、センサーが柄の表面に取り付けられる。インタフェースによって、センサーはコンピュータと通信することができ、柄がどのように操作されているかに関する情報が、さらなる処理のためにコンピュータに転送される。仮想領域内の道具のイメージが視覚表示デバイス上に表示され、実際の道具が現実の対象物にどのように影響を与え得るかを視覚においてシミュレートする。
センサーが道具の柄の表面に取り付けられる従来の仮想現実システムの1つの欠点は、道具毎に特定のシミュレーションハードウェアが必要とされることである。このため、多数の異なる道具のための適切な検知ハードウェア及び検知ソフトウェアを構成することは非常に高価になり得る。従来のシステムのこれらの欠陥及び他の欠陥を克服するために、並びに道具を扱う手順をより現実的にシミュレートするために、道具の操作を伴う仮想現実の分野には、依然としてさらなる改善を行い得る。システムの改善によって、より現実的な訓練を研修生に提供することができるのみでなく、道具設計方法の改善及び新たな器具の迅速な試作と同様に、さらなる利点を提供するための改善を行うこともできる。
本開示は、仮想道具をシミュレートするためのシステム、方法、及び関連ソフトウェアアプリケーション、並びに仮想道具を仮想的に扱うためのシステム、方法、及び関連ソフトウェアアプリケーションを説明する。本明細書において説明する多くの実施形態のうちの1つの実施形態によれば、仮想道具操作システムは、ユーザの身体の一部分の位置に関連する動き情報を生成するように構成される動き追跡システムを備える。仮想道具操作システムは、動き情報、仮想道具の位置、及び仮想道具の特性に基づいてユーザに触感を提供するように構成される触覚フィードバックシステムをさらに備える。
本明細書に明白に開示されない本開示の他の特徴、利点、及び実施形態は、以下の詳細な説明及び添付の図面を検討した当業者には明らかとなろう。本開示のそのような暗に含まれる実施態様が本明細書に含まれることが意図される。
以下の図面内の構成要素は、一定の縮尺で描かれているとは限らない。そうではなく、本開示の一般原理を明確に説明することに重点が置かれている。対応する構成要素を示す参照符号は、一貫性及び明白性のために図面全体を通じて必要であるものとして反復される。
一実施形態による仮想道具操作システムのブロック図である。 仮想道具を握るように位置決めされた人間の手のビューを示す図である。 一実施形態による、図1に示す処理システムのブロック図である。 一実施形態による、図3に示すメモリのブロック図である。 一実施形態による、図4に示すシミュレーションファイルを示すブロック図である。 一実施形態による、図4に示す相互作用モジュールを示すブロック図である。 一実施形態による、図4に示す出力処理モジュールを示すブロック図である。 図1に示す視覚フィードバックシステムによって表される仮想イメージを示す図である。
外科的処置のための仮想訓練は、手術が現実にどのように見え得るかのイメージを視覚的に表示するための手段を提供してきた。従来のシステムでは、実際の外科的道具の柄が道具から取り除かれ、仮想領域における外科的道具の位置及び配向を検出するために、柄に多数のセンサーが配置される。しかしながら、柄センサーデバイス、及びデバイスの運動を解釈するための関連ソフトウェアの作成に関わるコストは、特にセンサーデバイス並びに関連するハードウェア及びソフトウェアが道具毎に必要となる場合に非常に高価となり得る。
本開示は、任意の道具設定、さらには新たな道具設計のシミュレートを可能にすることによって、従来のシステムのコストを下げた代替形態を提供する。より詳細には、道具の設計は、既存の道具又は新たな道具の設計のいずれであっても、コンピュータ支援設計(CAD)プログラムを使用してメモリ内に入力することができる。本システムは、道具の他の関連特性、たとえば、重さ、重さ配分、重心、自由度、鋭度、弾力性等に加えて道具の設計を使用して、ユーザに触覚フィードバック又は運動感覚フィードバックを提供し、あたかもユーザが実際に実物の道具を把持しているかのような道具の特性の感覚をユーザに与えることができる。触覚フィードバックは、仮想道具の位置、運動、張力等の感覚をユーザに与える。
仮想世界において道具をシミュレートすることによって、設計開発中に道具の試作品を実際に製造する必要がない。本開示の教示によれば、ユーザは仮想世界において、該ユーザの仮想道具の制御を確かめるフィードバックを受信しながら、道具がどのように機能し、道具をどのように扱うことができるのかを体験することができる。このように道具をシミュレートする能力を用いて、複数の異なるタイプ及び設計の道具をシミュレートすると共に記憶することができる。シミュレートされる仮想道具は、異なる柄、異なるサイズ、形状、形態、質感等を有することができる。また、シミュレートされている道具のタイプに依拠して、道具を特定の設計に従った任意の適切な方法で仮想的に「握る」ことができる。試作品を製造する必要をなくすこと、又はR&Dフェーズ中の試作品数を劇的に低減することのいずれか、及び個々の道具毎の関連する検知デバイス及び検知ソフトウェアを作成する必要をなくすことの結果として、物理的道具毎に検知構造及び関連ソフトウェアを構成しなくてはならないシステムと比較して、訓練環境内に多数の道具を含むことのコストを大幅に低減することができる。
本開示による新たな道具設計に関して、道具の設計をコンピュータに入力し、仮想的に操作することができる。ユーザは、該ユーザに提供される触覚フィードバックを用いて、道具を実際に把持する感覚を体験することができる。そして、道具の設計は、道具の意図される目的を果たすための該道具の使用の容易さ及び感触に基づいて、始めから道具を製造する必要なく、必要に応じて変更することができる。この意味で、物理的材料が必要とされないため、本明細書において説明される実施形態例は、製造コスト及び材料コストの浪費を回避することができる。道具を設計する反復プロセス、すなわち、仮想領域において道具を利用すること、及び道具の設計を微調整することは、より良好な道具設計をもたらすことができ、より短い時間量で達成することができる。
図1は、仮想道具操作システム10の一実施形態のブロック図である。この実施形態では、仮想道具操作システム10は、動き追跡システム12と、処理システム14と、触覚フィードバックシステム16と、視覚フィードバックシステム18とを備える。幾つかの実施形態では、仮想道具操作システム10は、必要であれば、音声をユーザに提供する音声フィードバックシステム(図示せず)も備えてもよい。たとえば、音声フィードバックは、特に、特定の音、たとえばモータ、関節運動、摩擦、振動、器具の起動等を生成する部分を有する道具の場合に、仮想体験を向上させるのに役立つことができる。
本明細書における教示によれば、仮想道具操作システム10は、人間の運動、たとえばコンピュータゲーム、手術を含むと共に、任意の職業、たとえば外科医、航空機操縦士、宇宙飛行士、科学者、建設作業員、工員等を含む任意のタイプの動作をシミュレートするために構成することができる。仮想道具操作システム10は、専門家が安全な訓練設定で手順を練習することを可能にするための訓練目的で使用することができる。
動き追跡システム12は、3次元空間内の特定の点の運動学又は位置を時間にわたって追跡するための検知デバイスを備えることができる。また、検知デバイスは、これらの点の互いに対する位置若しくは角度を追跡するか、又は他の動き追跡技法を使用することができる。特に、動き追跡システム12は毎秒幾つかの位置測定を行い、連続運動をシミュレートすることができる。幾つかの実施形態では、動き追跡システム12は、ユーザが現実に把持するか又は触れることができる対応する物理要素を含まない。その代わり、この場合、仮想道具は仮想領域内にのみ存在し、完全に仮想のものである。他の実施形態では、動き追跡システム12はユーザが触れることができる物理プロップを備える。この場合の物理プロップは、たとえば、仮想道具とほぼ同じサイズ及び形状を有する柄とすることができる。
動き追跡システム12は、たとえば、ユーザの手に装着することができる、CyberGlove(商標)のようなデータグローブを備えることができる。データグローブは、ユーザの手、手首、及び指の幾つかの関節の曲げ角度を測定するためのセンサーを備えることができる。幾つかの実施形態では、動き追跡システム12は、基準点に対する3次元空間内のx位置、y位置、及びz位置を測定することが可能である場合があり、固定の基準フレームに対する空間内の配向を測定することがさらに可能である場合がある。他の実施形態では、動き追跡システム12は、ユーザのイメージを追跡すると共に、必要に応じて、ユーザの1つ又は複数の手、手首、腕、肩、頭、脚、足等のような様々なユーザの身体部分の位置及び配向を計算するための光学動き捕捉デバイスを備えることができる。
処理システム14は、動き追跡システム12によって測定された動き情報を管理するための任意の適切な処理構成要素及びストレージ構成要素を備えることができる。図3は、下記でより詳細に説明される、一実施形態による処理システム14を示している。処理システム14は、特定のソフトウェアアプリケーションを使用し、動き情報を分析して、ユーザの動きが仮想世界における人間の操作者にどのように対応するかを確定することができる。処理システム14内に記憶されている仮想道具に対する人間の操作者の運動を確定することができる。人間の操作者が仮想道具を操作すると、処理システム14は、仮想道具と仮想対象物との間の相互作用の結果も確定することができる。処理システム14は、操作者と仮想道具との間の相互作用の計算に基づいて、触覚フィードバックシステム16に適用する触覚フィードバック信号を計算する。また、処理システム14は、仮想操作者と、仮想道具と、仮想対象物との間の相互作用の仮想イメージをユーザに表示するために視覚フィードバックシステム18に適用されるビデオ信号を計算する。
触覚フィードバックシステム16は、任意のタイプの強制フィードバック、振動触覚フィードバック、及び/又は触知性フィードバックをユーザに提供する任意の適切なデバイスを備えることができる。このフィードバックは、ユーザに、シミュレートされた道具を実際に把持している感覚を提供することができる。触覚フィードバックシステム16は、道具の物理的な質感、圧力、力、抵抗、振動等をシミュレートする。それらは幾つかの点で、空間内の道具の運動に関連し、道具と対象物との相互作用を含むことができる。触覚フィードバックシステム16は、たとえば、CyberGrasp(商標)、CyberForce(商標)、CyberTouch(商標)等のようなメカニズムを含む場合があり、それらは、少なくとも力、重さ、抵抗、及び振動の感覚をユーザに加えることができる。
視覚フィードバックシステム18は、仮想ゴーグル、表示スクリーン等のような任意の適切な仮想現実表示デバイスを備えることができる。視覚フィードバックシステム18は、道具の外観、及び道具が仮想操作者によって扱われるときにどのように動作するかを示すことができる。視覚フィードバックシステム18は、道具に加えられる様々な力及び作用に道具がどのように反応するか、及び仮想道具の運動又は動作によって対象物がどのように影響されるかも示すことができる。
通例、仮想道具操作システム10は以下のように動作する。動き追跡システム12は、ユーザの身体の1つ又は複数の部分、たとえば手の動きを追跡する。動き情報が処理システム14に送信され、処理システム14は該動き情報を処理し、動きが仮想道具にどのように影響を及ぼすかを確定する。また、処理システム14は、仮想道具が特定の対象物とどのように相互作用するかを確定する。処理システム14は、これらの処理手順に応答して、ユーザの特定の動き及び仮想道具の特性に依拠する、ユーザと仮想道具との間の相互作用に基づいて、触覚フィードバック信号を触覚フィードバックシステム16に提供する。また、処理システム14は、仮想現実情報を視覚フィードバックシステム18に提供し、ユーザの手、操作されている道具、及び対象物に対する道具の運動の効果のリアルタイムの視覚的シミュレーションを提供する。さらに、処理システム14は、仮想操作者と、仮想道具と、仮想対象物との間の相互作用に関連する音声信号も作成することができる。
図2は、図1の仮想道具操作システム10を使用しているユーザ20の実物の人間の手のビューを示している。このビューでは、ユーザ20は自身の手を、特定の道具、たとえば、メス、ランセット等を扱うのに使用することができる「掌」握り又は「ディナーナイフ」握りに位置決めしている。他の実施形態では、ユーザ20の手は、扱われている仮想道具のタイプに依拠して、別の握り方、たとえば鉛筆握りに位置決めされ得る。ユーザ20は、道具又は他の操作可能な物体を使用して練習又は訓練をしている任意の人間を表すことができる。ユーザ20は、たとえば、外科医、医学生、訓練中の操縦士、科学者、訓練中の宇宙飛行士、建設作業員、機械操作員、工員等とすることができる。たとえば医学分野において、ユーザ20が仮想的に握ることができる道具は、鉗子、締め具、メス、ランセット、トロカール、開創器、採皮刀、内視鏡、腹腔鏡器具等を含むことができる。個々の分野に依拠して、ユーザ20は他のタイプの道具を仮想的に操作することができる。
幾つかの実施形態では、ユーザ20は実際の道具も、又はさらには実際の道具の柄も、実際に掴まない。これは、センサーを備えるように変更された道具の柄の使用を一般的に必要とする従来のシステムとは異なる。他の実施形態では、ユーザ20は、実際の道具の柄のサイズ及び/又は形状に似た物理プロップを掴んでもよい。この図面には詳細に図示されていないが、動き追跡システム12(図1)は、ユーザ20の動きを追跡して、手、指、親指、手首等の配置を確定する。幾つかの実施形態では、動き追跡システム12は、ユーザ20の手の位置特性及び/又は回転特性を検知するための、CyberGlove(商標)又はCyberForce(商標)のようなデータグローブを備えることができる。多くの実施形態では、道具操作は人間の1つの手を伴うが、他の実施形態では両手を使用してもよく、又はさらには、手首、腕、頭、脚、足等のような人間の他の部分を使用してもよい。たとえば、人間の頭の配置を追跡して、仮想シーンに対する人間の目の視覚及び視線を確定し、それによって、視覚フィードバックシステム18による視覚信号の表示のされ方に影響を及ぼすことができる。
また、詳細に図示していないが、ユーザ20、及び/又はユーザ20の手に装着されるデータグローブは、触覚フィードバックシステム16(図1)からの触覚フィードバックを受け取ることができる。たとえば、触覚フィードバックシステム16は、CyberGrasp(商標)、CyberForce(商標)、CyberTouch(商標)等のような任意の適切な力フィードバックメカニズムを備えることができる。これらは、データグローブと連携して動作することができる。特に、触覚フィードバックシステム16は、仮想道具があたかも実際の道具であるかのように該仮想道具の感触をシミュレートするための様々なアクチュエータを備えることができる。また、触覚フィードバックシステム16は、重さ、弾力性、自由度等のような仮想道具の他の特性に基づいて、仮想道具の操作感覚を提供すると共に、道具がどのように対象物と相互作用するかに基づいて、感覚フィードバックを提供することができる。したがって、触覚フィードバックシステム16は、シミュレートされている道具のタイプに依拠して、圧力、力、運動抵抗傾向、重力、振動、慣性等の感覚を提供することができる。
図3は、図1に示す処理システム14の一実施形態のブロック図である。この実施形態では、処理システム14は、マイクロプロセッサ22と、メモリ24と、入力/出力デバイス26と、動き追跡インタフェース28と、触覚デバイスインタフェース30と、仮想表示インタフェース32とを備え、それぞれが、内部バス34、又は情報を通信するための他の適切な通信メカニズムによって相互接続されている。処理システム14は、デジタル又はアナログの電気信号を処理及び計算することに関連付けられる他の構成要素及び/又は回路も備えることができる。処理システム14は、ユーザから検出される動き制御信号を処理すると共に、仮想の直面の体験をシミュレートするためのフィードバックをユーザに提供することが可能なコンピュータとして構成することができる。
マイクロプロセッサ22は、汎用プロセッサ若しくは専用プロセッサ又はマイクロコントローラとすることができる。メモリ24は、情報、データ、及び/又は命令を記憶するための、内部に固定されたストレージ媒体及び/又は取り外し可能なストレージ媒体を備えることができる。メモリ構成要素内のストレージは、ランダムアクセスメモリ(RAM)のような揮発性メモリ、及び/又は読み出し専用メモリ(ROM)のような不揮発性メモリの任意の組み合わせを含むことができる。メモリ24は、マイクロプロセッサ22が仮想道具操作プログラム又は仮想道具操作手順を実行することを可能にするソフトウェアプログラムも記憶することができる。ユーザの運動を分析し、仮想の人間の操作者と、仮想道具と、仮想対象物との間の仮想相互作用に基づいてユーザに対するフィードバックを調整するための様々な論理命令及び論理コマンドをソフトウェアプログラム内に含めることができる。本開示の仮想道具操作プログラムは、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせにおいて実装されることができる。仮想道具操作プログラムは、ソフトウェア又はファームウェアにおいて実装される場合、メモリ24内に記憶され、マイクロプロセッサ22によって実行されることができる。仮想道具操作プログラムは、ハードウェアにおいて実装される場合、たとえば、離散論理回路、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)等、又はそれらの任意の組み合わせを使用して実装されることができる。
図3の実施形態では、メモリ24は処理システム14の部分として図示されている。他の実施形態では、処理システム14に関連付けられるメモリ構成要素の部分又は全てを他の処理システム内に構成してもよく、又は取り外し可能なストレージデバイス上に組み込んでもよい。また、メモリ24は、モデム又は他のネットワーク通信デバイスを介してアクセス可能な遠隔ストレージも含むことができる。
メモリ24は、仮想道具環境の様々な部分をシミュレートするための情報を含むファイルを含む。たとえば、シミュレーションファイルは、道具自身のシミュレーションと、仮想道具の操作者のシミュレーションと、道具の動作によって影響を受ける対象物のシミュレーションとを含むことができる。メモリ24は、仮想道具が他のものとどのように相互作用するかを定義するためのソフトウェアプログラム又はソフトウェアコードも含むことができる。たとえば、操作者と道具との間の相互作用を、道具と対象物との間の相互作用と同様に定義することができる。
入力/出力(I/O)デバイス26は、キーボード、キーパッド、カーソル制御デバイス、たとえばコンピュータマウス、又は他のデータ入力デバイスのような入力メカニズムを含む。出力デバイスは、コンピュータモニタ、表示デバイス、プリンタ、又は他の周辺デバイスを含むことができる。I/Oデバイス26は、インターネットのようなネットワークへのアクセスを可能にするための、モデムのような、ネットワークと通信するための装置も含むことができる。I/Oデバイス26は、有線又は無線の伝送を介して内部バス34と通信することができる。
動き追跡インタフェース28は、動き追跡システム12(図1)によって受信される情報を受信する。この情報は、一時的に又は長期にわたってメモリ24内に記憶され、ユーザ20の位置及び/又は配向を確定するために処理されることができる。マイクロプロセッサ22は、ユーザ20の動き検出情報を分析することによって仮想道具操作プログラムを実行し、仮想道具に対するこの運動の効果及び仮想対象物に対する該道具の効果を確定する。これらの運動及び相互作用に基づいて、マイクロプロセッサ22は、ユーザ20に適用されることが意図されるフィートバック信号を確定する。触覚デバイスインタフェース30は、触覚フィードバック信号を触覚フィードバックシステム16に転送し、ユーザ20のために、仮想道具の扱い及び制御の触知感覚をシミュレートする。仮想表示インタフェース32は、ビデオ信号を視覚フィードバックシステム18に送信し、ユーザ20のために、仮想対象物に対し仮想道具を使用している仮想操作者の仮想現実イメージをシミュレートする。
図4は、図3に示すメモリ24の一実施形態のブロック図である。この実施形態ではメモリ24は、中でも、仮想道具操作プログラム38と、オペレーティングシステム(O/S)40と、コンピュータ支援設計(CAD)プログラム42とを備える。仮想道具操作プログラム38は、中でも、シミュレーションファイル44と、相互作用モジュール46と、出力処理モジュール48とを備える。幾つかの実施形態では、メモリ24は、インターネットブラウザ、文書処理プログラム等のような他のソフトウェアアプリケーションを含むことができる。CADプログラム42をメモリ24内にインストールして、道具設計者が道具設計の特徴を入力することを可能にすることができる。道具設計の特徴はシミュレーションファイルとして記憶することができる。仮想道具操作者シミュレーション及び仮想対象物に関する情報も、CADプログラム42又は他の入力メカニズムを使用して入力することができる。道具設計に加えて、シミュレーションファイル44は、道具の物理パラメータ及び動作パラメータも含むことができる。他の実施形態では、CADプログラム42を省いてもよく、既存の道具設計ファイルを外部ソースからメモリ24内にロードすることができる。また、道具設計ファイルをインターネットからダウンロードしてメモリ24内に記憶することができる。
仮想道具操作プログラム38は、仮想道具のシミュレーションと、道具操作者のシミュレーションと、道具の動作の対象物のシミュレーションとを管理し、それらはそれぞれシミュレーションファイル44として記憶される。仮想道具操作プログラム38は、シミュレーションファイル44内で定義される、操作者、道具、及び対象物の特性及びプロパティに依拠して、道具が操作者及び対象物とどのように相互作用するかも管理する。それらの相互作用の仕方を、ソフトウェアコードを使用してモデル化及び定義し、相互作用モジュール46として記憶することができる。仮想道具操作プログラム38の出力処理モジュール48は、情報をどのようにユーザ20にフィードバックするかに関するソフトウェアコードを含む。相互作用モジュール46からの、操作者、道具、及び対象物の仮想相互作用に基づいて、出力処理モジュール48は、仮想道具操作体験をシミュレートするために、少なくとも触覚フィードバック及び仮想フィードバックを提供する。仮想道具操作プログラム38、及び本明細書において説明されるような実行可能な論理命令を含む任意の他のプログラム又はソフトウェアコードを、任意の適切な処理デバイスによる実行のために任意の適切なコンピュータ可読媒体内に具現化することができる。コンピュータ可読媒体は、測定可能な時間の長さにわたって、プログラム又はソフトウェアコードを記憶することができる任意の物理媒体を含むことができる。
図5は、図4に示すシミュレーションファイル44の一実施形態のブロック図である。この実施形態では、シミュレーションファイル44は、操作者シミュレーションファイル50と、道具シミュレーションファイル52と、対象物シミュレーションファイル54とを含む。操作者シミュレーションファイル50は、仮想の人間のオペレータを定義する情報を含む。特に、ほとんどの道具はユーザの手によって操作されるため、手、手首、及び前腕を、形状、運動、回転、屈曲、運動学等についてシミュレートすることができる。操作者シミュレーションファイル50は、人間の手、指、手首、腕等に存在する関節及び骨の多岐にわたる動きを含む。指の異なる関節についての相対運動情報、及び1本の指の、別の指に対する相対運動も含まれる。操作者シミュレーションファイル50は、人間の手及び手首をモデル化して、6以上の自由度の追跡情報によって、仮想空間内の任意の点で、任意の妥当な角度に配向された仮想の手(複数可)を位置決めすることを可能にすることができる。
他の実施形態では、操作者シミュレーションファイル50は、人間の身体の他の部分を定義する他の情報を含むことができる。たとえば、シミュレートされる道具が、操作者が自身の足を用いてペダルを押すことを伴う場合、操作者シミュレーションファイル50は、様々な足の位置及び配向に関する情報を含む。この点において、操作者シミュレーションファイル50は、人間の身体の2つ以上の部分を定義するデータを含む場合がある。道具によっては、道具を適切に利用するために2つの手が必要となる場合がある。この場合、各手に1つずつ、2つのファイルをモデル化することができる。操作者シミュレーションファイル50の他の実施形態は、ユーザのサイズの変動を計上することができる。たとえば、操作シミュレーションファイル50は、たとえば手が大きな操作者のためにシミュレーション情報を変更することを可能にすることができる。
道具シミュレーションファイル52は、パラメータ、特性、及びシミュレートされている特定の道具の機能に関する情報又はデータを記憶する。道具シミュレーションファイル52内の情報を、外部ソースからダウンロードするか、CADプログラム40を使用してローカルで作成することができる。情報は、操作される部分、たとえば柄、ボタン、スイッチ、取っ手等、及び、道具の構造の他の部分、たとえば刃、挟持あご(clamping jaw)、道具ヘッド等を含む、仮想道具の全ての部分のシミュレーションデータを含む。道具シミュレーションファイル52は、サイズ、形状、形態、鋭度、質感、力の衝撃(force impact)、振動、慣性、重心、重さ、重さ配分、自由度、動き角度等のような道具の特性に関する情報も含む。運動抵抗、可撓性、慣性等のような他の特性を使用して道具を定義することもできる。
シミュレートされる道具のタイプに依拠して、道具シミュレーションファイル52はタイプ毎に大きく異なる場合がある。たとえば、仮想外科的道具はメス、ランセット、クランプ、鉗子、開創器、止血鉗子、採皮刀、内視鏡、腹腔鏡器具等を含むことができる。道具シミュレーションファイルにおいてシミュレートされる大工道具及び建設工具は、たとえば、ハンマー、鋸、ドリル、ピック、金梃子等を含むことができる。建設機器、車両、工場設備等を制御するための機械のような機械動作制御もシミュレートし、道具シミュレーションファイル52として記憶することができる。道具シミュレーションファイル52は、多数のシミュレートされた道具に関する任意の量の情報を含むことができることを理解されたい。たとえば、手術の訓練の場合、外科医は特定の処置のために特定のタイプの道具を必要とする場合がある。これらの道具を、必要に応じてアクセスするための関連道具シミュレーションファイル内に記憶することができる。既存の道具の特性を道具シミュレーションファイル52内にロードすることができるか、又は上記で提言したように、CADプログラム42(図4)のような適切なソフトウェアを使用して新たな道具を設計することができる。道具のそれぞれの物理設計及び機能設計を、道具シミュレーションファイル52内に記憶することができる。
対象物シミュレーションファイル54は、仮想道具の作用を受ける仮想対象物を定義する情報又はデータを含む。対象物は、シミュレートされる道具のタイプに依拠して有生物又は無生物とすることができる。外科的道具の場合、対象物は一般に、人間、又は獣医学の場合は動物のような有生物である。人間又は動物の身体構造及び生物学をモデル化し、対象物シミュレーションファイル54内に記憶することができる。身体構造は、身体、皮膚、細胞、臓器、骨、筋肉、靭帯、腱等を含むことができる。ユーザが実施している仮想処置のタイプに依拠して、必要に応じて身体構造の他の部分も対象物シミュレーションファイル54内に組み込むことができる。対象物シミュレーションファイル54は、可撓性、強度、運動抵抗、慣性、弾力性、切断又は穿刺が可能であるか等のような対象物の特性を含むことができる。また、対象物シミュレーションファイル54は、必要に応じて広範な特性を有するように実装することができる。たとえば、患者のサイズ、体型、年齢、性別等の違いをモデル化し、外科的処置のタイプを適切な身体タイプと一致させることができる。
幾つかの実施形態では、モデルを適合させるか又は特定の患者のCATスキャン、CTスキャン、X線等から導出して、手術される患者の仮想表現をシミュレートすることができる。この意味において、外科医は仮想患者に対する外科的処置を実行して、患者の実際の状態、及び併発し得る任意のリスク又は合併症をより良好に理解することができる。また、対象物シミュレーションファイル54は、特定の外科的処置に適用可能である場合、男性患者と女性患者との生体構造の違いを含むことができる。
建造物建築及び機械操作の分野では、道具は一般的に、製材、乾式壁、梁、桁、釘、ねじ、鋲、又は他の建材のような無生物に対して使用される。他の対象物は、土、泥、岩、コンクリート等を含むことができる。対象物の特性は、対象物のサイズ、形状、重さ、可撓性等を定義するようにモデル化することができる。仮想道具を仮想世界においてシミュレート及び操作することができる他の分野では、該道具の作用を受ける他の特定の対象物を、現実の同様の対象物を反映するようにシミュレートすることができる。
図6は、図4に示す相互作用モジュール46の一実施形態のブロック図である。この実施形態では、相互作用モジュール46は、操作者/道具相互作用モジュール60と、道具/対象物相互作用モジュール62とを含む。幾つかの実施形態では、操作者が実際に対象物に接触する状況が当てはまり得る場合、相互作用モジュール44は操作者/対象物相互作用モジュール64も含むことができる。操作者/対象物相互作用モジュール64は、操作者が対象物を直接検知して、道具を保持している場合がある別の手に対する対象物の位置の理解を知覚することができる現実環境をシミュレートするのに役立ち得る。
操作者/道具相互作用モジュール60は、操作者及び道具がどのように互いに相互作用するかを定義するためのソフトウェアプログラム又はソフトウェアコードを含む。操作者/道具相互作用モジュール60は、操作者シミュレータファイル50及び道具シミュレーションファイル52から情報を検索して、それぞれの特性を確定する。操作者の運動及び道具の特性に基づいて、操作者/道具相互作用モジュール60は、道具が仮想領域内でどのように移動するか、及びどのタイプの触覚フィードバックを道具が操作者に提供し得るかを確定する。道具が不恰好に掴まれている場合、触覚フィードバックは、握り方を正す必要があるか否かを検知することができるという点で、ユーザに役立ち得る。また、ユーザは、触覚フィードバックから道具の感触をより良好に理解することが可能である場合がある。また、操作者の、道具に対する順応性に依拠して、道具を扱う実際の感覚をシミュレートするための特定の力又は圧力を確定することができる。道具の運動及び配向は、操作者によって適用される力に依拠し、重力及び慣性のような他の力にも反応する場合がある。
道具/対象物相互作用モジュール62は、道具と対象物とがどのように互いに相互作用するかを定義するためのソフトウェアプログラム及び/又はコードを含む。道具/対象物相互作用モジュール62は、道具シミュレーションファイル52及び対象物シミュレーションファイル54から情報を検索して、それぞれの特性を確定する。道具及び対象物の相互作用は、たとえば、道具の位置、配向、及び運動に基づき得る。また、対象物の強度及び他の特性に基づいて、道具は自身の運動において何らかの抵抗を受ける場合がある。幾つかの状況では、この抵抗を操作者/道具相互作用モジュール60に適用し、この抵抗を操作者に移すことができる。この場合、操作者は、さらなる力を加えるか、又は自身の運動を必要に応じて変えることが必要とされる場合がある。特定の道具機能への対象物の反応も、道具/対象物相互作用モジュール62によって確定することができる。たとえば、対象物が仮想手術患者である場合、対象物、及び道具の効果を受ける対象物の部分に対して実施された処置のタイプに依拠して、道具の使用の結果、出血又は他の反応が生じる場合がある。仮想建築設定では、対象物はたとえば仮想木材とすることができ、仮想道具は、道具と木材との相互作用の結果として仮想のおがくずを生成することができる。道具と対象物との間のこれらの相互作用及び他の相互作用を、道具/対象物相互作用モジュール62内にプログラムして、道具に対する対象物の現実の反応、及び対象物が道具に課し得る任意のフィードバックをシミュレートすることができる。
図7は、図4に示す出力処理モジュール46の一実施形態のブロック図である。この実施形態では、出力処理モジュール46は、触覚フィードバック処理モジュール70と、音声/ビデオ処理モジュール72とを含む。仮想道具操作システム10が、音声特徴を提供するためのオプションの音声フィードバックシステムを備える実施形態の場合、出力処理モジュール46は音声処理モジュールを含むことができる。この点において、音声処理モジュールは操作者と、道具と、対象物との間の様々な相互作用に基づいてサウンド効果を生成することができる。
操作者と、道具と、対象物との間の相互作用を確定した結果、触覚フィードバック処理モジュール70は、特定の力、圧力、振動等のフィードバックを操作者に提供することができる。触覚フィードバック処理モジュール70は、操作者/道具相互作用モジュール60及び操作者/対象物相互作用モジュール64から触覚信号を導出するのみでなく、道具と対象物との間の相互作用から生じる場合がある、道具/対象物相互作用モジュール62からの間接的な触覚信号を導出することができる。触覚フィードバック処理モジュール70内で処理された触覚信号を、触覚デバイスインタフェース30(図3)を介して触覚フィードバックシステム16(図1)に送信することができる。使用されている触覚フィードバックシステム16のタイプに基づいて、触覚フィードバック処理モジュール70は触覚信号を変更して、触覚フィードバックシステム16が適切なフィードバックをユーザに提供することを可能にすることができる。
出力処理モジュール46は、仮想現実ビデオイメージ信号を生成するビデオ処理モジュール72も含む。ビデオ処理モジュール72は、3次元の仮想世界の物体を2次元の表示スクリーンにレンダリングするためのグラフィック処理デバイスを備えることができる。ビデオ処理モジュール72によって生成されたビデオイメージ信号は、仮想表示インタフェース32(図3)を介して、視覚フィードバックシステム18(図1)に送信される。
図8は、一実施例によるリアルタイム仮想ビュー80のスナップショットを示している。この仮想ビュー80は、仮想操作者82、仮想道具84、及び仮想対象物86のイメージを含む。特に、仮想操作者82は、仮想外科医の人間の手である。また、仮想操作者82は、仮想対象物86に対し仮想道具84を課すように仮想道具84を扱っているのが示されている。この実施例において、仮想対象物86は、仮想患者の生体構造である。道具と仮想対象物86との相互作用に起因して、仮想道具84の仮想患者に対する効果も同様に示され得る。この場合、仮想道具84は、仮想患者の皮膚を切開するのに使用されるメスである。
本明細書において説明したステップ、プロセス、又は動作は、ソフトウェア又はファームウェア内に実装することができる任意のモジュール又はコードシーケンスを表すことができることを理解されたい。これに関して、これらのモジュール及びコードシーケンスは、物理構成要素内で特定の論理ステップ、プロセス、又は動作を実行するためのコマンド又は命令を含むことができる。当業者であれば理解するように、本明細書において説明したステップ、プロセス、及び/又は動作の1つ又は複数を、ほぼ同時に、又は明示的に説明したのとは異なる順序で実行することができることをさらに理解されたい。
本明細書において説明した実施形態は、単に実施形態の例を表すものであり、本開示をいかなる特定の実施形態にも不必要に限定するように意図されるものではない。そうではなく、当業者であれば理解するように、これらの実施形態に様々な変更を行うことができる。いかなるそのような変更も、本開示の精神及び範囲内に含まれると共に、以下の特許請求の範囲によって保護されるものと意図される。

Claims (22)

  1. 仮想道具操作システムであって、
    動き補足システムを含み、物理空間におけるユーザの位置に関連する動き情報を生成する動き追跡システムであって、該動き情報は手の位置及び配向並びに頭の位置及び配向を含む、動き追跡システムと、
    前記物理空間における手の位置及び配向並びに頭の位置及び配向に基づいて、前記ユーザに仮想シーンを表示する視覚フィードバックシステムであって、該仮想シーンは仮想の手、仮想道具、及び仮想対象物を描写する、視覚フィードバックシステムと、
    前記物理空間における手の位置及び配向、前記仮想対象物の特性、並びに前記仮想道具の特性に基づいて、前記ユーザに触感を提供する触覚フィードバックシステムであって、該触感は前記ユーザの前記手を用いた前記仮想道具の操作及び前記仮想道具と前記仮想対象物との相互作用をシミュレートする、触覚フィードバックシステムと、
    を備え、仮想道具操作システム。
  2. 前記動き情報を処理して触覚フィードバック信号を生成する処理システムであって、前記触覚フィードバック信号を前記触覚フィードバックシステムに送信する処理システムをさらに備え、前記触覚フィードバック信号は前記触感に関連する、請求項1に記載の仮想道具操作システム。
  3. 前記処理システムは、マイクロプロセッサと、メモリと、第1のインタフェースデバイスと、第2のインタフェースデバイスとを備え、前記第1のインタフェースデバイスは前記動き追跡システムと通信し、前記第2のインタフェースデバイスは前記触覚フィードバックシステムと通信する、請求項2に記載の仮想道具操作システム。
  4. 前記動き追跡システムは、1つまたは複数の触覚アクチュエータを含むデータグローブをさらに備える、請求項1に記載の仮想道具操作システム。
  5. 前記動き追跡システムは訓練中の人間の動きを追跡し、触覚フィードバックシステムは前記訓練中の人間に触覚フィードバックを提供する、請求項1に記載の仮想道具操作システム。
  6. 前記訓練中の人間は研修医であり、前記仮想道具は仮想外科的道具であり、該仮想外科的道具の作用を受けている前記仮想対象物は仮想患者である、請求項に記載の仮想道具操作システム。
  7. 処理デバイスであって、
    仮想道具操作プログラムを記憶するメモリデバイスと、
    前記仮想道具操作プログラムを実行するマイクロプロセッサと、
    動き補足システムから、物理空間におけるユーザの動きを表す動き情報を受信する動き追跡インタフェースであって、該動き情報は手の位置及び配向並びに頭の位置及び配向を含む、動き追跡インタフェースと、
    視覚フィードバックシステムのためのビデオ信号を生成する視覚表示インタフェースであって、該ビデオ信号は前記物理空間における手の位置及び配向並びに頭の位置及び配向に基づいて仮想シーンを描写し、該仮想シーンは仮想道具操作者、仮想道具、及び仮想対象物を描写し、該仮想道具操作者は仮想の手である、視覚表示インタフェースと、
    触覚フィードバックデバイスを制御するための触覚フィードバック信号を生成する触覚デバイスインタフェースと、
    を備え、
    前記仮想道具操作プログラムは外科的処置をシミュレートし、前記物理空間における手の位置及び配向、前記仮想対象物の特性、並びに前記仮想道具の特性に基づいて前記ユーザに触感を提供し、前記触感は前記ユーザの前記手での前記仮想道具の操作及び前記仮想道具と前記仮想対象物との相互作用をシミュレートする、処理デバイス。
  8. 道具設計者が道具設計を前記メモリデバイスに入力することを可能にする入力/出力(I/O)デバイスをさらに備え、前記ユーザが前記触感を受け取った後に、前記仮想道具操作プログラムは、前記仮想道具の仮想的な操作に関連する前記ユーザからのフィードバックに基づいて、前記道具設計者によって前記仮想道具の前記道具設計が変更されることを可能にする、請求項に記載の処理デバイス。
  9. 前記仮想道具操作プログラムはコンピュータ可読媒体上で実施される、請求項に記載の処理デバイス。
  10. 前記仮想道具操作プログラムは、シミュレーションファイルと、相互作用モジュールと、出力処理モジュールとを備え、
    前記シミュレーションファイルは、仮想操作者、前記仮想道具、及び前記仮想対象物をシミュレートし、
    前記相互作用モジュールは、前記仮想操作者と前記仮想道具との間の第1の相互作用、及び前記仮想道具と前記仮想対象物との間の第2の相互作用をシミュレートし、
    前記出力処理モジュールは、前記ユーザの少なくとも1つの感覚を刺激する信号を生成する、請求項に記載の処理デバイス。
  11. 前記出力処理モジュールは触覚フィードバック信号及び仮想現実イメージ信号を生成する、請求項10に記載の処理デバイス。
  12. コンピュータ可読媒体上に記憶される仮想道具操作プログラムであって、
    仮想道具、仮想道具操作者、及び仮想対象物の特性を定義するシミュレーションデータと、
    前記仮想道具と、前記仮想道具操作者と、前記仮想対象物の間の1つ又は複数の相互作用を定義するロジックと、
    動き補足システムから、物理空間におけるユーザの動きを表す動き情報を受け取るロジックであって、該動き情報は手の位置及び配向並びに頭の位置及び配向を含む、動き情報を受け取るロジックと、
    視覚フィードバックシステムのためのビデオ信号を生成するロジックであって、該ビデオ信号は前記物理空間における手の位置及び配向並びに頭の位置及び配向に基づいて仮想シーンを描写し、該仮想シーンは前記仮想道具操作者、前記仮想道具、及び前記仮想対象物を描写し、前記仮想道具操作者は仮想の手である、ビデオ信号を生成するロジックと、
    触覚フィードバックシステムを制御して、前記物理空間における手の位置及び配向、前記仮想対象物の特性、並びに前記仮想道具の特性に基づいて前記ユーザに対して触感を引き起こすための出力情報を生成するロジックと、
    を備え、
    前記触感は前記ユーザの手での前記仮想道具の操作及び前記仮想道具と前記仮想対象物との相互作用をシミュレートする、仮想道具操作プログラム。
  13. 前記仮想道具を定義する前記シミュレーションデータは、仮想外科的道具を定義し、
    前記仮想道具操作者を定義する前記シミュレーションデータは、仮想外科医を定義し、
    前記仮想対象物を定義する前記シミュレーションデータは、仮想患者を定義する、請求項12に記載の仮想道具操作プログラム。
  14. 相互作用を定義する前記ロジックは、
    前記仮想道具操作者と前記仮想道具との間の前記相互作用を分析するための操作者/道具相互作用モジュールと、
    前記仮想道具と前記仮想対象物との間の前記相互作用を分析するための道具/対象物相互作用モジュールと、
    を含む、請求項12に記載の仮想道具操作プログラム。
  15. 相互作用を定義する前記ロジックは、前記仮想道具操作者と前記仮想対象物との間の前記相互作用を分析するための操作者/対象物相互作用モジュールをさらに含む、請求項14に記載の仮想道具操作プログラム。
  16. 出力情報を生成する前記ロジックは、前記ユーザに音声出力を提供するための音声信号を生成する音声処理モジュールを含む、請求項12に記載の仮想道具操作プログラム。
  17. 前記仮想道具は専ら仮想領域内にのみ存在する、請求項12に記載の仮想道具操作プログラム。
  18. 相互作用を定義する前記ロジックは、外科的処置をシミュレートするロジックを含む、請求項12に記載の仮想道具操作プログラム。
  19. 前記動き情報は、第1の手の位置及び配向並びに第2の手の位置及び配向を含み、前記仮想シーンは第1の仮想の手及び第2の仮想の手を含み、前記触感は前記第1の手を用いた前記仮想道具の操作をシミュレートするとともに、前記第2の手と前記仮想対象物との相互作用をシミュレートする、請求項1に記載の仮想道具操作システム。
  20. 前記動き情報は、第1の手の位置及び配向並びに第2の手の位置及び配向を含み、前記仮想シーンは第1の仮想の手及び第2の仮想の手を含み、前記触感は前記第1の手を用いた前記仮想道具の操作をシミュレートするとともに、前記第2の手と前記仮想対象物との相互作用をシミュレートする、請求項7に記載の処理デバイス。
  21. 前記動き情報は、第1の手の位置及び配向並びに第2の手の位置及び配向を含み、前記仮想シーンは第1の仮想の手及び第2の仮想の手を含み、前記触感は前記第1の手を用いた前記仮想道具の操作をシミュレートするとともに、前記第2の手と前記仮想対象物との相互作用をシミュレートする、請求項12に記載の仮想道具操作プログラム。
  22. 前記頭の位置及び配向は前記仮想シーンにおける視界での視角及び視線を定義する、請求項1に記載の仮想道具操作システム。
JP2015054107A 2008-01-08 2015-03-18 仮想道具操作システム Expired - Fee Related JP6049788B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/970,625 2008-01-08
US11/970,625 US9881520B2 (en) 2008-01-08 2008-01-08 Virtual tool manipulation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010542230A Division JP2011509488A (ja) 2008-01-08 2008-12-09 仮想道具操作システム

Publications (2)

Publication Number Publication Date
JP2015133143A JP2015133143A (ja) 2015-07-23
JP6049788B2 true JP6049788B2 (ja) 2016-12-21

Family

ID=40845276

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010542230A Pending JP2011509488A (ja) 2008-01-08 2008-12-09 仮想道具操作システム
JP2015054107A Expired - Fee Related JP6049788B2 (ja) 2008-01-08 2015-03-18 仮想道具操作システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010542230A Pending JP2011509488A (ja) 2008-01-08 2008-12-09 仮想道具操作システム

Country Status (4)

Country Link
US (2) US9881520B2 (ja)
EP (2) EP3346372A1 (ja)
JP (2) JP2011509488A (ja)
WO (1) WO2009088612A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155973A3 (ko) * 2017-02-24 2018-10-25 주식회사 브이알애드 가상현실 기반 방사선학 실습 장치 및 방법

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100240510A1 (en) * 2007-10-09 2010-09-23 Michal Greenberg Abrahami Sensory training tool
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US20100248200A1 (en) * 2008-09-26 2010-09-30 Ladak Hanif M System, Method and Computer Program for Virtual Reality Simulation for Medical Procedure Skills Training
US8662900B2 (en) * 2009-06-04 2014-03-04 Zimmer Dental Inc. Dental implant surgical training simulation system
JP5414380B2 (ja) * 2009-06-23 2014-02-12 キヤノン株式会社 画像処理方法及び画像処理装置
US8996173B2 (en) 2010-09-21 2015-03-31 Intuitive Surgical Operations, Inc. Method and apparatus for hand gesture control in a minimally invasive surgical system
US8682489B2 (en) * 2009-11-13 2014-03-25 Intuitive Sugical Operations, Inc. Method and system for hand control of a teleoperated minimally invasive slave surgical instrument
KR101956900B1 (ko) * 2009-11-13 2019-03-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템
US8935003B2 (en) 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
US8521331B2 (en) * 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US10580325B2 (en) * 2010-03-24 2020-03-03 Simbionix Ltd. System and method for performing a computerized simulation of a medical procedure
US8842893B2 (en) * 2010-04-30 2014-09-23 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
EP2577642A4 (en) * 2010-05-26 2016-06-08 Health Research Inc METHOD AND SYSTEM FOR EXERCISING MINIMALLY INVASIVE SURGICAL PROCEDURES BY TRACKING DATA
KR101303994B1 (ko) * 2010-11-24 2013-09-04 한국전자통신연구원 가상 현실 기반 훈련 가이드 시스템 및 그 방법
KR101711237B1 (ko) 2010-11-25 2017-02-28 코메트 그룹 게엠베하 컴퓨터 네트워크의 서버
US8519835B2 (en) * 2011-03-02 2013-08-27 Htc Corporation Systems and methods for sensory feedback
WO2012123033A1 (de) * 2011-03-17 2012-09-20 Ssi Schaefer Noell Gmbh Lager Und Systemtechnik Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
US9424761B2 (en) 2012-01-23 2016-08-23 Virtamed Ag Medical simulation system and method with configurable anatomy model manufacturing
US8992230B2 (en) * 2012-01-23 2015-03-31 Virtamed Ag Medical training systems and methods
WO2013134338A1 (en) * 2012-03-08 2013-09-12 Services Petroliers Schlumberger Computer-based method for 3d simulation of oil and gas operations
CN104704517A (zh) * 2012-10-03 2015-06-10 范富国 通过实时信息交互监控生产过程的系统和方法
US9367136B2 (en) * 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
JP6264542B2 (ja) * 2014-01-30 2018-01-24 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
WO2015171614A1 (en) 2014-05-05 2015-11-12 Vicarious Surgical Inc. Virtual reality surgical device
US10019059B2 (en) * 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object
WO2018061014A1 (en) * 2016-09-29 2018-04-05 Simbionix Ltd. Method and system for medical simulation in an operating room in a virtual reality or augmented reality environment
US10810899B1 (en) * 2016-12-05 2020-10-20 Google Llc Virtual instruction tool
WO2018118858A1 (en) 2016-12-19 2018-06-28 National Board Of Medical Examiners Medical training and performance assessment instruments, methods, and systems
CA3049148A1 (en) * 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
CA3051258A1 (en) 2017-02-09 2018-08-16 Vicarious Surgical Inc. Virtual reality surgical tools system
US11543879B2 (en) * 2017-04-07 2023-01-03 Yoonhee Lee System for communicating sensory information with an interactive system and methods thereof
CN106931608A (zh) * 2017-05-08 2017-07-07 南京药育智能科技有限公司 具有温湿度感应及调整装置的制药流程仿真控制系统
CA3075692A1 (en) 2017-09-14 2019-03-21 Vicarious Surgical Inc. Virtual reality surgical camera system
WO2019083805A1 (en) 2017-10-23 2019-05-02 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM
CN108310630A (zh) * 2018-01-30 2018-07-24 深圳市前海未来无限投资管理有限公司 一种动作训练设备、装置及存储介质
US11189379B2 (en) * 2018-03-06 2021-11-30 Digital Surgery Limited Methods and systems for using multiple data structures to process surgical data
US10383694B1 (en) * 2018-09-12 2019-08-20 Johnson & Johnson Innovation—Jjdc, Inc. Machine-learning-based visual-haptic feedback system for robotic surgical platforms
AU2019399480B2 (en) * 2018-10-12 2024-04-18 Quality Executive Partners, Inc. Virtual reality simulation and method
US10852827B1 (en) 2019-03-25 2020-12-01 Facebook Technologies, Llc Tactile simulation of initial contact with virtual objects
US11272988B2 (en) 2019-05-10 2022-03-15 Fvrvs Limited Virtual reality surgical training systems
US20220113804A1 (en) * 2019-06-26 2022-04-14 Fvrvs Limited Virtual reality surgical training systems with advanced haptic feedback
US10698493B1 (en) * 2019-06-26 2020-06-30 Fvrvs Limited Virtual reality surgical training systems with advanced haptic feedback
CN110688006B (zh) * 2019-09-18 2023-05-05 哈尔滨工程大学 基于虚拟现实技术的真实手部触觉的陶器制作装置及方法
KR102320078B1 (ko) * 2019-11-28 2021-10-29 서울대학교산학협력단 가상현실을 이용한 시촉각통합 평가 방법 및 장치
NO20220976A1 (en) 2020-02-14 2022-09-13 Simbionix Ltd Airway management virtual reality training
US11532244B2 (en) 2020-09-17 2022-12-20 Simbionix Ltd. System and method for ultrasound simulation
CN113419636B (zh) * 2021-08-23 2021-11-30 北京航空航天大学 虚拟维修中手势识别方法及工具自动匹配方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US4907973A (en) * 1988-11-14 1990-03-13 Hon David C Expert system simulator for modeling realistic internal environments and performance
US5143505A (en) 1991-02-26 1992-09-01 Rutgers University Actuator system for providing force feedback to a dextrous master glove
US5731804A (en) 1995-01-18 1998-03-24 Immersion Human Interface Corp. Method and apparatus for providing high bandwidth, low noise mechanical I/O for computer systems
JPH0744312A (ja) 1993-07-29 1995-02-14 Toshiba Corp 仮想現実感システム用データグローブ
JP3539645B2 (ja) 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US5800179A (en) * 1996-07-23 1998-09-01 Medical Simulation Corporation System for training persons to perform minimally invasive surgical procedures
US5828197A (en) * 1996-10-25 1998-10-27 Immersion Human Interface Corporation Mechanical interface having multiple grounded actuators
US6324296B1 (en) * 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points
JPH11195140A (ja) 1997-12-27 1999-07-21 Canon Inc データ処理方法及び装置並びに記憶媒体
US6126450A (en) * 1998-02-04 2000-10-03 Mitsubishi Denki Kabushiki Kaisha Medical simulator system and medical simulator notifying apparatus
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6113395A (en) 1998-08-18 2000-09-05 Hon; David C. Selectable instruments with homing devices for haptic virtual reality medical simulation
US7084884B1 (en) * 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
JP2000259074A (ja) 1999-03-11 2000-09-22 Minolta Co Ltd 道具媒介型の力覚呈示システム
WO2001018617A1 (en) 1999-09-09 2001-03-15 Rutgers, The State Of University Of New Jersey Remote mechanical mirroring using controlled stiffness and actuators (memica)
JP2001100879A (ja) 1999-09-27 2001-04-13 Olympus Optical Co Ltd 情報閲覧システム
US6377011B1 (en) 2000-01-26 2002-04-23 Massachusetts Institute Of Technology Force feedback user interface for minimally invasive surgical simulator and teleoperator and other similar apparatus
US20020133264A1 (en) * 2001-01-26 2002-09-19 New Jersey Institute Of Technology Virtual reality system for creation of design models and generation of numerically controlled machining trajectories
US7371067B2 (en) * 2001-03-06 2008-05-13 The Johns Hopkins University School Of Medicine Simulation method for designing customized medical devices
US20050202384A1 (en) * 2001-04-20 2005-09-15 Medtronic, Inc. Interactive computer model of the heart
US7202851B2 (en) * 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
CA2486520A1 (en) * 2001-06-13 2002-12-19 Volume Interactions Pte. Ltd. Guide systems for interacting with a subject, and methods therefor
US6937033B2 (en) * 2001-06-27 2005-08-30 Immersion Corporation Position sensor with resistive element
US7877243B2 (en) * 2001-07-16 2011-01-25 Immersion Corporation Pivotable computer interface
JP4048999B2 (ja) 2003-04-15 2008-02-20 セイコーエプソン株式会社 画像処理装置及び画像処理方法
US20060084050A1 (en) * 2004-01-12 2006-04-20 Haluck Randy S Portable virtual reality medical demonstration and training apparatus
US20050255434A1 (en) * 2004-02-27 2005-11-17 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
US8317518B2 (en) * 2005-01-28 2012-11-27 University Of Maryland, Baltimore Techniques for implementing virtual persons in a system to train medical personnel
US7930065B2 (en) * 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US20080009771A1 (en) * 2006-03-29 2008-01-10 Joel Perry Exoskeleton
EP2046227A2 (en) * 2006-08-03 2009-04-15 Hansen Medical, Inc. Systems for performing minimally invasive procedures

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155973A3 (ko) * 2017-02-24 2018-10-25 주식회사 브이알애드 가상현실 기반 방사선학 실습 장치 및 방법
CN110366746A (zh) * 2017-02-24 2019-10-22 维拉达公司 基于虚拟现实的影像诊断练习装置和方法
US11157131B2 (en) 2017-02-24 2021-10-26 Vrad Inc. Virtual reality-based radiology practice apparatus and method

Also Published As

Publication number Publication date
US20090177452A1 (en) 2009-07-09
EP3346372A1 (en) 2018-07-11
WO2009088612A3 (en) 2010-02-18
US20180137782A1 (en) 2018-05-17
WO2009088612A2 (en) 2009-07-16
EP2240840A2 (en) 2010-10-20
JP2015133143A (ja) 2015-07-23
JP2011509488A (ja) 2011-03-24
US9881520B2 (en) 2018-01-30

Similar Documents

Publication Publication Date Title
JP6049788B2 (ja) 仮想道具操作システム
US9330502B2 (en) Mixed reality simulation methods and systems
Vuskovic et al. Realistic force feedback for virtual reality based diagnostic surgery simulators
Pacchierotti et al. Enhancing the performance of passive teleoperation systems via cutaneous feedback
Sun et al. Design and development of a da vinci surgical system simulator
US10540910B2 (en) Haptic-based dental simulationrpb
Wang et al. Real-time mandibular angle reduction surgical simulation with haptic rendering
KR102536732B1 (ko) 외과 수술들의 컴퓨터-지원 시뮬레이션을 위한 디바이스 및 방법
KR101092372B1 (ko) 하이브리드 의료 시뮬레이션 시스템 및 방법
JP5177560B2 (ja) 反力提示方法、および力覚提示システム
Daniulaitis et al. Medical palpation of deformable tissue using physics-based model for haptic interface robot (HIRO)
Gali et al. The technology of haptics in dental education
Jourdes et al. Visual haptic feedback for training of robotic suturing
KR100551201B1 (ko) 볼륨 모델 기반의 햅틱 인터페이스를 이용한 치과 치료훈련 및 평가 시스템
Suzuki et al. Simulator for virtual surgery using deformable organ models and force feedback system
Khwanngern et al. Jaw surgery simulation in virtual reality for medical training
CN108492657B (zh) 一种用于颞骨手术术前培训的混合现实模拟系统
Itsarachaiyot et al. Force acquisition on surgical instruments for virtual reality surgical training system
Pihuit et al. Hands on virtual clay
Bonneau et al. Surgicobot: Surgical gesture assistance cobot for maxillo-facial interventions
RU181001U1 (ru) Устройство для симуляции полостных оперативных вмешательств с тактильной обратной связью
Yongming et al. A simulation system for training telerobotic spine surgery
Rasakatla et al. Robotic Surgical training simulation for dexterity training of hands and fingers (LESUR)
Kim et al. Development of a Laparoscopic Surgical Training System with Simulation Open Framework Architecture (SOFA)
Wang et al. A simulation and training system of robot assisted surgery based on virtual reality

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161122

R150 Certificate of patent or registration of utility model

Ref document number: 6049788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees