JP6789310B2 - 移動追尾及びシミュレーション用の装置並びに方法 - Google Patents

移動追尾及びシミュレーション用の装置並びに方法 Download PDF

Info

Publication number
JP6789310B2
JP6789310B2 JP2018547269A JP2018547269A JP6789310B2 JP 6789310 B2 JP6789310 B2 JP 6789310B2 JP 2018547269 A JP2018547269 A JP 2018547269A JP 2018547269 A JP2018547269 A JP 2018547269A JP 6789310 B2 JP6789310 B2 JP 6789310B2
Authority
JP
Japan
Prior art keywords
imu
data
image
handpiece
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018547269A
Other languages
English (en)
Other versions
JP2019512299A (ja
Inventor
ビーマンズ ウーター
ビーマンズ ウーター
ボード ディオン
ボード ディオン
ステイナー ルーク
ステイナー ルーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissin Dental Products Inc
Original Assignee
Nissin Dental Products Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissin Dental Products Inc filed Critical Nissin Dental Products Inc
Publication of JP2019512299A publication Critical patent/JP2019512299A/ja
Application granted granted Critical
Publication of JP6789310B2 publication Critical patent/JP6789310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/283Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for dentistry or oral hygiene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Description

本発明は,移動するハンドピースの位置及び方位を追尾し,追尾したハンドピース位置に基づいてディスプレイにイメージを出力する技術に関する。より具体的に,本発明は,歯科シミュレーション環境におけるハンドピースの移動を追尾して,歯科用ツールの使用をシミュレートする技術に関する。
訓練目的のために歯科技術をシミュレートする装置は,本出願人の製造に係るSimodont(商標)型シミュレータを含めて既知である。これらのシミュレータは,バーチャルリアリティ技術により,研修医に各種の歯科的処置を練習可能とするものである。シミュレータは,一般的には,3Dグラスを装着した使用者が視認するための3Dイメージを表示するディスプレイスクリーンを備える。ディスプレイスクリーンの下方には少なくとも1つのハンドピースが配置され,このハンドピースは,1組のリンク部材と電動モータとを備える機構によってシミュレータに固定されている。これらは,(ユーザによって動かされる際の)ハンドピースの相対位置と,ユーザが歯,歯列または顎部の仮想的な3Dイメージ上で歯科的処置(例えば,歯内へのドリル操作)を行う際にユーザによって及ぼされる力を測定するものである。ハンドピースは,歯科医のドリル操作をシミュレートし,研修医が自らドリル操作を行う際,研修医に触覚的フィードバックを与える。
シミュレータ装置の目的は,歯科研修医が,仮想的ではなく,現実の患者に歯科的技術を適用する前に,歯科研修医に練習のためのシミュレーション環境を与えることである。それ故,シミュレーションプロセスがより現実的であるほど,研修医は訓練に一層集中し,研修医及び患者の両者にとって一層良好な結果を得ることができる。
歯科医院において使用される一般的なツールは,歯又は歯肉や,歯科医の視角からは明確に視認できないその他の口腔内領域を視認するために歯科医が使用するハンドル端部における小さなミラーである。Simodont(商標)型シミュレータにおいて,歯科医の口腔ミラーは,1組のリンクを介してシミュレータに連結されたハンドピース(これは,歯科医のドリルとは異なり,触覚的フィードバックを与えるものではない。)によってシミュレートされる。ミラーハンドピースを動かすと,各リンクの移動量および移動角度を測定し,ミラーハンドピースの相対位置が計算される。これに伴って,歯科医の口腔ミラーのイメージがディスプレイ上で移動する。しかしながら,研修医がハンドピースを動かす範囲内において,リンクは可動範囲を制限する。研修医に適切な可動範囲を与える(これにより研修医は自分が本物のミラーを実際に扱っている感覚を与える)ために必要とされるリンクの数は,位置精度を犠牲にするものである。これに加えて,リンクは,その重量がユーザに感じられ(これによりシミュレーションの「現実感」が損なわれ),また,使い過ぎや誤用によって損耗及び破損を被る。
本発明の課題は,上述した欠点の少なくとも幾つかを軽減することである。
本発明は,第1の態様において,請求項1に記載した歯科用シミュレーション装置を提供する。この装置は,歯科シミュレーション環境下において手持ち物体の動きを正確に追尾し,かつ,追尾した動きを歯科用ツールのアニメーションに正確に変換し得るものである。
本発明は,第2の態様において,請求項15に記載したハンドピースを提供する。ハンドピースの動きは,ハンドピースの動きは,光源と,ハンドピースの方位を測定する手段とに基づき,医療用シミュレータ装置により追尾することができる。
本発明は,第3の態様において,請求項25に記載したコンピュータで実行可能な方法を提供する。この方法は,物理的な物体の動きを,視認スクリーン上に表示される仮想的な物体の動きに複製可能とするものである。
本発明は,第4の態様において,請求項30に記載したシステムを提供する。
本発明は,第5の態様において,請求項34に記載したシステムを提供する。
本発明の好適な特徴は,添付した従属請求項に記載したとおりである。
歯科用シミュレータ装置の斜視図である。 歯科用シミュレータ装置の断面斜視図である。 本発明の一実施形態に係るミラー追尾装置の略線図である。 本発明の一実施形態に係る歯科用シミュレータ装置の要部を示す略線図である。 図4aのシミュレータ装置の要部を示す投影図である。 本発明の一実施形態に係る追尾装置における主要なハードウェア部品を示す略線図である。
歯科用シミュレーション装置の全体を図1に示す。この装置100は,バーチャルリアルティ技術を使用して歯科技術を練習するために歯科研修医によって使用されるものである。研修医は,視認スクリーン101に対面する椅子(図示せず)に腰掛ける。ハンドレスト102は,概ね,研修医が歯科技術をシミュレートするエリアを画定する。電源ボタン105は装置のオンオフ切り替えを行い,高さ調整スイッチ106は,ユーザにより,ハンドレスト102及び視認スクリーン101を含む装置100の位置の高さを調整可能とするものである。視認スクリーン101は,仮想的な三次元の移動イメージを表示するものであり,その動きは,研修医によるハンドピースの動き(概ねハンドレスト102のエリア内に存在する)に対応する。研修医は,受動的な3Dグラスを装着して視認スクリーン上101のイメージを視認する。マウス104は,シミュレータのユーザにより,仮想的な三次元空間内で,視認スクリーン101上におけるイメージの相対位置及び方位を調整可能とするものである。フットペダル107は,シミュレートされたドリル(又はその他の歯科用動力ツール)の操作制御を容易とするものである。
シミュレータ装置100は,(タッチ感応スクリーンで構成することのできる)訓練スクリーン103も備える。訓練スクリーン103は,研修医が訓練に関連する情報,例えば訓練プログラム,個別的レッスン,得点及び採点データ,指導医のコメント等にアクセスし,かつ,過去の訓練教材を復習するために使用されるものである。シミュレーションプロセスの実行されている間,視認スクリーン101上に表示されるイメージは,訓練用スクリーン103にも出力され,研修医によるシミュレータ装置の使用を傍観者により確認可能とする。
図2は,歯科用シミュレータ装置における幾つかの内蔵部品を示し,図1におけると同等の部品は100を加算した参照数字で表されている。この装置200の主たる演算機能は,中央コンピュータ213により与えられる。プロジェクタ211及び光学的ボックス210は,出力3Dイメージをディスプレイスクリーン201に供給するための手段を構成する。図1のハンドレスト102は,図2にも示されている。ハンドピース208(「ハンドピース」との用語は,手で持つことのできる任意の装置又は機材一般を指すために使用される。)は,歯科医のドリル操作をシミュレートするために使用される。ハンドピース208は,概ね歯科医用ドリルにおけるハンドルと同様の外観及び感触を与えるハンドルを備える。しかしながら,ハンドピース208の遠位端(すなわち,バール部の位置する個所)は,1組のリンク部材を介して触覚ディスプレイ209に連結される。リンク部材及び触覚ディスプレイは共に電動モータ,力センサ,角度位置センサ,並びに慣性測定ユニット(IMU)及びポテンショメータを備える。歯科医のドリル操作は,触覚制御ユニット212により制御される連続的フィードバック機構によってシミュレートされる。これにより,ユーザがハンドピース208に加える力と,その動きが触覚制御ユニット212に供給され,触覚制御ユニット212により触覚ディスプレイ209の適切な操作を指示することにより,(立体物体との相互作用をシミュレートするために)必要とされる反力,(動力歯科ツールの操作をシミュレートするための)振動,及びソフトウェア・ルーチンのセット(これは,例えば,特定の歯科操作を含む特定の訓練セッションに関連することができる。)に基づく,動きに対する制限を指示する。
以下,本発明の好適な実施形態につき,図3〜図5を参照して記載する。図3〜図5は,歯科医の口腔ミラーの使用をシミュレートするために単独で,又はハンドピース208と併せて使用されるミラーハンドピース320を示す。
ミラーハンドピース320はハウジング321を備え,その寸法は,標準的な歯科医用口腔ミラーにおけるハンドルの寸法に概ね適合するように選択される。従って,ハウジング321は,直径が好適には12mm未満,長さが好適には100mm以下である。ハウジング321の構成材料は,光源又は発光器322から発せられる光(ここに「光」とは,任意の電磁放射線を指す。)の外的検出が可能となるように選択される。好適には,発光器322は赤外線発光ダイオード(LED)である。発光器322は,後述するように,能動的な赤外線マーカとして作用する。ハウジング321は,金属等の任意の適宜材料で構成し得るものであるが,好適には,人間工学的にも適当な粗面化プラスチックで構成する。ミラーハンドピース320の重量は30グラム未満であり,チャネル325において使用者の親指と人差し指により把持することが想定される。
ミラーハンドピース320の近位端323は,ケーブル(図3には図示せず)を介してカメラPCBに接続されている。他の実施形態において,ハンドピース320は,バッテリー及びトランスミッタを備え,カメラPCB435と無線通信を行う。ハウジング321の遠位端322は,赤外線LEDを収容する。LEDの位置は,(後述する態様で)光学的に追尾され,シミュレーション訓練の間に視認スクリーン101上に表示される歯科医用の口腔ミラーにおけるミラー部分の仮想的イメージにマップされる。
ミラーハンドピース320のハウジング321は,慣性測定ユニット(IMU)324を含む小型PCBを更に備える。IMUは,(ゲーム用コンソールや,携帯電話を含む)各種装置に広く使用されており,三次元方向における位置及び方位を測定するためのジャイロスコープ及び加速度計を備えている。標準的なIMUは,各並進自由度につき,加速度データを積分して位置値を決定する。また,各回転自由度につき,角速度データを積分して角度位置データを提供する。IMUは,地磁界に対する方位データを提供するための磁力計を含むことができる。磁力計による方位データは,ジャイロスコープにより取得される角度位置データを再補正して,小さな積分誤差から生じる不正確性を補償するように使用される。IMUの作動原理に関する詳細は,当業者がアクセスできる情報である。
ミラーハンドピース320の動きを追尾する一般的なスペースは,図4a及び図4bにエリア430として示すものである。エリア430は,ハンドレスト435の上方に位置しており,研修医が1つ又は複数のミラーハンドピース320及び/又はハンドピース208を操作するためのエリアを画定する。
光学的ボックス210には,2つの上側カメラ413, 432が固定されている。上側カメラの視野は,エリア430の中心に向けて下向きとされている。図4bに示すように,2つの下側カメラ433, 434がハンドレスト435の下方に配置されている。下側カメラは,ハンドレスト435が配置される装置100のメインハウジングから側方に延在する構造に固定されている。他の実施形態では,全てのカメラをハンドレスト435に対して取付け可能な構造に固定して,当該構造を歯科用シミュレータ装置100に対して着脱可能とする。下側カメラ433, 434は,追尾エリア430の中心436に向けて上向きとされている。追尾エリア430は,約250mm×200mm×152mmであり,概ねカメラ431, 432, 433及び434の合成視野により画定される。光学的追尾によれば,触覚ディスプレイにおける電動モータの作動との干渉が回避される。他の実施形態では,LEDをハンドレスト435に組み込むことにより,ユーザが視認スクリーン201を見ることにより,ハンドレスト435に対するミラーハンドピース324の位置を視認可能とする。
カメラ431, 432, 433及び434は,LED322から発せられる赤外線を検出し,毎秒25フレームでイメージの撮影を行う赤外線カメラである。作動中に各カメラで撮影された1組のイメージを含むイメージフィードは,カメラPCB437上のプロセッサに伝送される。各イメージにつき,PCB437上のプロセッサは撮影されたイメージにおける各ピクセル線のライン走査を行い,グレースケール輝度/強度値が所定の閾値を超えるピクセルを特定する。所定の閾値は,関連する情報を含むものとみなされる強度値範囲(閾値の最小強度値と不特定の最高値との間の範囲)を画定するものである。強度値が閾値に満たないピクセルに関するピクセルデータは,無視する。
各イメージにつき,強度値が閾値を超えるピクセルに関するピクセルデータをPCB437のプロセッサにより分析して,ピクセルのクラスタを特定する。ピクセルの最大クラスタを特定する。最大クラスタの中心で特定されるのが,イメージ内におけるLED322の位置である。PCB437のプロセッサが「ブロッブ追尾」技術を適用しており,輝度値が閾値に満たないと判断した後にピクセルの更なる分析を行うものではないため,全体イメージの一部のみが更に処理される。従って,LEDの二次元的な特定のために必要とされるプロセッサ資源は,イメージにおける全てのピクセルが分析を要する場合よりも僅かである。
PCB437のプロセッサは,各カメラからの各イメージにつき,ピクセルにおける最大クラスタの中心のx及びy座標を決定し,これに伴って,各カメラフィードについての1組の二次元位置座標をリアルタイムで生成する。4系統の二次元座標がメインコンピュータ213に伝送される。
メインハードウェア部品を図5に示す。各カメラからのイメージ受信に加えて,カメラPCB437は,ミラーハンドピース320内のIMU324からのデータをシリアルプロトコルに基づいて受信する。各カメラフィードについてのx,y座標の組と共に,カメラPCBは,IMU324からの位置及び方位データを装置100のメインコンピュータ213に送信する。
メインコンピュータ213は,カメラPCB437から受信したデータを,ダイナミックローディング機構を使用して処理する。その作動原理は,当業者がアクセスできる情報である。4つのx,y座標対セット(各対は,それぞれのカメラからのLED座標に対応する。)を使用して,コンピュータ213は,リアルタイムで,そしてダイナミックローディングライブラリ内において,三角測量を行って,エリア430内におけるLED322の位置を特定するx,y,z座標を生成する。x,y,z座標の生成速度は,カメラのフレームレートと同じである。カメラの台数を増やせば,x,y,zデータの精度が改善され,三角測量を行うためのプロセッサ資源が拡張される。三角測量を行って三次元位置データを生成するに十分なデータを提供するためには,最低でも2台のカメラが必要とされることは言うまでもない。
IMU234は位置及び方位データを毎秒100回の速度で生成し,従ってメインコンピュータ213は毎秒100回の速度にて位置及び方位データを更新する。歯科医の口腔ミラーの仮想的イメージを視認スクリーン201上に動画化するための位置データの主たる起源は,(カメラPCBよりも高い頻度で位置データを提供する)IMUからの位置データである。しかしながら,IMU324により加速度を積分して位置データを提供する際に生じる僅かな誤差のため,メインコンピュータ213が受信するIMU位置データは不正確であり得る。この問題に対処するため,カメラデータからのx,y,z座標を使用するx,y,z位置データに基づいてIMU位置データを修正し,再補正を行う。
ミラーハンドピース320の方位及び回転に関するデータもIMUにより提供され,IMU位置データと共にメインコンピュータ213により受信される。IMU位置データ(これは,定期的に修正されたIMU位置データを含む。)と共に,方位及び回転データは,ハンドピース320の三次元方向での動きのリアルタイムでの完全な記述を提供する。ミラーハンドピース320の位置データの絶対位置精度は2mm以下,ミラーハンドピース320の方位データの絶対方位精度は1度以下である。また,相対位置解像度は0.15mm未満,相対方位解像度は0.1度未満である。そして,システム全体のレイテンシは30ms未満である。
メインコンピュータ213は追尾されたミラーハンドピースの位置及び方位データに基づいてインストラクションを生成し,判断されたミラーハンドピースの位置及び方位データに応じてシミュレーションプログラムに指示を与えることにより,視認スクリーン201上における口腔ミラーの仮想的イメージの相対位置及び方位を調整する。ユーザがミラーハンドピース320をエリア430内において動かすと,これに応じて歯科医の口腔ミラーの加想定イメージは三次元で動画化され,研修医はミラーを使用して1本又は複数本の歯の異なる方向からの仮想的な三次元イメージを視認することができる。ミラーの反射を適切にシミュレートするため,仮想的ミラーのミラー面に表示されるイメージは,(標準的なステレオ視のための)2回ではなく,4回与えられる必要がある。
以上,歯科医用ミラーをシミュレートするための追尾装置を参照して本発明を記載したが,前述したプロセスが力フィードバックを必要としない任意の自由移動型手持ち器具もシミュレート可能であることは言うまでもない。

Claims (17)

  1. ディスプレイと;
    1つ又は複数のプロセッサと;
    発光器及び慣性測定ユニット(IMU)を備えるハンドピースであって,前記IMUが,前記1つ又は複数のプロセッサのうちの少なくとも1つに接続されており,前記IMUが,IMU位置及び方位データを生成するように構成され,前記IMU位置及び方位データが,前記ハンドピースの位置及び方位を記述する,ハンドピースと;
    前記1つ又は複数のプロセッサのうちの少なくとも1つに接続された少なくとも2台のカメラであって,前記少なくとも2台のカメラの各々が,前記発光器の1組のイメージを生成する,カメラと;
    を備え,
    前記1つ又は複数のプロセッサが:
    ・前記少なくとも2台のカメラの各々から前記1組のイメージを受信し,
    ・各イメージにつき、強度値が所定の閾値を超えるピクセルのクラスタを特定し、
    ・各イメージにつき,特定された前記ピクセルのクラスタの位置に基づいて、該イメージ内における前記発光器の位置を特定する二次元座標データを生成し、
    ・前記二次元座標データに基づいて,三角測量を行って、前記発光器の位置を特定する三次元座標データを生成し,
    ・前記IMU位置及び方位データを受信し、
    ・前記IMU位置及び方位データに基づいて、シミュレーションインストラクションを生成し,かつ,前記シミュレーションインストラクションに基づいて,前記ディスプレイ上に物体の三次元的な仮想イメージを表示すると共に前記物体の動きを動画化するように構成され;
    前記1つ又は複数のプロセッサは,前記三次元座標データを使用して前記IMU位置及び方位データにおける位置データの誤差を補正する装置。
  2. 請求項1に記載の装置であって,シミュレートされるイメージが歯科用口腔ミラーである,装置。
  3. 請求項1又は2に記載の装置であって,前記カメラが赤外線カメラであり,前記発光器が赤外線LEDである,装置。
  4. 請求項1〜3の何れか一項に記載の装置であって,前記カメラが4台のカメラを備える,装置。
  5. 請求項1〜4の何れか一項に記載の装置であって,前記ハンドピースが追尾スペース内で可動であり,前記装置が,前記追尾スペース内で可動である第2のハンドピースを更に備える,装置。
  6. 請求項1〜5の何れか一項に記載の装置であって,前記1つ又は複数のプロセッサは,更に,前記ディスプレイ上に,前記第2のハンドピースに対応する,三次元的にシミュレートされた第2の物体を表示すると共に,前記第2のハンドピースの動きに基づいて前記第2の物体の動きを動画化するように構成されている,装置。
  7. 請求項1〜6の何れか一項に記載の装置であって,前記ハンドピースは,ケーブルによって前記装置に接続されるも,それ以外の点では自由に動くことができる,装置。
  8. 請求項1〜7の何れか一項に記載の装置であって,前記1つ又は複数のプロセッサのうちの少なくとも1つは,各カメラからの1組のイメージの各々の各ピクセル線をスキャンすることにより,どのピクセルが所定の閾値を超える強度値を有するかを判断するように構成される,装置。
  9. 請求項8に記載の装置であって,前記1つ又は複数のプロセッサのうちの少なくとも1つは,前記所定の閾値を超える強度値を有するピクセルを特定するデータを生成する,装置。
  10. 請求項9に記載の装置であって,前記所定の閾値を超える強度値を有するピクセルを特定するデータは,強度値が前記所定の閾値を超えるピクセルのクラスタを特定するように分析される,装置。
  11. 請求項10に記載の装置であって,前記所定の閾値を超える強度値を有するピクセルのクラスタは,その中心が前記イメージ中における前記LEDの位置を規定する最大クラスタを特定するように分析される,装置。
  12. 請求項1〜11の何れか一項に記載の装置であって,前記三次元座標データと,前記IMU位置及び方位データは,動的ローディングライブラリにおいて組み合わされる,装置。
  13. 歯科シミュレーション環境下において,発光器及び慣性測定ユニット(IMU)を有する物体の動きをシミュレートするためにコンピュータで実行される方法であって:
    前記発光器から発せられた光を使用して各々が撮像された1組のイメージを受信するステップと;
    各イメージにつき、強度値が所定の閾値を超えるピクセルのクラスタを特定するステップと;
    各イメージにつき,特定された前記ピクセルのクラスタの位置に基づいて、該イメージ内における前記発光器の位置を特定する二次元座標データを生成するステップと;
    前記二次元座標データに基づいて,三角測量を行って、前記発光器の位置を特定する三次元座標データを生成するステップと;
    前記IMUからIMUデータを受信するステップと
    記IMUデータに基づいてシミュレーションインストラクションを生成するステップと;
    前記シミュレーションインストラクションに基づいて,ディスプレイ上で物体のイメージを動画化するステップと;
    を備え、
    前記方法は、更に前記三次元座標データに基づいて、IMU位置データにおける誤差を補正するステップを含む方法。
  14. 請求項13に記載のコンピュータで実行される方法であって,前記分析ステップは,各イメージにおける各ピクセル線をスキャンすることにより,所定の閾値を超える輝度値を有するピクセルを特定することを備える,方法。
  15. 請求項14に記載のコンピュータで実行される方法であって,二次元座標データを特定する前記ステップは,所定の閾値を超える輝度値を有するピクセルのクラスタを特定し,該クラスタの中心の座標を特定することを備える,方法。
  16. 請求項13〜15の何れか一項に記載のコンピュータで実行される方法であって,前記IMUにより提供される位置データを前記三次元座標データと比較し,該三次元座標データにより前記IMUからの位置データを定期的に補正する,方法。
  17. プロセッサで実行したときに請求項13〜16の何れか一項に記載の方法を実行するインストラクションを備える,機械可読型の保存媒体。
JP2018547269A 2016-03-10 2017-03-07 移動追尾及びシミュレーション用の装置並びに方法 Active JP6789310B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1604115.4 2016-03-10
GB1604115.4A GB2548341A (en) 2016-03-10 2016-03-10 Movement tracking and simulation device and method
PCT/EP2017/055339 WO2017153416A1 (en) 2016-03-10 2017-03-07 Movement tracking and simulation device and method

Publications (2)

Publication Number Publication Date
JP2019512299A JP2019512299A (ja) 2019-05-16
JP6789310B2 true JP6789310B2 (ja) 2020-11-25

Family

ID=55952135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018547269A Active JP6789310B2 (ja) 2016-03-10 2017-03-07 移動追尾及びシミュレーション用の装置並びに方法

Country Status (9)

Country Link
US (1) US11341867B2 (ja)
EP (1) EP3427245A1 (ja)
JP (1) JP6789310B2 (ja)
KR (1) KR102418773B1 (ja)
CN (1) CN108780614B (ja)
AU (1) AU2017230317B2 (ja)
CA (1) CA3016853A1 (ja)
GB (1) GB2548341A (ja)
WO (1) WO2017153416A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839547B2 (en) * 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
US11367192B2 (en) 2019-03-08 2022-06-21 Align Technology, Inc. Foreign object filtering for intraoral scanning
JP6936826B2 (ja) * 2019-03-18 2021-09-22 株式会社モリタ製作所 画像処理装置、表示システム、画像処理方法、および画像処理プログラム
US20220319355A1 (en) * 2019-08-09 2022-10-06 Simtolife B.V. Apparatuses for simulating dental procedures and methods
CN110827975B (zh) * 2019-11-11 2022-10-14 延边修恩生物科技有限公司 一种口腔扫描装置及其使用方法
CN112349167A (zh) * 2020-11-05 2021-02-09 北京众绘虚拟现实技术研究院有限公司 一种双手力反馈的口腔实践技能考试设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1182541A3 (de) * 2000-08-22 2005-11-30 Siemens Aktiengesellschaft System und Verfahren zum kombinierten Einsatz verschiedener Display-/Gerätetypen mit systemgesteuerter kontextabhängiger Informationsdarstellung
JP3436929B2 (ja) 2001-03-30 2003-08-18 岩手県 3次元形状計測システム
US20060084050A1 (en) * 2004-01-12 2006-04-20 Haluck Randy S Portable virtual reality medical demonstration and training apparatus
KR100560966B1 (ko) * 2004-10-12 2006-03-15 삼성광주전자 주식회사 로봇 청소기의 자이로 센서 보정방법
US7780089B2 (en) * 2005-06-03 2010-08-24 Hand Held Products, Inc. Digital picture taking optical reader having hybrid monochrome and color image sensor array
GB2451461A (en) * 2007-07-28 2009-02-04 Naveen Chawla Camera based 3D user and wand tracking human-computer interaction system
JP5075659B2 (ja) 2008-02-12 2012-11-21 日本放送協会 物体軌道演算装置及びそのプログラム
JP4908457B2 (ja) 2008-06-03 2012-04-04 醫百科技股▲ふん▼有限公司 歯科臨床と教育訓練シミュレーション追跡システム及びその評価方法
US20100167248A1 (en) * 2008-12-31 2010-07-01 Haptica Ltd. Tracking and training system for medical procedures
US9350923B2 (en) * 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
ES2768033T3 (es) * 2010-12-22 2020-06-19 Zspace Inc Seguimiento tridimensional de un dispositivo de control del usuario en un volumen
US9119655B2 (en) * 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
US8716973B1 (en) * 2011-02-28 2014-05-06 Moog Inc. Haptic user interface
CA2849212C (en) * 2011-04-28 2015-10-13 Technologies Holdings Corp. Vision system for robotic attacher
AU2013295565B2 (en) * 2012-07-26 2017-06-22 DePuy Synthes Products, Inc. Camera system with minimal area monolithic CMOS image sensor
US9563266B2 (en) * 2012-09-27 2017-02-07 Immersivetouch, Inc. Haptic augmented and virtual reality system for simulation of surgical procedures
JP6204686B2 (ja) * 2013-04-12 2017-09-27 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理の実行方法
US9605950B2 (en) * 2013-05-22 2017-03-28 Cognex Corporation System and method for efficient surface measurement using a laser displacement sensor
EP3001219B1 (en) * 2013-08-20 2019-10-02 CureFab Technologies GmbH Optical tracking
US9723300B2 (en) * 2014-03-17 2017-08-01 Spatial Intelligence Llc Stereoscopic display
JP5781667B1 (ja) * 2014-05-28 2015-09-24 株式会社モリタ製作所 根管治療用装置
EP2988288A1 (en) * 2014-08-22 2016-02-24 Moog B.V. Medical simulator handpiece
CN105069795B (zh) * 2015-08-12 2017-12-22 深圳锐取信息技术股份有限公司 运动对象跟踪方法及装置

Also Published As

Publication number Publication date
KR20180121605A (ko) 2018-11-07
US11341867B2 (en) 2022-05-24
CN108780614B (zh) 2022-05-31
WO2017153416A1 (en) 2017-09-14
AU2017230317A1 (en) 2018-09-27
CN108780614A (zh) 2018-11-09
US20190073924A1 (en) 2019-03-07
EP3427245A1 (en) 2019-01-16
GB2548341A (en) 2017-09-20
GB201604115D0 (en) 2016-04-27
AU2017230317B2 (en) 2022-10-20
CA3016853A1 (en) 2017-09-14
KR102418773B1 (ko) 2022-07-07
JP2019512299A (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
JP6789310B2 (ja) 移動追尾及びシミュレーション用の装置並びに方法
US11157131B2 (en) Virtual reality-based radiology practice apparatus and method
JP4871270B2 (ja) 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
KR101694402B1 (ko) 투사 영상을 이용한 보행 재활 치료 보조 시스템 및 방법
US10540910B2 (en) Haptic-based dental simulationrpb
Sengül et al. Extending the body to virtual tools using a robotic surgical interface: evidence from the crossmodal congruency task
US9936166B2 (en) Method for planning a dental treatment
CN103077633A (zh) 一种立体虚拟培训系统和方法
CN103903487A (zh) 一种基于3d力反馈技术的内窥镜微创手术三维仿真系统
US20090305204A1 (en) relatively low-cost virtual reality system, method, and program product to perform training
Buń et al. Application of professional and low-cost head mounted devices in immersive educational application
Lee Research and development of haptic simulator for Dental education using Virtual reality and User motion
US20190096285A1 (en) Dental simulation machine
JP4760344B2 (ja) 仮想空間体験システム
RU2670649C9 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
US20220319355A1 (en) Apparatuses for simulating dental procedures and methods
KR102127664B1 (ko) 가상 현실 기반의 발치 시술을 위한 협조 시뮬레이션 시스템 및 그 방법
Lee et al. Visual guidance for a spatial discrepancy problem of in encountered-type haptic display
JP7388652B2 (ja) 気管内吸引の訓練装置
RU2673406C1 (ru) Способ изготовления перчатки виртуальной реальности
Bianchi Exploration of augmented reality technology for surgical training simulators
KR20170082028A (ko) 림 모션 장치
JP2013517815A (ja) 生体組織の処置をシミュレーションするためのシミュレータ及び方法
Beier The integration of a neurosurgical microscope as an interface to a medical training simulator
Louison et al. Spatialized Vibrotactile Feedback Improves Goal-Directed Movements in Cluttered

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190920

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200430

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R150 Certificate of patent or registration of utility model

Ref document number: 6789310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250