JPWO2020041615A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020041615A5
JPWO2020041615A5 JP2021509779A JP2021509779A JPWO2020041615A5 JP WO2020041615 A5 JPWO2020041615 A5 JP WO2020041615A5 JP 2021509779 A JP2021509779 A JP 2021509779A JP 2021509779 A JP2021509779 A JP 2021509779A JP WO2020041615 A5 JPWO2020041615 A5 JP WO2020041615A5
Authority
JP
Japan
Prior art keywords
tip
item
patient
catheter
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021509779A
Other languages
Japanese (ja)
Other versions
JP2021533919A (en
JP7487176B2 (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2019/047746 external-priority patent/WO2020041615A1/en
Publication of JP2021533919A publication Critical patent/JP2021533919A/en
Publication of JPWO2020041615A5 publication Critical patent/JPWO2020041615A5/ja
Priority to JP2023118968A priority Critical patent/JP2023133406A/en
Application granted granted Critical
Publication of JP7487176B2 publication Critical patent/JP7487176B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明はさらに、伝送機をアクティブ化し、身体内の身体部分において前進波を発生させることと、受信機を用いて、身体部分からの帰還波を検出することであって、身体部分からの帰還波は、伝送機によって生成される前進波に応答する、ことと、受信機によって検出される帰還波の未加工データを受信することと、データ記憶部内に未加工データを記憶することと、帰還波の未加工データを処理し、画像を表す画像データを生成することと、データ記憶部内に画像データを記憶することと、データ記憶部から画像データを受信することと、画像データを表すパターンで光を発生させることと、視認者に身体部分のレンダリングを用いて拡張された身体の外面が見えるように、身体の外面からの光が眼の網膜に透過している間に、光を視認者の眼の網膜に誘導することとを含む、患者を視認する方法を提供する。
本発明は、例えば、以下を提供する。
(項目1)
患者視認システムであって、
管腔と、先端とを有するカテーテルと、
前記先端の移動を検出する先端追跡デバイスと、
左および右プロジェクタと、
前記左および右プロジェクタに接続される左および右光導波管と、
プロセッサと、
前記プロセッサに接続されるコンピュータ可読媒体と、
前記コンピュータ可読媒体上のデータ記憶部と、
前記データ記憶部上に記憶される画像データと、
前記コンピュータ可読媒体上に記憶され、前記プロセッサによって実行可能である命令のセットであって、
前記先端追跡デバイスに接続されるカテーテル追跡システムであって、前記カテーテル追跡システムは、前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信し、前記測定値に基づいて、前記先端の位置を決定し、前記データ記憶部内に前記先端の位置を記憶する、カテーテル追跡システムと、
前記画像データを受信するように前記データ記憶部に接続される立体分析器であって、前記立体分析器は、左および右画像データセットを決定し、前記左および右プロジェクタは、それぞれ、前記左および右画像データセットを投影し、前記左および右画像データセットは、3次元レンダリングの知覚を視認者に与えるように相互と異なる、立体分析器と
を含む、命令のセットと
を備える、患者視認システム。
(項目2)
頭部搭載可能フレームであって、前記光導波管は、前記頭部搭載可能フレームに固着される、頭部搭載可能フレーム
をさらに備える、項目1に記載の患者視認システム。
(項目3)
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、項目2に記載の患者視認システム。
(項目4)
前記頭部搭載可能フレームの移動を検出する頭部ユニット検出デバイスをさらに備え、
前記命令のセットは、
前記頭部ユニット検出デバイスに接続され、前記頭部ユニット検出デバイスによって検出される移動に基づいて測定値を受信し、設置値を計算する表示調節アルゴリズムと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正する表示位置付けアルゴリズムと
を含む、項目2に記載の患者視認システム。
(項目5)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)であって、前記頭部ユニットIMUは、前記頭部搭載可能フレームの移動を検出する運動センサを含む、頭部ユニットIMU
を含む、項目4に記載の患者視認システム。
(項目6)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニットカメラであって、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって前記頭部搭載可能フレームの移動を検出する、頭部ユニットカメラ
を含む、項目4に記載の患者視認システム。
(項目7)
前記命令のセットは、前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出する画像処理システムを含む、項目6に記載の患者視認システム。
(項目8)
伝送機と、
前記伝送機をアクティブ化するように前記伝送機に接続されるエネルギー源であって、患者の身体は、前記伝送機が前記身体内の身体部分において前進波を発生させるために、前記伝送機に対して位置付け可能である、エネルギー源と、
前記身体部分からの帰還波を検出するように前記身体に対して位置付け可能である受信機であって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、受信機と
をさらに備え、
前記命令のセットは、
前記受信機によって検出される前記帰還波の未加工データを受信し、前記データ記憶部内に前記未加工データを記憶する未加工データ受信ユニットと、
前記帰還波の未加工データを処理して、画像を表す画像データを生成し、前記データ記憶部内に前記画像データを記憶するように前記データ記憶部に接続される画像発生ユニットと、
前記データ記憶部から前記画像データを受信する画像データ受信ユニットと、
前記先端の位置を前記画像データと組み合わせるカテーテル表示インテグレータであって、前記プロジェクタによって生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、カテーテル表示インテグレータと
を含む、項目1に記載の患者視認システム。
(項目9)
コンピュータ断層撮影(CT)スキャナであって、
基部と、
前記患者のためのプラットフォームと、
前記患者を中心とした回転のために前記基部に搭載される回転子であって、前記伝送機は、前記回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、前記基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、回転子と
を含む、コンピュータ断層撮影(CT)スキャナ
を備える、項目8に記載の患者視認システム。
(項目10)
前記命令のセットは、
前記データ記憶部内に前記先端の過去経路を記憶する過去経路計算機であって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記先端の過去経路を表示する、過去経路計算機
を含む、項目1に記載の患者視認システム。
(項目11)
前記命令のセットは、
前記先端の過去経路を記憶する過去経路計算機と、
前記先端の過去経路の周囲に3次元メッシュを発生させ、前記データ記憶部内に前記メッシュを記憶するメッシュ発生器であって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記メッシュを表示する、メッシュ発生器と
を含む、項目1に記載の患者視認システム。
(項目12)
前記先端内のカテーテルカメラであって、前記カテーテルカメラは、ビデオデータを捕捉する、カテーテルカメラ
をさらに備え、
前記命令のセットは、
前記ビデオデータを受信するように前記先端内の前記カテーテルカメラに接続されるビデオデータ受信ユニットであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ビデオデータ受信ユニット
を含む、項目11に記載の患者視認システム。
(項目13)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算する予想経路計算機であって、前記カテーテル表示インテグレータは、前記将来の経路を表示する、予想経路計算機
を含む、項目1に記載の患者視認システム。
(項目14)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目13に記載の患者視認システム。
(項目15)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目14に記載の患者視認システム。
(項目16)
前記先端上に侵襲性外科手術道具をさらに備える、項目1に記載の患者視認システム。
(項目17)
前記先端上のカメラと、
前記カメラによって捕捉される画像をオペレータに表示するための少なくとも1つのディスプレイと
をさらに備える、項目1に記載の患者視認システム。
(項目18)
第1のディスプレイは、前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示する、項目17に記載の患者視認システム。
(項目19)
第1のディスプレイは、前記3次元レンダリングを第1のオペレータに表示し、
前記カメラによって捕捉される前記画像を第2のオペレータに表示する第2のディスプレイ
をさらに備える、項目17に記載の患者視認システム。
(項目20)
前記3次元レンダリングを第1のオペレータに表示するための第1のディスプレイと、
前記カテーテルを用いることなくデータを収集するデータ収集システムと、
前記データ収集システムを用いて収集される前記データを第2のオペレータに表示するための第2のディスプレイと
をさらに備える、項目1に記載の患者視認システム。
(項目21)
前記先端上の動作負荷を決定するように前記先端に接続される負荷検出システムと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告するように前記負荷検出システムに接続される、警告システムと
をさらに備える、項目1に記載の患者視認システム。
(項目22)
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、項目21に記載の患者視認システム。
(項目23)
運動アーチファクトを観察するための運動検出システムと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うように前記運動検出システムに接続される位置調節システムと
をさらに備える、項目1に記載の患者視認システム。
(項目24)
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、項目23に記載の患者視認システム。
(項目25)
(T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、項目24に記載の患者視認システム。
(項目26)
患者を視認する方法であって、
カテーテルの先端を患者の身体の中に挿入することと、
先端追跡デバイスを用いて、前記先端の移動を検出することと、
前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信することと、
前記測定値に基づいて、前記先端の位置を決定することと、
前記先端の位置を記憶することと、
前記先端の位置に基づいて、左および右画像データセットを決定することと、
それぞれ、前記左および右画像データセットを光として投影する左および右プロジェクタを使用して、前記先端の位置を表すパターンで光を発生させることと、
視認者に前記先端の位置が見えるように、前記光を前記視認者の左および右眼の網膜に誘導することであって、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、ことと
を含む、方法。
(項目27)
頭部搭載可能フレームを視認者の頭部に搭載することであって、前記光導波管は、前記頭部搭載可能フレームに固着される、こと
をさらに含む、項目26に記載の方法。
(項目28)
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、項目27に記載の方法。
(項目29)
前記頭部搭載可能フレームの移動を検出することと、
検出される前記移動に基づいて、設置値を計算することと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正することと
をさらに含む、項目27に記載の方法。
(項目30)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)の運動センサを用いて検出される、項目29に記載の方法。
(項目31)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニットカメラを用いて検出され、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出する、項目29に記載の方法。
(項目32)
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出することをさらに含む、項目31に記載の方法。
(項目33)
伝送機をアクティブ化し、前記身体内の身体部分において前進波を発生させることと、
受信機を用いて、前記身体部分からの帰還波を検出することであって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、ことと、
前記受信機によって検出される前記帰還波の未加工データを受信することと、
データ記憶部内に前記未加工データを記憶することと、
前記帰還波の未加工データを処理し、画像を表す画像データを生成することと、
前記データ記憶部内に前記画像データを記憶することと、
前記データ記憶部から前記画像データを受信することと、
前記先端の位置を前記画像データと組み合わせることであって、生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、ことと
をさらに含む、項目26に記載の方法。
(項目34)
前記伝送機は、回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、項目33に記載の方法。
(項目35)
前記データ記憶部内に前記先端の過去経路を記憶することと、
前記先端の位置とともに前記先端の過去経路を表示することと
をさらに含む、項目26に記載の方法。
(項目36)
前記先端の過去経路の周囲に3次元メッシュを発生させることと、
前記データ記憶部、前記カテーテル表示インテグレータ内に前記メッシュを記憶することと、
前記先端の位置とともに前記メッシュを表示することと
をさらに含む、項目26に記載の方法。
(項目37)
前記先端内のカテーテルカメラを用いて、ビデオデータを捕捉することと、
前記ビデオデータを受信することであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ことと、
前記ビデオデータに基づいて、ライブビデオを表示することと
をさらに含む、項目36に記載の方法。
(項目38)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算することと、
前記将来の経路を表示することと
を含む、項目26に記載の方法。
(項目39)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目38に記載の方法。
(項目40)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目39に記載の方法。
(項目41)
前記先端上の侵襲性外科手術道具を用いて、侵襲性手技を実施することをさらに含む、項目26に記載の方法。
(項目42)
前記先端上のカメラを用いて、画像を捕捉することと、
前記カメラによって捕捉される画像をオペレータに表示することと
をさらに含む、項目26に記載の方法。
(項目43)
前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示することをさらに含む、項目42に記載の方法。
(項目44)
前記3次元レンダリングを第1のオペレータに表示することと、
前記カメラによって捕捉される前記画像を第2のオペレータに表示することと
をさらに含む、項目42に記載の方法。
(項目45)
前記3次元レンダリングを第1のオペレータに表示することと、
前記カテーテルを用いることなくデータを収集することと、
前記カテーテルを用いることなく収集される前記データを第2のオペレータに表示することと
をさらに含む、項目26に記載の方法。
(項目46)
前記先端上の動作負荷を決定することと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告することと
をさらに含む、項目26に記載の方法。
(項目47)
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、項目46に記載の方法。
(項目48)
運動アーチファクトを観察することと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うことと
をさらに含む、項目26に記載の方法。
(項目49)
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、項目48に記載の方法。
(項目50)
(T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、項目49に記載の方法。
(項目51)
患者視認システムであって、
管腔と、先端とを有するカテーテルと、
前記先端の移動を検出する先端追跡デバイスと、
プロジェクタと、
前記プロジェクタに接続される光導波管と、
プロセッサと、
前記プロセッサに接続されるコンピュータ可読媒体と、
前記コンピュータ可読媒体上のデータ記憶部と、
前記コンピュータ可読媒体上に記憶され、前記プロセッサによって実行可能である命令のセットであって、
カテーテル追跡システムであって、前記カテーテル追跡システムは、前記先端追跡デバイスに接続され、前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信し、前記測定値に基づいて、前記先端の位置を決定し、前記データ記憶部内に前記先端の位置を記憶する、カテーテル追跡システムと、
前記データ記憶部内に前記先端の過去経路を記憶する過去経路計算機と、
カテーテル表示インテグレータであって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記先端の過去経路を表示する、カテーテル表示インテグレータと
を含む、命令のセットと
を備える、患者視認システム。
(項目52)
前記命令のセットは、
前記先端の過去経路の周囲に3次元メッシュを発生させ、前記データ記憶部内に前記メッシュを記憶するメッシュ発生器であって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記メッシュを表示する、メッシュ発生器
を含む、項目51に記載の患者視認システム。
(項目53)
前記先端内のカテーテルカメラであって、前記カテーテルカメラは、ビデオデータを捕捉する、カテーテルカメラ
をさらに備え、
前記命令のセットは、
前記ビデオデータを受信するように前記先端内の前記カテーテルカメラに接続されるビデオデータ受信ユニットであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ビデオデータ受信ユニット
を含む、項目51に記載の患者視認システム。
(項目54)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算する予想経路計算機であって、前記カテーテル表示インテグレータは、前記将来の経路を表示する、予想経路計算機
を含む、項目51に記載の患者視認システム。
(項目55)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目54に記載の患者視認システム。
(項目56)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目55に記載の患者視認システム。
(項目57)
頭部搭載可能フレームであって、前記光導波管は、前記頭部搭載可能フレームに固着される、頭部搭載可能フレーム
をさらに備える、項目51に記載の患者視認システム。
(項目58)
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、項目57に記載の患者視認システム。
(項目59)
前記プロジェクタは、左プロジェクタであり、前記光導波管は、左光導波管であり、前記眼は、視認者の左眼であり、
前記画像データを受信するように前記画像データ受信ユニットに接続される右プロジェクタであって、前記右プロジェクタは、前記画像データを表すパターンで光を発生させる、右プロジェクタと、
右光導波管であって、前記右光導波管は、前記視認者に右眼を伴う身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が前記右眼の網膜に透過している間に、前記右プロジェクタからの光を前記視認者の右眼の網膜に誘導するように前記右プロジェクタに接続される、右光導波管と
をさらに備える、項目57に記載の患者視認システム。
(項目60)
前記命令のセットは、
前記画像データを受信するように前記データ受信ユニットに接続される立体分析器であって、前記立体分析器は、左および右画像データセットを決定し、前記左および右プロジェクタは、それぞれ、前記左および右画像データセットを投影し、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、立体分析器
を含む、項目59に記載の患者視認システム。
(項目61)
前記頭部搭載可能フレームの移動を検出する頭部ユニット検出デバイスをさらに備え、
前記命令のセットは、
表示調節アルゴリズムであって、前記表示調節アルゴリズムは、前記頭部ユニット検出デバイスに接続され、前記頭部ユニット検出デバイスによって検出される移動に基づいて測定値を受信し、設置値を計算する、表示調節アルゴリズムと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正する表示位置付けアルゴリズムと
を含む、項目57に記載の患者視認システム。
(項目62)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)であって、前記頭部ユニットIMUは、前記頭部搭載可能フレームの移動を検出する運動センサを含む、頭部ユニットIMU
を含む、項目61に記載の患者視認システム。
(項目63)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニットカメラであって、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出する、頭部ユニットカメラ
を含み、
前記命令のセットは、
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出する画像処理システムを含む、項目61に記載の患者視認システム。
(項目64)
伝送機と、
前記伝送機をアクティブ化するように前記伝送機に接続されるエネルギー源であって、患者の身体は、前記伝送機が前記身体内の身体部分において前進波を発生させるために、前記伝送機に対して位置付け可能である、エネルギー源と、
前記身体部分からの帰還波を検出するように前記身体に対して位置付け可能である受信機であって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、受信機と
をさらに備え、
前記命令のセットは、
前記受信機によって検出される前記帰還波の未加工データを受信し、前記データ記憶部内に前記未加工データを記憶する未加工データ受信ユニットと、
前記帰還波の未加工データを処理して、画像を表す画像データを生成し、前記データ記憶部内に前記画像データを記憶するように前記データ記憶部に接続される画像発生ユニットと、
前記データ記憶部から前記画像データを受信する画像データ受信ユニットと、
前記先端の位置を前記画像データと組み合わせるカテーテル表示インテグレータであって、前記プロジェクタによって生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、カテーテル表示インテグレータと
を含む、項目31に記載の患者視認システム。
(項目65)
コンピュータ断層撮影(CT)スキャナであって、
基部と、
前記患者のためのプラットフォームと、
前記患者を中心とした回転のために前記基部に搭載される回転子であって、前記伝送機は、前記回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、前記基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、回転子と
を含む、コンピュータ断層撮影(CT)スキャナ
を備える、項目64に記載の患者視認システム。
(項目66)
前記先端上に侵襲性外科手術道具をさらに備える、項目51に記載の患者視認システム。
(項目67)
前記先端上のカメラと、
前記カメラによって捕捉される画像をオペレータに表示するための少なくとも1つのディスプレイと
をさらに備える、項目51に記載の患者視認システム。
(項目68)
第1のディスプレイは、前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示する、項目67に記載の患者視認システム。
(項目69)
第1のディスプレイは、前記3次元レンダリングを第1のオペレータに表示し、
前記カメラによって捕捉される前記画像を第2のオペレータに表示する第2のディスプレイ
をさらに備える、項目67に記載の患者視認システム。
(項目70)
前記3次元レンダリングを第1のオペレータに表示するための第1のディスプレイと、
前記カテーテルを用いることなくデータを収集するデータ収集システムと、
前記データ収集システムを用いて収集される前記データを第2のオペレータに表示するための第2のディスプレイと
をさらに備える、項目51に記載の患者視認システム。
(項目71)
前記先端上の動作負荷を決定するように前記先端に接続される負荷検出システムと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告するように前記負荷検出システムに接続される警告システムと
をさらに備える、項目51に記載の患者視認システム。
(項目72)
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、項目71に記載の患者視認システム。
(項目73)
運動アーチファクトを観察するための運動検出システムと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うように前記運動検出システムに接続される位置調節システムと
をさらに備える、項目51に記載の患者視認システム。
(項目74)
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、項目73に記載の患者視認システム。
(項目75)
(T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、項目74に記載の患者視認システム。
(項目76)
患者を視認する方法であって、
カテーテルの先端を患者の身体の中に挿入することと、
先端追跡デバイスを用いて、前記先端の移動を検出することと、
前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信することと、
前記測定値に基づいて、前記先端の位置を決定することと、
前記先端の位置を記憶することと、
前記先端の位置に基づいて、左および右画像データセットを決定することと、
それぞれ、前記左および右画像データセットを光として投影する左および右プロジェクタを使用して、前記先端の位置を表すパターンで光を発生させることと、
視認者に前記先端の位置が見えるように、前記光を前記視認者の左および右眼の網膜に誘導することであって、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、ことと、
前記データ記憶部内に前記先端の過去経路を記憶することと、
前記先端の位置とともに前記先端の過去経路を表示することと
を含む、方法。
(項目77)
前記先端の過去経路の周囲に3次元メッシュを発生させることと、
前記データ記憶部、前記カテーテル表示インテグレータ内に前記メッシュを記憶することと、
前記先端の位置とともに前記メッシュを表示することと
をさらに含む、項目76に記載の方法。
(項目78)
前記先端内のカテーテルカメラを用いて、ビデオデータを捕捉することと、
前記ビデオデータを受信することであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ことと、
前記ビデオデータに基づいて、ライブビデオを表示することと
をさらに含む、項目76に記載の方法。
(項目79)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算することと、
前記将来の経路を表示することと
を含む、項目76に記載の方法。
(項目80)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目79に記載の方法。
(項目81)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目80に記載の方法。
(項目82)
頭部搭載可能フレームを視認者の頭部に搭載することであって、前記光導波管は、前記頭部搭載可能フレームに固着される、こと
をさらに含む、項目76に記載の方法。
(項目83)
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、項目82に記載の方法。
(項目84)
前記眼は、前記視認者の左眼であり、
前記視認者に右眼を伴う身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が前記右眼の網膜に透過している間に、前記光を前記視認者の右眼の網膜に誘導すること
をさらに含む、項目82に記載の方法。
(項目85)
左および右画像データセットを決定することであって、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、こと
をさらに含む、項目84に記載の方法。
(項目86)
前記頭部搭載可能フレームの移動を検出することと、
検出される前記移動に基づいて、設置値を計算することと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正することと
をさらに含む、項目82に記載の方法。
(項目87)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)の運動センサを用いて検出される、項目86に記載の方法。
(項目88)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニットカメラを用いて検出され、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出し、
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出すること
をさらに含む、項目86に記載の方法。
(項目89)
伝送機をアクティブ化し、前記身体内の身体部分において前進波を発生させることと、
受信機を用いて、前記身体部分からの帰還波を検出することであって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、ことと、
前記受信機によって検出される前記帰還波の未加工データを受信することと、
データ記憶部内に前記未加工データを記憶することと、
前記帰還波の未加工データを処理し、画像を表す画像データを生成することと、
前記データ記憶部内に前記画像データを記憶することと、
前記データ記憶部から前記画像データを受信することと、
前記先端の位置を前記画像データと組み合わせることであって、生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、ことと
をさらに含む、項目76に記載の方法。
(項目90)
前記伝送機は、回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、項目89に記載の方法。
(項目91)
前記先端上の侵襲性外科手術道具を用いて、侵襲性手技を実施することをさらに含む、項目76に記載の方法。
(項目92)
前記先端上のカメラを用いて、画像を捕捉することと、
前記カメラによって捕捉される画像をオペレータに表示することと
をさらに含む、項目76に記載の方法。
(項目93)
前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示することをさらに含む、項目92に記載の方法。
(項目94)
前記3次元レンダリングを第1のオペレータに表示することと、
前記カメラによって捕捉される前記画像を第2のオペレータに表示することと
をさらに含む、項目92に記載の方法。
(項目95)
前記3次元レンダリングを第1のオペレータに表示することと、
前記カテーテルを用いることなくデータを収集することと、
前記カテーテルを用いることなく収集される前記データを第2のオペレータに表示することと
をさらに含む、項目76に記載の方法。
(項目96)
前記先端上の動作負荷を決定することと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告することと
をさらに含む、項目76に記載の方法。
(項目97)
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、項目96に記載の方法。
(項目98)
運動アーチファクトを観察することと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うことと
をさらに含む、項目76に記載の方法。
(項目99)
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、項目98に記載の方法。
(項目100)
(T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、項目99に記載の方法。
(項目101)
患者視認システムであって、
管腔と、先端とを有するカテーテルと、
前記先端の移動を検出する先端追跡デバイスと、
プロジェクタと、
前記プロジェクタに接続される光導波管と、
プロセッサと、
前記プロセッサに接続されるコンピュータ可読媒体と、
前記コンピュータ可読媒体上のデータ記憶部と、
前記コンピュータ可読媒体上に記憶され、前記プロセッサによって実行可能である命令のセットであって、
カテーテル追跡システムであって、前記カテーテル追跡システムは、前記先端追跡デバイスに接続され、前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信し、前記測定値に基づいて、前記先端の位置を決定し、前記データ記憶部内に前記先端の位置を記憶する、カテーテル追跡システムと、
前記先端の位置に基づいて、前記先端の将来の経路を計算する予想経路計算機であって、カテーテル表示インテグレータは、前記将来の経路を表示する、予想経路計算機と、
カテーテル表示インテグレータであって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記先端の将来の経路を表示する、カテーテル表示インテグレータと
を含む、命令のセットと
を備える、患者視認システム。
(項目102)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目101に記載の患者視認システム。
(項目103)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目101に記載の患者視認システム。
(項目104)
前記先端内のカテーテルカメラであって、前記カテーテルカメラは、ビデオデータを捕捉する、カテーテルカメラ
をさらに備え、
前記命令のセットは、
前記ビデオデータを受信するように前記先端内の前記カテーテルカメラに接続されるビデオデータ受信ユニットであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ビデオデータ受信ユニット
を含む、項目101に記載の患者視認システム。
(項目105)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の過去経路を計算する過去経路計算機であって、前記カテーテル表示インテグレータは、前記将来の経路を表示する、過去経路計算機
を含む、項目101に記載の患者視認システム。
(項目106)
前記命令のセットは、
前記先端の過去経路の周囲に3次元メッシュを発生させ、前記データ記憶部内に前記メッシュを記憶するメッシュ発生器であって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記メッシュを表示する、メッシュ発生器
を含む、項目105に記載の患者視認システム。
(項目107)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目106に記載の患者視認システム。
(項目108)
頭部搭載可能フレームであって、前記光導波管は、前記頭部搭載可能フレームに固着される、頭部搭載可能フレーム
をさらに備える、項目101に記載の患者視認システム。
(項目109)
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、項目108に記載の患者視認システム。
(項目110)
前記プロジェクタは、左プロジェクタであり、前記光導波管は、左光導波管であり、前記眼は、視認者の左眼であり、
前記画像データを受信するように前記画像データ受信ユニットに接続される右プロジェクタであって、前記右プロジェクタは、前記画像データを表すパターンで光を発生させる、右プロジェクタと、
右光導波管であって、前記右光導波管は、前記視認者に右眼を伴う身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が前記右眼の網膜に透過している間に、前記右プロジェクタからの光を前記視認者の右眼の網膜に誘導するように前記右プロジェクタに接続される、右光導波管と
をさらに備える、項目108に記載の患者視認システム。
(項目111)
前記命令のセットは、
前記画像データを受信するように前記データ受信ユニットに接続される立体分析器であって、前記立体分析器は、左および右画像データセットを決定し、前記左および右プロジェクタは、それぞれ、前記左および右画像データセットを投影し、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、立体分析器
を含む、項目110に記載の患者視認システム。
(項目112)
前記頭部搭載可能フレームの移動を検出する頭部ユニット検出デバイスをさらに備え、
前記命令のセットは、
表示調節アルゴリズムであって、前記表示調節アルゴリズムは、前記頭部ユニット検出デバイスに接続され、前記頭部ユニット検出デバイスによって検出される移動に基づいて測定値を受信し、設置値を計算する、表示調節アルゴリズムと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正する表示位置付けアルゴリズムと
を含む、項目108に記載の患者視認システム。
(項目113)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)であって、前記頭部ユニットIMUは、前記頭部搭載可能フレームの移動を検出する運動センサを含む、頭部ユニットIMU
を含む、項目112に記載の患者視認システム。
(項目114)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニットカメラであって、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出する、頭部ユニットカメラ
を含み、
前記命令のセットは、
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出する画像処理システムを含む、項目112に記載の患者視認システム。
(項目115)
伝送機と、
前記伝送機をアクティブ化するように前記伝送機に接続されるエネルギー源であって、患者の身体は、前記伝送機が前記身体内の身体部分において前進波を発生させるために、前記伝送機に対して位置付け可能である、エネルギー源と、
前記身体部分からの帰還波を検出するように前記身体に対して位置付け可能である受信機であって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、受信機と
をさらに備え、
前記命令のセットは、
前記受信機によって検出される前記帰還波の未加工データを受信し、前記データ記憶部内に前記未加工データを記憶する未加工データ受信ユニットと、
画像発生ユニットであって、前記画像発生ユニットは、前記帰還波の未加工データを処理して、画像を表す画像データを生成し、前記データ記憶部内に前記画像データを記憶するように前記データ記憶部に接続される、画像発生ユニットと、
前記データ記憶部から前記画像データを受信する画像データ受信ユニットと、
前記先端の位置を前記画像データと組み合わせるカテーテル表示インテグレータであって、前記プロジェクタによって生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、カテーテル表示インテグレータと
を含む、項目1011に記載の患者視認システム。
(項目116)
コンピュータ断層撮影(CT)スキャナであって、
基部と、
前記患者のためのプラットフォームと、
前記患者を中心とした回転のために前記基部に搭載される回転子であって、前記伝送機は、前記回転子に固着され、X線波を伝送するX線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、前記基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、回転子と
を含む、コンピュータ断層撮影(CT)スキャナ
を備える、項目115に記載の患者視認システム。
(項目118)
前記先端上のカメラと、
前記カメラによって捕捉される画像をオペレータに表示するための少なくとも1つのディスプレイと
をさらに備える、項目101に記載の患者視認システム。
(項目119)
第1のディスプレイは、前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示する、項目118に記載の患者視認システム。
(項目120)
第1のディスプレイは、前記3次元レンダリングを第1のオペレータに表示し、
前記カメラによって捕捉される前記画像を第2のオペレータに表示する第2のディスプレイ
をさらに備える、項目118に記載の患者視認システム。
(項目121)
前記3次元レンダリングを第1のオペレータに表示するための第1のディスプレイと、
前記カテーテルを用いることなくデータを収集するデータ収集システムと、
前記データ収集システムを用いて収集される前記データを第2のオペレータに表示するための第2のディスプレイと
をさらに備える、項目101に記載の患者視認システム。
(項目122)
前記先端上の動作負荷を決定するように前記先端に接続される負荷検出システムと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告するように前記負荷検出システムに接続される警告システムと
をさらに備える、項目101に記載の患者視認システム。
(項目123)
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、項目122に記載の患者視認システム。
(項目124)
運動アーチファクトを観察するための運動検出システムと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うように前記運動検出システムに接続される位置調節システムと
をさらに備える、項目101に記載の患者視認システム。
(項目125)
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、項目124に記載の患者視認システム。
(項目126)
(T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、項目125に記載の患者視認システム。
(項目127)
患者を視認する方法であって、
カテーテルの先端を患者の身体の中に挿入することと、
先端追跡デバイスを用いて、前記先端の移動を検出することと、
前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信することと、
前記測定値に基づいて、前記先端の位置を決定することと、
前記先端の位置を記憶することと、
前記先端の位置に基づいて、左および右画像データセットを決定することと、
それぞれ、前記左および右画像データセットを光として投影する左および右プロジェクタを使用して、前記先端の位置を表すパターンで光を発生させることと、
視認者に前記先端の位置が見えるように、前記光を前記視認者の左および右眼の網膜に誘導することであって、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、ことと、
前記先端の位置に基づいて、前記先端の将来の経路を計算することと、
前記先端の位置とともに前記先端の将来の経路を表示することと
を含む、方法。
(項目128)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目127に記載の方法。
(項目129)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目127に記載の方法。
(項目130)
前記先端内のカテーテルカメラを用いて、ビデオデータを捕捉することと、
前記ビデオデータを受信することであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ことと、
前記ビデオデータに基づいて、ライブビデオを表示することと
をさらに含む、項目127に記載の方法。
(項目131)
前記命令のセットは、
前記データ記憶部内に前記先端の過去経路を記憶することと、
前記先端の位置とともに前記先端の過去経路を表示することと
を含む、項目127に記載の方法。
(項目132)
前記先端の過去経路の周囲に3次元メッシュを発生させることと、
前記データ記憶部、前記カテーテル表示インテグレータ内に前記メッシュを記憶することと、
前記先端の位置とともに前記メッシュを表示することと
をさらに含む、項目131に記載の方法。
(項目133)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目132に記載の方法。
(項目134)
頭部搭載可能フレームを視認者の頭部に搭載することであって、前記光導波管は、前記頭部搭載可能フレームに固着される、こと
をさらに含む、項目127に記載の方法。
(項目135)
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、項目134に記載の方法。
(項目136)
前記眼は、前記視認者の左眼であり、
前記視認者に右眼を伴う身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が前記右眼の網膜に透過している間に、前記光を前記視認者の右眼の網膜に誘導すること
をさらに含む、項目134に記載の方法。
(項目137)
左および右画像データセットを決定することであって、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、こと
をさらに含む、項目136に記載の方法。
(項目138)
前記頭部搭載可能フレームの移動を検出することと、
検出される前記移動に基づいて、設置値を計算することと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正することと
をさらに含む、項目134に記載の方法。
(項目139)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)の運動センサを用いて検出される、項目138に記載の方法。
(項目140)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニットカメラを用いて検出され、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出し、
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出すること
をさらに含む、項目138に記載の方法。
(項目141)
伝送機をアクティブ化し、前記身体内の身体部分において前進波を発生させることと、
受信機を用いて、前記身体部分からの帰還波を検出することであって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、ことと、
前記受信機によって検出される前記帰還波の未加工データを受信することと、
データ記憶部内に前記未加工データを記憶することと、
前記帰還波の未加工データを処理し、画像を表す画像データを生成することと、
前記データ記憶部内に前記画像データを記憶することと、
前記データ記憶部から前記画像データを受信することと、
前記先端の位置を前記画像データと組み合わせることであって、生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、ことと
をさらに含む、項目127に記載の方法。
(項目142)
前記伝送機は、回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、項目141に記載の方法。
(項目143)
前記先端上の侵襲性外科手術道具を用いて、侵襲性手技を実施することをさらに含む、項目127に記載の方法。
(項目144)
前記先端上のカメラを用いて、画像を捕捉することと、
前記カメラによって捕捉される画像をオペレータに表示することと
をさらに含む、項目127に記載の方法。
(項目145)
前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示すること
をさらに含む、項目144に記載の方法。
(項目146)
前記3次元レンダリングを第1のオペレータに表示することと、
前記カメラによって捕捉される前記画像を第2のオペレータに表示することと
をさらに含む、項目144に記載の方法。
(項目147)
前記3次元レンダリングを第1のオペレータに表示することと、
前記カテーテルを用いることなくデータを収集することと、
前記カテーテルを用いることなく収集される前記データを第2のオペレータに表示することと
をさらに含む、項目127に記載の方法。
(項目148)
前記先端上の動作負荷を決定することと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告することと
をさらに含む、項目127に記載の方法。
(項目149)
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、項目148に記載の方法。
(項目150)
運動アーチファクトを観察することと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うことと
をさらに含む、項目127に記載の方法。
(項目151)
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、項目150に記載の方法。
(項目152)
(T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、項目151に記載の方法。
(項目153)
伝送機と、
前記伝送機をアクティブ化するように前記伝送機に接続されるエネルギー源であって、患者の身体は、前記伝送機が前記身体内の身体部分において前進波を発生させるために、前記伝送機に対して位置付け可能である、エネルギー源と、
前記身体部分からの帰還波を検出するように前記身体に対して位置付け可能である受信機であって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、受信機と、
プロセッサと、
前記プロセッサに接続されるコンピュータ可読媒体と、
前記コンピュータ可読媒体上のデータ記憶部と、
前記コンピュータ可読媒体上に記憶され、前記プロセッサによって実行可能である命令のセットであって、
前記受信機によって検出される前記帰還波の未加工データを受信し、前記データ記憶部内に前記未加工データを記憶する未加工データ受信ユニットと、
画像発生ユニットであって、前記画像発生ユニットは、前記帰還波の未加工データを処理して、画像を表す画像データを生成し、前記データ記憶部内に前記画像データを記憶するように前記データ記憶部に接続される、画像発生ユニットと、
前記データ記憶部から前記画像データを受信する画像データ受信ユニットと、
前記画像データを受信するように前記画像データ受信ユニットに接続されるプロジェクタであって、前記プロジェクタは、前記画像データを表すパターンで光を発生させる、プロジェクタと、
光導波管であって、前記光導波管は、前記視認者に身体部分のレンダリングを用いて拡張された身体の外面が見えるように、前記身体の外面からの光が眼の網膜に透過している間に、前記光を前記視認者の眼の網膜に誘導するように前記プロジェクタに接続される、光導波管と
を含む、命令のセットと
を備える、患者視認システム。
(項目154)
頭部搭載可能フレームであって、前記光導波管は、前記頭部搭載可能フレームに固着される、頭部搭載可能フレーム
をさらに備える、項目153に記載の患者視認システム。
(項目155)
前記光導波管は、前記眼と前記身体の外面との間に位置付けられる透明光導波管である、項目154に記載の患者視認システム。
(項目156)
前記プロジェクタは、左プロジェクタであり、前記光導波管は、左光導波管であり、前記眼は、前記視認者の左眼であり、
前記画像データを受信するように前記画像データ受信ユニットに接続される右プロジェクタであって、前記右プロジェクタは、前記画像データを表すパターンで光を発生させる、右プロジェクタと、
右光導波管であって、前記右光導波管は、前記視認者に右眼を伴う身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が前記右眼の網膜に透過している間に、前記右プロジェクタからの光を前記視認者の右眼の網膜に誘導するように前記右プロジェクタに接続される、右光導波管と
をさらに備える、項目154に記載の患者視認システム。
(項目157)
前記命令のセットは、
前記画像データを受信するように前記データ受信ユニットに接続される立体分析器であって、前記立体分析器は、左および右画像データセットを決定し、前記左および右プロジェクタは、それぞれ、前記左および右画像データセットを投影し、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、立体分析器
を含む、項目156に記載の患者視認システム。
(項目158)
前記頭部搭載可能フレームの移動を検出する頭部ユニット検出デバイスをさらに備え、前記命令のセットは、
表示調節アルゴリズムであって、前記表示調節アルゴリズムは、前記頭部ユニット検出デバイスに接続され、前記頭部ユニット検出デバイスによって検出される移動に基づいて測定値を受信し、設置値を計算する、表示調節アルゴリズムと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正する表示位置付けアルゴリズムと
を含む、項目154に記載の患者視認システム。
(項目159)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)であって、前記頭部ユニットIMUは、前記頭部搭載可能フレームの移動を検出する運動センサを含む、頭部ユニットIMU
を含む、項目158に記載の患者視認システム。
(項目160)
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニットカメラであって、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出する、頭部ユニットカメラ
を含み、
前記命令のセットは、
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出する、画像処理システム
を含む、項目158に記載の患者視認システム。
(項目161)
コンピュータ断層撮影(CT)スキャナであって、
基部と、
前記患者のためのプラットフォームと、
前記患者を中心とした回転のために前記基部に搭載される回転子であって、前記伝送機は、前記回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、前記基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、回転子と
を含む、コンピュータ断層撮影(CT)スキャナ
を備える、項目158に記載の患者視認システム。
(項目162)
管腔と、先端とを有するカテーテルと、
前記先端の移動を検出する先端追跡デバイスと
をさらに備え、
前記命令のセットは、
カテーテル追跡システムであって、前記カテーテル追跡システムは、前記先端追跡デバイスに接続され、前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信し、前記測定値に基づいて、前記先端の位置を決定する、カテーテル追跡システムと、
前記先端の位置を前記画像データと組み合わせるカテーテル表示インテグレータであって、前記プロジェクタによって生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、カテーテル表示インテグレータと
を含む、項目153に記載の患者視認システム。
(項目163)
前記命令のセットは、
前記データ記憶部内に前記先端の過去経路を記憶する過去経路計算機であって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記先端の過去経路を表示する、過去経路計算機
を含む、項目162に記載の患者視認システム。
(項目164)
前記命令のセットは、
前記先端の過去経路を記憶する過去経路計算機と、
前記先端の過去経路の周囲に3次元メッシュを発生させ、前記データ記憶部内に前記メッシュを記憶するメッシュ発生器であって、前記カテーテル表示インテグレータは、前記先端の位置とともに前記メッシュを表示する、メッシュ発生器と
を含む、項目162に記載の患者視認システム。
(項目165)
前記先端内のカテーテルカメラであって、前記カテーテルカメラは、ビデオデータを捕捉する、カテーテルカメラ
をさらに備え、
前記命令のセットは、
前記ビデオデータを受信するように前記先端内の前記カテーテルカメラに接続されるビデオデータ受信ユニットであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ビデオデータ受信ユニット
を含む、項目164に記載の患者視認システム。
(項目166)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算する予想経路計算機であって、前記カテーテル表示インテグレータは、前記将来の経路を表示する、予想経路計算機
を含む、項目162に記載の患者視認システム。
(項目167)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目166に記載の患者視認システム。
(項目168)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目167に記載の患者視認システム。
(項目169)
患者を視認する方法であって、
伝送機をアクティブ化し、身体内の身体部分において前進波を発生させることと、
受信機を用いて、前記身体部分からの帰還波を検出することであって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、ことと、
前記受信機によって検出される前記帰還波の未加工データを受信することと、
データ記憶部内に前記未加工データを記憶することと、
前記帰還波の未加工データを処理し、画像を表す画像データを生成することと、
前記データ記憶部内に前記画像データを記憶することと、
前記データ記憶部から前記画像データを受信することと、
前記画像データを表すパターンで光を発生させることと、
視認者に前記身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が眼の網膜に透過している間に、前記光を前記視認者の眼の網膜に誘導することと
を含む、方法。
(項目170)
頭部搭載可能フレームを視認者の頭部に搭載することであって、前記光導波管は、前記頭部搭載可能フレームに固着される、こと
をさらに含む、項目169に記載の方法。
(項目171)
前記光導波管は、前記眼と前記身体の外面との間に位置付けられる透明光導波管である、項目170に記載の方法。
(項目172)
前記眼は、前記視認者の左眼であり、
前記視認者に右眼を伴う身体部分のレンダリングを用いて拡張された前記身体の外面が見えるように、前記身体の外面からの光が前記右眼の網膜に透過している間に、前記光を前記視認者の右眼の網膜に誘導すること
をさらに含む、項目170に記載の方法。
(項目173)
左および右画像データセットを決定することであって、前記左および右画像データセットは、3次元レンダリングの知覚を前記視認者に与えるように相互と異なる、こと
をさらに含む、項目172に記載の方法。
(項目174)
前記頭部搭載可能フレームの移動を検出することと、
検出される前記移動に基づいて、設置値を計算することと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正することと
をさらに含む、項目170に記載の方法。
(項目175)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)の運動センサを用いて検出される、項目174に記載の方法。
(項目176)
前記移動は、前記頭部搭載可能フレームに搭載される頭部ユニットカメラを用いて検出され、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって、前記頭部搭載可能フレームの移動を検出し、
前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出すること
をさらに含む、項目174に記載の方法。
(項目177)
前記伝送機は、回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、項目174に記載の方法。
(項目178)
カテーテルの先端を患者の身体の中に挿入することと、
先端追跡デバイスを用いて、前記先端の移動を検出することと、
前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信することと、
前記測定値に基づいて、前記先端の位置を決定することと、
前記先端の位置を前記画像データと組み合わせることであって、生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、ことと
をさらに含む、項目179に記載の方法。
(項目179)
前記データ記憶部内に前記先端の過去経路を記憶することと、
前記先端の位置とともに前記先端の過去経路を表示することと
をさらに含む、項目178に記載の方法。
(項目180)
前記先端の過去経路の周囲に3次元メッシュを発生させることと、
前記データ記憶部、前記カテーテル表示インテグレータ内に前記メッシュを記憶することと、
前記先端の位置とともに前記メッシュを表示することと
をさらに含む、項目178に記載の方法。
(項目181)
前記先端内のカテーテルカメラを用いて、ビデオデータを捕捉することと、
前記ビデオデータを受信することであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ことと、
前記ビデオデータに基づいて、ライブビデオを表示することと
をさらに含む、項目180に記載の方法。
(項目182)
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算することと、
前記将来の経路を表示することと
を含む、項目178に記載の方法。
(項目183)
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、項目182に記載の方法。
(項目184)
前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、項目183に記載の方法。
The present invention further comprises activating a transmitter to generate a forward wave in a body part within the body and detecting a return wave from the body part using a receiver, the return from the body part. The wave responds to the forward wave generated by the transmitter, receives the raw data of the feedback wave detected by the receiver, stores the raw data in the data storage, and returns. Processing raw wave data to generate image data representing an image, storing image data in a data storage unit, receiving image data from a data storage unit, and a pattern representing image data. The viewer sees the light while the light from the outside of the body is transmitted through the retina of the eye so that the light is generated and the viewer can see the extended outer surface of the body using the rendering of the body part. Provided is a method of visualizing a patient, including guiding to the retina of the eye.
The present invention provides, for example,:
(Item 1)
It ’s a patient visibility system.
A catheter with a lumen and a tip,
A tip tracking device that detects the movement of the tip,
With left and right projectors,
The left and right optical waveguides connected to the left and right projectors,
With the processor
A computer-readable medium connected to the processor and
The data storage unit on the computer-readable medium and
The image data stored in the data storage unit and
A set of instructions stored on the computer-readable medium and executable by the processor.
A catheter tracking system connected to the tip tracking device, the catheter tracking system receiving measurements based on the movement detected by the tip tracking device and based on the measurements of the tip. A catheter tracking system that determines the position and stores the position of the tip in the data storage unit.
A three-dimensional analyzer connected to the data storage unit to receive the image data, the three-dimensional analyzer determines the left and right image data sets, and the left and right projectors determine the left and right image data sets, respectively. And the right image data set is projected, and the left and right image data sets are different from each other so as to give the viewer the perception of 3D rendering.
With a set of instructions, including
A patient visibility system.
(Item 2)
A head-mountable frame, wherein the optical waveguide is fixed to the head-mountable frame.
The patient visual recognition system according to item 1, further comprising.
(Item 3)
The patient visual recognition system according to item 2, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 4)
Further equipped with a head unit detection device for detecting the movement of the head mountable frame, the head unit detection device is further provided.
The set of instructions
A display adjustment algorithm that is connected to the head unit detection device, receives measurements based on movements detected by the head unit detection device, and calculates installation values.
With a display positioning algorithm that corrects the position of the body part in the view of the eye based on the installation value.
2. The patient visibility system according to item 2.
(Item 5)
The head unit detection device is
A head unit inertial measurement unit (IMU) mounted on the head mountable frame, wherein the head unit IMU includes a motion sensor that detects movement of the head mountable frame.
4. The patient visibility system according to item 4.
(Item 6)
The head unit detection device is
A head unit camera mounted on the head mountable frame, wherein the head unit camera moves the head mountable frame by capturing an image of an object in the view of the head unit camera. Detect, head unit camera
4. The patient visibility system according to item 4.
(Item 7)
The patient viewing system according to item 6, wherein the set of instructions includes an image processing system that analyzes the image and detects the posture position of the head mountable frame.
(Item 8)
With the transmitter
An energy source connected to the transmitter to activate the transmitter, the patient's body is exposed to the transmitter for the transmitter to generate forward waves in a body portion within the body. Energy sources that can be positioned with respect to
A receiver that can be positioned relative to the body to detect the feedback wave from the body part, the feedback wave from the body part responding to the forward wave generated by the transmitter. , With receiver
With more
The set of instructions
A raw data receiving unit that receives raw data of the feedback wave detected by the receiver and stores the raw data in the data storage unit.
An image generation unit that processes the raw data of the feedback wave to generate image data representing an image, and is connected to the data storage unit so as to store the image data in the data storage unit.
An image data receiving unit that receives the image data from the data storage unit, and
A catheter display integrator that combines the position of the tip with the image data, wherein the pattern of light generated by the projector includes the image data and a pattern representing the position of the tip.
The patient visual recognition system according to item 1.
(Item 9)
A computer tomography (CT) scanner
At the base,
The platform for the patient and
A rotor mounted on the base for rotation around the patient, the transmitter is an X-ray transmitter that is fixed to the rotor and transmits an X-ray wave, and is a receiver. The machine is an X-ray detector fixed to the rotor so as to detect the X-ray wave, and the movement of the platform with respect to the base extends from the X-ray transmitter to the X-ray detector. With a rotor that allows the patient to move relative to a plane
Including Computer Tomography (CT) Scanner
8. The patient visibility system according to item 8.
(Item 10)
The set of instructions
A past route calculator that stores the past route of the tip in the data storage unit, and the catheter display integrator displays the past route of the tip together with the position of the tip.
The patient visual recognition system according to item 1.
(Item 11)
The set of instructions
A past route computer that stores the past route at the tip,
A mesh generator that generates a three-dimensional mesh around the past path of the tip and stores the mesh in the data storage unit, wherein the catheter display integrator displays the mesh together with the position of the tip. With the generator
The patient visual recognition system according to item 1.
(Item 12)
A catheter camera within the tip, wherein the catheter camera captures video data.
With more
The set of instructions
A video data receiving unit connected to the catheter camera in the tip so as to receive the video data, wherein the catheter display integrator displays a live video based on the video data.
The patient visual recognition system according to item 11.
(Item 13)
The set of instructions
A predictive route calculator that calculates the future route of the tip based on the position of the tip, and the catheter display integrator is a predictive route calculator that displays the future route.
The patient visual recognition system according to item 1.
(Item 14)
13. The patient visibility system of item 13, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 15)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is The patient visibility system according to item 14, wherein is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 16)
The patient visibility system according to item 1, further comprising an invasive surgical tool on the tip.
(Item 17)
With the camera on the tip
With at least one display for displaying the image captured by the camera to the operator
The patient visual recognition system according to item 1, further comprising.
(Item 18)
The patient viewing system according to item 17, wherein the first display displays the three-dimensional rendering and the image captured by the camera to the first operator.
(Item 19)
The first display displays the three-dimensional rendering to the first operator.
A second display that displays the image captured by the camera to a second operator.
The patient visual recognition system according to item 17, further comprising.
(Item 20)
A first display for displaying the three-dimensional rendering to the first operator, and
A data collection system that collects data without using the catheter,
With a second display for displaying the data collected using the data collection system to a second operator.
The patient visual recognition system according to item 1, further comprising.
(Item 21)
A load detection system connected to the tip to determine the operating load on the tip,
With a warning system connected to the load detection system to warn the operator if the load on the tip exceeds a predetermined limit.
The patient visual recognition system according to item 1, further comprising.
(Item 22)
The patient visual recognition system according to item 21, wherein the warning is one of a visual warning, an audio warning, and a tactile warning.
(Item 23)
A motion detection system for observing motion artifacts,
With a position adjustment system connected to the motion detection system to adjust the position of the tip based on the motion artifact.
The patient visual recognition system according to item 1, further comprising.
(Item 24)
The motion detection system collects feedback control images of patient activity at three separate times at times T1 to T2 to T3, and the images are analyzed at time T4 to determine changes in patient position. 23. The patient visibility system of item 23, wherein the adjustment of the control input based on the change in patient position observed over time T1 to T3 is performed at time T5.
(Item 25)
The patient visual recognition system according to item 24, wherein when (T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2).
(Item 26)
It ’s a way to see the patient.
Inserting the tip of the catheter into the patient's body
Using a tip tracking device to detect the movement of the tip,
Receiving measurements based on the movement detected by the advanced tracking device,
Determining the position of the tip based on the measured value,
To memorize the position of the tip and
Determining the left and right image datasets based on the tip position
Using left and right projectors that project the left and right image datasets as light, respectively, to generate light in a pattern that represents the position of the tip.
Directing the light to the retinas of the left and right eyes of the viewer so that the viewer can see the position of the tip, the left and right image datasets perceive the perception of three-dimensional rendering. To be different from each other to give to
Including methods.
(Item 27)
The head mountable frame is mounted on the viewer's head, and the optical waveguide is fixed to the head mountable frame.
26. The method of item 26.
(Item 28)
27. The method of item 27, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 29)
Detecting the movement of the head-mountable frame and
To calculate the installation value based on the detected movement,
Correcting the position of the body part in the view of the eye based on the placement value
27.
(Item 30)
29. The method of item 29, wherein the movement is detected using a motion sensor of a head unit inertial measurement unit (IMU) mounted on the head mountable frame.
(Item 31)
The movement is detected by using a head unit camera mounted on the head mountable frame, and the head unit camera captures an image of an object in the view of the head unit camera. 29. The method of item 29, wherein the movement of the head mountable frame is detected.
(Item 32)
31. The method of item 31, further comprising analyzing the image and detecting the posture position of the head mountable frame.
(Item 33)
Activating the transmitter to generate a forward wave in the body part within the body,
The receiver is used to detect the feedback wave from the body part, and the feedback wave from the body part responds to the forward wave generated by the transmitter.
Receiving the raw data of the feedback wave detected by the receiver,
To store the raw data in the data storage unit,
By processing the raw data of the feedback wave to generate image data representing an image,
To store the image data in the data storage unit,
Receiving the image data from the data storage unit and
By combining the position of the tip with the image data, the generated pattern of light includes the image data and a pattern representing the position of the tip.
26. The method of item 26.
(Item 34)
The transmitter is an X-ray transmitter that is fixed to a rotor and transmits an X-ray wave, and the receiver is an X-ray detector that is fixed to the rotor so as to detect the X-ray wave. 33. The method of item 33, wherein the movement of the platform with respect to the base allows the movement of the patient with respect to a plane extending from the X-ray transmitter to the X-ray detector.
(Item 35)
To store the past route of the tip in the data storage unit,
To display the past route of the tip together with the position of the tip
26. The method of item 26.
(Item 36)
To generate a three-dimensional mesh around the past path at the tip,
To store the mesh in the data storage unit and the catheter display integrator,
To display the mesh together with the position of the tip
26. The method of item 26.
(Item 37)
Using the catheter camera in the tip, capturing video data and
Receiving the video data, the catheter display integrator displays a live video based on the video data.
To display a live video based on the video data
36. The method of item 36.
(Item 38)
The set of instructions
To calculate the future path of the tip based on the position of the tip,
To display the future route
26. The method of item 26.
(Item 39)
38. The method of item 38, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 40)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is 39. The method of item 39, wherein the second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 41)
26. The method of item 26, further comprising performing an invasive procedure using the invasive surgical instrument on the tip.
(Item 42)
Capturing an image using the camera on the tip,
Displaying the image captured by the camera to the operator
26. The method of item 26.
(Item 43)
42. The method of item 42, further comprising displaying the three-dimensional rendering and the image captured by the camera to a first operator.
(Item 44)
Displaying the 3D rendering to the first operator and
Displaying the image captured by the camera to a second operator
42. The method of item 42.
(Item 45)
Displaying the 3D rendering to the first operator and
Collecting data without using the catheter
Displaying the data collected without the catheter to a second operator
26. The method of item 26.
(Item 46)
Determining the operating load on the tip
If the load on the tip exceeds a predetermined limit, warn the operator.
26. The method of item 26.
(Item 47)
46. The method of item 46, wherein the warning is one of a visual warning, an audio warning, and a tactile warning.
(Item 48)
Observing motor artifacts and
To adjust the position of the tip based on the motion artifact
26. The method of item 26.
(Item 49)
The motion detection system collects feedback control images of patient activity at three separate times at times T1 to T2 to T3, and the images are analyzed at time T4 to determine changes in patient position. 28. The method of item 48, wherein the adjustment of the control input based on the change in patient position observed over time T1 to T3 is performed at time T5.
(Item 50)
The method according to item 49, wherein when (T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2).
(Item 51)
It ’s a patient visibility system.
A catheter with a lumen and a tip,
A tip tracking device that detects the movement of the tip,
With a projector
An optical waveguide connected to the projector,
With the processor
A computer-readable medium connected to the processor and
The data storage unit on the computer-readable medium and
A set of instructions stored on the computer-readable medium and executable by the processor.
A catheter tracking system that is connected to the tip tracking device, receives measurements based on movements detected by the tip tracking device, and is based on the measurements of the tip. A catheter tracking system that determines the position and stores the position of the tip in the data storage unit.
A past route computer that stores the past route of the tip in the data storage unit,
A catheter display integrator, the catheter display integrator is a catheter display integrator that displays the past route of the tip together with the position of the tip.
With a set of instructions, including
A patient visibility system.
(Item 52)
The set of instructions
A mesh generator that generates a three-dimensional mesh around the past path of the tip and stores the mesh in the data storage unit, wherein the catheter display integrator displays the mesh together with the position of the tip. Generator
51. The patient visibility system according to item 51.
(Item 53)
A catheter camera within the tip, wherein the catheter camera captures video data.
With more
The set of instructions
A video data receiving unit connected to the catheter camera in the tip so as to receive the video data, wherein the catheter display integrator displays a live video based on the video data.
51. The patient visibility system according to item 51.
(Item 54)
The set of instructions
A predictive route calculator that calculates the future route of the tip based on the position of the tip, and the catheter display integrator is a predictive route calculator that displays the future route.
51. The patient visibility system according to item 51.
(Item 55)
54. The patient visibility system of item 54, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 56)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is 55. The patient visibility system according to item 55, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 57)
A head-mountable frame, wherein the optical waveguide is fixed to the head-mountable frame.
51. The patient visual recognition system according to item 51.
(Item 58)
The patient viewing system according to item 57, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 59)
The projector is a left projector, the optical waveguide is a left optical waveguide, and the eye is the left eye of the viewer.
A right projector connected to the image data receiving unit so as to receive the image data, the right projector generates light in a pattern representing the image data, and a right projector.
A right-light waveguide that allows light from the outer surface of the body to be visible to the viewer so that the viewer can see the outer surface of the body expanded using rendering of the body portion with the right eye. With a right light waveguide connected to the right projector so as to direct light from the right projector to the retina of the right eye of the viewer while being transmitted through the retina of the right eye.
57. The patient visibility system according to item 57.
(Item 60)
The set of instructions
A three-dimensional analyzer connected to the data receiving unit to receive the image data, the three-dimensional analyzer determines the left and right image data sets, and the left and right projectors determine the left and right image data sets, respectively. And the right image data set, the left and right image data sets are different from each other so as to give the viewer the perception of 3D rendering.
59. The patient visibility system according to item 59.
(Item 61)
Further equipped with a head unit detection device for detecting the movement of the head mountable frame, the head unit detection device is further provided.
The set of instructions
A display adjustment algorithm that is connected to the head unit detection device, receives measurements based on movements detected by the head unit detection device, and calculates installation values. Adjustment algorithm and
With a display positioning algorithm that corrects the position of the body part in the view of the eye based on the installation value.
57. The patient visibility system according to item 57.
(Item 62)
The head unit detection device is
A head unit inertial measurement unit (IMU) mounted on the head mountable frame, wherein the head unit IMU includes a motion sensor that detects movement of the head mountable frame.
61. The patient visibility system according to item 61.
(Item 63)
The head unit detection device is
A head unit camera mounted on the head mountable frame, wherein the head unit camera captures an image of an object in the view of the head unit camera to mount the head mountable frame. Head unit camera that detects movement
Including
The set of instructions
The patient visual recognition system according to item 61, comprising an image processing system that analyzes the image and detects the posture position of the head mountable frame.
(Item 64)
With the transmitter
An energy source connected to the transmitter to activate the transmitter, the patient's body is exposed to the transmitter for the transmitter to generate forward waves in a body portion within the body. Energy sources that can be positioned with respect to
A receiver that can be positioned relative to the body to detect the feedback wave from the body part, the feedback wave from the body part responding to the forward wave generated by the transmitter. , With receiver
With more
The set of instructions
A raw data receiving unit that receives raw data of the feedback wave detected by the receiver and stores the raw data in the data storage unit.
An image generation unit that processes the raw data of the feedback wave to generate image data representing an image, and is connected to the data storage unit so as to store the image data in the data storage unit.
An image data receiving unit that receives the image data from the data storage unit, and
A catheter display integrator that combines the position of the tip with the image data, wherein the pattern of light generated by the projector includes the image data and a pattern representing the position of the tip.
31. The patient visibility system according to item 31.
(Item 65)
A computer tomography (CT) scanner
At the base,
The platform for the patient and
A rotor mounted on the base for rotation around the patient, the transmitter is an X-ray transmitter that is fixed to the rotor and transmits an X-ray wave, and is a receiver. The machine is an X-ray detector fixed to the rotor so as to detect the X-ray wave, and the movement of the platform with respect to the base extends from the X-ray transmitter to the X-ray detector. With a rotor that allows the patient to move relative to a plane
Including Computer Tomography (CT) Scanner
64. The patient visual recognition system according to item 64.
(Item 66)
51. The patient visibility system of item 51, further comprising an invasive surgical tool on the tip.
(Item 67)
With the camera on the tip
With at least one display for displaying the image captured by the camera to the operator
51. The patient visual recognition system according to item 51.
(Item 68)
The patient viewing system according to item 67, wherein the first display displays the three-dimensional rendering and the image captured by the camera to a first operator.
(Item 69)
The first display displays the three-dimensional rendering to the first operator.
A second display that displays the image captured by the camera to a second operator.
67. The patient visibility system according to item 67.
(Item 70)
A first display for displaying the three-dimensional rendering to the first operator, and
A data collection system that collects data without using the catheter,
With a second display for displaying the data collected using the data collection system to a second operator.
51. The patient visual recognition system according to item 51.
(Item 71)
A load detection system connected to the tip to determine the operating load on the tip,
With a warning system connected to the load detection system to warn the operator when the load on the tip exceeds a predetermined limit.
51. The patient visual recognition system according to item 51.
(Item 72)
The patient visibility system according to item 71, wherein the warning is one of a visual warning, an audio warning, and a tactile warning.
(Item 73)
A motion detection system for observing motion artifacts,
With a position adjustment system connected to the motion detection system to adjust the position of the tip based on the motion artifact.
51. The patient visual recognition system according to item 51.
(Item 74)
The motion detection system collects feedback control images of patient activity at three separate times at times T1-T2-T3, and the images are analyzed at time T4 to determine changes in patient position. The patient visual recognition system of item 73, wherein the adjustment of the control input based on the change in patient position observed over time T1 to T3 is performed at time T5.
(Item 75)
(T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2), according to item 74.
(Item 76)
It ’s a way to see the patient.
Inserting the tip of the catheter into the patient's body
Using a tip tracking device to detect the movement of the tip,
Receiving measurements based on the movement detected by the advanced tracking device,
Determining the position of the tip based on the measured value,
To memorize the position of the tip and
Determining the left and right image datasets based on the tip position
Using left and right projectors that project the left and right image datasets as light, respectively, to generate light in a pattern that represents the position of the tip.
Directing the light to the retinas of the left and right eyes of the viewer so that the viewer can see the position of the tip, the left and right image datasets perceive the perception of three-dimensional rendering. Different from each other to give to others,
To store the past route of the tip in the data storage unit,
To display the past route of the tip together with the position of the tip
Including methods.
(Item 77)
To generate a three-dimensional mesh around the past path at the tip,
To store the mesh in the data storage unit and the catheter display integrator,
To display the mesh together with the position of the tip
76. The method of item 76.
(Item 78)
Using the catheter camera in the tip, capturing video data and
Receiving the video data, the catheter display integrator displays a live video based on the video data.
To display a live video based on the video data
76. The method of item 76.
(Item 79)
The set of instructions
To calculate the future path of the tip based on the position of the tip,
To display the future route
76. The method of item 76.
(Item 80)
79. The method of item 79, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 81)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is The method of item 80, wherein the second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 82)
The head mountable frame is mounted on the viewer's head, and the optical waveguide is fixed to the head mountable frame.
76. The method of item 76.
(Item 83)
82. The method of item 82, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 84)
The eye is the left eye of the viewer,
The light is transmitted while the light from the outer surface of the body is transmitted through the retina of the right eye so that the viewer can see the outer surface of the body expanded by using the rendering of the body part with the right eye. To the retina of the right eye of the viewer
82. The method of item 82.
(Item 85)
Determining the left and right image datasets, the left and right image datasets being different from each other to give the viewer the perception of 3D rendering.
84. The method of item 84.
(Item 86)
Detecting the movement of the head-mountable frame and
To calculate the installation value based on the detected movement,
Correcting the position of the body part in the view of the eye based on the placement value
82. The method of item 82.
(Item 87)
86. The method of item 86, wherein the movement is detected using a motion sensor of a head unit inertial measurement unit (IMU) mounted on the head mountable frame.
(Item 88)
The movement is detected by using a head unit camera mounted on the head mountable frame, and the head unit camera captures an image of an object in the view of the head unit camera. Detects the movement of the frame that can be mounted on the head,
Analyzing the image to detect the posture position of the frame that can be mounted on the head.
86. The method of item 86.
(Item 89)
Activating the transmitter to generate a forward wave in the body part within the body,
The receiver is used to detect the feedback wave from the body part, and the feedback wave from the body part responds to the forward wave generated by the transmitter.
Receiving the raw data of the feedback wave detected by the receiver,
To store the raw data in the data storage unit,
By processing the raw data of the feedback wave to generate image data representing an image,
To store the image data in the data storage unit,
Receiving the image data from the data storage unit and
By combining the position of the tip with the image data, the generated pattern of light includes the image data and a pattern representing the position of the tip.
76. The method of item 76.
(Item 90)
The transmitter is an X-ray transmitter that is fixed to a rotor and transmits an X-ray wave, and the receiver is an X-ray detector that is fixed to the rotor so as to detect the X-ray wave. 89. The method of item 89, wherein the movement of the platform with respect to the base allows the movement of the patient with respect to a plane extending from the X-ray transmitter to the X-ray detector.
(Item 91)
76. The method of item 76, further comprising performing an invasive procedure using the invasive surgical instrument on the tip.
(Item 92)
Capturing an image using the camera on the tip,
Displaying the image captured by the camera to the operator
76. The method of item 76.
(Item 93)
92. The method of item 92, further comprising displaying the three-dimensional rendering and the image captured by the camera to a first operator.
(Item 94)
Displaying the 3D rendering to the first operator and
Displaying the image captured by the camera to a second operator
92. The method of item 92.
(Item 95)
Displaying the 3D rendering to the first operator and
Collecting data without using the catheter
Displaying the data collected without the catheter to a second operator
76. The method of item 76.
(Item 96)
Determining the operating load on the tip
If the load on the tip exceeds a predetermined limit, warn the operator.
76. The method of item 76.
(Item 97)
The method of item 96, wherein the warning is one of a visual warning, an audio warning, and a tactile warning.
(Item 98)
Observing motor artifacts and
To adjust the position of the tip based on the motion artifact
76. The method of item 76.
(Item 99)
The motion detection system collects feedback control images of patient activity at three separate times at times T1 to T2 to T3, and the images are analyzed at time T4 to determine changes in patient position. The method of item 98, wherein the adjustment of the control input based on the change in patient position observed over time T1 to T3 is performed at time T5.
(Item 100)
The method according to item 99, wherein when (T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2).
(Item 101)
It ’s a patient visibility system.
A catheter with a lumen and a tip,
A tip tracking device that detects the movement of the tip,
With a projector
An optical waveguide connected to the projector,
With the processor
A computer-readable medium connected to the processor and
The data storage unit on the computer-readable medium and
A set of instructions stored on the computer-readable medium and executable by the processor.
A catheter tracking system that is connected to the tip tracking device, receives measurements based on movements detected by the tip tracking device, and is based on the measurements of the tip. A catheter tracking system that determines the position and stores the position of the tip in the data storage unit.
A predictive route calculator that calculates the future route of the tip based on the position of the tip, and the catheter display integrator is a predictive route calculator that displays the future route.
A catheter display integrator, the catheter display integrator is a catheter display integrator that displays the position of the tip as well as the future route of the tip.
With a set of instructions, including
A patient visibility system.
(Item 102)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is The patient visibility system according to item 101, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 103)
The patient visibility system of item 101, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 104)
A catheter camera within the tip, wherein the catheter camera captures video data.
With more
The set of instructions
A video data receiving unit connected to the catheter camera in the tip so as to receive the video data, wherein the catheter display integrator displays a live video based on the video data.
101. The patient visual recognition system according to item 101.
(Item 105)
The set of instructions
A past route calculator that calculates the past route of the tip based on the position of the tip, and the catheter display integrator is a past route calculator that displays the future route.
101. The patient visual recognition system according to item 101.
(Item 106)
The set of instructions
A mesh generator that generates a three-dimensional mesh around the past path of the tip and stores the mesh in the data storage unit, wherein the catheter display integrator displays the mesh together with the position of the tip. Generator
105. The patient visibility system according to item 105.
(Item 107)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is The patient visibility system according to item 106, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 108)
A head-mountable frame, wherein the optical waveguide is fixed to the head-mountable frame.
101. The patient visual recognition system according to item 101.
(Item 109)
The patient viewing system according to item 108, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 110)
The projector is a left projector, the optical waveguide is a left optical waveguide, and the eye is the left eye of the viewer.
A right projector connected to the image data receiving unit so as to receive the image data, the right projector generates light in a pattern representing the image data, and a right projector.
A right-light waveguide that allows light from the outer surface of the body to be visible to the viewer so that the viewer can see the outer surface of the body expanded using rendering of the body portion with the right eye. With a right light waveguide connected to the right projector so as to direct light from the right projector to the retina of the right eye of the viewer while being transmitted through the retina of the right eye.
108. The patient visibility system according to item 108.
(Item 111)
The set of instructions
A three-dimensional analyzer connected to the data receiving unit to receive the image data, the three-dimensional analyzer determines the left and right image data sets, and the left and right projectors determine the left and right image data sets, respectively. And the right image data set, the left and right image data sets are different from each other so as to give the viewer the perception of 3D rendering.
110. The patient visibility system according to item 110.
(Item 112)
Further equipped with a head unit detection device for detecting the movement of the head mountable frame, the head unit detection device is further provided.
The set of instructions
A display adjustment algorithm that is connected to the head unit detection device, receives measurements based on movements detected by the head unit detection device, and calculates installation values. Adjustment algorithm and
With a display positioning algorithm that corrects the position of the body part in the view of the eye based on the installation value.
108. The patient visibility system according to item 108.
(Item 113)
The head unit detection device is
A head unit inertial measurement unit (IMU) mounted on the head mountable frame, wherein the head unit IMU includes a motion sensor that detects movement of the head mountable frame.
112. The patient visibility system according to item 112.
(Item 114)
The head unit detection device is
A head unit camera mounted on the head mountable frame, wherein the head unit camera captures an image of an object in the view of the head unit camera to mount the head mountable frame. Head unit camera that detects movement
Including
The set of instructions
The patient viewing system according to item 112, comprising an image processing system that analyzes the image and detects the posture position of the head mountable frame.
(Item 115)
With the transmitter
An energy source connected to the transmitter to activate the transmitter, the patient's body is exposed to the transmitter for the transmitter to generate forward waves in a body portion within the body. Energy sources that can be positioned with respect to
A receiver that can be positioned relative to the body to detect the feedback wave from the body part, the feedback wave from the body part responding to the forward wave generated by the transmitter. , With receiver
With more
The set of instructions
A raw data receiving unit that receives raw data of the feedback wave detected by the receiver and stores the raw data in the data storage unit.
An image generation unit, which processes the raw data of the feedback wave to generate image data representing an image, and stores the image data in the data storage unit. The image generation unit connected to the unit and
An image data receiving unit that receives the image data from the data storage unit, and
A catheter display integrator that combines the position of the tip with the image data, wherein the pattern of light generated by the projector includes the image data and a pattern representing the position of the tip.
1011. The patient visibility system according to item 1011.
(Item 116)
A computer tomography (CT) scanner
At the base,
The platform for the patient and
A rotor mounted on the base for rotation around the patient, the transmitter is an X-ray transmitter fixed to the rotor and transmitting an X-ray wave, and the receiver. Is an X-ray detector fixed to the rotor so as to detect the X-ray wave, and the movement of the platform with respect to the base extends from the X-ray transmitter to the X-ray detector. With a rotor that allows the patient to move with respect to
Including Computer Tomography (CT) Scanner
115. The patient visibility system according to item 115.
(Item 118)
With the camera on the tip
With at least one display for displaying the image captured by the camera to the operator
101. The patient visual recognition system according to item 101.
(Item 119)
The patient viewing system according to item 118, wherein the first display displays the three-dimensional rendering and the image captured by the camera to a first operator.
(Item 120)
The first display displays the three-dimensional rendering to the first operator.
A second display that displays the image captured by the camera to a second operator.
The patient visibility system according to item 118, further comprising.
(Item 121)
A first display for displaying the three-dimensional rendering to the first operator, and
A data collection system that collects data without using the catheter,
With a second display for displaying the data collected using the data collection system to a second operator.
101. The patient visual recognition system according to item 101.
(Item 122)
A load detection system connected to the tip to determine the operating load on the tip,
With a warning system connected to the load detection system to warn the operator when the load on the tip exceeds a predetermined limit.
101. The patient visual recognition system according to item 101.
(Item 123)
The patient visibility system according to item 122, wherein the warning is one of a visual warning, an audio warning, and a tactile warning.
(Item 124)
A motion detection system for observing motion artifacts,
With a position adjustment system connected to the motion detection system to adjust the position of the tip based on the motion artifact.
101. The patient visual recognition system according to item 101.
(Item 125)
The motion detection system collects feedback control images of patient activity at three separate times at times T1 to T2 to T3, and the images are analyzed at time T4 to determine changes in patient position. The patient visual recognition system of item 124, wherein the adjustment of the control input based on the change in patient position observed over time T1 to T3 is performed at time T5.
(Item 126)
(T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2), according to item 125.
(Item 127)
It ’s a way to see the patient.
Inserting the tip of the catheter into the patient's body
Using a tip tracking device to detect the movement of the tip,
Receiving measurements based on the movement detected by the advanced tracking device,
Determining the position of the tip based on the measured value,
To memorize the position of the tip and
Determining the left and right image datasets based on the tip position
Using left and right projectors that project the left and right image datasets as light, respectively, to generate light in a pattern that represents the position of the tip.
Directing the light to the retinas of the left and right eyes of the viewer so that the viewer can see the position of the tip, the left and right image datasets perceive the perception of three-dimensional rendering. Different from each other to give to others,
To calculate the future path of the tip based on the position of the tip,
To display the future route of the tip along with the position of the tip.
Including methods.
(Item 128)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is 127, the method of item 127, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 129)
The method of item 127, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 130)
Using the catheter camera in the tip, capturing video data and
Receiving the video data, the catheter display integrator displays a live video based on the video data.
To display a live video based on the video data
127. The method of item 127.
(Item 131)
The set of instructions
To store the past route of the tip in the data storage unit,
To display the past route of the tip together with the position of the tip
127. The method of item 127.
(Item 132)
To generate a three-dimensional mesh around the past path at the tip,
To store the mesh in the data storage unit and the catheter display integrator,
To display the mesh together with the position of the tip
131. The method of item 131, further comprising.
(Item 133)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is The method of item 132, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 134)
The head mountable frame is mounted on the viewer's head, and the optical waveguide is fixed to the head mountable frame.
127. The method of item 127.
(Item 135)
The method of item 134, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 136)
The eye is the left eye of the viewer,
The light is transmitted while the light from the outer surface of the body is transmitted through the retina of the right eye so that the viewer can see the outer surface of the body expanded by using the rendering of the body part with the right eye. To the retina of the right eye of the viewer
134. The method of item 134, further comprising.
(Item 137)
Determining the left and right image datasets, the left and right image datasets being different from each other to give the viewer the perception of 3D rendering.
136. The method of item 136.
(Item 138)
Detecting the movement of the head-mountable frame and
To calculate the installation value based on the detected movement,
Correcting the position of the body part in the view of the eye based on the placement value
134. The method of item 134, further comprising.
(Item 139)
138. The method of item 138, wherein the movement is detected using a motion sensor of a head unit inertial measurement unit (IMU) mounted on the head mountable frame.
(Item 140)
The movement is detected by using a head unit camera mounted on the head mountable frame, and the head unit camera captures an image of an object in the view of the head unit camera. Detects the movement of the frame that can be mounted on the head,
Analyzing the image to detect the posture position of the frame that can be mounted on the head.
138. The method of item 138.
(Item 141)
Activating the transmitter to generate a forward wave in the body part within the body,
The receiver is used to detect the feedback wave from the body part, and the feedback wave from the body part responds to the forward wave generated by the transmitter.
Receiving the raw data of the feedback wave detected by the receiver,
To store the raw data in the data storage unit,
By processing the raw data of the feedback wave to generate image data representing an image,
To store the image data in the data storage unit,
Receiving the image data from the data storage unit and
By combining the position of the tip with the image data, the generated pattern of light includes the image data and a pattern representing the position of the tip.
127. The method of item 127.
(Item 142)
The transmitter is an X-ray transmitter that is fixed to a rotor and transmits an X-ray wave, and the receiver is an X-ray detector that is fixed to the rotor so as to detect the X-ray wave. 141. The method of item 141, wherein the movement of the platform with respect to the base allows the movement of the patient with respect to a plane extending from the X-ray transmitter to the X-ray detector.
(Item 143)
127. The method of item 127, further comprising performing an invasive procedure using the invasive surgical instrument on the tip.
(Item 144)
Capturing an image using the camera on the tip,
Displaying the image captured by the camera to the operator
127. The method of item 127.
(Item 145)
Displaying the 3D rendering and the image captured by the camera to a first operator.
144. The method of item 144, further comprising.
(Item 146)
Displaying the 3D rendering to the first operator and
Displaying the image captured by the camera to a second operator
144. The method of item 144, further comprising.
(Item 147)
Displaying the 3D rendering to the first operator and
Collecting data without using the catheter
Displaying the data collected without the catheter to a second operator
127. The method of item 127.
(Item 148)
Determining the operating load on the tip
If the load on the tip exceeds a predetermined limit, warn the operator.
127. The method of item 127.
(Item 149)
148. The method of item 148, wherein the warning is one of a visual warning, an audio warning, and a tactile warning.
(Item 150)
Observing motor artifacts and
To adjust the position of the tip based on the motion artifact
127. The method of item 127.
(Item 151)
The motion detection system collects feedback control images of patient activity at three separate times at times T1 to T2 to T3, and the images are analyzed at time T4 to determine changes in patient position. The method of item 150, wherein the adjustment of the control input based on the change in patient position observed over time T1 to T3 is performed at time T5.
(Item 152)
The method according to item 151, wherein when (T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2).
(Item 153)
With the transmitter
An energy source connected to the transmitter to activate the transmitter, the patient's body is exposed to the transmitter for the transmitter to generate forward waves in a body portion within the body. Energy sources that can be positioned with respect to
A receiver that can be positioned relative to the body to detect the feedback wave from the body part, the feedback wave from the body part responding to the forward wave generated by the transmitter. , Receiver and
With the processor
A computer-readable medium connected to the processor and
The data storage unit on the computer-readable medium and
A set of instructions stored on the computer-readable medium and executable by the processor.
A raw data receiving unit that receives raw data of the feedback wave detected by the receiver and stores the raw data in the data storage unit.
An image generation unit, which processes the raw data of the feedback wave to generate image data representing an image, and stores the image data in the data storage unit. The image generation unit connected to the unit and
An image data receiving unit that receives the image data from the data storage unit, and
A projector connected to the image data receiving unit so as to receive the image data, wherein the projector generates light in a pattern representing the image data.
An optical waveguide, in which light from the outer surface of the body is transmitted through the retina of the eye so that the viewer can see the outer surface of the body expanded by using the rendering of the body part. With an optical waveguide connected to the projector so as to direct the light to the retina of the viewer's eye while
With a set of instructions, including
A patient visibility system.
(Item 154)
A head-mountable frame, wherein the optical waveguide is fixed to the head-mountable frame.
153. The patient visual recognition system according to item 153.
(Item 155)
154. The patient visibility system according to item 154, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 156)
The projector is a left projector, the optical waveguide is a left optical waveguide, and the eye is the left eye of the viewer.
A right projector connected to the image data receiving unit so as to receive the image data, the right projector generates light in a pattern representing the image data, and a right projector.
A right-light waveguide that allows light from the outer surface of the body to be visible to the viewer so that the viewer can see the outer surface of the body expanded using rendering of the body portion with the right eye. With a right light waveguide connected to the right projector so as to direct light from the right projector to the retina of the right eye of the viewer while being transmitted through the retina of the right eye.
154. The patient visual recognition system according to item 154.
(Item 157)
The set of instructions
A three-dimensional analyzer connected to the data receiving unit to receive the image data, the three-dimensional analyzer determines the left and right image data sets, and the left and right projectors determine the left and right image data sets, respectively. And the right image data set, the left and right image data sets are different from each other so as to give the viewer the perception of 3D rendering.
156. The patient visibility system according to item 156.
(Item 158)
It further comprises a head unit detection device that detects the movement of the head mountable frame, the set of instructions.
A display adjustment algorithm that is connected to the head unit detection device, receives measurements based on movements detected by the head unit detection device, and calculates installation values. Adjustment algorithm and
With a display positioning algorithm that corrects the position of the body part in the view of the eye based on the installation value.
154. The patient visibility system according to item 154.
(Item 159)
The head unit detection device is
A head unit inertial measurement unit (IMU) mounted on the head mountable frame, wherein the head unit IMU includes a motion sensor that detects movement of the head mountable frame.
158. The patient visibility system according to item 158.
(Item 160)
The head unit detection device is
A head unit camera mounted on the head mountable frame, wherein the head unit camera captures an image of an object in the view of the head unit camera to mount the head mountable frame. Head unit camera that detects movement
Including
The set of instructions
An image processing system that analyzes the image and detects the posture position of the frame that can be mounted on the head.
158. The patient visibility system according to item 158.
(Item 161)
A computer tomography (CT) scanner
At the base,
The platform for the patient and
A rotor mounted on the base for rotation around the patient, the transmitter is an X-ray transmitter that is fixed to the rotor and transmits an X-ray wave, and is a receiver. The machine is an X-ray detector fixed to the rotor so as to detect the X-ray wave, and the movement of the platform with respect to the base extends from the X-ray transmitter to the X-ray detector. With a rotor that allows the patient to move relative to a plane
Including Computer Tomography (CT) Scanner
158. The patient visibility system according to item 158.
(Item 162)
A catheter with a lumen and a tip,
With a tip tracking device that detects the movement of the tip
With more
The set of instructions
A catheter tracking system that is connected to the tip tracking device, receives measurements based on movements detected by the tip tracking device, and is based on the measurements of the tip. Catheter tracking system and positioning system
A catheter display integrator that combines the position of the tip with the image data, wherein the pattern of light generated by the projector includes the image data and a pattern representing the position of the tip.
153. The patient visibility system according to item 153.
(Item 163)
The set of instructions
A past route calculator that stores the past route of the tip in the data storage unit, and the catheter display integrator displays the past route of the tip together with the position of the tip.
162. The patient visibility system according to item 162.
(Item 164)
The set of instructions
A past route computer that stores the past route at the tip,
A mesh generator that generates a three-dimensional mesh around the past path of the tip and stores the mesh in the data storage unit, wherein the catheter display integrator displays the mesh together with the position of the tip. With the generator
162. The patient visibility system according to item 162.
(Item 165)
A catheter camera within the tip, wherein the catheter camera captures video data.
With more
The set of instructions
A video data receiving unit connected to the catheter camera in the tip so as to receive the video data, wherein the catheter display integrator displays a live video based on the video data.
164. The patient visibility system according to item 164.
(Item 166)
The set of instructions
A predictive route calculator that calculates the future route of the tip based on the position of the tip, and the catheter display integrator is a predictive route calculator that displays the future route.
162. The patient visibility system according to item 162.
(Item 167)
166. The patient visibility system of item 166, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 168)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is 167. The patient visibility system according to item 167, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.
(Item 169)
It ’s a way to see the patient.
Activating the transmitter to generate forward waves in body parts of the body,
The receiver is used to detect the feedback wave from the body part, and the feedback wave from the body part responds to the forward wave generated by the transmitter.
Receiving the raw data of the feedback wave detected by the receiver,
To store the raw data in the data storage unit,
By processing the raw data of the feedback wave to generate image data representing an image,
To store the image data in the data storage unit,
Receiving the image data from the data storage unit and
To generate light with a pattern representing the image data,
While the light from the outer surface of the body is transmitted through the retina of the eye so that the viewer can see the outer surface of the body expanded by using the rendering of the body part, the light is transmitted to the eye of the viewer. To guide to the retina of
Including methods.
(Item 170)
The head mountable frame is mounted on the viewer's head, and the optical waveguide is fixed to the head mountable frame.
169. The method of item 169.
(Item 171)
The method of item 170, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body.
(Item 172)
The eye is the left eye of the viewer,
The light is transmitted while the light from the outer surface of the body is transmitted through the retina of the right eye so that the viewer can see the outer surface of the body expanded by using the rendering of the body part with the right eye. To the retina of the right eye of the viewer
170. The method of item 170.
(Item 173)
Determining the left and right image datasets, the left and right image datasets being different from each other to give the viewer the perception of 3D rendering.
172. The method of item 172.
(Item 174)
Detecting the movement of the head-mountable frame and
To calculate the installation value based on the detected movement,
Correcting the position of the body part in the view of the eye based on the placement value
170. The method of item 170.
(Item 175)
174. The method of item 174, wherein the movement is detected using a motion sensor of a head unit inertial measurement unit (IMU) mounted on the head mountable frame.
(Item 176)
The movement is detected by using a head unit camera mounted on the head mountable frame, and the head unit camera captures an image of an object in the view of the head unit camera. Detects the movement of the frame that can be mounted on the head,
Analyzing the image to detect the posture position of the frame that can be mounted on the head.
174. The method of item 174.
(Item 177)
The transmitter is an X-ray transmitter that is fixed to a rotor and transmits an X-ray wave, and the receiver is an X-ray detector that is fixed to the rotor so as to detect the X-ray wave. 174. The method of item 174, wherein the movement of the platform with respect to the base allows the movement of the patient with respect to a plane extending from the X-ray transmitter to the X-ray detector.
(Item 178)
Inserting the tip of the catheter into the patient's body
Using a tip tracking device to detect the movement of the tip,
Receiving measurements based on the movement detected by the advanced tracking device,
Determining the position of the tip based on the measured value,
By combining the position of the tip with the image data, the generated pattern of light includes the image data and a pattern representing the position of the tip.
179. The method of item 179.
(Item 179)
To store the past route of the tip in the data storage unit,
To display the past route of the tip together with the position of the tip
178. The method of item 178.
(Item 180)
To generate a three-dimensional mesh around the past path at the tip,
To store the mesh in the data storage unit and the catheter display integrator,
To display the mesh together with the position of the tip
178. The method of item 178.
(Item 181)
Using the catheter camera in the tip, capturing video data and
Receiving the video data, the catheter display integrator displays a live video based on the video data.
To display a live video based on the video data
180. The method of item 180.
(Item 182)
The set of instructions
To calculate the future path of the tip based on the position of the tip,
To display the future route
178. The method of item 178.
(Item 183)
182. The method of item 182, wherein the future route is calculated based on the movement detected by the tip tracking device.
(Item 184)
The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is 183. The method of item 183, which is a second amount of movement from the second position to the third position through the second angle in the selected direction.

Claims (25)

患者視認システムであって、
管腔と、先端とを有するカテーテルと、
前記先端の移動を検出する先端追跡デバイスと、
左および右プロジェクタと、
前記左および右プロジェクタに接続される左および右光導波管と、
プロセッサと、
前記プロセッサに接続されるコンピュータ可読媒体と、
前記コンピュータ可読媒体上のデータ記憶部と、
前記データ記憶部上に記憶される画像データと、
前記コンピュータ可読媒体上に記憶され、前記プロセッサによって実行可能である命令のセットであって、
前記先端追跡デバイスに接続されるカテーテル追跡システムであって、前記カテーテル追跡システムは、前記先端追跡デバイスによって検出される移動に基づいて、測定値を受信し、前記測定値に基づいて、前記先端の位置を決定し、前記データ記憶部内に前記先端の位置を記憶する、カテーテル追跡システムと、
前記画像データを受信するように前記データ記憶部に接続される立体分析器であって、前記立体分析器は、左および右画像データセットを決定し、前記左および右プロジェクタは、それぞれ、前記左および右画像データセットを投影し、前記左および右画像データセットは、3次元レンダリングの知覚を視認者に与えるように相互と異なる、立体分析器と
を含む、命令のセットと
を備える、患者視認システム。
It ’s a patient visibility system.
A catheter with a lumen and a tip,
A tip tracking device that detects the movement of the tip,
With left and right projectors,
The left and right optical waveguides connected to the left and right projectors,
With the processor
A computer-readable medium connected to the processor and
The data storage unit on the computer-readable medium and
The image data stored in the data storage unit and
A set of instructions stored on the computer-readable medium and executable by the processor.
A catheter tracking system connected to the tip tracking device, the catheter tracking system receiving measurements based on the movement detected by the tip tracking device and based on the measurements of the tip. A catheter tracking system that determines the position and stores the position of the tip in the data storage unit.
A three-dimensional analyzer connected to the data storage unit to receive the image data, the three-dimensional analyzer determines the left and right image data sets, and the left and right projectors determine the left and right image data sets, respectively. And projecting the right image data set, said left and right image data sets are different from each other to give the viewer the perception of 3D rendering, with a set of instructions, including a stereoanalyst, patient visibility. system.
頭部搭載可能フレームであって、前記光導波管は、前記頭部搭載可能フレームに固着される、頭部搭載可能フレーム
をさらに備える、請求項1に記載の患者視認システム。
The patient viewing system according to claim 1, wherein the optical waveguide is a head-mountable frame, further comprising a head-mountable frame that is fixed to the head-mountable frame.
前記光導波管は、眼と身体の外面との間に位置付けられる透明光導波管である、請求項2に記載の患者視認システム。 The patient visual recognition system according to claim 2, wherein the optical waveguide is a transparent optical waveguide located between the eye and the outer surface of the body. 前記頭部搭載可能フレームの移動を検出する頭部ユニット検出デバイスをさらに備え、
前記命令のセットは、
前記頭部ユニット検出デバイスに接続され、前記頭部ユニット検出デバイスによって検出される移動に基づいて測定値を受信し、設置値を計算する表示調節アルゴリズムと、
前記設置値に基づいて、前記眼のビュー内の前記身体部分の位置を修正する表示位置付けアルゴリズムと
を含む、請求項2または請求項3に記載の患者視認システム。
Further equipped with a head unit detection device for detecting the movement of the head mountable frame, the head unit detection device is further provided.
The set of instructions
A display adjustment algorithm that is connected to the head unit detection device, receives measurements based on movements detected by the head unit detection device, and calculates installation values.
The patient visibility system according to claim 2 or 3 , comprising a display positioning algorithm that corrects the position of the body part in the view of the eye based on the placement value.
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニット慣性測定ユニット(IMU)であって、前記頭部ユニットIMUは、前記頭部搭載可能フレームの移動を検出する運動センサを含む、頭部ユニットIMU
を含む、請求項4に記載の患者視認システム。
The head unit detection device is
A head unit inertial measurement unit (IMU) mounted on the head mountable frame, wherein the head unit IMU includes a motion sensor that detects movement of the head mountable frame.
4. The patient visual recognition system according to claim 4.
前記頭部ユニット検出デバイスは、
前記頭部搭載可能フレームに搭載される頭部ユニットカメラであって、前記頭部ユニットカメラは、前記頭部ユニットカメラのビュー内の物体の画像を撮影することによって前記頭部搭載可能フレームの移動を検出する、頭部ユニットカメラ
を含む、請求項4または請求項5に記載の患者視認システム。
The head unit detection device is
A head unit camera mounted on the head mountable frame, wherein the head unit camera moves the head mountable frame by capturing an image of an object in the view of the head unit camera. The patient viewing system according to claim 4 or 5 , comprising a head unit camera that detects.
前記命令のセットは、前記画像を分析し、前記頭部搭載可能フレームの姿勢位置を検出する画像処理システムを含む、請求項6に記載の患者視認システム。 The patient viewing system according to claim 6, wherein the set of instructions includes an image processing system that analyzes the image and detects the posture position of the head mountable frame. 伝送機と、
前記伝送機をアクティブ化するように前記伝送機に接続されるエネルギー源であって、患者の身体は、前記伝送機が前記身体内の身体部分において前進波を発生させるために、前記伝送機に対して位置付け可能である、エネルギー源と、
前記身体部分からの帰還波を検出するように前記身体に対して位置付け可能である受信機であって、前記身体部分からの前記帰還波は、前記伝送機によって生成される前記前進波に応答する、受信機と
をさらに備え、
前記命令のセットは、
前記受信機によって検出される前記帰還波の未加工データを受信し、前記データ記憶部内に前記未加工データを記憶する未加工データ受信ユニットと、
前記帰還波の未加工データを処理して、画像を表す画像データを生成し、前記データ記憶部内に前記画像データを記憶するように前記データ記憶部に接続される画像発生ユニットと、
前記データ記憶部から前記画像データを受信する画像データ受信ユニットと、
前記先端の位置を前記画像データと組み合わせるカテーテル表示インテグレータであって、前記プロジェクタによって生成される前記光のパターンは、前記画像データおよび前記先端の位置を表すパターンを含む、カテーテル表示インテグレータと
を含む、請求項1~7のいずれか一項に記載の患者視認システム。
With the transmitter
An energy source connected to the transmitter to activate the transmitter, the patient's body is exposed to the transmitter for the transmitter to generate forward waves in a body portion within the body. Energy sources that can be positioned with respect to
A receiver that can be positioned relative to the body to detect the feedback wave from the body part, the feedback wave from the body part responding to the forward wave generated by the transmitter. , With a receiver,
The set of instructions
A raw data receiving unit that receives raw data of the feedback wave detected by the receiver and stores the raw data in the data storage unit.
An image generation unit that processes the raw data of the feedback wave to generate image data representing an image, and is connected to the data storage unit so as to store the image data in the data storage unit.
An image data receiving unit that receives the image data from the data storage unit, and
A catheter display integrator that combines the position of the tip with the image data, wherein the pattern of light generated by the projector includes a catheter display integrator that includes the image data and a pattern representing the position of the tip. The patient visual recognition system according to any one of claims 1 to 7 .
コンピュータ断層撮影(CT)スキャナであって、
基部と、
前記患者のためのプラットフォームと、
前記患者を中心とした回転のために前記基部に搭載される回転子であって、前記伝送機は、前記回転子に固着され、X線波を伝送する、X線伝送機であり、前記受信機は、前記X線波を検出するように前記回転子に固着されるX線検出器であり、前記基部に対する前記プラットフォームの移動は、前記X線伝送機から前記X線検出器まで延在する平面に対して前記患者の移動を可能にする、回転子と
を含む、コンピュータ断層撮影(CT)スキャナ
を備える、請求項8に記載の患者視認システム。
A computer tomography (CT) scanner
At the base,
The platform for the patient and
A rotor mounted on the base for rotation centered on the patient, the transmitter is an X-ray transmitter that is fixed to the rotor and transmits an X-ray wave, and is a receiver. The machine is an X-ray detector fixed to the rotor so as to detect the X-ray wave, and the movement of the platform with respect to the base extends from the X-ray transmitter to the X-ray detector. The patient viewing system of claim 8, comprising a computer tomography (CT) scanner that includes a rotor that allows the patient to move relative to a plane.
前記命令のセットは、
前記データ記憶部内に前記先端の過去経路を記憶する過去経路計算機であってカテーテル表示インテグレータは、前記先端の位置とともに前記先端の過去経路を表示する、過去経路計算機
を含む、請求項1~9のいずれか一項に記載の患者視認システム。
The set of instructions
Claims 1 to 9 , further comprising a past route calculator that stores the past route of the tip in the data storage unit, wherein the catheter display integrator displays the past route of the tip together with the position of the tip. The patient visual recognition system according to any one of the above.
前記命令のセットは、
前記先端の過去経路を記憶する過去経路計算機と、
前記先端の過去経路の周囲に3次元メッシュを発生させ、前記データ記憶部内に前記メッシュを記憶するメッシュ発生器であってカテーテル表示インテグレータは、前記先端の位置とともに前記メッシュを表示する、メッシュ発生器と
を含む、請求項1~9のいずれか一項に記載の患者視認システム。
The set of instructions
A past route computer that stores the past route at the tip,
A mesh generator that generates a three-dimensional mesh around the past path of the tip and stores the mesh in the data storage unit, and the catheter display integrator displays the mesh together with the position of the tip. The patient visual recognition system according to any one of claims 1 to 9 , which includes a vessel.
前記先端内のカテーテルカメラであって、前記カテーテルカメラは、ビデオデータを捕捉する、カテーテルカメラ
をさらに備え、
前記命令のセットは、
前記ビデオデータを受信するように前記先端内の前記カテーテルカメラに接続されるビデオデータ受信ユニットであって、前記カテーテル表示インテグレータは、前記ビデオデータに基づいて、ライブビデオを表示する、ビデオデータ受信ユニット
を含む、請求項11に記載の患者視認システム。
A catheter camera within the tip, said catheter camera further comprising a catheter camera for capturing video data.
The set of instructions
A video data receiving unit connected to the catheter camera in the tip so as to receive the video data, wherein the catheter display integrator displays a live video based on the video data. The patient visual recognition system according to claim 11, further comprising.
前記命令のセットは、
前記先端の位置に基づいて、前記先端の将来の経路を計算する予想経路計算機であってカテーテル表示インテグレータは、前記将来の経路を表示する、予想経路計算機
を含む、請求項1~12のいずれか一項に記載の患者視認システム。
The set of instructions
Any of claims 1 to 12, which is a predictive route calculator that calculates a future route of the tip based on the position of the tip, wherein the catheter display integrator includes a predictive route calculator that displays the future route. The patient visibility system described in item 1 .
前記将来の経路は、前記先端追跡デバイスによって検出される前記移動に基づいて計算される、請求項13に記載の患者視認システム。 13. The patient visibility system of claim 13, wherein the future route is calculated based on the movement detected by the tip tracking device. 前記先端追跡デバイスによって検出される前記移動は、選択された方向への第1の角度を通した第1の位置から第2の位置までの移動の第1の量であり、前記将来の経路は、前記選択された方向への第2の角度を通した前記第2の位置から第3の位置までの移動の第2の量である、請求項14に記載の患者視認システム。 The movement detected by the tip tracking device is a first amount of movement from a first position to a second position through a first angle in a selected direction, and the future path is The patient visibility system according to claim 14, wherein is a second amount of movement from the second position to the third position through the second angle in the selected direction. 前記先端上侵襲性外科手術道具をさらに備える、請求項1~15のいずれか一項に記載の患者視認システム。 The patient visual recognition system according to any one of claims 1 to 15 , further comprising the above-mentioned invasive surgical tool on the tip. 前記先端上のカメラと、
前記カメラによって捕捉される画像をオペレータに表示するための少なくとも1つのディスプレイと
をさらに備える、請求項1~16のいずれか一項に記載の患者視認システム。
With the camera on the tip
The patient viewing system according to any one of claims 1 to 16 , further comprising at least one display for displaying an image captured by the camera to the operator.
第1のディスプレイは、前記3次元レンダリングおよび前記カメラによって捕捉される前記画像を第1のオペレータに表示する、請求項17に記載の患者視認システム。 The patient viewing system according to claim 17, wherein the first display displays the three-dimensional rendering and the image captured by the camera to the first operator. 第1のディスプレイは、前記3次元レンダリングを第1のオペレータに表示し、
前記カメラによって捕捉される前記画像を第2のオペレータに表示する第2のディスプレイ
をさらに備える、請求項17または請求項18に記載の患者視認システム。
The first display displays the three-dimensional rendering to the first operator.
The patient viewing system according to claim 17 or 18 , further comprising a second display for displaying the image captured by the camera to a second operator.
前記3次元レンダリングを第1のオペレータに表示するための第1のディスプレイと、
前記カテーテルを用いることなくデータを収集するデータ収集システムと、
前記データ収集システムを用いて収集される前記データを第2のオペレータに表示するための第2のディスプレイと
をさらに備える、請求項1~19のいずれか一項に記載の患者視認システム。
A first display for displaying the three-dimensional rendering to the first operator, and
A data collection system that collects data without using the catheter,
The patient visual recognition system according to any one of claims 1 to 19 , further comprising a second display for displaying the data collected using the data collection system to a second operator.
前記先端上の動作負荷を決定するように前記先端に接続される負荷検出システムと、
前記先端上の負荷が所定の限界を超える場合、オペレータに警告するように前記負荷検出システムに接続される、警告システムと
をさらに備える、請求項1~20のいずれか一項に記載の患者視認システム。
A load detection system connected to the tip to determine the operating load on the tip,
The patient visibility according to any one of claims 1 to 20 , further comprising a warning system, which is connected to the load detection system to warn the operator when the load on the tip exceeds a predetermined limit. system.
前記警告は、視覚警告、オーディオ警告、および触覚警告のうちの1つである、請求項21に記載の患者視認システム。 The patient visual recognition system according to claim 21, wherein the warning is one of a visual warning, an audio warning, and a tactile warning. 運動アーチファクトを観察するための運動検出システムと、
前記運動アーチファクトに基づいて、前記先端に位置調節を行うように前記運動検出システムに接続される位置調節システムと
をさらに備える、請求項1~22のいずれか一項に記載の患者視認システム。
A motion detection system for observing motion artifacts,
The patient visual recognition system according to any one of claims 1 to 22 , further comprising a position adjusting system connected to the motion detection system so as to adjust the position at the tip based on the motion artifact.
前記運動検出システムは、時間T1~T2~T3における3つの別個の時間において、患者活動のフィードバック制御画像を収集し、前記画像は、患者位置の変化を決定するように、時間T4において分析され、前記時間T1~T3にわたって観察される前記患者位置の変化に基づく前記制御入力の調節は、時間T5において行われる、請求項1~23のいずれか一項に記載の患者視認システム。 The motion detection system collects feedback control images of patient activity at three separate times at times T1 to T2 to T3, and the images are analyzed at time T4 to determine changes in patient position. The patient visual recognition system according to any one of claims 1 to 23 , wherein the adjustment of the control input based on the change in the patient position observed over the time T1 to T3 is performed at the time T5. (T5-T3=T3-T2)∩(y3-y2)<(y2-y1)である場合、T5における補正<(y3-y2)である、請求項24に記載の患者視認システム。
The patient visual recognition system according to claim 24, wherein when (T5-T3 = T3-T2) ∩ (y3-y2) <(y2-y1), the correction in T5 <(y3-y2).
JP2021509779A 2018-08-22 2019-08-22 Patient Visibility System Active JP7487176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023118968A JP2023133406A (en) 2018-08-22 2023-07-21 Patient viewing system

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862721516P 2018-08-22 2018-08-22
US62/721,516 2018-08-22
US201862771534P 2018-11-26 2018-11-26
US62/771,534 2018-11-26
PCT/US2019/047746 WO2020041615A1 (en) 2018-08-22 2019-08-22 Patient viewing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023118968A Division JP2023133406A (en) 2018-08-22 2023-07-21 Patient viewing system

Publications (3)

Publication Number Publication Date
JP2021533919A JP2021533919A (en) 2021-12-09
JPWO2020041615A5 true JPWO2020041615A5 (en) 2022-07-21
JP7487176B2 JP7487176B2 (en) 2024-05-20

Family

ID=69591341

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021509779A Active JP7487176B2 (en) 2018-08-22 2019-08-22 Patient Visibility System
JP2023118968A Pending JP2023133406A (en) 2018-08-22 2023-07-21 Patient viewing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023118968A Pending JP2023133406A (en) 2018-08-22 2023-07-21 Patient viewing system

Country Status (4)

Country Link
EP (1) EP3840645A4 (en)
JP (2) JP7487176B2 (en)
CN (1) CN112955073A (en)
WO (1) WO2020041615A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11510750B2 (en) * 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5251635A (en) 1991-09-03 1993-10-12 General Electric Company Stereoscopic X-ray fluoroscopy system using radiofrequency fields
JP4733809B2 (en) 2000-05-23 2011-07-27 株式会社東芝 Radiation therapy planning device
US20020082498A1 (en) * 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US20040238732A1 (en) * 2001-10-19 2004-12-02 Andrei State Methods and systems for dynamic virtual convergence and head mountable display
US7835785B2 (en) * 2005-10-04 2010-11-16 Ascension Technology Corporation DC magnetic-based position and orientation monitoring system for tracking medical instruments
US20080146942A1 (en) * 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors
US8374673B2 (en) 2007-01-25 2013-02-12 Warsaw Orthopedic, Inc. Integrated surgical navigational and neuromonitoring system having automated surgical assistance and control
US8926511B2 (en) * 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
WO2010065786A1 (en) * 2008-12-03 2010-06-10 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for determining the positioin of the tip of a medical catheter within the body of a patient
JP5380122B2 (en) 2009-03-24 2014-01-08 テルモ株式会社 Medical device
CN103648394B (en) * 2011-06-27 2016-11-16 皇家飞利浦有限公司 Use the real-time 3D angiography of surgical technique and tools curve and the registration of X-ray image
BR112014012955A2 (en) 2011-12-03 2017-06-13 Koninklijke Philips Nv planning system, system having operatively coupled viewports, method for planning a procedure, and method for operationally coupling viewports
WO2013101273A1 (en) * 2011-12-30 2013-07-04 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for detection and avoidance of collisions of robotically-controlled medical devices
JP6232763B2 (en) * 2013-06-12 2017-11-22 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP6252004B2 (en) 2013-07-16 2017-12-27 セイコーエプソン株式会社 Information processing apparatus, information processing method, and information processing system
US11103122B2 (en) * 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150312558A1 (en) * 2014-04-29 2015-10-29 Quentin Simon Charles Miller Stereoscopic rendering to eye positions
JP2017153498A (en) * 2014-06-17 2017-09-07 日本電産コパル電子株式会社 Pressure-sensitive sensor and pressure-sensitive catheter
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9727963B2 (en) 2015-09-18 2017-08-08 Auris Surgical Robotics, Inc. Navigation of tubular networks
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
WO2018085287A1 (en) 2016-11-02 2018-05-11 Intuitive Surgical Operations, Inc. Systems and methods of continuous registration for image-guided surgery
WO2018097831A1 (en) * 2016-11-24 2018-05-31 Smith Joshua R Light field capture and rendering for head-mounted displays
JP6878028B2 (en) 2017-02-07 2021-05-26 キヤノンメディカルシステムズ株式会社 Medical image diagnostic system and mixed reality image generator

Similar Documents

Publication Publication Date Title
JP6902075B2 (en) Line-of-sight tracking using structured light
US10448003B2 (en) System and method for triangulation-based depth and surface visualization
JP5159995B2 (en) Endoscope system
US9427198B2 (en) Live 3D X-ray viewing
US20220057867A1 (en) Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
JP3707830B2 (en) Image display device for surgical support
KR102097390B1 (en) Smart glasses display device based on eye tracking
US20210345856A1 (en) Medical observation system, medical observation apparatus, and medical observation method
KR20150106709A (en) Imaging system for medical image and method of driving the same
WO2021089440A1 (en) Augmented reality headset for medical imaging
JP6747172B2 (en) Diagnosis support device, diagnosis support method, and computer program
US20110218425A1 (en) Medical image generating apparatus, medical image display apparatus, medical image generating method and program
JP2023133406A (en) Patient viewing system
CN113138664A (en) Eyeball tracking system and method based on light field perception
JPH0446570B2 (en)
JPWO2020041615A5 (en)
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
US11850730B2 (en) Double eye tracker configuration for a robot-assisted surgical system
KR20210042784A (en) Smart glasses display device based on eye tracking
JPWO2021097323A5 (en)
US12016719B2 (en) Patient viewing system
WO2020117744A1 (en) Illumination corrected near-infrared (nir) imaging for image guided surgery
JP6379502B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP6140979B2 (en) Ophthalmic imaging apparatus and method
EP4212123A1 (en) Technique for determining a need for a re-registration of a patient tracker tracked by a camera system