JP2009521985A - System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet") - Google Patents

System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet") Download PDF

Info

Publication number
JP2009521985A
JP2009521985A JP2008548472A JP2008548472A JP2009521985A JP 2009521985 A JP2009521985 A JP 2009521985A JP 2008548472 A JP2008548472 A JP 2008548472A JP 2008548472 A JP2008548472 A JP 2008548472A JP 2009521985 A JP2009521985 A JP 2009521985A
Authority
JP
Japan
Prior art keywords
remote
image
user
data
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008548472A
Other languages
Japanese (ja)
Inventor
デル モリノ,ルイス セッラ
チャイア ゴ,リン
ピン ゾウ,ル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bracco Imaging SpA
Original Assignee
Bracco Imaging SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bracco Imaging SpA filed Critical Bracco Imaging SpA
Priority claimed from PCT/SG2007/000002 external-priority patent/WO2007108776A2/en
Publication of JP2009521985A publication Critical patent/JP2009521985A/en
Pending legal-status Critical Current

Links

Images

Abstract

本発明は、3Dデータセットのインタラクティブな可視化に関する。特に、ネットワーク上で多数の当事者によって、1以上の3Dデータセットの協同的なインタラクティブな可視化に関する。この示唆されたシステムは、通信リンク上で、1以上のリモート機の1以上のリモートプローブの位置データを受信し、1つのリモートプローブと前記3D画像とを含む組み合わされた3Dシーンを、ローカルディスプレイ上に表示するために作成し、前記装置に対してローカルであるユーザによって、3D画像を処理し、そして、前記通信リンク上で、前記装置に対してローカルである前記ユーザによる前記処理に関連するデータであって、リモート機に3D画像上で処理を行うローカルプローブの画像を含む組み合わされた3次元シーンを表示させるデータを送信するように構成されている。
【選択図】 図2
The present invention relates to interactive visualization of 3D datasets. In particular, it relates to the cooperative interactive visualization of one or more 3D datasets by multiple parties over a network. The suggested system receives position data of one or more remote probes of one or more remote machines over a communication link and displays a combined 3D scene including one remote probe and the 3D image on a local display. Created for display on, processed 3D images by a user local to the device, and associated with the processing by the user local to the device over the communication link Data is configured to transmit data that causes a remote machine to display a combined 3D scene including an image of a local probe that performs processing on the 3D image.
[Selection] Figure 2

Description

他の出願とのクロスリファレンス
本願明細書は、(i)「ネットワーク(「デキストロネット」(“DextroNet”))上での、協同的でインタラクティブな可視化のためシステムおよび方法(SYSTEMS AND METHODS FOR COLLABORATIVE INTERACTIVE VISUALIZATION OVER A NETWORK ("DextroNet"))」という発明の名称で、2005年12月31日に出願された米国仮特許出願第60/755,658号、(ii)「2Dインターフェース(「デキストロラップ」(“DextroLap”))を用いて3D可視化システムと対話を行うための方法およびシステム(METHODS AND SYSTEMS FOR INTERACTING WITH A 3D VISUALIZATION SYSTEM USING A 2D INTERFACE ("DextroLap")」という発明の名称で、2006年9月19日に出願された米国仮特許出願第60/845,654号、および(iii)「3Dデータセットのネットワーク("DextroNet")上での、協同的でインタラクティブな可視化のためシステムおよび方法(SYSTEMS AND METHODS FOR COLLABORATIVE INTERACTIVE VISUALIZATION OF 3D DATA SETS OVER A NETWORK ("DEXTRONET")」という発明の名称で、2006年12月19日に出された出願第 号(出願人は、この後者の仮特許出願の正しい出願番号と出願日を提供するために本願を補正する権利を留保している)の優先権を主張し、この仮出願の内容全体を引用によって本願明細書に援用するものとする。さらに本願明細書は、(i)「ポインティング装置上に搭載されたカメラに基づく拡張現実感手術用ナビゲーションシステム(An Augmented Reality Surgical Navigation system Based on a Camera Mounted on a Pointing Device(「カメラプローブ」(Camera Probe))」という発明の名称で、2004年4月27日に出願された共係属中の出願された米国実用新案出願第10/832,902号、(ii)「ポインティング装置上に搭載されたカメラに基づく拡張現実感手術用ナビゲーションシステム(An Augmented Reality Surgical Navigation system Based on a Camera Mounted on a Pointing Device (「カメラプローブ」(Camera Probe))」という発明の名称で、2005年7月1日に出願された共係属中の出願された米国実用新案出願第11/172,729号を引用によって援用する。
Cross-reference with other applications This specification includes: (i) SYSTEMS AND METHODS FOR COLLABORATIVE for collaborative and interactive visualization over a network (“DextroNet”). INTERACTIVE VISUALIZATION OVER A NETWORK ("DextroNet")), US Provisional Patent Application No. 60 / 755,658, filed December 31, 2005, (ii) "2D Interface (" Dextro In the name of the invention, “METHODS AND SYSTEMS FOR INTERACTING WITH A 3D VISUALIZATION SYSTEM USING A 2D INTERFACE (“ DextroLap ”)” US Provisional Patent Application No. 60 / 845,654, filed on September 19, 2006, and (iii) “3D Data Set Network” 2006, named “SYSTEMS AND METHODS FOR COLLABORATIVE INTERACTIVE VISUALIZATION OF 3D DATA SETS OVER A NETWORK” (“DEXTRONET”) on the network (“DextroNet”) Claims priority of Application No. issued on 19 December (Applicant reserves the right to amend this application to provide the correct application number and filing date for this latter provisional patent application) The entire contents of this provisional application are incorporated herein by reference. Further, the present specification further describes (i) “a navigation system for augmented reality surgery based on a camera mounted on a pointing device (An April 27, 2004, with the name of the invention “Augmented Reality Surgical Navigation system Based on a Camera Mounted on a Pointing Device” (“Camera Probe”) Filed co-pending US utility model application No. 10 / 832,902, (ii) “An Augmented Reality Surgical Navigation system based on a camera mounted on a pointing device Based on a Camera Mounted on a Pointing Device (“Camera Probe”), a co-pending US utility model application No. 11 / filed on July 1, 2005. No. 172,729 is incorporated by reference.

本発明は、3次元(「3D」)データセットのインタラクティブな可視化に関する。特に、ネットワーク上で種々のプラットフォームを用いる、1以上の3Dデータセットの協同的なインタラクティブな可視化に関する。   The present invention relates to interactive visualization of three-dimensional (“3D”) data sets. In particular, it relates to cooperative interactive visualization of one or more 3D datasets using various platforms over a network.

発明の背景
従来、3Dデータセットの3次元可視化は、所与の3Dデータセットを、専用のワークステーションまたはコンピュータに投入する(または、複数の2Dイメージの1つを作成する)ことによって行われている。一般的には、1人のユーザが、一台の専用のワークステーション上で、インタラクティブに3Dデータセットを可視化する。これは例えば、ボリューム・インターラクション社(Volume Interactions Pte Ltd)(シンガポール)製のデキストロスコープ(Dextroscope)(登録商標)によって行うことができる。デキストロスコープ(Dextroscope)(登録商標)は、ボリュームを立体的に表示することが可能であり、ユーザが3Dを完全に制御することが可能なハイエンド、ツルーインタラクティブ可視化システムである。さらにボリューム・インターラクション社(Volume Interactions Pte Ltd)(シンガポール)製のデックス―レイ(DEX-Ray)(登録商標)システムは、コレジスタされた3Dスキャンデータとリアルタイムビデオを組み合わせた専用の3Dインタラクティブ可視化システムである。デックス―レイ(DEX-Ray)(登録商標)は、術前のスキャンデータから区分化されたバーチャルオブジェクトとリアルタイムビデオを組み合わせて複合画像とすることによって、ユーザ(一般的には外科医)が実際の手術の現場で「後ろを見る」ことを可能にする。しかしながら、従来、同程度にハイエンドのデキストロスコープ(Dextroscope)(登録商標)またはデックス―レイ(DEX-Ray)(登録商標)といった3Dインタラクティブ可視化システムを用いた場合、たとえ複数の表示システムがあり、多くの人がそれらの表示を実際のユーザの近くに立つことによって見ることができたとしても、可視化をコントロールできる(コントロール可能である)のは一度に1人のユーザだけである。したがって、そのようなシステムにおいては、制御を行う人以外は、試験中の3Dデータセットの操作に真の参加または協同しているとは言えない。
BACKGROUND OF THE INVENTION Conventionally, 3D visualization of a 3D dataset is performed by submitting a given 3D dataset to a dedicated workstation or computer (or creating one of multiple 2D images). Yes. In general, a single user interactively visualizes a 3D data set on a dedicated workstation. This can be done, for example, with a Dextroscope (registered trademark) manufactured by Volume Interactions Pte Ltd (Singapore). The Dextroscope (registered trademark) is a high-end, true interactive visualization system that can display volumes in three dimensions and allows the user to fully control 3D. In addition, the DEX-Ray (registered trademark) system from Volume Interactions Pte Ltd (Singapore) is a dedicated 3D interactive visualization system that combines co-registered 3D scan data and real-time video. It is. DEX-Ray (registered trademark) is a combination of virtual objects segmented from pre-operative scan data and real-time video into a composite image that allows users (typically surgeons) to actually Enables you to “look behind” at the surgical site. However, traditionally 3D interactive visualization systems such as high-end Dextroscope® or DEX-Ray® have multiple display systems, many Even if one person can see their display by standing close to the actual user, only one user at a time can control (controllable) the visualization. Therefore, in such a system, no one other than the controlling person is truly participating or cooperating in the operation of the 3D data set under test.

例えば、デックス―レイ(DEX-Ray)(登録商標)は、脳神経外科の処置などの複雑な手術の計画に使用することができる。そのような手術計画においては、上で引用したカメラプローブ(Camera Probe)に記載するように、神経外科医と彼のチームは、手術前スキャンデータと、このデータの区分化された関心オブジェクトを取得し、手術中に使用すべきアプローチなどのプランニングデータを追加することができる。さらに、カメラプローブ(Camera Probe)にさらに記載されているように、所与の3Dデータセット中の様々なポイントを「マーカー」として使用することができる。そのようなマーカーからのプローブをもつユーザの手の先端の位置が、手術中ずっとトラッキングされ、そして連続的に読み出される(可視化された、または聴覚化された手がかりを介して)。   For example, DEX-Ray® can be used for planning complex surgical procedures such as neurosurgery procedures. In such a surgical plan, as described in the Camera Probe cited above, the neurosurgeon and his team obtain pre-operative scan data and a segmented object of interest for this data. Planning data such as approaches to be used during surgery can be added. In addition, various points in a given 3D data set can be used as “markers”, as further described in Camera Probes. The position of the tip of the user's hand with the probe from such a marker is tracked throughout the surgery and read continuously (via visualized or audible cues).

さらに、手術を行いながら、手術部位から3D入力をすることが望ましいことが多い。そのようなシナリオでは、例えば、トラッキングボールを付着することによって、1以上の手術機器をトラッキングすることができ、外科医と患者の間の相互作用を、真実に近づけてよりよく可視化することができる。こうして、カメラプローブ(Camera Probe)に記載されているように、一旦手術が始まると、リアルタイムデータとバーチャルオブジェクトの組み合わせ画像を作成し、可視化することができる。しかしながら、外科医は、表示されたバーチャルオブジェクトを、手術しながら動的に適応させる(マーカーとして指定されたポイントを変化させることを含む)ことができないのが通常である。手術しながら、可視化を最適化することに集中する時間があまりなく、したがって、3D可視化システムの能力を完全に利用することができないためである。   Furthermore, it is often desirable to perform 3D input from the surgical site while performing surgery. In such a scenario, for example, by attaching a tracking ball, one or more surgical instruments can be tracked and the interaction between the surgeon and the patient can be better visualized closer to the truth. Thus, as described in the Camera Probe, once the surgery begins, a combined image of real-time data and virtual objects can be created and visualized. However, the surgeon is usually unable to dynamically adapt the displayed virtual object during surgery (including changing the point designated as a marker). This is because during surgery, there is not much time to focus on optimizing the visualization and therefore the full power of the 3D visualization system cannot be fully utilized.

デックス―レイ(DEX-Ray)(登録商標)タイプのシステムを使用することで、例えば、腫瘍近くの重要な神経または腫瘍自身などのような少量の関心バーチャルオブジェクトを、外科手術の前に指定することができ、これらのオブジェクトを外科手術中に表示することができる。マーカーポイントについても同じことが言える。上記したように、カメラプローブ(Camera Probe)は、所定数のマーカーポイントをどのように指定することができるか、また、プローブの先端からオブジェクトまでの動的な距離を処置の間どのようにトラッキングすることができるかについて記載している。理論的には、外科医は、処置しながら、マーカーポイントを適応することができるが、これも一般的には行われない。実際の処置は手術にかかりきりになり、進行中、拡張現実感パラメータを最適化するための時間はあまりないからである。   By using a DEX-Ray® type system, a small amount of virtual objects of interest, such as important nerves near the tumor or the tumor itself, are specified prior to surgery These objects can be displayed during surgery. The same is true for marker points. As mentioned above, the camera probe (Camera Probe) can specify a certain number of marker points and how the dynamic distance from the probe tip to the object is tracked during the procedure. It describes what you can do. Theoretically, the surgeon can adapt the marker points while performing the procedure, but this is also not generally done. This is because the actual procedure is limited to surgery and there is not much time to optimize the augmented reality parameters while it is in progress.

処置しながら、外科医が一般的にバーチャルデータと対話できない理由は他にもある。第1に、大半のナビゲーションシステムのインターフェースは、そのような生の相互作用を非常に複雑なものにしている。第2に、ナビゲーションシステムのインターフェースは無菌でなく、したがって外科医は、ナースや技師に指示することによって調整を行わなければならないことになるだろうからである。デックス―レイ(DEX-Ray)(登録商標)においては、空中でプローブを動かすだけで可視化を修正することが可能(カメラプローブ(Camera Probe)に記載されているように)であり、したがって、外科医は、無菌状態を維持しながら、表示パラメータを直接修正することができるが、手術中、可視化の環境を修正する必要がなければより都合がよい。いずれにしても、専門家が外科医を可視化によって援助をすることができるようになることが最良であろう。   There are other reasons why surgeons generally cannot interact with virtual data during treatment. First, most navigation system interfaces make such raw interactions very complex. Secondly, the navigation system interface is not sterile and therefore the surgeon will have to make adjustments by instructing nurses and technicians. In DEX-Ray (R), it is possible to modify the visualization just by moving the probe in the air (as described in Camera Probe) and thus the surgeon While it is possible to directly modify the display parameters while maintaining sterility, it is more convenient if the visualization environment need not be modified during surgery. In any case, it would be best to be able to assist the surgeon by visualizing the surgeon.

同様に、例えば、手術の援助、ガイダンス、またはプランニングのためのデキストロスコープ(Dextroscope)(登録商標)などの標準的な3Dインタラクティブ可視化システムを用いた場合も、1つの場所にいるすべての関係者が協力することは困難であることが多い。例えば、外科医は、脳構造を共有しているシャム双生児の分離手術のような、完全に事前計画を立てることが困難な複雑な手術を行うことがある。そのような処置においては、実際の(長い)手術中に、術前のスキャンを連続的に参照し、実際に脳が露出している状態で映し出されるものに依存するチームのメンバー、または他の専門医に相談する必要があることがほとんどである。術前のスキャンデータのインタラクティブな3D可視化はそれを分析するための最もよい方法である一方、関連者のすべてが同一の物理的位置にいる場合でも、手術チームがそのようなシステムの表示の周りに集まることは困難である。さらに、症例が複雑であるほど、チームのメンバーがいるかもしれない地理的位置が離れていることが多く、データの可視化の利益を使って術前に相談することが困難なことが多い。   Similarly, using a standard 3D interactive visualization system such as, for example, a Dextroscope® for surgical assistance, guidance, or planning, all parties in one location It is often difficult to cooperate. For example, a surgeon may perform a complex operation that is difficult to fully plan, such as a separate operation on a Siamese twin that shares brain structure. In such procedures, during the actual (long) operation, a team member who relies continuously on the pre-operative scan and relies on what is actually projected with the brain exposed, or other Most of the time you need to consult a specialist. While interactive 3D visualization of pre-operative scan data is the best way to analyze it, the surgical team will be able to around the display of such a system even when all of the participants are in the same physical location. It is difficult to get together. In addition, the more complex the case, the more often the geographical location where team members may be located is more difficult to consult preoperatively using the benefits of data visualization.

最後に、離れた場所にいる二当事者がインタラクティブ3Dデータセット可視化システムを用いて、またはそれを用いた技術を用いて議論するとき、例えば、一方の当事者がその使用について他方に指示を出す場合、双方が同時に3Dデータセットおよび他方の操作を見ることができることが必要である。   Finally, when two distant parties discuss using an interactive 3D dataset visualization system or technology using it, for example, if one party instructs the other for its use: It is necessary that both can see the 3D dataset and the other operation at the same time.

当業において必要なことは、遠隔の参加者に、そこに実際に存在するかのように操作させて、3Dインタラクティブ可視化システム中の3Dデータセット上で同時に手術させることである。   What is needed in the art is to have a remote participant operate as if it were actually present and operate on a 3D dataset in a 3D interactive visualization system simultaneously.

発明の概略
物理的に離れた場所にいる多数の人が協同して、ほぼ同時にインタラクティブに3Dデータセットを可視化するシステムと方法の例を提供する。本発明の実施態様において、例えば、データネットワークを介して接続されているメインワークステーションと1以上のリモートワークステーションが存在することができる。所与のメインワークステーションは、例えば、拡張現実感外科手術用ナビゲーションシステム、または3D可視化システムであることができ、各ワークステーションは、配置された同じ3Dデータセットを持つことができる。さらに、所与のワークステーションは、例えば、リアルタイムのビデオ、もしくはあらかじめ記録されているビデオ、または、管理された3D超音波可視化システムが提供されるような情報などの既に取得している3Dデータと、リアルタイムの画像を組み合わせることができる。リモートワークステーションにいるユーザは、例えば、外科手術のナビゲーションもしくは蛍光透視法などの所与の診断的または治療的処置を行うことができ、または、共有して格納されている3Dデータセットを用いてレクチャーが行われているメインワークステーションにいる別のユーザからの指示を受けることができる。メインワークステーションにいる1人のユーザは、例えば、各リモートユーザによって使用されているバーチャルツールを見ることができ、各リモートユーザは、例えば、メインユーザのバーチャルツールとそれがリモートワークステーションのデータセットに及ぼすそれぞれの効果を見ることができる。例えば、リモートワークステーションは、各地の機械のバーチャルコントロールパネルを介してリモートワークステーションの3Dデータセット上でのメインワークステーションのバーチャルツールを、前記バーチャルツールがリモートワークステーションのそれと関連するプローブであるかのように、同じように表示することができる。本発明の実施態様において、各ユーザのバーチャルツールは、それらのIPアドレス、異なる色、および/または、他の区別するための表示によって表現することができる。本発明の実施態様において、データネットワークは、低または高帯域のいずれかとすることができる。低帯域の実施態様においては、3Dデータセットは、各ユーザのワークステーションにあらかじめ載せることができ、メインユーザのバーチャルツールおよびデータの操作のみをネットワーク上に送信することができる。高帯域の実施態様においては、例えば、リアルタイムの画像、例えば、ビデオ、超音波もしくは蛍光透視画像も同様にネットワーク上に送信することができる。
SUMMARY OF THE INVENTION An example of a system and method is provided that allows a number of physically remote people to collaborate and interactively visualize a 3D data set at approximately the same time. In an embodiment of the present invention, for example, there may be a main workstation and one or more remote workstations connected via a data network. A given main workstation can be, for example, an augmented reality surgical navigation system, or a 3D visualization system, and each workstation can have the same 3D data set deployed. In addition, a given workstation may have already acquired 3D data such as, for example, real-time video or pre-recorded video, or information such that a managed 3D ultrasound visualization system is provided. Real-time images can be combined. A user at a remote workstation can perform a given diagnostic or therapeutic procedure such as, for example, surgical navigation or fluoroscopy, or with a shared and stored 3D data set. You can receive instructions from another user at the main workstation where the lecture is taking place. A single user at the main workstation can see, for example, the virtual tools used by each remote user, and each remote user can see, for example, the main user's virtual tool and the remote workstation's dataset. You can see the effect on each. For example, if the remote workstation is the local workstation's virtual tool on the remote workstation's 3D data set via the local machine's virtual control panel, is the probe associated with that of the remote workstation? Can be displayed in the same way. In an embodiment of the present invention, each user's virtual tools can be represented by their IP address, different colors, and / or other distinguishing displays. In an embodiment of the present invention, the data network can be either low or high bandwidth. In the low-bandwidth embodiment, the 3D data set can be pre-loaded on each user's workstation and only the main user's virtual tool and data operations can be transmitted over the network. In high-band embodiments, for example, real-time images such as video, ultrasound or fluoroscopic images can be transmitted over the network as well.

発明の詳細な説明
I.概要
本発明の実施態様において、種々のタイプの3Dインタラクティブ可視化システムをデータネットワーク上に接続することができ、それによって、互いに離れたところにいる人どうしが同じ3Dデータセットを、様々な目的のためにほぼ同時に操作することができる。本発明の実施態様において、二人以上の人が互いに離れた位置にいながら、それぞれがワークステーション上に置かれた所与の3Dデータセット所有することができる。通常、そのような実施態様は、「メインユーザ」と1以上の「リモートユーザ」を考慮している。関係者は、例えば、手術の計画プロジェクト、例えば、シャム双生児の分離手術を行う医師のチームの協力者であることができる。または彼らは、ティーチャーもしくは講師や、スチューデントもしくは聴講者のグループであることができる。さらに、例えば、関係者には、(i)ナビゲーションシステム(例えば、デックス―レイ(DEX-Ray)(登録商標)システム)、もしくは他の診断もしくは治療システム(例えば、カスラボマシーン(Cathlab machine)、管理された超音波システムなど)を用いて、患者に対して手術を施す、または診断もしくは治療的処置を行う外科医もしくは臨床医、ならびに(ii)外科医もしくは臨床医のように治療もしくは手術室といった物理的制限を受けずに、いくつかの遠隔地からの関連する3Dデータセット中のバーチャルオブジェクトを動的に修正し、可視化を行う可視化の専門家を含むことができる。または、当該関係者には、様々な教育的、職業的、レビュー、もしくはカスタマーサポートのコンテクストにおけるティーチャーと1以上のスチューデントを含むことができる。以下では、本発明は、種々の可能なパラダイムの使用、または使用例を記載するが、本発明はそのような使用例に限定されるものではない。本発明の機能は、3Dデータセットの洗練された可視化における種々のタイプの研究や協同が望ましい、またはそれが有用である、広範な応用に適用可能であると理解できる。
Detailed Description of the Invention Overview In embodiments of the present invention, various types of 3D interactive visualization systems can be connected on a data network, so that people who are remote from each other can use the same 3D data set for various purposes. Can be operated almost simultaneously. In an embodiment of the present invention, two or more people can own a given 3D data set, each located on a workstation, while at a distance from each other. Typically, such implementations consider a “main user” and one or more “remote users”. The party can be, for example, a collaborator on a team of doctors performing a surgical planning project, for example, a separate operation on a Siamese twin. Or they can be teachers or teachers, or groups of students or listeners. Further, for example, the parties may include (i) a navigation system (eg, a DEX-Ray® system), or other diagnostic or treatment system (eg, a Cathlab machine, A surgeon or clinician performing surgery on a patient or performing a diagnostic or therapeutic procedure using a controlled ultrasound system, etc.) and (ii) physical such as a treatment or operating room like a surgeon or clinician Without being restricted, it can include visualization specialists that dynamically modify and visualize virtual objects in related 3D datasets from several remote locations. Alternatively, such parties may include teachers and one or more students in various educational, professional, review, or customer support contexts. In the following, the present invention describes the use of various possible paradigms, or examples of use, but the invention is not limited to such examples of use. It can be seen that the features of the present invention are applicable to a wide range of applications where various types of research and collaboration in sophisticated visualization of 3D datasets are desirable or useful.

説明を容易にするために、本発明の種々の実施態様では、時々「デキストロネット(DextroNet)」に言及する。これは、そのような種々の実施態様に関連する、譲受人によって使用されている考慮された登録商標である。   For ease of explanation, various embodiments of the present invention sometimes refer to “DextroNet”. This is a considered registered trademark used by the assignee in connection with such various embodiments.

A.デキストロスコープ(Dextroscope)(登録商標)−デキストロスコープ(Dextroscope)(登録商標)型相互作用
本発明の実施態様において、例えば、遠隔カスタマートレーニングもしくはテクニカルサポート、または、3Dインタラクティブ可視化システムの製造元とその顧客の間の遠隔相談のために、デキストロネット(DextroNet)を使用することができる。例えば、デキストロネット(DextroNet)は、3Dインタラクティブ可視化システムの製造者が使用して、遠隔オンデマンドテクニカルサービスをその顧客に提供することができる。そのような使用においては、例えば、そのような製造者によって提供された所与の3Dインタラクティブ可視化システムの使用に関して質問のある顧客は、常時トレーニングセンターに接続することができる。一度接続すれば、遠隔のトレーニング技術者が、例えば、顧客に所与のツール、例えば、デキストロスコープ(Dextroscope)(登録商標)上で輪郭線エディター(Contour Editor)をどのようにして使用すればよいのかを示すことができる。顧客が自分のデータセットのすべてを送信することを必要とせずに(患者の潜在的極秘事項に関する流出と、そういったデータを送信する時間の無駄を避ける)、そのようなトレーニングの一例は、遠隔トレーニングセッションの開始時に両当事者が持っている標準的なデータセットを用いて行うことができる。
A. Dextroscope®-Dextroscope® interaction In embodiments of the invention, for example, between remote customer training or technical support, or 3D interactive visualization system manufacturer and its customers DextroNet can be used for remote consultation. For example, DextroNet can be used by manufacturers of 3D interactive visualization systems to provide remote on-demand technical services to their customers. In such use, for example, customers who have questions regarding the use of a given 3D interactive visualization system provided by such a manufacturer can always connect to a training center. Once connected, how can a remote training technician use a contour editor on a given tool, eg, Dextroscope®, for example to the customer Can be shown. An example of such training is remote training, without requiring the customer to send all of their datasets (avoid spills on potential patient confidentiality and time wasted sending such data). This can be done using the standard data set that both parties have at the start of the session.

デキストロネット(DextroNet)の使用を進めている、顧客に提供され得る別のサービスには、例えば、オフラインで顧客のために患者データを準備する(区分化する)ものがある。例えば、医療分野において、顧客は、関連する1以上の患者もしくは症例に関連するデータをftpで使用し、「放射線医学サービス」部門は、それを区分化し、顧客に返送することができる。そのようなサービスについて、本発明のある実施態様においては、行われたことについてのオンラインのデモンストレーション、または、顧客が取り扱う実際の患者データに関する遠隔トレーニングさえ、提供することができるであろう。   Another service that may be offered to customers that is using DextroNet is, for example, preparing (segmenting) patient data for customers offline. For example, in the medical field, customers use data related to one or more relevant patients or cases in ftp, and the “Radiology Services” department can segment and return it to the customer. For such services, in some embodiments of the present invention, online demonstrations of what was done, or even remote training on actual patient data handled by the customer could be provided.

本発明の実施態様において、遠隔相談を提供することもできる。そのような実施態様においては、例えば、外科医と放射線専門医、画像診断の技師、顧問医師などの専門家のチームが、症例、その症例において採用すべき、さまざまな実行可能な外科手術的アプローチ、および類似の問題点について、すべて遠隔でデキストロネット(DextroNet)上で議論することができる。例えば、放射線専門医は、彼の見解、脳神経血管外科医としての見解を提供することができ、脳顔面頭蓋の専門家は、すべてを考慮しながら、別の見解を提供することができ、そして当該症例のデータをスキャニングすることによって作成された所与の3Dデータセット中の種々のボリュームオブジェクトを仮想的に「ポインティングする」。   In embodiments of the present invention, remote consultation can also be provided. In such embodiments, for example, a team of specialists, such as surgeons and radiologists, diagnostic imaging technicians, advisory physicians, etc., should be employed in the case, the various viable surgical approaches to be employed in the case, and All similar issues can be discussed remotely over DextroNet. For example, a radiologist can provide his views, views as a neurovascular surgeon, a craniofacial specialist can provide another view, taking all into account, and the case Virtually “pointing” the various volume objects in a given 3D dataset created by scanning the data.

B.デキストロスコープ(Dextroscope)(登録商標)−デックス―レイ(DEX-Ray)(登録商標)型相互作用
カメラプローブ(Camera Probe)に記載しているように、デックス―レイ(DEX-Ray)(登録商標)システムは、外科手術のナビゲーション装置として使用することができる。そのような装置は、デキストロネット(DextroNet)上で標準的なインタラクティブ3D表示システムに接続することができる。したがって、本発明の実施態様において、3Dデータ操作が可能であることは、「アウトソーシング」ができるということであり、外科医の無菌の現場によって課された制限を排除できるということである。例えば、外科医がデックス―レイ(DEX-Ray)(登録商標)型プローブを患者の頭蓋骨中に有しているとき、彼は、ベース コンピュータの近くにいる誰かに指示を出さないかぎり、一般的にナビゲーションシステムのインターフェースを制御することが不可能である。もちろんこのことは、望ましいことではない。そのようなコンピュータは、通常、完全に画像/音声をレンダリングすることに占有されているからである。
B. Dextroscope (R)-DEX-Ray (R) type interaction As described in Camera Probe, DEX-Ray (R) The system can be used as a surgical navigation device. Such a device can be connected to a standard interactive 3D display system over DextroNet. Thus, in an embodiment of the present invention, the ability to manipulate 3D data means that it can be “outsourced” and that the limitations imposed by the surgeon's sterile field can be eliminated. For example, when a surgeon has a DEX-Ray® probe in a patient's skull, he generally does not give instructions to someone near the base computer It is impossible to control the navigation system interface. Of course, this is not desirable. This is because such computers are usually occupied with fully rendering images / sound.

患者の頭蓋骨内のプローブを用いて、外科医は患者の脳の中の自分の方向を見つけようとする(すなわち、異なる領域を指示し、いまだ切断していない組織を超えてポイントすることはできない)ので、外科医は、プローブの位置を大きく変更することなく、他の画像モダリティー、他の区分化された構造(腫瘍、血管、神経(例えば、拡散テンソルイメージングなどを介して)を調べる助けが必要となるであろう。そのようなシナリオで、外科医は、プローブを使って指し示すことができ、また、話したり、聞いたりすることができるが、頭蓋骨に出入りすることができないことがしばしばある。この状況では、異なる可視化を提供する別の外科医(もしくは専門技術をもつアシスタント)の援助があれば有用であろう。そのような異なる可視化は、例えば、どの血管が最も近くにあり、どの神経が腫瘍の周りにあるかといったことを示すものである。そのような「可視化アシスタント」は、外科医のナビゲーションシステムと、デキストロネット(DextroNet)を介して接続することができる。   Using a probe in the patient's skull, the surgeon tries to find his direction in the patient's brain (ie, pointing to a different area and cannot point beyond tissue that has not yet been cut) So surgeons need help examining other image modalities, other segmented structures (such as tumors, blood vessels, nerves (eg, via diffusion tensor imaging, etc.) without significantly changing the position of the probe In such a scenario, the surgeon can point with the probe and can speak and hear, but often cannot get in and out of the skull. Then it would be useful to have the assistance of another surgeon (or expert assistant) to provide different visualizations. Visualization indicates, for example, which blood vessels are closest and which nerves are around the tumor, such as “visualization assistants”, which are the surgeon's navigation system and dextronet ( Can be connected via DextroNet).

C.デキストロスコープ(Dextroscope)(登録商標)−カスラボ(Cathlab)(登録商標)型相互作用
別法として、本発明の実施態様において、デックス―レイ(DEX-Ray)(登録商標)―デキストロスコープ(Dextroscope)(登録商標)相互作用と類似のパラダイムは、例えば、X線蛍光透視法表示の形態で、オンラインの情報を用いることができる。ここで遠隔援助は、例えば、同じ個体の以前のスキャンから作成されたリアルタイムのX線画像(2D透視図)と3D画像(例えば、心臓のCTもしくはMRスキャンからのもの)の間のコレジストレーションを正確に調節するのを助ける。血管は、X線では見えないので、インターベンション心臓病専門医は、造影剤を注入して血管を数秒間不透明して観察せざるを得ない。造影剤の注入は、腎臓に問題のある患者には指示されない、また、どんな症例においても、患者のためには、造影剤は、(健康面からも、医療費の面からも)最小限にとどめるべきである。したがって、可視化アシスタントは、患者のX線画像を、例えば、術前のCTと同期させるために、数秒間の造影剤の流れを利用することができる。この情報は、拡張バーチャルオブジェクトとして、X線画像上に提示することができる。例えば、それは、X線画像の隣の別のモニターに表示することができる。例えば、心臓は、X線画像上で拍動することができ、CTもそれに合わせて拍動することができる。または、心臓病専門医がカテーテルを有している正しい血管を追跡するのをガイドする際に、単に凍結の瞬間を示すこともできる。
C. Dextroscope®-Cathlab®-type interaction Alternatively, in an embodiment of the present invention, DEX-Ray®-Dextroscope A paradigm similar to (registered trademark) interaction can use online information, for example, in the form of X-ray fluoroscopy display. Here, remote assistance is a registration between, for example, a real-time X-ray image (2D perspective) created from a previous scan of the same individual and a 3D image (eg, from a CT or MR scan of the heart) Helps you adjust precisely. Since the blood vessels are not visible with X-rays, interventional cardiologists have to inject the contrast agent and observe the blood vessels opaque for a few seconds. Infusion of contrast media is not directed to patients with kidney problems, and in any case for the patient, contrast media is minimal (both health and medical costs) Should be stopped. Thus, the visualization assistant can utilize a few seconds of contrast agent flow to synchronize the patient's x-ray image with, for example, pre-operative CT. This information can be presented on the X-ray image as an extended virtual object. For example, it can be displayed on another monitor next to the x-ray image. For example, the heart can beat on the X-ray image, and the CT can beat accordingly. Alternatively, it may simply indicate the moment of freezing when guiding the cardiologist to follow the correct vessel with the catheter.

本発明の実施態様において、一人だけが3Dデータに影響を及ぼす相互作用をコントロールし(「メインユーザ」)、デキストロネット(DextroNet)上で接続している他の関係者(「リモートユーザ」)はこれらの作用を見ることができるが、データそのもの、もっと正確に言えばデータに関する彼らの見解を変えることはできないと想定される。さらに、そのような実施形態においては、デキストロネット(DextroNet)は、例えば、メインユーザの3D相互作用の詳細のみをネットワーク上に送信する。そして、その後、各リモートワークステーションまたはシステムにおいて対話させる。これは、1人のユーザが、彼の相互作用に関するデータをリモートサーバに送信していた従来のシステムとは対照的なものである。そして当該リモートサーバはその後、コンピュータ処理を行い、リモートビューアに、3Dデータの最終的な画像を作成する、ステップや操作の順序を指示することなく、最終的なコンピュータ処理画像を返信する。   In an embodiment of the present invention, only one person controls the interaction affecting 3D data (“main user”) and other parties connected on the DextroNet (“Remote User”). Can see these effects, but it is assumed that the data itself, or more precisely, their views on the data cannot be changed. Further, in such an embodiment, DextroNet transmits only the details of the 3D interaction of the main user over the network, for example. Then, after that, the dialog is performed in each remote workstation or system. This is in contrast to conventional systems where a single user sent data about his interactions to a remote server. Then, the remote server performs computer processing, and returns the final computer-processed image without instructing the remote viewer to create a final image of 3D data, without instructing the order of steps or operations.

例えば、SGI's Vizサーバ(登録商標)のような従来の解決法は、一方向のネットワークのみを提供する。本発明の実施態様において、デキストロネット(DextroNet)は、多方向ネットワークである。SGI's Vizサーバ(登録商標)などのアプローチは、1人のユーザのみが最終的な投影図を所与の3Dシーンから要求するといった想定に頼っている。ちょうど1つの投影図(もしくは、例えば、ステレオのための一対の投影図)が必要である場合、リモートコンピュータは、画像を計算(レンダリング)し、得られたピクセルをクライアントに送信する。そしてそのクライアントは、局所でレンダリングすることによって得るものとは区別ができない画像を見ることになる。ユーザは、カーソルを動かして、例えば、回転操作を行い、指令をリモートサーバに送信し、3Dモデルが回転することができるようになる。当該モデルは、再びレンダリングすることができ、画像は、クライアントが見るように送信することができる。しかしながら、そのような従来のアプローチは、他のユーザにそれら自身の3D相互作用装置(そのようなスタイラス、プローブなど)を3Dモデルに介入させない。なぜなら、スタイラスに関するモデルについての深さ情報が存在しないからである。それはまた、クライアントに分離可能な視点を作成させない(以下に示す)。入手可能なものは、1人のユーザの視点からのピクセルだけだからである。   For example, conventional solutions such as SGI's Viz Server® provide only a one-way network. In an embodiment of the present invention, DextroNet is a multidirectional network. Approaches such as SGI's Viz Server (R) rely on the assumption that only one user requests the final projection from a given 3D scene. If exactly one projection is needed (or a pair of projections for stereo, for example), the remote computer computes (renders) the image and sends the resulting pixels to the client. The client then sees an image that is indistinguishable from that obtained by rendering locally. The user moves the cursor, for example, performs a rotation operation, transmits a command to the remote server, and can rotate the 3D model. The model can be rendered again and the image can be sent for viewing by the client. However, such conventional approaches do not allow other users to intervene their own 3D interaction devices (such as styluses, probes, etc.) in the 3D model. This is because there is no depth information about the stylus model. It also does not allow the client to create a separable viewpoint (shown below). This is because only the pixels from the perspective of one user are available.

さらに、そのようなアプローチでは、最終的なレンダリングを得るために、どのようなステップが取られているかをリモートユーザに対して正確に示すことができない。もし彼が、そのようなインタラクティブな指令順序を実際に学びたいと関心を持っても、それをすることができない。対照的に、本発明の実施態様において、3Dモデルが、各ワークステーション(例えば、ティーチャーおよびスチューデント、または、例えば、可視化アシスタントと外科医、または、例えば、可視化アシスタントと実際の患者に処置を施す他の診断医または治療専門家などのステーション)において入手可能であり、その後、モデルの3Dを、それぞれステーションを有しているユーザの3Dと組み合わせることができ(すなわち、ツールや他のオブジェクト)、そのそれぞれをレンダリングすることができる。   Moreover, such an approach cannot accurately indicate to the remote user what steps are being taken to obtain the final rendering. If he is interested in actually learning such an interactive command sequence, he cannot do it. In contrast, in an embodiment of the invention, a 3D model is used for each workstation (e.g., teacher and student, or, e.g., visualization assistant and surgeon, or other, e.g., visualization assistant and actual patient). Available at a station (such as a diagnostician or treatment specialist), and then the 3D of the model can be combined with the 3D of the user who has each station (ie a tool or other object), Can be rendered.

データに対して遠隔から影響を及ぼすために、本発明の実施態様において、メインユーザのスタイラスの3D相互作用を、例えばリモートユーザの(リモート)バーチャルコントロールパネルと対話させるように、配置することができる。ことができる。そのような実施形態において、そのようなコントロールパネルの相互作用は、リモート機上でシステム指令に、例えば、「切断ボタンを押す」または「ズームスライダーを2.0にスライドさせる」のように翻訳される必要はない。むしろ、そのような実施態様においては、所与のメインユーザの操作は、リモートユーザの世界、例えば、リモートユーザ機の上に、操作されたメインユーザのツールの結果として、リモートユーザ機の上にメインユーザのツールを表示させることによって、現れるかもしれない。リモートユーザ側では、メインユーザのルールは、リモートユーザのバーチャルコントロールパネル上のボタンの上方の位置に現れ、その状態は、例えば、「起動動作」(ツールの4つの例示的な動作の1つ)であり、その後ボタンが押される。特別な指令は必要とされない。このように、リモートツールは、メインユーザもしくはリモートユーザの側でのローカルツールと同じ趣旨で作用することができる。したがって、メインユーザの機械の側(または、従来のVizサーバ(登録商標)アプローチを用いて)で示唆される余分なシステム指令を用いて操作に影響を及ぼす場合と比較して、これはよりシームレスな統合に到達することが可能である。システムレベルの指令を用いない別の理由は、リモートユーザの側の不連続な画面を避けるためである。例えば、もし、リモートユーザの側のバーチャルコントロールパネルとのスタイラス相互作用が連続的でなかったら、ツールは、依然としてシステム指令を介して機能することができたとしても、リモートユーザは、機能もしくは操作「B」が起こっている間、ボタン「A」の上にツールがあるかどうかについて混乱する。もし、ツールの位置の表示を、上記のように同期させることができれば、余分のシステム指令は必要でなく、ツール自身で行うことができるであろう。   In order to influence data remotely, in embodiments of the present invention, the 3D interaction of the main user's stylus can be arranged to interact with, for example, the remote user's (remote) virtual control panel. . be able to. In such an embodiment, such control panel interactions are translated into system commands on the remote machine, for example, “press the disconnect button” or “slide the zoom slider to 2.0”. There is no need to Rather, in such an embodiment, the operation of a given main user is performed on the remote user's world, eg, on the remote user machine, as a result of the operated main user's tool on the remote user machine. It may appear by displaying the main user's tools. On the remote user side, the main user's rules appear at a position above the button on the remote user's virtual control panel, and the state is, for example, “Startup Action” (one of the four exemplary actions of the tool). And then the button is pressed. No special directive is required. In this way, the remote tool can act in the same manner as the local tool on the main user or remote user side. Therefore, this is more seamless compared to using extra system commands suggested on the main user's machine side (or using the traditional Viz Server® approach) to affect operation. It is possible to reach a perfect integration. Another reason not to use system level commands is to avoid discontinuous screens on the remote user side. For example, if the stylus interaction with the virtual control panel on the remote user's side is not continuous, the remote user will not be able to function or operate “ While "B" is happening, it is confusing as to whether there is a tool on button "A". If the display of the tool position can be synchronized as described above, no extra system commands are needed and the tool itself can do it.

バーチャルコントロールパネルの目盛りは、異なるプラットフォームのユーザ間で変化し得ることがわかる。これは、例示したデキストロネット(DextroNet)を介して接続される種々の3D可視化システムのハードウェアおよびソフトウェアの構成が存在し得るためである。例えば、この譲受人であるボリュームインタラクション社(Volume Interactions Pte Ltd)によって提供される種々のシステムを用いることを説明すると、デキストロビーム(DextroBeam)(登録商標)は、ミラーを備えていないため、「反射された」目盛りを持たない。一方、デキストロラップ(DextroLAP)(登録商標)システムは、マウスを使用し、3Dトラッカーを使用しない。したがって、本発明の実施態様において、メインユーザの3D目盛りは、すべての接続されたリモートユーザに送信することができる。該リモートユーザは、一般に、異なる構造およびモデルの、種々の3Dインタラクティブ可視化システムプラットフォームを介して接続されている。そのような目盛り送信は、例えば、リモートユーザの側で正しいボタンを正しい時間に押すことによってメインユーザによって行われる3D相互作用を保障する。したがって、デキストロネット(DextroNet)と接続すると、プロトコルは、例えば、リモートユーザ側のコントロールパネルを、(位置、方向、大きさなどに関して)メインユーザ側のものと同一にする。その結果、コントロールパネル上でのメインユーザの操作が、様々なリモートユーザの機械上に複製される。   It can be seen that the scale of the virtual control panel can vary between users on different platforms. This is because there may be various 3D visualization system hardware and software configurations connected via the exemplified DextroNet. For example, describing the use of various systems provided by this assignee, Volume Interactions Pte Ltd, DextroBeam® does not include a mirror, Has no "reflected" scale. On the other hand, the DextroLAP® system uses a mouse and does not use a 3D tracker. Thus, in an embodiment of the present invention, the 3D scale of the main user can be sent to all connected remote users. The remote user is typically connected through various 3D interactive visualization system platforms of different structures and models. Such a scale transmission ensures, for example, 3D interaction performed by the main user by pressing the correct button at the correct time on the remote user side. Therefore, when connected to DextroNet, the protocol, for example, makes the remote user's control panel the same as the main user's (in terms of position, orientation, size, etc.). As a result, the operation of the main user on the control panel is replicated on the machines of various remote users.

メインワークステーションがインターフェースと視点とをリモートワークステーションに同期させると、それは、以下において図55(a)と関連付けて記載するように、例えば、コントロールパネルのパラメータをリモートワークステーションに送信する。こうして、リモートワークステーションがこれらのパラメータを受け取ると、例えば、この情報を用いて、自身のコントロールパネルや局所に表示されたオブジェクトを更新する。このプロセスが完了するとすぐ、メインユーザのツールは、例えば、リモートコントロールパネルを操作するために使用される。そして、メインユーザおよびリモートユーザの最初の視点を同じにすることができる。   When the main workstation synchronizes the interface and viewpoint to the remote workstation, it sends, for example, control panel parameters to the remote workstation, as described below in connection with FIG. 55 (a). Thus, when the remote workstation receives these parameters, for example, it uses this information to update its control panel and locally displayed objects. As soon as this process is complete, the main user's tools are used, for example, to operate a remote control panel. The initial viewpoints of the main user and the remote user can be made the same.

本明細書においては、種々の例示的パラダイムが記載されている。言葉の節約のために、特徴は、「ティーチャー―スチューデント」パラダイムに関連付けて詳細に記したが、これは、「外科医−可視化アシスタント」パラダイムにも適用可能なものである。逆も然りであり、繰り返して説明しないことにする。「外科医−可視化アシスタント」パラダイムは、「ティーチャー―スチューデント」パラダイムと同様に機能する。後者においては、記録された、もしくはリアルタイムのビデオ、リアルタイムのイメージング(例えば、蛍光透視法、超音波、など)またはリアルタイムの機器位置情報が追加されており、それぞれ3Dデータセットにコレジスタされている。   Various exemplary paradigms are described herein. For language savings, the features have been described in detail in connection with the “Teacher-Student” paradigm, which is also applicable to the “Surgeon-Visualization Assistant” paradigm. The converse is also true and will not be repeated. The “surgeon-visualization assistant” paradigm functions similarly to the “teacher-student” paradigm. In the latter, recorded or real-time video, real-time imaging (eg, fluoroscopy, ultrasound, etc.) or real-time device location information is added, each co-registered in a 3D data set.

D.デキストロネット(DextroNet)教育(ティーチャー―スチューデント)パラダイム
本発明の実施態様において、デキストロネット(DextroNet)接続は、教育用に使用することができる。例えば、デキストロネット(DextroNet)は、スチューデントに、外科手術の処置や計画、または、例えば、3Dインタラクティブ可視化システム、例えば、デキストロスコープ(Dextroscope)(登録商標)の使用について指導するために使用することができる。さらに、例示のデキストロネット(DextroNet)は、解剖学の指導に用いることができる。例えば、そのような遂行は、スチューデントたちに、人体の特定の複雑な解剖学の領域を習熟させるために使用することができる。さらに、例示のデキストロネット(DextroNet)は、例えば、 病理学の指導のために使用することもでき、したがって、検死試験の補足的な指導用ツールとして使用することができる(これは、患者が術中に死亡したときや、術前プランおよびそのような患者のスキャンデータが入手可能であるには特に有用かもしれない)。
D. DextroNet Education (Teacher-Student) Paradigm In an embodiment of the present invention, a DextroNet connection can be used for education. For example, DextroNet should be used to instruct students about surgical procedures and planning or, for example, the use of 3D interactive visualization systems, such as Dextroscope® Can do. In addition, the exemplary DextroNet can be used for anatomy instruction. For example, such performance can be used to familiarize students with specific complex anatomical areas of the human body. In addition, the exemplary DextroNet can be used, for example, for pathology instruction, and therefore can be used as a supplementary instructional tool for autopsy tests (which is used by patients It may be particularly useful when you die during surgery or when preoperative plans and scan data for such patients are available).

本発明の実施態様において、デキストロスコープ(Dextroscope)(登録商標)、デキストロビーム(DextroBeam)(登録商標)、もしくはデックス―レイ(DEX-Ray)(登録商標)システム、またはそれらの均等物を熟知したインストラクター(例えば、医師、外科医、もしくは他の専門家であってもよい)は、例えば、少なくとも一人の遠隔に所在するスチューデントに対して、デキストロネット(DextroNet)を介して指導を行う。スチューデントは、インストラクターと同じ視点の相手役となる3Dモデルをを持つことができる。または、例えば、異なる視点を持つことができる。例えば、スチューデントは、インストラクターの視点を持つ1つのディスプレイ(またはディスプレイウィンドウ)を持っていてもよいし、異なる視点を持つ別のディスプレイ(またはディスプレイウィンドウ)を持っていてもよい。別法として、例えば、スチューデントまたはインストラクターは、 異なる視点間を切り換えることもできるだろう。これは、例えば、1つの画像がリモート視点であり、他方がローカル所画像である画像中画像を持っているようなものであり、ビデオ会議の行われる方法に類似している。そのような実施態様においては、双方の画像は、ローカルワークステーションに作成される(一方はローカルパラメータをもち、他方はリモートパラメータをもつ)。または、例えば、リモート画像は、遠隔にレンダリングされ、Vizサーバ(登録商標)アプローチと類似した方法(最後のピクセルのみ送信し、相互作用は送信しない)で送信される。したがって、所与のユーザは、リモートユーザが見ているものと全く同じものを見ることができる。「あなたは、私が見ているものを見ていますか?」といった疑いをもつことはない。   In embodiments of the invention, familiar with Dextroscope®, DextroBeam®, or DEX-Ray® system, or equivalents thereof The instructor (e.g., a doctor, surgeon, or other specialist) may, for example, provide instruction via a DextroNet to at least one remotely located student. A student can have a 3D model that is an opponent with the same perspective as the instructor. Or, for example, it can have different viewpoints. For example, a student may have one display (or display window) with an instructor's viewpoint, or another display (or display window) with a different viewpoint. Alternatively, for example, a student or instructor could switch between different viewpoints. This is, for example, like having an in-image image where one image is a remote viewpoint and the other is a local image, and is similar to the method of video conferencing. In such an embodiment, both images are created on a local workstation (one with local parameters and the other with remote parameters). Or, for example, a remote image is rendered remotely and sent in a manner similar to the Viz Server® approach (send only the last pixel, not the interaction). Thus, a given user can see exactly what the remote user is seeing. There is no doubt, “Do you see what I see?”

説明を簡易にするため、そのような教育的態様における関係者を「ティーチャー」もしくは「インストラクター」(メインユーザ)および「スチューデント」(リモートユーザ)と称する。次に、ティーチャー―スチューデントパラダイムの例を図1および3を用いて説明する。   To simplify the description, the parties in such an educational aspect are referred to as “teachers” or “instructors” (main users) and “students” (remote users). Next, an example of the teacher-student paradigm will be described with reference to FIGS.

本発明の実施態様において、ティーチャーは、例えば、スチューデントのリアルタイムのビュー画像を見ることはできないが、ティーチャーのワールド内に表示されているスチューデントのツールのポインタの方向によって、スチューデントが見ているもの(スチューデントの関心領域を示唆し得るものである)を知ることができる。リモートスタイラスの見かけからリモートステーションの視点を正確に「知る」ことができないときには、周知もしくは想定される事実、例えば、右側の人によってスタイラスが使用されている。それを使って前方向に指し示しているといったことなどから推量することができる。   In an embodiment of the present invention, a teacher cannot, for example, see a student's real-time view image, but is viewed by the student according to the direction of the student's tool pointer displayed in the teacher's world ( Which can suggest the student's area of interest). When it is not possible to accurately “know” the remote station's viewpoint from the appearance of the remote stylus, a well-known or assumed fact, for example, the stylus is used by the right person. You can guess from the fact that you are pointing forward using it.

そのような例示のシナリオは、ティーチャーが複数のスチューデントに教えることができるように設計されている。したがって、ティーチャーは、スチューデントがボイスや他のシグナルで質問をしてこない限り邪魔されることはない。その後、そのような質問のあるスチューデントの要望に基づいて、例示のティーチャーは、例えば、所与のオブジェクトを回転させ、容易に彼の視点をスチューデントの視点に並べることができる。彼はスチューデントがどのようにしてスチューデントのツールの方向からオブジェクトを見ているかについて実質的に明らかにすることができるからである。別法として、ティーチャーおよびスチューデントは、彼らの役割を逆転させることができる。これは、本発明の実施態様においては、例えば、以下に記載するように(「役割切り換え」(Role Switch))、2〜3のボタンをクリックすることによって、容易に実現することができる。記載しているように、本発明の実施態様において、ティーチャー―スチューデントパラダイムにおいては、スチューデントは、例えば、特定のオブジェクトに所属するボクセルもしくは複数の3D画像を変更しないいくつかの操作を除いては、オブジェクトを局所的に操作することはできない。そのような操作には、例えば、オブジェクトに対する翻訳、回転および/もしくはポインティング、またはオブジェクトのズーミング(倍率の変更)がある。これは通常、指示または複数の指示が、3Dデータセットと衝突するのを防ぐ。   Such an example scenario is designed so that a teacher can teach multiple students. Thus, the teacher will not be disturbed unless the student asks questions with voice or other signals. Then, based on the student's desire for such a question, the exemplary teacher can, for example, rotate a given object and easily align his viewpoint with the student's viewpoint. He can practically reveal how the student sees the object from the direction of the student's tool. Alternatively, teachers and students can reverse their roles. In the embodiment of the present invention, this can be easily realized by clicking a few buttons as described below ("Role Switch"), for example. As described, in an embodiment of the present invention, in the teacher-student paradigm, a student can, for example, except for some operations that do not change a voxel or multiple 3D images belonging to a particular object: You cannot manipulate objects locally. Such operations include, for example, translation of objects, rotation and / or pointing, or object zooming (magnification change). This usually prevents the instruction or instructions from colliding with the 3D data set.

一般に、リモートユーザ(例えば、ティーチャーとして行動しない、スチューデント、外科医、または可視化アシスタント)が実行できるローカルコントロールは、しばしば限定することができる。なぜなら、上記したように、一般的に、ティーチャーの(または可視化アシスタントの)データセットの操作は、各スチューデントの(または外科医の)機械に局所的に実行されるからである。すなわち、メインユーザの相互作用は、ネットワークを介して送信され、局所的に実行される。メインユーザはこのように、リモートユーザの(ローカル)機械のコントロールを有している。このような実施態様において、もしスチューデントが、ティーチャーの処理が最早意味をなさないかのように彼/彼女のデータのローカルコピーを変更することができたとしたら、混乱が生じ得る。例えば、標準的なデキストロスコープ(Dextroscope)(登録商標)上で、ユーザは、3Dデータセット中のオブジェクトの区分化の完全なコントロールを有している。例えば、その区分化は、オブジェクトの色彩自動照合表を変更することによって、変更することができる。あるいは、区分化だけをそのままにすることもできるし、既に区分化されているオブジェクトと関連する色や透明性をただ変えることもできる。後者の操作は、オブジェクトのもともとのコンテンツを変更しないが、その可視化パラメータを変更することはできる。   In general, the local controls that can be performed by a remote user (eg, a student, surgeon, or visualization assistant who does not act as a teacher) can often be limited. This is because, as noted above, the manipulation of the teacher's (or visualization assistant's) data set is typically performed locally on each student's (or surgeon's) machine. That is, the main user interaction is transmitted over the network and executed locally. The main user thus has control of the remote user's (local) machine. In such an implementation, confusion can arise if the student could change the local copy of his / her data as if the teacher's processing no longer makes sense. For example, on a standard Dextroscope®, the user has full control of the segmentation of objects in the 3D dataset. For example, the segmentation can be changed by changing the object automatic color matching table. Alternatively, only the segmentation can be left as is, or the color and transparency associated with an already segmented object can be simply changed. The latter operation does not change the original content of the object, but can change its visualization parameters.

さらに、一般に、操作対象のオブジェクトの大きさについてのいくつかの想定に基づいて作動するデキストロスコープ(Dextroscope)(登録商標)型システム内ならびにインタラクティブ3Dデータセット可視化システム内には、多くのツールおよび操作が存在する。例えば、ツールの先端からオブジェクトの最も近い表面に光線を当てることによって作動するポインティングツールがある。ローカルユーザがオブジェクトの区分化を変更したために、オブジェクトの最も近い表面がそのようなポインティングツールに近づいたり、または、そのようなポインティングツールから離れたりすれば、ティーチャーが彼のポインティングツールを持ち上げ、オブジェクトを指し示したとき、スチューデントの画面上で、そのようなポインティングツールは、全く異なるオブジェクトにタッチするかもしれない。実際、スチューデント機では、ティーチャー機の上にあるものを通って、正しく進み、オブジェクトの表面へ行くことができる。一般に、ドリリングツール、ピッキングツール、輪郭線抽出ツール、イソ表面作成ツール、および種々の他のツールは同様に、それらが操作しているオブジェクトの大きさに依存している。したがって、記載したように、本発明の実施態様において、スチューデントのローカルコントロールパネルは、ティーチャーのコントロール下にある。そのような実施態様において、スチューデントができることは、ティーチャーの視点から離れ、彼が望むオブジェクトの回転、翻訳、拡大(ズーム)、または色もしくは透明性(大きさではない)を調節することだけである。したがって、ティーチャーと各オブジェクトの間の関係は保存される。どのくらい多くのコントロールがスチューデントに及ぶのかといった問題が常に生じる。本発明の実施態様において、その問題は、一般に、実際のデータセットを変更しないあらゆる局所の行動を可能にすることによって、解決することができる。   In addition, there are many tools and operations within the Dextroscope® type system and interactive 3D dataset visualization systems that generally operate based on some assumptions about the size of the object being manipulated. Exists. For example, there are pointing tools that operate by directing light rays from the tip of the tool to the closest surface of the object. If a local user changes the object's segmentation, if the closest surface of the object approaches or moves away from such a pointing tool, the teacher lifts his pointing tool and the object On the student's screen, such a pointing tool may touch an entirely different object. In fact, a student machine can go right through the one on the teacher machine and go to the surface of the object. In general, drilling tools, picking tools, contour extraction tools, isosurface creation tools, and various other tools are similarly dependent on the size of the object they are manipulating. Thus, as described, in an embodiment of the present invention, the student's local control panel is under the control of the teacher. In such an embodiment, the student can only move away from the teacher's point of view and adjust the rotation, translation, magnification (zoom), or color or transparency (not size) he wants. . Therefore, the relationship between the teacher and each object is preserved. There will always be a question of how many controls will be on the student. In embodiments of the present invention, the problem can generally be solved by allowing any local behavior that does not change the actual data set.

それにもかかわらず、本発明の実施態様において、ローカルユーザに、彼のローカルデータに対して「真に」影響を与えないが、むしろ後にその影響が表示され、一方、メインユーザの操作は、「ゴースト化」されたように表示される、データのローカルコピー上で作動する特定の操作をさせるようにすることで、複雑さが増すことがあり得る。   Nevertheless, in an embodiment of the present invention, the local user has no “true” effect on his local data, but rather the effect is displayed later, while the main user's operation is “ By allowing certain operations to operate on local copies of data that appear to be "ghosted", complexity can be increased.

例えば、ティーチャーは、1以上のスチューデントに対して、種々のツールを用いた3Dデータセット間のオブジェクト間の種々の測定方法を説明していることもある。当該ティーチャーは、測定を行うことができ、それらは、スチューデントに見られるであろう。しかしながら、ティーチャーは、スチューデントが類似の測定を行うことができる能力をテストすることを望み、スチューデントに、教わったばかりのことを適用し、ティーチャーがまだ行っていない追加の測定を行うように求める場合もある。   For example, a teacher may describe various measurement methods between objects between 3D datasets using various tools for one or more students. The teacher can take measurements and they will be seen by students. However, a teacher may wish to test the ability of a student to make a similar measurement, and may ask the student to apply what he has just taught and take additional measurements that the teacher has not yet made. is there.

スチューデントは、例えば、それらの測定を行い、例えば、彼の機械上に表示することができる。その後、ティーチャーは、例えば、スチューデントの機械のスナップショットを撮影し、スチューデントの技量を評価する。同様に、スチューデントは、「真の」データセットおよび、「ゴースト化」されたようにではなく、ティーチャーによるその「真の」操作が示され得る、彼のディスプレイに表示され得るデータセットを操作することができる。このように、ティーチャーの操作のすべてが、スチューデントの機械に表示されるように、オブジェクトのゴースト化された境界上で作用する。そして、スチューデントの局所操作は、切れ目のない状態で、機械上の必要な範囲で(すなわち、3Dデータセットに影響を及ぼすであろう程度に) 作用する。したがって、多大な複雑さと更なるローカルプロセシングといった犠牲の上で、スチューデントは、例えば、上記の翻訳、回転、ポインティング、および/または拡大など以外の操作を行うことが許されている。   The student can, for example, make these measurements and display, for example, on his machine. The teacher then takes a snapshot of the student's machine, for example, and evaluates the student's skill. Similarly, a student manipulates a “true” dataset and a dataset that can be displayed on his display, not as “ghosted”, but that “true” manipulation by a teacher can be shown. be able to. In this way, all of the teacher's operations act on the ghosted boundaries of the object so that they are displayed on the student's machine. The student's local manipulations then operate in the required range on the machine, ie, to the extent that it will affect the 3D data set, in an unbroken state. Thus, at the expense of great complexity and further local processing, the student is allowed to perform operations other than, for example, the translation, rotation, pointing, and / or magnification described above.

尚、上記実施態様は、スチューデントが「増強した」分離モードに入る際には、彼が、データセット全体(3Dオブジェクトならびにコントロールパネルを含む)のコピーを作成することを要求している。この条件下では、スチューデントは、例えば、ローカル(コピー)データセット上で操作し、一方、ティーチャーは、リモートユーザまたはスチューデント機にゴースト化された状態で示されているオリジナルのデータセット上で操作することができる。こうして、2つの独立した画像処理プロセスは、例えば、同じ(スチューデントの)ワークステーション上で平行して作用することができる。もし、ティーチャーが、スチューデントによって開発された新しいアプローチを見たい場合、ティーチャーは、スチューデントの画像のスナップショットを撮影し、それについて両者で議論することができる。   Note that the above embodiment requires that when the student enters the “enhanced” separation mode, he makes a copy of the entire data set (including 3D objects as well as the control panel). Under this condition, the student operates on, for example, a local (copy) data set, while the teacher operates on the original data set that is shown ghosted to the remote user or student machine. be able to. Thus, two independent image processing processes can work in parallel on the same (student) workstation, for example. If the teacher wants to see a new approach developed by the student, the teacher can take a snapshot of the student's image and discuss it both.

本発明の実施態様において、ティーチャーの役割をこのように関係者から関係者に渡す役割切り換えを用いると、スチューデントは、ティーチャーからコントロールを引き継ぐ。彼は、例えば、操作または他の処置をどのようにして行うかを実証することによって、ティーチャーのオブジェクトのワークを引き続いて行い、彼の意見を提供する。これによって、すべての関係者による協同が可能になる。そのような実施態様においては、所与の時間には、ネットワーク上にティーチャーが一人存在し、そのような協同は、対立の問題を生じることなく連続的に行われる。   In an embodiment of the present invention, the student takes over control from the teacher when role switching is used to pass the teacher's role from party to party in this manner. He continues to work on the teacher's object and provides his opinion, for example, by demonstrating how to perform an operation or other procedure. This allows cooperation by all parties involved. In such an embodiment, there is one teacher on the network at a given time, and such cooperation occurs continuously without creating conflict problems.

本発明の実施態様において、デキストロネット(DextroNet)は、異なる帯域幅の種々のネットワークによってサポートされている。ある実施態様において、デキストロネット(DextroNet)が教育的指導のために用いられる場合、例えば、低速ネットワークが行われる。例示のデキストロネット(DextroNet)を介して 接続されている3Dインタラクティブ可視化システムのそれぞれは、例えば、手術計画、手術の処置、または解剖学的構造のイメージングおよびビデオデータのコピーをもつことができる。したがって、典型的にはサイズの小さいトラッキングデータ、制御信号またはグラフィカルもしくは画像パラメータデータは、ネットワークを介して送信することができる。一般的には、デキストロネット(DextroNet)中では、ネットワーク情報は、例えば、メッセージおよびファイルの2つに分類することができる。メッセージは、例えば、トラッキングデータ、制御信号などを含むことができる。ファイルは、例えば、送信前に圧縮することが可能なグラフィカルおよび画像データを含むことができる。これを以下においてより詳細に説明する。   In an embodiment of the present invention, DextroNet is supported by various networks with different bandwidths. In one embodiment, when a DextroNet is used for educational instruction, for example, a slow network is performed. Each of the 3D interactive visualization systems connected via an exemplary DextroNet can have, for example, a surgical plan, a surgical procedure, or a copy of anatomical imaging and video data. Thus, typically small size tracking data, control signals or graphical or image parameter data can be transmitted over the network. In general, in DextroNet, network information can be classified into two types, for example, messages and files. The message can include, for example, tracking data, control signals, and the like. The file can include, for example, graphical and image data that can be compressed prior to transmission. This will be described in more detail below.

記載したように、本発明の実施態様において、1人のユーザによって導入された行動は、少なくとも他の1人のユーザ(スチューデントもしくは ティーチャー)のリモートロケーションに送信することができる。そこでは、第2のワークステーションが局所的に対応する画像を計算する。ネットワークで結ばれた関係者間のボイスによる通信は、帯域外とすることができる。例えば、低速ネットワーク態様においては電話で、または、例えば、高速ネットワーク態様においては、ボイス−オーバー−ネットワークシステム、例えば、ボイス−オーバーインターネットプロトコル(「VoIP」)を介して行われる。さらに、高速ネットワークは、カメラプローブ(Camera Probe)出願に記載されているようにカメラプローブ(Camera Probe)によって作成されるモノ−もしくはステレオビデオ情報の転送を収容することができる。このビデオ情報は、例えば、コンピュータが作成する画像と組み合わせることができる。または、分離したディスプレイもしくは ディスプレイウインドウで見ることができるようにしてもよい。3Dではないビデオ(または画像、スナップショット)の表示は、通常、「背景」としてのみ見られる。これは、画像またはビデオ(連続的な画像)は、実世界の投影図であって、3D情報を含まないからである。したがって、そのような画像またはビデオにおいて視覚可能なオブジェクトは、正確に3Dオブジェクト前部に位置づけることができる。そのような表示の可能性についてより詳細に下記において説明する。   As described, in an embodiment of the present invention, an action introduced by one user can be sent to the remote location of at least one other user (student or teacher). There, the second workstation calculates an image that corresponds locally. Voice communication between parties connected by a network can be out of band. For example, it is done by telephone in the low-speed network aspect or via a voice-over-network system, for example, Voice-over Internet Protocol (“VoIP”), for example in the high-speed network aspect. Furthermore, the high-speed network can accommodate the transfer of mono- or stereo video information created by the camera probe as described in the Camera Probe application. This video information can be combined with, for example, an image created by a computer. Or it may be viewed on a separate display or display window. The display of non-3D video (or images, snapshots) is usually only seen as “background”. This is because an image or video (continuous image) is a real world projection and does not contain 3D information. Thus, an object visible in such an image or video can be positioned exactly in front of the 3D object. The possibility of such a display will be described in more detail below.

本発明の実施態様において、デキストロネット(DextroNet)は、例えば、ワーキングを協同して、および独立してサポートすることができる。例示のシステムは、例えば、手術計画のためのスタンドアロンプラットフォームおよび独立したトレーニングとして使用することができる。そのような実施態様において、例えば、システム構成は、局所的に最適化することができる。スチューデントのシステムのインターフェースの位置や方向は、したがって、インストラクターのシステムのものと異ならせることができる。しかしながら、もしネットワーキング機能が起動すれば、スチューデントのシステムは、例えば、インストラクターのシステムのそれと合わせるよう、システム構成を変更することができる。これによって同等のシステム間に存在し得るミスマッチを避けることができる。   In embodiments of the present invention, DextroNet can support, for example, working cooperatively and independently. The exemplary system can be used, for example, as a stand-alone platform and independent training for surgical planning. In such an implementation, for example, the system configuration can be optimized locally. The position and orientation of the student system interface can therefore be different from that of the instructor system. However, if the networking function is activated, the student system can be modified to match the system of the instructor system, for example. This avoids mismatches that may exist between equivalent systems.

E.デキストロネット(DextroNet)外科医−可視化アシスタントパラダイム
本発明の別の実施態様において、インストラクター は、例えば、遠隔に所在する少なくとも一人のスチューデントを教えることができる。そして、「可視化アシスタント」は、画像を操作し、そのようなアシスタントが見るものを見るために必要なステップを助言することによって、あるいは、彼の視点のすべてを見ることができるように周期的に転送するティーチャーの役割によって、インストラクターを援助することができる。例えば、可視化アシスタントは、関心オブジェクト(例えば、カラールックテーブルもしくはオブジェクトの透明性)を強調する;関心オブジェクトを拡大(ズーム)する;方向または視点を変化させる;記録された処置のビデオ画像の再生、停止、巻き戻し、早送り、もしくは一時停止を行う; 分割されたスクリーンに異なる視点を提供する;表示するために、ビデオ画像とコンピュータ生成画像とを組み合わせる;モノおよびステレオ画像の表示の間でトグルを行う(それらがビデオ画像であるか、コンピュータ生成画像であるか);ならびに、他の関連する操作およびプレゼンテーションタスクを行うために画像を処理することができる。インストラクターおよびスチューデントに加えて、可視化アシスタントを関与させることによって、インストラクターは、例えば、スチューデントを教えることに集中し、正確に言えば、画像の処理に注意を集中させる。さらに、アシスタントがシステムコントロールを渡し、それによってティーチャーとなったとき、3Dインタラクティブ画像システムを熟知していないかもしれないスチューデントは、彼らが必要とするかもしれない視点や情報を取得する際に助けてもらうことができる。
E. DextroNet Surgeon-Visualization Assistant Paradigm In another embodiment of the present invention, an instructor can, for example, teach at least one student located remotely. And the “Visualization Assistant” manipulates images and advises the steps necessary to see what such an assistant sees, or periodically so that he can see all of his viewpoints Depending on the role of the transferring teacher, the instructor can be assisted. For example, the visualization assistant highlights the object of interest (eg, color look table or object transparency); zooms in the object of interest; changes direction or viewpoint; plays a video image of the recorded procedure; Stop, rewind, fast forward, or pause; provide a different view on a split screen; combine video and computer-generated images for display; toggle between displaying mono and stereo images Perform (whether they are video images or computer-generated images); and process the images to perform other related manipulation and presentation tasks. By involving a visualization assistant in addition to the instructor and student, the instructor focuses, for example, on teaching the student, and more precisely on the processing of the image. In addition, when an assistant gives system control and thereby becomes a teacher, students who may not be familiar with 3D interactive imaging systems can help in obtaining the perspective and information they may need. I can get it.

本発明の実施態様において、外科医または内科医および「可視化アシスタント」は、実際の手術中、または他の医療処置の間、デキストロネット(DextroNet)上で協同することができる。そのような実施態様において、通常、当該可視化アシスタントはメインユーザとして、内科医はリモートユーザとして行動する。外科医または内科医は、手術室または治療室で、例えば、手術を行ったり、いくつかの医学的、診断的、または治療的処置を患者に施したりすることができる。そして、可視化アシスタントは、例えば、外科手術部、外科手術上のギャラリー、隣接した部屋、または異なる場所すべてといった、離れたところに居る。これは、外科医−アシスタントパラダイムとして、以下に詳細に、図4乃至8を用いて説明する。   In embodiments of the present invention, the surgeon or physician and the “visualization assistant” can collaborate on a DextroNet during actual surgery or during other medical procedures. In such embodiments, the visualization assistant typically acts as the main user and the physician as the remote user. A surgeon or physician can perform, for example, surgery or perform several medical, diagnostic, or therapeutic procedures on a patient in an operating room or treatment room. The visualization assistant is then at a remote location, for example, a surgical department, a surgical gallery, an adjacent room, or all different locations. This is described in detail below as a surgeon-assistant paradigm using FIGS.

可視化アシスタントの仕事としては、例えば、手術をしている外科医と、例えば、ボイスで接触し、3D表示を外科医の最大限の援助となるように動的に操作することをあげることができる。他のリモートユーザは、観察することはできるが、例えば、リモートユーザとして、自由にデータを操作することはできないであろう。   The work of the visualization assistant can include, for example, touching the surgeon performing the operation, for example, by voice and dynamically manipulating the 3D display to provide the surgeon's maximum assistance. Other remote users can observe, but for example, as a remote user, they may not be able to manipulate the data freely.

例えば、外科医が、脳神経外科の処置と関連付けてデックス―レイ(DEX-Ray)(登録商標)を使用する場合を想定する。そのような例示的な実行においては、彼のメインディスプレイは、カメラプローブ(Camera Probe)出願に記載されているように、カメラの視点から見ることができるデータセットのそれらの部分に限定される。しかしながら、可視化アシスタントは、視点からのバーチャルデータを自由に見ることができる。本発明の実施態様において、可視化アシスタントは、2つのディスプレイを持つことができ、外科医の視点と彼の視点の双方を見ることができる。例えば彼は、外科手術を反対の視点から見ることができる(すなわち、腫瘍または他の頭蓋内構造に固定された誰かのものと、外科医が、彼の視点に「外部」から「入ってくる」所を見ることができる。   For example, suppose a surgeon uses DEX-Ray® in connection with a neurosurgical procedure. In such an exemplary implementation, his main display is limited to those portions of the data set that can be viewed from the camera perspective, as described in the Camera Probe application. However, the visualization assistant can see the virtual data from the viewpoint freely. In an embodiment of the invention, the visualization assistant can have two displays and can see both the surgeon's perspective and his perspective. For example, he can see the surgery from the opposite perspective (i.e. someone's fixed to the tumor or other intracranial structure and the surgeon "enters" his perspective from "external"). You can see the place.

例えば、外科医が視神経の近くを手術しているとしよう。カメラプローブ(Camera Probe)出願に記載しているように、ユーザは、データセット中にマーカーとして、1以上のポイントをセットし、プローブの先端からそれらのマーカーまでの動的距離が連続的に読み出されるのを見る。さらに、ユーザは、1以上のトラッキングされた手術器具(ビデオ画像を取得しないであろう)を用いて同じことをすることができ、その結果、可視化の専門家は、例えば、外科医が実際に手術をしているときに入力を行うことができる。外科医が視神経近傍の位置に対する全体の表示に専念できないとき、可視化アシスタントはできる。   For example, suppose a surgeon is operating near the optic nerve. As described in the Camera Probe application, the user sets one or more points as markers in the data set, and the dynamic distance from the probe tip to those markers is continuously read out. I see you. In addition, the user can do the same with one or more tracked surgical instruments (which will not acquire video images) so that the visualization specialist can, for example, You can input when you are doing. A visualization assistant can do when the surgeon is unable to concentrate on the entire display for positions near the optic nerve.

こうして、例えば、可視化アシスタントは、外科医が手術を行っている領域をデジタルにズームし、外科医の近くの視神経に沿って5つのマーカーポイントを設定し、それぞれまでの距離をモニターすることができ、特定の安全限界に外科医が居るかどうかを彼に忠告する。さらに、場合によっては、可視化アシスタントによって設定された新たなマーカーおよび動的距離を、外科医のシステムディスプレイに可視化、可聴化することもできる。メインユーザである可視化アシスタントは、3Dデータセットをコントロールするからである。   Thus, for example, the visualization assistant can digitally zoom the area where the surgeon is performing the operation, set five marker points along the optic nerve near the surgeon, and monitor the distance to each Advise him if there is a surgeon at the safety limit. Further, in some cases, new markers and dynamic distances set by the visualization assistant can be visualized and audible on the surgeon's system display. This is because the visualization assistant who is the main user controls the 3D data set.

カメラプローブ(Camera Probe)に記載しているように、ユーザは、組み合わされた(拡張現実感)画像を含めた種々のバーチャル構造を特定することができる。理想的には、これは、外科手術の進行に合わせて動的に行われ、各段階において、その段階に関連する区分化を可視化することができる。しかしながら、実際には、一人で作業している外科医には、通常不可能である。外科医は、可視化の専門家でもなければ、当該システムの可能性を動的に自由に精神的に利用することもできないからである。しかしながら、可視化アシスタントはそれを行う。外科医が所与の領域に来ると、可視化アシスタントは、外科医に最良のガイドをするために構造を追加したり、取り除いたりすることができる。例えば、彼は、ある構造が外科手術前に区分化されなかったもの、例えば、術前のスキャンには現れなかった腫瘍の指状小片や繊維状のものといった脳構造の一部に関連する場合、オブジェクトをその場で区分化することができる。したがって、本発明の実施態様において、リモートビューアは、より多くの自由を持つことができ、したがって、計画前、例えば、いくつか挙げれば、カラライゼーション、透明性、区分化閾値などの間には行えなかった、あらゆる画像プロセシングを行うことができる。   As described in Camera Probe, the user can specify various virtual structures including combined (augmented reality) images. Ideally, this is done dynamically as the surgical procedure progresses, and at each stage the segmentation associated with that stage can be visualized. In practice, however, it is usually not possible for a surgeon working alone. This is because the surgeon is not a visualization specialist, nor can he freely and mentally exploit the potential of the system. However, the visualization assistant does that. Once the surgeon is in a given area, the visualization assistant can add or remove structures to best guide the surgeon. For example, he is related to a part of the brain structure, such as a structure that was not segmented prior to surgery, such as a finger-like piece or a fibrous piece of a tumor that did not appear in a pre-operative scan , Objects can be segmented on the fly. Thus, in an embodiment of the present invention, the remote viewer can have more freedom and therefore can be done before planning, eg, between colorization, transparency, segmentation thresholds, etc., to name a few. Any image processing that was not possible can be performed.

類似性を利用すれば、外科医は、競技場の情報のプレスボックスで、高い視線から鳥の目でゲームを見て、他のチームの作戦行動におけるパターンを見ながら無線でコーチに話をするアシスタント(可視化アシスタント)がいるフットボールのコーチに類似すると考えることができる。そのような専門的助言をする人は、本発明の実施態様においては、例えば、自分のスクリーンと外科医のスクリーンの両方を見て、その両方に表示されたバーチャルオブジェクトを動的にコントロールして、手術をしている外科医に対して最良の援助を行うことができる。   Using the similarity, surgeons can use the stadium's information press box to watch the game with a bird's eye from a high gaze and talk to the coach wirelessly while watching patterns in other teams' operational behavior. It can be thought of as similar to a football coach with (Visualization Assistant). A person giving such professional advice may, for example, look at both his screen and the surgeon's screen in an embodiment of the present invention and dynamically control the virtual objects displayed on both, The best assistance can be provided to the surgeon performing the operation.

II.ティーチャー―スチューデント相互作用
A.例示的プロセスフロー
次に、本発明の実施態様における、ティーチャー―スチューデントパラダイムのプロセスフローを説明する。
II. Teacher-Student Interaction A. Exemplary Process Flow Next, a teacher-student paradigm process flow in an embodiment of the present invention will be described.

図1は、本発明のある実施態様におけるティーチャー型コンソールの例を示す図である。この図を用いて説明する。101では、例示のシステムは、接続しているあらゆるスチューデントの確認をすることができる。こうして、102では、新たなスチューデントが参加したか否かを決定することができる。Yesであれば、103において、インターフェースおよびデータが、ティーチャーコンソールと、新たに参加したスチューデントのためのスチューデントのコンソールの間において同期を取ることができる。Noであれば、プロセスフローは101に戻り、当該システムは、参加するかもしれないあらゆるスチューデントの確認を行う。   FIG. 1 is a diagram showing an example of a teacher-type console in an embodiment of the present invention. This will be described with reference to this figure. At 101, the exemplary system can verify any connected students. Thus, at 102, it can be determined whether a new student has joined. If yes, at 103, the interface and data can be synchronized between the teacher console and the student console for the newly attended student. If no, the process flow returns to 101 and the system checks for any student that may participate.

103に戻る。例えば、コンソールの3Dインターフェースのボタンを明確にクリックすることによって、新たなスチューデントがデキストロネット(DextroNet)に参加すると、ティーチャーは、例えば、当該スチューデントにメッセージを送信し、それぞれのインターフェースとオブジェクト、例えば、スライダー、ボタンなどを同期させる。そのようなメッセージには、例えば、ティーチャーのコントロールパネルの位置、方向、大きさ、コントロールパネル上のバーチャルウインドウ機器(「ウィジェット」)、例えば、ボタンの上げ下げ、色彩自動照合表の設定、データセット中のバーチャルオブジェクトの位置、方向、大きさ、あらゆる入手可能なビデオを含むことができる。あるいは、ティーチャーが、スチューデントの側のデータが自分のものとは違いすぎることを見つけた場合、ティーチャーは、自分とスチューデントのそれぞれのコンソールの間の全体のデータセットの完全な同期を選択して行うことができる。これは、例えば、ティーチャーのコンソールによって、データセットを圧縮(スナップショットや記録を除去)し、それを新たにデキストロネット(DextroNet)セッションに参加したスチューデントに転送する。一旦、ティーチャーと新たに参加したスチューデントによって共有されるインターフェースならびにデータが同期されると、それらの協同的インタラクティブな可視化のための準備が完了し、次に説明するように、プロセスフローが図1の残りの部分を含むメインループに続く。   Return to 103. For example, when a new student joins a DextroNet by explicitly clicking a button on the console's 3D interface, the teacher will send a message to the student, for example, and each interface and object, eg, , Synchronize sliders, buttons, etc. Such messages include, for example, the position, orientation, and size of the teacher's control panel, the virtual window device ("widget") on the control panel, such as raising and lowering buttons, setting up an automatic color matching table, and in the data set Virtual object position, orientation, size, and any available video can be included. Alternatively, if the teacher finds that the student's data is too different from his own, the teacher chooses to do a full synchronization of the entire data set between himself and each of the student's consoles be able to. This is done, for example, by the teacher's console, compressing the data set (removing snapshots and records) and transferring it to the newly joined student in the DextroNet session. Once the interfaces and data shared by the teacher and the newly attending student are synchronized, preparation for their collaborative interactive visualization is complete, and the process flow is illustrated in FIG. Continue to the main loop, including the rest.

110において、例示のティーチャーシステムは、スチューデントビデオが受信されたかどうかを照会することができる。これは、例えば、スチューデントがデックス―レイ(DEX-Ray)(登録商標)型システムを操作すれば行われる。Yesであれば、プロセスフローは111に進むことができ、そこで、前記スチューデントのビデオがレンダリングされ、プロセスフローは125に進むことができる。Noであれば、スチューデントビデオが受信され、プロセスフローは直接125に進むことができる。さらに、ティーチャーのワークステーションがビデオを利用可能とすれば、105において読み取られ、106においてレンダリングされ、そしてプロセスフローは、120に進むことができ、そこで当該システムは、そのようなあらゆるビデオが利用可能かどうかを照会することができる。   At 110, the example teacher system can query whether student video has been received. This is done, for example, if a student operates a DEX-Ray® type system. If yes, process flow can proceed to 111 where the student's video is rendered and process flow can proceed to 125. If no, student video is received and the process flow can proceed directly to 125. Further, if the teacher's workstation makes the video available, it is read at 105, rendered at 106, and the process flow can proceed to 120, where the system can make any such video available. You can inquire whether.

記載したように、120において、ティーチャーのビデオの利用可能性が決定される。Yesであれば、126においてビデオフレームを送信することができ、プロセスフローは125に進むことができる。Noであれば、プロセスフローは125に進むことができ、そこで、ティーチャー3Dデバイスが読み取られる。ここで、ティーチャーは、バーチャルツール(例えば、スタイラス、データセットにおけるティーチャーの現在位置を示すアバター、またはドリル)の位置、方向、および状態を、それによってオペレータがデータセットと対話する3次元のコントロールの動きおよび状態を連続的にトラッキングするローカルトラキングシステムから、更新することができる。例えば、結腸鏡検査法アプリケーションを行っている標準的なデキストロスコープ(Dextroscope)(登録商標)においては、そのような3Dコントロールは、例えば、スタイラスやユーザ(ここではティーチャー)が右手および左手にそれぞれ持つジョイスティックであることができる。または、例えば、デキストロスコープ(Dextroscope)(登録商標)で他のアプリケーションを行う場合、代わりにユーザは、例えば、6Dコントローラーを左手に持つ。ティーチャー側の3D装置が125において読み出されると、ネットワーク(スチューデント)3D装置を130において読み出すことができ、ティーチャーワークステーションは、例えば、スチューデントの代表的なツールの位置、方向および状態を、スチューデントのワークステーションからネットワークを介してから受信したメッセージを介して更新することができる。   As described, at 120, the availability of the teacher's video is determined. If yes, the video frame can be transmitted at 126 and the process flow can proceed to 125. If no, the process flow can proceed to 125 where the teacher 3D device is read. Here, the teacher is responsible for the position, direction, and state of a virtual tool (eg, stylus, avatar that indicates the current position of the teacher in the dataset, or drill), thereby allowing the operator to interact with the dataset. Updates can be made from a local tracking system that continuously tracks movement and status. For example, in a standard Dextroscope (registered trademark) performing colonoscopy applications, such a 3D control is for example held by the stylus or user (here a teacher) in the right and left hands, respectively. Can be a joystick. Alternatively, for example, when another application is performed with a Dextroscope (registered trademark), the user has, for example, a 6D controller in his left hand. Once the teacher's 3D device is read at 125, the network (Student) 3D device can be read at 130, and the teacher workstation can, for example, indicate the student's representative tool position, orientation, and status. It can be updated via a message received from the station via the network.

プロセスフローは、130から、例えば135に進み、そこでティーチャー側の相互作用がネットワークを介してスチューデントに送信される。ここで当該ティーチャーは、自分が使っているあらゆるツール、例えば、トリミングツール、ドリル、スライスビューアツール、など、ならびにキーボードイベントなどの位置、方向および状態をスチューデントに送信することができる。そのような位置および方向は、下記のデータフォーマットのセクションに記載したように世界座標に変換することができる。   The process flow proceeds from 130 to, for example, 135, where the teacher-side interaction is sent to the student over the network. Here, the teacher can send the student the position, orientation and status of any tool he / she is using, eg, trimming tools, drills, slice viewer tools, etc., and keyboard events. Such positions and orientations can be converted to world coordinates as described in the data format section below.

プロセスフローは、135から、例えば140に進むことができ、そこで、スチューデントが現在、ローカルスチューデントディスプレイにおいてティーチャーのビューに従うことを希望しているかどうかを判定する。Yesであれば、145において、当該視点は同期される。すなわち、ティーチャーは、スチューデントの視点の同期のリクエストを受信すると、当該ティーチャーは、彼のワークステーション内のバーチャルオブジェクトの位置、方向および大きさをスチューデントに送信する。Noであれば、140において、スチューデントは、したがって、彼の視点に従うことを選択する。そして、プロセスフローは150へ進み、そこで、データセットの3Dビューがレンダリングされる。こうした相互作用が進んでいるので、プロセスフローループは、150から110および120に回って戻り、そこで、例えば、デキストロネット(DextroNet)セッションが起動している限り繰り返され得る。そして、3Dデータセットの相互作用および操作は、連続的にネットワークに送信される。さらに、下記に示すように、スチューデントは、ティーチャーのものによるとは限らないが、ティーチャーの視点を見ることと、自身の(ローカル)視点を見ることの間でトグルすることができる。スチューデントの視点選択の現在の状態は、したがって、連続的にテストし、140までの各ループにおいて認識することができる。   The process flow can proceed from 135 to, for example, 140, where it is determined whether the student currently wishes to follow the teacher's view in the local student display. If yes, at 145, the viewpoint is synchronized. That is, when a teacher receives a request for synchronization of a student's viewpoint, the teacher sends the position, orientation, and size of the virtual object in his workstation to the student. If no, at 140, the student therefore chooses to follow his point of view. The process flow then proceeds to 150 where a 3D view of the dataset is rendered. As these interactions are progressing, the process flow loop returns from 150 to 110 and 120 where it can be repeated as long as, for example, a DextroNet session is active. The interaction and manipulation of the 3D dataset is then continuously sent to the network. Furthermore, as shown below, the student is not necessarily attributed to the teacher's, but can toggle between looking at the teacher's viewpoint and looking at his (local) viewpoint. The current state of the student's viewpoint selection can therefore be tested continuously and recognized in each loop up to 140.

対応するスチューデントのコンソールでのプロセスフローを説明する前に、次に、本発明の実施態様におけるデキストロネット(DextroNet)の種々の例示的構成を図2を用いて説明する。   Before describing the process flow at the corresponding student console, various exemplary configurations of DextroNet in an embodiment of the present invention will now be described with reference to FIG.

図2は、デキストロネット(DextroNet)ネットワーク250とそれに接続する種々のコンソールの例を示す図である。例示の接続されている例示の装置はすべて、ボリューム・インターラクション社(Volume Interactions Pte Ltd)(シンガポール)の製品または製品のプロトタイプである。例えば、デックス―レイ(DEX-Ray)(登録商標)型ワークステーション210は、デキストロネット(DextroNet)に接続することができる。上記したように、デックス―レイ(DEX-Ray)(登録商標)型ワークステーションは、カメラプローブ(Camera Probe)出願に記載されている技術を行うワークステーションである。そのような技術は、例えば、脳神経外科のプランニングおよびナビゲーションを含む種々のコンテクストにおいて有用である。デックス―レイ(DEX-Ray)(登録商標)型ワークステーションにおいては、例えば、脳の術前の3Dスキャンデータ、またはバーチャルデータ、およびリアルタイムビデオ区分化された、およびプロセシングされた組み合わせビューを作成することができる。デックス―レイ(DEX-Ray)(登録商標)型ワークステーションは、ティーチャーコンソールとして機能することができ、そこでは、神経外科医が、デックス―レイ(DEX-Ray)(登録商標)型ワークステーションを用いて、そのような組み合わせ画像を、手術プランニングを行っているとき、または外科手術を実行しているときでさえ、ネットワークで接続された他者へ示すことができる。または、より都合のよいことは、デックス―レイ(DEX-Ray)(登録商標)型ワークステーションは、可視化アシスタントをティーチャーとして機能させ、スチューデントとして操作できることである。引き続き図2を用いて、220および230は、デキストロネット(DextroNet)に接続されたデックス―レイ(DEX-Ray)(登録商標)型ワークステーションを示す。標準的なデックス―レイ(DEX-Ray)(登録商標)型ワークステーションにおいては、3Dデータセットをインタラクティブに可視化することができるが、デックス―レイ(DEX-Ray)(登録商標)型コンソールとは異なり、一般的に生のビデオを捕捉し統合することはできない。しかしながら、標準的なデキストロスコープ(Dextroscope)(登録商標)があらかじめ記録しているビデオ3Dデータセットに統合し、例えば、神経外科手術の「ポストモーテム」分析およびレビューにおいて生じたように操作することができ、そこでは、デックス―レイ(DEX-Ray)(登録商標)が用いられる。   FIG. 2 shows an example of a DextroNet network 250 and various consoles connected to it. All of the exemplary connected exemplary devices are products or prototypes of products from Volume Interactions Pte Ltd (Singapore). For example, a DEX-Ray® type workstation 210 can be connected to a DextroNet. As noted above, the DEX-Ray (registered trademark) type workstation is a workstation that performs the techniques described in the Camera Probe application. Such techniques are useful in a variety of contexts including, for example, neurosurgical planning and navigation. In a DEX-Ray (R) type workstation, for example, creating pre-operative 3D scan data of the brain, or virtual data, and real-time video segmented and processed views be able to. The DEX-Ray® workstation can function as a teacher console, where a neurosurgeon uses a DEX-Ray® workstation. Thus, such combined images can be shown to others connected via the network even when performing surgical planning or performing a surgical procedure. Or, more conveniently, the DEX-Ray (R) type workstation allows the visualization assistant to function as a teacher and operate as a student. Continuing with FIG. 2, 220 and 230 show a DEX-Ray® type workstation connected to a DextroNet. A standard DEX-Ray (R) workstation can interactively visualize 3D datasets, but what is a DEX-Ray (R) console? Unlike in general, live video cannot be captured and integrated. However, it can be integrated into a pre-recorded video 3D dataset by a standard Dextroscope® and manipulated as occurs, for example, in “post-mortem” analysis and review of neurosurgery. There, DEX-Ray (registered trademark) is used.

デキストロビーム(DextroBeam)ワークステーション220およびデキストロスコープ(Dextroscope)(登録商標)ワークステーション230は、本質的に同じ装置で異なる特色を持つものである。それは、主にディスプレイインターフェースが異なっている。デキストロビーム(DextroBeam)は、標準的なコンピュータ ワークステーションのような接続されたディスプレイを持つ代わりに、そのディスプレイを220に示すように、例えば、壁やスクリーンに投射するためのプロジェクタを用いる。逆に、デキストロスコープ(Dextroscope)(登録商標)は、通常2つのディスプレイを有している。1つは、オペレータが、鏡の下で3Dコントローラをつかみながら自分で実際に3Dデータセット上で操作しているように、リーチインインタラクティブ感をもつことができるように画像を鏡に投射する統合されたモニターである。もう一方は、鏡に投射されたものと同じコンテンツを表示する標準的なディスプレイモニターである。   The DextroBeam workstation 220 and the Dextroscope® workstation 230 are essentially the same equipment and have different features. It is mainly different in display interface. Instead of having a connected display, such as a standard computer workstation, DextroBeam uses a projector to project the display onto a wall or screen, as shown at 220. Conversely, a Dextroscope (registered trademark) usually has two displays. One is the integration of projecting the image into the mirror so that the operator can have a reach-in-interactive feeling as if he was actually operating on the 3D dataset while grabbing the 3D controller under the mirror. Monitor. The other is a standard display monitor that displays the same content that was projected onto the mirror.

したがって、図2に示すように、本発明の実施態様における例示のデキストロネット(DextroNet)ネットワークを用いた種々の協同的インタラクティブパラダイムが利用可能である。デックス―レイ(DEX-Ray)(登録商標)型ワークステーション210は、デキストロスコープ(Dextroscope)(登録商標)型ワークステーション230またはデキストロビーム(DextroBeam)ワークステーション220と協同することができる。あるいは、例えば、それは、デックス―レイ(DEX-Ray)(登録商標)ワークステーション210(図示せず)とも協同することができる。さらに、デキストロビーム(DextroBeam)ワークステーション220は、別のデキストロビーム(DextroBeam)ワークステーション220またはデキストロスコープ(Dextroscope)(登録商標)ワークステーション230とネットワーク250を介して対話することができる。   Accordingly, as shown in FIG. 2, various cooperative interactive paradigms using the exemplary DextroNet network in an embodiment of the present invention are available. The DEX-Ray® workstation 210 can cooperate with a Dextroscope® workstation 230 or a DextroBeam workstation 220. Alternatively, for example, it can also cooperate with a DEX-Ray® workstation 210 (not shown). Further, a DextroBeam workstation 220 can interact with another DextroBeam workstation 220 or Dextroscope® workstation 230 via the network 250.

さらに、図2には示されていないが、他の3Dインタラクティブ可視化システムをデキストロネット(DextroNet)に接続することができる。例えば、同じくボリューム・インターラクション社(Volume Interactions)により提供されるデキストロスコープ(Dextroscope)(登録商標)およびデキストロビーム(DextroBeam)システム上で動くソフトウェアである、ラジオデキスター(RadioDexter)(登録商標)の一バージョンがある。これは、3D操作が2Dコントロールにマッピングされるラップトップ(または他のPC)上、例えば、標準的なマウスやキーボードで起動する。そのようなソフトウェアの機能についてはデキストロラップ(DextroLap)出願に詳細に記載がある。そのようなソフトウェアを、ここでは「デキストロラップ(DextroLap)」と呼ぶ。デキストロラップ(DextroLap)コンソールは図2には示されていないが、これもデキストロネット(DextroNet)によく接続することができる。   Further, although not shown in FIG. 2, other 3D interactive visualization systems can be connected to the DextroNet. For example, RadioDexter (R), a software that runs on the Dextroscope (R) and DextroBeam systems, also provided by Volume Interactions There is one version. This is activated on a laptop (or other PC) where 3D operations are mapped to 2D controls, for example with a standard mouse or keyboard. The function of such software is described in detail in the DextroLap application. Such software is referred to herein as “DextroLap”. A DextroLap console is not shown in FIG. 2, but it can also be well connected to a DextroNet.

さらに、特にティーチャー―スチューデントコンテクストにおいて2つ以上の協同するワークステーションが デキストロネット(DextroNet)上に存在する。そこでは、一人のティーチャーがデータセットを操作し、ネットワーク250に接続している多くのスチューデントのすべてが参加または傍観することができる。そのような実施態様においては、他のスチューデントの誰もが、例えば、各スチューデントのバーチャルツールを、ティーチャーのものと同様に見ることができる。図10乃至30を用いて説明するように、ティーチャーは、例えば、各スチューデントのIPアドレスならびにバーチャルツールの位置およびスナップショットまたはそれらの表示のリアルタイムのビデオを見ることができる。   In addition, there are two or more cooperating workstations on DextroNet, especially in the Teacher-Student Context. There, one teacher manipulates the data set and all of the many students connected to the network 250 can participate or bystand. In such an embodiment, any other student can see, for example, each student's virtual tools as well as that of the teacher. As will be described with reference to FIGS. 10-30, the teacher can see, for example, each student's IP address and the location and snapshot of the virtual tool or a real-time video of their display.

本発明の別の実施態様においては、コントロール機能、すなわち、本明細書おいてはティーチャーとして記載されている操作機能性が、関係者から関係者に手渡され、あらゆる接続したシステムがそのデータとの相互作用を他の関係者に広めることを可能にしている。そのような実施態様においては、アイコンまたはメッセージは、例えば、どのシステムが次に操作するティーチャーであるのかを特定する。   In another embodiment of the present invention, the control function, i.e., the operational functionality described herein as a teacher, is handed from one party to the other, and any connected system communicates with the data. Making it possible to spread the interaction to other parties. In such an embodiment, the icon or message identifies, for example, which system is the next operating teacher.

デキストロネット(DextroNet)が提供し得る種々の協同の可能性から、スチューデントワークステーション上のプロセスフローを次に説明する。それは、ティーチャー―スチューデント相互作用が図2との関連で(図2に記載されているかどうか)説明した可能な接続のいずれかを利用することができることが理解できる。   Given the various collaboration possibilities that DextroNet can provide, the process flow on a student workstation will now be described. It can be seen that the teacher-student interaction can utilize any of the possible connections described in the context of FIG. 2 (whether or not described in FIG. 2).

図3を用いて説明すると、301において、スチューデントのコンソールは、利用可能なティーチャーとの接続を探す。これは、例えば、スチューデントのコンソールが、最初にインターネット上でデキストロネット(DextroNet)セッションに参加するという要求をブロードキャストすることによって行うことができる。もし、ティーチャーが利用可能であれば、当該スチューデントは、例えば、肯定応答を受信し、その後、接続されることができる。もし、インターネット(または他のデータネットワーク、例えば、VPN)上でティーチャーが誰もアクティブ状態でなければ)、当該スチューデントは、例えば、所与のシステム構成によって規定されているようにサーバに接続し、ティーチャーを待つことになる。   Referring to FIG. 3, at 301, the student console looks for a connection with an available teacher. This can be done, for example, by the student console first broadcasting a request to join a DextroNet session over the Internet. If the teacher is available, the student can receive an acknowledgment, for example, and then be connected. If no teacher is active on the Internet (or other data network, eg, VPN), the student will connect to the server, for example, as defined by a given system configuration, I will wait for the teacher.

ティーチャーが接続される(301において)と、プロセスフローが302に移動することができ、そこでは、スチューデントのコンソールが、当該スチューデントとティーチャーが協同的に対話するように、3Dデータセットに関連するインターフェースおよびデータを更新することを求めている。こうして、302において、スチューデントは、例えば、彼のコントロールパネルを、ネットワーク上で送信されてきたティーチャーのインターフェースとティーチャーのデータからのデータセットの位置、方向および大きさのパラメータを用いて更新することができる。彼はまた、ネットワーク上で送信されてきたメッセージを介して、コントロールパネル上のウィジェットの状態と、ティーチャーのシステム上のそれとを並べることができる。これらのメッセージは、例えば、バーチャルコントロールパネル上のボタンの上げ下げ、モジュールページ(例えば、デキストロスコープ(Dextroscope)(登録商標)に存在する;そのようなページは、種々の可能なモジュール、またはユーザが入る操作モードを示している、例えば、登録、区分化、可視化、など)、スライダーバーの現時点での値、コンボボックスの選択、色彩自動照合表設定などと関連付けることができる。   Once the teacher is connected (at 301), the process flow can move to 302, where the student's console is the interface associated with the 3D dataset so that the student and the teacher interact cooperatively. And wants to update the data. Thus, at 302, the student can update his control panel, for example, with the teacher's interface and the data set's position, orientation and size parameters from the teacher's data sent over the network. it can. He can also align the state of the widget on the control panel with that on the teacher's system via a message sent over the network. These messages are present, for example, on buttons on the virtual control panel, on module pages (eg, Dextroscope®); such pages enter various possible modules or users It shows the operation mode (for example, registration, segmentation, visualization, etc.), the current value of the slider bar, selection of a combo box, automatic color matching table setting, etc.

スチューデントは、例えば、彼のインターフェースが更新されると、302において、データ同期メッセージ、例えば、3Dデータセット中のバーチャルオブジェクトの詳細の位置、方向、大きさ、透明性、およびレベルなどを受信することもできる。記載しているように、同じデータセットにおいて、スチューデントバージョンのデータセットとティーチャーバージョンのデータセットとの間の違いがあまりに大きいと判断されれば(または、自動化プロセス中において、スチューデントのシステムによって)、彼はまた、ティーチャーが分析中の圧縮データセットの全体を送信するように要求することもできる。そのような場合、次にスチューデントのコンソールは、データを減圧し、リモートシナリオを再ローディングすることができる。あるいは、ティーチャーがある地点で時間内に行ったデータセットの相互作用のすべてを、スチューデント機の上で、局所的に行うことによって、ティーチャーは、全データセットではなく、相互作用リストを送信することができ、スチューデントのワークステーションが連続的にティーチャーバージョンのデータセットを受け取るようにする。インターフェースとデータが更新され、スチューデントのコンソールをティーチャーのコンソールと同期させると、プロセスフローは、次に説明する310および320に進む。   The student receives, for example, at 302, a data synchronization message, such as the location, orientation, size, transparency, and level of details of the virtual object in the 3D data set when his interface is updated. You can also. As noted, in the same dataset, if it is determined that the difference between the student version dataset and the teacher version dataset is too great (or by the student's system during the automation process) He can also request that the teacher send the entire compressed data set under analysis. In such a case, the student's console can then decompress the data and reload the remote scenario. Alternatively, a teacher can send an interaction list instead of the entire data set by performing all of the data set interactions at a point in time on the student machine locally. So that the student workstation continuously receives the teacher version of the dataset. Once the interface and data are updated and the student's console is synchronized with the teacher's console, the process flow proceeds to 310 and 320 described below.

310において、ティーチャーのコンソールが何かビデオを送信したかどうかを判定する。Yesであれば、ティーチャーのビデオは、314でレンダリングされ、プロセスフローは、325に進むことができる。Noであれば、310において、プロセスフローは、直接325に進むことができる。ビデオ発信の逆をアドレス指定すれば、すなわち、スチューデントのコンソールが、ティーチャーのコンソールに送信すべきビデオを持っていれば、ビデオフレームを利用可能かどうかが320において決定される。320でのプロセスフローを説明する前に、スチューデント側ビデオが存在すれば、スチューデントのコンソールは、305においてそれを読み出し、306においてそれをレンダリングする。320において利用可能であり、その後326においてそれを送信する。326から、プロセスフローは325に移動することもできる。例えば、スチューデントビデオが利用可能でない場合、プロセスフローは、320乃至325に直接進む。   At 310, it is determined whether the teacher's console has sent any video. If yes, the teacher's video is rendered at 314 and the process flow can proceed to 325. If no, at 310, the process flow can proceed directly to 325. If the opposite of video transmission is addressed, that is, if the student's console has video to send to the teacher's console, it is determined at 320 whether a video frame is available. Before describing the process flow at 320, if there is a student video, the student console reads it at 305 and renders it at 306. It is available at 320 and then transmits it at 326. From 326, the process flow can also move to 325. For example, if student video is not available, the process flow proceeds directly to 320-325.

325において、スチューデントのコンソールは、それ自身の3D装置(例えば、スタイラスおよびコントローラーまたはそれらの均等物、すなわち、ユーザが対話する実際の物理的インターフェース)を読み出す。これによって、示されているように、例えば、スタイラスおよび3Dコントローラーのトラッキングされた実際の位置によってバーチャルツールの位置、方向、および状態を計算できるようになる。スチューデントがデキストロラップ(DextroLap)システムを使用している場合、3D装置の代わりのマウスやキーボードが325において読み取られる。330において、スチューデントのコンソールは、例えば、ティーチャー3D装置を読み出すことができ、それに、ティーチャーの代表的なツールならびにキーボードイベントの位置、方向、および状態を、デキストロネット(DextroNet)で受け取ったメッセージから更新させる。330から、プロセスフローは、340に進むことができ、そこで、スチューデントが彼自身の視点をコントロールすることを選択するか、ティーチャーのものに従うかが決定される。Noの場合、スチューデントは、彼自身の視点をコントロールすることを選択し、プロセスフローは、次に345に進むことができ、そこでは、スチューデントは、例えば、ティーチャーの左手側のツール(この例では、3Dデータセット内のどこに所与のユーザが存在するか、どのオブジェクトが現在選択されているかを左手のツールがコントロールする。これは、2Dにおけるカーソルを動かすマウスに似ている)に関連するネットワーキングメッセージを無視する。そして、彼のローカルジョイスティックもしくは6Dコントローラーから直接的に、彼自身の左手側の位置、方向、および状態を読み出す。340において、Yesであれば、したがって、スチューデントがティーチャーのースペクティブに従うことを選択すれば、彼の機械は、346において、ティーチャーへメッセージを送信し、ティーチャーのバーチャルオブジェクトの現在の位置および方向を問い合わせる。彼は、返答を受信するとすぐ、自身のオブジェクトを更新する。   At 325, the student's console reads its own 3D device (eg, stylus and controller or their equivalent, ie, the actual physical interface with which the user interacts). This allows the position, orientation, and state of the virtual tool to be calculated, for example, by the tracked actual position of the stylus and 3D controller, as shown. If the student is using a DextroLap system, a mouse or keyboard instead of a 3D device is read at 325. At 330, the student's console can, for example, read the teacher 3D device, and the teacher's representative tools and keyboard event location, orientation, and status from the message received on the DextroNet. Update. From 330, the process flow can proceed to 340 where it is determined whether the student chooses to control his own view or follows the teacher's. If no, the student chooses to control his own viewpoint, and the process flow can then proceed to 345 where the student, for example, the tool on the left hand side of the teacher (in this example, Networking related to where the given user is in the 3D dataset, the left hand tool controls which object is currently selected (similar to a mouse moving a cursor in 2D) Ignore the message. He then reads his own left-hand position, direction, and state directly from his local joystick or 6D controller. If yes at 340, therefore, if the student chooses to follow the teacher's perspective, his machine sends a message to the teacher at 346 asking for the current location and direction of the teacher's virtual object. As soon as he receives the reply, he updates his object.

340においてどの選択がなされたかにかかわらず、プロセスフローは、345または346乃至350のいずれかに進むことができる。そして、そこで、スチューデントのコンソールの3Dビューがレンダリングされ、その後プロセスフローは、決定310および320にもどり、その結果、上記したように、デキストロネット(DextroNet) インタラクティブプロセスフローは、連続的にセッションを通して繰り返す。   Regardless of which selection is made at 340, the process flow can proceed to either 345 or 346-350. And then, a 3D view of the student console is rendered, after which the process flow returns to decisions 310 and 320, so that, as noted above, the DextroNet interactive process flow is continuously passed through the session. repeat.

B.ティーチャー―スチューデント相互作用の特徴例
上記ティーチャー―スチューデントパラダイムから、本発明の実施態様において、下記の特徴が実行される。以下は、2人用のバーチャルツールをもち、1つのツールは1つのボタンスイッチをもち、ボタンとスライダーを持ち、可視化アプリケーションをコントロールするバーチャルコントロールパネルを利用するシステム上のユーザを想定している。そのような例示的システムは、例えば、ラジオデキスター(RadioDexter)(登録商標)ソフトウェアを動かす、ボリューム・インターラクション社(Volume Interactions Pte Ltd)(シンガポール)製のデキストロスコープ(Dextroscope)(登録商標)またはデキストロビーム(DextroBeam)(登録商標)システムとすることができる。.
B. Example Features of Teacher-Student Interaction From the above teacher-student paradigm, the following features are implemented in embodiments of the present invention. The following assumes a user on a system with a virtual tool for two people, one tool with one button switch, buttons and sliders, and a virtual control panel that controls the visualization application. Such an exemplary system is, for example, a Dextroscope® or Dextroscope from Volume Interactions Pte Ltd (Singapore) that runs RadioDexter® software. It can be a DextroBeam® system. .

1.トラッキング負荷の軽減
本発明の実施態様において、ネットワークデータ転送レートの可変性を取り扱うため、ネットワークに課されるトラフィック負荷を軽減するため、ならびにキーユーザの3Dオブジェクト上での相互作用が見失われないことを確実にするために、例えば、バーチャルツールのボタンスイッチの4つの状態、確認、スタートアクション、ドゥアクション、およびアクションの停止を利用することができる。「確認」状態においては、ユーザは、バーチャルツールをコントロールするスタイラスをクリックせずに、それを動かすだけである(これによって、位置および方向データが生じるが、「ボタンが押された」というデータは生じない)。したがって、そのようなバーチャルツールは、活動的な操作は行わずに、バーチャルワールドではローミングとしてのみ現れるが、オブジェクトにおけるポインティングとして見ることができ、持続的なやり方ではないが、実際はいくつかのオブジェクトがその状態を変化させるように誘発する。例えば、ドリルツールは、バーチャルツールがそれと対話しているとき、3Dオブジェクトのシースルービューを示すことができるが、ボタンが押されるまでオブジェクトをドリルすることはない。「スタートアクション」状態においては、スタイラスのボタンを押すことができ、それが、押し下げられた状態が維持されると、それは、「ドゥアクション」状態をアクティブにする。例えば、ユーザがスタイラスボタンを解除するとすぐ、ツールは、「アクションの停止」状態に入り、「確認」状態に戻ることができる。したがって、ほとんどの時間、バーチャルツールは、「確認」状態である。この状態は、ツールが実際に機能しているときにはそれほど重要な状態ではない。
1. Tracking load reduction In embodiments of the present invention, to handle network data transfer rate variability, to reduce the traffic load imposed on the network, and not to miss key user interactions on 3D objects. To ensure that, for example, the four states of the virtual tool button switch, confirmation, start action, do action, and stop action can be utilized. In the “confirmed” state, the user does not click on the stylus that controls the virtual tool, but simply moves it (this produces position and orientation data, but the “button pressed” data is not Does not occur). Thus, such virtual tools do not perform any active manipulation and appear only as roaming in the virtual world, but can be viewed as pointing at objects, not in a persistent manner, but in practice some objects Trigger to change its state. For example, a drill tool can show a see-through view of a 3D object when a virtual tool is interacting with it, but does not drill the object until a button is pressed. In the “Start Action” state, a button on the stylus can be pressed, which activates the “Do Action” state if it remains depressed. For example, as soon as the user releases the stylus button, the tool can enter a “stop action” state and return to a “confirm” state. Thus, most of the time, the virtual tool is in a “confirmed” state. This state is less important when the tool is actually functioning.

したがって、「確認」状態では、バーチャルツールは、バーチャルワールドではローミングとしてのみ現れ、例えば、1つの位置から他の位置へ移動するなどの活動的な操作は行われない。この状態でそのようなツールの位置や方向を送信するデータパケットは、「意味がない」データパケットであると考えることができる。密集したネットワークが存在する場合、ティーチャーの「送信」バッファが未送出パケットでいっぱいになっている可能性がある。そのような状況においては、本発明の実施態様において、デキストロネット(DextroNet)ソフトウェアは、「送信」バッファを確認することができ、こうした「確認」状態のパケットを捨てることができる。大半の時間、バーチャルツールは、「確認」状態であるため、それによってトラフィック負荷を大幅に軽減することができる。これを、図53を用いて説明する。例えば、図53(a)に示すように、ティーチャーが、自分の「送信」バッファ中に1セットのメッセージを持っていると仮定する。ネットワーク接続が低速である場合、彼は、例えば、図53(b)に示すようにメッセージをスチューデントに送るだけである。この場合、スチューデントは、ティーチャーのツールが、位置1から位置Nのように、「ジャンプ」するのを見て、次に、例えば、ドリル操作を行うが、実際のドリル操作の情報で失われるものはない。   Thus, in the “confirmed” state, the virtual tool appears only as roaming in the virtual world, and no active operations are performed, such as moving from one location to another. A data packet that transmits the position and direction of such a tool in this state can be considered to be a “nonsense” data packet. If there is a dense network, the teacher's “send” buffer may be full of unsent packets. In such a situation, in an embodiment of the present invention, DextroNet software can check the “send” buffer and discard packets in such “check” state. Most of the time, the virtual tool is in a “confirmed” state, which can greatly reduce the traffic load. This will be described with reference to FIG. For example, assume that a teacher has a set of messages in his “send” buffer, as shown in FIG. If the network connection is slow, he only sends a message to the student, for example as shown in FIG. 53 (b). In this case, the student sees the teacher's tool “jump” from position 1 to position N, then performs a drilling operation, for example, but is lost in the information of the actual drilling operation There is no.

本発明の実施態様において、デキストロネット(DextroNet)トラフィック負荷コントロールはこの事実を利用することができる。重要なメッセージは、優先的な転送に割り当てることができる。通常、ネットワーク速度が速いとき、ティーチャーのツールのすべての動きは、例えば、スチューデントに転送されることができる。こうして、スチューデントは、ティーチャーのツールの連続的な動きを見ることができる。しかしながら、ティーチャーのシステムが、(例えば、送出バッファ中で待っているメッセージが多すぎることに気づくことによって)ネットワーク速度が遅くなったことを検出したとき、本発明の実施態様においては、「確認」状態のメッセージを破棄することができる。このようにして、スチューデントは、密集したネットワーク条件の下であっても、ティーチャーのペースについていくことができる。そのようなメッセージ「圧縮」(損失性)スキームとの交換は、スチューデントのローカルビュー中のティーチャーのツールが、例えば、それほどスムーズに動いていないように見えるように行われる。にもかかわらず、バーチャルオブジェクト上の重要な操作は、失われることはないであろう。この軽減は、ネットワーク速度が速い場合には行う必要がない。このスイッチは、例えば、ティーチャーの「送出」バッファ中の列の長さとすることができる。「軽減」がない場合、ティーチャーのツールは、スチューデントのワールドにおいてスムーズに動くことができる。「軽減」が起こる場合、ティーチャーのツールは、連続的ではない。しかしながら、バーチャルオブジェクト上でのティーチャーの操作は失われることはなく、スチューデントのツールは、ティーチャーのツールのペースについていくことができるだろう。このように、本発明の実施態様においては、利用可能なネットワーク速度を動的に適用することができ、多解像度(すなわち、粗解像度および平滑解像度)でティーチャーのツールを表示することができる。   In an embodiment of the present invention, DextroNet traffic load control can take advantage of this fact. Critical messages can be assigned to preferential forwarding. Normally, when the network speed is fast, all movements of the teacher's tool can be transferred to the student, for example. In this way, the student can see the continuous movement of the teacher's tools. However, when the teacher's system detects that the network speed has slowed down (eg, by noticing that there are too many messages waiting in the send buffer), in an embodiment of the present invention, a “confirm” Status messages can be discarded. In this way, the student can keep up with the teacher's pace, even under dense network conditions. The exchange with such a message “compression” (lossy) scheme is done so that the teacher's tool in the student's local view, for example, appears not to move very smoothly. Nevertheless, important operations on virtual objects will not be lost. This mitigation is not necessary when the network speed is fast. This switch can be, for example, the length of the row in the teacher's “send” buffer. In the absence of “mitigation”, the teacher's tools can move smoothly in the student world. When “mitigation” occurs, the teacher's tools are not continuous. However, the manipulation of the teacher on the virtual object will not be lost, and the student tool will be able to keep up with the pace of the teacher tool. Thus, in embodiments of the present invention, available network speeds can be applied dynamically, and teacher tools can be displayed in multiple resolutions (ie, coarse and smooth resolutions).

2.視点のコントロール
記載しているように、本発明の実施態様において、デキストロネット(DextroNet) スチューデントは、所与の3Dオブジェクトをコントロールするか、ティーチャーの視点に従うかのいずれかをすることができる。当該スチューデントが3Dオブジェクトのローカルコントロールを選択すれば、彼のローカル処理、例えば、オブジェクトの回転、翻訳およびズーム(デジタル倍率拡大)は、ティーチャーまたは他のスチューデントの世界において、3Dオブジェクトの位置に影響を及ぼさない。 しかしながら、ティーチャーは、例えば、スチューデントのバーチャルツールの位置および3Dオブジェクトに対する方向を見ることができ、したがって、上記したように、ティーチャーが、スチューデントの視点を参照することを可能にしている。そのようなシナリオ例においては、スチューデントは、現在ティーチャーによって選択されているものとは別の関心領域または方向を見出すために、自分の世界のオブジェクトを回転させることができる。そして、例えば、ボイスによっておよび/または、それを指し示すことによって、これをティーチャーと通信させることができる。その後、スチューデントのメッセージを受信して、ティーチャーの世界においてスチューデントによって指し示された場所に気づいたとき、ティーチャーは、例えば、特定の場所に至ることができる。一方、もしスチューデントがティーチャーのビューに従うことを選択すれば、ティーチャーの世界のすべての動きがスチューデントの局所的な世界と共有されるであろう。
2. Viewpoint Control As described, in an embodiment of the present invention, a DextroNet student can either control a given 3D object or follow the teacher's view. If the student chooses a local control of the 3D object, his local processing, such as object rotation, translation and zoom (digital magnification), will affect the position of the 3D object in the world of teachers or other students. Does not reach. However, the teacher can see, for example, the position of the student's virtual tool and the orientation relative to the 3D object, thus allowing the teacher to reference the student's viewpoint, as described above. In such an example scenario, the student can rotate his world objects to find a different region of interest or direction than the one currently selected by the teacher. It can then be communicated with the teacher, for example by voice and / or by pointing to it. Thereafter, when the student's message is received and the location pointed to by the student in the teacher's world is noticed, the teacher can, for example, reach a particular location. On the other hand, if the student chooses to follow the teacher's view, all movements of the teacher's world will be shared with the local world of the student.

本発明の実施態様において、ネットワーク上で送信されて、これら2つの状態間を切り換え、ユーザの視点に関連するリモートバーチャルツールを再度位置づけることが可能な特定の指令が存在し得る。そのような指令は、例えば、図1および3の140および340における決定を駆動することができる。   In embodiments of the present invention, there may be specific instructions that can be sent over the network to switch between these two states and reposition the remote virtual tool associated with the user's viewpoint. Such a command can, for example, drive the decisions at 140 and 340 of FIGS.

3.データ同期
本発明の実施態様において、単一および完全の2つの同期モードがある。例示的な単一同期モードは、例えば、オブジェクトの唯一の位置、方向、大きさ、透明性、および詳細なレベルを通信することができる。これらのパラメータは、それらが大きな帯域幅を要求せずにデータネットワーク上を転送されるという意味において、「軽量」であるとみなすことができる。したがって、本発明の実施態様において、ティーチャーモジュールは、例えば、新たなスチューデントのネットワークへの参加を検出したときすぐにそのような単一同期を行うことができる。
3. Data Synchronization In an embodiment of the present invention, there are two synchronization modes, single and complete. An exemplary single sync mode can communicate, for example, the object's unique position, orientation, size, transparency, and level of detail. These parameters can be considered “lightweight” in the sense that they are transferred over a data network without requiring large bandwidth. Thus, in an embodiment of the present invention, the teacher module can perform such a single synchronization as soon as it detects, for example, the participation of a new student in the network.

本発明の実施態様において、完全同期は、例えば、ユーザが明確にそれを求めている時(例えば、図1中の145)にのみ行うことができる。これは、すべてのティーチャーのデータ(報告目的で捕捉したデータ、例えば、スナップショットや3D記録を除く)の圧縮と転送に関与する。本発明の実施態様において、この同期は、時間がかかるため、任意とすることができる。そのような実施態様において、ティーチャーが完全同期を始めることができるのは、スチューデントがそれを要求したときだけである。多数のスチューデントがいる場合、例えば、データは、そのような要求を行ったスチューデントだけに送信される。さらに、完全同期は、2つの側の間に実質的な偏差が生じたときに、リカバリ策として使用することができる。帯域幅の利用可能性によるスループット限界がない場合、そのような完全同期は、自動的、周期的、または特に定められた事象がおこったときに行うことができる。   In an embodiment of the present invention, full synchronization can be performed only when, for example, the user specifically wants it (eg, 145 in FIG. 1). This involves the compression and transfer of all teacher data (except for data captured for reporting purposes, eg snapshots and 3D recordings). In an embodiment of the invention, this synchronization is time consuming and can be arbitrary. In such an embodiment, the teacher can only initiate full synchronization when the student requests it. If there are a large number of students, for example, data is sent only to the student who made such a request. Furthermore, full synchronization can be used as a recovery strategy when a substantial deviation occurs between the two sides. In the absence of throughput limitations due to bandwidth availability, such full synchronization can occur automatically, periodically, or when a specifically defined event occurs.

C.3Dインターフェース(コントロールパネル)の同期
本発明の実施態様において、例示の同期は、次に説明するように、目盛りの同期およびウィジェットの同期の2つのプロセスを含むことができる。
C. 3D Interface (Control Panel) Synchronization In an embodiment of the present invention, the exemplary synchronization can include two processes: tick mark synchronization and widget synchronization, as described below.

1.目盛りの同期
デキストロスコープ(Dextroscope)(登録商標)またはデキストロビーム(DextroBeam)(登録商標)型システムを用いる場合、例えば、バーチャルコントロールパネルは、対話中、3Dトラッカーが静止し、バーチャルツールがバーチャルコントロールパネルの対応する部分に接触することができる場合、物理的基材(例えば、アクリル製)を用いて正確に測定されなければならない。したがって、目盛りおよび構成は局所的であり、機械ごとに異なる。これは、ネットワーキング中にミスマッチの問題を引き起こしうる。例えば、目盛りおよび/または構成のミスマッチによりティーチャーのツールが所与のスチューデントのコントロールパネルに接触することができないかもしれない。本発明の実施態様において、ティーチャーおよびスチューデントのコントロールパネルは、以下のようにして同期することができる。ネットワーキングセッションがアクティブの状態にある間、ティーチャーのコントロールパネルの位置、方向、および大きさは、スチューデントに送信されることができ、それによって、スチューデント自身のコントロールパネルのパラメータを置き換えることが可能となる。ネットワーキングセッションが終了した場合、スチューデント機のもとの構成を回復させることができ、それによって、彼は一人で作業することが可能になる。
1. Tick synchronization When using a Dextroscope (R) or DextroBeam (R) type system, for example, the virtual control panel is interactive, the 3D tracker is stationary and the virtual tool is virtual If the corresponding part of the panel can be contacted, it must be accurately measured using a physical substrate (eg made of acrylic). Thus, the scale and configuration is local and varies from machine to machine. This can cause mismatch problems during networking. For example, a graticule and / or configuration mismatch may prevent the teacher's tool from contacting a given student's control panel. In an embodiment of the present invention, the teacher and student control panels can be synchronized as follows. While the networking session is active, the position, orientation, and size of the teacher's control panel can be sent to the student, thereby allowing the student's own control panel parameters to be replaced. . When the networking session ends, the original configuration of the student machine can be restored, which allows him to work alone.

2.ウィジェットの同期
ネットワーキングセッションが開始すると、両サイドのコントロールパネルの最初の状態、例えば、スライダーバーの位置、ボタンやタブの状態、ルックアップテーブルのリストなどは、例えば、異なっていてもよい。これらのパラメータ全ては、ネットワーキングのためにはそろえる必要がある。
2. Widget synchronization When a networking session is started, the initial state of the control panels on both sides, for example, the position of the slider bar, the state of buttons and tabs, the list of lookup tables, etc. may be different. All these parameters need to be aligned for networking.

D.異なるインタラクティブプラットフォーム間の接続
本発明の実施態様において、異なるタイプのインタラクティブプラットフォーム間、例えば、デキストロスコープ(Dextroscope)(登録商標)とデキストロビーム(DextroBeam)(登録商標)との間の接続をサポートすることができる。したがって、デキストロスコープ(Dextroscope)(登録商標)上のティーチャーは、デキストロビーム(DextroBeam)(登録商標)の前に集まっている多数のリモートスチューデントに指導することができる。あるいは、例えば、ティーチャーは、デキストロビーム(DextroBeam)(登録商標)の前のローカルスチューデントを指導することができ、デキストロスコープ(Dextroscope)(登録商標)上のリモートスチューデントは見ることができる。
D. Connections between different interactive platforms In embodiments of the present invention, support for connections between different types of interactive platforms, eg, between Dextroscope® and DextroBeam® be able to. Thus, a teacher on a Dextroscope (R) can teach a number of remote students gathering in front of a DextroBeam (R). Or, for example, a teacher can teach a local student in front of a DextroBeam® and a remote student on the Dextroscope® can see.

本発明の実施態様において、別のサポートされた接続としては、3Dインタラクティブプラットフォームと2Dデスクトップワークステーション間、例えば、上記のデキストロスコープ(Dextroscope)(登録商標)とデキストロラップ(DextroLap)システムのものがある。そのようなシステムによれば、関係者は、ユーザとシステムの間の相互作用がマウスやキーボードによって行われる場合(デキストロラップ出願に記載のように)、デスクトップワークステーションのみを使い、スタイラスおよびジョイスティックの3D入力装置を用いない。そのようなシナリオでは、ティーチャーおよびスチューデントの入力デバイスは、同一でない可能性がある。これは、3Dスタイラスやジョイスティックを持っていないスチューデントでも、全3Dで操作しているティーチャーを見て、マウスやキーボードを使ってティーチャーと通信することができるので、最も有用といえる。デスクトップワークステーション上には、キーボードイベントが、トラキングシステムからの動作と同様に転送され、補間され得る。そのような実施態様においては、キーネームやその変更子をネットワークメッセージに入れる必要がある。例えば、デキストロラップ(DextroLAP)カーソルは、3D位置を有している。この位置をティーチャーに送信することができ、そうすれば、ティーチャーは、スチューデントのカーソルの動きを3Dで見ることができる。   In an embodiment of the invention, another supported connection is between a 3D interactive platform and a 2D desktop workstation, such as those of the Dextroscope® and DextroLap systems described above. is there. With such a system, the stakeholder can use only a desktop workstation if the interaction between the user and the system is via a mouse or keyboard (as described in the Dextro Wrap application), and a stylus and joystick. The 3D input device is not used. In such a scenario, the teacher and student input devices may not be identical. This is most useful because a student who does not have a 3D stylus or joystick can see the teacher operating in all 3D and communicate with the teacher using a mouse or keyboard. On the desktop workstation, keyboard events can be transferred and interpolated in the same way as actions from the tracking system. In such an implementation, the key name and its modifier need to be included in the network message. For example, a DextroLAP cursor has a 3D position. This position can be sent to the teacher so that the teacher can see the movement of the student's cursor in 3D.

本発明の実施態様において、ユニックス(登録商標)およびウィンドウズシステム(登録商標)(Unix and Windows systems)(登録商標)上で動く種々のインタラクティブな可視化システムは、全てデキストロネット(DextroNet)と接続することができる。   In an embodiment of the present invention, various interactive visualization systems running on Unix and Windows systems (registered trademark) all connect with DextroNet. be able to.

E.自動的ティーチャー検出
本発明の実施態様において、所与のインターネット上にティーチャーとスチューデントが存在する場合、デキストロネット(DextroNet)は、自動的にティーチャーを検出することができる。以下においてより十分に説明するように、クライアントがサーバから返信を取得したら、それはサーバとネットワーク接続を開始し、サーバにティーチャーまたはスチューデントが存在するかどうかを伝える。サーバは、例えば、全てのクライアントの登録リスト(役割、IPアドレス、ポート)を保持することができる。サーバが、新たに参加したクライアントがスチューデントであることを知ると、ティーチャーが利用可能であるかどうかを確認し、ティーチャーのIPアドレスとポートをスチューデントに送信する。したがって、スチューデントは、自動的にティーチャーの情報を取得することができる。もし、ティーチャーが存在しない場合、サーバは、例えば、スチューデントにネットワーキング接続から退去するように警告することができる。あるいは、スチューデントは、ティーチャーがオンラインに現れるまで待つこともできる。したがって、そのような実施態様においては、スチューデントは、例えば、サーバIPアドレスやポートを構成するなどの、低レベルのネットワーキングタスクについて心配する必要がない。ティーチャーが存在すればすぐ、スチューデントのシステムは自動的にそれを検出することができる。
E. Automatic Teacher Detection In an embodiment of the present invention, DextroNet can automatically detect a teacher if there are teachers and students on a given Internet. As described more fully below, when a client gets a reply from a server, it initiates a network connection with the server and tells the server whether a teacher or student exists. For example, the server can maintain a registration list (role, IP address, port) of all clients. When the server knows that the newly joined client is a student, it checks whether the teacher is available and sends the teacher's IP address and port to the student. Therefore, the student can automatically acquire the teacher information. If the teacher does not exist, the server can, for example, alert the student to leave the networking connection. Alternatively, the student can wait until the teacher appears online. Thus, in such an embodiment, the student does not have to worry about low-level networking tasks, such as configuring server IP addresses and ports. As soon as the teacher is present, the student's system can automatically detect it.

III.外科医−可視化アシスタント相互作用
A.概論
次に、図4乃至8を用いて、本発明のある実施態様における外科医と可視化アシスタントとの間の例示の3Dデータセットの、例示の協同相互作用的な可視化について説明する。図4は、外科医のコンソールの例を示すプロセスフローチャートである。図5は、可視化アシスタントのコンソールのフローチャートの例を示す図である。図6乃至8は、そのようなシナリオにおける外科医と可視化アシスタントのそれぞれのビューの例を示す図である。
III. Surgeon-Visualization Assistant Interaction A. Overview An exemplary cooperative interactive visualization of an exemplary 3D data set between a surgeon and a visualization assistant in one embodiment of the present invention will now be described with reference to FIGS. FIG. 4 is a process flow diagram illustrating an example of a surgeon's console. FIG. 5 is a diagram illustrating an example of a flowchart of the console of the visualization assistant. 6-8 are diagrams illustrating examples of views of the surgeon and visualization assistant in such a scenario.

一般に、そのようなパラダイムは、「外科医」自身に限定されるわけではなく、一方の関係者(「外科医」)が診断的または治療的処置を所与の対象に施す場合、そしてその対象についての処置前の画像データを利用可能であり、身体的対象にコレジスタされている場合、および別の関係者が処置前の画像データから作成された3Dデータセットから対象を見ることが可能である場合、あらゆるシナリオを含むことができる。そのような記載したような「外科医」は、例えば、音波検査者(記載のように、例えば、「ソノデックス("SonoDex")」中)、カスラボ(Cathlab)(登録商標)機械を使用するインターベンション心臓病専門医、メッドトロニック(Medtronic)外科手術用ナビゲーションシステムを使用する外科医などを含むことができる。   In general, such a paradigm is not limited to the “surgeon” itself, but when one party (the “surgeon”) applies diagnostic or therapeutic treatment to a given subject, and for that subject If pre-treatment image data is available and co-registered with a physical object, and if another party can see the object from a 3D dataset created from the pre-treatment image data, Any scenario can be included. Such a “surgeon” as described, for example, is an sonographer (as described, eg, in “SonoDex”), an intervention using a Cathlab® machine. Cardiologists, surgeons using Medtronic surgical navigation systems, and the like can be included.

記載した相互作用において、外科医は、デックス―レイ(DEX-Ray)(登録商標)型ワークステーションを使用し、したがって、位置データおよびリアルタイムのビデオを捕捉することが予期される。また、可視化アシスタントは、あらゆるタイプのワークステーションを使用することができる。   In the interaction described, the surgeon is expected to use a DEX-Ray® type workstation and thus capture position data and real-time video. The visualization assistant can also use any type of workstation.

図4を用いて説明すると、401において、外科医は、ネットワークに接続することができる。402において、可視化アシスタント側のデータを外科医側のデータに同期するすることができる。データの同期が完了するとすぐ、プロセスフローは、例えば、402から2つの平行な経路に沿って進むことができる。まず、410において、外科医は、可視化アシスタントのシナリオを要求することができる。要求があれば、411において、それはレンダリングされ得る。可視化アシスタントのシナリオが要求されない場合、プロセスフローは、410から直接420に進むことができ、そこで、外科医のコンソールは、ビデオプローブの位置および方向を読み出すことができる。ここで外科医のコンソールは、ビデオプローブ(ローカルである)の位置および方向を読み出し、それをバーチャルワールドの座標に変換する。次にプロセスフローは、420から、例えば425に進むことができる。   Referring to FIG. 4, at 401, the surgeon can connect to the network. At 402, the visualization assistant side data may be synchronized to the surgeon side data. As soon as the data synchronization is complete, the process flow can proceed, for example, from 402 along two parallel paths. First, at 410, the surgeon may request a visualization assistant scenario. If requested, at 411 it can be rendered. If a visualization assistant scenario is not required, the process flow can proceed directly from 410 to 420 where the surgeon's console can read the position and orientation of the video probe. Here, the surgeon's console reads the position and orientation of the video probe (which is local) and translates it into virtual world coordinates. The process flow can then proceed from 420 to, for example, 425.

上記のプロセシングと平行して、ローカルビデオプロセシングが存在することに留意されたい。デックス―レイ(DEX-Ray)(登録商標)型ワークステーションである外科医のコンソールは、リアルタイムのビデオを取得することもできることが思い出される。したがって、405において、外科医のコンソールは、それ自身のビデを読み出すことができ、406においてそれをレンダリングすることができる。次にプロセスフローは同様に425に進むことができる。   Note that there is local video processing in parallel with the above processing. It is recalled that the surgeon's console, a DEX-Ray (R) type workstation, can also capture real-time video. Thus, at 405, the surgeon's console can retrieve its own bidet and render it at 406. The process flow can then proceed to 425 as well.

425において、外科医のコンソールは、それがネットワーク上で取得したローカルビデオを可視化アシスタントに送信することができる。そこから、プロセスフローは430に進むことができ、そこで外科医のコンソールは、そのビデオプローブ情報を送信する。ここで、外科医のコンソールは、バーチャル世界の座標中のビデオプローブの位置および方向を可視化アシスタントに送信する。これは420において取得した情報の単なる送信である。435において、外科医のコンソールは、アシスタントの代表的なツールを通信することができる。ここで、外科医のコンソールは、外科医のバーチャル世界における可視化アシスタントの代表的なツールの位置および方向を受信し、通信することができる。このデータはネットワーク上で可視化アシスタントのコンソールから取得することができる。最後に、450において、外科医のコンソールは、ビデオおよび拡張現実感を含み得る3Dデータセットの3Dビューをレンダリングすることができ、それは、可視化アシスタントの代表的なツールの位置および方向を含む。現在の3Dレンダリングは、外科医ならびに可視化アシスタントの双方による3Dデータセットとの相互作用の結果となろう。可視化アシスタント側に着目した、外科医−可視化アシスタントパラダイムの別のサイドを次に図5を用いて説明する。   At 425, the surgeon's console can send the local video it has acquired over the network to the visualization assistant. From there, the process flow can proceed to 430, where the surgeon's console sends the video probe information. Here, the surgeon's console sends the position and orientation of the video probe in the virtual world coordinates to the visualization assistant. This is just a transmission of the information acquired at 420. At 435, the surgeon's console can communicate the assistant's representative tools. Here, the surgeon's console can receive and communicate the position and orientation of the visualization assistant's representative tools in the surgeon's virtual world. This data can be obtained from the visualization assistant console over the network. Finally, at 450, the surgeon's console can render a 3D view of the 3D dataset that may include video and augmented reality, including the position and orientation of the visualization assistant's representative tools. Current 3D rendering will be the result of interaction with 3D data sets by both surgeons and visualization assistants. Another side of the surgeon-visualization assistant paradigm that focuses on the visualization assistant side will now be described with reference to FIG.

501において、可視化アシスタントはネットワークに接続することができ、502において、彼または彼女は、自身のデータを更新することができる。ここで可視化アシスタントは、ネットワーク上で入力される外科医のデータを用いて、自身のバーチャルオブジェクト位置、方向、および大きさを更新する必要がある。プロセスフローは、502から平行して、510および520の決定に進むことができる。まず、510において、外科医のコンソールからビデオを受信したかどうかを判定することができる。Yesであれば、511において、外科医のビデオをレンダリングすることができる。Noであれば、プロセスフローは、530に進むことができる。第2に、決定520において、アシスタントのシナリオを送信すべきかどうかを判定することができる。これは、例えば、外科医のワークステーションからの問い合わせもしくは要求に返答して行うことができる。   At 501, the visualization assistant can connect to the network, and at 502, he or she can update his data. Here, the visualization assistant needs to update its virtual object position, orientation and size with surgeon data entered on the network. Process flow can proceed from 510 to the determinations 510 and 520 in parallel. First, at 510, it can be determined whether video has been received from the surgeon's console. If yes, at 511, the surgeon's video can be rendered. If no, the process flow can proceed to 530. Second, at decision 520, it can be determined whether an assistant scenario should be sent. This can be done, for example, in response to an inquiry or request from the surgeon's workstation.

外科医が可視化アシスタントのシナリオを要求していれば、525において、アシスタントのシナリオを送信することができ、アシスタントは、スナップショットもしくは彼のビューのビデオを送信することができる。そのようなスナップショットは、例えば、立体的なものでもよいし、モノスコピック(monoscopic)であってもよい。520において、外科医が可視化アシスタントのシナリオを要求していなかったら、プロセスフローは次に530に進むことができる。そこでプロセスフローは、510からも同様に到達する。そして、可視化アシスタントのコンソールは、それ自身の3D装置を読み出すことができる。ここで、可視化アシスタントは、自分のツールの完全なコントロールを有しているため、彼のツールの位置、方向、および大きさは、彼自身のスタイリスト(原語:stylist)および操作装置によって行うことができる。ここから、プロセスフローは、540に進むことができ、そこで、外科医の代表的なツールが更新されることができる。ここで可視化アシスタントのコンソールは、可視化アシスタントのバーチャル世界において、外科医の代表的なツールの位置および方向を受信し、更新することができる。   If the surgeon has requested a visualization assistant scenario, at 525, the assistant scenario can be sent and the assistant can send a snapshot or a video of his view. Such a snapshot may be, for example, three-dimensional or monoscopic. If the surgeon has not requested a visualization assistant scenario at 520, the process flow can then proceed to 530. Accordingly, the process flow is similarly reached from 510. The visualization assistant console can then read out its own 3D device. Here, the visualization assistant has full control of his tools, so the position, orientation and size of his tools can be done by his own stylist and manipulator it can. From here, the process flow can proceed to 540 where the surgeon's representative tools can be updated. Here, the visualization assistant console can receive and update the position and orientation of the surgeon's representative tools in the visualization assistant virtual world.

最後に、プロセスフローは、550に進み、そこで、可視化アシスタントのコンソールは、3Dデータセットの3Dビューをレンダリングする。この3Dビューは、可視化アシスタント自身の3D装置ならびに外科医の代表的なツールのそれに対する更新を含むことになり、外科医から受信するあらゆるビデも含むことができる。上記したように、外科医―可視化アシスタントパラダイムは、デキストロネット(DextroNet)上でのデックス―レイ(DEX-Ray)(登録商標)対デキストロスコープ(Dextroscope)(登録商標)型相互作用に関与すると想定される。このシナリオは、すでに述べたように、上記のティーチャー―スチューデントパラダイムの変形例である。外科医-可視化アシスタントシナリオにおいて、外科医は通常スチューデントの役割を担い、一方、アシスタントはティーチャーを担う。これは、外科医(スチューデント)が、手術に忙しく、データとの相互作用能力において、より制限されているためである。したがって、彼は主に可視化アシスタント(ティーチャー)がどのように3Dビジュアルバーチャルワールドをコントロールするかを見ることに関与する。   Finally, the process flow proceeds to 550, where the visualization assistant console renders a 3D view of the 3D dataset. This 3D view will include updates to that of the visualization assistant's own 3D device as well as the surgeon's representative tools and may include any bidet received from the surgeon. As mentioned above, the surgeon-visualization assistant paradigm is assumed to be involved in the DEX-Ray (R) vs. Dextroscope (R) type interaction on the DextroNet Is done. This scenario is a variation of the above teacher-student paradigm, as already mentioned. In the surgeon-visualization assistant scenario, the surgeon usually plays the role of student, while the assistant takes the teacher. This is because surgeons (students) are busy with surgery and are more limited in their ability to interact with data. Therefore, he is mainly involved in seeing how the visualization assistant (teacher) controls the 3D visual virtual world.

B.独立した視点
手術室でデックス―レイ(DEX-Ray)(登録商標)型コンソールを用いる場合、例えば、外科医の見地は、図6に示すようにビデオプローブの方向によって制限される。カメラプローブ(Camera Probe)出願により詳細に記載されているように、デックス―レイ(DEX-Ray)(登録商標)型装置は、3Dシーンをビデオプローブの位置に基づいて、したがって、ビデオプローブ中のカメラが持つ視点からレンダリングする。したがって、例えば、デックス―レイ(DEX-Ray)(登録商標)型コンソールを使用する外科医は、ビデオプローブの先端がどのようにして内部から標的、すなわち、標的自身の内部に固定された視点、例えば、腫瘍もしくは他の頭蓋内の構造に固定された視点にアプローチするのかを見ることができない。しかしながら、デキストロスコープ(Dextroscope)(登録商標)型機械上で実行されるようなプランニングシステムにおいては、アシスタントは、図8に示したような標的を調べるための無制限の見地を有している。こうして、本発明の実施態様において、デキストロネット(DextroNet)は、外科医を助け、彼に、外科医が手術を行っている実際の患者と関連する3Dデータセットを介して無制限に動く第2の目を提供するために、デックス―レイ(DEX-Ray)(登録商標)をデキストロスコープ(Dextroscope)(登録商標)と接続するために使用することができる。これは、リアルタイムの複雑な手術に携わっている外科医にとって非常に有用である。ここでは、手術に携わっている外科医にとっては論理的に不可能な多くの可視化が確実にプロセスを助けるであろう。それは、可視化アシスタントが手術もしくは他の実地の治療(診断)努力に有意に貢献し得るのはこのようなシナリオにおいてである。
B. Independent Viewpoint When using a DEX-Ray® type console in the operating room, for example, the surgeon's perspective is limited by the orientation of the video probe as shown in FIG. As described in more detail in the Camera Probe application, the DEX-Ray® type device is based on the position of the video probe and therefore in the video probe. Render from the viewpoint of the camera. Thus, for example, a surgeon using a DEX-Ray® console can see how the tip of the video probe is fixed from the inside to the target, i.e. Can't see how to approach a viewpoint fixed to a tumor or other intracranial structure. However, in a planning system such as that performed on a Dextroscope® type machine, the assistant has an unrestricted view to examine the target as shown in FIG. Thus, in an embodiment of the present invention, DextroNet assists the surgeon and allows him to move indefinitely via a 3D data set associated with the actual patient on which the surgeon is performing surgery. Can be used to connect a DEX-Ray® with a Dextroscope®. This is very useful for surgeons engaged in real-time complex surgery. Here, many visualizations that are logically impossible for the surgeon involved in the surgery will certainly help the process. It is in such a scenario that the visualization assistant can contribute significantly to surgery or other field treatment (diagnostic) efforts.

C.交換可能な視点
別法として、本発明の実施態様において、外科医は、アシスタントの視点を見ることができる。その一例を図9に示す。このように、本発明の実施態様において、外科医には利用可能な2つのタイプのビューがある。1つは通常のカメラプローブ(Camera Probe)拡張現実感のビュー、すなわち、1つは、図6に示されるような3つの2Dの三面状画像が載ったビデオであり、他の1つは、図7に示されるような可視化アシスタント側の視点である。これらの2つのタイプのビューは、外科医がその間をトグルすることが可能な2つの別個のウインドウに表示される。こうして外科医は、例えば、図6と7の間をトグルすることができる。可視化アシスタントのビュー(図7)から、外科医は、バーチャルオブジェクトと彼のツールの関係を、異なる見地、例えば、腫瘍など標的オブジェクト上に位置づけられた視点から見ることができる。
C. Interchangeable viewpoint Alternatively, in an embodiment of the present invention, the surgeon can view the assistant's viewpoint. An example is shown in FIG. Thus, in an embodiment of the present invention, there are two types of views available to the surgeon. One is a normal camera probe augmented reality view, one is a video with three 2D trihedral images as shown in FIG. 6 and the other is FIG. 8 is a viewpoint on the visualization assistant side as shown in FIG. 7. These two types of views are displayed in two separate windows that the surgeon can toggle between. Thus, the surgeon can toggle between FIGS. 6 and 7, for example. From the visualization assistant's view (FIG. 7), the surgeon can see the relationship between the virtual object and his tool from different perspectives, eg, a viewpoint positioned on the target object, such as a tumor.

さらに、本発明の実施態様において、可視化アシスタントも同様に、彼のディスプレイ中に外科医のシナリオを見ることができる。これは、例えば、図8に示されている。メインウインドウは、可視化アシスタントのビューである。これは、外科医が持つビデオプローブツールのカメラの位置による制限を受けない。さらに、図8には「図中図」のビューが存在する。これは、図8の左上のコーナーの小さなウインドウ810に示されている。これは、外科医にビューを彼が見えるように示している。これはビデオフレームとして転送することができ、したがって、可視化アシスタントはどんな方法によってもこれを操作することはできない。したがって、図8は、外科医のツールも(上から下までの線として)可視化された仮想の3D世界を表示するメインウインドウを示す図である。他方の小さなウインドウ810は、外科医の実際のビューであり、ライブの映像信号および、外科医のシナリオ上で利用可能であり、その表示パラメータが外科医によってのみ選択され、操作される3Dオブジェクトの拡張現実感を含んでいる。したがって、可視化アシスタントは、図6のメインウインドウの3D世界と図8の左上部分の画像ウインドウ810内の画像の2Dビデオの双方の中に外科医のツールを見ることができる。   Furthermore, in an embodiment of the present invention, the visualization assistant can also see the surgeon's scenario in his display. This is illustrated, for example, in FIG. The main window is the visualization assistant's view. This is not limited by the camera position of the video probe tool held by the surgeon. Further, FIG. 8 includes a view “in the drawing”. This is shown in the small window 810 in the upper left corner of FIG. This shows the surgeon the view he can see. This can be transferred as a video frame, so the visualization assistant cannot manipulate it in any way. Accordingly, FIG. 8 shows a main window displaying a virtual 3D world in which the surgeon's tools are also visualized (as a line from top to bottom). The other small window 810 is the surgeon's actual view and is available on the live video signal and the surgeon's scenario, the augmented reality of the 3D object whose display parameters are only selected and manipulated by the surgeon. Is included. Thus, the visualization assistant can see the surgeon's tools in both the 3D world of the main window of FIG. 6 and the 2D video of the image in the image window 810 in the upper left part of FIG.

IV.インターフェース相互作用の例
本発明の実施態様において、デキストロネット(DextroNet)のネットワーキング機能は、例えば、メインデキストロスコープ(Dextroscope)(登録商標)3Dインターフェース中の「ネットワーキング」タブからコントロールすることができる。
IV. Interface Interaction Example In an embodiment of the present invention, DextroNet networking functionality can be controlled, for example, from the “Networking” tab in the main Dextroscope® 3D interface.

A.接続を確立する
本発明の実施態様において、ユーザネットワーキングモジュールインターフェースの提供を受けることができる。そのようなインターフェースは、例えば、「ティーチャー」、「スチューデント」および「ネットワーキング停止」といった3つのボタンを備えている。そのような例示的インターフェースを介して、ユーザは、こうして、ティーチャーもしくはスチューデントのいずれかであることを選択し、またはデキストロネット(DextroNet)セッションの停止を選択することができる。本発明の実施態様において、ティーチャーがネットワーク内に存在するときのみ、スチューデントは、接続を確立することができる。そうでなければ、スチューデントは、「ティーチャーが存在しません」というメッセージを受け、接続を終了することになる。もし、スチューデントが3D入力デバイスを持っていない場合、例えば、デキストロラップ(DextroLAP)出願において、上記したように通信にはマウスを使うことができる。
A. Establishing a connection In an embodiment of the present invention, a user networking module interface may be provided. Such an interface comprises, for example, three buttons: “teacher”, “student” and “stop networking”. Through such an exemplary interface, the user can thus choose to be either a teacher or student, or choose to stop a DextroNet session. In an embodiment of the present invention, a student can establish a connection only when a teacher is present in the network. Otherwise, the student will receive a “teacher does not exist” message and close the connection. If the student does not have a 3D input device, for example, in a DextroLAP application, a mouse can be used for communication as described above.

B.ティーチャーアクション
さらに、追加的インターフェース特徴をメインユーザ、すなわち「ティーチャー」として行動するユーザに表示することができる。そのような実施態様において、ティーチャーには、スチューデントのIPリストと「同期」ボタンが提供され得る。このパネルは、ティーチャーのみが利用可能とすることができる。新たなスチューデントが参加したとき、例えば、スチューデントの最初のシナリオの、例えばスナップショットがティーチャーに送信されたり、スチューデントリストに表示されたりなどする。さらに、スチューデントのIPアドレスは、例えば、テキストボックスに示されることが可能である。複数のスチューデントが存在する場合、ティーチャーは、リストをスクロールして、他のスチューデントのIPアドレスやスナップショットを見ることができる。本発明の実施態様において、そのようなスナップショットを使えば、ティーチャーは、自分のデータセットとスチューデントのデータセットとの相対的な同期を正確に測定することができる。例えば、ネットワーキングを開始する際に同期を達成するための方法は、単一同期と完全同期の2つ存在する。一般的は、ティーチャーとスチューデントが同一のデータセットを持っている場合、単一同期だけが必要である。しかしながら、彼らが搭載しているデータセットが異なるものである場合、ティーチャーは、完全同期を開始しなければならない。そうでなければ、後に、障害が生じることになる。種々のスチューデントから送信されたスナップショットは、それらの初期の状態(環境およびデータ)をティーチャー側に表示する。したがって、ティーチャーは、スチューデントが、自分がスナップショットを介して有しているものと同じデータを搭載しているかどうかを確認することができる。もし異なれば、彼は当該スチューデントに警告して、完全同期を実行することができる。
B. Teacher Action In addition, additional interface features can be displayed to the main user, ie, the user acting as a “teacher”. In such an embodiment, the teacher may be provided with a student IP list and a “sync” button. This panel may only be available to teachers. When a new student joins, for example, a snapshot of the student's first scenario is sent to the teacher, displayed in the student list, and so on. In addition, the student's IP address can be shown, for example, in a text box. If there are multiple students, the teacher can scroll through the list to see other students' IP addresses and snapshots. In an embodiment of the present invention, such a snapshot allows a teacher to accurately measure the relative synchronization between his dataset and the student dataset. For example, there are two ways to achieve synchronization when starting networking: single synchronization and full synchronization. In general, if the teacher and student have the same data set, only a single synchronization is required. However, if the data sets they have are different, the teacher must initiate a full synchronization. Otherwise, a failure will occur later. Snapshots sent from various students display their initial state (environment and data) on the teacher side. Thus, the teacher can check whether the student has the same data that he has through the snapshot. If not, he can alert the student and perform a full synchronization.

C.スチューデントアクション
本発明の実施態様において、ユーザがスチューデントとなることを選択するとすぐ、彼は、自分のバーチャルコントロールパネルのコントロールを失う。彼は、ティーチャーの操作を見て、自分が関心を持った部分を指し示すことができる。しかしながら、彼にできることには制限がある。彼は、ティーチャーにコントロールされている自分のバーチャルコントロールパネルにタッチすることができないためである。記載したように、彼が行うことができる制限された相互作用のセットは、専用のボタンによって(デキストロラップ(DextroLap)に記載のPC遂行に用いられるものに類似している)、または、ティーチャーが例示のデキストロネット(DextroNet)を介して操作する「標準的な」コントロールパネルとは異なる専用の「スチューデント」バーチャルコントロールパネルを介して、容易に行うことができる。
C. Student Action In an embodiment of the present invention, as soon as the user chooses to become student, he loses control of his virtual control panel. He can see the teacher's operation and point to the part he is interested in. However, there is a limit to what he can do. This is because he cannot touch his virtual control panel controlled by the teacher. As stated, the limited set of interactions he can perform is either via a dedicated button (similar to that used to perform the PC described in DextroLap) or a teacher Can be easily done via a dedicated “Student” virtual control panel that is different from the “Standard” control panel that operates via the exemplary DextroNet.

本発明の実施態様において、スチューデントには、ティーチャーの操作を見ることができる2つの方法がある。例えば、彼は、(i)ティーチャーの視点に従う、または(ii)ティーチャーのものとは異なる見地からのデータセットを見ることができる。そのような実施態様において、彼は、彼のスタイラスまたは他のいくつかのシステムが定義するシグナルをクリックするだけで、これら2つのモードの間をトグルすることができる。   In an embodiment of the present invention, there are two ways for the student to see the operation of the teacher. For example, he can (i) follow a teacher's point of view, or (ii) view a data set from a different perspective than that of the teacher. In such an embodiment, he can toggle between these two modes by simply clicking on a signal defined by his stylus or some other system.

本発明の実施態様において、スチューデントが、「従事」(すなわち、ティーチャーの見地に従う)モードにあるとき、例えば、「ロックオン(LockOn)」という語の赤いテキスト表示が提供されるようにすることができる。そのようなモードのとき、彼はオブジェクトを回転させたり、動かしたりすることができない。彼がスタイラスをクリックするか、または別の何らかのシグナルを送信して、切断すれば、「ロックオン」("LockOn")テキストは、例えば、消える。これは、彼は、自分自身の視点からデータセットを見ることができることを示すものである。このような「切断」モードでは、スチューデントは、例えば、左手のツールを使って、表示されたオブジェクトを回転させたり、動かしたりなどができる。   In an embodiment of the present invention, when the student is in “engaged” (ie, according to the teacher's perspective) mode, for example, a red text display of the word “LockOn” may be provided. it can. In such a mode, he cannot rotate or move the object. If he clicks on the stylus or sends some other signal and disconnects, the “LockOn” text disappears, for example. This shows that he can see the data set from his own perspective. In such a “cut” mode, the student can, for example, rotate or move the displayed object using a left hand tool.

D.ネットワーク接続の停止
記載した例示の遂行においては、ティーチャーのツールだけがバーチャルコントロールパネルにタッチすることができるので、「ネットワーキングの停止」ボタンをクリックすることによってネットワーキング機能を終了させる責任はティーチャーにある。ネットワーキングが終了すると、ティーチャーは、彼/彼女が、ネットワーキングセッション中にデータに対して行った変更の全てを保存することができる。しかしながら、スチューデントは、例えば、望ましければ、自分のシナリオをネットワーキング前のものに回復して、ネットワーキングセッションに入る前に保存していたものに回復することができる。
D. Stopping the Network Connection In the illustrated implementation, only the teacher's tool can touch the virtual control panel, so it is the responsibility of the teacher to end the networking function by clicking the “Stop Networking” button. When networking ends, the teacher can save all of the changes he / she made to the data during the networking session. However, the student can, for example, recover his scenario to the one before the networking and the one saved prior to entering the networking session, if desired.

本発明の実施態様において、ネットワーキング中、スチューデントのデータはティーチャーのデータの同期させることが要求されることがある。したがって、スチューデントのローカルデータを損なうことを回避するために、ネットワーキングセッションが実際に始まる前にスチューデントがネットワーキングボタンを押すと、例えば、彼自身のデータが何らかのバックアップディレクトリーに自動的にコピーすることができる。したがって、ネットワーキングセッションが終了したとき、彼は自身のデータをバックアップディレクトリーからコピーすることによって回復することができる。本発明の実施態様において、これは、「ネットワーキング停止」ボタンを押すと自動的に行うことができる。   In an embodiment of the present invention, during networking, student data may be required to be synchronized with teacher data. Thus, to avoid damaging the student's local data, if the student presses the networking button before the networking session actually begins, for example, his own data can be automatically copied to some backup directory . Thus, when the networking session ends, he can recover by copying his data from the backup directory. In an embodiment of the invention, this can be done automatically when the “Stop Networking” button is pressed.

E.サーバの例
本発明の実施態様において、デキストロネット(DextroNet)は、図9に示すように、サーバクライアントアーキテクチャー上に確立することができる。このような構成例においては、ティーチャー930およびスチューデント920の双方は、クライアントである。それらは、例えば、逓倍する接続、接続登録、および接続照会を管理するために使用することができるサーバ910に物理的に接続されている。送信元(クライアント)からの全ての情報が、例えば、最初にサーバ910に渡される。当該サーバは、例えば、受信機IPアドレスを分析し、その後メッセージを特定の目的地に渡す。こうして、そのような実施態様において、ネットワーキング機能を、ティーチャーまたはスチューデントのいずれかの側でアクティブな状態にする前に、そのようなサーバアプリケーションは最初に起動させなければならない。例示のサーバの特徴について以下において説明する。
E. Server Example In an embodiment of the present invention, a DextroNet can be established on a server client architecture, as shown in FIG. In such a configuration example, both the teacher 930 and the student 920 are clients. They are physically connected to a server 910 that can be used, for example, to manage multiplying connections, connection registrations, and connection queries. All information from the transmission source (client) is first passed to the server 910, for example. The server, for example, analyzes the receiver IP address and then passes the message to a specific destination. Thus, in such an embodiment, such a server application must first be launched before networking functions are activated on either the teacher or student side. Exemplary server features are described below.

1.低レベルの観点から、本発明の実施態様において、サーバは、多重化技術を用いて、マルチプル接続をサポートすることができる。それは、例えば、データの到達が実行を誘発する、単一のプロセス並行サーバであることができる。タイムシェアリングは、例えば、負荷が大きすぎてCPUがそれを処理しきれない場合に引き継ぐ。さらに、高レベルの観点から、送信元(クライアント)からのIPアドレスに基づいて、サーバは、TCP/IPプロトコルを用いて、メッセージを目的地にユニキャスト、マルチキャスト、もしくはブロードキャストすることができる。   1. From a low level perspective, in embodiments of the present invention, the server can support multiple connections using multiplexing techniques. It can be, for example, a single process concurrent server where arrival of data triggers execution. Time sharing is taken over, for example, when the load is too great for the CPU to handle it. Furthermore, from a high level perspective, based on the IP address from the source (client), the server can unicast, multicast, or broadcast the message to the destination using the TCP / IP protocol.

2.接続登録
クライアントはサーバに接続すると、サーバ上に、例えばそのIPアドレスとネットワーキングの役割(例えば、ティーチャーまたはスチューデント)を登録する。例えば、2つの基準、すなわち、(1)スチューデントが参加する前にティーチャーが存在していること、および(2)サーバに接続するティーチャーは一人だけであること、を確実にすることはサーバの責任とすることができる。基準(1)が満たされない場合、スチューデントは、例えば、ネットワーキングから退去するよう警告されることがあり得、または、例えば、ティーチャーが接続するまで待つよう助言されることもあり得る。基準(2)が満たされない場合、第2の推定上のティーチャーは、例えば、ネットワーキングから退去するよう警告されることがあり得る、または、例えば、彼がスチューデントとして接続されることが望ましいかどうか照会されることがあり得る。
2. Connection Registration When a client connects to a server, it registers, for example, its IP address and networking role (eg, teacher or student) on the server. For example, it is the server's responsibility to ensure that there are two criteria: (1) the teacher exists before the student joins, and (2) only one teacher connects to the server. It can be. If criterion (1) is not met, the student may be alerted, for example, to leave the networking, or may be advised to wait for the teacher to connect, for example. If criterion (2) is not met, the second putative teacher may be warned, for example, to leave the networking or, for example, query whether he is desired to be connected as a student It can be done.

3.接続照会
本発明の実施態様において、クライアントは、現在の接続環境に何人の仲間のクライアントが存在しているのか、そして、それが誰なのかについて、サーバに照会することができる。このようにして、クライアントは、誰が通信に関与しているのかを知ることができる。これは、現在のスチューデントのダイナミックリストを保持しているティーチャーにとって重要である。サーバは、「仲間の照会」のような要求を受信したら、例えば、全ての仲間のクライアントのIPアドレスやポートを要求者に返信することができる。
3. Connection Query In an embodiment of the present invention, the client can query the server as to how many fellow clients are in the current connection environment and who it is. In this way, the client can know who is involved in the communication. This is important for teachers who maintain a dynamic list of current students. When the server receives a request such as “buddy inquiry”, the server can return, for example, the IP addresses and ports of all the buddy clients to the requester.

4.サーバ照会へ回答する
本発明の実施態様において、サーバは、LAN上で自動検出され得る。例えば、サーバのUDPソケットが、予期していたサーバアプリケーションについてのクライアントのブロードキャスト照会をLANから受信すると、起動中のアプリケーションの名前を確認して、求めているものが利用可能かどうかを知ることができる。もし利用可能であれば、サーバは、自身のアドレス(IP:ポート)を照会しているクライアントへ返信することができる。
4). Reply to Server Query In an embodiment of the present invention, the server can be automatically detected on the LAN. For example, when a server's UDP socket receives a client broadcast query about a server application that it was expecting from the LAN, it can check the name of the running application to see if it is available. it can. If available, the server can reply to the client querying its address (IP: port).

したがって、本発明の実施態様において、あるユーザが自分のネットワーキングでの役割を選択すれば(例えば、ネットワーキング接続に参加したときの可視化環境内のネットワーキングインターフェース上の「ティーチャー」または「スチューデント」ボタンを押すことによって)、彼はイントラネットを介して、サーバプログラム名を含む照会をブロードキャストすることができる。このメッセージは、例えば、全てのイントラネット機械上の専用のポートに送信することができる。サーバプログラムが起動していれば、それは専用のポートを聞き続けることができる。それが、ブロードキャストメッセージをクライアントから受信すると、サーバ機上の全ての起動しているプログラム名を確認して、整合性があるかどうかを知ることができる。整合性があれば、サーバは、例えば、それ自身のアドレス(IP:ポート)を照会しているクライアントに返信することができる。一方、クライアントは、サーバからの回答を待っていることができる。一定時間経過後、否定の回答が返信されれば、クライアントは、「サーバが作動していません」というエラーを報告することができ、例えば、通常のスタンドアロンワーク状態を再開する。   Thus, in an embodiment of the present invention, if a user selects his / her networking role (eg, pressing a “teacher” or “student” button on the networking interface in the visualization environment when joining a networking connection) He can broadcast a query containing the server program name over the intranet. This message can be sent, for example, to a dedicated port on all intranet machines. If the server program is running, it can keep listening to the dedicated port. When it receives a broadcast message from the client, it can check the names of all running programs on the server machine to know if they are consistent. If there is consistency, the server can reply to a client that is querying its own address (IP: port), for example. On the other hand, the client can wait for an answer from the server. If a negative answer is returned after a certain period of time, the client can report a “server not working” error, eg, resume normal stand-alone work state.

5.サーバの起動
本発明の実施態様において、デキストロネット(DextroNet)サーバは、可視化の機械にインストールされることなく、スタンドアロンアプリケーションとして動くことができる。通信がLAN内部で行われている場合、例えば、ティーチャーもスチューデントもサーバのIPアドレスを正確に知っている必要はない。デキストロネット(DextroNet)ソフトウェアは、例えば、自動的にサーバを突き止める。通信がWAN上で行われている場合、サーバのIPとポートがデキストロネット(DextroNet)に提供されなければならない。例えば、ローカルサーバが検出されない場合、およびリモートサーバが存在しない場合、ティーチャーは、ネットワーキング機能を開始しようとする場合、例えば、自分の機械上で自動的にサーバアプリケーションの起動を行う。
5. Server Startup In an embodiment of the present invention, a DextroNet server can run as a stand-alone application without being installed on a visualization machine. If communication is performed within the LAN, for example, neither the teacher nor the student need to know the IP address of the server accurately. DextroNet software, for example, automatically locates the server. If the communication is over a WAN, the server IP and port must be provided to DextroNet. For example, if a local server is not detected, and a remote server does not exist, the teacher automatically launches a server application on its own machine, for example, when attempting to initiate a networking function.

別法として、例えば、サーバ機能をティーチャーの役割と組み合わせることができる場合、つまり、ティーチャーの機械がサーバの役割を担うことができる場合、スチューデントの機械は、クライアントを維持することができる。しかしながら、そのような実施態様においては、ティーチャー機の負担が比較的重いものとなる可能性がある。なぜなら、3D可視化ソフトウェアからの可視化の要求、ならびにデキストロネット(DextroNet)からの通信の要求が同時に起こるからである。したがって、例えば、デキストロネット(DextroNet)通信ループの速度が、例えば、デキストロスコープ(Dextroscope)(登録商標)可視化ループによって、遅くなる可能性がある。これによって、待機バッファに残る入力および出力データを増加させる原因となり得る。したがって、本発明の実施態様において、データの列が長くなれば、「意味のない」データパケットは、例えば、落とすことができる。すなわち、そのようなデータパケットは、例えば、処理されることなく列から除去されることが可能となる。この文脈での「意味のない」データパケットはとは、プログラム/可視化の結果に影響を及ぼさないデータパケット、例えば、主な操作(例えば、ドリリング、トリミングなど)を行うことがなく、したがってデータセットに影響を及ぼさない、ツール(ティーチャーのものとスチューデントのもの両方)の移動を転送するパケットを言う。   Alternatively, for example, if the server function can be combined with the teacher role, that is, if the teacher machine can take the server role, the student machine can maintain the client. However, in such an embodiment, the burden on the teacher machine may be relatively heavy. This is because a request for visualization from 3D visualization software and a request for communication from DextroNet occur simultaneously. Thus, for example, the speed of a DextroNet communication loop can be slowed, for example, by a Dextroscope® visualization loop. This can cause the input and output data remaining in the standby buffer to increase. Thus, in an embodiment of the present invention, a “nonsense” data packet can be dropped, for example, if the data string becomes long. That is, such data packets can be removed from the queue without being processed, for example. A “nonsense” data packet in this context is a data packet that does not affect the result of the program / visualization, eg, does not perform any major operations (eg, drilling, trimming, etc.) and is therefore a data set Packets that transfer movements of tools (both teacher and student) that do not affect.

この文脈においては、かなり詳細に以下に示すように、ツールには4つの基本的な状態:「確認」、「スタートアクション」、「ドゥアクション」、および「アクションの停止」がある。「確認」状態では、バーチャルツールは、バーチャルワールドではローミングとしてのみ現れ、例えば、1つの位置から他の位置へ移動するなどの活動的な操作は行われない。この状態でそのようなツールの位置や方向を送信するデータパケットは、「意味がない」データパケットであると考えることができる。密集したネットワークが存在する場合、ティーチャーの「送信」バッファが未送出パケットでいっぱいになるだろう。そのような状況においては、本発明の実施態様において、当該ソフトウェアは、「送信」バッファを確認し、こうした「確認」状態のパケットを捨てることができる。大半の時間、バーチャルツールは、「確認」状態であるため、それによってトラフィック負荷を大幅に軽減することができる。例えば、ティーチャーは、(a)自分の「送信」バッファ中に1セットのメッセージを持っている。ネットワーク接続が低速である場合、彼は、メッセージを(b)スチューデントに送る。この場合、スチューデントは、ティーチャーのツールが、位置1から位置nのように、「ジャンプ」するのを見て、次に、例えば、ドリル操作を行う。   In this context, the tool has four basic states: “confirm”, “start action”, “do action”, and “stop action”, as will be shown in greater detail below. In the “confirmed” state, the virtual tool appears only as roaming in the virtual world, and no active operations are performed, such as moving from one location to another. A data packet that transmits the position and direction of such a tool in this state can be considered to be a “nonsense” data packet. If there is a dense network, the teacher's “send” buffer will be filled with unsent packets. In such a situation, in an embodiment of the invention, the software can check the “send” buffer and discard those “confirmed” packets. Most of the time, the virtual tool is in a “confirmed” state, which can greatly reduce the traffic load. For example, a teacher has (a) a set of messages in his “send” buffer. If the network connection is slow, he sends a message to the student (b). In this case, the student sees the teacher's tool “jump” from position 1 to position n and then performs, for example, a drilling operation.

V.遂行の例
図10乃至49は、デキストロネット(DextroNet)の種々の例示の遂行を表す図である。そのような遂行は、例えば、ラジオデキスター(RadioDexter)(登録商標)ソフトウェアなどを動かすデキストロスコープ(Dextroscope)(登録商標)に統合するように設計されており、そのようなシステムの追加的な機能的なモジュールとして現れ得る。記載の例においては、ティーチャーおよびスチューデントは、サーバ プログラムを動かすサーバを介して互いに通信しあう。記載のように、各セッション中は、1つの時間にスチューデントは多数存在し得るが、ティーチャーは一人だけである。
V. Examples of Performance FIGS. 10-49 are diagrams illustrating various exemplary performances of a DextroNet. Such an implementation is designed to integrate with, for example, a Dextroscope (R) that runs RadioDexter (R) software, etc., and the additional functionalities of such a system Can appear as a simple module. In the described example, the teacher and student communicate with each other via a server running a server program. As noted, there can be many students at one time during each session, but only one teacher.

図10乃至25は、例示的ティーチャーと2人のスチューデントのビューの間の経時的関係を示す図である。図10、14、18および22のそれぞれは、3つのビューを並べて示している。そのそれぞれは、直後の3つの図に拡大して示している。   FIGS. 10-25 illustrate the relationship over time between an exemplary teacher and the views of two students. Each of FIGS. 10, 14, 18 and 22 shows three views side by side. Each of them is shown in an enlarged manner in the immediately following three figures.

図10乃至25は、本発明のある実施態様における、例示的ティーチャーと2人のスチューデントのそれぞれによって見られるそれぞれの図の間の例示的相互作用を示す図である。図10において、ティーチャーは、スチューデントが接続しているかどうかを確認する。ティーチャーのビューを図10(a)に示す。また、図10(b)および図10(c)は、例示の二人のスチューデントである、スチューデント1およびスチューデント2のそれぞれのビューを示している。示された例では、ティーチャーとスチューデント1は、デキストロスコープ(Dextroscope)(登録商標)型システムを使用している。そして、スチューデント2は、デキストロラップ(DextroLap)型システムを使用している。図11乃至13は、これらのビューをより詳細に示すものであり、次に述べる。   FIGS. 10-25 illustrate exemplary interactions between respective views seen by an exemplary teacher and each of two students, in an embodiment of the present invention. In FIG. 10, the teacher confirms whether the student is connected. A view of the teacher is shown in FIG. FIG. 10B and FIG. 10C show views of Student 1 and Student 2, respectively, which are two exemplary students. In the example shown, Teacher and Student 1 are using a Dextroscope® type system. Student 2 uses a DextroLap type system. Figures 11 to 13 show these views in more detail and are described below.

図11において、ティーチャーは、彼自身のツール1100、スチューデント1のリモートツール1101、およびスチューデント2のリモートツール1102を見ることができる。スチューデント2のリモートツールは、スチューデント2がデキストロラップ(DextroLap)を使っているために、実際にはカーソルであることに留意されたい。したがって、全体の3Dコントロールを持っていない。さらに図11に示すように、各スチューデントのリモートツールには、スチューデントのコンピュータのIPアドレスがついている。本発明の実施態様において、そのようなIPアドレスは、スチューデントの名前を表示するために変更することができる。別法として、例えば、両方を表示することができる。本発明の実施態様においては、ティーチャーに表示された各スチューデントの名前が示されることで同時にスチューデントの数を教えるために使用されることは特に有用である。このように、ティーチャーは、自分が誰に講義しているのかを知ることができる。   In FIG. 11, the teacher can see his own tool 1100, Student 1 remote tool 1101, and Student 2 remote tool 1102. Note that Student 2's remote tool is actually a cursor because Student 2 uses DextroLap. Therefore, it does not have an overall 3D control. Further, as shown in FIG. 11, each student's remote tool has the IP address of the student's computer. In an embodiment of the present invention, such an IP address can be changed to display the student's name. Alternatively, for example, both can be displayed. In an embodiment of the present invention, it is particularly useful that the name of each student displayed on the teacher is shown and used to teach the number of students at the same time. In this way, the teacher can know who he is giving a lecture to.

さらに、ティーチャーのビューは、さまざまなスチューデントのスナップショットのためのディスプレイウインドウ1120であることが図11から見て取れる。このスナップショットウインドウ1120によって、ティーチャーは、スチューデントのローカルビューを見ることができるのである。最後に、3つのネットワーキングツール、すなわち、「同期」1150、「リモートスナップショット」1160および「役割切り換え」1170が存在する。同期1150は、スチューデントとティーチャーの間の同期を取るために使用することができる。このツールは、それぞれのデータセットの状態が有意に離れて浮動していて混乱を引き起こすことがティーチャーにとって(またはスチューデントにとって)明らかな場合に用いることができる。リモートスナップショット1160は、スナップショットウインドウ1120に表示された特定のスチューデントのスナップショットを要求する。これは、例えば、接続しているスチューデントのスクロール可能なリストをもつティーチャーのコントロールパネルによって、容易に行うことができる。その後、ティーチャーは、例えば、スチューデントのリストをスクロールして、一人を選択することができる。その後、ティーチャーが、例えば、「捕捉」ボタンを押し、スナップショットがスチューデントのワークステーションから要求される。最後に、役割切り換え1170によって、ティーチャーとスチューデントの役割を切り換えることができる。このプロセスは、ティーチャー主導によるものに制限することができる。したがって、以下により詳細に示すように、このボタンは、例えば、ティーチャー機でのみアクティブな状態である。   Furthermore, it can be seen from FIG. 11 that the teacher's view is a display window 1120 for various student snapshots. This snapshot window 1120 allows the teacher to see the student's local view. Finally, there are three networking tools: “Synchronize” 1150, “Remote Snapshot” 1160 and “Role Switch” 1170. Synchronization 1150 can be used to synchronize between the student and the teacher. This tool can be used when it is clear to the teacher (or to the student) that the state of each data set is floating significantly apart, causing confusion. Remote snapshot 1160 requests a snapshot of a specific student displayed in snapshot window 1120. This can be easily done, for example, by a teacher's control panel with a scrollable list of connected students. The teacher can then select one person, for example, by scrolling through the student list. The teacher then presses a “capture” button, for example, and a snapshot is requested from the student workstation. Finally, the role switching 1170 can switch the roles of the teacher and the student. This process can be limited to teacher-led ones. Thus, as will be shown in more detail below, this button is active only on a teacher machine, for example.

図12は、スチューデント1のビューを示す図である。それは、スチューデント1のツール1201ならびにティーチャーのツール1200を示す。スチューデント1自身1のIPアドレスが彼のツールとともに示されていることに留意されたい。この特徴はオフにする。または、例えば、ティーチャーのビューを用いたのと同様に、スチューデントの名前もしくは他のいくつかの識別子と置き換えることができる。スチューデントが見る3Dオブジェクト1225は、ティーチャーのビューが示すものと同じであり、同じ正確な見地もしくは視点に存在する。これは、スチューデント1のビューが、ティーチャーのものにロックオンしているためである。したがって、ロックオンサイン1290がスチューデント1のスクリーンの右上に表示されている。同期1250、リモートスナップショット1260および役割切り換え1270の3つのネットワーキングツールとしてティーチャーのツール1200が見える。スチューデント1がスチューデントであり、ネットワーキングの機能性をコントロールしないので、スナップショットウインドウ1220には、スナップショットが何も表示されていない。実際、スチューデントがティーチャーのビューを見たいときは、既に図12において示しているように、ティーチャーのビューにロックオンすればよいだけである。したがって、リモートスナップショット1260は、ゴースト化されている。同期1250も、役割切り換え1270も同様にゴースト化されている。ティーチャーのみ3つの機能を行うことができる。図13は、図12と同様に、スチューデント2のビューを示している。それによれば、同じ3Dオブジェクト1325が示されている。スチューデント1の3Dオブジェクトのビューは、ティーチャーやスチューデント2のものより透明に見えることがわかる。全てのワークステーションが同じプログラムを動かしているにもかかわらず、そのようなワークステーションは、異なる構成を備えているからである。例えば、「コントロールパネルがスタイラスによってタッチされたとき、3Dオブジェクトをゴースト化する」ように、例えば、いくつかは、特定の特徴が使用禁止であるかもしれない。そのような特徴は、例えば、スタイラスとコントロールパネルとのを促進することができる。   FIG. 12 is a diagram showing a view of student 1. It shows Student 1 tool 1201 as well as Teacher tool 1200. Note that Student 1 himself 1's IP address is shown along with his tools. Turn this feature off. Or, for example, it can be replaced with the student's name or some other identifier, just as with the teacher's view. The 3D object 1225 that the student sees is the same as the teacher's view shows, and exists in the same exact perspective or viewpoint. This is because Student 1's view is locked on to the teacher's. Therefore, a lock-on sign 1290 is displayed at the upper right of Student 1's screen. The teacher tool 1200 is visible as three networking tools: synchronization 1250, remote snapshot 1260, and role switch 1270. Since student 1 is a student and does not control networking functionality, no snapshot is displayed in the snapshot window 1220. In fact, if the student wants to see the teacher's view, he just needs to lock on the teacher's view, as already shown in FIG. Therefore, the remote snapshot 1260 is ghosted. The synchronization 1250 and the role switching 1270 are similarly ghosted. Only the teacher can perform three functions. FIG. 13 shows the view of Student 2 as in FIG. According to it, the same 3D object 1325 is shown. It can be seen that the view of Student 1's 3D object looks more transparent than that of Teacher or Student 2. This is because even though all workstations are running the same program, such workstations have different configurations. For example, some features may be disabled, eg, “ghost 3D objects when control panel is touched by stylus”. Such a feature can facilitate, for example, a stylus and a control panel.

これは、ユーザ(ラップトップ上で動くデキストロラップ(DextroLap)システムを利用しているかもしれないし、高速デキストロスコープ(Dextroscope)(登録商標)を利用しているかもしれない)が利用可能なグラフィックスカードに依存するためである。3Dインタラクティブ可視化ソフトウェアの、より「装飾的」な機能は、正確には同じ視覚的結果をもたらさないかもしれないが、3Dオブジェクトの効果の観点からは同一の振る舞いをするであろう(もちろん、同期のとれたビューを維持するためには、正確に同じである必要がある)。そのような装飾的機能の1つを、例えば、図13に示している。ユーザがコントロールパネルと対話する際(そして、したがって、応答性には、ボタンおよびスライダーを正確にクリックする必要がある)の表示を促進するために、コントロールパネルとスタイラスを再生するだけで、3Dオブジェクトのレンダリングされた画像を捕捉して、3Dビュー上に透明にペーストすることができる。スチューデントのワークステーションに複製されない場合、アプリケーション上の結果は同じであるが、相互作用速度が遅くなる。そして、オブジェクトの表示内容が異なったものとなるであろう(すなわち、透明でない)。   This is a graphic available to the user (which may be using a DextroLap system running on a laptop, or a high-speed Dextroscope (R)) This is because it depends on the scand. The more “decorative” features of 3D interactive visualization software may not give exactly the same visual results, but will behave identically in terms of 3D object effects (of course, synchronous To maintain a brilliant view, it must be exactly the same). One such decorative function is illustrated, for example, in FIG. Just play the control panel and the stylus to facilitate the display when the user interacts with the control panel (and therefore responsiveness requires that you click the buttons and sliders exactly), and the 3D object Can be captured and pasted transparently onto the 3D view. If not replicated to the student workstation, the application results are the same, but the interaction speed is slower. And the display content of the object will be different (i.e. not transparent).

図13において、スチューデント2もロックオンモードであり、したがって、ロックオンサイン1390が図13にも表示されている。スチューデント2は、彼自身のツール、この場合カーソル1302を見ることができる。スチューデント2のローカルIPアドレスも表示されている。別の実施態様においては、それは、例えば、上記したように、置き換えられ、もしくは拡張されている。スチューデント1のケースと同様に、スナップショットウインドウ1320にスナップショットは表示されておらず、ネットワーキングツールの同期1350およびリモートスナップショット1360は両方とも、役割切り換え1370と同様にゴースト化されている。   In FIG. 13, Student 2 is also in the lock-on mode, so the lock-on sign 1390 is also displayed in FIG. Student 2 can see his own tool, in this case the cursor 1302. Student 2's local IP address is also displayed. In another embodiment, it is replaced or expanded, for example as described above. As in the Student 1 case, no snapshot is displayed in the snapshot window 1320, and both the networking tool synchronization 1350 and the remote snapshot 1360 are ghosted, similar to the role switch 1370.

次に、図14乃至17について説明する。これは、図10乃至13に示されたものに続くある例示的時点における、図10のティーチャーと二人のスチューデントを示すものである。図14において、ティーチャーは、3Dオブジェクトの右後ろ側の隅の立方体のオブジェクトから、3Dオブジェクトの左後ろ側に見える円錐形のオブジェクトの先端まで線を描いた。ティーチャーは、これを例示の測定ツールを用いて行った。したがって、測定の末端近くに測定ボックスが現れており、それには、「47.68mm」と示されている。両スチューデントは、ロックオンモードである。次に、図15乃至17を用いて、3つのビューを詳細に説明する。   Next, FIGS. 14 to 17 will be described. This shows the teacher of FIG. 10 and the two students at an exemplary time following that shown in FIGS. In FIG. 14, the teacher drew a line from the cubic object at the right rear corner of the 3D object to the tip of the conical object visible on the left rear side of the 3D object. The teacher did this using the exemplary measurement tool. Therefore, a measurement box appears near the end of the measurement, which is labeled “47.68 mm”. Both students are in lock-on mode. Next, the three views will be described in detail with reference to FIGS.

図15は、ティーチャーのビューを示す図である。隅の立方体のオブジェクトから、3Dオブジェクト1525の左後ろ側に見える円錐形のオブジェクトの先端までの測定を行うために用いられたティーチャーツール1500が見える。さらに、スチューデント1のIPアドレスが付いたスチューデント1のリモートツール1501、ならびにスチューデント2のIPアドレスが付いたスチューデント2のリモートツール(カーソル)1502も見える。図15のティーチャーのビューからわかるように、スチューデント1は、ティーチャーの測定が始まった、立方体上の点の近くに彼のリモートツールを指し示している。スチューデント2は、円錐のベースの近くのどこかを指している。   FIG. 15 is a diagram showing a teacher's view. The teacher tool 1500 used to measure from the corner cube object to the tip of the conical object visible on the left back side of the 3D object 1525 is visible. Also visible are the Student 1 remote tool 1501 with the Student 1 IP address and the Student 2 remote tool (cursor) 1502 with the Student 2 IP address. As can be seen from the teacher's view of FIG. 15, Student 1 points to his remote tool near a point on the cube where the teacher's measurement began. Student 2 points somewhere near the base of the cone.

スチューデント1のビューである図16には、ティーチャーのツール1600を見ることができる。ティーチャーのツールは、もちろん、スチューデント1から離れている。さらに、スチューデント1のツール1601、3Dオブジェクト1625、およびティーチャーが描いた測定線ならびに測定ボックス1692が見える。さらに、ロックオンサイン1690も見える。これは、スチューデント1がティーチャーのビューにロックオンしていることを示している。図17には、スチューデント2のビューが示されている。スチューデント2は、ティーチャーのビューにロックオンしている。したがって、ロックオンサイン1790が表示さている。ティーチャーのツール1700とともにスチューデント2のリモートツール1702が、彼のIPアドレスとともに示されている。さらに、3Dオブジェクト1725内の立方体のオブジェクトと円錐形のオブジェクトの間にティーチャーが描いた測定線が見える。したがって、ティーチャーが行った測定の長さを示す測定ボックス1792も同様に示されている。   In the Student 1 view, FIG. 16, the teacher's tool 1600 can be seen. The teacher's tools are, of course, far from Student 1. In addition, the Student 1 tool 1601, 3D object 1625, and the measurement line drawn by the teacher and the measurement box 1692 are visible. In addition, a lock on sign 1690 is also visible. This indicates that Student 1 is locked on to the teacher's view. FIG. 17 shows a view of Student 2. Student 2 is locked on to the teacher's view. Therefore, the lock on sign 1790 is displayed. Student 2 remote tool 1702 along with teacher tool 1700 is shown along with his IP address. Further, a measurement line drawn by the teacher can be seen between the cubic object and the conical object in the 3D object 1725. Accordingly, a measurement box 1792 indicating the length of the measurement performed by the teacher is also shown.

図18乃至21は、図10乃至17と有意に異なるティーチャーとスチューデントを示す図である。図18乃至21においては、スチューデント1は、自分のビューをティーチャーのものから切り離している。図19に詳細に示しているように、ティーチャーは、彼自身のツール1900と、スチューデント1のリモートツール1901とスチューデント2のリモートツール1902のそれぞれを見ることができる。図19からわかるように、ティーチャーは、立法体のオブジェクトの隅近くの左上から円錐形のオブジェクトの先端までを、彼のツール1900を用いて測定し終わったところである。同様に、図20には、今は、スチューデント1は、もはやロックオンされていない。したがって、ロックオンサインは彼のビューに現れていない。スチューデント1は、彼のビューをティーチャーのものから切り離したので、彼は、上方から3Dオブジェクト2025を見ることができる。あるいは、彼が選択するあらゆる他の視点を見ることができる。さらには、切り離されたモードにおいては、コントロールパネルは、例えば、ここには示していないが、ローカルの相互作用に影響を及ぼす必要はない。スチューデントには、例えば、デキストロラップ(DextroLap)出願に記載されているように、ディスプレイの側部に現れる1セットのコントロールボタンが示されることがある。または、例えば、局所が省略されたコントロールパネルが提供されることがある。そのようなローカルコントロールパネルは、上記したように、例えば、短縮されたルックによってゴースト化することができる。ティーチャーのコントロールを受けている「真の」コントロールパネルではないことが容易に認識できる場合は、ゴースト化する必要はない。図21に、スチューデント2のビューが示されている。スチューデント2はまだティーチャーにロックオンされているため、ロックオンサイン2102が表示されている。スチューデント2は、ティーチャーのツール2100ならびに自身のツール2102の両方を居ることができる。スチューデント2はまた、3Dオブジェクト2125およびティーチャーが施した測定線も見ることができる。   18 to 21 are diagrams showing teachers and students that are significantly different from those shown in FIGS. In FIGS. 18-21, Student 1 separates his view from that of the teacher. As shown in detail in FIG. 19, the teacher can see his own tool 1900, Student 1 remote tool 1901 and Student 2 remote tool 1902, respectively. As can be seen from FIG. 19, the teacher has just measured with his tool 1900 from the top left near the corner of the object of the legislature to the tip of the conical object. Similarly, in FIG. 20, student 1 is no longer locked on. Therefore, the lock-on sign does not appear in his view. Student 1 has separated his view from that of the teacher so he can see the 3D object 2025 from above. Or you can see every other viewpoint he chooses. Furthermore, in disconnected mode, the control panel need not affect local interaction, for example, although not shown here. The student may be presented with a set of control buttons that appear on the side of the display as described, for example, in the DextroLap application. Alternatively, for example, a control panel in which the local part is omitted may be provided. Such a local control panel can be ghosted, for example, with a shortened look as described above. If you can easily recognize that it is not a “true” control panel under the control of a teacher, you do not need to ghost. FIG. 21 shows a view of Student 2. Since student 2 is still locked on by the teacher, a lock-on sign 2102 is displayed. Student 2 can have both a teacher tool 2100 as well as his own tool 2102. Student 2 can also see the 3D object 2125 and the measurement line applied by the teacher.

次に図22乃至25について説明する。これらは、ティーチャーのペンの位置が変わったことを以外は図18の図と同様である。図23のティーチャーのビューは、ティーチャーのツールが少し移動したことを除いて図19と同じであることがわかる。したがって、ティーチャーのツール2300は、3Dオブジェクト2325中の円錐形オブジェクトの先端の周りを本質的に回転している。スチューデント1のリモートツール2301、ならびにスチューデント2のリモートツール2302が、図19においてそれらが占めていた同じ位置にまだ見える。図24のスチューデント1の分離されたビューにおいて、変更された唯一の点は、ティーチャーのツール2400の位置と方向である。そして、スチューデント1のツール2401も今ここで同様である。図20と図24の比較からわかるように、スチューデント1のツールは測定の末端点の周りに下向きに回転しており(本質的には、3Dオブジェクト2425の円錐の末端)、図20における測定線とのなす角度と比較して、測定線とのなす角度を小さくしている。スチューデント1のビューは、スチューデント2のカーソルを示していないことがわかる。これは、上記したように、ティーチャーのみが全てのスチューデントを見ることができ、各スチューデントが見ることができるのはティーチャーだけだからである。したがって、各スチューデントは、他のスチューデントの存在を事実上忘れている(もちろん、スチューデントの一人が役割を切り換えてティーチャーとなった場合は除く。プロセスを以下により十分に説明する)。   Next, FIGS. 22 to 25 will be described. These are the same as those in FIG. 18 except that the position of the teacher's pen has changed. It can be seen that the view of the teacher in FIG. 23 is the same as in FIG. 19 except that the teacher's tool has moved slightly. Thus, the teacher's tool 2300 is essentially rotating around the tip of the conical object in the 3D object 2325. Student 1's remote tool 2301 as well as Student 2's remote tool 2302 are still visible in the same position they occupied in FIG. In the separated view of Student 1 in FIG. 24, the only point changed is the position and orientation of the teacher tool 2400. The student 1 tool 2401 is now the same here. As can be seen from a comparison of FIG. 20 and FIG. 24, the Student 1 tool is rotated downward about the measurement endpoint (essentially the cone end of the 3D object 2425) and the measurement line in FIG. The angle formed with the measurement line is made smaller than the angle formed with. It can be seen that Student 1's view does not show Student 2's cursor. This is because, as described above, only teachers can see all students, and each student can only see teachers. Thus, each student has virtually forgotten the presence of another student (of course, unless one of the students switches roles to become a teacher; the process is described more fully below).

同様に、図25は、スチューデント2のビューを示す図である。図25は、ティーチャーのリモートツール2500の位置と方向以外は図21とほぼ同じである。スチューデント2自身のツール2502も3Dオブジェクト2525も動いていない。スチューデント2は、ティーチャーのビューに対してまだロックオンモードであり、したがって、ロックオンサイン2590が、このスチューデント2のビューに表示されている。   Similarly, FIG. 25 is a diagram showing a view of Student 2. FIG. 25 is substantially the same as FIG. 21 except for the position and direction of the teacher's remote tool 2500. Neither Student 2's own tool 2502 nor 3D object 2525 is moving. Student 2 is still in lock-on mode with respect to the teacher's view, so a lock-on sign 2590 is displayed in this Student 2 view.

図26乃至29は、ティーチャーと二人のスチューデントがネットワーキングセッションに参加している別の実施態様を示す図である。図26において、ティーチャーは、ネットワークに接続している。当該システムは、「あなたはティーチャーです。」というメッセージを表示しており、ティーチャーのバーチャルツールが見える。まだスチューデントは接続していない。図27において、第1のスチューデントが参加する。彼のツールおよびIPアドレスがデータセッションに見られ、彼の最初の(彼が入った時間付けの)スナップショットも同様に見ることができる。図28において、第2のスチューデントが参加し、彼のツールとIPアドレスが、この時点でティーチャーにも利用可能となる。各スチューデントのIPアドレスは、彼らのバーチャルツールの隣にテキストボックスとして現れる。図29および30において、ティーチャーは、第1および第2のスチューデントとそれぞれ同期をとる。ティーチャーは、上記したように、ネットワーキングコントロールパネルの左パネルに表示されたスチューデントリストからスチューデントを選択することによって、どのスチューデントと同期を取るかを選択する。   26-29 illustrate another embodiment in which a teacher and two students are participating in a networking session. In FIG. 26, the teacher is connected to the network. The system displays the message "You are a teacher" and you can see the teacher's virtual tools. The student is not yet connected. In FIG. 27, the first student participates. His tools and IP address are seen in the data session, and his first (timed he entered) snapshot can be seen as well. In FIG. 28, a second student joins and his tool and IP address are available to the teacher at this point. Each student's IP address appears as a text box next to their virtual tool. 29 and 30, the teacher is synchronized with the first and second students, respectively. As described above, the teacher selects which student to synchronize by selecting the student from the student list displayed on the left panel of the networking control panel.

図31乃至43は、本発明のある実施態様における、様々な「外科医」および「可視化アシスタント」ビューの順序を示す図である。これらの図は、例えば、外科医がデックス―レイ(DEX-Ray)(登録商標)型システムを用いて手術を行い、例えば、デキストロスコープ(Dextroscope)(登録商標)またはデキストロビーム(DextroBeam)(登録商標)型システムを用いる可視化アシスタントがネットワーク上で外科医の機械と接続しているとき、どのようにして例示の協同が生じ得るかを示す。このパラダイムは、例えば、一人が診断的処置もしくは治療的処置を行い、したがって、対象に関するリアルタイムの情報を取得しており、他方の人がそのようなリアルタイムデータを受信し、それと対象に関する3Dデータを用いて第1の人を援助するために対象の可視化を作成するような、あらゆる状況に適用することができる。そのような可視化アシスタントの例は、例えば、利用可能な視点の自由を利用し(すなわち、彼は、自由に、彼が望むように、3Dデータ中のオブジェクトを回転、翻訳、および拡大する。外科医がそれらを見ている位置および方向におけるそのようなオブジェクトを見ることに限定されない)、外科医が見ることができないものを見る。そして、したがって、例えば、手術の現場にいる患者の組織に外科医を協同的にガイドする。これらの図について次に説明する。   FIGS. 31-43 are diagrams illustrating the order of the various “surgeons” and “visualization assistant” views in an embodiment of the present invention. These figures are shown, for example, by a surgeon performing surgery using a DEX-Ray® system, for example, Dextroscope® or DextroBeam® Figure 2 illustrates how an example collaboration can occur when a visualization assistant using a trademark type system is connected to a surgeon's machine over a network. This paradigm is, for example, that one person has a diagnostic or therapeutic procedure and thus obtains real-time information about the subject, and the other person receives such real-time data and uses it and 3D data about the subject. It can be applied to any situation that uses to create a visualization of an object to assist a first person. Examples of such visualization assistants, for example, take advantage of the available viewpoint freedom (ie he is free to rotate, translate and enlarge objects in the 3D data as he desires. See things that are not visible to the surgeon), not limited to seeing such objects in the position and direction they are looking at. Thus, for example, the surgeon is cooperatively guided to the patient's tissue at the surgical site. These figures are described next.

図31は、可視化アシスタント(「VA」)ビューの2つの例を示す図である。一般に、外科医/可視化アシスタントパラダイムにおいては、外科医は、ロックオンして、一般的には、患者または対象の処理において物理的に使用する視点およびアプローチの角度とは相関しないであろうVAが作成した最適な可視化を見ることを決めていない限り、VAのビューから切り離されている。図31の文脈においては、そして、一般的には、VAは、手術用ナビゲーションシステム、例えば、デックス―レイ(DEX-Ray)(登録商標)型システムを用いる外科医を援助するために使用される。上記したように、外科医は、スチューデントと類似した行動をし、上記したように、可視化アシスタントは、ティーチャーと類似した行動をする。これは、手術をしている外科医は、彼の視点が彼の保持するプローブや他の器具に限定されるため、3Dバーチャルデータの表示に関して自由が少ないという事実によるものである。例えば、デックス―レイ(DEX-Ray)(登録商標)システムを使用して、3Dデータからの視点を見ることは、手で持ったプローブ内のカメラで見るのと同じである。一方、VAは、3Dバーチャルデータだけを見ているので、制限なく視点の変更を行うことが可能である。外科医は一般的に、拡張現実感を表示することを望むため(または、もし他の手術用ナビゲーションシステムを用いるのであれば、視点によって見える3Dデータは、彼がトラッキングするものとほぼ同様である)、外科医のビューは通常VAから切り離されている。   FIG. 31 illustrates two examples of visualization assistant (“VA”) views. In general, in the surgeon / visualization assistant paradigm, a surgeon creates a VA that locks on and generally will not correlate with the viewpoint and approach angle physically used in patient or subject processing. Unless you have decided to see the best visualization, you are disconnected from the VA view. In the context of FIG. 31, and in general, VA is used to assist surgeons using surgical navigation systems, such as the DEX-Ray® type system. As described above, the surgeon acts like a student, and as mentioned above, the visualization assistant acts like a teacher. This is due to the fact that the operating surgeon has less freedom with respect to the display of 3D virtual data, as his viewpoint is limited to the probes and other instruments he holds. For example, using a DEX-Ray® system to view a viewpoint from 3D data is the same as viewing with a camera in a hand held probe. On the other hand, since VA sees only 3D virtual data, it is possible to change the viewpoint without limitation. Because the surgeon generally wants to display augmented reality (or if using other surgical navigation systems, the 3D data seen by the viewpoint is almost the same as what he tracks) The surgeon's view is usually disconnected from the VA.

したがって、図31において、可視化アシスタントは、外科医の手術および処置における関心オブジェクトを表す頭蓋骨を回転させ、冠状面のビューが左側、矢状面が右側に見えるようにする。各可視化アシスタントのビューには、外科医(スチューデントとして機能する)のリモートツール3100が見える。矢状面のビューで、頭蓋骨の開口部を容易に見ることができる。分割している外科医の視点は、これらのそれぞれとは異なるものである。以下において図34を用いてより十分に説明する。図34に示されているように、外科医の実際のビューは、下記に示すように彼の手術経路にあるものより外科医のリモートツール3100の軸に沿ってより多くなっている。図32および図33はそれぞれ、図31の拡大図である。   Thus, in FIG. 31, the visualization assistant rotates the skull representing the object of interest in the surgeon's surgery and procedure so that the coronal view is visible on the left and the sagittal plane is on the right. In each visualization assistant's view, the surgeon's (acting as a student) remote tool 3100 is visible. In the sagittal view, the skull opening can be easily seen. The perspective of the surgeon dividing is different from each of these. This will be described more fully with reference to FIG. As shown in FIG. 34, the surgeon's actual view is more along the axis of the surgeon's remote tool 3100 than is in his surgical path as shown below. 32 and 33 are enlarged views of FIG. 31, respectively.

図34は、図31の可視化アシスタントのビューに対応する外科医のビューを例示した図である。このビューは、外科医が持っている実際の視点であって、彼の、例えば、デックス―レイ(DEX-Ray)(登録商標)型システム上に局所的に示された図である。外科医の視点は、カメラプローブ(Camera Probe)出願に記載のカメラプローブ(Camera Probe)のカメラの視点、または、例えば、別の手術用ナビゲーションシステムを使った場合は、彼の物理的方向および患者の内部へのアプローチの経路に対応している(そして、それによって制限されている)。図34では、外科医のツール3400は、彼が持っている実際のカメラプローブ(Camera Probe)、またはナビゲーションプローブもしくは器具に対応する。さらに図34には、上記したように、他の何らかの識別子と置換または拡張することができる頭蓋骨の開口部2410および外科医のIPアドレス3416、ならびに部分的に見える球体3405も示されている。可視化アシスタントが、彼の視点を最適化することによって、よりよいビューを取得し、それによって、外科医がポイントを突き止めるのは、まさにこのオブジェクトである。図31乃至43には、球体3405(図34に関して)は、外科医が処理している関心オブジェクト、例えば、腫瘍を表していると想定される。図35は、可視化アシスタントのビュー、および上記したように頭蓋骨の開口部を含む頭蓋骨を示す、対応する外科医の切り離されたビューを示す図である。図35においては、可視化アシスタントは、外科医が球体上のポイントを突き止めるのを援助する。可視化アシスタントは、このビューでは、頭蓋骨の側面を切り欠いて、球体を明らかに示している。一方、外科医のビューである図35(b)は、実際の世界では彼のプローブが動いているという事実に制限されており、頭蓋骨中の実際の穴もしくは上記頭蓋骨の開口部中にのみ動くことができる。対照的に、可視化アシスタントのビューは、制限がなく、データを自由に処理して、この球体を最も良好に可視化している。図35(a)の各ビューでは、外科医のツール3500が見えている。図35(b)に示されているように、外科医のツールの軸は、多かれ少なかれ彼の視点に対応している。一方、図35(a)では、可視化アシスタントは、外科医の実際の経路に対して後部からオブジェクトを見ている。図36および37は、それぞれ図35(a)および図35(b)を拡大して示した図である。図37からわかるように、外科医のIPアドレス3716がはっきりと表示されている。   FIG. 34 illustrates a surgeon's view corresponding to the visualization assistant view of FIG. This view is the actual view that the surgeon has and is shown locally on his, eg, DEX-Ray® type system. The surgeon's point of view can be the camera point of view of the camera probe described in the Camera Probe application, or his physical orientation and patient's position, for example, when using another surgical navigation system. It corresponds to (and is limited by) the path of approach to the interior. In FIG. 34, the surgeon's tool 3400 corresponds to the actual camera probe he has or a navigation probe or instrument. Also shown in FIG. 34 is a skull opening 2410 and a surgeon's IP address 3416, and a partially visible sphere 3405, which can be replaced or expanded with some other identifier, as described above. It is precisely this object that the visualization assistant obtains a better view by optimizing his viewpoint so that the surgeon locates the point. 31-43, it is assumed that the sphere 3405 (with respect to FIG. 34) represents an object of interest, such as a tumor, that the surgeon is processing. FIG. 35 shows a view of the visualization assistant and a corresponding surgeon's isolated view showing the skull including the skull opening as described above. In FIG. 35, the visualization assistant helps the surgeon locate the point on the sphere. The visualization assistant clearly shows the sphere in this view by cutting away the sides of the skull. On the other hand, the surgeon's view, FIG. 35 (b), is limited to the fact that his probe is moving in the real world and moves only into the actual hole in the skull or the opening of the skull. Can do. In contrast, the visualization assistant's view is unrestricted and is free to process the data to best visualize this sphere. In each view of FIG. 35 (a), the surgeon's tool 3500 is visible. As shown in FIG. 35 (b), the surgeon's tool axis corresponds more or less to his point of view. On the other hand, in FIG. 35A, the visualization assistant is looking at the object from the rear with respect to the surgeon's actual path. 36 and 37 are enlarged views of FIGS. 35 (a) and 35 (b), respectively. As can be seen from FIG. 37, the surgeon's IP address 3716 is clearly displayed.

VI.他の手術用ナビゲーションシステムとの統合
本発明の実施態様において、種々の3Dインタラクティブ可視化システムの製造業者からの3Dトラッキング(または2Dトラッキング)能を持つ装置、例えば、デキストロネット(DextroNet)上のデキストロスコープ(Dextroscope)(登録商標)などを接続することが可能である。そのような「外来」装置は、そのようなネットワークを介して送信される質問または指令に対応して、所定の情報をデキストロネット(DextroNet)に提供するであろう。例えば、Medtronic(Louisville, Colorado, USA)は、脳神経外科的処置のための種々のナビゲーション(または、画像がガイドする)システムを製造している。そのようなナビゲーションシステムの1つが、例えば、トレオン(登録商標)(TREON)システムである。さらに、メドトロニック(Medtronic)は、アプリケーションプログラムインターフェース(API)ネットワーク インターフェースソフトウェアも製造している。それは、データをそのようなナビゲーションシステムから外部のアプリケーションへ、リアルタイムで流すことができる。
VI. Integration with Other Surgical Navigation Systems In embodiments of the present invention, devices with 3D tracking (or 2D tracking) capabilities from manufacturers of various 3D interactive visualization systems, such as dextros on a DextroNet It is possible to connect a Dextroscope (registered trademark) or the like. Such “outpatient” devices will provide predetermined information to the DextroNet in response to questions or instructions sent over such networks. For example, Medtronic (Louisville, Colorado, USA) manufactures various navigation (or image guided) systems for neurosurgical procedures. One such navigation system is, for example, the TREON system. In addition, Medtronic also manufactures application program interface (API) network interface software. It can stream data from such navigation systems to external applications in real time.

同様に、別の製造業者であるブライアンラボエージー(BrainLAB AG)(Munich, Germany)は、類似のソフトウェア製品を持っている。この製品は、ベクタービジョンリンク(VectorVision Link)(VV Link)という名前の注文設計クライアント/サーバアーキテクチャーを使用し、可視化ツールキット(VTK)から機能を拡大したものである。VV Linkは、両方向データが画像データセット、可視化およびツール位置などをリアルタイムで転送することを可能にする。これらの装置は、登録情報とプローブ座標情報を、デックス―レイ(DEX-Ray)(登録商標)システムと同様のやり方で提供するが、それらは、拡張現実感ベースではないので、ビデオ情報は提供されない。本発明の実施態様において、デキストロネット(DextroNet)サーバの変更例は、ステルスリンク(Stealthlink)(登録商標)またはVV Linkソフトウェアなどを組み込むことができるであろう。患者情報と登録情報の詳細が、例えば、交換可能である接続後、デキストロネット(DextroNet)は、例えば、これらのシステムに照会して、それらのプローブ座標を取得する。こうして、本発明の実施態様において、そのようなシステムは、外科医のワークステーションとして機能し、ティーチャー(VA)ワークステーションに空間座標を提供することができる。上記のデックス―レイ(DEX-Ray)(登録商標)による遂行とは異なり、現在のように構成されているこれらのシステムは、外科医のビューに、VAワークステーションから外科手術中に表示を行うオプションを有していない。そうするためには、本発明のある実施態様の方法をナビゲーションシステム中に具体化するソフトウェアを組み込む必要がある。   Similarly, another manufacturer, BrainLAB AG (Munich, Germany) has a similar software product. This product uses a custom-designed client / server architecture named VectorVision Link (VV Link) and extends functionality from the Visualization Toolkit (VTK). VV Link allows bi-directional data to transfer image data sets, visualizations, tool positions, etc. in real time. These devices provide registration information and probe coordinate information in a manner similar to the DEX-Ray (R) system, but they are not augmented reality based, so video information is provided Not. In an embodiment of the present invention, a modified DextroNet server could incorporate Stealthlink® or VV Link software or the like. After connecting the details of patient information and registration information are interchangeable, for example, DextroNet queries these systems, for example, to obtain their probe coordinates. Thus, in an embodiment of the present invention, such a system can function as a surgeon's workstation and provide spatial coordinates to a teacher (VA) workstation. Unlike the DEX-Ray® implementation described above, these currently configured systems offer an option to display to the surgeon's view during surgery from the VA workstation. Does not have. To do so, it is necessary to incorporate software that embodies the method of an embodiment of the present invention in a navigation system.

同様に、上記したように、本発明の実施態様において、例示のデキストロネット(DextroNet)を介して接続される機械は、異なる製造業者の製品とすることもでき、異なる構成、また異なるタイプであることができる。上記したように、手術用ナビゲーションシステム、例えば、デックス―レイ(DEX-Ray)(登録商標)システム、または、メドトロニック(Medtronic)やブライアンラボ(BrainLAB)のシステムをデキストロネット(DextroNet)を介して標準的な3Dインタラクティブ可視化ワークステーション、例えば、デキストロスコープ(Dextroscope)(登録商標)、デキストロビーム(DextroBeam)(登録商標)などに接続することができる。さらに上記したように、3D位置データを送信するシステム、例えば、拡張現実感を利用しない手術用ナビゲーションシステムを接続することもできる。   Similarly, as described above, in an embodiment of the present invention, the machines connected via the exemplary DextroNet can be products from different manufacturers, in different configurations, and in different types. Can be. As mentioned above, surgical navigation systems, such as the DEX-Ray (registered trademark) system, or Medtronic or BrainLAB systems via DextroNet It can be connected to a standard 3D interactive visualization workstation such as Dextroscope®, DextroBeam®, etc. Furthermore, as described above, a system that transmits 3D position data, for example, a surgical navigation system that does not use augmented reality can be connected.

次に説明する図44乃至49は、本発明のある実施態様におけるデキストロネット(DextroNet)のさらに別の使用である。この例は、デキストロネット(DextroNet)を介して3Dインタラクティブ可視化システム、例えば、デキストロスコープ(Dextroscope)(登録商標)に送信された、心臓病専門医が作成する2Dの蛍光透視画像の例に関するものである。パラダイムは、上記した外科医と可視化アシスタントのそれに類似する。しかしながら、このケースには、外科医は存在せず、代わって、インターベンション心臓病専門医が存在する。そのような実施態様においては、可視化アシスタントは、術前に取得しておいたCTAスキャンの可視化アシスタントによる制限のない3D処理によって、そのようなインターベンション心臓病専門医が彼の関心のある解剖学的構造を可視化するのを援助する。   44-49, described next, is yet another use of DextroNet in one embodiment of the present invention. This example relates to an example of a 2D fluoroscopic image created by a cardiologist sent to a 3D interactive visualization system such as Dextroscope® via DextroNet. is there. The paradigm is similar to that of the surgeon and visualization assistant described above. However, in this case there is no surgeon, instead there is an interventional cardiologist. In such an embodiment, the visualization assistant will allow the interventional cardiologist to analyze his anatomical interest by means of unrestricted 3D processing by the visualization assistant of the CTA scan that was acquired preoperatively. Help visualize the structure.

したがって、図44において、カスラボ(Cathlab)(登録商標)処置から取得した例示の蛍光透視画像を示す。当該画像は、X線を患者の胸郭に当てることによって取得した。画像中には、動脈、より正確には、造影剤を投与されて撮影された動脈内部の部分が見える。   Accordingly, in FIG. 44, an exemplary fluoroscopic image obtained from a Cathlab® procedure is shown. The image was acquired by applying X-rays to the patient's rib cage. In the image, an artery, more precisely, a portion inside the artery taken by administration of a contrast medium can be seen.

図45は、標準的なインターベンション心臓病専門医のビューの例を示す図である。図45において、インターベンション心臓病専門医は、例示の蛍光透視装置によって提供された視点から、造影剤を投与して撮影した血管の2D投影図のみを見る。図45に示された画像は、そのような従来のインターベンション心臓病専門医のビューのシミュレイトされた投影図である(一連の実際の蛍光透視画像にマッチしている。また、関連するCTAは入手できなかった)。シミュレーションは、CTAデータ上で操作することによって取得した(CTAの冠状動脈を区分化する(したがって、動脈だけ見ることができ、他の組織は見えない。それは、造影剤が動脈内を流れ、蛍光透視装置によって発光されたX線と相互作用する)、それらをあたかも蛍光透視法の結果のように暗く色づけする、そして、区分化された動脈を方向付け、スナップショットを撮影し、その後CTAのスナップショットを、区分化を行わずに撮影する)。   FIG. 45 illustrates an example view of a standard interventional cardiologist. In FIG. 45, the interventional cardiologist sees only the 2D projection of the blood vessel taken by administering the contrast agent from the viewpoint provided by the exemplary fluoroscope. The image shown in FIG. 45 is a simulated projection of such a conventional interventional cardiologist's view (matching a series of actual fluoroscopic images. The relevant CTA is also available. could not). Simulations were obtained by manipulating on the CTA data (segmenting the CTA coronary artery (so only the arteries are visible and no other tissue is visible. The contrast agent flows through the arteries, the fluorescence Interact with the x-rays emitted by the fluoroscopy device), color them darkly as if the result of fluoroscopy, and direct the segmented artery, take a snapshot, and then snap the CTA Take a shot without segmentation).

図46は、図45の臨床医のビューに対応する可視化アシスタントのビューの例を示す図である。このような例示の可視化アシスタントは、図45のインターベンション心臓病専門医と協同することができる。記載しているように、そのような可視化アシスタントは、術前のCTAに対して制限のない3D処理を行う。図46は、VAが検査している冠状動脈の拡大図である。図46乃至48は、本発明のある実施態様における、インターベンション心臓病専門医と可視化アシスタントの間の相互作用の例を説明する図である。それらの図は、蛍光透視図とともにCTA図を手動で登録する方法を示している。ここで、例えば、VAは、デキストロネット(DextroNet)を介して図45のような蛍光透視法を取得し、次いで、例えば、当該画像を用いることでCTA(例えば、区分化された冠状動脈)を調整してこの受信画像と整合させることができる。VAは、方向決定を行い、心臓病専門医が見ているもの(蛍光透視装置上には制限があり、通常トラッキングされず、心臓病専門医がよく知っているいくつかの標準的な位置だけとなる)を知るとすぐ、制限のない3D処理によって、リアルタイムで心臓病専門医にそれが何であるかを指示することができる。彼は、例えば、「左冠状動脈」もしくは「LCA」、同様に、例えば、「右冠状動脈」もしくは「RCA」といった注釈つけて、それらの血管を標識する。あるいは、彼は、カスラボ(Cathlab)(登録商標)画像(投影図または、そのような表示が利用可能であれば立体)でインターベンション心臓病専門医に提供することができる血管中の狭穿部を(3Dで)指し示すことができる。さらに、例えば、VAは測定を行うことができる。そしてもしVAがフルオロスコープから新たな画像を見ることができれば、彼は、カテーテルがどこにあるかを特定し、3D位置を推定することができ、その後、重要な解剖学的ランドマークまでの距離を心臓病専門医に伝えることができる。   FIG. 46 is a diagram illustrating an example of a visualization assistant view corresponding to the clinician view of FIG. 45. Such an example visualization assistant can work with the interventional cardiologist of FIG. As described, such visualization assistants perform unrestricted 3D processing on pre-operative CTA. FIG. 46 is an enlarged view of the coronary artery examined by the VA. FIGS. 46-48 illustrate an example of an interaction between an interventional cardiologist and a visualization assistant in an embodiment of the present invention. These figures show a method for manually registering a CTA diagram together with a fluoroscopic view. Here, for example, VA obtains fluoroscopy as shown in FIG. 45 via DextroNet, and then uses CTA (eg, segmented coronary artery) by using the image, for example. Can be adjusted to match this received image. The VA makes a direction determination and what the cardiologist sees (there are limitations on fluoroscopy devices, usually not tracked, only a few standard locations that the cardiologist knows well) As soon as it knows), unrestricted 3D processing can tell the cardiologist what it is in real time. He labels those vessels, for example, annotating “left coronary artery” or “LCA”, as well as “right coronary artery” or “RCA”, for example. Alternatively, he creates a narrowing in the blood vessel that can be provided to an interventional cardiologist with a Cathlab® image (projection view or stereoscopic if such a display is available). Can be pointed (in 3D). Further, for example, VA can be measured. And if the VA can see a new image from the fluoroscope, he can identify where the catheter is, estimate the 3D position, and then determine the distance to the important anatomical landmark Can be communicated to a cardiologist.

図47は、上記した図8と類似したシナリオを示す図である。可視化アシスタントは、全体の3Dとメイン画像の両方を見ることができ、また、スナップショットまたは左上隅にある「図中図」画像を見ることができる。当該図中図の画像は、例えば、インターベンション心臓病専門医のカスラボ(Cathlab)(登録商標)機械中で例示の蛍光透視装置によって作成したものである。それは、本質的に上記の45に示した画像である。可視化アシスタントは、デキストロスコープ(Dextroscope)(登録商標)または均等の装置を使用して、術前のCTAデータを処理し、区分化し(もしくは再区分化する)、最適には蛍光透視装置中に見えるものと同じ視点の血管を可視化することができる。このことは例えば、視点を、彼が図中図に見ているものに揃えることによって行うことができる。さらに、VAのビューの遠方右側には、デキストロラップ(DextroLap)遂行に通常見えるものと類似した、例示の相互作用機能ボタンが見える。VAは、必要に応じて、例えばデキストロラップ(DextroLap)使用することができることがわかる。または、例えば、彼はデキストロスコープ(Dextroscope)(登録商標)を最大限に使用することができるであろう。   FIG. 47 is a diagram showing a scenario similar to FIG. 8 described above. The visualization assistant can see both the entire 3D and the main image, and can also see the snapshot or “in-picture” image in the upper left corner. The image in the figure is created by, for example, an exemplary fluoroscopy device in an interventional cardiologist's Cathlab® machine. It is essentially the image shown in 45 above. The visualization assistant uses a Dextroscope® or equivalent device to process and segment (or re-segment) pre-operative CTA data, optimally visible in a fluoroscope It is possible to visualize blood vessels with the same viewpoint. This can be done, for example, by aligning the viewpoint with what he sees in the figure. In addition, on the far right side of the view of the VA, an example interaction function button is seen, similar to that normally seen in a DextroLap performance. It can be seen that VA can be used as required, for example, DextroLap. Or, for example, he could make maximum use of a Dextroscope®.

図48は、さらに別の例示の、VAが作成することができる3Dビューを示す図である。すなわち、記載したように、VAは、全CTAデータにアクセスするので、したがって、例えば、図48の左の画像に示されているように、取得面をまとめることができる。または、例えば、データを区分化して、図48の右の画像に示すように、冠状動脈のみを明らかに示すことができる。   FIG. 48 illustrates yet another example 3D view that a VA can create. That is, as described, the VA has access to all CTA data, so the acquisition plane can be grouped, for example, as shown in the left image of FIG. Or, for example, the data can be segmented to clearly show only the coronary arteries, as shown in the right image of FIG.

最後に、図49は、例えば、インターベンション心臓病専門医のカスラボ(Cathlab)(登録商標)装置に表示され得る画像を並べて示している。インターベンション心臓病専門医は、彼のローカル機で取得した蛍光透視図(左)と可視化アシスタントが、例えば、デキストロスコープ(Dextroscope)(登録商標)またはデキストロラップ(DextroLap)機械で作成した図とを同じディスプレイ上で比較することができる。この比較は容易であるので、心臓病専門医は、蛍光投影図をよりよく解釈することができるようになる。インターベンション心臓病専門医と可視化アシスタント間で通信を行うことで、可視化アシスタントは、インターベンション心臓病専門医にとって望ましく、有用であるかもしれないように、彼が局所で作成したビューを、例えば、改良、再区分化、および最適化して、それをデキストロネット(DextroNet)でインターベンション心臓病専門医に送信して、表示(図49に示すように)し、インターベンション心臓病専門医による比較ができるようする。これは、例えば、蛍光透視法の処置を示すいくつかのモニターを備えたカスラボ(Cathlab)(登録商標)システムのような特徴を用いて行うことができる。別のモニターに3D画像を加えることは簡単なタスクであろう。これらの後者の画像は、例えば、蛍光透視と一致するかもしれないし、しないかもしれない。さらにそのようなシステムは蛍光透視装置の位置、ならびにその他の患者情報も示す。あるいは、例えば、無菌条件で使用される簡単なタッチスクリーンなどを備えたモニターなどの他のディスプレイを用いて、VAの可視化を臨床医に返送することもできる。   Finally, FIG. 49 shows side by side images that may be displayed, for example, on an interventional cardiologist's Cathlab® device. Intervention cardiologist has a fluoroscopy (left) acquired with his local machine and a visualization assistant created with, for example, a Dextroscope® or DextroLap machine You can compare on the same display. This comparison is easy, allowing the cardiologist to better interpret the fluorescence projections. By communicating between the interventional cardiologist and the visualization assistant, the visualization assistant can improve, for example, improve the view he created locally, so that it may be desirable and useful to the interventional cardiologist. Re-segment and optimize and send it to the interventional cardiologist via DextroNet for display (as shown in Figure 49) for comparison by the interventional cardiologist . This can be done, for example, using features such as the Cathlab® system with several monitors showing fluoroscopic procedures. Adding a 3D image to another monitor would be a simple task. These latter images may or may not coincide with fluoroscopy, for example. In addition, such a system also shows the position of the fluoroscope, as well as other patient information. Alternatively, the VA visualization can be returned to the clinician using other displays such as, for example, a monitor with a simple touch screen used under aseptic conditions.

VII.役割切り換え
本発明の実施態様において、役割切り換え機能をサポートすることができる。役割切り換えは、例示のデキストロネット(DextroNet)における特徴であり、ティーチャーおよびスチューデント(または外科医および可視化アシスタント)に彼らのそれぞれの役割をオンラインで交換させるものである。ティーチャー―スチューデントパラダイムにおいて、スチューデントは、オブジェクトにおける、翻訳、回転、およびインティングを除き、3Dデータセットのオブジェクトを処理することはできない。役割切り換えによって、スチューデントがティーチャーからのコントロールを引き継ぐと、彼は、例えばオブジェクトに対するティーチャーのワークを続けて行うことができる。これは、ある程度の協同のためのモードを示唆するものである。さらに、ある一時点においては、ティーチャーは、ネットワーク上に一人しか存在しない。この協同は、連続的であり衝突の問題を生じることはない。
VII. Role Switching In an embodiment of the present invention, a role switching function can be supported. Role switching is a feature in the exemplary DextroNet that allows teachers and students (or surgeons and visualization assistants) to exchange their respective roles online. In the Teacher-Student paradigm, a student cannot process objects in a 3D dataset except translation, rotation, and inching on objects. If the student takes over control from the teacher by switching roles, he can continue to work with the teacher on the object, for example. This suggests a mode for some degree of cooperation. Furthermore, at one point in time, there is only one teacher on the network. This cooperation is continuous and does not cause collision problems.

例示のデキストロネット(DextroNet)では、ティーチャーおよびスチューデントは、低レベルではともにクライアントであることができ、それによって、役割切り換えは自然に行われる。役割切り換えは、現時点の通信セッションを用いることができ (すなわち、ネットワーキングを停止させ、再接続させる必要はない)、ティーチャーとスチューデントの役割を高レベルで行うことができる。このようにして、役割切り換えは、再接続のために時間を使うことを回避することで、かなり迅速に行うことができる。   In the exemplary DextroNet, teachers and students can both be clients at a low level, so that role switching occurs naturally. Role switching can use the current communication session (ie, networking does not have to be stopped and reconnected), and teacher and student roles can be performed at a high level. In this way, role switching can be done fairly quickly, avoiding using time for reconnection.

役割切り換えは、多数のスチューデントをサポートしている。ティーチャーは、どのスチューデントに自分のコントロールの権利を移管するかを決定する。他のスチューデントは、そのままの状態を維持することができるが、例えば、ティーチャーが変わったことを知ることができる。上記したように、本発明の実施態様においては、ティーチャーもスチューデントも、例えば、低レベルの意味においてはクライアントである。図9に示したように、本発明の実施態様において、デキストロネット(DextroNet)は、サーバクライアントアーキテクチャーが用いられる。そのようなアーキテクチャーでは、ティーチャーもスチューデントもクライアントである。サーバも、例えば、ティーチャーと多数のスチューデントの間の通信を行うために使用することができる。したがって、役割切り換えは、ネットワーキングを停止させたり、再接続することなく、現時点の通信セッションを用いる。全体のプロセス中、物理的な接続の変化は何も起こらない。唯一の論理的な新たな役割をサーバに割り当てる、および再割り当てをする必要がある。全てのクライアント間の役割変更を伝える通常のプロセスは、例えば、下記のものがある。スチューデントがコントロールの権利を要求し、ティーチャーが他のスチューデントに伝え、サーバは役割切り換えの準備をする。その後、例えば、ティーチャーもスチューデントも、下記に示す例示の役割変更にしたがって、それらのツールをリセットし更新する。   Role switching supports a large number of students. The teacher decides which student will transfer his control rights. The other student can maintain the state as it is, but can know, for example, that the teacher has changed. As described above, in the embodiment of the present invention, both the teacher and the student are, for example, clients in the low-level sense. As shown in FIG. 9, in the embodiment of the present invention, the DextroNet uses a server client architecture. In such an architecture, both teachers and students are clients. Servers can also be used, for example, to communicate between a teacher and multiple students. Thus, role switching uses the current communication session without stopping networking or reconnecting. During the entire process, no change in physical connection occurs. Only one logical new role needs to be assigned and reassigned to the server. A typical process for communicating role changes between all clients is, for example: The student requests control rights, the teacher tells other students, and the server prepares to switch roles. Then, for example, both the teacher and the student reset and update their tools according to the example role changes shown below.

・スチューデントとなる予定のティーチャーの機械は、スチューデントツールをローカルツールに変更し、彼のティーチャーツールを専用のリモートツール(すなわち、新しいティーチャーの)に変更する。他のリモートスチューデントのツールは、表示から削除される。   • The teacher's machine that will be the student changes the student tool to a local tool and changes his teacher tool to a dedicated remote tool (ie, a new teacher). Other remote student tools are removed from the display.

・ティーチャーとなる予定のスチューデントの機械は、彼のティーチャーツールをローカルツールに変更し、他のスチューデントならびにスチューデントとなる予定のティーチャーのためのツールの表現(スチューデントツール)を追加する。   • The student's machine that will be the teacher changes his teacher tool to a local tool and adds other students and a representation of the tool for the teacher who will be the student (student tool).

・他のスチューデントの機械は、それらのティーチャーツールを新しいティーチャーに変えて表現する。彼らのツールは、スチューデントツールのまま維持される。   -Other student machines will turn their teacher tools into new teachers. Their tools remain as student tools.

これらの役割変更が完了するとすぐ、すべてのクライアントは、それらの新たな役割をサーバ上に再登録する。こうして役割切り換えが完了する。   As soon as these role changes are complete, all clients re-register their new roles on the server. Thus, the role switching is completed.

進行中の通信セッションを用いて、多数のスチューデントをサポートすることができる。データフローの管理は、注意が必要であり得る。例示の役割切り換えの前後に受信するデータは、例えば、分離する必要がある。また、役割のサーバ上への再登録は、例えば、同期させておくことが必要である。これを達成するために、全体のプロセスを、例えば、役割切り換えのための準備(フェーズI)、役割の変更(フェーズII)、そして新た役割のサーバへの登録(フェーズIII)といった3つのフェーズに分けることができる。各フェーズの終わりに、全てのクライアントの状態を同期させることができる。   A number of students can be supported using an ongoing communication session. Data flow management may require caution. Data received before and after the exemplary role switch needs to be separated, for example. Also, re-registration of roles on the server needs to be synchronized, for example. To achieve this, the entire process is divided into three phases, for example, preparation for role switching (Phase I), role change (Phase II), and registration of new roles to the server (Phase III). Can be divided. At the end of each phase, the state of all clients can be synchronized.

このプロセスを、図50乃至52を用いて以下のようにまとめることができる。   This process can be summarized as follows using FIGS.

A.フェーズI(図50)
(1)ティーチャーは、自分のコントロールを移管した全てのスチューデントに合図を行う。全てのスチューデントから肯定応答を得た後、彼のツールはリセットされ、サーバは、彼が今役割切り換えの準備ができていることを通知し、ゾンビの状態(すなわち、機械がデータの受信のみ可能で、送信をすることができない状態)に入る。
A. Phase I (Figure 50)
(1) The teacher will signal all students who have transferred their controls. After getting a positive response from all students, his tool is reset and the server notifies him that he is now ready to switch roles and is in a zombie state (ie, the machine can only receive data) In the state where transmission is not possible.

(2)スチューデントは、ティーチャーからシグナルを受けると、自分はティーチャーになるのか、またはスチューデントのままでいるのか彼の機械によって確認する。一方、またサーバは、ツールをリセットした後、役割切り換えの準備ができたことを通知する。このリセットは、ボリュームオブジェクトに対して既になされた変更には影響を及ぼさない。そして、彼は、受動状態または「ゾンビ」状態に入る。それは、記載したように、機械がメッセージを受信するだけで送信を行わない状態を意味する。   (2) When a student receives a signal from a teacher, he checks with his machine whether he is a teacher or remains a student. On the other hand, the server also notifies that it is ready to switch roles after resetting the tool. This reset does not affect changes already made to the volume object. He then enters a passive or “zombie” state. That means, as described, a state where the machine only receives a message but does not send it.

本発明の実施態様において、ユーザは、役割切り換えプロセスにおける全ての通知を気にする必要はない。全ての役割切り換えプロセシングは、ユーザが「役割切り換え」ボタンを押すと自動的に行われることができる(そして、上記の記載および次に示す内容中のティーチャーまたはスチューデントについての言及「何かをする」は実際に、そのような行動を行うソフトウェアの例について言及している)。   In an embodiment of the invention, the user does not have to worry about all notifications in the role switching process. All role switching processing can be done automatically when the user presses the “Switch Role” button (and “do something” refers to the teacher or student in the description above and below. Actually refers to an example of software that does that).

本発明の実施態様において、サーバは、ティーチャーとスチューデントの間の通信を管理するために使用することができる。例えば、それは彼らの役割の覚書である格納されたリストであることができる。したがって、役割が切り換えられたとき、サーバに通知されなければならない。さらに、役割切り換え中、ティーチャーとスチューデントの間の状態は、各フェーズの最後に同期させなければならない。サーバは、例えば、このプロセスを調整することもできる。例えば、フェーズIの最後に、スチューデント/ティーチャーは、サーバに役割切り換えの準備ができたかどうかを通知しなければならない。この後、彼はゾンビ状態に入り、役割変更が可能なサーバからの指示を待つことになる。サーバは、例えば、いくつのクライアントが役割切り換えの準備ができているかを数えることができる。全てのクライアントの準備ができたことを知ったあと、彼は全員に指示を出し、彼らはフェーズIIに入ることができる。   In an embodiment of the present invention, the server can be used to manage communications between teachers and students. For example, it can be a stored list that is a memorandum of their role. Therefore, the server must be notified when the role is switched. Furthermore, during role switching, the state between the teacher and the student must be synchronized at the end of each phase. The server may coordinate this process, for example. For example, at the end of Phase I, the student / teacher must inform the server whether it is ready to switch roles. After this, he enters a zombie state and waits for instructions from a server capable of changing roles. The server can, for example, count how many clients are ready for role switching. After knowing that all clients are ready, he gives everyone instructions and they can enter Phase II.

(3)サーバが、全てのクライアントが役割切り換えの準備をしたことを知ると、彼らにメッセージを送信し、ゾンビ状態から再開させる。   (3) When the server knows that all clients are ready to switch roles, it sends a message to them and resumes from the zombie state.

(4)クライアント(ティーチャー―スチューデント)が再開すると、クライアントは、彼の役割を変更し、サーバに通知し、再びゾンビ状態に入る。   (4) When the client (teacher-student) resumes, the client changes his role, notifies the server and enters the zombie state again.

C.フェーズIII(図52)
(5)サーバは、全ての彼のクライアントから、役割切り換えを行ったとのメッセージを受けると、彼はまずティーチャーを再開させる。
C. Phase III (Figure 52)
(5) When the server receives a message from all his clients that he has switched roles, he first restarts the teacher.

(6)ティーチャーは、サーバに再登録を行い、サーバに通知する。次いで、サーバは、スチューデントを再開させる。   (6) The teacher re-registers with the server and notifies the server. The server then resumes the student.

(7)スチューデントは、サーバに再登録を行い、ティーチャーは、最初のスナップショットをスチューデントから受信した後、ティーチャーは、サーバに、次のスチューデントを再開させるように要求する。   (7) The student re-registers with the server, and after the teacher receives the first snapshot from the student, the teacher requests the server to resume the next student.

(8)ステップ(7)は、例えば、全てのスチューデントが再登録するまで繰り返すことができる。   (8) Step (7) can be repeated, for example, until all students have re-registered.

さらに、本発明の実施態様において、上記プロセスを経て各役割切り換えを行って、ティーチャーの役割は、複数の関係者に対して、関係者から関係者に回すことができる。   Furthermore, in the embodiment of the present invention, the role of the teacher can be turned from the related person to the related person with respect to a plurality of related persons by performing each role switching through the above process.

VIII.データフォーマット
本発明の実施態様において、以下の策を使用して、リモートターミナルへの適切な表示を確保することができる。
VIII. Data Format In embodiments of the present invention, the following measures can be used to ensure proper display on the remote terminal.

A.データ
各サイド(ティーチャー―スチューデント) は、同じデータのコピーを保持している。もしデータが異なれば、全データセットを同期させることができる(データファイルの圧縮および送信)。
A. Data Each side (teacher-student) has a copy of the same data. If the data is different, the entire data set can be synchronized (data file compression and transmission).

B.初期化
本発明の実施態様において、ネットワーキング機能を初期化する際の両サイドでバーチャルコントロールパネルを同期させることができる。例えば、デキストロスコープ(Dextroscope)(登録商標)/デキストロビーム(DextroBeam)(登録商標)ワークステーションにおいて、バーチャルコントロールパネルは、解釈中、3Dトラッカーが休止している場合、物理的なアクリルベースを用いて正確に測定しなければならない。それによって、バーチャルツールは、バーチャルコントロールパネル上の対応する部分にタッチすることができる。こうして、目盛りおよび構成はローカルとなり、機械ごとに変わる。このことによって、例えば、ティーチャーのツールがスチューデントのコントロールパネルにタッチすることができなくなるといったミスマッチを、ネットワーキングの間に起こることがある。この問題を回避するために、本発明のいくつかの実施態様においては、コントロールパネルを同期させることができる。ネットワーキング機能が稼動している間に、ティーチャーのコントロールパネルの位置、方向、および大きさをスチューデントに送信することができ、スチューデント自身のコントロールパネルのパラメータを置き換えることができる。ネットワーキング機能が終了すると、スタンドアロンで作動するようにスチューデントの前の構成を回復させることができる。本発明の実施態様において、ネットワーキング機能を初期化する際に両サイドの視点を同期させることができる。適切な表示のために、ティーチャーとスチューデントは、同じ目の位置、見る位置、投影の幅と高さ、回転角度などを共有すべきである。したがって、視点に関する全ての情報は、ネットワーキング機能の開始時に同期させるべきである。
B. Initialization In an embodiment of the present invention, the virtual control panel can be synchronized on both sides when initializing the networking function. For example, in a Dextroscope (R) / DextroBeam (R) workstation, the virtual control panel uses a physical acrylic base when the 3D tracker is paused during interpretation Must be measured accurately. Thereby, the virtual tool can touch the corresponding part on the virtual control panel. Thus, the scale and configuration are local and vary from machine to machine. This can lead to mismatches during networking, for example, the teacher's tool cannot touch the student's control panel. To circumvent this problem, in some embodiments of the present invention, the control panel can be synchronized. While the networking function is running, the position, orientation, and size of the teacher's control panel can be sent to the student, and the student's own control panel parameters can be replaced. When the networking function ends, the student's previous configuration can be restored to operate standalone. In an embodiment of the invention, the viewpoints on both sides can be synchronized when initializing the networking function. For proper display, teachers and students should share the same eye position, viewing position, projection width and height, rotation angle, etc. Therefore, all information about the viewpoint should be synchronized at the start of the networking function.

本発明の実施態様において、ネットワーキング機能を初期化する際に、両サイドのズームボックスを同期させることができる。したがって、ネットワーキング機能が開始すれば、当該両サイドのズームボックスを位置、方向、境界、コンピュータスクリーン領域などによって、同期を取らなければならない。   In an embodiment of the present invention, the zoom boxes on both sides can be synchronized when initializing the networking function. Therefore, when the networking function starts, the zoom boxes on both sides must be synchronized by position, direction, boundary, computer screen area, and the like.

C.ウィジェットを同期する
本発明の実施態様において、ネットワーキング機能の開始時、両サイドのコントロールパネルのスライダーバーの位置、ボタンやタブの状態、色彩自動照合表のリストなどの初期状態は異なっているかもしれない。これらの全てのパラメータは、そろえる必要がある。
C. Synchronizing widgets In the embodiment of the present invention, at the start of the networking function, the initial state such as the position of the slider bar of the control panel on both sides, the state of buttons and tabs, the list of color automatic matching table, etc. Absent. All these parameters need to be aligned.

D.通信
本発明の実施態様において、2つのタイプの座標系を用いることができる。世界座標とオブジェクト座標である。世界座標は、バーチャルワールドに取り付けらた座標である。オブジェクト座標は、バーチャルワールドの各バーチャルオブジェクトに取り付けらたものである。本発明の実施態様において、全バーチャルツールを世界座標に表示することができる。ティーチャーおよびスチューデントは、それぞれそれらが使用する座標系のタイプと通信することができる。
D. Communication In embodiments of the present invention, two types of coordinate systems can be used. World coordinates and object coordinates. World coordinates are coordinates attached to the virtual world. Object coordinates are attached to each virtual object in the virtual world. In an embodiment of the present invention, all virtual tools can be displayed in world coordinates. Teachers and students can each communicate with the type of coordinate system they use.

スチューデントが従事しているモード(「ロックオン」)のとき、ティーチャーもスチューデントも、世界座標における自分のツール名、状態、位置、方向、および大きさを彼の仲間に送信する。   When in the student engaged mode ("lock on"), both the teacher and the student send their tool name, state, position, direction, and size in world coordinates to his peers.

スチューデントが開放されたモード(「ロックオン」でない)のとき、ティーチャー側でティーチャーのツールがコントロールパネルにタッチすれば、ティーチャーは、世界座標におけるツール名、状態、位置、方向、および大きさをスチューデントに送信する。そうでなければ、彼は、オブジェクト座標における位置、方向、および大きさをスチューデントに送信する。スチューデントは、ティーチャーのツールに関連する情報を受信すると、彼は、受信した情報をオブジェクト座標から世界座標に変換し、その後、彼の世界にティーチャーのツールを表示する。一方、スチューデントは、オブジェクト座標における彼のツール名、状態、位置、方向、および大きさをティーチャーに送信する。ティーチャーは、その後それらを世界座標に変換することができる。スチューデントのツールを表示する前に行うことができる。本発明の実施態様において、スチューデントは、何の行動が起こっているかを、彼の世界のティーチャーのバーチャルツールの位置、方向、および状態に基づいて決定することができる。   If the teacher's tool touches the control panel on the teacher's side when the student is in the released mode (not "lock on"), the teacher will learn the tool name, state, position, direction, and size in world coordinates. Send to. Otherwise, he sends the position, direction and size in object coordinates to the student. When the student receives information related to the teacher's tool, he converts the received information from object coordinates to world coordinates, and then displays the teacher's tool in his world. Meanwhile, the student sends his tool name, state, position, orientation, and size in object coordinates to the teacher. The teacher can then convert them to world coordinates. This can be done before the student tool is displayed. In an embodiment of the present invention, a student can determine what action is taking place based on the position, orientation, and state of his world teacher's virtual tools.

本発明の実施態様において、デキストロネット(DextroNet)は、ティーチャー側およびスチューデント側の視点のモードの同期を取ることができる。スチューデントは、視点を開放することを選択することができる。彼は、例えば、彼のスタイラスのボタンを押すことができる。この行動によって、メッセージがティーチャーの機械に送信され、「私は、離れます」という効果が生じる。スチューデントは、例えば、実際に彼の視点を切り換えることはできない。彼は、ティーチャーからの世界座標を使用し続ける。ティーチャーの機械がスチューデントのメッセージを受信すると、例えば、次に当該スチューデントに肯定応答を送信することができ、そして、その後は、オブジェクト座標に変わる。スチューデント機は、そのような肯定応答をティーチャー機から受信すると、その後実際に離れるための変更を行い、その後オブジェクト座標を使用することができるようになる。   In an embodiment of the present invention, DextroNet can synchronize the modes of the teacher-side and student-side viewpoints. The student can choose to open the viewpoint. He can, for example, press a button on his stylus. This action causes a message to be sent to the teacher's machine, resulting in the effect “I will leave”. The student cannot, for example, actually switch his viewpoint. He continues to use world coordinates from the teacher. When the teacher's machine receives a student message, for example, it can then send an acknowledgment to the student and then change to object coordinates. Upon receiving such an acknowledgment from the teacher machine, the student machine can then make changes to actually leave and then use the object coordinates.

例えば、スチューデントが再び従事する場合、状況は同じである。したがって、本発明の実施態様において、ティーチャー機が、スチューデントが離れることを決定したことを知ったとき、スチューデント機ができるのは、スチューデントの視点を変更することだけである。このようにすれば、離脱や再従事の前後に、ティーチャー機とスチューデント機の間の座標の種類についての衝突が、生じるのを回避することができる。   For example, if the student is engaged again, the situation is the same. Thus, in an embodiment of the present invention, when the teacher machine knows that the student has decided to leave, the student machine can only change the viewpoint of the student. In this way, it is possible to avoid the occurrence of a collision with respect to the coordinate type between the teacher machine and the student machine before and after leaving or re-engaging.

E.電信フォーマット
本発明の実施態様においては、例えば、2つの電信フォーマットが存在し得る。1つは、例えば、メッセージの更新に用いることができ、他方は、例えば、ファイルに用いることができる。
E. Telegraph format In embodiments of the present invention, for example, there may be two telegraph formats. One can be used for updating messages, for example, and the other can be used for files, for example.

1.メッセージの更新のためのフォーマットI
図54は、メッセージの更新のための第1のフォーマットの例を示す。例えば、以下の属性を持つ以下のフィールドを使用することができる。
1. Format I for message update
FIG. 54 shows an example of a first format for updating a message. For example, the following fields with the following attributes can be used:

開始タグ(Begin Tag):電信の開始を示す(符号なしの文字);
データ型(Data Type):コンテンツがメッセージの更新であるのかファイルであるかを示す。メッセージの更新の場合、この値は2である(符号なしの整数);
IP:送信元のIPアドレス(符号なしの文字);
オブジェクト名:このメッセージを利用するために割り当てられたオブジェクト;
座標系(Co-ord System):電信(符号なしの文字)中の位置、方向、および大きさを解釈するための座標系。例えば、2つの可能な値が存在する:世界座標には「wld」、オブジェクト座標には「app」;
位置(Position):「オブジェクト名」中のオブジェクトの位置。1つの位置は、浮動中に3つの値x、y、zを含む;
方向(Orientation): 「オブジェクト名」中のオブジェクトの方向。方向は、4x4マトリクスである。マトリクス中の各要素は浮動するものである;
状態(State):必要に応じて「オブジェクト名」中のオブジェクトの状態(符号なしの文字)。オブジェクトがツールであれば、その値は、4つの状態:MK_CHECK、MK_START_ACTION、MK_DO_ACTION、MK_END_ACTIONのうちの1つとなる。
大きさ(Size):「オブジェクト名」中のオブジェクトの大きさ。大きさは3つの値:x、y、zを浮動中に持つ;
終了タグ(End Tag):電信の終了を示す(符号なしの文字)
Begin Tag: indicates the start of telegraph (unsigned character);
Data Type: Indicates whether the content is a message update or a file. For message updates, this value is 2 (an unsigned integer);
IP: IP address of the source (unsigned characters);
Object name: the object assigned to use this message;
Co-ord System: A coordinate system for interpreting position, direction, and size in telegraphs (unsigned characters). For example, there are two possible values: “wld” for world coordinates, “app” for object coordinates;
Position: The position of the object in the “object name”. A position contains three values x, y, z while floating;
Orientation: The orientation of the object in the “object name”. The direction is a 4x4 matrix. Each element in the matrix is floating;
State: The state of the object in the “object name” (unsigned character) as necessary. If the object is a tool, its value is one of four states: MK_CHECK, MK_START_ACTION, MK_DO_ACTION, MK_END_ACTION.
Size: The size of the object in the “object name”. The magnitude has three values: x, y, z in the float;
End Tag: Indicates the end of telegraph (unsigned character)

図55(a)乃至55(c)は、図54のフォーマットを用いる3つの例を説明する図である。図55(a)は、コントロールパネルとの同期を取るためのメッセージの更新を説明する図である。図55(b)は、ウィジェットとの同期を取るためのメッセージの更新を説明する図である。図55(c)は、バーチャルツールとの同期を取るためのメッセージの更新を説明する図である。   55A to 55C are diagrams for explaining three examples using the format of FIG. FIG. 55A is a diagram for explaining update of a message for synchronization with the control panel. FIG. 55B is a diagram for explaining update of a message for synchronization with the widget. FIG. 55C is a diagram for explaining update of a message for synchronizing with the virtual tool.

2.ファイル転送
本発明の実施態様において、長いファイルは、いくつかのブロックに分割して転送することができる。各電信は、そのようなブロックを含むことができる。本発明の実施態様において、ファイルを実際に転送する前に、更新メッセージを送信し、仲間にファイルを転送する旨を伝えることができる。「大きさ」フィールドが合計ブロック数(Total Block Number)(符号なしの整数)、ブロックの大きさ(Block Size)(符号なしの整数)、および最後のブロックの大きさ(Last Block Size)(符号なしの整数)を含むように修正することができるとすれば、図54に示されているフォーマット1は、そのような更新メッセージ中で送信することができる。図56にそのような更新メッセージの例を示している。図56は、991KB(1,014,921バイト)の例示的ファイルの転送に関する例示的更新メッセージを示す。したがって、大きさフィールド内のデータを考慮して、仲間は、そのファイルが248ブロックであり、最後のブロックを除いた各ブロックの大きさが4096バイトであり、最後のブロックが3209バイトであることを知る。ファイル自体は、ファイル転送に採用される更新メッセージのための第2のフォーマットを用いて送信することができる。
2. File Transfer In an embodiment of the present invention, a long file can be transferred in several blocks. Each telegraph can include such a block. In the embodiment of the present invention, before the file is actually transferred, an update message can be transmitted to inform a friend that the file is to be transferred. The "Size" fields are the Total Block Number (unsigned integer), Block Size (unsigned integer), and Last Block Size (sign 54 can be sent in such an update message, if it can be modified to include (no integer). FIG. 56 shows an example of such an update message. FIG. 56 shows an exemplary update message for the transfer of an exemplary file of 991 KB (1,014, 921 bytes). Therefore, considering the data in the size field, the peers must have a file that is 248 blocks, each block excluding the last block is 4096 bytes, and the last block is 3209 bytes. Know. The file itself can be sent using the second format for update messages employed in file transfer.

3.メッセージの更新のためのフォーマットII
図57は、メッセージの更新のための第2のフォーマットの例を示す。本発明の実施態様において、以下のフィールドを使用することができる。
3. Format for message update II
FIG. 57 shows an example of a second format for updating a message. In an embodiment of the present invention, the following fields can be used.

開始タグ(Begin Tag):電信の開始を示す(符号なしの文字);
データ型(Data Type):コンテンツがメッセージの更新であるのかファイルであるかを示す。ファイルの場合、この値は1である(符号なしの整数);
ファイルブロック(File Block):二進法でのファイルのブロック(符号なしの文字);
終了タグ(End Tag):電信の終了を示す(符号なしの文字)
Begin Tag: indicates the start of telegraph (unsigned character);
Data Type: Indicates whether the content is a message update or a file. For files, this value is 1 (unsigned integer);
File Block: File block in binary (unsigned characters);
End Tag: Indicates the end of telegraph (unsigned character)

例示のファイル転送送信においては、それぞれが4096バイトである最初の247ブロックは、例えば、図58(a)に示すように送信することができ、それぞれが3209バイトである最後のブロックは、フォーマットIIを用いて図58(b)に示すように送信することができる。   In the exemplary file transfer transmission, the first 247 blocks, each of 4096 bytes, can be transmitted, for example, as shown in FIG. 58 (a), and the last block, each of 3209 bytes, is formatted II. Can be transmitted as shown in FIG.

本発明は、1以上の実施態様と関連付けて説明したが、それらの限定されるものではなく、添付の請求項は、特定のフォーマットおよび示されている本発明の変更例を含むだけでなく、本発明の真の範囲から逸脱せずに、当業者によって修正され得るものをさらに含むと解釈される。   While the invention has been described in connection with one or more embodiments, it is not intended to be limited thereto, and the appended claims not only include the specific format and variations of the invention shown, It is to be construed as further including those that can be modified by those skilled in the art without departing from the true scope of the invention.

図1は、本発明のある実施態様における、ティーチャー型ワークステーションの例を示すプロセスフローチャートである。FIG. 1 is a process flowchart illustrating an example of a teacher type workstation in an embodiment of the present invention. 図2は、本発明のある実施態様における、ネットワークを介して接続された種々のワークステーションの例を示すシステムレベル図である。FIG. 2 is a system level diagram illustrating examples of various workstations connected via a network in an embodiment of the present invention. 図3は、本発明のある実施態様における、スチューデント型ワークステーションの例を示すプロセスフローチャートである。FIG. 3 is a process flow diagram illustrating an example of a student workstation in an embodiment of the present invention. 図4は、本発明のある実施態様における、外科医ワークステーションの例を示すプロセスフローチャートである。FIG. 4 is a process flow diagram illustrating an example of a surgeon workstation in an embodiment of the present invention. 図5は、本発明のある実施態様における、可視化援助ワークステーションの例を示すプロセスフローチャートである。FIG. 5 is a process flow diagram illustrating an example of a visualization assistance workstation in an embodiment of the present invention. 図6は、本発明のある実施態様における、外科医の標準的(空き)な図である。FIG. 6 is a standard (empty) view of the surgeon in an embodiment of the present invention. 図7は、本発明のある実施態様における、使用中の外科医の標準的な図である。FIG. 7 is a standard view of a surgeon in use in one embodiment of the present invention. 図8は、本発明のある実施態様における、可視化援助の例を示す図である。FIG. 8 is a diagram showing an example of visualization assistance in an embodiment of the present invention. 図9は、本発明のある実施態様における、ティーチャー―スチューデントパラダイムアーキテクチャーの例を示す図である。FIG. 9 is a diagram illustrating an example of a teacher-student paradigm architecture in an embodiment of the present invention. 図10aないし10eは、本発明のある実施態様における、デキストロネット(デキストロネット(DextroNet))の一例の上で接続されたティーチャー―スチューデントパラダイムアーキテクチャーの例を示す図である。Figures 10a to 10e are diagrams illustrating an example of a teacher-student paradigm architecture connected on top of an example of a dextronet (DextroNet) in an embodiment of the present invention. 図11乃至13は、図10a乃至10cを拡大して連続的に示した図である。11 to 13 are enlarged views of FIGS. 10a to 10c. 図14a乃至14cは、例として、図10のティーチャーと2人のスチューデントによってロックオンモードで観察される、3Dデータセットの例を示す図である。FIGS. 14a to 14c are diagrams showing examples of 3D data sets observed in the lock-on mode by the teacher of FIG. 10 and two students as an example. 図15乃至17は、図14a乃至14cを拡大して連続的に示した図である。FIGS. 15 to 17 are enlarged views of FIGS. 14a to 14c. 図18a乃至18cは、図14a乃至14cに示される3Dデータセットの例を示す図であり、そこでは、ティーチャーが測定を行い、スチューデント1が空きの図のモードに切り換えを行っている。FIGS. 18a to 18c are diagrams showing examples of the 3D data set shown in FIGS. 14a to 14c, in which the teacher performs the measurement and the student 1 switches to the empty diagram mode. 図19乃至21は、図18a乃至18cを拡大して連続的に示した図である。19 to 21 are enlarged views of FIGS. 18a to 18c. 図22a乃至22cは、ティーチャーがペンを動かした後の図18a乃至18cの例をそれぞれ示す図である。FIGS. 22a to 22c show the examples of FIGS. 18a to 18c, respectively, after the teacher has moved the pen. 図23乃至25は、図22a乃至22cを拡大して連続的に示した図である。23 to 25 are enlarged views of FIGS. 22a to 22c. 図26乃至39は、本発明のある実施態様における、二人のスチューデントがネットワーキングセッションに参加している、ティーチャーの見地からの順序の例を示す図である。FIGS. 26-39 are diagrams illustrating an example order from a teacher's point of view in which two students are participating in a networking session in one embodiment of the present invention. 図31は、本発明のある実施態様における、可視化援助の2つの例を示す図である。FIG. 31 is a diagram showing two examples of visualization assistance in an embodiment of the present invention. 図32乃至33は、図31を拡大して連続的に示した図である。32 to 33 are enlarged views of FIG. 31 continuously. 図34は、本発明のある実施態様における、図31に示された可視化援助に対応する外科医の例を示す図である。34 is a diagram illustrating an example of a surgeon corresponding to the visualization aid shown in FIG. 31 in one embodiment of the present invention. 図35は、本発明のある実施態様における、両当事者が所与のポイントをファントムオブジェクト上に位置づけたときの、可視化援助と外科医の視点をそれぞれ示す図である。FIG. 35 is a diagram showing the visualization assistance and the surgeon's viewpoint, respectively, when both parties position a given point on the phantom object in an embodiment of the present invention. 図36乃至37は、図35を拡大して連続的にそれぞれ示した図である。36 to 37 are enlarged views of FIG. 35 continuously. 図38は、本発明のある実施態様における、外科医を援助して、あるポイントをオブジェクト上に位置づける可視化援助を示す図である。FIG. 38 is a diagram illustrating visualization assistance in assisting a surgeon to position a point on an object in an embodiment of the present invention. 図39乃至40は、図38を拡大して連続的にそれぞれ示した図である。39 to 40 are enlarged views of FIG. 38 continuously. 図41は、本発明のある実施態様における、外科医と協同して、あるポイントをオブジェクト上に位置づける例をさらに示す図である。FIG. 41 is a diagram further illustrating an example of positioning a point on an object in cooperation with a surgeon in an embodiment of the present invention. 図42乃至43は、図41を拡大して連続的にそれぞれ示した図である。42 to 43 are enlarged views of FIG. 41 continuously. 蛍光透視法による画像の例を示す図である。It is a figure which shows the example of the image by a fluoroscopy method. 図45は、インターベンションを行う心臓病専門医の視点の例を示す図である。FIG. 45 is a diagram illustrating an example of a viewpoint of a cardiologist performing an intervention. 図46は、本発明のある実施態様における、図45に対応する可視化援助の例を外科医と協同して、あるポイントをオブジェクト上に位置づける例をさらに示す図である。FIG. 46 is a diagram further illustrating an example of positioning a point on an object in cooperation with a surgeon in the embodiment of the present invention in cooperation with a surgeon. 図47は、本発明のある実施態様における、図46に示した可視化援助の例によって作成された図中図の例を示す図である。FIG. 47 is a diagram showing an example of the figure created by the example of the visualization assistance shown in FIG. 46 in an embodiment of the present invention. 図48は、本発明のある実施態様における、図46乃至47に示した可視化援助3D図の他の例を示す図である。FIG. 48 is a diagram illustrating another example of the visualization assistance 3D diagram illustrated in FIGS. 46 to 47 according to an embodiment of the present invention. 図49は、本発明のある実施態様における、インターベンションを行う心臓病専門医の視点の別の例を示す図である。FIG. 49 is a diagram showing another example of the viewpoint of a cardiologist performing an intervention according to an embodiment of the present invention. 図50は、本発明のある実施態様における、第1ステージの役割スイッチプロセスの例を示す図である。FIG. 50 is a diagram showing an example of a first stage role switching process in an embodiment of the present invention. 図51は、本発明のある実施態様における、第2ステージの役割スイッチプロセスの例を示す図である。FIG. 51 is a diagram illustrating an example of the role switching process of the second stage in an embodiment of the present invention. 図52は、本発明のある実施態様における、第3ステージおよび最終ステージの役割スイッチプロセスの例を示す図である。FIG. 52 is a diagram illustrating an example of the role switching process of the third stage and the final stage in an embodiment of the present invention. 図53aおよび53bは、本発明のある実施態様における、ティーチャー(または、メインユーザ)システムの一例でデータ送信キューを示す図である。53a and 53b are diagrams illustrating a data transmission queue in an example of a teacher (or main user) system in an embodiment of the present invention. 図54は、本発明のある実施態様における、フォーマットを更新するするメッセージの例を示す図である。FIG. 54 is a diagram showing an example of a message for updating the format according to an embodiment of the present invention. 図55a乃至55cは、本発明のある実施態様における、図54のメッセージフォーマットを用いて、コントロールパネル、ウィジェット、およびツールの一例を更新するメッセージの例を示す図である。FIGS. 55a to 55c are diagrams illustrating examples of messages for updating examples of control panels, widgets, and tools using the message format of FIG. 図56は、本発明のある実施態様における、図54のメッセージフォーマットを用いて、ファイル転送に関するメッセージの例を示す図である。56 is a diagram showing an example of a message related to file transfer using the message format of FIG. 54 in an embodiment of the present invention. 図57は、本発明のある実施態様における、フォーマットを更新する別のメッセージの例を示す図である。FIG. 57 is a diagram showing an example of another message for updating the format according to an embodiment of the present invention. 図58a至58bは、本発明のある実施態様における、図54のメッセージフォーマットの一例を用いたファイル転送メッセージを示す図である。58a to 58b are diagrams showing a file transfer message using an example of the message format of FIG. 54 in an embodiment of the present invention.

Claims (57)

3次元画像をインタラクティブに処理するための装置であって、前記画像は、対象に関するイメージングデータから作成されたボリューメトリックデータを含み、前記装置は、
通信リンク上で、1以上のリモート機の1以上のリモートプローブの位置データを受信し、
前記少なくとも1つのリモートプローブと前記3次元画像とを含む組み合わされた3次元シーンを、ローカルディスプレイ上に表示するために作成し、
前記装置に対してローカルであるユーザによるローカルプローブの処理に応答して、前記3次元画像を処理し、
前記通信リンク上で、前記装置に対してローカルである前記ユーザによる前記処理に関連するデータであって、前記少なくとも1つのリモート機に前記3次元画像上で処理を行うローカルプローブの画像を含む組み合わされた3次元シーンを表示させるのに十分なデータを送信する、
ように構成されている、装置。
An apparatus for interactively processing a three-dimensional image, wherein the image includes volumetric data created from imaging data relating to an object, the apparatus comprising:
Receiving position data of one or more remote probes of one or more remote machines over a communication link;
Creating a combined 3D scene including the at least one remote probe and the 3D image for display on a local display;
In response to processing of a local probe by a user local to the device, processing the 3D image;
Data relating to the processing by the user that is local to the device on the communication link, the image including a local probe image processed on the three-dimensional image on the at least one remote machine Send enough data to display the rendered 3D scene,
The device is configured as follows.
さらに、ネットワーク条件に応答して、前記装置に対してローカルである前記ユーザによる前記処理に関して送信された前記データをフィルタリングするように構成されている、請求項1に記載の装置。   The apparatus of claim 1, further configured to filter the data transmitted for the processing by the user that is local to the apparatus in response to network conditions. 前記フィルタリングは、前記3次元画像を実質的に修正しないデータパケットを落とす、請求項3に記載の装置。   The apparatus of claim 3, wherein the filtering drops data packets that do not substantially modify the three-dimensional image. 前記フィルタリングは、ツールの動きとツールの状態のうちの1つに関連するパケットを落とす、請求項3に記載の装置。   The apparatus of claim 3, wherein the filtering drops packets associated with one of tool movement and tool status. さらに、前記1以上のリモート機のIPアドレス、ユーザ名、およびユーザ識別子のうちの少なくとも1つを表示するように構成されている、請求項1に記載の装置。   The apparatus of claim 1, further configured to display at least one of an IP address, a user name, and a user identifier of the one or more remote machines. 前記1以上のリモート機に送信された、前記装置に対してローカルである前記ユーザによる前記処理に関する前記データは、前記ローカルプローブが前記1以上のリモート機と関連するプローブであるかのように前記ローカル機のバーチャルコントロールパネルと対話することによって、前記1以上のリモート機に、前記3次元画像上での処理を行う前記ローカルプローブの画像を表示させるのに十分である、請求項1に記載の装置。   The data sent to the one or more remote machines and related to the processing by the user that is local to the device is as if the local probe is a probe associated with the one or more remote machines. 2. The method of claim 1, wherein interacting with a local machine virtual control panel is sufficient to cause the one or more remote machines to display an image of the local probe for processing on the 3D image. apparatus. さらに、前記装置に対してローカルである前記ユーザの指令に応答して、前記1以上のリモート機の表示のスナップショットを受信するように構成されている、請求項1に記載の装置。   The apparatus of claim 1, further configured to receive a snapshot of the display of the one or more remote machines in response to an instruction of the user that is local to the apparatus. さらに、前記装置に対してローカルである前記ユーザの指令に応答して、前記装置と前記1以上のリモート機のいずれかとの間に3次元画像の同期を引き起こすように構成されている、請求項1に記載の装置。   The system is further configured to cause a three-dimensional image synchronization between the device and any of the one or more remote machines in response to a command from the user that is local to the device. The apparatus according to 1. 前記同期を引き起こすことは、前記装置上に格納されている前記3次元画像の圧縮されているコピーを、前記1以上のリモート機に送信することを含む、請求項8に記載の装置。   The apparatus of claim 8, wherein causing the synchronization includes sending a compressed copy of the 3D image stored on the apparatus to the one or more remote machines. 前記同期を引き起こすことは、前記装置の前記3次元画像上で実行されたインタラクティブ指令のリストを送信することを含む、請求項8に記載の装置。   The apparatus of claim 8, wherein causing the synchronization includes sending a list of interactive commands executed on the three-dimensional image of the apparatus. 前記装置はさらに、リモート機のリモートユーザによるリクエストに応答して、前記ローカル機と前記リモート機の役割を切り換えるように構成されている、請求項1乃至10のいずれかに記載の装置。   The apparatus according to any of claims 1 to 10, wherein the apparatus is further configured to switch roles of the local machine and the remote machine in response to a request by a remote user of the remote machine. 3次元画像をインタラクティブに処理するための装置であって、前記画像は、対象に関するイメージングデータから作成されたボリューメトリックデータを含み、前記装置は、
通信リンク上で、1つのリモート機の1つのリモートプローブの位置データを受信し、
1つのローカルプローブの位置データを受信し、
前記リモートプローブと、前記ローカルプローブと、前記3次元画像とを含む、組み合わされた3次元シーンを、ディスプレイ上に表示するために作成し、
前記リモートプローブの処理に応答して、前記ローカルプローブを介して前記リモート機に対してローカルであるユーザによる前記3次元画像の処理と実質的に等しいやり方で前記3次元画像を処理する、
ように構成されている、装置。
An apparatus for interactively processing a three-dimensional image, wherein the image includes volumetric data created from imaging data relating to an object, the apparatus comprising:
Receive the position data of one remote probe of one remote machine on the communication link,
Receive the position data of one local probe,
Creating a combined 3D scene including the remote probe, the local probe, and the 3D image for display on a display;
In response to processing of the remote probe, processing the 3D image in a manner substantially equivalent to processing of the 3D image by a user local to the remote machine via the local probe;
The device is configured as follows.
前記リモートプローブが前記装置と関連するプローブであるかのように、前記リモートプローブの処理に応答した前記3次元画像の処理が、前記ローカル機のバーチャルコントロールパネルと対話するリモートプローブの画像として表示される、請求項12に記載の装置。   As if the remote probe is a probe associated with the device, the processing of the 3D image in response to the processing of the remote probe is displayed as an image of the remote probe interacting with the virtual control panel of the local machine. The apparatus according to claim 12. さらに、前記リモート機のIPアドレス、ユーザ名(原語:usemame)、およびユーザ識別子のうちの少なくとも1つを表示するように構成されている、請求項12に記載の装置。   The apparatus according to claim 12, further configured to display at least one of an IP address, a user name (usemame), and a user identifier of the remote machine. さらに、前記リモート機の指令に応答した前記表示のスナップショットを送信するように構成されている、請求項12に記載の装置。   The apparatus of claim 12, further configured to send a snapshot of the display in response to a command of the remote machine. さらに、前記リモート機の指令に応答して、通信リンク上で、リモート機から送信された画像データを用いた3次元画像を同期させるように構成されている、請求項12に記載の装置。   The apparatus according to claim 12, further configured to synchronize a three-dimensional image using image data transmitted from a remote machine over a communication link in response to a command of the remote machine. さらに、リモート機に対してローカルであるユーザのものと同じ視点、および前記リモート機に対してローカルであるユーザのものとは異なる任意の視点を持つ、3次元画像を表示するように構成されている、請求項12に記載の装置。   Furthermore, it is configured to display a three-dimensional image having the same viewpoint as that of a user local to the remote machine and an arbitrary viewpoint different from that of the user local to the remote machine. The apparatus of claim 12. さらに、バーチャルコントロールパネルを表示するように構成されている、請求項17に記載の装置。   The apparatus of claim 17, further configured to display a virtual control panel. さらに、前記3次元画像が前記リモート機に対してローカルであるユーザのものとは異なる任意の視点で表示されるとき、前記装置に対してローカルであるユーザの指令に応答して、専用のローカルコントロールパネルを表示するように構成されている、請求項17に記載の装置。   Further, when the 3D image is displayed at an arbitrary viewpoint different from that of a user local to the remote device, a dedicated local The apparatus of claim 17, configured to display a control panel. さらに、ユーザに、前記3次元画像上でローカル操作を行わせるように構成されている、請求項12乃至19のいずれかに記載の装置。   Furthermore, the apparatus in any one of Claim 12 thru | or 19 comprised so that a user may perform local operation on the said three-dimensional image. 前記ローカル操作は、どのボクセルがオブジェクトの一部であるとみなされるかということに影響を及ぼさない処理を含む、請求項20に記載の装置。   21. The apparatus of claim 20, wherein the local operation includes a process that does not affect which voxels are considered part of the object. 前記ローカル操作は、オブジェクトの翻訳および回転、ならびに倍率および透明性の設定のうちの1以上を含む、請求項20に記載の装置。   21. The apparatus of claim 20, wherein the local operations include one or more of object translation and rotation, and magnification and transparency settings. さらに、前記3次元画像の追加的ローカルコピーを作成し、前記追加的コピーを、前記装置に対してローカルである前記ユーザから受信した処理に応答して処理するように構成されている、請求項12または17に記載の装置。   The method is further configured to create an additional local copy of the three-dimensional image and process the additional copy in response to processing received from the user that is local to the device. The apparatus according to 12 or 17. 前記装置はさらに、前記対象に関する追加的データを、前記対象に対してローカルであり、前記リモート機の1つに対してローカルであるリモート装置から受信するように構成され、前記追加的データは、前記対象の3次元画像にコレジスタされている、請求項1に記載の装置。   The device is further configured to receive additional data relating to the subject from a remote device that is local to the subject and local to one of the remote machines, the additional data comprising: The apparatus of claim 1, co-registered with the three-dimensional image of the object. 前記対象に関する前記追加的データは、ほぼリアルタイムで取得される、請求項24に記載の装置。   25. The apparatus of claim 24, wherein the additional data regarding the subject is acquired in near real time. 前記対象に関する前記追加的データは、リアルタイムのビデオ、あらかじめ記録されたビデオ、前記対象に対してローカルであるプローブまたは機器の位置データ、蛍光透視画像、超音波画像、およびマルチモーダル画像のうちの1以上である、請求項24に記載の装置。   The additional data about the object is one of real-time video, pre-recorded video, probe or instrument location data local to the object, fluoroscopic images, ultrasound images, and multimodal images. The apparatus according to claim 24, which is the above. さらに、前記対象に対してローカルであり、前記リモート機の1つに対してローカルであるリモート装置からの、前記対象に関する追加的データを表示するように構成されている、請求項1乃至12のいずれかに記載の装置。   13. The system of claim 1 further configured to display additional data about the object from a remote device that is local to the object and local to one of the remote machines. The device according to any one of the above. 前記追加的データは、前記対象の3次元画像にコレジスタされている、請求項27に記載の装置。   28. The apparatus of claim 27, wherein the additional data is co-registered in the three-dimensional image of the object. 前記追加的データは、ほぼリアルタイムである、請求項27に記載の装置。   28. The apparatus of claim 27, wherein the additional data is near real time. 前記追加的データは、前記対象に関する前記追加的データは(原文どおり)、リアルタイムのビデオ、あらかじめ記録されたビデオ、前記対象に対してローカルであるプローブまたは機器の位置データ、蛍光透視画像、超音波画像、およびマルチモーダル画像のうちの1以上である、請求項27に記載の装置。   The additional data is: the additional data for the subject (as is), real-time video, pre-recorded video, probe or instrument location data local to the subject, fluoroscopic images, ultrasound 28. The apparatus of claim 27, wherein the apparatus is one or more of an image and a multimodal image. 3次元画像をインタラクティブに処理するためのシステムであって、前記画像は、対象に関するイメージングデータから作成されたボリューメトリックデータを含み、前記システムは、
請求項1乃至11または27乃至30のいずれかに記載の装置を含むメインワークステーションと、
請求項12乃至26のいずれかに記載の装置を含む、1以上の離れたワークステーションと、
データネットワークとを含み、
前記メインワークステーションおよび前記1以上の離れたワークステーションのそれぞれは、前記データネットワークを介して接続されている、システム。
A system for interactively processing a three-dimensional image, wherein the image includes volumetric data created from imaging data about an object, the system comprising:
A main workstation comprising the apparatus according to any of claims 1 to 11 or 27 to 30;
One or more remote workstations comprising the apparatus of any of claims 12 to 26;
Data network,
A system wherein each of the main workstation and the one or more remote workstations is connected via the data network.
3次元画像をインタラクティブに処理する方法であって、前記画像は、対象に関するイメージングデータから作成されるボリューメトリックデータを含み、前記方法は、
請求項1乃至11または27乃至30のいずれかに記載の第1の装置を提供するステップと;
請求項12乃至26のいずれかに記載の1以上の第2の装置を提供するステップと;
データネットワークを提供し、前記第1の装置と前記1以上の第2の装置を、データネットワークを介して接続するステップと;を含み、
操作において、前記第1の装置のユーザおよび前記1以上の第2の装置のユーザは、協同して共通の3Dデータセットを可視化する、方法。
A method of interactively processing a three-dimensional image, wherein the image includes volumetric data created from imaging data about an object, the method comprising:
Providing a first device according to any of claims 1 to 11 or 27 to 30;
Providing one or more second devices according to any of claims 12 to 26;
Providing a data network, and connecting the first device and the one or more second devices via a data network;
In operation, the user of the first device and the user of the one or more second devices cooperate to visualize a common 3D data set.
前記第1の装置の前記ユーザの初期化において、前記第1の装置の前記ユーザと第2の装置のユーザが役割を切り換える、請求項33に記載の方法。   34. The method of claim 33, wherein the user of the first device and the user of a second device switch roles in the initialization of the user of the first device. ネットワークで結ばれたインタラクティブ3次元データ可視化システムであって、
対象のリアルタイム画像を取得し、それらを前記対象のコレジスタされた3Dボリューメトリックモデルの部分と組み合わせるためのメインシステムと;
前記組み合わされた画像を少なくとも1人のユーザに対して表示するためのディスプレイと;
プローブと;
前記プローブの位置をトラッキングするためのトラッキングユニットと;
データネットワークと;
それぞれがトラッキングされたバーチャルツールを備えた前記データネットワークによって、前記メインシステムに、通信できるように接続された前記組み合わされた画像を、インタラクティブに可視化するための1以上のリモートシステムと、を含み、
前記メインシステムのプローブのトラッキングされた位置と、組み合わされた画像は、前記データネットワーク上の各リモートシステムによって受信され、
前記リモートシステムは、前記組み合わされた画像または前記コレジスタされた3Dボリューメトリックモデルをインタラクティブに処理し、そのような処理された画像を前記メインシステムおよび他の全てのリモートシステムのディスプレイに送信する、システム。
A networked interactive 3D data visualization system,
A main system for acquiring real-time images of the object and combining them with parts of the co-registered 3D volumetric model of the object;
A display for displaying the combined image to at least one user;
With a probe;
A tracking unit for tracking the position of the probe;
With a data network;
One or more remote systems for interactive visualization of the combined images communicatively connected to the main system by the data network, each with a tracked virtual tool;
The tracked position of the main system probe and the combined image are received by each remote system on the data network;
The remote system interactively processes the combined image or the co-registered 3D volumetric model and sends such processed image to the display of the main system and all other remote systems .
前記組み合わされた画像は、前記対象上に載せられた2Dリアルタイムビデオである、請求項34に記載のシステム。   35. The system of claim 34, wherein the combined image is a 2D real-time video placed on the object. 前記メインワークステーションおよびリモートワークステーションを採用して、コンピュータ生成画像を修正し、前記対象上で行われる操作をシミュレイトする、請求項34または35に記載のシステム。   36. The system of claim 34 or 35, wherein the main workstation and the remote workstation are employed to modify computer-generated images and simulate operations performed on the object. 前記シミュレイトされる操作は、対象のボリューメトリックモデルの部分の除去を含む、請求項36に記載のシステム。   40. The system of claim 36, wherein the simulated operation includes removal of a portion of the subject volumetric model. 前記メインシステムまたはリモートシステムを採用して、少なくとも1人のユーザからの、前記ボリューメトリックモデルの区分化された部分の色付けに対する、変更を受信する、請求項34に記載のシステム。   35. The system of claim 34, employing the main system or a remote system to receive changes from at least one user to the coloring of a segmented portion of the volumetric model. 前記メインシステムを採用して、第1のユーザから測定のためのボリューメトリックモデルの選択されたポイントを受信し、前記第2のシステムを採用して、第2のユーザから測定のためのボリューメトリックモデルの選択されたポイントを受信する、請求項34に記載のシステム。   Employing the main system to receive selected points of a volumetric model for measurement from a first user and employing the second system to adopt a volumetric for measurement from a second user. 35. The system of claim 34, receiving a selected point of a model. 前記メインシステムまたは1つのリモートシステムは、少なくとも1人のユーザからの入力を受け、表示された関心領域上で拡大する、請求項34に記載のシステム。   35. The system of claim 34, wherein the main system or one remote system receives input from at least one user and expands over a displayed region of interest. 前記メインシステムまたは1つのリモートシステムを採用して、ボリューメトリックモデルの少なくとも1つの区分化されたオブジェクトの透明性または不透明性を変更するために、少なくとも1人のユーザからの入力を受ける、請求項34に記載のシステム。   The main system or one remote system is employed to receive input from at least one user to change the transparency or opacity of at least one segmented object of the volumetric model. 34. The system according to 34. 前記メインシステムまたは1つのリモートシステムを採用して、前記組み合わされた画像を修正して、前記操作の対象の物理的形状の中に変更を表現し、前記修正は、前記プローブのトラッキングされた位置に依存する、請求項34に記載のシステム。   Employing the main system or one remote system to modify the combined image to represent changes in the physical shape of the object to be manipulated, the modification being the tracked position of the probe 35. The system of claim 34, depending on 限定された3次元領域で操作を行う少なくとも1人のユーザによって使用される方法であって、前記方法は、
操作の対象の画像を作成するステップと;
前記画像を、前記対象とコレジストレーションの関係にある少なくとも1人のユーザに対して、表示するステップと;
長手方向の軸を持つプローブの位置を第1のシステムによってトラッキングするステップと;
その位置を第1のデータプロセシング装置と第2のシステムに対して送信するステップであって、
前記第1のデータプロセシング装置は、前記プローブの長手方向の軸に平行に伸びるラインにしたがって画像を作成し、前記ラインは、第1のユーザによってコントロールされる延長コントロール装置の出力にしたがって延長がコントロールされており、
第2のデータプロセシング装置を持つ前記第2のシステムは、前記操作の対象の少なくとも1つの画像を、前記画像を前記少なくとも1人のユーザに対して表示を行う少なくとも1つのディスプレイ上に作成し、そして、
前記第1のシステムの前記プローブの前記トラッキングされた位置は、前記第2のシステムに、通信ネットワーク上で受信されるステップと;
前記第1および第2のデータプロセシング装置をコントロールして前記操作の対象の前記少なくとも1つの画像を前記ラインのコントロールされた延長に従って修正するステップとを含む、方法。
A method used by at least one user operating in a limited three-dimensional region, the method comprising:
Creating an image to be manipulated;
Displaying the image to at least one user in a co-registration relationship with the subject;
Tracking the position of the probe having a longitudinal axis by the first system;
Transmitting the position to a first data processing device and a second system, comprising:
The first data processing device creates an image according to a line extending parallel to the longitudinal axis of the probe, and the line is controlled for extension according to the output of an extension control device controlled by the first user. Has been
The second system having a second data processing device creates at least one image to be manipulated on at least one display for displaying the image to the at least one user; And
The tracked position of the probe of the first system is received on a communication network by the second system;
Controlling the first and second data processing devices to modify the at least one image to be manipulated according to a controlled extension of the line.
前記第1のシステムの前記ディスプレイは、前記対象上に載せられた前記操作の対象の画像を作成する、請求項43に記載の方法。   44. The method of claim 43, wherein the display of the first system creates an image of the operation target placed on the target. 前記第1または第2のデータプロセシング装置は、コンピュータ生成画像を修正して、前記対象上で行われる操作をシミュレイトし、前記シミュレイトされる操作は、前記ラインの延長をコントロールすることによってコントロールされる、請求項43または44に記載の方法。   The first or second data processing device modifies computer generated images to simulate operations performed on the object, and the simulated operations are controlled by controlling the extension of the line. 45. A method according to claim 43 or 44. 前記シミュレイトされる操作は、コンピュータ生成画像の前記ラインの延長によって示される患者の深部にいたる部分の除去を含む、請求項45に記載の方法。   46. The method of claim 45, wherein the simulated operation includes removal of a portion of the computer-generated image that extends deep into the patient as indicated by an extension of the line. 前記第1のシステムまたは前記第2のシステムは、少なくとも1人のユーザからのコンピュータ生成画像の色付けに対する変更を受信する、請求項43に記載の方法。   44. The method of claim 43, wherein the first system or the second system receives a change to the coloring of the computer-generated image from at least one user. 前記第1のシステムは、測定のための選択されたポイントを第1のユーザから受信し、前記第2のシステムは、測定のための選択されたポイントを第2のユーザから受信する、請求項43に記載の方法。   The first system receives a selected point for measurement from a first user, and the second system receives a selected point for measurement from a second user. 44. The method according to 43. 前記第1のシステムまたは前記第2のシステムは、少なくとも1人のユーザからの入力を受け、表示された関心領域上で拡大する、請求項43に記載の方法。   44. The method of claim 43, wherein the first system or the second system receives input from at least one user and zooms in on a displayed region of interest. 前記第1のシステムまたは前記第2のシステムは、少なくとも1人のユーザからの入力を受け、少なくとも1つの透明性または不透明性を変更する、請求項43に記載の方法。   44. The method of claim 43, wherein the first system or the second system receives input from at least one user and changes at least one transparency or opacity. 前記第1のデータプロセシング装置または第2のデータプロセシングは、画像を修正し、前記操作の対象の物理的形状の中に変更を表現し、前記修正は、前記プローブのトラッキングされた位置に依存する、請求項43に記載の方法。   The first data processing device or the second data processing modifies an image and represents a change in the physical shape of the object to be manipulated, the modification depending on the tracked position of the probe 44. The method of claim 43. ネットワークで結ばれたインタラクティブ3次元データ可視化システムであって、
メインシステムと;
複数の画像を少なくとも1人のユーザに対して表示するためのディスプレイと;
プローブと;
前記プローブの位置をトラッキングするためのトラッキングユニットと;
データネットワークと;
それぞれがトラッキングされたバーチャルツールを備えた前記データネットワークによって、前記メインシステムに、通信できるように接続された前記画像を、インタラクティブに可視化するための1以上のリモートシステムと、を含み、
前記メインシステムのプローブのトラッキングされた位置と、前記画像は、前記データネットワーク上の各リモートシステムによって受信され、
前記リモートシステムのそれぞれは、前記組み合わされた画像または前記コレジスタされた3Dボリューメトリックモデルをインタラクティブに処理し、そのトラッキングされたバーチャルツールの位置を前記メインシステムに送信する、システム。
A networked interactive 3D data visualization system,
With the main system;
A display for displaying a plurality of images to at least one user;
With a probe;
A tracking unit for tracking the position of the probe;
With a data network;
One or more remote systems for interactive visualization of the images communicatively connected to the main system by the data network, each with a tracked virtual tool,
The tracked location of the main system probe and the image are received by each remote system on the data network;
Each of the remote systems interactively processes the combined image or the co-registered 3D volumetric model and sends the location of the tracked virtual tool to the main system.
メインシステムとリモートシステムの役割を繰り返し変更することができる、請求項52のシステム。   53. The system of claim 52, wherein the roles of the main system and the remote system can be changed repeatedly. 前記リモートシステムは、データセットの前記メインシステムのビューまたはそれ自身のビューのいずれかを見ることができる、請求項52のシステム。   53. The system of claim 52, wherein the remote system can see either the main system view of the dataset or its own view. 前記リモートシステムは、あらゆる可視化処理を局所的に行うことができるが、データセットを修正することはできない、請求項52のシステム。   53. The system of claim 52, wherein the remote system can perform any visualization process locally, but cannot modify the data set. 前記メインシステムは、そのインターフェースおよびデータセットと、任意の時間に、任意のリモートシステムとの同期をとることができる、請求項52のシステム。   53. The system of claim 52, wherein the main system can synchronize its interface and data set with any remote system at any time. 協同的に、インタラクティブに、ボリューメトリックオブジェクトまたはシステムを可視化し、処理するための方法であって、
ローカルユーザが、オブジェクトまたはシステムのリアルタイム画像を取得し、それらと、同じオブジェクトまたはシステムのコレジスタされた3Dデータセットとを、メインワークステーションを使って組み合わせ、前記ローカルユーザは前記組み合わされた画像を局所的に表示し、それらをデータネットワークで送信するステップと;
それぞれが前記データネットワークに接続している1以上のリモートユーザが、前記組み合わされた画像を受信し、前記組み合わされた画像および前記コレジスタされたスキャン画像の少なくとも1つを、リモートワークステーションを用いて処理するステップと、を含み、
前記メインユーザおよび前記リモートユーザのそれぞれは、前記組み合わせ画像および前記3Dデータセットを処理することができ、
前記処理は、前記メインワークステーションおよび各リモートワークステーション上での実質的に周期のとれた表示のためにデータネットワークに送信される、方法。
A method for collaboratively and interactively visualizing and processing a volumetric object or system comprising:
A local user obtains real-time images of an object or system and combines them with a co-registered 3D dataset of the same object or system using a main workstation, and the local user localizes the combined image locally. Displaying automatically and transmitting them over the data network;
One or more remote users, each connected to the data network, receive the combined image and receive at least one of the combined image and the co-registered scan image using a remote workstation. Processing steps,
Each of the main user and the remote user can process the combined image and the 3D dataset,
The method wherein the process is transmitted to a data network for a substantially periodic display on the main workstation and each remote workstation.
JP2008548472A 2005-12-31 2007-01-03 System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet") Pending JP2009521985A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US75565805P 2005-12-31 2005-12-31
US84565406P 2006-09-19 2006-09-19
PCT/SG2007/000002 WO2007108776A2 (en) 2005-12-31 2007-01-03 Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet')

Publications (1)

Publication Number Publication Date
JP2009521985A true JP2009521985A (en) 2009-06-11

Family

ID=40821587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008548472A Pending JP2009521985A (en) 2005-12-31 2007-01-03 System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet")

Country Status (1)

Country Link
JP (1) JP2009521985A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512658A (en) * 2012-12-26 2016-04-28 ビパール, エルエルシー System and method for role switching in a multiple reality environment
JP2016529773A (en) * 2013-06-27 2016-09-23 ヴィッパー,エルエルシー System and method for role negotiation in a multi-reality environment
KR101791251B1 (en) 2016-03-25 2017-12-08 주식회사 디지털아이디어 Method for processing image and device thereof
JP2019533489A (en) * 2016-08-12 2019-11-21 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. Distributed interactive medical visualization system with user interface function
JP2019534490A (en) * 2016-08-12 2019-11-28 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. Distributed interactive medical visualization system with primary / secondary interaction functions
JP2020073872A (en) * 2019-09-04 2020-05-14 株式会社ミツトヨ Control system
JP2020515891A (en) * 2017-03-24 2020-05-28 サージカル シアター エルエルシー System and method for training and collaboration in a virtual environment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512658A (en) * 2012-12-26 2016-04-28 ビパール, エルエルシー System and method for role switching in a multiple reality environment
JP2016529773A (en) * 2013-06-27 2016-09-23 ヴィッパー,エルエルシー System and method for role negotiation in a multi-reality environment
KR101791251B1 (en) 2016-03-25 2017-12-08 주식회사 디지털아이디어 Method for processing image and device thereof
JP2019533489A (en) * 2016-08-12 2019-11-21 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. Distributed interactive medical visualization system with user interface function
JP2019534490A (en) * 2016-08-12 2019-11-28 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. Distributed interactive medical visualization system with primary / secondary interaction functions
JP2020515891A (en) * 2017-03-24 2020-05-28 サージカル シアター エルエルシー System and method for training and collaboration in a virtual environment
JP2020073872A (en) * 2019-09-04 2020-05-14 株式会社ミツトヨ Control system

Similar Documents

Publication Publication Date Title
US20070248261A1 (en) Systems and methods for collaborative interactive visualization of 3D data sets over a network ("DextroNet")
Sauer et al. Mixed reality in visceral surgery: development of a suitable workflow and evaluation of intraoperative use-cases
CN109791801B (en) Virtual reality training, simulation and collaboration in robotic surgical systems
AU2013370334B2 (en) System and method for role-switching in multi-reality environments
US20200363924A1 (en) Augmented reality drag and drop of objects
JP2022017422A (en) Augmented reality surgical navigation
US10875182B2 (en) Remote presence system mounted to operating room hardware
JP2009521985A (en) System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet")
US20220387128A1 (en) Surgical virtual reality user interface
EP3986314A1 (en) Augmented reality system and method for tele-proctoring a surgical procedure
CN101405769A (en) Systems and methods for collaborative interactive visualization of 3D data sets over a network ('DextroNet')
JP2006142022A (en) Method and apparatus for synching of image using region of interest mapped by user
CN115315729A (en) Method and system for facilitating remote presentation or interaction
WO2020197422A2 (en) System and methods for tele-collaboration in minimally invasive surgeries
Balogh et al. Intraoperative stereoscopic quicktime virtual reality
US20220273368A1 (en) Auto-configurable simulation system and method
WO2021043684A1 (en) Method for analysing medical image data in a virtual multi-user collaboration, a computer program, a user interface and a system
Kaufmann et al. Telepresence surgery system enhances medical student surgery training
Balogh et al. Multilayer image grid reconstruction technology: four-dimensional interactive image reconstruction of microsurgical neuroanatomic dissections
Gorman et al. Evaluation of skill acquisition using a force feedback, virtual reality based surgical trainer
Luis Serra et al. An interface for precise and comfortable 3D work with volumetric medical datasets
KR20220143893A (en) Robotic surgical system and method for providing stadium view with arm installation guidance
US20230341932A1 (en) Two-way communication between head-mounted display and electroanatomic system
WO2024090228A1 (en) Information processing device, information processing system, and information processing program
Mukit Intraoperative Virtual Surgical Planning Through Medical Mixed Reality