JP2020000649A - 可視化装置、可視化方法、および可視化プログラム - Google Patents

可視化装置、可視化方法、および可視化プログラム Download PDF

Info

Publication number
JP2020000649A
JP2020000649A JP2018124684A JP2018124684A JP2020000649A JP 2020000649 A JP2020000649 A JP 2020000649A JP 2018124684 A JP2018124684 A JP 2018124684A JP 2018124684 A JP2018124684 A JP 2018124684A JP 2020000649 A JP2020000649 A JP 2020000649A
Authority
JP
Japan
Prior art keywords
dimensional model
model
shape
real
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018124684A
Other languages
English (en)
Inventor
正宏 渡邉
Masahiro Watanabe
正宏 渡邉
大介 櫛部
Daisuke Kushibe
大介 櫛部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018124684A priority Critical patent/JP2020000649A/ja
Priority to US16/442,681 priority patent/US11341664B2/en
Publication of JP2020000649A publication Critical patent/JP2020000649A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/23Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】実体モデルに連動して仮想空間内の3次元モデルを変形できるようにする。【解決手段】可視化装置10は、器官の実体モデル1を撮影して得られた画像に基づいて、実体モデル1の形状の変化を検出する。次に可視化装置10は、人体の器官の3次元形状を示す3次元モデルデータ11aに基づいて、器官の形状を仮想空間内で再現した3次元モデル4を生成する。さらに可視化装置10は、実体モデル1の形状の変化に応じて3次元モデル4の形状を変形する。そして可視化装置10は、変形後の3次元モデル4の画像を出力する。【選択図】図1

Description

本発明は、可視化装置、可視化方法、および可視化プログラムに関する。
人体の器官の動きをコンピュータでシミュレーションすることができる。例えば仮想空間内で患者の心臓の3次元モデルを作成し、その3次元モデルを用いた心臓シミュレーションを行うことで、患者の心筋の挙動や虚血の状態をコンピュータ上で再現することができる。シミュレーションの結果は、例えばAR(Augmented Reality)または/VR(Virtual Reality)などの技術を利用して可視化される。
他方、患者の器官の形状の把握には、器官の3次元の模型(実体モデル)を利用することができる。器官の実体モデルは、3Dプリンタを用いて生成可能である。例えば患者の心臓の3次元モデルデータに基づいて、患者の心臓と同じ形状の実体モデルを、3Dプリンタで生成することができる。3Dプリンタで実体モデルを作成することで、例えば医師が手術をする前に、実際の患者の心臓のサイズや患部の位置を、正確に把握することが可能となる。
臓器の3次元模型を用いた医療支援技術としては、例えば直感的な操作による実用性の高い観察支援を実現する医用観察支援システムがある。この医用観察支援システムでは、指示部が臓器の3次元模型を指し示す操作を、臓器の画像に反映させることができる。
特開2016−168078号公報
医師は、患者の器官の形状を再現した実体モデルの一部を押したり、切開したりして、実体モデルを変形させることで、手術前に器官の変形の様子を確認することができる。しかし、従来技術では、実体モデルを変形させたときに、実体モデルの変形に連動させて、コンピュータ内の3次元モデルを変形させることができない。そのため、変形後の器官の形状を、コンピュータ内の3次元モデルで正確に再現することができない。
1つの側面では、本件は、実体モデルに連動して仮想空間内の3次元モデルを変形できるようにすることを目的とする。
1つの案では、以下に示す記憶部と処理部とを有する可視化装置が提供される。
記憶部は、人体の器官の3次元形状を示す3次元モデルデータを記憶する。処理部は、器官の実体モデルを撮影して得られた画像に基づいて、実体モデルの形状の変化を検出する。次に処理部は、3次元モデルデータに基づいて、器官の形状を仮想空間内で再現した3次元モデルを生成する。さらに処理部は、実体モデルの形状の変化に応じて3次元モデルの形状を変形する。そして処理部は、変形後の3次元モデルの画像を出力する。
1態様によれば、実体モデルに連動して仮想空間内の3次元モデルを変形することができる。
第1の実施の形態に係る可視化方法による可視化の一例を示す図である。 第2の実施の形態のシステム構成の一例を示す図である。 コンピュータのハードウェアの一例を示す図である。 コンピュータが有する機能の一例を示すブロック図である。 3次元モデルデータ記憶部のデータ構造の一例を示す図である。 シミュレーション結果データの一例を示す図である。 実体モデルと3次元モデルとの連動制御の一例を示す図である。 実体モデルと3次元モデルとの連係処理の手順の一例を示すフローチャートである。 応力解析・変形処理の手順の一例を示すフローチャートである。 応力の可視化の一例を示す図である。 切開部形状変形処理の手順の一例を示すフローチャートである。 移動ベクトル算出の一例を示す図である。 弾性変形シミュレーションを説明する図である。 切開部の表示例を示す図である。 流体漏れの表示例を示す図である。
以下、本実施の形態について図面を参照して説明する。なお各実施の形態は、矛盾のない範囲で複数の実施の形態を組み合わせて実施することができる。
〔第1の実施の形態〕
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る可視化方法による可視化の一例を示す図である。第1の実施の形態では、例えば可視化装置10を用いて、人体の器官の実体モデル1を変形させたとき、変形後の形態を3次元モデル4によって可視化する。そのために、可視化装置10は、記憶部11と処理部12とを有する。記憶部11は、例えば可視化装置10が有するメモリ、またはストレージ装置である。処理部12は、例えば可視化装置10が有するプロセッサ、または演算回路である。可視化装置10は、例えば可視化処理が記述された可視化プログラムをプロセッサで実行することにより、可視化方法を実現する。
記憶部11は、人体の器官の3次元形状を示す3次元モデルデータ11aを記憶する。処理部12は、器官の実体モデル1をセンサ2で撮影して得られた画像に基づいて、実体モデル1の形状の変化を検出する。例えばセンサ2は、距離画像センサである。距離画像センサは、実体モデル1までの距離を計測することができ、距離画像センサから取得した画像データには、実体モデル1の凹凸が表される。なお、実体モデル1は、例えば3次元モデルデータ11aに基づいて3Dプリンタによって作成することができる。
次に処理部12は、3次元モデルデータ11aに基づいて、器官の形状を仮想空間内で再現した3次元モデル4を生成する。さらに処理部12は、実体モデル1の形状の変化に応じて3次元モデル4の形状を変形する。例えば処理部12は、センサ2から取得した画像データに基づいて、実体モデル1の凹凸を認識し、その凹凸が変化すると、3次元モデル4の対応箇所を、実体モデル1と同じ形状に変形する。
そして処理部12は、変形後の3次元モデル4の画像を出力する。例えば処理部12は、モニタ3に、3次元モデル4の画像を表示させる。
これにより、実体モデル1の変形に連動して、仮想空間内の3次元モデル4を変形することができる。その結果、実体モデル1と3次元モデル4との、より高度な連携が可能となる。
実体モデル1と3次元モデル4との高度な連携が行われることで、医師による患部の把握や手術箇所の事前確認作業が容易となる。すなわち、医師が、患者の器官の実体モデル1を用いて、サイズ感、切断面の位置を把握する。例えば患者の臓器の実体モデル1を3Dプリンタにより適切な材質で作成することで、医師は、実体モデル1を用いて、臓器のサイズや柔らかさなどを、手術前に実体験によって確認することができる。このとき医師は、患者の臓器の切開位置の確認のため、実際にメスを用いて実体モデル1を切開することもできる。
この際、可視化装置10は、医師が実体モデル1に対して行った操作の結果をインタラクティブに3次元モデル4に反映させる。例えば可視化装置10は、実体モデル1が切開されると、3次元モデル4を切開した形状に変形する。3次元モデル4は、内部構造も含めて詳細に再現することが可能であるため、例えば医師は、実体モデル1と連携して変形した3次元モデル4により、切開の幅や深さが適切か(例えば切るべきでない部分が切れていないか)などを、詳細に確認することができる。
また、可視化装置10は、実体モデル1が変形することで生じる物理量を可視化することができる。例えば処理部12は、実体モデル1の形状の変化の影響を受ける物理量を算出し、変形後の3次元モデル4の形状変化部分の表示態様を、算出した物理量に応じて変更する。
計算する物理量としては、例えば実体モデル1に荷重を加えた場合に発生する応力がある。処理部12は、実体モデル1の一部に荷重が加えられた場合、荷重に伴う実体モデル1の変形に応じて、3次元モデル4を変形すると共に、荷重による変形箇所に生じる応力を計算する。そして処理部12は、応力を可視化した3次元モデル4の画像を出力する。例えば処理部12は、応力を、3次元モデル上に等値線で表示する。
また可視化装置10は、3次元モデルデータ11aを用いたシミュレーションの結果を用いて、物理量を計算することができる。その場合、記憶部11は、3次元モデルデータ11aを用いた第1の物理量のシミュレーション結果を示す物理量データを、予め記憶する。処理部12は、物理量データに基づいて、実体モデル1の形状の変化に応じた第2の物理量の値を算出する。例えば、物理量データに示される第1の物理量は、器官内の血液の圧力である。この場合、処理部12は、実体モデル1が切開された場合に、物理量データに基づいて、切開部から噴出する血液を表す粒子の速度または加速度を、第2の物理量として算出する。
このように、実体モデル1の変形に応じてシミュレーション結果に基づく物理量の計算を行い、その物理量を仮想空間内の3次元モデル上で可視化することで、実体モデル1に対して行った操作による影響を、容易に把握することができる。例えば実体モデル1に荷重を加えれば、その応力がモニタ3に表示される。また実体モデル1を切開すれば、切開部からの出血状況が、モニタ3に表示される。その結果、実体モデル1に対するインタラクティブな操作を入力として、現実に近い情報を医師に提供することが可能となる。
〔第2の実施の形態〕
次に第2の実施の形態について説明する。第2の実施の形態は、3次元モデルデータから3Dプリンタにより実体モデルを生成し、その実体モデルと仮想空間内の3次元モデルとを連動させるようにしたものである。
図2は、第2の実施の形態のシステム構成の一例を示す図である。コンピュータ100には、モニタ21、3Dプリンタ28、センサ装置29が接続されている。コンピュータ100には、患者の器官(例えば大動脈)の3次元モデルデータが格納されている。コンピュータ100は、3Dプリンタ28を制御し、3次元モデルデータに基づいて、3Dプリンタ28に患者の器官の実体モデルを作成させる。
センサ装置29は、実空間内の物体の形状を検知する機器である。例えばセンサ装置29は、ビデオカメラ、距離画像センサ、赤外線センサなどを用いて、物体の形状を捉える。
コンピュータ100は、3Dプリンタから出力した実体モデルの回転・変形に応じて、仮想空間内の3次元モデルに対する回転・変形などの情報の反映を行う。またコンピュータ100は、応力シミュレーションにより、応力・歪値などの定量的な情報を3次元モデル上に可視化することもできる。例えばコンピュータ100は、スケール情報、変曲点の座標情報、応力・歪の等値線情報、流体(血液)の圧力などの変動に関する情報などを表示することができる。なおコンピュータ100は、第1の実施の形態に示した可視化装置10の一例である。
図3は、コンピュータのハードウェアの一例を示す図である。コンピュータ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してメモリ102と複数の周辺機器が接続されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、またはDSP(Digital Signal Processor)である。プロセッサ101がプログラムを実行することで実現する機能の少なくとも一部を、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現してもよい。
メモリ102は、コンピュータ100の主記憶装置として使用される。メモリ102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ102には、プロセッサ101による処理に利用する各種データが格納される。メモリ102としては、例えばRAM(Random Access Memory)などの揮発性の半導体記憶装置が使用される。
バス109に接続されている周辺機器としては、ストレージ装置103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
ストレージ装置103は、内蔵した記録媒体に対して、電気的または磁気的にデータの書き込みおよび読み出しを行う。ストレージ装置103は、コンピュータの補助記憶装置として使用される。ストレージ装置103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、ストレージ装置103としては、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)を使用することができる。
グラフィック処理装置104には、モニタ21が接続されている。グラフィック処理装置104は、プロセッサ101からの命令に従って、画像をモニタ21の画面に表示させる。モニタ21としては、有機EL(Electro Luminescence)を用いた表示装置や液晶表示装置などがある。
入力インタフェース105には、キーボード22とマウス23とが接続されている。入力インタフェース105は、キーボード22やマウス23から送られてくる信号をプロセッサ101に送信する。なお、マウス23は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置106は、レーザ光などを利用して、光ディスク24に記録されたデータの読み取りを行う。光ディスク24は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク24には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。
機器接続インタフェース107は、コンピュータ100に周辺機器を接続するための通信インタフェースである。例えば機器接続インタフェース107には、メモリ装置25、メモリリーダライタ26、3Dプリンタ28、センサ装置29などを接続することができる。メモリ装置25は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ26は、メモリカード27へのデータの書き込み、またはメモリカード27からのデータの読み出しを行う装置である。メモリカード27は、カード型の記録媒体である。
ネットワークインタフェース108は、ネットワーク20に接続されている。ネットワークインタフェース108は、ネットワーク20を介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。
コンピュータ100は、以上のようなハードウェア構成によって、第2の実施の形態の処理機能を実現することができる。なお、第1の実施の形態に示した装置も、図3に示したコンピュータ100と同様のハードウェアにより実現することができる。
コンピュータ100は、例えばコンピュータ読み取り可能な記録媒体に記録されたプログラムを実行することにより、第2の実施の形態の処理機能を実現する。コンピュータ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、コンピュータ100に実行させるプログラムをストレージ装置103に格納しておくことができる。プロセッサ101は、ストレージ装置103内のプログラムの少なくとも一部をメモリ102にロードし、プログラムを実行する。またコンピュータ100に実行させるプログラムを、光ディスク24、メモリ装置25、メモリカード27などの可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ101からの制御により、ストレージ装置103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
図3に示したようなハードウェアにより、コンピュータ100は、3次元モデルデータに基づく実体モデルの作成、および実体モデルに連動した仮想空間内での3次元モデルの変形を行うことができる。
図4は、コンピュータが有する機能の一例を示すブロック図である。コンピュータ100は、記憶部110、プリント制御部120、3次元モデル制御部130、物理量計算部140、物理量可視化部150、および表示制御部160を有する。
記憶部110は、3次元モデルデータ111とシミュレーション結果データ112とを有する。3次元モデルデータ111は、患者の臓器の立体形状を示すデータである。例えば3次元モデルデータ111は、多面体要素またはポリゴンによって立体形状を表現している。シミュレーション結果データ112は、患者の心臓などの臓器のコンピュータシミュレーションによって得られた物理量のデータである。例えばシミュレーション結果データ112には、血管内の圧力の値が示されている。
プリント制御部120は、3Dプリンタ28を制御し、3次元モデルデータ111で表された形状の実体モデルを、3Dプリンタ28に作成させる。
3次元モデル制御部130は、センサ装置29で検知した実体モデルの形状に従って、3次元モデルデータ111に示される形状を変形する。3次元モデル制御部130は、変形した形状の3次元モデルを示す3次元モデルデータ111を、物理量計算部140と表示制御部160とに送信する。
物理量計算部140は、シミュレーション結果データ112に基づいて、3次元モデルの変形に応じた物理量(応力、出血する血液の粒子の速度または加速度など)を計算する。物理量計算部140は、算出した物理量を、物理量可視化部150に送信する。
物理量可視化部150は、物理量計算部140が算出した物理量を可視化する画像データを生成する。物理量可視化部150は、生成した画像データを表示制御部160に送信する。
表示制御部160は、3次元モデル制御部130から送られた3次元モデル(例えばポリゴンモデル)を示すデータに基づいて、変形された3次元モデルをモニタ21に表示する。また表示制御部160は、物理量可視化部150から物理量を示す画像データに基づいて、3次元モデルの画像に、物理量を示す画像データを重畳表示する。
なお、図4に示した各要素間を接続する線は通信経路の一部を示すものであり、図示した通信経路以外の通信経路も設定可能である。また、図4に示した各要素の機能は、例えば、その要素に対応するプログラムモジュールをコンピュータに実行させることで実現することができる。
次に、記憶部110に格納されているデータについて、詳細に説明する。
図5は、3次元モデルデータ記憶部のデータ構造の一例を示す図である。3次元モデルデータ111には、例えば節点情報テーブル111aと要素情報テーブル111bとが含まれる。節点情報テーブル111aには、節点ごとに、節点番号と、節点の位置を示す座標とが設定されている。節点情報テーブル111aにおける各節点の座標は、シミュレーション実行前の状態における節点の位置を示している。要素情報テーブル111bには、要素ごとに、要素番号と、4面体の要素の頂点となる節点の節点番号とが設定されている。
図5に示した記憶部110に格納されたデータに基づいて、大動脈の3次元モデルが生成できる。図5に示す3次元モデルデータ111では、多面体要素で3次元モデルを表しているが、3次元モデル制御部130は、3次元モデルの外部との境界にある面にポリゴンを設定することで、3次元モデルデータ111からポリゴンモデルを生成することができる。
図6は、シミュレーション結果データの一例を示す図である。シミュレーション結果データ112には、1回分のシミュレーション結果の記録時点を1タイムステップとし、タイムステップごとの大動脈データ112a,112b,112c,・・・が格納されている。大動脈データ112a,112b,112c,・・・は、タイムステップのときの大動脈の状態を示す情報である。
例えば大動脈データ112a,112b,112c,・・・には、要素・節点IDに対応付けて、要素または節点の位置、および1または複数の物理量(例えば圧力)の値が設定されている。なお要素の位置は、例えば4面体の要素の重心位置である。また1つの物理量に関し、要素と節点の両方に値が設定されていてもよく、要素または節点の一方にのみ値が設定されていてもよい。
以上のようなシステムを用いて、実体モデルと仮想空間内での3次元モデルとを連動させることができる。
図7は、実体モデルと3次元モデルとの連動制御の一例を示す図である。コンピュータ100は、ユーザからの入力に基づいて、3Dプリンタ28に対して、3次元モデルデータ111に基づく実体モデル30の生成を指示する。3Dプリンタ28は、指示に従って実体モデル30を出力する。
実体モデル30に対応する3次元モデルの表示入力が行われると、コンピュータ100は、センサ装置29で取得した画像により、実体モデル30の位置、向き、形状を把握する。そしてコンピュータ100は、3次元モデルデータ111に基づいて、実体モデル30の位置、向き、形状に対応する3次元モデル40を、仮想空間内に生成し、その3次元モデル40をモニタ21に表示する。
以下、実体モデル30と仮想空間内の3次元モデル40との連係処理の手順について、具体的に説明する。
図8は、実体モデルと3次元モデルとの連係処理の手順の一例を示すフローチャートである。以下、図8に示す処理をステップ番号に沿って説明する。
[ステップS101]3次元モデル制御部130は、センサ装置29から実体モデル30の映像を取得する。
[ステップS102]3次元モデル制御部130は、実体モデル30に連動させて、3次元モデル40の移動・回転・拡大・縮小を行うか否かを判断する。例えば3次元モデル制御部130は、実体モデル30の位置が移動または回転していれば、3次元モデル40を移動または回転させると判断する。例えば3次元モデル制御部130は、センサ装置29に内蔵されたビデオカメラ、距離画像センサ、赤外線センサなどから取得した画像に基づいて、実体モデル30の位置、向き、形状を判断する。そして3次元モデル制御部130は、実体モデル30の位置が、直前の位置と異なっていれば、実体モデル30が移動したと判断する。また3次元モデル制御部130は、実体モデル30の向きが、直前の向きと異なっていれば、実体モデル30が回転したと判断する。また3次元モデル制御部130は、ユーザのマウス操作などにより、拡大または縮小の指示が入力されたとき、3次元モデル40を拡大または縮小すると判断する。
3次元モデル制御部130は、移動・回転・拡大・縮小を行う場合、処理をステップS103に進める。また3次元モデル制御部130は、移動・回転・拡大・縮小を行わない場合、処理をステップS106に進める。
[ステップS103]3次元モデル制御部130は、3次元モデル40の移動・回転・拡大・縮小の座標変換を行う。例えば3次元モデル制御部130は、仮想空間内での視点となる仮想カメラの位置を移動させることで、仮想カメラに対する3次元モデル40の相対位置を変化させる。そして3次元モデル制御部130は、3次元モデル40の各節点の座標を、仮想カメラを基準とする座標系における座標に変換する。この座標変換は、例えば、行列を用いた写像変換を実行することにより実現することができる。
[ステップS104]3次元モデル制御部130は、3次元モデル40の表面のメッシュに、カラーマップを反映する。例えば3次元モデル制御部130には、予め3次元モデル40の表面の色が設定されている。そして3次元モデル制御部130は、予め指定された色に、3次元モデル40の表面のメッシュの色を設定する。
[ステップS105]3次元モデル制御部130は、3次元モデル40のレンダリングを行う。レンダリングにより、3次元モデル40を表す画像データが生成される。そして3次元モデル制御部130は、3次元モデル40を表す画像データを、表示制御部160に送信する。表示制御部160は、3次元モデル40の画像データに基づいて、3次元モデル40の画像をモニタ21に表示する。
[ステップS106]3次元モデル制御部130は、3次元モデル40に押された部分があるか否かを判断する。例えば3次元モデル制御部130は、ユーザのマウス操作などにより、3次元モデル40上の特定の部分が指定されたとき、その位置が押されたと判断する。また3次元モデル制御部130は、センサ装置29から、ユーザの指先の画像を取得し、ユーザが指先で実体モデル30の特定の部分を押したとき、その部分に対応する3次元モデル40の部分が押されたと判断する。
3次元モデル制御部130は、押された部分がある場合、処理をステップS107に進める。また3次元モデル制御部130は、押された部分がない場合、処理をステップS109に進める。
なお押された部分がある場合、3次元モデル制御部130は、3次元モデル40の押された部分の位置、および押下量を物理量計算部140に送信する。3次元モデル制御部130は、例えば、押された位置がマウスで指定された場合、マウスのボタンの押下時間に比例した値を、押下量とする。また3次元モデル制御部130は、実体モデル30をユーザが指先で押した場合、ユーザが実体モデル30の表面を押し込んだ量を、押下量とする。
[ステップS107]3次元モデル制御部130、物理量計算部140、および物理量可視化部150が連携し、押された部分の応力解析・変形処理を行う。応力解析処理の詳細は、後述する(図9参照)。
[ステップS108]表示制御部160は、一部が押された3次元モデル40に、応力を示す画像を重ねて表示する。
[ステップS109]3次元モデル制御部130は、センサ装置29から取得した画像に基づいて、実体モデル30の切開箇所があるか否かを判断する。3次元モデル制御部130は、切開箇所がある場合、処理をステップS110に進める。また3次元モデル制御部130は、切開箇所がない場合、処理をステップS115に進める。
[ステップS110]3次元モデル制御部130は、切開部形状変形処理を行う。切開部形状変形処理の詳細は後述する(図11参照)。
[ステップS111]3次元モデル制御部130は、切開部について、開いた形状に基づく弾性変形シミュレーションを行う。
[ステップS112]3次元モデル制御部130は、切開部の断面に、シミュレーション結果データ112に示される物理量(例えば変形応力)の値を設定する。また3次元モデル制御部130は、弾性変形シミュレーションの結果を、3次元モデル40に反映する。例えば3次元モデル制御部130は、弾性変形シミュレーションによって得られた物理量の値を、シミュレーション結果データ112に示される物理量の値に加算する。
[ステップS113]物理量計算部140は、シミュレーション結果データ112に、血液の流体シミュレーションの結果が含まれている場合、切開部からの流体漏れ計算を行う。例えば物理量計算部140は、切開部から噴出する血液の量や、噴出する加速度を計算する。
ここで、求めたい粒子の加速度ベクトルをaとすると、密度ρ、粒子体積V、漏れ出る面積S(流体の境界ポリゴンの面積)、任意の要素の圧力p、ポリゴンの法線方向ベクトルnとする。この場合、物理量計算部140は、下記の式(1)を加速度ベクトルaについて解いた式(2)により加速度ベクトルaを求める。
Figure 2020000649
Figure 2020000649
密度ρは、例えば血液の密度の代表値1.05g/cm3とする。粒子体積Vは、ユーザが与える一定値である。
この結果、流体境界面に存在するポリゴンごとに、加速度aに基づく粒子が、ユーザの設定した粒子数分出力される。ユーザの設定する粒子数は、次のように定義する。
Figure 2020000649
mは粒子数、Δtはユーザが設定する単位時間、lは単位時間当たりに映像として出力する粒子数である。この方法により、mが決まると上記の加速度aに基づき粒子が法線方向ベクトルnに向かって射出される。なお物理量計算部140は、重力を考慮に入れる計算を行うこともできる。重力を考慮に入れる場合、物理量計算部140は、例えば加速度aに対して重力加速度との合成ベクトルを計算する。また物理量計算部140は、血管の半径に応じた距離だけ粒子を加速させ、粒子が3次元モデル40の外部に放出された後は、重力に基づき自然落下するように粒子の軌跡を計算してもよい。
物理量可視化部150は、算出した血液の漏れ状況を表す画像を示す画像データを生成し、生成した画像データを表示制御部160に送信する。
[ステップS114]表示制御部160は、液体漏れを示す画像のレンダリングを行い、3次元モデル40に重ねて表示する。
[ステップS115]表示制御部160は、ユーザから表示終了の指示が入力されたか否かを判断する。表示制御部160は、表示終了の指示が入力された場合、3次元モデル40の表示処理を終了する。表示制御部160は、表示終了の指示が入力されていなければ、処理をステップS101に進める。
このようにして、ユーザが実体モデル30に対して行った行為の結果が、仮想空間内の3次元モデル40に反映される。
次に、応力解析・変形処理の手順について詳細に説明する。
図9は、応力解析・変形処理の手順の一例を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。
[ステップS121]3次元モデル制御部130は、荷重箇所、方向、荷重の量(力の大きさ)を、例えば押下操作から取得する。例えば3次元モデル制御部130は、マウス操作によって3次元モデル40に対する押下が行われた場合、マウスポインタで指定された3次元モデル40の箇所を荷重箇所とし、荷重箇所から大動脈内部へ向かう方向を荷重の方向とする。3次元モデル制御部130は、例えば予め設定された所定値を荷重の量とする。また3次元モデル制御部130は、マウスのボタンが押下された時間に比例する値を、荷重の量としてもよい。
[ステップS122]物理量計算部140は、3次元モデル40において、荷重箇所から半径R(Rは正の実数)の球内に含まれるシェル要素を、計算対象として抽出する。シェル要素は、三角形の平面要素であり、例えばポリゴンモデルにおけるポリゴンに対応する。例えば物理量計算部140は、3次元モデル40の表面の節点の中から、荷重箇所からR以内の距離にある複数の節点を抽出し、抽出した複数の節点の組み合わせで構成される面を、計算対象のシェル要素とする。
[ステップS123]物理量計算部140は、抽出したシェル要素の1つ外側のシェル要素を、固定境界条件とする。すなわち物理量計算部140は、抽出したシェル要素の1つ外側のシェル要素の位置などの値を固定とする。
[ステップS124]物理量計算部140は、抽出したシェル要素の弾性計算を行う。物理量計算部140は、例えば平面シェル要素の弾塑性解析により弾性計算を行う。その場合、物理量計算部140は、相当応力を以下の式で定義する。
Figure 2020000649
σxは、垂直応力のx軸成分である。σyは、垂直応力のy軸成分である。τxyは、y軸を法線とする面のx軸方向のせん断応力である。また物理量計算部140は、荷重増分ベクトルΔFを以下の通りとする。
Figure 2020000649
Fは、荷重箇所に加えた荷重である。Δλは、予め設定された荷重増分倍率である。Δλは、1/100、1/1000といった1以下の実数である。物理量計算部140は、まず次の接線剛性方程式を変位増分ベクトルUについて解く。
Figure 2020000649
Kは弾性剛性マトリクスである。物理量計算部140は、変位増分ベクトルUに基づいて、各シェル要素のガウス積分点における各軸方向の応力増分Δσx,Δσy,Δτxyを計算する。物理量計算部140は、荷重増分ベクトルΔFずつ荷重を増加させるごとに応力増分Δσx,Δσy,Δτxyを求め、それまでの応力増分Δσx,Δσy,Δτxyの合計をσx,σy,τxyとして式(4)に代入し、相当応力を計算する。物理量計算部140は、計算上加えた荷重に応じた相当応力を、最終的な各シェル要素の応力とする。また物理量計算部140は、荷重増分ベクトルΔFずつ荷重を増加させるごとに得られる変位増分ベクトルUに基づいて、最終的なシェル要素の変位(位置の移動量)を求める。シェル要素の変位は、3次元モデル40の形状の変形量を表している。
[ステップS125]3次元モデル制御部130は、物理量計算部140が算出した変形量を、3次元モデル40の形状に反映する。すなわち3次元モデル制御部130は、算出された変形量だけ、3次元モデル40の荷重箇所の周囲を変形させる。また物理量可視化部150は、変形した箇所の応力を示す画像データを生成する。例えば物理量可視化部150は、変形した箇所に、応力に応じた色を設定する。
このようにして3次元モデル40が応力に応じて変形されると共に、応力の可視化処理が行われる。
図10は、応力の可視化の一例を示す図である。図10の上段は、3次元モデル40に対する荷重箇所を指定する様子を示している。図10の下段は、応力の可視化例を示している。図10の例では、応力が強い領域ほど濃い色で表示している。このように実体モデル30と連動して表示されている3次元モデル40上に、荷重箇所周辺の応力を可視化することで、医師は、例えば実体モデル30の触感を確認しながら、実体モデル30の一部を押した場合の応力を確認できる。
例えば3次元モデル制御部130は、実体モデル30に触っている医師の指先の位置を検知し、その位置を荷重箇所と判断することもできる。その場合、医師が、実体モデル30の任意の箇所を押すことで、押された箇所の周囲の応力がモニタ21に表示される。
次に、切開部形状変形処理について詳細に説明する。
図11は、切開部形状変形処理の手順の一例を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。
[ステップS131]3次元モデル制御部130は、センサ装置29から切開部の画像を取得する。
[ステップS132]3次元モデル制御部130は、切開部断面を生成する。例えば3次元モデル制御部130は、切開部に沿って新たな節点と、その節点を含むメッシュとを生成する。
[ステップS133]3次元モデル制御部130は、断面の縁の移動ベクトルを算出する。
[ステップS134]3次元モデル制御部130は、移動ベクトルに基づいて、切開部の節点の位置を算出する。
[ステップS135]3次元モデル制御部130は、変形量を3次元モデル40の形状に反映する。
図12は、移動ベクトル算出の一例を示す図である。例えば3次元モデル制御部130は、3次元モデル40の切開部41上の節点51,52を特定する。次に3次元モデル制御部130は、センサ装置29からの画像に基づいて実体モデル30の切開部の端部の移動を認識すると、切開部41上の節点51,52からの切開部の端部の移動ベクトルを生成する。例えば節点51を移動元とする2つの移動ベクトル42,43が生成される。次に3次元モデル制御部130は、節点51,52から移動ベクトルに従って移動させた位置に、新たな節点53〜56を生成する。
実体モデル30の切開部の端部がさらに移動すれば、3次元モデル制御部130は、再度、実体モデル30の切開部の端部の移動を認識すると、切開部41上の節点51,52からの切開部の端部の移動ベクトルを生成する。例えば節点51を移動元とする2つの移動ベクトル44,45が生成される。次に3次元モデル制御部130は、節点51,52から移動ベクトルに従って移動させた位置へ、節点53〜56を移動する。
切開部の形状が変化すると、物理量計算部140により切開部の弾性変形シミュレーションが行われる。
図13は、弾性変形シミュレーションを説明する図である。図13の面abdecの移動において、v1,v2の移動速度ベクトルが定義されたものとする。この場合、3次元モデル40の切開部41は、面abdecを構成するポリゴンを辺bdeにおいて変形する。物理量計算部140は、面abdecに接触しているポリゴンとの間でシェル要素による弾性解析を行う。この場合の変形応力は、v1/t,v2/t(tは変形完了までの時間)に依存する。
このように医師が実体モデル30を切開すると、その形状が仮想空間内の3次元モデル40に反映されると共に、3次元モデル40上には、弾性変形シミュレーションにより計算された変形応力を表示することができる。医師は、変形応力が表示された場合、変形応力の範囲に基づいて、切開部の位置が適切か否かを判断できる。例えば医師は、変形応力がかかる範囲に梗塞部位が含まれる場合、その切開部で切開を行うのは不適切であると判断できる。
図14は、切開部の表示例を示す図である。例えば医師は、メス61により実体モデル30を切開する。切開部の形状はセンサ装置29で撮像され、コンピュータ100に送られる。コンピュータ100では3次元モデル制御部130によって、実体モデル30の切開部と同じ形状となるように、3次元モデル40が変形される。そして変形された3次元モデル40がモニタ21に表示される。表示された3次元モデル40には、例えば変形応力が、色の違いによって表現される。
また切開されたことにより、物理量計算部140によって流体漏れ計算が行われる。そして切開部から流体(血液)が漏れる様子を、モニタ21に表示することができる。
図15は、流体漏れの表示例を示す図である。図15に示すように、例えば切開された直後は、内部の血圧に応じて、血液が勢いよく噴出する画像が表示される。血圧が下がると、血液の噴出速度が減少した画像に変わる。
このようにして、シミュレーション結果データ112を用いて得られる物理量を、実体モデル30に連動した3次元モデル40上に、視覚的に分かりやすく表示することができる。
〔その他の実施の形態〕
第2の実施の形態では、実体モデル30にマーカを設けていないが、実体モデル30の主要部分にマーカを設けることもできる。実体モデル30にマーカを付けた場合、3次元モデル制御部130は、マーカの位置に基づいて、実体モデル30の形状や向きを判断することができる。また医師の指先にマーカを付けることで、医師が実体モデル30に指先で荷重を加えたときの荷重箇所を容易に特定できる。
なお図6に示したように、シミュレーション結果データ112として、時系列のデータが存在する場合、実体モデル30への操作とは別に、3次元モデル40を、シミュレーション結果データ112に基づいて動作させてもよい。例えば、心臓の動作シミュレーションの結果がある場合、心臓を示す3次元モデルにより、心臓の拍動する様子をモニタ21で表示させることができる。そして医師が心臓の実体モデルに対して操作を行うと、コンピュータ100は、拍動する心臓の3次元モデルを、実体モデルと連動して変形させる。これにより、医師は、実際の手術時の状況を、正確に把握することができる。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
1 実体モデル
2 センサ
3 モニタ
4 3次元モデル
10 可視化装置
11 記憶部
11a 3次元モデルデータ
12 処理部

Claims (7)

  1. 人体の器官の3次元形状を示す3次元モデルデータを記憶する記憶部と、
    前記器官の実体モデルを撮影して得られた画像に基づいて、前記実体モデルの形状の変化を検出し、前記3次元モデルデータに基づいて、前記器官の形状を仮想空間内で再現した3次元モデルを生成し、前記実体モデルの形状の変化に応じて前記3次元モデルの形状を変形し、変形後の前記3次元モデルの画像を出力する処理部と、
    を有する可視化装置。
  2. 前記処理部は、前記実体モデルの形状の変化に応じた物理量の値を算出し、変形後の前記3次元モデルの形状変化部分の表示態様を、算出した前記物理量の値に応じて変更する、
    請求項1記載の可視化装置。
  3. 前記処理部は、前記実体モデルの一部に荷重が加えられた場合、前記荷重に伴う前記実体モデルの変形に応じて、前記3次元モデルを変形すると共に、前記荷重による変形箇所に生じる応力を算出し、前記応力を可視化した前記3次元モデルの画像を出力する、
    請求項2記載の可視化装置。
  4. 前記記憶部は、さらに、前記3次元モデルデータを用いた第1の物理量のシミュレーション結果を示す物理量データを記憶し、
    前記処理部は、前記物理量データに基づいて、前記実体モデルの形状の変化に応じた第2の物理量の値を算出する、
    請求項2または3記載の可視化装置。
  5. 前記物理量データは、前記器官内の血液の圧力を示すデータであり、
    前記処理部は、前記実体モデルが切開された場合、前記物理量データに基づいて、切開部から噴出する血液を表す粒子の速度または加速度を算出する、
    請求項4記載の可視化装置。
  6. コンピュータが、
    人体の器官の実体モデルを撮影して得られた画像に基づいて、前記実体モデルの形状の変化を検出し、
    前記器官の3次元形状を示す3次元モデルデータに基づいて、前記器官の形状を仮想空間内で再現した3次元モデルを生成し、
    前記実体モデルの形状の変化に応じて前記3次元モデルの形状を変形し、
    変形後の前記3次元モデルの画像を出力する、
    可視化方法。
  7. コンピュータに、
    人体の器官の実体モデルを撮影して得られた画像に基づいて、前記実体モデルの形状の変化を検出し、
    前記器官の3次元形状を示す3次元モデルデータに基づいて、前記器官の形状を仮想空間内で再現した3次元モデルを生成し、
    前記実体モデルの形状の変化に応じて前記3次元モデルの形状を変形し、
    変形後の前記3次元モデルの画像を出力する、
    処理を実行させる可視化プログラム。
JP2018124684A 2018-06-29 2018-06-29 可視化装置、可視化方法、および可視化プログラム Pending JP2020000649A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018124684A JP2020000649A (ja) 2018-06-29 2018-06-29 可視化装置、可視化方法、および可視化プログラム
US16/442,681 US11341664B2 (en) 2018-06-29 2019-06-17 Apparatus and method for visualization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124684A JP2020000649A (ja) 2018-06-29 2018-06-29 可視化装置、可視化方法、および可視化プログラム

Publications (1)

Publication Number Publication Date
JP2020000649A true JP2020000649A (ja) 2020-01-09

Family

ID=69008280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124684A Pending JP2020000649A (ja) 2018-06-29 2018-06-29 可視化装置、可視化方法、および可視化プログラム

Country Status (2)

Country Link
US (1) US11341664B2 (ja)
JP (1) JP2020000649A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7058425B1 (ja) 2020-10-22 2022-04-22 エヌ・ティ・ティ・ビズリンク株式会社 シミュレーション装置、シミュレーション方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834413B2 (en) * 2018-08-24 2020-11-10 Disney Enterprises, Inc. Fast and accurate block matching for computer generated content
CN111904404B (zh) * 2020-08-06 2021-06-18 苏州国科医工科技发展(集团)有限公司 含闭环监测的基于耳迷走神经刺激的血压调控设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100178644A1 (en) * 2009-01-15 2010-07-15 Simquest Llc Interactive simulation of biological tissue
WO2016002054A1 (ja) * 2014-07-03 2016-01-07 富士通株式会社 生体シミュレーション装置、生体シミュレーション装置の制御方法、および生体シミュレーション装置の制御プログラム
JP2016181205A (ja) * 2015-03-25 2016-10-13 富士フイルム株式会社 3次元データ処理システム、方法、及びプログラム並びに3次元モデル、並びに3次元モデル造形装置
US20170294050A1 (en) * 2016-04-12 2017-10-12 Siemens Healthcare Gmbh Method and representation system for the multisensory representation of an object
US20180140362A1 (en) * 2015-04-07 2018-05-24 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108266B2 (en) * 2012-09-27 2018-10-23 The Board Of Trustees Of The University Of Illinois Haptic augmented and virtual reality system for simulation of surgical procedures
JP6548110B2 (ja) 2015-03-11 2019-07-24 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100178644A1 (en) * 2009-01-15 2010-07-15 Simquest Llc Interactive simulation of biological tissue
WO2016002054A1 (ja) * 2014-07-03 2016-01-07 富士通株式会社 生体シミュレーション装置、生体シミュレーション装置の制御方法、および生体シミュレーション装置の制御プログラム
JP2016181205A (ja) * 2015-03-25 2016-10-13 富士フイルム株式会社 3次元データ処理システム、方法、及びプログラム並びに3次元モデル、並びに3次元モデル造形装置
US20180140362A1 (en) * 2015-04-07 2018-05-24 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
US20170294050A1 (en) * 2016-04-12 2017-10-12 Siemens Healthcare Gmbh Method and representation system for the multisensory representation of an object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7058425B1 (ja) 2020-10-22 2022-04-22 エヌ・ティ・ティ・ビズリンク株式会社 シミュレーション装置、シミュレーション方法及びプログラム
JP2022068497A (ja) * 2020-10-22 2022-05-10 エヌ・ティ・ティ・ビズリンク株式会社 シミュレーション装置、シミュレーション方法及びプログラム

Also Published As

Publication number Publication date
US11341664B2 (en) 2022-05-24
US20200005475A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP6883177B2 (ja) 解剖学的アイテムのコンピュータによる視覚化
JP7186913B2 (ja) 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
US10331222B2 (en) Gesture recognition techniques
US11341664B2 (en) Apparatus and method for visualization
WO2014151618A1 (en) Visual rendering engine for virtual reality surgical training simulator
KR101021595B1 (ko) 햅틱 인터페이스를 이용한 임플랜트 시뮬레이션 시스템
Pan et al. Graphic and haptic simulation system for virtual laparoscopic rectum surgery
TW201013595A (en) A haptic response simulation method and system for real-time haptic and imaging responses
US20120038639A1 (en) Presentation-enhanced solid mechanical simulation
JP5513973B2 (ja) 仮想力覚提示装置及び仮想力覚提示プログラム
Chang et al. Development scheme of haptic-based system for interactive deformable simulation
JP2008292534A (ja) 手術切断運動模擬方法とその装置及び模擬手術接触判定方法とその装置並びに手術切断運動模擬用のデータベース構造
KR101903996B1 (ko) 의료 영상 시뮬레이션 방법 및 그 방법을 이용한 장치
Chan et al. Deformable haptic rendering for volumetric medical image data
Palmerius et al. Haptic rendering of dynamic volumetric data
KR101208191B1 (ko) 컴퓨터 기반 가상 의료 훈련 환경에서 절개 처치를 시뮬레이션하기 위한 방법 및 장치 및 컴퓨터로 읽을 수 있는 기록 매체
Mahdikhanlou et al. Object manipulation and deformation using hand gestures
Rechowicz et al. Simulation of the critical steps of the Nuss procedure
JP7343751B2 (ja) 部位指定装置、部位指定方法、および部位指定プログラム
US20220366096A1 (en) Program, design aid apparatus and design aid method
Otaduy et al. Interaction: interfaces, algorithms, and applications
JP7044297B2 (ja) 興奮伝播可視化装置、興奮伝播可視化方法、および興奮伝播可視化プログラム
JP7411182B2 (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、及び手術支援システム
Magnoux et al. Dynamic Cutting of a Meshless Model for Interactive Surgery Simulation
Goffeng Tangible input technology and camera-based tracking for interactions in virtual environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210324

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230207