JP7439602B2 - 可視化装置、可視化方法、およびプログラム - Google Patents

可視化装置、可視化方法、およびプログラム Download PDF

Info

Publication number
JP7439602B2
JP7439602B2 JP2020050919A JP2020050919A JP7439602B2 JP 7439602 B2 JP7439602 B2 JP 7439602B2 JP 2020050919 A JP2020050919 A JP 2020050919A JP 2020050919 A JP2020050919 A JP 2020050919A JP 7439602 B2 JP7439602 B2 JP 7439602B2
Authority
JP
Japan
Prior art keywords
patient
posture
affected area
information
visualization device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020050919A
Other languages
English (en)
Other versions
JP2021146042A (ja
Inventor
哲郎 森本
隆之 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020050919A priority Critical patent/JP7439602B2/ja
Publication of JP2021146042A publication Critical patent/JP2021146042A/ja
Application granted granted Critical
Publication of JP7439602B2 publication Critical patent/JP7439602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、可視化装置、可視化方法、およびプログラムに関する。
近年、医療分野において内視鏡やロボットを用いた腹腔鏡手術(「低侵襲外科手術」ともいう)が行われている。腹腔鏡手術では、モニターに患部や鉗子等が表示されるものの、視認可能な領域が狭いため、手術や療法を行う術者には解剖学的な知見や、経験による難しい判断などが必要とされる。関連する技術として、鉗子等の操作ツールの位置を表す画像を表示し、当該画像に操作ツールの移動の限界を表す画像を重ね合わせて表示することなどが行われている(例えば、下記特許文献1参照)。
また、センシング技術やデジタル化技術の向上により、MRI(Magnetic Resonance Imaging)やCT(Computed Tomography)によって計測された患部(人体情報)を解析し、診断に役立てることなども行われている。
特開2017-176848号公報
しかしながら、従来技術では、モニター内の視認可能な領域が狭いため、手術に関する作業を効率的に行えないことがある、という課題があった。
本発明は、このような事情に鑑みてなされたもので、その目的は、手術に関する作業効率の向上を図ることができる、可視化装置、可視化方法、およびプログラムを提供することにある。
本発明の可視化装置は、患者の姿勢を示す姿勢情報を取得する姿勢情報取得部と、前記患者の患部と、手術支援ロボットが有するアームの先端に設けられる操作ツールとの相対位置を示す相対位置情報を取得する相対位置情報取得部と、キャリブレーション時の前記患者の姿勢を示す基準姿勢における前記患者の外形と前記患部との配置を示す配置情報と、前記姿勢情報取得部によって取得された前記姿勢情報と、前記相対位置情報取得部によって取得された前記相対位置情報と、に基づいて、前記患部および前記操作ツールの仮想画像を表示部に表示させる制御部と、を備え、前記姿勢情報は、手術台に設けられた手術台マーカーの位置と、前記患者の体に付される非伸縮性のシートに設けられた人体マーカーの位置とに基づく情報である、可視化装置である。
本発明の可視化方法は、姿勢情報取得部が、患者の姿勢を示す姿勢情報を取得し、相対位置情報取得部が、前記患者の患部と、手術支援ロボットが有するアームの先端に設けられる操作ツールとの相対位置を示す相対位置情報を取得し、制御部が、キャリブレーション時の前記患者の姿勢を示す基準姿勢における前記患者の外形と前記患部との配置を示す配置情報と、前記姿勢情報取得部によって取得された姿勢情報と、前記相対位置情報取得部によって取得された前記相対位置情報と、に基づいて、前記患部および前記操作ツールの仮想画像を表示部に表示させ、前記姿勢情報は、手術台に設けられた手術台マーカーの位置と、前記患者の体に付される非伸縮性のシートに設けられた人体マーカーの位置とに基づく情報である、可視化方法である。
本発明のプログラムは、コンピュータを、患者の姿勢を示す姿勢情報を取得する姿勢情報取得手段、前記患者の患部と、手術支援ロボットが有するアームの先端に設けられる操作ツールとの相対位置を示す相対位置情報を取得する相対位置情報取得手段、キャリブレーション時の前記患者の姿勢を示す基準姿勢における前記患者の外形と前記患部との配置を示す配置情報と、前記姿勢情報取得手段によって取得された前記姿勢情報と、前記相対位置情報取得手段によって取得された前記相対位置情報と、に基づいて、前記患部および前記操作ツールの仮想画像を表示部に表示させる制御手段、として機能させ、前記姿勢情報は、手術台に設けられた手術台マーカーの位置と、前記患者の体に付される非伸縮性のシートに設けられた人体マーカーの位置とに基づく情報である、プログラムである。
本発明によれば、手術に関する作業効率の向上を図ることができる。
可視化システムStの構成の一例を示す説明図である。 可視化装置150のハードウェア構成の一例を示す説明図である。 可視化システムStにおける手術の工程の一例を示す説明図である。 手術支援ロボット100と手術台130とに付されるマーカーの配置例を示す説明図である。 人体に付される人体マーカーの配置例を示す説明図である。 アームマーカー402、手術台マーカー411および人体マーカー501の拡大図である。 人体(患者500)と、手術台130および手術支援ロボット100とのキャリブレーションの一例を示す説明図である。 人体と患部とのキャリブレーションの一例を示す説明図である。 術前準備の工程を示す説明図である。 キャリブレーションを行う際の手順を示す説明図である。 撮像結果が示す格子線600の変化の一例を示す説明図である。 患者500の姿勢に応じて変化する患者内部の仮想画像の一例を示す説明図である。 マスター装置110のモニター112に表示される画面の一例を示す説明図である。 ディスプレイ151に表示される、鉗子400および患部810の仮想画像の一例を示す説明図である。 仮想画像の視点の切り替えを示す説明図である。 鉗子400と患部810との距離に応じた報知の一例を示す説明図である。 可視化装置150が行う仮想画像の表示処理の一例を示すフローチャートである。 仮想画像のGUIの一例を示す説明図である。 メモリ204に保存した再生用仮想画像を再生させる処理の一例を示すフローチャートである。 手術台マーカーの他の一例を示す説明図である。
以下、実施形態の可視化装置、可視化方法、およびプログラムを、図面を参照しながら説明する。
図1は、可視化システムStの構成の一例を示す説明図である。図1に示す可視化システムStは、病院等の医療機関の手術室に配置され、内視鏡やロボットを用いた腹腔鏡手術(「低侵襲外科手術」ともいう)に用いられる手術用のシステムである。腹腔鏡手術は、手術時の患者へのダメージの低減化を図ることができる手術である。近年では、手術支援ロボット100を用いた腹腔鏡手術が増加している。
ここで、この腹腔鏡手術に対して、従来から、開腹手術が行われている。開腹手術では、腹部を20~30cm切開し、術者が腹部に直接手を入れて手術が行われる。このため、開腹手術では、傷跡が大きくなり、痛みも多く、回復も遅いため、入院期間が長くなる傾向にある。
一方で、腹腔鏡手術では、腹部に5~12mmの穴を数カ所開け、手術支援ロボット100のアーム121の先端に、はさみ、電気メス、ピンセットなどが付いた棒状の特殊な操作ツール(例えば鉗子)が腹部に挿入される。そして、モニター112に映し出された患部(胃、大腸、胆嚢、前立腺などの臓器や、周囲のリンパ節)の切除が行われる。
腹腔鏡手術では、傷跡が小さく、痛みも少なく、回復も早いため、早期の退院が可能になる。また、腹腔鏡手術では、内視鏡を用いて、患部を拡大して見ることができるため、細かな組織の違いなどを見分けながら手術することも可能である。このため、腹腔鏡手術では、緻密な作業を安全に行うことが可能である。このような背景から、近年では、開腹手術からロボットによる腹腔鏡手術への置き換えが急速に進んでいる。
腹腔鏡手術では、術者は、モニター112に映し出された画面を見ながら操作を行う。モニター112に映し出される画像は視野が狭いことから、術者には解剖学的な知見や、経験による難しい判断などが必要とされる。
そこで、本実施形態では、鉗子や患部の3次元の仮想画像(以下、単に「仮想画像」という場合がある。)を生成して、ディスプレイ151に表示する。これにより、術者(医師)と、術者をサポートする看護師とを含む医療スタッフに、操作ツールや患部の位置を的確に通知することを可能にする。以下、本実施形態の可視化システムStについて詳細に説明する。
図1に示すように、可視化システムStは、手術支援ロボット100と、手術台130と、カメラ140と、可視化装置150とを備える。手術支援ロボット100は、マスター装置110と、スレーブ装置120とを備える。マスター装置110は、術者(医師)が操作する装置である。マスター装置110は、操作部111と、モニター112とを備える。操作部111は、術者から操作を受け付ける。モニター112は、アーム121に設けられた内視鏡の撮像結果(鉗子や患部)を表示する。モニター112は、術者のみが閲覧可能な表示部である。術中において、術者は、ほぼモニター112を閲覧して、手術を行う。
スレーブ装置120は、複数(例えば3つ)のアーム121を備える。複数のアーム121の先端には、内視鏡や鉗子が取り付けられている。アーム121は、操作部111が受け付けた操作に応じた動作を行う。例えば、操作部111が内視鏡の位置や鉗子の位置を移動させるための操作を受け付けると、アーム121は、当該操作に応じた動作を行う。このため、操作部111が受け付けた操作に応じて、アーム121が患部を切除したり、縫合したりする。
手術台130は、手術中に患者が乗る寝台である。手術台130は、前後左右に傾動可能である。このため、手術台130は、例えば、患者の頭部側と足元側との高さを相違させたり、患者が仰向きになった状態で右側と左側との高さを相違させたりすることが可能である。
ここで、詳細については、図4~図7を用いて後述するが、手術台130には、手術台の位置を検出可能なマーカー(以下「手術台マーカー」という)が設けられている。また、アーム121には、アーム121の位置が検出可能なマーカー(以下「アームマーカー」という)が設けられている。また、手術台130に乗る患者には、患者の姿勢を検出可能なマーカー(以下「人体マーカー」という)が設けられている。人体マーカーは、患者の体に付される非変形シートに設けられている。
カメラ140は、各マーカーを撮像する。カメラ140は、撮像結果を可視化装置150へ出力する。
ディスプレイ151は、モニター112よりも表示面積の大きい表示部である。また、ディスプレイ151は、術者以外の医療スタッフも閲覧可能な表示部である。ディスプレイ151は、複数配置されていてもよい。
可視化装置150は、MRI(Magnetic Resonance Imaging)やCT(Computed Tomography)などの断層画像から得られる患部の仮想画像をディスプレイ151に表示する。可視化装置150は、鉗子の仮想画像を生成し、生成した仮想画像を患部の仮想画像とともにディスプレイ151に表示する。
次に、図2を用いて、可視化装置150のハードウェア構成について説明する。
図2は、可視化装置150のハードウェア構成の一例を示す説明図である。図2に示すように、可視化装置150は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、メモリ204と、通信部205と、入力デバイス206と、出力デバイス207とを備える、これらは、バス220を介して相互に接続されている。
CPU201は、中央演算処理装置であり、ROM202に記憶されているプログラムを読み出して実行することにより、可視化装置150の動作を制御する。
ROM202は、読み出し専用メモリであり、プログラムをはじめとしてCPU201が利用する各種の情報を記憶する。
RAM203は、読み出し書き込みメモリであり、種々の情報を記憶する。例えば、RAM203は、ROM202やメモリ204から読みだした情報や、外部から取得した情報や、処理において生成した情報等を記憶する。
メモリ204は、種々の情報を記憶する。メモリ204は、例えば、ディスプレイ151に表示された鉗子や患部の仮想画像(動画)を記憶する。メモリ204は、ROM202に代えて、CPU201が実行するプログラム等を記憶してもよい。また、メモリ204は、RAM203に代えて、ROM202から読み出した情報や、外部から取得した情報や、処理において生成した情報等を記憶してもよい。
通信部205は、通信回線を通じてネットワークに接続され、ネットワークを介して、他の装置(例えば、手術支援ロボット100やカメラ140)に接続される。通信部205は、ネットワークと内部のインターフェースを司り、他の装置からのデータの入出力を制御する。なお、ネットワークは、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。
入力デバイス206は、文字、数字、各種指示などのデータの入力を行う。入力デバイス206は、例えば、キーボードやマウスなどである。また、入力デバイス206は、音声を入力するマイクや、ユーザの操作によって文字、数字、各種指示などを入力するタッチパネルを含んでもよい。
出力デバイス207は、画像を表示するディスプレイ151を含む。また、出力デバイス207は、音声を出力するスピーカや、シートに画像等を印刷するプリンター装置などを含んでもよい。
次に、図3を用いて、可視化システムStにおける手術の工程について説明する。
図3は、可視化システムStにおける手術の工程の一例を示す説明図である。図3では、手術支援ロボットの手術フロー300と、可視化装置の(VR(Virtual Reality)ナビゲーター)の操作フロー320とを示す。VRナビゲーターは、可視化装置150がROM202に記憶されている所定のプログラムを実行することによって起動するソフトウェアである。図3においては、前立腺を全摘出する手術を例に挙げて説明する。
まず、手術支援ロボット100の操作開始前における準備として、手術支援ロボット100の手術フロー300のステップS301~S306について説明する。手術支援ロボット100の手術フロー300において、まず、患者は、全身麻酔される(ステップS301)。そして、患者の腹部に、5~20mmの穴が6カ所開けられる(ステップS302)。次に、当該穴から、鉗子や内視鏡を入れるためのポートが挿入される(ステップS303)。
そして、腹部に炭酸ガスを注入して腹部を膨らませて腹腔内に空間を作る気腹を行う(ステップS304)。さらに、頭側が低くなるように手術台130を20~30度傾ける(ステップS305)。そして、ポートに、手術支援ロボット100のアーム121をドッキングする(ステップS306)。
次に、可視化装置150の準備として、可視化装置150のVRナビゲーターの操作フロー320のステップS321~S326について説明する。VRナビゲーターの操作フロー320において、まず、医療スタッフによる事前作業として、仮想画像における使用部位の選択や、状況の事前準備(シーンプリセット)などを行う(ステップS321)。そして、可視化装置150は、VRナビゲーターを起動する(ステップS322)。
次に、可視化装置150は、手術メタデータの読み込みを行う(ステップS323)。手術メタデータは、患部の仮想画像を表示させるためのデータを含む。具体的には、手術メタデータは、例えば、以下(1)~(4)のデータを含む。
(1)DICOM(Digital Imaging and Communications in Medicine)データ:具体的には、患者の個人情報、検査番号、撮影情報、CT画像やMRI画像などを含むデータある。DICOMとは、CTやMRIなどの医療用画像のフォーマットと、これらを扱う医療用画像機器との間の通信プロトコルの標準規格である。
(2)人体および患部の3次元画像データ:具体的には、DICOMデータに含まれるCT画像やMRI画像などの断層画像を用いて描出された人体および患部のボリュームデータや、人体および患部のポリゴンデータなどを含むデータである。
(3)ビジュアル設定データ:具体的には、患部の位置合わせや患部の視点設定などが行われたデータである。
(4)復元データ:DICOMデータに含まれる患者の個人情報を復元したデータである。
手術メタデータを読み込むと、次に、可視化装置150は、手術台130と、手術支援ロボット100とのキャリブレーションを行う(ステップS324)。手術台130と、手術支援ロボット100とのキャリブレーションの詳細については、図4を用いて後述する。
そして、可視化装置150は、人体(患者)と、手術台130および手術支援ロボット100とのキャリブレーションを行う(ステップS325)。人体(患者)と、手術台130および手術支援ロボット100とのキャリブレーションの詳細については、図7を用いて後述する。
次に、可視化装置150は、3次元画像データにおける患部と人体(患者)とのキャリブレーションを行う(ステップS326)。3次元画像データにおける患部と人体とのキャリブレーションには、例えば、公知のICP(Iterative Closest Point)アルゴリズムが用いられる。なお、ステップS325のキャリブレーションは、ステップS326のキャリブレーションよりも後に行ってもよい。患部と人体とのキャリブレーションの詳細については、図8を用いて後述する。
以上により、手術支援ロボット100の操作開始前における準備を終える。
この後、手術支援ロボット100の手術フロー300に示すように、手術の開始となる(ステップS307)。そして、内視鏡や手術用鉗子などを体内に挿入される(ステップS308)。次に、スレーブ装置120(鉗子)は、術者による操作部111の操作に応じて、前立腺と膀胱との間を離断する(ステップS309)。そして、スレーブ装置120(鉗子)は、操作部111の操作に応じて、前立腺と直腸との間を剥がし、勃起神経を温存して、最後に尿道を切断する(ステップS310)。
そして、病状によっては、操作部111の操作に応じてスレーブ装置120(鉗子)は、操作部111の操作に応じて、骨盤内のリンパ節を摘出するリンパ節郭清を行う(ステップS311)。次に、スレーブ装置120(鉗子)は、後に、穴の一つから体外に前立腺を回収するために、操作部111の操作に応じて、体内でビニール袋に前立腺を収容させる(ステップS312)。そして、スレーブ装置120(鉗子)は、操作部111の操作に応じて、膀胱と尿道との吻合(血管や神経などが互いに連絡をもつようにすること)を行い、尿道カテーテルを挿入する(ステップS313)。
さらに、スレーブ装置120(鉗子)は、操作部111の操作に応じて、体内に溜まる血液や体液を外に出したり、術後の出血の具合を観察したりするためのドレーン(管)を体内に留置する(ステップS314)。そして、全ての穴を閉じて(ステップS315)、手術が完了する(ステップS316)。
一方で、可視化装置150は、手術支援ロボット100による手術が開始されると、手術部位の全体を確認できる仮想画像(標本データ)をディスプレイ151に表示する(ステップS327)。そして、操作部111の操作に応じて鉗子が体内に挿入されると、可視化装置150は、仮想画像の録画をスタートする(ステップS328)。仮想画像の録画において、可視化装置150は、メモリ204に仮想画像の画像データを記憶する。
そして、手術支援ロボット100において、前立腺と膀胱との間が離断されると、可視化装置150は、MRIデータを参照し、立腺と膀胱との間の離断位置を確認し、確認した内容に応じた仮想画像を表示する(ステップS329)。そして、手術支援ロボット100において、前立腺と直腸の間が剥がされて尿道が切断されると、可視化装置150は、MRIデータを参照し、前立腺と直腸間との位置を確認するとともに、尿道の位置を確認し、確認した内容に応じた仮想画像を表示する(ステップS330)。また、手術支援ロボット100において、骨盤内のリンパ節郭清が行われると、可視化装置150は、MRIデータを参照し、骨盤内のリンパ節の位置を確認し、確認した内容に応じた画像を表示する(ステップS331)。
また、手術支援ロボット100において、体内でビニール袋に前立腺が収容されると、可視化装置150は、MRIデータを参照し、前立腺の収容状況を確認し、確認した内容に応じた画像を表示する(ステップS332)。また、手術支援ロボット100において、膀胱と尿道が吻合され、尿道カテーテルが挿入されると、可視化装置150は、MRIデータを参照し、膀胱と尿道との位置を確認し、確認した内容に応じた画像を表示する(ステップS333)。
そして、手術支援ロボット100において、ドレーンが体内に留置されると、可視化装置150は、MRIデータを参照し、ドレーン位置を確認し、確認した内容に応じた画像を表示する(ステップS334)。次に、手術支援ロボット100において、全ての穴が閉じられると、可視化装置150は、録画を終了する(ステップS335)。そして、手術支援ロボット100において、手術が完了すると、可視化装置150は、VRナビゲーターを終了する(ステップS336)。
次に、図4を用いて、手術支援ロボット100と、手術台130とのキャリブレーション(位置合わせ)について説明する。まず、可視化装置150が予め記憶している情報について説明する。可視化装置150は、手術台130に関する位置情報や、手術支援ロボット100に関する位置情報を記憶する。手術台130に関する位置情報は、手術台130の寸法、形状などを含む情報。手術支援ロボット100に関する位置情報は、手術台130に対する手術支援ロボット100の形状、距離、角度を含む情報である。また、手術支援ロボット100に関する位置情報は、アーム121の形状、長さ、関節の角度などを含む情報である。
図4は、手術支援ロボット100と手術台130とに付されるマーカーの配置例を示す説明図である。詳細については図6を用いて後述するが、各マーカーには、位置を特定するためのマークや格子線が形成されている。図4に示すように、アーム121は、3つのアーム121a~121cを含む。アーム121aおよびアーム121bには、鉗子400が取り付けられており、また、アームマーカー402が付されている。アーム121cには、内視鏡401が取り付けられており、また、アームマーカー402が付されている。
手術台130には、複数(図示では4つ)の手術台マーカー411が付されている。手術台130は、患者が乗ったとしても、撓まないものと仮定し、すなわち、変形しないものとする。このため、手術台マーカー411についても、変形はないものとする。また、手術台マーカー411は、手術台130の隅など、患者が乗らない部位に付されているものとする。なお、手術台130は、頭部側が20~30度低くなるように傾いているものとする。
また、手術台130の面に対して高さ方向(天井の方向)には、カメラ140が固定して配置されている。カメラ140は、アームマーカー402および手術台マーカー411を撮像する。カメラ140は、アームマーカー402および手術台マーカー411の格子線や位置を特定するためのマーク(図6のポジション特定マーク601)を撮像する。カメラ140は、アームマーカー402および手術台マーカー411を撮像すると、撮像結果を可視化装置150へ出力する。
可視化装置150は、カメラ140から出力された撮像結果を用いて、キャリブレーションを行う。具体的には、このキャリブレーションは、例えば、手術台マーカー411と、アームマーカー402との相対的な位置関係を示す初期位置(以下「アーム初期位置」という。)を確定させることである。より具体的には、このキャリブレーションは、アーム初期位置として、アームマーカー402に設けられる各マークと、手術台マーカー411に設けられる各マークとを対応付け、また、各格子線の間隔を記憶しておくことである。
可視化装置150は、アーム初期位置が確定すると、その後に、アーム121が変位した場合に、アーム初期位置を基準にすることにより、アーム121がどの位置に変位したかを推定することが可能になる。具体的には、可視化装置150は、カメラ140から逐次出力される手術台マーカー411およびアームマーカー402の検出結果を用いて、アーム初期位置を基準にして、術中に変化するアーム121a~121cの位置を推定することが可能である。
なお、本実施形態において、手術台130(手術台マーカー411)は、変位しない。このため、アーム初期位置は、手術台130を基準にして確定される初期位置である。なお、手術台130が変位する構成としてもよく、この場合、可視化装置150は、手術台130の変位量を考慮して、アーム121の変位を推定すればよい。
また、可視化装置150は、手術支援ロボット100から、アーム121および鉗子400の位置や動きなどの動作を示す操作情報を受信する。操作情報は、鉗子400の座標、形状、関節の角度などの情報を含む。可視化装置150は、操作情報を用いて、術中に変化するアーム121a~121cの位置を特定することが可能である。
次に、図5を用いて、人体(患者500)に付される人体マーカーの配置例について説明する。
図5は、人体に付される人体マーカーの配置例を示す説明図である。図5に示すように、患者500の人体表面には、人体マーカー501(501a~501d)が付されている。人体マーカー501は、非伸縮性のシート状に形成されたマーカーであり、表面に格子線を有する。人体マーカー501は、患者500の姿勢に追従するものの、伸縮しないシートから成る。人体マーカー501は、人体側の面に粘着剤が付されており、人体表面に密着して付されている。
胸部人体マーカー501aは、胸部に付されている。腹部人体マーカー501bは、腹部に付されており、具体的には、手術部位の周辺の付されている。また、腹部人体マーカー501bには、ポートを挿入するための開口部510が設けられている。右膝部人体マーカー501cは、右膝部に付されている。左膝部人体マーカー501dは、左膝部に付されている。
次に、図6を用いて、各マーカー(アームマーカー402、手術台マーカー411および人体マーカー501)の一例について説明する。
図6は、アームマーカー402、手術台マーカー411および人体マーカー501の拡大図である。なお、以下では、人体マーカー501を例に挙げて説明するが、他のマーカーについても同様の構成である。図6に示すように、人体マーカー501は、格子線600と、ポジション特定マーク601(601a~601d)とを有する。
ポジション特定マーク601は、自身を識別するための識別領域610を有する。識別領域610は、内側の円を示す内側識別領域611と、外側の円を示す外側識別領域612とによって形成される。内側識別領域611は、4等分された4つのマーキング領域を有する。外側識別領域612は、4等分された4つのマーキング領域を有する。各マーキング領域は、マークを付した表示態様と、マークを付さない表示態様とをとり得る。このため、内側識別領域611および外側識別領域612は、それぞれ、16(2の4乗)通りの表示態様をとり得る。したがって、ポジション特定マーク601は、内側識別領域611が有する16通りの表示態様と、外側識別領域612が有する16通りの表示態様とにより、256(16×16:2の8乗)通りの表示態様をとり得る。
なお、内側識別領域611および外側識別領域612の各マーキング領域の表示態様は、マークの有無といった2種類の表示態様に限らず、例えば、マークの模様や色を変えることにより、3種類以上(n種類)の表示態様とすることも可能である。また、内側識別領域611および外側識別領域612のマーキング領域の数は、それぞれ4つに限らず、それぞれ5つ以上(m種類)とすることも可能である。このようにすることにより、ポジション特定マーク601がとり得る表示態様を増加させることが可能である。
図6に示す各ポジション特定マーク601について、具体的に説明する。ポジション特定マーク601aは、内側識別領域611のうち右下のマーキング領域にマークが付され、外側識別領域612にマークが付されていない表示態様である。ポジション特定マーク601bは、内側識別領域611のうち左下のマーキング領域にマークが付され、また、外側識別領域612のうち右上のマーキング領域にマークが付された表示態様である。ポジション特定マーク601cは、内側識別領域611のうち左上のマーキング領域にマークが付され、外側識別領域612のうち左上のマーキング領域にマークが付された表示態様である。ポジション特定マーク601dは、内側識別領域611にマークが付されておらず、外側識別領域612のうち右下のマーキング領域と左下のマーキング領域とにマークが付された表示態様である。
カメラ140は、ポジション特定マーク601と格子線600とを撮像する。可視化装置150は、カメラ140の撮像結果を用いて、ポジション特定マーク601の位置や格子線の間隔を解析する。これにより、可視化装置150は、患者500の人体表面の変位や、アーム121の変位を推定することが可能である。なお、ポジション特定マーク601の大きさは、カメラ140によって撮像可能な範囲内の大きさであればよい。
次に、図7を用いて、人体(患者500)と、手術台130および手術支援ロボット100とのキャリブレーションについて説明する。
図7は、人体(患者500)と、手術台130および手術支援ロボット100とのキャリブレーションの一例を示す説明図である。図7に示すように、手術台130には、患者500が乗っている。手術台130は、頭部側が20~30度低くなるように傾いている。患者500は、基準姿勢で寝ている。この状態で、カメラ140aは、人体マーカー501を撮像する。カメラ140aは、人体マーカー501を撮像すると、撮像結果を可視化装置150へ出力する。
可視化装置150は、カメラ140aから出力された人体マーカー501の撮像結果を用いて、キャリブレーションを行う。具体的には、このキャリブレーションは、例えば、手術台マーカー411と、人体マーカー501との相対的な位置関係を示す初期位置(以下「患者初期位置」という。)を確定させることである。より具体的には、このキャリブレーションは、患者初期位置として、人体マーカー501に設けられる各マークと、手術台マーカー411に設けられる各マークとを対応付け、また、各格子線の間隔を記憶しておくことである。
可視化装置150は、患者初期位置が確定すると、その後に、患者500の人体表面が変位した場合に、患者初期位置を基準にすることにより、患者500がどのような姿勢になったかを推定することが可能になる。また、可視化装置150は、手術台マーカー411および人体マーカー501の相対的な位置関係と、患者500の姿勢とを対応付けた姿勢特定情報を記憶する。可視化装置は、姿勢特定情報を参照することにより、手術台マーカー411と人体マーカー501との相対的な位置関係から患者の姿勢を推定することが可能である。
なお、本実施形態において、手術台130(手術台マーカー411)は、変位しない。このため、患者初期位置は、手術台130を基準にして確定される初期位置である。なお、手術台130が変位する構成としてもよく、この場合、可視化装置150は、手術台130の変位量を考慮して、患者500の姿勢を推定すればよい。
次に、図8を用いて、人体(患者500)と患部とのキャリブレーションについて説明する。図8は、人体と患部とのキャリブレーションの一例を示す説明図である。図8では、説明の便宜上、胴部の断面を示す2次元の画像(例えば、MRI画像)を示している。図8に示すように、MRI画像には、患者500の外形800と、患部810とが表示されている。可視化装置150は、当該2次元の画像から、3次元の画像(ポリゴンデータ)を抽出することが可能である。具体的には、可視化装置150は、人体の3次元の外形データと、患部810の3次元の画像データ(以下「患部画像データ」という。)を抽出する。なお、2次元の画像から、3次元の画像を抽出する技術については、公知技術であるため、説明を省略する。
可視化装置150は、人体の3次元の外形データと、患部画像データとを用いて、キャリブレーションを行う。このキャリブレーションは、基準姿勢における外形データと、患部画像データとを位置合わせすることである。具体的には、キャリブレーションは、例えば、ICPアルゴリズムを用いて、人体の外形データの各部(各頂点)を示すポリゴンデータと、患部画像データの各部(各頂点)を示すポリゴンデータとの各位置を調整しながら、両者を対応付けることである。なお、キャリブレーションは、医療スタッフの確認のもと、医療スタッフの操作を受け付けながら行われる。
患者500と患部810とのキャリブレーションが行われたデータ(以下「配置情報」という)は、メモリ204に記憶される。なお、2次元の画像から、3次元の画像を抽出は、可視化装置150によって行われることに限らず、他の装置によって行われてもよい。この場合、可視化装置150は、3次元画像の情報を他の装置から取得するようにすればよい。
可視化装置150は、人体と患部810とのキャリブレーションが完了すると、その後に、患者500の姿勢が変位したとしても、姿勢に応じた患部810の形状を推定することが可能になる。具体的には、可視化装置150は、配置情報を参照することにより、術中に変化する患者500の姿勢に応じた患部810の形状を推定することが可能である。
次に、図9を用いて、術前準備の工程について説明する。
図9は、術前準備の工程を示す説明図である。図9に示すように、可視化装置150は、VRナビゲーターの起動後に、手術メタデータを読み込む(ステップS901)。そして、医療スタッフは、カメラ140に手術台マーカー411を撮像させる(ステップS902)。さらに、医療スタッフは、カメラ140にアームマーカー402を撮像させる(ステップS903)。可視化装置150は、カメラ140から出力される撮像結果を用いて、手術台130と、手術支援ロボット100との位置合わせ(キャリブレーション)を行う(ステップS904)。
さらに、医療スタッフは、カメラ140aに、手術台の上に乗っている患者500の人体マーカー501を撮像させる(ステップS905)。可視化装置150は、カメラ140aから出力される撮像結果を用いて、手術台130と、患者500との位置合わせ(キャリブレーション)を行う(ステップS906)。
そして、可視化装置150は、人体の外形データが示す、患者500の人体の外部形状のガイドを表示する(ステップS907)。次に、可視化装置150は、患部画像データを用いて、患者500の内部形状(患部810の形状)を推定する(ステップS908)。そして、可視化装置150は、患者500のボリュームおよび患部810のポリゴンの形状を変形させる(ステップS909)。
次に、医療スタッフの操作に応じて、患者500のボリュームと、患部810のポリゴンと、患者500の外部形状のガイドとの位置合わせが行われる(ステップS910)。そして、可視化装置150は、位置合わせされたデータ(配置情報)の表示を行い(ステップS911)、術前準備を完了する。
次に、図10を用いて、術前準備におけるキャリブレーションを行う際の手順について説明する。
図10は、キャリブレーションを行う際の手順を示す説明図である。図10に示すように、医療スタッフは、手術台130に手術台マーカー411を貼付する(ステップS1001)。そして、医療スタッフは、アーム121にアームマーカー402を貼付する(ステップS1002)。
次に、カメラ140は、医療スタッフの操作に応じて、手術台マーカー411を撮像する(ステップS1003)。そして、カメラ140は、医療スタッフの操作に応じて、アームマーカー402を撮像する(ステップS1004)。可視化装置150は、カメラ140の撮像結果を用いて、手術支援ロボット100と、手術台130との位置合わせを行う(ステップS1005)。
次に、医療スタッフは、患者500の人体に人体マーカー501を貼付する(ステップS1006)。そして、カメラ140は、医療スタッフの操作に応じて、手術台130上の患者500に貼付されている人体マーカー501を撮像する(ステップS1007)。そして、可視化装置150は、カメラ140の撮像結果を用いて、患者500と、手術台130および手術支援ロボット100との位置合わせを行う(ステップS1008)。
次に、可視化装置150は、MRIデータを取得する(ステップS1009)。そして、可視化装置150は、患者500の基準姿勢における人体の外形データと、患部810の患部画像データとの位置合わせを行い(ステップS1010)、一連の手順を終了する。
次に、図11を用いて、患者500が姿勢を変えた際に撮像結果が示す格子線600の変化の一例について説明する。
図11は、撮像結果が示す格子線600の変化の一例を示す説明図である。図11において、人体マーカー501の格子線600aは、ある姿勢(例えば、基準姿勢)における撮像結果を示す。人体マーカー501の格子線600bは、例えば、患者500の姿勢が仰向きの姿勢から、別の姿勢になった際の撮像結果を示す。患者500の姿勢が変化すると、撮像結果(人体マーカー501の格子線600の間隔)も変化する。
ここで、可視化装置150は、メモリ204に姿勢特定情報を記憶している。姿勢特定情報は、格子線600の位置および間隔と、姿勢とを対応付けた情報である。具体的には、姿勢特定情報は、手術台130(手術台マーカー411)を基準にして、ポジション特定マーク601に応じた格子線600の間隔と、姿勢とを対応付けた情報である。また、姿勢特定情報は、人体マーカー501が貼付される位置(胸部、腹部および膝部)ごとの情報である。姿勢特定情報は、例えば、各患者500に固有の情報である。例えば、術前に、手術台130(手術台マーカー411)を基準にして、患者500の姿勢(仰向き、横向き等)ごとの各位置の人体マーカー501(格子線600)を撮像しておき、この撮像結果から、姿勢特定情報を得るようにすればよい。
なお、姿勢特定情報に含まれる格子線の間隔は、基準姿勢における格子線600の間隔と、他の姿勢におけるに格子線600の間隔との差分であってもよい。このような姿勢特定情報を用いるようにしても、可視化装置150は、基準姿勢における格子線と、撮像結果から得られる格子線との差分に基づいて、患者500の姿勢を特定することが可能である。
なお、姿勢特定情報は、患者500に固有の情報ではなく、例えば、体型ごとに分類される情報でもよい。言い換えれば、可視化装置150は、体型の姿勢特定情報をメモリ204に記憶しておいてもよい。そして、可視化装置150は、患者500の体型に応じた姿勢特定情報を得るようにしてもよい。この場合、可視化装置150は、MRI画像等を用いて自身の判断で、患者500に近い体型の姿勢特定情報を選択してもよいし、医療スタッフの操作に応じて、患者500に近い体型の姿勢特定情報を選択してもよい。
可視化装置150は、カメラ140によって撮像されたポジション特定マーク601の位置および格子線600の間隔と、姿勢特定情報が示すポジション特定マーク601に応じた格子線の間隔とを比較することにより、患者500の姿勢を特定することが可能である。
次に、図12を用いて、患者500の姿勢に応じて変化する患者内部の仮想画像の一例について説明する。
図12は、患者500の姿勢に応じて変化する患者内部の仮想画像の一例を示す説明図である。図12に示す患者内部の仮想画像1200(1200a、1200b)は、ディスプレイ151に表示される画像である。図12において、仮想画像1200aは、格子線600a(図11参照)が撮像された際の(例えば、基準姿勢の際の)患者内部の仮想画像を示す。また、仮想画像1200bは、格子線600bが撮像された際の(姿勢が変化した際)の患者内部の仮想画像を示す。図12において各矢印が結ぶ部位は、それぞれ対応するポリゴンデータを示す。
可視化装置150は、格子線600の撮像結果から特定した姿勢に応じて、仮想画像1200を変化させてディスプレイ151に表示する。なお、仮想画像1200a、1200bは、いずれも視点を同じにした画像である。ただし、詳細については後述するが、仮想画像1200a、1200bの視点は、いずれも切り替えて表示することが可能である。
次に、図13を用いて、手術支援ロボット100のマスター装置110が備えるモニター112に表示される画面について説明する。
図13は、マスター装置110のモニター112に表示される画面の一例を示す説明図である。図13に示す画像は、内視鏡401によって撮像された実画像(2次元の画像)である。具体的に説明すると、モニター112には、鉗子400と、患部810とが表示されている。術者は、モニター112に表示される画像を見ながら、操作部111を操作する。
モニター112に表示される画像は、見える方向が一方向であり、また、見える範囲も限られている。このため、モニター112に映っていない部位を、鉗子400で傷つけたとしても、把握できないといった不具合が生じることがある。また、モニター112に表示される画像は、2次元の画像であり、すなわち、立体的な画像ではないため、遠近感を把握できず、鉗子400の操作性が低下することがあるといった不具合が生じることがある。
一方で、本実施形態では、図14に示すように、モニター112とは別に、ディスプレイ151に3次元の仮想画像を表示するため、このような不具合を解消することが可能である。
図14は、ディスプレイ151に表示される、鉗子400および患部810の仮想画像の一例を示す説明図である。図14に示すように、ディスプレイ151には、鉗子画像1400と、患部画像1410と、臓器画像1420とを含む仮想画像が表示されている。鉗子画像1400は、鉗子400を示す3次元の仮想画像である。患部画像1410は、患部810を示す3次元の仮想画像である。臓器画像1420は、患部810以外の他の臓器を示す3次元の仮想画像である。
患部画像1410は、主患部画像1411と、副患部画像1412、1413とを含む。主患部画像1411は、直接の手術の対象となる主患部に対応する部位の仮想画像である。副患部画像1412、1413は、主患部との関連性の高い部位であり、例えば、鉗子400の接触等に注意を払わなければならない部位である。主患部画像1411および副患部画像1412、1413は、それぞれ、臓器画像1420とは異なる表示態様で表示されている。
例えば、主患部画像1411の表示態様は、他の画像の表示態様に比べて、最も把握しやすい表示態様である。具体的には、主患部画像1411の表示態様は、最も注意を惹く表示態様や、目立つ表示態様や、見やすい表示態様であればよい。また、臓器画像1420の表示態様は、他の画像の表示態様に比べて、最も注意を惹かない表示態様や、目立たない表示態様や、見にくい表示態様であればよい。また、副患部画像1412、1413は、臓器画像1420の表示態様に比べて、注意を惹く表示態様や、目立つ表示態様や、見やすい表示態様であればよい。
ディスプレイ151に表示される各仮想画像は、モニター112に表示される画像に比べて、見える範囲が広い。具体的には、ディスプレイ151には、モニター112では表示されない部位についても、仮想画像として表示される。また、術者は、術中にモニター112から目を外して、ディスプレイ151を閲覧することも可能である。
このため、術者が副患部や他の臓器を鉗子400で傷つけてしまうようなことを抑えることができる。例えば、看護師また、ディスプレイ151に表示される仮想画像は、3次元の画像であるため、医療スタッフは遠近感を把握することができ、鉗子400の操作性を向上させることができる。また、術者以外の医療スタッフも、手術の進行を把握することができる。
次に、図15を用いて、仮想画像の視点の切り替えについて説明する。
図15は、仮想画像の視点の切り替えを示す説明図である。図15(A)は、視点を切り替える前の画像である。医療スタッフが可視化装置150の入力デバイス206を操作して、視点の切り替え操作を行うと、仮想画像の視点が切り替わる。なお、詳細については図18を用いて後述するが、ディスプレイ151には、視点の切り替えを選択することが可能なグラフィカルインターフェースが表示されている。
図15(B)は、視点を切り替えた後の画像である。本実施形態では、ディスプレイ151に表示される画像は、3次元の画像であり、360°のいずれの角度からも、視点を切り替えることが可能である。また、それぞれの部位を、拡大表示したり、縮小表示したりすることも可能である。
このように、ディスプレイ151に表示される仮想画像は、モニター112に表示される画像とは異なり、どの角度からも表示可能である。このため、副患部や他の臓器を、鉗子400で傷つけてしまうようなことをより抑えることができる。また、鉗子400の操作性をより向上させることができる。
次に、鉗子400と患部810との距離に応じた報知について説明する。可視化装置150は、カメラ140による各種マーカーの撮像結果や、手術支援ロボット100から出力されるアーム121および鉗子400の操作情報を用いることにより、鉗子400と患部810との位置関係を特定することができる。このため、可視化装置150は、図16に示すように、鉗子400と患部810との距離に応じた報知を行うことが可能である。
図16は、鉗子400と患部810との距離に応じた報知の一例を示す説明図である。図16に示すように、可視化装置150は、鉗子400が患部810に近づくと、鉗子画像1400が患部画像1410に近付くように表示する。また、可視化装置150は、アームマーカー402の検出結果や、アーム121および鉗子400の操作情報や、患部810のポリゴンデータ等を用いて、鉗子400と患部810との距離を算出することが可能である。この算出結果を用いて、可視化装置150は、報知画像1600を表示する。報知画像1600は、鉗子400と患部810との距離が所定値以下となった場合に表示される。また、報知画像1600は、鉗子400と患部810との距離を示している。
なお、報知画像1600は、鉗子400と患部810との距離に応じた表示態様であってもよい。例えば、報知画像1600は、鉗子400が患部810に近付くにしたがって、表示領域が大きくする画像としたり、目立つ色の文字画像としたりしてもよい。また、可視化装置150は、鉗子400が患部810に接触すると、当該接触を示す報知を行う。
可視化装置150は、鉗子400が患部810に接触すると、鉗子400と患部810との接触時における患部810の変形量を患部画像1410に反映させる。これについて、具体的に説明する。鉗子400は、エアーコンプレッサーの空気圧を駆動源として動作する。また、鉗子400の根幹部には、空気圧アクチュエーターが設けられている。鉗子400が患部810に接触すると、空気圧アクチュエーターが接触力(反力)を検出する。空気圧アクチュエーターが接触力を検出すると、スレーブ装置120は、当該検出結果(接触力情報)を、マスター装置110を介して可視化装置150へ出力する。
可視化装置150は、マスター装置110から受信した接触力情報が示す接触力を、患部画像1410に反映させて表示することが可能である。具体的には、可視化装置150は、接触力に応じた患部画像1410の変形量を推定し、推定した変形量に応じた画像をディスプレイ151に表示すればよい。例えば、可視化装置150は、接触力が大きいほど、患部画像1410の変形量を大きくした画像を表示すればよい。
なお、同じ接触力でも、臓器に応じて表面の窪み方が異なることが想定される。具体的には、同じ接触力でも、窪みのない面に対して、緩やかに窪む場合と、鋭く窪む場合とがあることが想定される。このため、可視化装置150は、予め臓器ごとに、接触力と窪み方とを対応付けた情報をメモリ204に記憶しておいてもよい。そして、可視化装置150は、当該情報を参照して、臓器ごとに、接触力に応じた窪み方を抽出して、窪み方に応じた仮想画像をディスプレイ151に表示すればよい。
次に、図17を用いて、可視化装置150が行う仮想画像の表示処理について説明する。
図17は、可視化装置150が行う仮想画像の表示処理の一例を示すフローチャートである。図17において、可視化装置150は、全てのキャリブレーションが完了したか否かを判断する(ステップS1701)。全てのキャリブレーションとは、アーム121と手術台130とのキャリブレーション、人体とアーム121および手術台130とのキャリブレーション、人体と患部810とのキャリブレーションである。
可視化装置150は、全てのキャリブレーションが完了するまで待機する(ステップS1701:NO)。可視化装置150は、全てのキャリブレーションが完了すると場合(ステップS1701:YES)、人体マーカー501(図6の格子線600の間隔)の検出結果に変化(図11参照)があるか否かを判断する(ステップS1702)。人体マーカー501の検出結果に変化がない場合(ステップS1702:NO)、可視化装置150は、ステップS1704に進む。人体マーカー501の検出結果に変化がある場合(ステップS1702:YES)、可視化装置150は、当該変化に応じた仮想画像(図14に示した、鉗子画像1400、患部画像1410、臓器画像1420)をディスプレイ151に表示する(ステップS1703)。
そして、可視化装置150は、鉗子400と患部810との距離が所定値以下になったか否かを判断する(ステップS1704)。可視化装置150は、鉗子400と患部810との距離が所定値以下になっていない場合(ステップS1704:NO)、ステップS1706に進む。可視化装置150は、鉗子400と患部810との距離が所定値以下になった場合(ステップS1704:YES)、報知画像1600(図16参照)を表示する(ステップS1705)。
そして、可視化装置150は、鉗子400が患部810に接触したか否かを判断する(ステップS1706)。ステップS1706では、具体的には、鉗子400の根幹部に設けられている空気圧アクチュエーターによる接触力の検出結果を、マスター装置110から受信したか否かを判断する。鉗子400が患部810に接触していない場合(ステップS1706:NO)、可視化装置150は、ステップS1709に進む。鉗子400が患部810に接触した場合(ステップS1706:YES)、可視化装置150は、患部810の変形量を推定する(ステップS1707)。
そして、可視化装置150は、接触力に応じて、仮想画像(患部画像1410)を変形させて表示する(ステップS1708)。次に、可視化装置150は、入力デバイス206(図18のグラフィカルインターフェース)が表示の変更の指示を受け付けたか否かを判断する(ステップS1709)。表示の変更の指示は、視点切り替えの指示や、拡大縮小の指示などである。表示の変更を受け付けない場合(ステップS1709:NO)、可視化装置150は、ステップS1711に進む。一方、表示の変更を受け付けた場合(ステップS1709:YES)、可視化装置150は、指示内容に応じた仮想画像(図15(B)参照)を表示する(ステップS1710)。
そして、可視化装置150は、仮想画像の表示が終了であるか否かを判断する(ステップS1711)。仮想画像の表示が終了ではない場合(ステップS1711:NO)、可視化装置150は、ステップS1702に戻る。仮想画像の表示が終了である場合(ステップS1711:YES)、可視化装置150は、本手術における、一連のアーム121(鉗子400)の操作情報と、一連の仮想画像とを関連付けてメモリ204に保存し(ステップS1712)、一連の処理を終了する。なお、一連のアーム121の操作情報は、術中に、マスター装置110の操作部111が受け付けた一連の操作内容を示す情報である。また、以下において、メモリ204に保存された一連の仮想画像は、「再生用仮想画像」という場合がある。
次に、図18を用いて、グラフィカルインターフェース(以下GUI(Graphical User Interface)という)について説明する。
図18は、仮想画像のGUIの一例を示す説明図である。図18に示すように、ディスプレイ151には、鉗子画像1400と、患部画像1410と、GUI1800とが表示されている。GUI1800は、術前、術中、および術後のいずれにおいても表示可能である。GUI1800は、患部指定表示1801と、ツール指定表示1802と、視点モード指定表示1803と、視点切り替え指示表示1804とを含む。
患部指定表示1801は、患部810の指定を受け付けるボタンである。例えば、医療スタッフがいずれかの患部810を指定すると、指定された患部810に応じた患部画像1410が表示される。例えば、患部指定表示1801は、事前作業としての、仮想画像における使用部位の選択を受け付けたり、受け付けた患部810の再生用仮想画像の再生を受け付けたりする。
ツール指定表示1802は、鉗子400および内視鏡401を含む操作ツールの表示の指定を受け付けるボタンである。ツール指定表示1802のうち、操作ツールが指定されると、指定された操作ツールが仮想画像として表示される。このため、医療スタッフの操作に応じて、鉗子画像1400を表示させないようにしたり、内視鏡の仮想画像を表示させないようにしたりすることが可能になっている。
視点モード指定表示1803は、視点モードの指定を受け付けるボタンである。例えば、視点モード指定表示1803は、視点を固定するモードや、視点が患部画像1410を周回するように見せる動的な視点とするモードなどの指定を受け付ける。
視点切り替え指示表示1804は、視点の切り替えを受け付けるボタンである。例えば、視点切り替え指示表示1804は、患部画像1410を俯瞰する視点や、正面からの視点や、横からの視点などの指定を受け付ける。また、視点切り替え指示表示1804は、拡大縮小の指定なども受け付ける。
次に、メモリ204に保存された再生用仮想画像が再生可能であることについて説明する。可視化装置150は、メモリ204に保存された再生用仮想画像をディスプレイ151に再生することが可能である。再生用仮想画像の再生時にも、可視化装置150は、視点を切り替えたり、拡大縮小して表示したりすることが可能である。
また、可視化装置150は、ディスプレイ151に表示する仮想画像を用いて、新人医師等のトレーニング用のトレーニングモードを行うことも可能である。例えば、可視化装置150は、新人医師等がマスター装置110の操作部111を操作した内容(以下「訓練操作情報」という)に基づいて、鉗子画像1400を生成して、ディスプレイ151に表示することが可能である。
また、新人医師等のトレーニングにおいて、再生用仮想画像を用いることも可能である。具体的には、可視化装置150は、再生用仮想画像とともに、訓練操作情報に基づく鉗子画像1400をディスプレイ151に表示することも可能である。
また、再生用仮想画像に対応する操作情報(以下「再生用操作情報」という場合がある。)と、訓練操作情報との比較結果を表示するようにしてもよい。例えば、訓練操作情報が示す鉗子400の位置と、再生用操作情報が示す鉗子400の位置とが、所定距離以上離れた場合に、警告を表示するようにしてもよい。また、可視化装置150は、訓練操作情報に基づく鉗子画像1400と、再生用操作情報に基づく鉗子画像1400とを、同時にディスプレイ151に表示するようにしてもよい。この場合、訓練操作情報に基づく鉗子画像1400と、再生用操作情報に基づく鉗子画像1400とは、異なる表示態様で表示されてもよい。
次に、図19を用いて、メモリ204に保存した再生用仮想画像を再生させる処理について説明する。
図19は、メモリ204に保存した再生用仮想画像を再生させる処理の一例を示すフローチャートである。図19において、可視化装置150は、トレーニングモードの開始であるか否かを判断する(ステップS1901)。可視化装置150は、トレーニングモードの開始になるまで待機する(ステップS1901:NO)。トレーニングモードの開始になると(ステップS1901:YES)、可視化装置150は、メモリ204に保存した再生用仮想画像の再生を開始する(ステップS1902)。
そして、可視化装置150は、新人医師等が操作部111を操作した内容を示す訓練操作情報をマスター装置110から取得する(ステップS1903)。次に、可視化装置150は、表示中の再生用仮想画像に重ねて、訓練操作情報に基づく鉗子画像1400を表示する(ステップS1904)。そして、可視化装置150は、再生用操作情報と、訓練操作情報とを比較する(ステップS1905)。具体的には、可視化装置150は、訓練操作情報が示す鉗子400の位置と、再生用操作情報が示す鉗子400の位置とを比較する。
当該比較の結果、可視化装置150は、訓練操作情報が示す鉗子400の位置と、再生用操作情報が示す鉗子400の位置とが所定距離以上離れたか否かを判断する(ステップS1906)。訓練操作情報が示す鉗子400の位置と、再生用操作情報が示す鉗子400の位置とが所定距離以上離れていない場合(ステップS1906:NO)、可視化装置150は、ステップS1908へ進む。訓練操作情報が示す鉗子400の位置と、再生用操作情報が示す鉗子400の位置とが所定距離以上離れた場合(ステップS1906:YES)、可視化装置150は、警告を表示する(ステップS1907)。
そして、可視化装置150は、トレーニングモードが終了したか否かを判断する(ステップS1908)。トレーニングモードが終了していない場合(ステップS1908:NO)、可視化装置150は、ステップS1903に戻る。トレーニングモードが終了した場合(ステップS1908:YES)、そのまま処理を終了する。
次に、図20を用いて、手術台マーカーの他の一例について説明する。
図20は、手術台マーカーの他の一例を示す説明図である。図20に示すように、手術台130には、複数(図示では4つ)の手術台マーカー2000が付されている。手術台マーカー2000の形状は、キューブ状である。これにより、カメラ140による多方面からの撮像が可能になる。また、手術台マーカー2000は、手術台130上の患者500が乗る面に対して、天井方向に変位して配置されている。これにより、患者500が手術台130に乗った場合でも、患者500によってカメラ140と手術台マーカー2000とを結ぶ領域が遮られることを抑えることができる。
次に、本実施形態に係る可視化装置150の機能的構成について説明する。まず、手術台130に対する患者500の姿勢の変化に応じた患部画像1410の表示を行う構成について説明する。可視化装置150は、位置検出部と、特定部と、制御部とを備える。各部は、CPU201によって実現される。すなわち、CPU201がROMに記憶されているプログラムを実行することにより、各部を実現する。
位置検出部は、手術台130に設けられた手術台マーカー411の位置と、患者500の体に付される非伸縮性のシートに設けられた人体マーカー501の位置とを検出する。具体的には、位置検出部は、カメラ140によって撮像された撮像結果に基づいて、手術台マーカー411の位置と、人体マーカー501の位置とを検出する。
特定部は、位置検出部によって検出された手術台マーカー411の位置と、人体マーカー501の位置との検出結果に基づいて、患者500の姿勢を特定する。具体的には、特定部は、姿勢特定情報を参照し、手術台マーカー411と人体マーカー501との相対的な位置関係から患者の姿勢を推定する。
制御部は、配置情報を参照し、特定部によって特定された姿勢に応じた患部810の仮想画像(患部画像1410)を表示部(ディスプレイ151)に表示させる。配置情報は、人体と患部810とのキャリブレーション(位置合わせ)が行われた両者の配置関係を示すデータである。具体的には、配置情報は、患者500の基準姿勢における患者500の外形と、当該患者500の患部810との配置を示す情報である。より具体的には、配置情報は、MRI画像等の患者500の体を撮像した断層画像から得られる患部810の位置と、基準姿勢における外形の位置とに基づく情報である。なお、人体と患部810とのキャリブレーションにおいて、人体マーカー501の検出結果を用いるようにしてもよい。すなわち、人体マーカー501によって撮像される各位置と、患部810の各位置とを対応付けて両者の位置関係を得るようにしてもよい。
このように、本実施形態では、手術台130に対する患者500の姿勢の変化に応じた患部画像1410をディスプレイ151に表示するようにした。これにより、術中に患者500の姿勢が変わったとしても、術者および術者以外の医療スタッフは、患部810の状況を把握することができる。したがって、本実施形態に係る可視化装置150によれば、術者の操作を効率よく支援することができるとともに、術中の医療スタッフの作業効率を向上させることができる。したがって、手術支援ロボット100を用いた手術に関する作業効率を大幅に向上させることができる。
次に、操作ツール(鉗子400等)の仮想画像の表示について説明する。アーム121には、アームマーカー402が付されている。また、アーム121の先端には、操作ツールが設けられている。本実施形態において、操作ツールは、鉗子400および内視鏡401である。ただし、操作ツールは、これらに限らず、ピンセット、持針器、グラスパーなど、他の外科用の器具を含む。
位置検出部は、アームマーカー402の位置を検出する。制御部は、位置検出部によって検出されたアームマーカー402の位置に基づいて鉗子400および内視鏡401の仮想画像(鉗子画像1400等)を表示させる。また、本実施形態では、鉗子400および内視鏡401の仮想画像を表示させるにあたり、操作情報も用いられる。操作情報は、アーム121および鉗子400の位置や動きなどの動作を示す情報であり、手術支援ロボット100から受信する情報である。制御部は、操作情報と、位置検出部による検出結果とに基づいて、鉗子400および内視鏡401の仮想画像を表示させる。なお、制御部は、アームマーカー402の位置と、操作情報とのうち、少なくとも一方の情報に基づいて、鉗子400および内視鏡401の仮想画像を表示してもよい。
このように、本実施形態では、患部画像1410とともに、鉗子画像1400をディスプレイ151に表示することができるため、患部810以外の他の臓器を、鉗子400で傷つけてしまうことを抑えることができる。したがって、鉗子400の操作性をより向上させることができるため、術中の作業効率の向上を図ることができる。
また、本実施形態において、人体マーカー501を付したシートは、患者500の体に密着させるために、患者500の体側の面に粘着剤が付されている。これにより、患者500の姿勢の推定精度を向上させることができる。
また、本実施形態において、当該シートは、患者の向きや位置をより的確に把握することができるという観点から、患者500の関節部分(例えば膝部)に付される。これにより、患者500の姿勢の推定精度を向上させることができる。
次に、患者500の姿勢に応じた患部810とアーム121との仮想画像の表示を行う機能的構成について説明する。可視化装置150は、姿勢情報取得部と、相対位置情報取得部と、制御部と、接触力情報取得部と、再生部と、操作情報取得部とを備える。各部は、CPU201によって実現される。すなわち、CPU201がROMに記憶されているプログラムを実行することにより、各部を実現する。また、可視化装置150は、受付部と、記憶部とを備える。受付部は、例えば、入力デバイス206によって実現される。記憶部は、メモリ204によって実現される。
姿勢情報取得部は、患者500の姿勢を示す姿勢情報を取得する。姿勢情報は、手術台マーカー411の位置と、人体マーカー501の位置とに基づく情報である。姿勢情報は、特定部によって患者500の姿勢が特定されることによって得られる情報である。
相対位置情報取得部は、患者500の患部810と、鉗子400との相対位置を示す相対位置情報を取得する。相対位置情報は、各部(患者500、患部810、手術台130およびアーム121)の相対位置に基づく情報である。具体的に説明すると、患者500と患部810との相対位置は、患者500(人体)と患部810とのキャリブレーション(図8参照)によって得られる。また、患者500(人体)と、手術台130との相対位置は、人体マーカー501と手術台マーカー411との撮像結果から得られる。アーム121と、手術台130との相対位置は、アームマーカー402と手術台マーカー411との撮像結果から得られる。これらの相対位置に基づいて、患部810と鉗子400との相対位置を示す相対位置情報が得られる。
制御部は、配置情報を参照し、姿勢情報が示す患者500の姿勢と、相対位置情報が示す相対位置とに応じた患部810および鉗子400の仮想画像を表示部に表示させる。具体的には、制御部は、患者500の姿勢が変わると、当該姿勢に応じた患部810と鉗子400との仮想画像(患部画像1410および鉗子画像1400)を表示させる。
このように、本実施形態では、患部810および鉗子400の相対位置と、患者500の姿勢とに応じた鉗子画像1400および患部画像1410をディスプレイ151に表示するようにした。これにより、術中に患者500の姿勢や鉗子400の位置が変わったとしても、術者および術者以外の医療スタッフも患部810の状況を把握することができる。したがって、本実施形態に係る可視化装置150によれば、術者の操作を効率よく支援することができるとともに、術中の医療スタッフの作業効率を向上させることができる。したがって、手術支援ロボット100を用いた手術に関する作業効率を大幅に向上させることができる。
また、本実施形態において、制御部は、図14に示したように、患部810を示す仮想画像を、患部810以外の部位を示す仮想画像とは異なる表示態様で表示させる。これにより、患部画像1410をわかりやすい表示態様で表示することができるため、手術中の作業効率をより向上させることができる。
また、本実施形態において、制御部は、図16に示したように、患部810と鉗子400との距離を推定し、当該距離に応じた報知を行う。なお、各種報知は、ディスプレイ151上の表示であるが、音声による報知や、音声と表示とによる報知としてもよい。これにより、術者が行う手術に係る操作を適切に支援することができる。
また、制御部は、患部810と鉗子400とが接触したことを推定した場合に、その旨を示す報知を行う。これにより、術者が行う手術に係る操作を適切に支援することができる。
また、接触力情報取得部は、鉗子400と患部810との接触力を示す接触力情報を手術支援ロボット100から取得する。制御部は、接触力情報が示す接触力に基づいて、鉗子400と患部810との接触時における患部810の変形量を反映させた仮想画像(患部画像1410)をディスプレイ151に表示させる。これにより、より現実的な仮想画像を表示することができる。
また、受付部は、図18に示したように、GUI1800を表示し、医療スタッフ等のユーザから、仮想画像の表示に関する指示を受け付ける。制御部は、受付部によって受け付けられた指示に応じた仮想画像をディスプレイ151に表示する。これにより、医療スタッフが所望する視点や大きさで仮想画像を表示することができる。したがって、術者が行う手術に係る操作をより適切に支援することができる。
また、記憶部は、ディスプレイ151に表示された一連の仮想画像と、鉗子400の一連の操作情報と関連付けた再生用仮想画像を記憶する。再生部は、記憶部に記憶された再生用仮想画像を再生する。再生部は、医療スタッフの操作に応じて、再生用仮想画像を再生可能である。例えば、再生部は、手術中に数秒前や数分前の再生用仮想画像を再生することも可能である。これにより、術者が行う手術に係る操作をより適切に支援することができる。また、再生部は、術後に再生用仮想画像を再生することも可能である。これにより、術後に、再生用仮想画像が閲覧することにより、その後の手術に役立てることができる。
操作情報取得部は、手術中とは異なる訓練中(トレーニングモード中)のアーム121の操作を示す訓練操作情報を取得する。制御部は、訓練操作情報が示す仮想画像と、再生部によって再生される再生用仮想画像とをディスプレイ151に表示させる。これにより、手術中に表示した仮想画像を用いて、新人医師等のトレーニングに役立てることができる。したがって、仮想画像を有効活用することができる。
なお、以上に説明した可視化装置150を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録し、そのプログラムをコンピュータシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
100…手術支援ロボット
111…操作部
112…モニター
120…スレーブ装置
121…アーム
130…手術台
140…カメラ
150…可視化装置
151…ディスプレイ
201…CPU
202…ROM
203…RAM
204…メモリ
205…通信部
206…入力デバイス
207…出力デバイス
400…鉗子
401…内視鏡
402…アームマーカー
411、2000…手術台マーカー
500…患者
501…人体マーカー
600…格子線
601…ポジション特定マーク
1400…鉗子画像
1410…患部画像
1600…報知画像
1800…GUI
St…可視化システム

Claims (11)

  1. 患者の姿勢を示す姿勢情報を取得する姿勢情報取得部と、
    前記患者の患部と、手術支援ロボットが有するアームの先端に設けられる操作ツールとの相対位置を示す相対位置情報を取得する相対位置情報取得部と、
    キャリブレーション時の前記患者の姿勢を示す基準姿勢における前記患者の外形と前記患部との配置を示す配置情報と、前記姿勢情報取得部によって取得された前記姿勢情報と、前記相対位置情報取得部によって取得された前記相対位置情報と、に基づいて、前記患部および前記操作ツールの仮想画像を表示部に表示させる制御部と、
    を備え
    前記姿勢情報は、手術台に設けられた手術台マーカーの位置と、前記患者の体に付される非伸縮性のシートに設けられた人体マーカーの位置とに基づく情報である、
    視化装置。
  2. 前記配置情報は、前記患者の体を撮像した断層画像から得られる前記患部の位置と、前記患者の外形とに基づく情報である、
    請求項1に記載の可視化装置。
  3. 前記制御部は、前記患部を示す前記仮想画像を、前記患部以外の部位を示す前記仮想画像とは異なる表示態様で表示させる、
    請求項1または2に記載の可視化装置。
  4. 前記制御部は、前記患部と前記操作ツールとの距離を推定し、
    前記距離に応じた報知を行う、
    請求項1~のいずれか一項に記載の可視化装置。
  5. 前記制御部は、前記患部と前記操作ツールとが接触したことを推定した場合に、その旨を示す報知を行う、
    請求項に記載の可視化装置。
  6. 前記操作ツールと前記患部との接触力を示す接触力情報を前記手術支援ロボットから取得する接触力情報取得部を備え、
    前記制御部は、前記接触力情報が示す前記接触力に基づいて、前記操作ツールと前記患部との接触時における前記患部の変形量を反映させた前記仮想画像を表示させる、
    請求項1~のいずれか一項に記載の可視化装置。
  7. ユーザから、前記仮想画像の表示に関する指示を受け付ける受付部をさらに備え、
    前記制御部は、前記受付部によって受け付けられた前記指示に応じた前記仮想画像を前記表示部に表示させる、
    請求項1~のいずれか一項に記載の可視化装置。
  8. 前記表示部に表示された一連の前記仮想画像と、前記操作ツールの一連の操作情報と関連付けた再生用仮想画像を記憶する記憶部と、
    前記記憶部に記憶された前記再生用仮想画像を再生する再生部と、
    を備える、
    請求項1~のいずれか一項に記載の可視化装置。
  9. 手術中とは異なる訓練中の前記操作ツールの操作を示す訓練操作情報を取得する操作情報取得部をさらに備え、
    前記制御部は、前記訓練操作情報が示す前記操作ツールの仮想画像と、前記再生部によって再生される前記再生用仮想画像とを前記表示部に表示させる、
    請求項に記載の可視化装置。
  10. 姿勢情報取得部が、患者の姿勢を示す姿勢情報を取得し、
    相対位置情報取得部が、前記患者の患部と、手術支援ロボットが有するアームの先端に設けられる操作ツールとの相対位置を示す相対位置情報を取得し、
    制御部が、キャリブレーション時の前記患者の姿勢を示す基準姿勢における前記患者の外形と前記患部との配置を示す配置情報と、前記姿勢情報取得部によって取得された姿勢情報と、前記相対位置情報取得部によって取得された前記相対位置情報と、に基づいて、前記患部および前記操作ツールの仮想画像を表示部に表示させ、
    前記姿勢情報は、手術台に設けられた手術台マーカーの位置と、前記患者の体に付される非伸縮性のシートに設けられた人体マーカーの位置とに基づく情報である、
    可視化方法。
  11. コンピュータを、
    患者の姿勢を示す姿勢情報を取得する姿勢情報取得手段、
    前記患者の患部と、手術支援ロボットが有するアームの先端に設けられる操作ツールとの相対位置を示す相対位置情報を取得する相対位置情報取得手段、
    キャリブレーション時の前記患者の姿勢を示す基準姿勢における前記患者の外形と前記患部との配置を示す配置情報と、前記姿勢情報取得手段によって取得された前記姿勢情報と、前記相対位置情報取得手段によって取得された前記相対位置情報と、に基づいて、前記患部および前記操作ツールの仮想画像を表示部に表示させる制御手段、
    として機能させ
    前記姿勢情報は、手術台に設けられた手術台マーカーの位置と、前記患者の体に付される非伸縮性のシートに設けられた人体マーカーの位置とに基づく情報である、
    プログラム。
JP2020050919A 2020-03-23 2020-03-23 可視化装置、可視化方法、およびプログラム Active JP7439602B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020050919A JP7439602B2 (ja) 2020-03-23 2020-03-23 可視化装置、可視化方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020050919A JP7439602B2 (ja) 2020-03-23 2020-03-23 可視化装置、可視化方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021146042A JP2021146042A (ja) 2021-09-27
JP7439602B2 true JP7439602B2 (ja) 2024-02-28

Family

ID=77850025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020050919A Active JP7439602B2 (ja) 2020-03-23 2020-03-23 可視化装置、可視化方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7439602B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011212245A (ja) 2010-03-31 2011-10-27 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2016512084A (ja) 2013-03-13 2016-04-25 ストライカー・コーポレイション 仮想制約境界を確立するシステム及び方法
JP2017176848A (ja) 2009-03-31 2017-10-05 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術ロボットの合成表現
JP2019208737A (ja) 2018-06-01 2019-12-12 インテリジェンスファクトリー合同会社 手術支援用マーカー及び手術支援システム
WO2020021870A1 (ja) 2018-07-26 2020-01-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017176848A (ja) 2009-03-31 2017-10-05 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術ロボットの合成表現
JP2011212245A (ja) 2010-03-31 2011-10-27 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2016512084A (ja) 2013-03-13 2016-04-25 ストライカー・コーポレイション 仮想制約境界を確立するシステム及び方法
JP2019208737A (ja) 2018-06-01 2019-12-12 インテリジェンスファクトリー合同会社 手術支援用マーカー及び手術支援システム
WO2020021870A1 (ja) 2018-07-26 2020-01-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2021146042A (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
JP2022017422A (ja) 拡張現実感手術ナビゲーション
AU2022204898B2 (en) Automatic endoscope video augmentation
US9554866B2 (en) Apparatus and method for using a remote control system in surgical procedures
EP1873712B1 (en) Medical guiding system and medical guiding program
CN108352132A (zh) 超声模拟方法
US8681152B2 (en) Method for generating model for preoperative simulation
JP7469120B2 (ja) ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
WO2015148529A1 (en) Interactive systems and methods for real-time laparoscopic navigation
US20170042626A1 (en) Method and probe for providing tactile feedback in laparoscopic surgery
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
JP7439602B2 (ja) 可視化装置、可視化方法、およびプログラム
JP7439603B2 (ja) 可視化装置、可視化方法、およびプログラム
US11660158B2 (en) Enhanced haptic feedback system
JP7473377B2 (ja) ロボット手術支援装置、ロボット手術支援方法、及びプログラム
JP2011131020A (ja) トロカーポート位置決定シミュレーション方法及びその装置
JP7414611B2 (ja) ロボット手術支援装置、処理方法、及びプログラム
JP2020162700A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
WO2023162657A1 (ja) 医療支援装置、医療支援装置の作動方法及び作動プログラム
US20200311928A1 (en) Medical image processing apparatus, medical image processing method, and medical image processing system
EP4388521A1 (en) System and method for virtual reality training, simulation of a virtual robotic surgery environment
Bello et al. The need to touch medical virtual environments?
Mohareri Image and haptic guidance for robot-assisted laparoscopic surgery
Perri Tactile Sensing System for Lung Tumour Localization during Minimally Invasive Surgery
AU2005312020A1 (en) Ultrasonic image and visualization aid

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R150 Certificate of patent or registration of utility model

Ref document number: 7439602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150