JP7239362B2 - 医療用画像処理装置及び医療用観察システム - Google Patents

医療用画像処理装置及び医療用観察システム Download PDF

Info

Publication number
JP7239362B2
JP7239362B2 JP2019053835A JP2019053835A JP7239362B2 JP 7239362 B2 JP7239362 B2 JP 7239362B2 JP 2019053835 A JP2019053835 A JP 2019053835A JP 2019053835 A JP2019053835 A JP 2019053835A JP 7239362 B2 JP7239362 B2 JP 7239362B2
Authority
JP
Japan
Prior art keywords
image
imaging
illumination
observation
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019053835A
Other languages
English (en)
Other versions
JP2020151268A (ja
Inventor
正隆 加戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Olympus Medical Solutions Inc
Original Assignee
Sony Olympus Medical Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Olympus Medical Solutions Inc filed Critical Sony Olympus Medical Solutions Inc
Priority to JP2019053835A priority Critical patent/JP7239362B2/ja
Priority to US16/740,486 priority patent/US11074689B2/en
Publication of JP2020151268A publication Critical patent/JP2020151268A/ja
Application granted granted Critical
Publication of JP7239362B2 publication Critical patent/JP7239362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/30Clipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本開示は、医療用画像処理装置及び医療用観察システムに関する。
従来、撮像デバイスにて観察対象を撮像することにより得られた実画像に対して、CT(Computed Tomography)やMRI(Magnetic Resonance Imaging)等の断層撮影装置にて撮影された複数の断層画像に基づく3次元画像を重畳させて重畳画像を生成する医療用観察システムが知られている(例えば、特許文献1参照)。
特許文献1に記載の医療用観察システムでは、3次元画像から観察対象に対する撮像デバイスの位置や向きに応じた画像を切り出し、実画像に対して当該切り出した画像を重畳させて重畳画像を生成している。
特表平7-508449号公報
しかしながら、特許文献1に記載の医療用観察システムでは、実画像と3次元画像とを位置及び向きのみを合わせて重畳しているため、当該2つの画像で奥行き方向は一致しない。すなわち、観察に適した重畳画像を生成することができない、という問題がある。
本開示は、上記に鑑みてなされたものであって、観察に適した重畳画像を生成することができる医療用画像処理装置及び医療用観察システムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本開示に係る医療用画像処理装置は、観察対象を撮像することにより得られた実画像を取得する画像取得部と、前記観察対象を撮影した複数の断層画像に基づく3次元画像の少なくとも一部を切り出して切出画像を生成する切出処理を実行する切出処理部と、前記実画像の撮像時における前記観察対象の照明条件を示す照明条件情報に基づいて、前記切出画像に陰影を付与する陰影処理を実行する陰影処理部と、前記実画像に対して前記陰影処理後の前記切出画像を重畳させて重畳画像を生成する重畳処理を実行する重畳処理部とを備える。
本開示に係る医療用画像処理装置では、上記開示において、前記照明条件情報は、前記実画像の撮像時に前記観察対象を照明する照明デバイスの位置と、前記照明デバイスから前記観察対象に向かう照明光軸の傾きとを含む情報であり、前記陰影処理部は、前記照明デバイスの位置と前記照明光軸の傾きとに基づいて前記切出画像に陰影を付与する前記陰影処理を実行する。
本開示に係る医療用画像処理装置では、上記開示において、前記照明条件情報は、前記照明デバイスにおける配光特性を含み、前記陰影処理部は、前記陰影処理において、前記配光特性に基づいて前記陰影の濃淡を調整する。
本開示に係る医療用画像処理装置では、上記開示において、前記照明条件情報は、前記実画像の撮像時に前記照明デバイスから前記観察対象に照射された照明光の光量を含み、前記陰影処理部は、前記陰影処理において、前記光量に基づいて前記陰影の濃淡を調整する。
本開示に係る医療用画像処理装置では、上記開示において、前記切出処理部は、前記実画像の撮像時における前記観察対象の撮像条件を示す撮像条件情報に基づいて、前記3次元画像の少なくとも一部を切り出して前記切出画像を生成する前記切出処理を実行し、前記撮像条件情報は、前記観察対象を撮像して前記実画像を出力する撮像デバイスの位置と、前記撮像デバイスから前記観察対象に向かう観察光軸の傾きと、前記撮像デバイスにおける焦点距離と、前記撮像デバイスにおける画角との少なくとも一つを含む。
本開示に係る医療用画像処理装置では、上記開示において、前記切出処理部は、前記撮像条件情報に基づいて前記観察対象における前記撮像デバイスによる撮像位置を認識し、前記3次元画像における前記撮像位置よりも前記撮像デバイスから離間する側にある部分を切り出して前記切出画像を生成する前記切出処理を実行する。
本開示に係る医療用観察システムは、観察対象を撮像して実画像を出力する撮像デバイスを有する医療用観察装置と、上述した医療用画像処理装置と、前記医療用画像処理装置にて生成された重畳画像を表示する表示装置とを備える。
本開示に係る医療用観察装置及び医療用観察システムによれば、観察に適した重畳画像を生成することができる。
図1は、実施の形態に係る医療用観察システムを示すブロック図である。 図2は、医療用観察装置を示す図である。 図3は、左,右目用観察光軸と照明光軸とを説明する図である。 図4は、左,右目用観察光軸と照明光軸とを説明する図である。 図5は、医療用画像処理装置の動作を示すフローチャートである。 図6は、医療用画像処理装置の動作を説明する図である。 図7は、医療用画像処理装置の動作を説明する図である。 図8は、医療用画像処理装置の動作を説明する図である。
以下に、図面を参照して、本開示を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本開示が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。
〔医療用観察システムの概略構成〕
図1は、実施の形態に係る医療用観察システム1を示すブロック図である。
医療用観察システム1は、例えば、脳神経外科手術等の微細手術(マイクロサージャリ)をサポートするためや内視鏡手術を行うために、観察対象を撮像した実画像に対してCTやMRI等の断層撮影装置100(図1)にて撮影された複数の断層画像に基づく3次元画像(以下、CG(Computer Graphics)画像と記載)を重畳させた重畳画像を表示するシステムである。この医療用観察システム1は、図1に示すように、医療用観察装置2と、ナビゲーション装置3と、液晶または有機EL(Electro Luminescence)等を用いた表示ディスプレイで構成された表示装置4とを備える。
実施の形態では、表示装置4は、アクティブ方式またはパッシブ方式の3Dディスプレイで構成されている。
〔医療用観察装置の構成〕
図2は、医療用観察装置2を示す図である。
医療用観察装置2は、観察対象を撮像して実画像を生成する装置である。この医療用観察装置2は、図1または図2に示すように、撮像部21と、ベース部22(図2)と、支持部23(図2)と、光源部24と、ライトガイド25(図2)と、制御装置26(図1)とを備える。
撮像部21は、本開示に係る撮像デバイスに相当する。実施の形態では、撮像部21は、図1に示すように、左目用観察光学系211Lと、右目用観察光学系211Rと、駆動部212と、レンズ位置検出部213と、左目用撮像素子214Lと、右目用撮像素子214Rとを備え、所謂、ステレオカメラとして構成されている。
左目用観察光学系211Lは、観察対象からの被写体像(以下、左目用被写体像と記載)を取り込んで、左目用撮像素子214Lの撮像面に結像する。この左目用観察光学系211Lは、図1に示すように、フォーカス光学系211aと、ズーム光学系211bとを備える。
フォーカス光学系211aは、1または複数のレンズを用いて構成され、光軸に沿って移動することにより、焦点を調整する。
ズーム光学系211bは、1または複数のレンズを用いて構成され、光軸に沿って移動することにより、画角を調整する。
右目用観察光学系211Rは、観察対象からの被写体像(以下、右目用被写体像と記載)を取り込んで、右目用撮像素子214Rの撮像面に結像する。この右目用観察光学系211Rは、図1に示すように、左目用観察光学系211Lを構成するフォーカス光学系211a及びズーム光学系211bと同様のフォーカス光学系211c及びズーム光学系211dを備える。
また、撮像部21には、フォーカス光学系211a,211cを光軸に沿って移動させるフォーカス機構(図示略)やズーム光学系211b,211dを光軸に沿って移動させる光学ズーム機構(図示略)が設けられている。
図3及び図4は、左,右目用観察光軸OAL,OARと照明光軸IA1,IA2とを説明する図である。具体的に、図3は、観察対象OBにおける撮像位置OPから左目用観察光学系211Lに向かう左目用被写体像の光軸(左目用観察光軸OAL)と、当該撮像位置OPから右目用観察光学系211Rに向かう右目用被写体像の光軸(右目用観察光軸OAR)と、当該撮像位置OPに向かう照明光軸IA1,IA2とを模式的に示した図である。なお、左,右目用観察光軸OAL,OARは、本開示に係る観察光軸に相当する。図4は、撮像部21を図2中、下方側から見た図である。
左,右目用観察光学系211L,211Rは、図4に示すように、撮像部21の中心軸Axを中心として180°の回転対称位置に設けられている。そして、観察対象OBにおける撮像位置OPから左目用観察光学系211Lに向かう左目用被写体像の光軸(左目用観察光軸OAL)と、当該撮像位置OPから右目用観察光学系211Rに向かう右目用被写体像の光軸(右目用観察光軸OAR)とは、図3に示すように、所定の角度で交差する。すなわち、左目用観察光学系211Lにて取り込む撮像位置OPの左目用被写体像と、右目用観察光学系211Rにて取り込む撮像位置OPの右目用被写体像とは、観察対象OBの撮像位置OPを異なる角度から見た被写体像である。
ここで、観察対象OBには、図3に示すように、ナビゲーション装置3にて検出される第1のリファレンスマーカRM1が取り付けられている。実施の形態では、第1のリファレンスマーカRM1は、赤外線を反射する反射マーカで構成されている。なお、図3では、説明の便宜上、第1のリファレンスマーカRM1を1つのみ図示しているが、実際には、複数、設けられている。また、第1のリファレンスマーカRM1としては、赤外線を反射する反射マーカに限らず、赤外線を出射するLED(Light Emitting Diode)等を含む器具を観察対象OBに固定した構成を採用しても構わない。
なお、断層撮影装置100は、第1のリファレンスマーカRM1が取り付けられた観察対象OBを撮影するものである。同様に、医療用観察装置2は、第1のリファレンスマーカRM1が取り付けられた観察対象OBを撮像するものである。
駆動部212は、撮像部21に設けられたフォーカススイッチ215(図2)への術者等の操作者による操作に応じて、制御装置26による制御の下、上述したフォーカス機構を動作させ、左,右目用観察光学系211L,211Rの焦点を調整する。また、駆動部212は、撮像部21に設けられたズームスイッチ216(図2)への操作者による操作に応じて、制御装置26による制御の下、上述した光学ズーム機構を動作させ、左,右目用観察光学系211L,211Rの画角を調整する。
レンズ位置検出部213は、フォトインタラプタ等の位置センサで構成され、フォーカス光学系211a,211cのレンズ位置(以下、フォーカス位置と記載)やズーム光学系211b,211dのレンズ位置(以下、ズーム位置と記載)を検出する。そして、レンズ位置検出部213は、検出したフォーカス位置及びズーム位置に応じた信号を制御装置26に出力する。
左目用撮像素子214Lは、左目用観察光学系211Lが結像した左目用被写体像を受光して電気信号に変換するCCD(Charge Coupled Device)センサやCMOS(Complementary Metal-Oxide-Semiconductor)センサ等で構成されている。
右目用撮像素子214Rは、右目用観察光学系211Rが結像した右目用被写体像を受光して電気信号に変換するCCDセンサやCMOSセンサ等で構成されている。
以下では説明の便宜上、左目用撮像素子214Lにて左目用被写体像が撮像されることにより生成される画像を左目用画像と記載する。また、右目用撮像素子214Rにて右目用被写体像が撮像されることにより生成される画像を右目用画像と記載する。当該左目用画像及び当該右目用画像は、本開示に係る実画像に相当する。そして、当該実画像は、制御装置26に出力される。
また、撮像部21の外面には、図2に示すように、ナビゲーション装置3にて検出される第2のリファレンスマーカRM2が設けられている。実施の形態では、第2のリファレンスマーカRM2は、赤外線を反射する反射マーカで構成されている。なお、図2では、説明の便宜上、第2のリファレンスマーカRM2を1つのみ図示しているが、実際には、複数、設けられている。また、第2のリファレンスマーカRM2としては、赤外線を反射する反射マーカに限らず、赤外線を出射するLED等によって構成しても構わない。
ベース部22は、医療用観察装置2の基台であり、キャスター221(図2)を介して床面上を移動可能に構成されている。
支持部23は、ベース部22から延在し、先端(ベース部22から離間した端部)にて撮像部21を保持する。そして、支持部23は、操作者から加えられた外力に応じて、撮像部21を3次元的に移動可能とする。
なお、実施の形態では、支持部23は、撮像部21の移動に対して6自由度を有するように構成されているが、これに限らず、その他の異なる数の自由度を有するように構成しても構わない。
この支持部23は、図2に示すように、第1~第7のアーム部231a~231gと、第1~第6の関節部232a~232fとを備える。
第1の関節部232aは、支持部23の先端に位置する。この第1の関節部232aは、第1のアーム部231aにて固定的に支持されつつ、第1の軸O1(図2)を中心として回転可能に撮像部21を保持する。
ここで、第1の軸O1は、撮像部21の中心軸Axに一致する。すなわち、第1の軸O1回りに撮像部21を回転させると、撮像部21による撮像視野の向きが変更される。
第1のアーム部231aは、第1の軸O1と直交する方向に延在する略棒状の部材であり、先端にて第1の関節部232aを固定的に支持する。
第2の関節部232bは、第2のアーム部231bにて固定的に支持されつつ、第2の軸O2(図2)を中心として回転可能に第1のアーム部231aを保持する。このため、第2の関節部232bは、第2の軸O2回りに撮像部21を回転可能とする。
ここで、第2の軸O2は、第1の軸O1に直交し、第1のアーム部231aの延在方向に平行となる。すなわち、第2の軸O2回りに撮像部21を回転させると、観察対象OBに対する撮像部21の中心軸Axの向きが変更される。言い換えれば、撮像部21による撮像視野が水平面内で第1,第2の軸O1,O2に直交するX軸(図2)に沿って移動する。このため、第2の関節部232bは、撮像部21による撮像視野をX軸に沿って移動させるための関節部である。
第2のアーム部231bは、第1,第2の軸O1,O2に直交する方向に延在したクランク形状を有し、先端にて第2の関節部232bを固定的に支持する。
第3の関節部232cは、第3のアーム部231cにて固定的に支持されつつ、第3の軸O3(図2)を中心として回転可能に第2のアーム部231bを保持する。このため、第3の関節部232cは、第3の軸O3回りに撮像部21を回転可能とする。
ここで、第3の軸O3は、第1,第2の軸O1,O2に直交する。すなわち、第3の軸O3回りに撮像部21を回転させると、観察対象OBに対する撮像部21の中心軸Axの向きが変更される。言い換えれば、撮像部21による撮像視野が水平面内でX軸に直交するY軸(図2)に沿って移動する。このため、第3の関節部232cは、撮像部21による撮像視野をY軸に沿って移動させるための関節部である。
第3のアーム部231cは、第3の軸O3と略平行な方向に延在する略棒状の部材であり、先端にて第3の関節部232cを固定的に支持する。
第4の関節部232dは、第4のアーム部231dにて固定的に支持されつつ、第4の軸O4(図2)を中心として回転可能に第3のアーム部231cを保持する。このため、第4の関節部232dは、第4の軸O4回りに撮像部21を回転可能とする。
ここで、第4の軸O4は、第3の軸O3に直交する。すなわち、第4の軸O4回りに撮像部21を回転させると、当該撮像部21の高さが調整される。このため、第4の関節部232dは、撮像部21を平行移動させるための関節部である。
第4のアーム部231dは、第4の軸O4に直交し、ベース部22に向けて直線的に延在した略棒状の部材であり、一端側にて第4の関節部232dを固定的に支持する。
第5のアーム部231eは、第4のアーム部231dと同一形状を有する。そして、第5のアーム部231eは、一端側が第4の軸O4と平行な軸を中心として回転可能に第3のアーム部231cに対して接続される。
第6のアーム部231fは、第3のアーム部231cと略同一形状を有する。そして、第6のアーム部231fは、第3~第5のアーム部231c~231eとの間で平行四辺形を形成する姿勢で、第4の軸O4と平行な軸を中心として回転可能に第4,第5のアーム部231d,231eの各他端側に対して接続される。また、第6のアーム部231fの端部には、カウンターウェイト233(図2)が設けられている。
カウンターウェイト233は、当該カウンターウェイト233よりも支持部23の先端側(撮像部21が設けられる側)に設けられる各構成要素の質量によって、第4の軸O4回りに発生する回転モーメント及び第5の軸O5(図2)回りに発生する回転モーメントを相殺可能に、質量及び配置位置が調整される。すなわち、支持部23は、バランスアーム(カウンターウェイト233が設けられた構成)である。なお、支持部23としては、カウンターウェイト233が設けられていない構成としても構わない。
第5の関節部232eは、第7のアーム部231gにて固定的に支持されつつ、第5の軸O5を中心として回転可能に第4のアーム部231dを保持する。このため、第5の関節部232eは、第5の軸O5回りに撮像部21を回転可能とする。
ここで、第5の軸O5は、第4の軸O4に平行となる。すなわち、第5の軸O5回りに撮像部21を回転させると、当該撮像部21の高さが調整される。このため、第5の関節部232eは、撮像部21を平行移動させるための関節部である。
第7のアーム部231gは、鉛直方向に延在する第1の部位と、当該第1の部位に対して略直角に屈曲して延在する第2の部位とで構成された略L字形状を有し、当該第1の部位にて第5の関節部232eを固定的に支持する。
第6の関節部232fは、ベース部22にて固定的に支持されつつ、第6の軸O6(図2)を中心として回転可能に第7のアーム部231gの第2の部位を保持する。このため、第6の関節部232fは、第6の軸O6回りに撮像部21を回転可能とする。
ここで、第6の軸O6は、鉛直方向に沿う軸である。すなわち、第6の関節部232fは、撮像部21を平行移動させるための関節部である。
以上説明した第1の軸O1は、アクチュエータ等の動力によらず、操作者から加えられた外力に応じて受動的に撮像部21を当該第1の軸O1回りに回転可能とする受動軸によって構成されている。なお、第2~第6の軸O2~O6も同様に、受動軸によってそれぞれ構成されている。
光源部24は、ライトガイド25の一端が接続され、制御装置26にて指定された光量の照明光を当該ライトガイド25の一端に供給する。
ライトガイド25は、一端が光源部24に接続され、他端側が2つに分岐されているとともに撮像部21に接続される。そして、ライトガイド25は、光源部24から供給された光を一端から他端に伝達し、撮像部21に供給する。また、撮像部21には、ライトガイド25における2つに分岐した各他端に対向させてそれぞれ照明レンズ217a,217b(図4)が配設されている。
照明レンズ217a,217bは、図4に示すように、撮像部21の中心軸Axを中心として180°の回転対称位置に設けられている。また、照明レンズ217a,217bは、左,右目用観察光学系211L,211Rに対して撮像部21の中心軸Axを中心として90°回転させた位置にそれぞれ設けられている。そして、ライトガイド25における2つに分岐した一方の他端から出射され、照明レンズ217aを介して撮像位置OPに向かう照明光の光軸(照明光軸IA1)と、ライトガイド25における2つに分岐した他方の他端から出射され、照明レンズ217bを介して撮像位置OPに向かう照明光の光軸(照明光軸IA2)とは、図3に示すように、所定の角度で交差する。
以上説明した光源部24、ライトガイド25、及び照明レンズ217a,217bは、本開示に係る照明デバイス27(図1,図2)に相当する。
制御装置26は、ベース部22の内部に設けられている。この制御装置26は、図1に示すように、通信部261と、制御部262と、記憶部263とを備える。
通信部261は、ナビゲーション装置3との間で各種データの通信を所定のプロトコルに従って行うインターフェースである。なお、医療用観察装置2とナビゲーション装置3との間での通信は、無線通信としてもよく、あるいは有線通信としてもよい。
制御部262は、CPU(Central Processing Unit)やFPGA(Field-Programmable Gate Array)等で構成され、記憶部263に記憶された制御プログラムにしたがって、医療用観察装置2の動作を統括的に制御する。
具体的に、制御部262は、通信部261を介して、(1)左,右目用画像(実画像)、(2)撮像部21における焦点距離、(3)撮像部21における画角、(4)第1の離間距離D1、(5)第2の離間距離D2、(6)照明デバイス27における配光特性、及び(7)光量をナビゲーション装置3に送信する。
上記(1)の左,右目用画像(実画像)は、左,右目用撮像素子214L,214Rにてそれぞれ生成された画像である。
上記(2)の撮像部21における焦点距離は、実画像の撮像時にレンズ位置検出部213にて検出されたフォーカス位置に基づいて制御部262が算出したものである。
上記(3)の撮像部21における画角は、実画像の撮像時にレンズ位置検出部213にて検出されたズーム位置に基づいて制御部262が算出したものである。
上記(4)の第1の離間距離D1は、撮像部21の中心軸Axから左,右目用観察光学系211L,211Rの各中心位置までの離間距離である(図4)。当該第1の離間距離D1は、設計データとして記憶部263に予め記憶されている。
以上説明した上記(2)~(4)の情報は、本開示に係る撮像条件情報を構成する。
上記(5)の第2の離間距離D2は、撮像部21の中心軸Axから各照明レンズ217a,217bの各中心位置までの離間距離である(図4)。当該第2の離間距離D2は、設計データとして記憶部263に予め記憶されている。
上記(6)の照明デバイス27における配光特性は、設計データとして記憶部263に予め記憶されたものである。
上記(7)の光量は、制御部262が光源部24に指定した光量である。
以上説明した上記(5)~(7)の情報は、本開示に係る照明条件情報を構成する。
記憶部263は、制御部262が実行する制御プログラムや上記(4)~(6)等の情報を記憶する。
〔ナビゲーション装置の構成〕
ナビゲーション装置3は、図1に示すように、位置検出装置31と、入力装置32と、医療用画像処理装置33とを備える。
位置検出装置31は、赤外線カメラを含んで構成され、観察対象OBに取り付けられた第1のリファレンスマーカRM1、及び撮像部21に設けられた第2のリファレンスマーカRM2を検出する。
より具体的に、位置検出装置31は、三角測量の原理で第1のリファレンスマーカRM1の位置を測定し、当該第1のリファレンスマーカRM1の位置から特定の基準点を原点とする特定の座標系(以下、基準座標系と記載)を設定する。また、位置検出装置31は、三角測量の原理で第2のリファレンスマーカRM2の位置を測定し、基準座標系での(8)撮像部21の位置、(9)撮像部21における中心軸Axを中心とした回転位置、及び(10)撮像部21の中心軸Axの傾きを算出する。そして、位置検出装置31は、上記(8)~(10)の情報を医療用画像処理装置33に送信する。
以上説明した上記(8)~(10)の情報は、本開示に係る撮像条件情報を構成する。また、実施の形態では、照明デバイス27が撮像部21に設けられているため、上記(8)の情報は、照明デバイス27の位置にも相当する。そして、上記(8)~(10)の情報は、本開示に係る照明条件情報を構成する。
なお、位置検出装置31による位置検出は、赤外線を用いた位置検出に限らず、赤外線以外の光を用いた光学式の位置検出を採用してもよく、磁界を用いた磁場式の位置検出や、その他の方式の位置検出を採用しても構わない。
入力装置32は、マウス、キーボード、及びタッチパネル等の操作デバイスを用いて構成され、操作者によるユーザ操作を受け付ける。そして、入力装置32は、当該ユーザ操作に応じた操作信号を医療用画像処理装置33に送信する。
医療用画像処理装置33は、医療用観察装置2にて撮像された実画像に対して断層撮影装置100にて撮影された複数の断層画像に基づくCG画像を重畳させて重畳画像を生成する。この医療用画像処理装置33は、図1に示すように、通信部331と、3Dモデリング部332と、切出処理部333と、陰影処理部334と、画像処理部335と、重畳処理部336とを備える。
通信部331は、断層撮影装置100、医療用観察装置2(通信部261)、及び位置検出装置31との間で各種データの通信を所定のプロトコルに従って行うインターフェースである。なお、医療用画像処理装置33と断層撮影装置100、医療用観察装置2、及び位置検出装置31との間での通信は、無線通信としてもよく、あるいは有線通信としてもよい。
そして、通信部331は、断層撮影装置100から当該断層撮影装置100にて撮影された複数の断層画像を受信し、医療用観察装置2(通信部261)から上記(1)~(7)の情報を受信し、位置検出装置31から上記(8)~(10)の情報を受信する。すなわち、通信部331は、本開示に係る画像取得部に相当する。
3Dモデリング部332は、通信部331にて受信した複数の断層画像から公知の手法(例えばボリュームレンダリング等)を用いてCG画像を生成する。
切出処理部333は、CG画像の少なくとも一部を切り出して切出画像を生成する切出処理を実行する。実施の形態では、切出処理部333は、当該切出処理により、CG画像から左目用画像に対応する左目用切出画像を切り出すとともに、CG画像から右目用画像に対応する右目用切出画像を切り出す。
具体的に、切出処理部333は、CG画像に含まれる第1のリファレンスマーカRM1の位置から当該CG画像における基準座標系を特定する。当該基準座標系は、位置検出装置31にて設定された基準座標系と同一の座標系である。
また、切出処理部333は、上記(4)の第1の離間距離D1、上記(8)の撮像部21の位置、上記(9)の撮像部21における中心軸Axを中心とした回転位置、及び上記(10)の撮像部21の中心軸Axの傾きに基づいて、基準座標系での(11)左目用観察光軸OALの傾きを特定する。さらに、切出処理部333は、上記(2)の撮像部21における焦点距離、上記(3)の撮像部21における画角、上記(4)の第1の離間距離D1、上記(8)の撮像部21の位置、上記(9)の撮像部21における中心軸Axを中心とした回転位置、及び上記(11)の左目用観察光軸OALの傾きに基づいて、左目用画像が基準座標系でどの位置をどの方向から見てどの大きさで撮像した画像であるかを判断する。すなわち、切出処理部333は、左目用画像が基準座標系で撮像位置OPを第1の方向から見て第1の大きさで撮像した画像であると認識する。そして、切出処理部333は、CG画像において、基準座標系で撮像位置OPよりも撮像部21の位置から離間する側にある部分(例えば、神経や腫瘍等)を第1の方向から見て第1の大きさで切り出すことによって左目用切出画像を生成する。
なお、上記(11)の情報は、本開示に係る撮像条件情報を構成する。
同様に、切出処理部333は、上記(4)の第1の離間距離D1、上記(8)の撮像部21の位置、上記(9)の撮像部21における中心軸Axを中心とした回転位置、及び上記(10)の撮像部21の中心軸Axの傾きに基づいて、基準座標系での(12)右目用観察光軸OARの傾きを特定する。さらに、切出処理部333は、上記(2)の撮像部21における焦点距離、上記(3)の撮像部21における画角、上記(4)の第1の離間距離D1、上記(8)の撮像部21の位置、上記(9)の撮像部21における中心軸Axを中心とした回転位置、及び上記(12)の右目用観察光軸OARの傾きに基づいて、右目用画像が基準座標系でどの位置をどの方向から見てどの大きさで撮像した画像であるかを判断する。すなわち、切出処理部333は、右目用画像が基準座標系で撮像位置OPを第2の方向から見て第1の大きさで撮像した画像であると認識する。そして、切出処理部333は、CG画像において、基準座標系で撮像位置OPよりも撮像部21の位置から離間する側にある部分(神経や腫瘍等)を第2の方向から見て第1の大きさで切出すことによって右目用切出画像を生成する。
なお、上記(12)の情報は、本開示に係る撮像条件情報を構成する。
陰影処理部334は、切出画像に陰影を付与する陰影処理を実行する。実施の形態では、陰影処理部334は、左,右目用切出画像にそれぞれ陰影を付与する。当該陰影処理は、被写体に対して照射される照明光の方向に基づいて、鏡面反射する部分や拡散反射する部分を考慮しつつ、陰影を付与する処理であり、シェーディング処理、ライティング処理、あるいは、シャドーイング処理とも呼ばれる。
具体的に、陰影処理部334は、上記(5)の第2の離間距離D2、上記(8)の撮像部21の位置、上記(9)の撮像部21における中心軸Axを中心とした回転位置、及び上記(10)の撮像部21の中心軸Axの傾きに基づいて、基準座標系での(13)照明光軸IA1,IA2の傾きを特定する。また、陰影処理部334は、上記(5)の第2の離間距離D2、上記(8)の撮像部21の位置、上記(9)の撮像部21における中心軸Axを中心とした回転位置、及び上記(13)の照明光軸IA1,IA2の傾きに基づいて、左,右目用画像の撮像時に基準座標系で撮像位置OPに対してどの方向から照明光が照射されていたかを判断する。すなわち、陰影処理部334は、左,右目用画像の撮像時に基準座標系で撮像位置OPに対して第3の方向から照明光が照射されていたと認識する。そして、陰影処理部334は、左目用切出画像に対して、基準座標系で第3の方向から照明光が照射された場合に生じる陰影を付与する。同様に、陰影処理部334は、右目用切出画像に対して、基準座標系で第3の方向から照明光が照射された場合に生じる陰影を付与する。さらに、陰影処理部334は、陰影処理において、上記(6)の照明デバイス27における配光特性、及び上記(7)の光量に基づいて、付与する陰影の濃淡を調整する。
なお、上記(13)の情報は、本開示に係る照明条件情報を構成する。
画像処理部335は、陰影処理後の左,右目用切出画像にそれぞれ含まれる被写体像(例えば神経や腫瘍等)に色や表面の凹凸形状等を付与する画像処理(以下、色付与処理と記載)を実行する。
ここで、画像処理部335にて付与される色や表面の凹凸形状等は、例えば、操作者による入力装置32への操作に応じて変更可能とする。
なお、画像処理部335は、以下に示すように、陰影処理後の左,右目用切出画像にそれぞれ含まれる被写体像に色を付与しても構わない。
例えば、基準座標系での切出処理にて切り出される位置に対して異なる色が予め設定されている。そして、画像処理部335は、切出処理にて切り出された位置に応じた色を特定し、当該特定した色を付与する。
また、例えば、陰影処理にて付与される陰影の濃淡の度合いに応じて異なる色が予め設定されている。そして、画像処理部335は、陰影処理にて付与された陰影の濃淡の度合いに応じた色を特定し、当該特定した色を付与する。
重畳処理部336は、実画像に対して陰影処理後の切出画像を重畳させて重畳画像を生成する重畳処理を実行する。実施の形態では、重畳処理部336は、左目用画像に対して色付与処理後の左目用切出画像を重畳させて左目用重畳画像を生成するとともに、右目用画像に対して色付与処理後の右目用切出画像を重畳させて右目用重畳画像を生成する。
そして、重畳処理部336は、生成した左,右目用重畳画像から例えばサイドバイサイド方式等の3次元画像信号を生成して表示装置4に出力する。これにより、表示装置4は、当該3次元画像信号に基づく左,右目用重畳画像を3D表示する。
〔医療用画像処理装置の動作〕
次に、上述した医療用画像処理装置33の動作について説明する。
図5は、医療用画像処理装置33の動作を示すフローチャートである。図6ないし図8は、医療用画像処理装置33の動作を説明する図である。
先ず、医療用画像処理装置33は、各種の情報を取得する(ステップS1)。
具体的に、医療用画像処理装置33は、ステップS1において、通信部331を介して、断層撮影装置100から当該断層撮影装置100にて撮影された複数の断層画像を受信し、医療用観察装置2から上記(1)~(7)の情報を受信し、位置検出装置31から上記(8)~(10)の情報を受信する。
ステップS1の後、3Dモデリング部332は、ステップS1で取得した複数の断層画像からCG画像F0(図6)を生成する(ステップS2)。なお、図6では、説明の便宜上、観察対象OBを球体で表現している。
ステップS2の後、切出処理部333は、切出処理を実行し、CG画像F0から左,右目用切出画像を切り出す(ステップS3)。なお、図7では、説明の便宜上、切出処理により切り出された左,右目用切出画像のうち、左目用切出画像FLのみを図示している。
ステップS3の後、陰影処理部334は、陰影処理を実行し、左,右目用切出画像に対して陰影を付与する(ステップS4)。なお、図8では、陰影処理後の左目用切出画像FL´を示している。
ステップS4の後、画像処理部335は、色付与処理を実行し、陰影処理後の左,右目用切出画像にそれぞれ含まれる被写体像に色や表面の凹凸形状等を付与する(ステップS5)。
ステップS5の後、重畳処理部336は、重畳処理を実行し、左,右目用画像に対して色付与処理後の左,右目用切出画像をそれぞれ重畳させて左,右目用重畳画像を生成する(ステップS6)。そして、重畳処理部336は、生成した左,右目用重畳画像から3次元画像信号を生成して表示装置4に出力する。これにより、表示装置4は、当該3次元画像信号に基づく左,右目用重畳画像を3D表示する。
以上説明した実施の形態によれば、以下の効果を奏する。
実施の形態に係る医療用画像処理装置33は、実画像の撮像時における観察対象OBの撮像条件を示す撮像条件情報に基づいて、CG画像の一部を切り出して切出画像を生成する。また、医療用画像処理装置33は、実画像の撮像時における観察対象OBの照明条件を示す照明条件情報に基づいて、切出画像に陰影を付与する陰影処理を実行する。そして、医療用画像処理装置33は、実画像に対して陰影処理後の切出画像を重畳させて重畳画像を生成する。
このため、実画像と切出画像とは、位置、向き、及び大きさが合致する他、奥行き方向も一致することとなる。したがって、実施の形態に係る医療用画像処理装置33によれば、観察に適した重畳画像を生成することができる。
特に、照明条件情報は、上記(5)~(10),(13)の情報で構成されている。
このため、切出画像に対してより適切かつリアルに陰影を付与することができ、実画像と切出画像とをより一層、奥行き方向に一致した画像とすることができる。
また、医療用画像処理装置33は、撮像条件情報に基づいて観察対象OBにおける撮像部21による撮像位置OPを認識し、CG画像における撮像位置OPよりも撮像部21から離間する側にある部分を切り出して切出画像を生成する。
このため、医師等は、どのくらい奥側に注目する部分(切り出した部分(例えば神経や腫瘍)が存在するかを重畳画像から把握することができる。したがって、重畳画像をより一層、観察に適した画像とすることができる。
(その他の実施の形態)
ここまで、本開示を実施するための形態を説明してきたが、本開示は上述した実施の形態によってのみ限定されるべきものではない。
上述した実施の形態において、断層撮影装置100は、CTやMRIの断層撮影装置に限らず、観察対象OBの複数の断層画像を生成することができれば、PET(Positron Emission Tomography)、超音波、共振点レーザ顕微鏡、あるいは、電子顕微鏡トモグラフィー等の他の断層撮影装置を採用しても構わない。
上述した実施の形態では、医療用画像処理装置33は、ナビゲーション装置3に含まれていたが、これに限らず、ナビゲーション装置3から独立した装置としても構わない。また、医療用画像処理装置33は、医療用観察装置2を構成する制御装置26に内蔵された構成としても構わない。
上述した実施の形態では、本開示に係る照明デバイスは、医療用観察装置2に含まれていたが、これに限らない。医療用観察装置2から照明デバイス27を省略し、当該医療用観察装置2の外部にある無影灯等を本開示に係る照明デバイスとして構成しても構わない。この際、医療用画像処理装置33は、当該無影灯による観察対象OBの照明条件を示す照明条件情報に基づいて陰影処理を実行する。また、照明デバイス27と無影灯等の外部の照明デバイスとを併用しても構わない。
上述した実施の形態において、照明デバイス27からの照明光の色(照明色)を照明条件情報に含めても構わない。
上述した実施の形態において、複数の断層画像からCG画像を生成する3Dモデリング部332を本開示に係る医療用画像処理装置に含めていたが、これに限らず、当該医療用画像処理装置の外部の装置に当該3Dモデリング部332を設けても構わない。すなわち、本開示に係る医療用画像処理装置としては、自身でCG画像を生成する構成に限らず、当該CG画像を外部から取得する構成としても構わない。
上述した実施の形態において、表示装置4として、ヘッドマウントディスプレイを採用しても構わない。
上述した実施の形態における医療用観察装置2では、第1~第6の軸O1~O6は、受動軸によってそれぞれ構成されていたが、これに限らない。第1~第6の軸O1~O6の少なくともいずれかの軸は、アクチュエータの動力に応じて能動的に撮像部21を当該軸回りに回転可能とする能動軸によって構成されていても構わない。
上述した実施の形態において、医療用画像処理装置33の動作を示すフローは、図5に示したフローに限らず、矛盾のない範囲で処理の順序を変更しても構わない。
1 医療用観察システム
2 医療用観察装置
3 ナビゲーション装置
4 表示装置
21 撮像部
22 ベース部
23 支持部
24 光源部
25 ライトガイド
26 制御装置
27 照明デバイス
31 位置検出装置
32 入力装置
33 医療用画像処理装置
100 断層撮影装置
211L 左目用観察光学系
211R 右目用観察光学系
211a,211c フォーカス光学系
211b,211d ズーム光学系
212 駆動部
213 レンズ位置検出部
214L 左目用撮像素子
214R 右目用撮像素子
215 フォーカススイッチ
216 ズームスイッチ
217a,217b 照明レンズ
221 キャスター
231a 第1のアーム部
231b 第2のアーム部
231c 第3のアーム部
231d 第4のアーム部
231e 第5のアーム部
231f 第6のアーム部
231g 第7のアーム部
232a 第1の関節部
232b 第2の関節部
232c 第3の関節部
232d 第4の関節部
232e 第5の関節部
232f 第6の関節部
233 カウンターウェイト
261 通信部
262 制御部
263 記憶部
331 通信部
332 3Dモデリング部
333 切出処理部
334 陰影処理部
335 画像処理部
336 重畳処理部
Ax 中心軸
D1 第1の離間距離
D2 第2の離間距離
IA1,IA2 照明光軸
F0 CG画像
FL,FL´ 左目用切出画像
O1 第1の軸
O2 第2の軸
O3 第3の軸
O4 第4の軸
O5 第5の軸
O6 第6の軸
OAL 左目用観察光軸
OAR 右目用観察光軸
OB 観察対象
OP 撮像位置
RM1 第1のリファレンスマーカ
RM2 第2のリファレンスマーカ

Claims (7)

  1. 観察対象を撮像することにより得られた実画像を取得する画像取得部と、
    前記観察対象を撮影した複数の断層画像に基づく3次元画像の少なくとも一部を切り出して切出画像を生成する切出処理を実行する切出処理部と、
    前記実画像の撮像時における前記観察対象の照明条件を示す照明条件情報に基づいて、前記切出画像に陰影を付与する陰影処理を実行する陰影処理部と、
    前記陰影処理後の前記切出画像に含まれる被写体像に対して、前記陰影処理にて付与された陰影の濃淡の度合いに応じた色を付与する色付与処理を実行する画像処理部と、
    前記実画像に対して前記色付与処理後の前記切出画像を重畳させて重畳画像を生成する重畳処理を実行する重畳処理部とを備える医療用画像処理装置。
  2. 前記照明条件情報は、
    前記実画像の撮像時に前記観察対象を照明する照明デバイスの位置と、前記照明デバイスから前記観察対象に向かう照明光軸の傾きとを含む情報であり、
    前記陰影処理部は、
    前記照明デバイスの位置と前記照明光軸の傾きとに基づいて前記切出画像に陰影を付与する前記陰影処理を実行する請求項1に記載の医療用画像処理装置。
  3. 前記照明条件情報は、
    前記照明デバイスにおける配光特性を含み、
    前記陰影処理部は、
    前記陰影処理において、前記配光特性に基づいて前記陰影の濃淡を調整する請求項2に記載の医療用画像処理装置。
  4. 前記照明条件情報は、
    前記実画像の撮像時に前記照明デバイスから前記観察対象に照射された照明光の光量を含み、
    前記陰影処理部は、
    前記陰影処理において、前記光量に基づいて前記陰影の濃淡を調整する請求項2または3に記載の医療用画像処理装置。
  5. 前記切出処理部は、
    前記実画像の撮像時における前記観察対象の撮像条件を示す撮像条件情報に基づいて、前記3次元画像の少なくとも一部を切り出して前記切出画像を生成する前記切出処理を実行し、
    前記撮像条件情報は、
    前記観察対象を撮像して前記実画像を出力する撮像デバイスの位置と、前記撮像デバイスから前記観察対象に向かう観察光軸の傾きと、前記撮像デバイスにおける焦点距離と、前記撮像デバイスにおける画角との少なくとも一つを含む請求項1~4のいずれか一つに記載の医療用画像処理装置。
  6. 前記切出処理部は、
    前記撮像条件情報に基づいて前記観察対象における前記撮像デバイスによる撮像位置を認識し、前記3次元画像における前記撮像位置よりも前記撮像デバイスから離間する側にある部分を切り出して前記切出画像を生成する前記切出処理を実行する請求項5に記載の医療用画像処理装置。
  7. 観察対象を撮像して実画像を出力する撮像デバイスを有する医療用観察装置と、
    請求項1~6のいずれか一つに記載の医療用画像処理装置と、
    前記医療用画像処理装置にて生成された重畳画像を表示する表示装置とを備える医療用観察システム。
JP2019053835A 2019-03-20 2019-03-20 医療用画像処理装置及び医療用観察システム Active JP7239362B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019053835A JP7239362B2 (ja) 2019-03-20 2019-03-20 医療用画像処理装置及び医療用観察システム
US16/740,486 US11074689B2 (en) 2019-03-20 2020-01-13 Medical image processing device and medical observation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053835A JP7239362B2 (ja) 2019-03-20 2019-03-20 医療用画像処理装置及び医療用観察システム

Publications (2)

Publication Number Publication Date
JP2020151268A JP2020151268A (ja) 2020-09-24
JP7239362B2 true JP7239362B2 (ja) 2023-03-14

Family

ID=72515630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053835A Active JP7239362B2 (ja) 2019-03-20 2019-03-20 医療用画像処理装置及び医療用観察システム

Country Status (2)

Country Link
US (1) US11074689B2 (ja)
JP (1) JP7239362B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112869889B (zh) * 2021-01-13 2022-08-05 连云港市第一人民医院 一种眼科手术用多维度兼具的照明装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033531A (ja) 2006-07-27 2008-02-14 Canon Inc 情報処理方法
WO2011010644A1 (ja) 2009-07-24 2011-01-27 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP2011212244A (ja) 2010-03-31 2011-10-27 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2016114445A (ja) 2014-12-15 2016-06-23 日本放送協会 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
JP2016194778A (ja) 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
WO2017145788A1 (ja) 2016-02-26 2017-08-31 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、手術システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994024631A1 (en) 1993-04-20 1994-10-27 General Electric Company Computer graphic and live video system for enhancing visualisation of body structures during surgery
US9208558B2 (en) * 1999-08-11 2015-12-08 Osteoplastics Llc Methods and systems for producing an implant
US7652259B2 (en) * 2000-08-21 2010-01-26 Spectrum Dynamics Llc Apparatus and methods for imaging and attenuation correction
WO2003077758A1 (en) * 2002-03-14 2003-09-25 Netkisr Inc. System and method for analyzing and displaying computed tomography data
US20070263915A1 (en) * 2006-01-10 2007-11-15 Adi Mashiach System and method for segmenting structures in a series of images
WO2009116663A1 (ja) * 2008-03-21 2009-09-24 Takahashi Atsushi 三次元デジタル拡大鏡手術支援システム
JP5072891B2 (ja) * 2009-03-19 2012-11-14 株式会社東芝 画像表示装置
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
CN111481292A (zh) * 2014-01-06 2020-08-04 博迪维仁医疗有限公司 手术装置及其使用方法
US10198872B2 (en) * 2015-08-10 2019-02-05 The Board Of Trustees Of The Leland Stanford Junior University 3D reconstruction and registration of endoscopic data
GB2559157A (en) * 2017-01-27 2018-08-01 Ucl Business Plc Apparatus, method and system for alignment of 3D datasets
JPWO2019155931A1 (ja) * 2018-02-09 2021-01-28 ソニー株式会社 手術システム、画像処理装置及び画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033531A (ja) 2006-07-27 2008-02-14 Canon Inc 情報処理方法
WO2011010644A1 (ja) 2009-07-24 2011-01-27 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法
JP2011212244A (ja) 2010-03-31 2011-10-27 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2016114445A (ja) 2014-12-15 2016-06-23 日本放送協会 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
JP2016194778A (ja) 2015-03-31 2016-11-17 セコム株式会社 物体検出装置
WO2017145788A1 (ja) 2016-02-26 2017-08-31 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、手術システム

Also Published As

Publication number Publication date
US20200302598A1 (en) 2020-09-24
US11074689B2 (en) 2021-07-27
JP2020151268A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US20240000295A1 (en) Light field capture and rendering for head-mounted displays
JP7222133B2 (ja) 物体の三次元モデルを形成するための1つ又は複数の光度エッジの生成
US20230310092A1 (en) Systems and methods for surgical navigation
CN108366833B (zh) 手术信息处理设备和方法
US7369101B2 (en) Calibrating real and virtual views
EP3076892B1 (en) A medical optical tracking system
CA3182900A1 (en) Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
US20020075201A1 (en) Augmented reality visualization device
JP2017524281A (ja) 媒介現実の外科用視覚化のためのシステム及び方法
CN110177518A (zh) 用于在图像捕获装置的视场内检测物体的系统和方法
CN114846518A (zh) 用于医疗成像的增强现实头戴设备
US20230126611A1 (en) Information processing apparatus, information processing system, and information processing method
CN113197666A (zh) 用于手术导航的装置及系统
JP7239362B2 (ja) 医療用画像処理装置及び医療用観察システム
JP2020530367A (ja) 眼科装置
US10682186B2 (en) Visualization system having an illumination apparatus
US20230026585A1 (en) Method and system for determining a pose of at least one object in an operating theatre
JP4867837B2 (ja) モーショントラッカ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230302

R151 Written notification of patent or utility model registration

Ref document number: 7239362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151