JP7088176B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP7088176B2
JP7088176B2 JP2019517478A JP2019517478A JP7088176B2 JP 7088176 B2 JP7088176 B2 JP 7088176B2 JP 2019517478 A JP2019517478 A JP 2019517478A JP 2019517478 A JP2019517478 A JP 2019517478A JP 7088176 B2 JP7088176 B2 JP 7088176B2
Authority
JP
Japan
Prior art keywords
image
tomographic
image processing
display information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019517478A
Other languages
English (en)
Other versions
JPWO2018207466A1 (ja
Inventor
知之 大月
竜己 坂口
潤一郎 榎
芳男 相馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=64104438&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP7088176(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018207466A1 publication Critical patent/JPWO2018207466A1/ja
Application granted granted Critical
Publication of JP7088176B2 publication Critical patent/JP7088176B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • A61F9/00745Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments using mechanical vibrations, e.g. ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00781Apparatus for modifying intraocular pressure, e.g. for glaucoma treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00973Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本技術は、眼科手術に利用可能な画像処理装置、画像処理方法及び画像処理プログラムに関する。
近年、眼に対する手術においてOCT(Optical Coherence Tomography:光干渉断層計)の利用が進んでいる。OCTは、手術対象の眼に近赤外光を照射し、眼の各組織による反射波を再構成して像を生成する技術であり、特定の断層面における断層画像等の断層情報が得られる(例えば、特許文献1参照)。
手術(例えば、角膜内皮移植)は、順に進行する複数の手技(例えば、創口作成後、グラフト挿入、続いて間隙除去)によって構成される場合が多いが、術中の断層情報の取得方法、提示方法や、施術に関連するGUI(Graphical User Interface)の提示方法は多くの場合手技に応じて適切なものが異なる。
特開2016-73409号公報
上記のようにOCTを利用する手術では手技に応じて、断層情報の取得方法、提示方法及びGUIの提示方法を適切に選択する必要がある。ここで、一般的に手技の流れは手術に応じて定型化されているものが多いが、従来は断層情報取得方法、断層情報提示方法及びGUIの提示方法を個別に選択するしか方法がなかった。またその選択手順も手技の流れを考慮しないために煩雑であり、総合的にみてユーザにとって手間のかかる作業であった。さらに、手術又は手技によっては、適切な断層情報取得方法、断層情報提示方法及びGUIの提示方法が存在しなかった。
以上のような事情に鑑み、本技術の目的は、手技に応じて適切な動作を実行することが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る画像処理装置は、眼を撮像した画像である正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部とを具備する。
この構成によれば、手技に応じた動作モードで画像処理装置が動作し、断層情報の取得、断層情報の提示又はGUIの提示が行われるため、術者による施術を補助することが可能となる。
制御部は、ユーザによる指示を受けて手技を選定してもよい。
ユーザによる指示は、フットスイッチ等の操作機器による指示であってもよく、後述するような画像撮像装置の視野における術具の位置を利用した指示であってもよい。
上記制御部は、ユーザによる指示と、眼を撮像した画像である正面画像に対する状況認識に基づいて手技を選定してもよい。
制御部はユーザによる指示に加え、正面画像の特性又は画像認識結果を利用した状況認識に基づいて手技を選定することができる。例えば制御部は、ユーザによって術式が指示されると、その術式に含まれる手技を状況認識によって選定することが可能である。
上記制御部は、眼を撮像した画像である正面画像に対する状況認識に基づいて手技を選定してもよい。
制御部は、状況認識のみによって手技を選定することも可能である。
上記制御部は、上記画像認識部による認識結果を利用してユーザによる指示を判断してもよい。
この構成によればユーザは正面画像の視野範囲内で所定の動作を行うことにより、制御部に手技を選定させることが可能となり、入力機器を操作する必要がないため利便性を向上させることができる。不潔領域に触れる必要がないことに加え、術具を離すことなく選定を行えることが特に有用である。
上記制御部は、上記画像認識部による認識結果を利用して状況認識を行ってもよい。
制御部は、画像認識部による認識結果(正面画像に含まれる術具や眼の部位)に基づいて状況認識を行い、手技を選定することが可能である。
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の先端の位置に基づいてユーザによる指示を判断してもよい。
この構成によれば、ユーザは正面画像の視野範囲内で術具を所定の位置に移動させることによって手技を指定することが可能となる。
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の種類を特定し、上記術具の種類に基づいて状況認識を行ってもよい。
この構成によれば、ユーザが正面画像の視野範囲内に術具が入るようにすることによって、制御部が当該術具が利用される手技を選定することが可能となる。
上記制御部は、上記術具の種類と上記正面画像の特徴に基づいて状況認識を行ってもよい。
制御部は、正面画像の特徴(明るさの分布等)に基づいて術式を特定し、術具の種類によって当該術式に含まれる手技を選定することが可能である。
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の形状に基づいて断層情報を取得する断層面の位置である断層位置を決定してもよい。
制御部は、術具の形状(例えば術具の長手方向)を基準として断層位置を決定することができる。術具に対する具体的な断層位置は手技に応じて設定することができる。
上記画像認識部は、上記正面画像に含まれる眼の部位を認識し、
上記制御部は、上記正面画像に含まれる眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
制御部は、眼の部位(例えば角膜中心)を基準として断層位置を決定することができる。
眼の部位に対する具体的な断層位置は手技に応じて設定することができる。
上記画像認識部は、上記正面画像に含まれる術具と眼の部位を認識し、
上記制御部は、上記正面画像に含まれる術具の形状と眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定してもよい。
制御部は、術具の形状と眼の部位(例えば角膜中心と術具先端を結ぶ線)を基準として断層位置を決定することができる。術具及び眼の部位に対する具体的な断層位置は手技に応じて設定することができる。
上記表示情報生成部は、上記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の位置である断層位置に基づいて上記表示情報における上記断層情報の位置を変更してもよい。
この構成によれば、手技に応じて所定の位置に断層情報が配置された表示情報をユーザに提示することが可能となる。
上記表示情報生成部は、上記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の向きに基づいて上記表示情報における上記断層情報の向きを変更してもよい。
この構成によれば、手技に応じて所定の向きに断層情報が配置された表示情報をユーザに提示することが可能となる。
上記画像認識部は、上記断層情報に対して画像認識を実行し、
上記制御部は、上記画像認識部による上記断層情報に対する画像認識結果に基づいて施術によって形成された切開縁を検出してもよい。
この構成によれば、視認性が低い眼の部位(例えば水晶体前嚢)の切開縁を検出し、ユーザに提示ことが可能となる。
上記画像認識部は、上記正面画像において眼の部位を認識し、
上記制御部は、上記画像認識によって検出された眼の部位に基づいて、上記切開縁の上記正面画像における位置を特定し、
上記表示情報生成部は、上記制御部によって特定された位置に上記切開縁を表す画像を重畳させた表示情報を生成してもよい。
この構成によれば、検出された切開縁を表す画像が正面画像に重畳して表示されるため、ユーザは正面画像を参照して切開縁を把握することが可能となる。
上記表示情報生成部は、上記正面画像に断層情報を取得する断層面の位置を示す断層線の端点を示す画像を重畳させた表示情報を生成してもよい。
断層位置を正面画像において示す際、一般には断層線の画像を表示するが、断層線の画像によって正面画像の視認性が低下する場合がある。このため、断層線の端点を示す画像(例えば矢印等)を正面画像に重畳させ、断層線の提示と正面画像の視認性を確保することが可能である。
上記表示情報生成部は、上記正面画像に断層情報を取得する断層面の位置を示す断層線を表す加工を施して表示情報を生成してもよい。
この構成によれば、正面画像に対する加工(例えば、輝度や色の飽和度の変更)によって断層線を提示することが可能である。加工は、正面画像において断層線に相当する領域に施してもよく、断層線に相当しない領域に施してもよい。
上記目的を達成するため、本技術の一形態に係る画像処理方法は、画像認識部が、眼を撮像した画像である正面画像に対して画像認識を実行し、
表示情報生成部が、表示情報を生成し、
制御部が、選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する。
上記目的を達成するため、本技術の一形態に係る画像処理システムは、断層情報取得装置と、正面画像撮像装置と、画像処理装置とを具備する。
上記断層情報取得装置は、眼の断層情報を生成する断層情報取得部を備える。
上記正面画像撮像装置は、眼を撮像して正面画像を生成する正面画像取得部を備える。
上記画像処理装置は、上記正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、選定された手技に応じて、上記断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部とを備える。
以上のように、本技術によれば、手技に応じて適切な動作を実行することが可能な画像処理装置、画像処理方法及び画像処理プログラムを提供することが可能である。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施形態に係る画像処理システムの模式図である。 同画像処理システムが備える画像情報取得部の模式図である。 同画像処理システムの正面画像取得部が取得する正面画像の例である。 同画像処理システムの断層情報取得部が取得する断層情報の例である。 同情報処理システムの制御部が利用する、術式において実行される手技を示す表である。 同画像処理システムの動作を示すフローチャートである。 同画像処理システムにおける手技の指定方法を示す模式図である。 同画像処理システムにおける手技の指定方法を示す模式図である。 同画像処理システムにおける手技の指定方法を示す模式図である。 同画像処理システムにおける手技の指定方法を示す模式図である。 同画像処理システムにおける手技の指定方法を示す模式図である。 同画像処理システムにおける手技の指定方法を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置で取得された断層情報の例である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置で取得された断層情報の例である。 同画像処理システムによって検出された切開縁を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定される断層位置の深さ範囲を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって設定されるボリュームデータが取得される範囲を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 特定の術式での一般的な断層画像を示す模式図である。 同画像処理システムによって設定された断層位置を示す模式図である。 同画像処理システムによって提示される断層位置を示す画像の模式図である。 同画像処理システムによって提示される断層位置を示す画像の模式図である。 同画像処理システムによって提示される断層位置の深さを示す画像の模式図である。 同画像処理システムによって提示される断層位置の深さを示す画像の模式図である。 同画像処理システムによって提示される表示情報の模式図である。 同画像処理システムによって提示される表示情報の模式図である。 同画像処理システムによって提示される表示情報の模式図である。 同画像処理システムによって断層情報が取得される範囲を示す模式図である。 同画像処理システムによって断層情報が取得される範囲を示す模式図である。 同画像処理システムによって取得される、断層画像から構成される動画を示す模式図である。 同画像処理システムによって取得されるボリュームデータ及びボリュームデータから生成される断層画像の模式図である。 同画像処理システムが備える画像処理装置のハードウェア構成を示す模式図である。
本技術の実施形態に係る画像処理システムについて説明する。
[画像処理システムの構成]
図1は、本実施形態に係る画像処理システム100の構成を示すブロック図である。同図に示すように、画像処理システム100は、画像情報取得部101、画像認識部102、インターフェース部103、制御部104、表示情報生成部105及び表示部106を具備する。また、画像認識部102、インターフェース部103、制御部104及び表示情報生成部105は画像処理装置120の機能的構成である。
画像情報取得部101は、施術対象の眼の画像情報を取得する。図2は、画像情報取得部101の構成を示すブロック図である。同図に示すように画像情報取得部101は、正面画像取得部1011と断層情報取得部1012を備える。
正面画像取得部1011は、CCD(Charge-Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と任意の光学系を備え、制御部104による制御を受けて施術対象の眼の画像(以下、正面画像)を撮像することが可能な正面画像撮像装置の機能的構成である
断層情報取得部1012は、OCT(Optical Coherence Tomography:光干渉断層計)又はシャインプルーフカメラを備え、制御部104による制御を受けて施術対象の眼の断層情報を撮像することが可能な断層情報取得装置の機能的構成である。
断層情報取得装置がOCTである場合、断層情報取得部1012は、指定された断層面の断層画像を取得してもよいし、眼の広範囲の断層情報をボリュームデータとして取得しておき、同ボリュームデータにおいて指定された位置の断層画像を合成するようにしてもよい。また、断層情報取得部1012は、一定時間範囲において取得した連続する断層画像を動画として取得してもよい。
画像情報取得部101は、取得した正面画像及び断層情報を画像認識部102及び表示情報生成部105に供給する。
画像認識部102は、画像情報取得部101によって取得された画像情報(正面画像又は断層情報)に対して画像認識処理を実行する。詳細は後述するが、画像認識部102は、画像情報に含まれる物体像(術具又は眼球の部位の像等)や切開縁を認識することができる。画像認識部102は、エッジ検出やパターンマッチング等の方法によって画像認識を実行することができ、そのアルゴリズムは特に限定されない。画像認識部102は、認識結果を制御部104に供給する。
インターフェース部103は、ユーザによる入力を受け付け、あるいは他の手術機器との通信を行う。インターフェース部103は取得した情報を制御部104に供給する。
制御部104は、各部の制御を行う。詳細は後述するが、制御部104はユーザによる入力又は画像認識部102による画像認識結果等に基づいて手技を選定し、選定した手技に応じた動作モードによって断層情報取得部1012や表示情報生成部105を制御する。
表示情報生成部105は、制御部104による制御に従い、画像情報取得部101から供給される画像情報の加工等を行い、表示情報を生成する。例えば表示情報生成部105は、後述するメニューや断層位置を正面画像に重畳させて表示情報を生成することができる。表示情報生成部105は生成した表示情報を表示部106に供給する。
表示部106は表示情報生成部105から供給された表示情報をディスプレイ等の表示装置に表示させユーザに提示する。
[正面画像及び断層画像について]
図3は、正面画像取得部1011が取得する正面画像(以下、正面画像G)の例であり、図4は、断層情報取得部1012が取得する断層画像(以下、断層画像F)の例である。図4に示す断層画像は、図3に示す断層面の位置(以下、断層位置P)において取得された画像である。
これらの図に示すように、眼球は、角膜301、虹彩302、水晶体303及び強膜304等の組織で構成されている。水晶体303の表面において虹彩302の間が瞳孔305であり、角膜301の外周が角膜輪部306である。角膜301の両端には隅角307が位置する。水晶体303の表面側には膜状の前嚢303aがあり、背面側には膜状の後嚢303bがある。また、図3に示すように、正面画像Gには開瞼器により広げられた目蓋308や血管309が含まれている。なお、角膜301は透明であるため、図3には表されていない。
[画像処理システムの動作]
図5は、画像処理システム100の手技に応じた動作モードを示す表である。同図に示すように、術式には、PEA(phacoemulsification and aspiration:超音波水晶体乳化吸引術)、PPV(pars plana vitrectomy:経毛様体扁平部硝子体切除)、ERM(epi-retinal membrane:網膜上膜)除去、MIGS(minimally invasive glaucoma surgery:低侵襲緑内障手術)、Device1設置、DSAEK(Descemet's stripping automated endothelial keratoplasty:角膜内皮移植)等がある。
同図に示すように、各術式は複数の手技によって構成されている。例えばPEAであれば、創口(術具挿入用の口)作成(1-1)、前嚢切開(1-2)、溝堀り(1-3)、核分割(1-4)及び核吸引(1-5)の各手技が順に進行する。また、PPVのうちERM除去では、PEAの各手技が実施された後、硝子体切除(2-2)及び膜剥離(2-3)が順に進行する。なお、ここに示す術式及び手技は一例であり、画像処理システム100は他の術式及び手技に対して利用することも可能である。
図6は、画像処理システム100の動作を示すフローチャートである。同図に示すように、制御部104は、手技を選定する(St101)。制御部104は、正面画像の画像情報を利用した状況認識に基づいて手技を選定することができる。
また、制御部104は、ユーザによる指示を受けて手技を選定してもよく、ユーザの指示と状況認識の両方に基づいて手技を選択してもよい。この詳細については後述する。
続いて、制御部104は、手技の選定結果に応じた動作モードを設定する(St102)。各手技の動作モード(図5参照)では、当該手技の実施に適した各部の動作態様が予め定められている。動作モードには、断層情報取得部1012による断層情報の取得方法、表示情報生成部105による断層情報の提示方法又はGUI(Graphical User Interface)の提示方法が含まれている。
例えば、手技の選定ステップ(St101)においてPEAの創口作成(1-1)が選定された場合、制御部104は創口作成に対して定められている動作モードで動作するように画像処理システム100の各部を制御する。各手技に対応する動作モードでの画像処理システム100の具体的な動作については後述する。
制御部104は、ユーザから終了指示を受け取った場合(St103:Yes)、動作を終了し、ユーザから終了指示を受け取らなかった場合(St103:No)、上記動作を繰り返し実行する。
[手技の選定について]
手技の選定ステップ(St101)の詳細について説明する。上記のように制御部104は、ユーザの指示及び状況認識のいずれか一方又は両方に基づいて手技を認定する。
制御部104は、ユーザの指示を受けて手技を選定することができる。表示情報生成部105は表示部106に手技をメニュー表示することができ、ユーザはフットスイッチ等の入力装置を介して手技を指定することができる。制御部104は、ユーザによって指定された手技を選定することができる。
また、制御部104は、正面画像に対する画像認識部102による認識結果を利用してユーザの指示を判断してもよい。画像認識部102は正面画像に含まれる術具を認識し、その認識結果を制御部104に供給する。制御部104は、正面画像における術具の先端位置を利用してユーザが指定する手技を判断し、その手技を選定することができる。
また、制御部104は、正面画像に対する状況認識によって手技を選定することができる。状況認識とは、正面画像の特徴又は画像認識部102による画像認識結果を利用した状況の認識である。正面画像の特徴には、正面画像周縁部と正面画像中心部の明るさの違い、正面画像全体の明るさ、正面画像の色の分布等が挙げられる。
また、制御部104は、正面画像又は断層情報に対する画像認識部102による認識結果を利用して状況判断を行うこともできる。具体的には制御部104は、正面画像に含まれる術具の種類、術具と眼の部位の距離、術具先端の動きの速度等から状況認識を行うことができる。
さらに制御部104は、正面画像の特徴と画像認識部102による画像認識結果の両方を利用して状況認識を行ってもよい。具体的には制御部104は、正面画像の特徴から術式を認識し、当該術式に含まれる手技を画像認識部102による認識結果を用いて特定することが可能である。制御部104は例えば、正面画像周辺部が暗いことに基づいて(ライトガイドで眼内の一部が照らされている状況)網膜硝子体手術を認識し、正面画像内に内境界膜用の鑷子が存在していることを認識した場合、網膜硝子体手術における膜処理の手技を選定することができる。
以下、制御部104による手技の選定の具体例を説明する。
(ユーザ指示に基づく手技の選定)
図7乃至図9は、ユーザ指示に基づく手技の選定を示す模式図であり、網膜硝子体手術の一種である、黄斑上膜(ERM)に対する硝子体切除術(PPV)における膜剥離の手技の選定の例である。
表示情報生成部105は制御部104による制御に従って、図7乃至図9に示すような表示情報を生成し、表示部106に表示させている。図7乃至図9に示すように、表示情報には正面画像取得部1011によって撮像された正面画像Gと、メニュー(図中M)が含まれている。
ユーザはフットスイッチ等の入力装置を用いてメニューMから項目を選択することができる。図7乃至図9では選択されている項目を枠Sで示す。同図に示すように、まずユーザは疾患の種類として「網膜硝子体」を選択する。すると、制御部104は、図8に示すように「網膜硝子体」に含まれる術式をメニューMに表示させる。
続いてユーザはメニューMから術式の黄斑上膜に対する硝子体切除術(図中「PPV ERM」)を選択する。制御部104は、図9に示すようにPPV ERMに含まれる手技(図5参照)をメニューMとして表示させる。
続いてユーザはフットスイッチ等の入力装置を用いてメニューMから膜剥離を選択する。これにより制御部104は、手技「膜剥離」を選定し、膜剥離の動作モードを設定する。図9では、膜剥離に適した動作モードでの断層位置Pが示されている。
(ユーザ指示及び状況認識に基づく手技の選定)
図10乃至図12は、ユーザ指示及び状況認識に基づく手技の選定を示す模式図であり、白内障手術の一種である超音波水晶体乳化吸引術(PEA)における創口作成の手技の選定の例である。
表示情報生成部105は制御部104による制御に従って、図10乃至図12に示すような表示情報を生成し、表示部106に表示させている。図10乃至図12に示すように、表示情報には正面画像取得部1011によって撮像された正面画像(図中G)と、メニュー(図12を除く、図中M)が含まれている。
図10に示すようにユーザは、メニューMから項目(図中枠Sで示す)を選択することができる。ここで、ユーザは術具Tの先端位置によって項目を選択することができる。図10に示すようにユーザは術具Tの先端位置を選択したい項目(図中「白内障」)のボックス内に移動させる。制御部104は、画像認識部102による術具Tの物体認識により、術具Tの先端とメニューMの位置関係を把握することができる。
ユーザは、術具Tの先端を特定の項目のボックス内に移動させてフットスイッチによる確定指示を行い、又は術具Tの先端を特定の項目のボックス内に一定時間以上留める等の方法によって項目を選択することができる。
図10に示すように、ユーザは疾患の種類として「白内障」を選択すると、制御部104は図11に示すように白内障に含まれる術式をメニューMとして表示させる。続いてユーザはメニューMから術式のPEAを選択する。ユーザは、上述のように術具Tの先端位置によってメニューMの項目を選択することができる。
制御部104は、PEAが選択されると制御部104は画像認識部102による画像認識結果を取得する。制御部104は、PEAにおいて利用される可能性がある術具と画像認識結果を比較し、認識された術具を特定する。制御部104は特定された術具が利用される手技を選定する。制御部104は、図12に示すように創口作成用の術具Tが認識されていることから手技として創口作成を選定し、創口作成の動作モードを設定する。
(状況認識に基づく手技の選定)
図13は、状況認識に基づく手技の選定を示す模式図であり、網膜硝子体手術の一種である、黄斑上膜(ERM)に対する硝子体切除術(PPV)における膜剥離の手技の選定の例である。
制御部104は、正面画像Gの特徴と画像認識部102による画像認識結果によって手技を選定する。具体的には、制御部104は、正面画像Gの画像周辺部が暗い(図中斜線領域)ことから術中の手術は網膜硝子体手術であると判断することがきる。また、制御部104は、画像認識部102による術具T及び眼球部位の認識結果を用いて、術具Tが内境界膜剥離用の鑷子であること、術具T先端が網膜に近いこと、術具T先端が黄斑部に近いこと、及び術具T先端の動きが遅いことから膜剥離の術中の手技は膜剥離であると推定することができる。これにより制御部104は、手技「膜剥離」を選定し、膜剥離の動作モードを設定する。
以上のように制御部104は、ユーザの指示及び状況認識のいずれか一方又は両方に基づいて手技を選定することができる。なお、どのように選択を行うかは製造者が予め決めて供給してもよく、複数の選択肢を用意して術者の嗜好に基づいていずれかを予め選択することも可能である。
また、制御部104は各術式に含まれる個々の手技(図5参照)を上述の方法によってそれぞれ選定してもよく、上述の方法で特定の手技を選定した後は、術式の進行に伴って手技を選定してもよい。例えばPEAにおいて創口作成を完了後、術者がその旨の指示入力を行うと、制御部104は創口作成の次の手技である前嚢切開を選定することが可能である。
[動作モードについて]
動作モード設定ステップ(St102)の詳細について説明する。上記のように制御部104は、手技を選定すると、当該手技の実施に適した動作モードで動作するように断層情報取得部1012及び表示情報生成部105のいずれか一方又は両方を制御する。
各手技に対応する動作モードには、断層情報の取得方法、断層情報の提示方法及びGUIの提示方法が含まれている。
断層情報の取得方法では、制御部104は、正面画像において画像認識部102によって認識された術具の形状に基づいて断層情報を取得する断層面の位置を決定することができる。例えば制御部104は、術具の長手方向に沿った面を断層面とし、あるいは術具の長手方向に対して一定角度で交差する面を断層面とすることができる(図13参照)。
また、制御部104は、正面画像において画像認識部102によって認識された眼の部位に基づいて断層情報を取得する断層面の位置を決定することができる。例えば制御部104は、特定の手技において注視される部位を通過する面を断層面とし(図16参照)、又は特定の部位を中心とする面を断層面とすることができる(図14参照)。
さらに制御部104は、正面画像において画像認識部102によって認識された術具と眼の部位に基づいて断層情報を取得する断層面の位置を決定することができる。例えば制御部104は、術具及び眼の特定の部位を通過する面を断層面とすることができる(図12参照)。
制御部104は、ユーザによる指示入力を受けて断層面の位置を固定し、あるいは固定を解除することも可能である。また、制御部104は、ユーザによる指示入力を受けて断層面の位置を微調整し、又は断層面を術具や眼の部位に追随させてもよい。
制御部104は、どのような方法で断層情報を取得するかを選定した手技に応じて決定し、決定した取得方法で断層情報を取得するように断層情報取得部1012を制御する。断層情報は断層画像に限られず、断層面をずらして連続的に撮像した断層画像から生成されるボリュームデータであってもよく、断層画像から構成される動画であってもよい。個々の手技に対応する断層情報の取得方法については後述する。
断層情報の提示方法では、制御部104は、表示情報生成部105が断層情報を含む表示情報を生成する際に、断層面の位置に基づいて断層情報の位置を変更するように表示情報生成部105を制御することができる(図39参照)。また、制御部104は、断層面の向きに基づいて断層情報の向きを変更するように表示情報生成部105を制御することができる(図38参照)。
また、制御部104は、断層情報に対する画像認識部102の認識結果から施術によって形成された切開縁を検出し、この切開縁を表す画像を正面画像に重畳させて表示情報を生成するように表示情報生成部105を制御することができる(図18参照)。
制御部104は、正面画像に対する画像認識部102の認識結果から正面画像に含まれる術具の位置に基づいて断層位置を決定し、この断層位置に応じて変化する断層情報を含む表示情報を生成するように表示情報生成部105を制御することができる(図39参照)。
制御部104は、一定時間範囲に渡って断層画像を記録した動画を取得するように断層情報取得部1012を制御し、この動画を提示するように表示情報生成部105を制御することができる(図42参照)。
制御部104は、画像認識部102によって認識された術具の位置に基づいて一定時間範囲に渡って断層画像を取得するように断層情報取得部1012を制御し、その断層画像群からボリュームデータを作成することができる。制御部104は、当該ボリュームデータを提示するように表示情報生成部105を制御することができる(図43参照)。個々の手技に対応する断層情報の提示方法については後述する。
GUIの提示方法では、制御部104は、正面画像に断層面の位置を示す断層線の端点を示す画像を重畳させた表示情報を生成するように表示情報生成部105を制御することができる(図33参照)。また、制御部104は、正面画像に、断層面の位置を示す断層線を表す加工を施して表示情報を生成するように表示情報生成部105を制御することができる(図34参照)。
断層線を表す加工は、断層線に相当する画像領域に対する加工であってもよく、断層線に相当する画像領域以外の画像領域に対する加工であってもよい。制御部104は表示情報生成部105に加工する領域の色の飽和度及び輝度のレベルの少なくとも一方を変化させることにより断層線を表す加工を施すことができる。
また、制御部104は、断層情報や眼の模式図に対して深さ方向の断層面の位置を含む表示情報を生成するように表示情報生成部105を制御することができる(図35及び図36参照)。個々の手技に対応するGUIの提示方法については後述する。
[手技に応じた動作モードについて]
画像処理システム100においては上述のようにして制御部104が手技を選定し、手技に応じた動作モードを設定する。以下ではそれぞれの手技に対応する動作モードについて説明する。
<断層取得方法について>
[術式:白内障PEA]
(創口作成)
創口作成では眼外から角膜301(図4参照)の中心の方向に向かって切開を行う。このため制御部104は、図12に示すように正面画像における断層位置Pを術具T先端と角膜中心(図中A)を結ぶ面とし、面の長さは両端で少し延ばす。深さ方向の断層位置Pは、例えば隅角307の高さを中心とする。制御部104は、この断層位置Pの断層画像を取得するように断層情報取得部1012を制御する。これにより断層画像を参照して術具の挿入確度が適切であるか否か、創口が完全に形成されているか否か等を容易に把握することが可能となる。
(前嚢切開1)
図14は、前嚢切開での正面画像Gにおける断層位置Pを示す模式図である。前嚢切開時には前嚢303aの視認性が悪く、切開がどこまで進んだかわかりにくい。このため、制御部104は、図14に示すように、角膜中心Aを中心とする直径3~4mm程度の円を断層位置Pとして、矢印の始点から終点までを走査するように断層情報取得部1012を制御する。深さ方向の断層位置Pは例えば前嚢303aの高さを中心とする。図15は、断層位置Pについて取得された断層画像である。同図に示すように切開終了範囲(前嚢303aが剥離された範囲)を分かりやすくすることができる。
(前嚢切開2)
図16は、前嚢切開での正面画像Gにおける断層位置Pを示す模式図である。前嚢切開時には、前嚢303aの視認性が悪いため、切開終了範囲のみではなく、切開の縁が角膜中心からどのような距離にあるかを確認したい場合もある。このため、制御部104は、図16に示すように、角膜中心Aから角膜輪部306を結ぶ面を断層位置Pとし、この線を矢印Lで示すように角膜中心Aを中心として周期的に回転させる。深さ方向の断層位置Pは例えば前嚢303aの高さを中心とする。制御部104は、回転する断層位置Pの各角度での断層画像を取得するように断層情報取得部1012を制御する。
図17は、断層位置P(回転するうちの一角度の断層位置P)について取得された断層画像Fである。同図に示すように、前嚢303aの切開縁(図中K)が分かりやすくなっている。また、制御部104は、断層画像Fに対する画像認識部102の認識結果から、各角度で撮像された断層画像Fにおいて切開縁を検出し、合成することも可能である。制御部104は、合成した切開縁を正面画像Gに重畳させるように表示情報生成部105を制御してもよい。図18は、各角度の切開縁Kを合成し、重畳させた正面画像Gを示す。
なお、制御部104は図16に示すように断層位置Pを回転させず、術具先端の長手方向に沿った面を断層位置Pとしてもよい。
(溝堀り)
図19は、溝掘りでの正面画像Gにおける断層位置P1及びP2を示す模式図である。溝掘りでは術具の長手方向に沿って手前から奥まで術具を進め、水晶体303の核を掘り進める。この際に深さ情報の不足から誤って後嚢303b(図4参照)に術具を進め、破損させてしまうことがある。このため、制御部104は、図19に示すように、術具Tの先端を通過し、術具Tの長手方向に沿った面を断層位置P1とする。
さらに、制御部104は、同図に示すように術具Tの先端を通過し、術具Tの長手方向に直交する面を断層位置P2としてもよい。断層位置P1及びP2の範囲はおよそ角膜輪部306から反対側の角膜輪部306までが好適である。深さ方向の断層位置P1及びP2は、例えば後嚢303bの頂点(図4中、水晶体303下向きに凸の頂点)の高さが断層面の下端の少し上となるようにする。
制御部104は、この断層位置P1及びP2の断層画像を取得するように断層情報取得部1012を制御する。これにより術具Tと後嚢303bの位置関係が分かりやすくなり、後嚢303bの破損を防止することが可能となる。
(核分割)
図20は、核分割での正面画像Gにおける断層位置Pを示す模式図である。核分割ではPhaco tip(Phacoemulsification Tip:水晶体乳化チップ)とフックの双方が十分に深い位置にあることが重要であるが、意図せず浅い位置にある状態で分割を試行して失敗することがある。このため、制御部104は、図20に示すようにPhaco tipT2とフックT1の双方の先端を通る面を断層位置Pとする。深さ方向の断層位置Pは、例えば両術具の深さ位置の平均が断層面の中心となるようにする。
制御部104は、この断層位置Pの断層画像を取得するように断層情報取得部1012を制御する。これにより断層画像においてPhaco tipとフックの水晶体における深さを分かりやすくすることができる。
(核吸引)
核吸引では術具先端と水晶体303の位置関係の把握が重要となる。このため、制御部104は、図19に示すように術具Tの先端を通過し、術具Tの長手方向に沿って伸びる面を断層位置P1とし、術具Tの先端を通過し、術具Tの長手方向と一定角度(例えば90度)で交差する面を断層位置P2とする。深さ方向の断層位置P1及びP2は、例えば術具先端位置の深さを中心とする。また、後嚢303bの頂点(図4中、水晶体303の下向きに凸の頂点)の高さが断層面の下端の少し上となるようにしてもよい。
制御部104は、この断層位置Pの断層画像を取得するように断層情報取得部1012を制御する。これにより断層画像において術具先端と水晶体303の位置関係の把握を容易とすることができる。
[術式:網膜硝子体手術]
(硝子体切除)
図21は、硝子体切除での正面画像Gにおける断層位置P1及びP2を示す模式図である。硝子体切除では術具の先端は比較的広い範囲を移動する。このため、制御部104は、図21に示すように術具Tの先端を通過し、術具Tの長手方向に沿って伸びる面を断層位置P1とし、術具Tの先端を通過し、術具Tの長手方向と一定角度(例えば90度)で交差する面を断層位置P2とする。深さ方向の断層位置P1及びP2は、例えば術具先端位置の深さを中心とする。
ここで制御部104は、断層位置の深さ方向の動きを別の方法で制御することもできる。図22は、深さ方向の断層位置を示す模式図である。同図に示すように、網膜310の深さを基準に複数の深さ範囲(D1~D9)が定義されている。制御部104は、各深さ範囲の中心の深さと術具先端の深さを比較し、中心の深さが術具先端の深さに最も近い深さ範囲を断層位置とする。
制御部104は、この断層位置の断層画像を取得するように断層情報取得部1012を制御する。これにより術具先端の深さがわずかに変化しても断層位置の深さは変化せず、断層画像にておいて術具先端と網膜の位置関係を分かりやすくすることができる。
(膜処理1)
図23は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。膜処理では術具先端と網膜の深さの関係を把握したい場合がある。このため、制御部104は、図23に示すように術具Tの先端を通過し、術具Tの長手方向に沿って伸びる面を断層位置P1とし、術具Tの先端を通過し、術具Tの長手方向と一定角度(例えば90度)で交差する面を断層位置P2とする。深さ方向の断層位置P1及びP2は、例えば網膜の表面深さが断層面の下端の少し上となるようにする。
制御部104は、この断層位置Pの断層画像を取得するように断層情報取得部1012を制御する。これにより、断層画像において術具先端と網膜の位置関係を分かりやすくすることができる。
(膜処理2)
図24は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。膜処理では、特定の部分(例えば黄斑部311の位置)を常に注視しておきたい場合がある。このため、制御部104は、上記「膜処理1」の手法で断層位置P1及びP2を術具先端に追随させ、断層位置P1及びP2が注視対象の位置に導かれた後に、フットスイッチ等による指示を受けて断層位置P1及びP2を注視対象の位置(図では黄斑部中心窩311a)に固定することができる。図24は術具の移動後にも注視対象の位置に固定された断層位置P1及びP2を示す。
(膜処理3)
図25は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。上記膜処理2の場合において、断層位置P1及びP2の微調整を行いたい場合がある。このため、制御部104は、フットスイッチ等による指示を受けて断層位置P1及びP2の位置や向きを微調整することができる。図25の例では図24の状態から断層位置P1及びP2の向きが微調整されている。
(膜処理4)
図26は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。上記膜処理2又は膜処理3の場合において、眼の動きによって断層位置P1及びP2が注視対象の位置からずれてしまう場合がある。このため、制御部104は、フットスイッチ等による指示を受けて画像処理により注視対象の位置をトラッキングし、断層位置P1及びP2を注視対象の位置に追随させてもよい。図26の例では図25の状態から正面画像Gにおける注視対象(黄斑部311)の位置がずれているが、断層位置P1及びP2は注視対象に追随して移動している。
(膜処理5)
図27は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。膜処理では注視対象は黄斑部や視神経乳頭などの眼の特定の部位となることが多い。そこで制御部104は、フットスイッチ等による指示を受けて眼の特定の部位を基準として予め定められた断層位置P1及びP2を用いてもよい。図27の例では黄斑部中心窩311aを中心とし、中心窩311aと視神経乳頭312の中心を結ぶ面を断層位置P1、断層位置P1に直交する面を断層位置P2としている。
[術式:緑内障]
(MIGS1)
図28は、MIGSでの正面画像Gにおける断層位置Pを示す模式図である。MIGS(低侵襲緑内障手術)では、繊維柱帯をバイパスするインプラント等を留置する際には施術位置の繊維柱帯部分の把握が重要である。施術位置へのアクセスは対角部分に作成した創口301aを介して行われる。制御部104は、創口301aの位置をトラッキングしておき、その位置と対角の位置となる繊維柱帯付近に、小さなボリューム状の断層情報(連続的に撮像された断層画像から構成されたボリュームデータ)が取得されるように断層位置Pを設定する。
深さ方向の断層位置Pは例えば繊維柱帯の高さ(隅角307)が中心となるようにする。制御部104は、この断層位置Pのボリュームデータを取得するように断層情報取得部1012を制御する。これにより、施術位置の繊維柱帯部分の把握が容易となる。
(MIGS2)
図29は、MIGSでの眼とボリュームデータ取得位置の関係を示す模式図である。MIGSで広範囲の繊維柱帯にアクセスする手技の際等おいて制御部104は、図29に示すように繊維柱帯の全周360°分を含むリング状(例えばドーナツ状)の断層位置Pにおいてボリュームデータを取得するようにしてもよい。
[術式:角膜内皮移植]
(DSAEK)
図30は、DSAEKでの正面画像Gにおける断層位置Pを示す模式図である。同図に示すようにDSAEK(角膜内皮移植)では移植片を患者に移植する際、患者の角膜と移植片の間の隙間を棒状の術具Tによって撫でることで減らしていくが、隙間がなくなったか否かを確認するには撫で終わった部分の確認を行う必要がある。同図において術具Tの進行方向を矢印で示す。図31は、一般的な固定断層(図30中、断層位置Q)で取得される断層画像の例であり、角膜301及び移植片313を含む。
制御部104は、図30に示すように、棒状の術具Tと平行に、術具Tに少し遅れる方向で離れた位置を断層位置Pとする。深さ方向の断層位置Pは、例えば角膜内面の頂点(図4において上に凸の頂点)の位置が断層画像における上端の少し下となるようにする。制御部104は、この断層位置Pの断層画像を取得するように断層情報取得部1012を制御する。これにより、断層画像において角膜と移植片の隙間を確認しやすくなる。
(顕微鏡倍率に基づくスケール決定)
制御部104は、正面画像取得部1011用の顕微鏡の倍率が変更された場合には、その拡大倍率に応じて断層位置Pを調整してもよい。図32は断層位置P1及びP2の調整を示す模式図である。顕微鏡の倍率が図32(a)から図32(b)のように拡大されると、制御部104は正面画像Gにおいて断層位置P1及びP2が占める範囲が変化しないようにスケールを調整することができる。また、制御部104は、図32(c)に示すように正面画像Gにおいて画枠に対して断層位置P1及びP2が占める範囲が変化しないように断層位置P1及びP2のスケールを調整してもよい。
(フィルタ)
術具先端や眼の部位の検出結果が時間方向で誤差により微小に変動することがある。また、術具先端等の動きが不連続に変化することがある。上記のような場合には、制御部104は術具先端等の検出位置に対して時間方向の平滑化フィルタを適用することで断層位置Pのばらつきを抑えることができる。フィルタのオン、オフは図7や図10のようにメニュー表示を用いて選択してもよいし、フットスイッチなどを用いて選択してもよい。
<断層取得位置の提示について>
(正面画像における断層取得位置の提示)
上記のように表示情報生成部105は制御部104による制御を受けて断層位置を正面画像に重畳させ、表示情報を生成する。これまでの説明のように正面画像に断層位置を表す断層線を表示(図9参照)してもよいが、この線によって術野視認性が低減する場合もある。このため、表示情報生成部105は、図33に示すように断層線の端点付近に断層位置を示す画像Rを重畳させてもよい。この画像Rは同図に示すような矢印形状であってもよく、他の形状であってもよい。
また、表示情報生成部105は、画像Rの表示に加え、図34に示すように正面画像において断層線に相当する範囲Dを無彩色とすることができる。反対に表示情報生成部105は、範囲Dのみを有彩色とし、それ以外の領域を無彩色としてもよい。この他にも表示情報生成部105は、範囲Dとそれ以外の領域で画像加工の方法を異なるものとすることにより、断層位置を示すことが可能である。加工方法の例としては、色の飽和度又は輝度のレベルを変化させることが挙げられる。
(断層位置の深さの提示)
表示情報生成部105は、断層位置の深さを示す表示情報を生成することができる。図35及び図36は、断層位置の深さを示す画像の例である。表示情報生成部105は、図35に示すように、眼を表す画像(例えば模式図)にインジケーターBを配置し、断層の相対深さを線状に表現することができる。また、表示情報生成部105は、図36に示すように、眼を表す画像(例えば模式図)に断層の相対位置を図形Cで表現することもできる。
<断層情報の提示について>
表示情報生成部105は、正面画像と断層画像を含む画像を表示情報として生成することができる。図37乃至図39は、正面画像G、断層画像F1及び断層画像F2を含む画像である。断層画像F1は断層位置P1において取得され、断層画像G2は断層位置P2において取得された断層画像である。
(一般的な提示方法)
図37に示すように、断層の位置や向きによらず固定の位置や角度(多くの場合には画像周縁に対して垂直や水平)で断層画像が配置されることが一般的である。
(断層面の向きの反映)
表示情報生成部105は、図38に示すように、断層の向きと断層画像の向きを揃える(断層位置P1と断層画像F1の周縁を平行とし、断層位置P2と断層画像F2の周縁を平行とする)ことで、断層位置と断層画像の対応関係をわかりやすくすることができる。
(断層面の位置の反映)
また、図40は表示情報に配置される断層画像の範囲を示す模式図である。図40(a)に示す範囲H1は、図39(a)に示す断層画像F1として取得される範囲であり、図40(b)に示す範囲H2は図39(b)に示す断層画像F1として取得される範囲である。
制御部104は、術具Tの先端位置に応じて断層位置P1で図40(a)に示すように範囲H1の断層画像を断層情報取得部1012に取得させる。その後、制御部104は術具Tの先端位置が移動すると断層位置P1で図40(b)に示すように範囲H2の断層画像を断層情報取得部1012に取得させる。表示情報生成部105は例えば、断層位置P1の術具長手方向での位置に応じて正面画像Gにおける断層画像F1の提示位置を移動させる。例えば図39(a)から図39(b)への変化のように術具が長手方向の奥に進む場合、断層画像F1の提示位置を奥に進んだ距離の分だけ正面画像G上で左に移動させる。
これにより、表示情報生成部105は、術具Tの長手方向に伸びる断層位置P1の断層画像F1は大きな断層画像の一部をウィンドウで抜き出して提示しているかのような断層画像の動画を提示することが可能となる。例えばPEAにおける溝掘りにおいて図19を用いて説明した断層画像の取得方法から、断層の取得範囲の部分のみ術具先端位置から一定距離の範囲とするように変更した方法において図40に示すような提示方法を用いると、術具長手方向の断層取得範囲を小さくしても十分な情報を得ることができるようになる。
この結果として断層取得の時間あたりの枚数を増やすことができるようになり、時間的に密な観察ができるようになる。この効果は図41に示すように断層画像の取得範囲Hを小さくすると更に大きくなる。
(DSAEK1)
図30及び図31において説明したように、DSAEKにおいて、患者角膜と移植片との間隙を削除する手技における断層情報取得方法において、術者が十分に間隙を削減できたと判断した後に間隙の様子を確認したい場合がある。図42は、表示情報として表示される動画の模式図である。制御部104は、図42に示すように、例えば、手技において術具で角膜を撫でる最後の一撫でについて前述の方法で取得した断層画像を保持しておき、表示情報生成部105はこれを動画として再生することができる。これにより術者が間隙の様子を容易に確認することが可能となる。
(DSAEK2)
図43(a)は断層情報取得部1012によって取得されるボリュームデータの例であり、図43(b)は、同ボリュームデータから生成された断層画像の例である。制御部104は、同様に最後の一撫でに関する断層画像を保持しておき、これをもとに図43(a)に示すようなボリュームデータを生成することができる。また、制御部104は、同ボリュームデータから術者の指示などに従って図43(b)に示すように任意の断層画像を表示させることで、術者が間隙の様子を容易に確認することが可能となる。
<補足>
(深さ位置の予測)
制御部104は、術具先端の深さを断層画像における術具先端位置から求めることができるが、断層画像中に術具先端が含まれない場合には、過去の断層画像における先端位置の動きなどから予測により求めることも可能である。制御部104は、最後に断層画像に術具先端が存在した際の深さを現在の術具先端の深さとしてもよいし、深さ方向の速度等も考慮して予測しても良い。
制御部104は、眼の各部位の深さとして、断層画像中に当該部位が存在していればその深さを用いることができる。制御部104は、断層画像中に当該部位が存在していない場合には過去の深さからの予測や、断層画像中に存在する他の部位の深さと、他の部位と当該部位の深さの関係(断層像での実測、術前計測、一般的な平均値など)からの予測等により求めることも可能である。深さの基準として好適な眼の部位は、角膜頂、隅角、前嚢頂、後嚢頂、網膜、脈絡膜及び強膜等が挙げられる。
(走査パラメータの設定)
制御部104は、図16において説明したように断層位置を走査する場合、ユーザによる操作入力を受けて術具先端、角膜輪部等の眼の特定部位等からの走査位置(中心等)のオフセット等を術前および術中に随時変更することが可能である。また、制御部104は、ユーザによる操作入力を受けて走査の長さを術前および術中に随時変更することができる。
(類似基準位置の利用)
上記説明における角膜中心は瞳孔中心により置き換えてもよい。
(断層情報の利用目的)
上記説明においては主に取得した断層をユーザへの提示に用いているが、断層情報からの危険検出など、他の目的に用いることも可能である。
(動作モードの指定方法)
画像処理システム100における動作モードの選択は、上記のように制御部104が選定した手技に対応する動作モードを選択することを基本とする。さらに画像処理システム100は直接にユーザが動作モードの指定を行えるような構成を有していてもよく、断層取得の方法や断層位置の提示方法、断層画像の提示方法などを個別に直接指定できる構成を有していてもよい。
<ハードウェア構成>
図44は、画像処理装置120のハードウェア構成を示す模式図である。同図に示すように画像処理装置120はハードウェア構成として、CPU121、メモリ122、ストレージ123及び入出力部(I/O)124を有する。これらはバス125によって互いに接続されている。
CPU(Central Processing Unit)121は、メモリ122に格納されたプログラムに従って他の構成を制御すると共に、プログラムに従ってデータ処理を行い、処理結果をメモリ122に格納する。CPU121はマイクロプロセッサであるものとすることができる。
メモリ122はCPU121によって実行されるプログラム及びデータを格納する。メモリ122はRAM(Random Access Memory)であるものとすることができる。
ストレージ123は、プログラムやデータを格納する。ストレージ123はHDD(Hard disk drive)やSSD(solid state drive)であるものとすることができる。
入出力部124は画像処理装置120に対する入力を受け付け、また画像処理装置120の出力を外部に供給する。入出力部124は、キーボードやマウス等の入力機器やディスプレイ等の出力機器、ネットワーク等の接続インターフェースを含む。
画像処理装置120のハードウェア構成はここに示すものに限られず、画像処理装置120の機能的構成を実現できるものであればよい。また、上記ハードウェア構成の一部又は全部はネットワーク上に存在していてもよい。
なお、本技術は以下のような構成もとることができる。
(1)
眼を撮像した画像である正面画像に対して画像認識を実行する画像認識部と、
表示情報を生成する表示情報生成部と、
選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部と
を具備する画像処理装置。
(2)
上記(1)に記載の画像処理装置であって、
上記制御部は、ユーザによる指示を受けて手技を選定する
画像処理装置。
(3)
上記(1)に記載の画像処理装置であって、
上記制御部は、ユーザによる指示と、上記正面画像に対する状況認識に基づいて手技を選定する
画像処理装置。
(4)
上記(1)に記載の画像処理装置であって、
上記制御部は、上記正面画像に対する状況認識に基づいて手技を選定する
画像処理装置。
(5)
上記(2)又は(3)に記載の画像処理装置であって、
上記制御部は、上記画像認識部による認識結果を利用してユーザによる指示を判断する
画像処理装置。
(6)
上記(3)又は(4)に記載の画像処理装置であって、
請求項3又は4に記載の画像処理装置であって、
上記制御部は、上記画像認識部による認識結果を利用して状況認識を行う
画像処理装置。
(7)
上記(5)に記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の先端の位置に基づいてユーザによる指示を判断する
画像処理装置。
(8)
上記(6)に記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の種類を特定し、上記術具の種類に基づいて状況認識を行う
画像処理装置。
(9)
上記(8)に記載の画像処理装置であって、
上記制御部は、上記術具の種類と上記正面画像の特徴に基づいて状況認識を行う
画像処理装置。
(10)
上記(1)乃至(9)のいずれか一つに記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の形状に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。
(11)
上記(1)乃至(9)のいずれか一つに記載の画像処理装置であって、
請求項1に記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる眼の部位を認識し、
上記制御部は、上記正面画像に含まれる眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。
(12)
上記(1)乃至(9)のいずれか一つに記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具と眼の部位を認識し、
上記制御部は、上記正面画像に含まれる術具の形状と眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。
(13)
上記(1)乃至(12)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の位置である断層位置に基づいて上記表示情報における上記断層情報の位置を変更する
画像処理装置。
(14)
上記(1)乃至(13)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の向きに基づいて上記表示情報における上記断層情報の向きを変更する
画像処理装置。
(15)
上記(1)乃至(14)のいずれか一つに記載の画像処理装置であって、
請求項1に記載の画像処理装置であって、
上記画像認識部は、上記断層情報に対して画像認識を実行し、
上記制御部は、上記画像認識部による上記断層情報に対する画像認識結果に基づいて施術によって形成された切開縁を検出する
画像処理装置。
(16)
上記(15)に記載の画像処理装置であって、
上記画像認識部は、上記正面画像において眼の部位を認識し、
上記制御部は、上記画像認識によって検出された眼の部位に基づいて、上記切開縁の上記正面画像における位置を特定し、
上記表示情報生成部は、上記制御部によって特定された位置に上記切開縁を表す画像を重畳させた表示情報を生成する
画像処理装置。
(17)
上記(1)乃至(16)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記正面画像に断層情報を取得する断層面の位置を示す断層線の端点を示す画像を重畳させた表示情報を生成する
画像処理装置。
(18)
上記(1)乃至(17)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記正面画像に断層情報を取得する断層面の位置を示す断層線を表す加工を施して表示情報を生成する
画像処理装置。
(19)
画像認識部が、眼を撮像した画像である正面画像に対して画像認識を実行し、
表示情報生成部が、表示情報を生成し、
制御部が、選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する
画像処理方法。
(20)
眼の断層情報を生成する断層情報取得部を備える断層情報取得装置と、
眼を撮像して正面画像を生成する正面画像取得部を備える正面画像撮像装置と、
上記正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、選定された手技に応じて、上記断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部とを備える画像処理装置と
を具備する画像処理システム。
100…画像処理システム
101…画像情報取得部
102…画像認識部
103…インターフェース部
104…制御部
105…表示情報生成部
106…表示部
1011…正面画像取得部
1012…断層情報取得部

Claims (16)

  1. 眼を撮像した画像である正面画像に対して画像認識を実行する画像認識部と、
    表示情報を生成する表示情報生成部と、
    ユーザによる指示又は前記正面画像の特徴に基づいて、順に進行する複数の手技からなる術式を選定し、
    選定した前記術式に応じて前記表示情報生成部を制御して生成させた表示情報に対して行われるユーザの指示、及び、前記画像認識部による画像認識結果の少なくとも一方に基づいて、前記複数の手技から1つの手技を選定し、
    選定した手技に応じた動作モードで動作するように、眼の断層情報を取得する断層情報取得部及び前記表示情報生成部の少なくとも一方を制御し、
    ユーザからの手技の完了の指示に基づいて、次の手技に応じた動作モードで動作するように、前記断層情報取得部及び前記表示情報生成部の少なくとも一方を制御する
    制御部と
    を具備する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記動作モードには、断層情報の取得方法、断層情報の提示方法及びGUI(Graphical User Interface)の提示方法が含まれる
    画像処理装置。
  3. 請求項1又は2に記載の画像処理装置であって、
    前記制御部は、前記画像認識部による認識結果を利用してユーザによる指示を判断する
    画像処理装置。
  4. 請求項に記載の画像処理装置であって、
    前記画像認識部は、前記正面画像に含まれる術具を認識し、
    前記制御部は、前記正面画像に含まれる術具の先端の位置に基づいてユーザによる指示を判断する
    画像処理装置。
  5. 請求項1又は2に記載の画像処理装置であって、
    前記画像認識部は、前記正面画像に含まれる術具を認識し、
    前記制御部は、前記正面画像に含まれる術具の種類を特定し、前記術具の種類に基づいて前記複数の手技から1つの手技を選定する
    画像処理装置。
  6. 請求項1から5のいずれか一項に記載の画像処理装置であって、
    前記画像認識部は、前記正面画像に含まれる術具を認識し、
    前記制御部は、前記正面画像に含まれる術具の形状に基づいて断層情報を取得する断層面の位置である断層位置を決定する
    画像処理装置。
  7. 請求項1から5のいずれか一項に記載の画像処理装置であって、
    前記画像認識部は、前記正面画像に含まれる眼の部位を認識し、
    前記制御部は、前記正面画像に含まれる眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
    画像処理装置。
  8. 請求項1から5のいずれか一項に記載の画像処理装置であって、
    前記画像認識部は、前記正面画像に含まれる術具と眼の部位を認識し、
    前記制御部は、前記正面画像に含まれる術具の形状と眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
    画像処理装置。
  9. 請求項1から8のいずれか一項に記載の画像処理装置であって、
    前記表示情報生成部は、前記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の位置である断層位置に基づいて前記表示情報における前記断層情報の位置を変更する
    画像処理装置。
  10. 請求項1から9のいずれか一項に記載の画像処理装置であって、
    前記表示情報生成部は、前記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の向きに基づいて前記表示情報における前記断層情報の向きを変更する
    画像処理装置。
  11. 請求項1から10のいずれか一項に記載の画像処理装置であって、
    前記画像認識部は、前記断層情報に対して画像認識を実行し、
    前記制御部は、前記画像認識部による前記断層情報に対する画像認識結果に基づいて施術によって形成された切開縁を検出する
    画像処理装置。
  12. 請求項11に記載の画像処理装置であって、
    前記画像認識部は、前記正面画像において眼の部位を認識し、
    前記制御部は、前記画像認識によって検出された眼の部位に基づいて、前記切開縁の前記正面画像における位置を特定し、
    前記表示情報生成部は、前記制御部によって特定された位置に前記切開縁を表す画像を重畳させた表示情報を生成する
    画像処理装置。
  13. 請求項1から12のいずれか一項に記載の画像処理装置であって、
    前記表示情報生成部は、前記正面画像に断層情報を取得する断層面の位置を示す断層線の端点を示す画像を重畳させた表示情報を生成する
    画像処理装置。
  14. 請求項1から13のいずれか一項に記載の画像処理装置であって、
    前記表示情報生成部は、前記正面画像に断層情報を取得する断層面の位置を示す断層線を表す加工を施して表示情報を生成する
    画像処理装置。
  15. 画像認識部が、眼を撮像した画像である正面画像に対して画像認識を実行し、
    表示情報生成部が、表示情報を生成し、
    制御部が、
    ユーザによる指示又は前記正面画像の特徴に基づいて、順に進行する複数の手技からなる術式を選定し、
    選定した前記術式に応じて前記表示情報生成部を制御して生成させた表示情報に対して行われるユーザの指示、及び、前記画像認識部による画像認識結果の少なくとも一方に基づいて、前記複数の手技から1つの手技を選定し、
    選定した手技に応じた動作モードで動作するように、眼の断層情報を取得する断層情報取得部及び前記表示情報生成部の少なくとも一方を制御し、
    ユーザからの手技の完了の指示に基づいて、次の手技に応じた動作モードで動作するように、前記断層情報取得部及び前記表示情報生成部の少なくとも一方を制御する
    画像処理方法。
  16. 眼の断層情報を生成する断層情報取得部を備える断層情報取得装置と、
    眼を撮像して正面画像を生成する正面画像取得部を備える正面画像撮像装置と、
    前記正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、制御部とを備える画像処理装置と
    を具備する画像処理システムであって、
    前記制御部は、
    ユーザによる指示又は前記正面画像の特徴に基づいて、順に進行する複数の手技からなる術式を選定し、
    選定した前記術式に応じて前記表示情報生成部を制御して生成させた表示情報に対して行われるユーザの指示、及び、前記画像認識部による画像認識結果の少なくとも一方に基づいて、前記複数の手技から1つの手技を選定し、
    選定した手技に応じた動作モードで動作するように眼の断層情報を取得する断層情報取得部及び前記表示情報生成部の少なくとも一方を制御し、
    ユーザからの手技の完了の指示に基づいて、次の手技に応じた動作モードで動作するように、前記断層情報取得部及び前記表示情報生成部の少なくとも一方を制御する
    画像処理システム。
JP2019517478A 2017-05-09 2018-03-19 画像処理装置、画像処理方法及び画像処理プログラム Active JP7088176B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017092978 2017-05-09
JP2017092978 2017-05-09
PCT/JP2018/010738 WO2018207466A1 (ja) 2017-05-09 2018-03-19 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2018207466A1 JPWO2018207466A1 (ja) 2020-03-12
JP7088176B2 true JP7088176B2 (ja) 2022-06-21

Family

ID=64104438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517478A Active JP7088176B2 (ja) 2017-05-09 2018-03-19 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (4)

Country Link
US (1) US10993838B2 (ja)
EP (1) EP3607922B1 (ja)
JP (1) JP7088176B2 (ja)
WO (1) WO2018207466A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230368380A1 (en) * 2020-09-21 2023-11-16 Carl Zeiss Meditec, Inc. Device for positioning an implant in a target area of an eye
JPWO2022091431A1 (ja) * 2020-10-27 2022-05-05
JP2022115321A (ja) * 2021-01-28 2022-08-09 ソニー・オリンパスメディカルソリューションズ株式会社 医療用制御装置及び医療用観察システム
JP2022116559A (ja) * 2021-01-29 2022-08-10 ソニーグループ株式会社 画像処理装置、画像処理方法及び手術顕微鏡システム
JP2022116438A (ja) * 2021-01-29 2022-08-10 ソニーグループ株式会社 制御装置、制御システム及び制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120184846A1 (en) 2011-01-19 2012-07-19 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
JP2016073409A (ja) 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
JP2016532483A (ja) 2013-07-29 2016-10-20 バイオプティジェン, インコーポレイテッドBioptigen, Inc. 外科手術用手技光干渉断層計及び関連するシステム及びその方法
US20160331584A1 (en) 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
WO2017065018A1 (ja) 2015-10-15 2017-04-20 ソニー株式会社 画像処理装置、画像処理方法、および手術顕微鏡

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5098426A (en) * 1989-02-06 1992-03-24 Phoenix Laser Systems, Inc. Method and apparatus for precision laser surgery
US8363783B2 (en) * 2007-06-04 2013-01-29 Oraya Therapeutics, Inc. Method and device for ocular alignment and coupling of ocular structures
US10524822B2 (en) * 2009-03-06 2020-01-07 Procept Biorobotics Corporation Image-guided eye surgery apparatus
US10383765B2 (en) * 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US9827054B2 (en) 2014-03-14 2017-11-28 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
CN106028911A (zh) * 2014-03-04 2016-10-12 南加利福尼亚大学 具有延长的持续时间的光学相干断层扫描(oct)系统
DE102014007908A1 (de) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Chirurgie-System
DE102014007909A1 (de) 2014-05-27 2015-12-03 Carl Zeiss Meditec Ag Chirurgisches Mikroskop
DE102015000383B4 (de) 2015-01-13 2023-06-15 Carl Zeiss Meditec Ag Chirurgisches Mikroskop
US20180299658A1 (en) * 2015-04-23 2018-10-18 Duke University Systems and methods of optical coherence tomography stereoscopic imaging for improved microsurgery visualization
JP2016214781A (ja) 2015-05-26 2016-12-22 ソニー株式会社 手術システム、並びに画像処理装置および方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120184846A1 (en) 2011-01-19 2012-07-19 Duke University Imaging and visualization systems, instruments, and methods using optical coherence tomography
JP2016532483A (ja) 2013-07-29 2016-10-20 バイオプティジェン, インコーポレイテッドBioptigen, Inc. 外科手術用手技光干渉断層計及び関連するシステム及びその方法
JP2016073409A (ja) 2014-10-03 2016-05-12 ソニー株式会社 情報処理装置、情報処理方法及び手術顕微鏡装置
US20160331584A1 (en) 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
WO2017065018A1 (ja) 2015-10-15 2017-04-20 ソニー株式会社 画像処理装置、画像処理方法、および手術顕微鏡

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ROODAKI, Hessam, et al.,Introducing Augmented Reality to Optical Coherence Tomography in Ophthalmic Microsurgery,2015 IEEE International Symposium on Mixed and Augmented Reality (ISMAR),IEEE,2015年,pp. 1-6

Also Published As

Publication number Publication date
EP3607922B1 (en) 2022-07-20
JPWO2018207466A1 (ja) 2020-03-12
EP3607922A4 (en) 2020-03-25
WO2018207466A1 (ja) 2018-11-15
US20200146885A1 (en) 2020-05-14
US10993838B2 (en) 2021-05-04
EP3607922A1 (en) 2020-02-12

Similar Documents

Publication Publication Date Title
JP7088176B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US11918515B2 (en) Methods and systems for OCT guided glaucoma surgery
US11819457B2 (en) Methods and systems for OCT guided glaucoma surgery
KR101552297B1 (ko) 레이저-보조 눈-수술 치료 시스템을 위한 장치 및 방법
CN106714662B (zh) 信息处理设备、信息处理方法、以及手术显微镜设备
JP6819223B2 (ja) 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム
EP4238484A1 (en) Ophthalmological observation device, method for controlling same, program, and storage medium
US20240103260A1 (en) Control device, control system, and control method
US20220148165A1 (en) Surgical microscope system, image processing method, program, and image processing device
JP2018175790A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R151 Written notification of patent or utility model registration

Ref document number: 7088176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151