JP7088176B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法及び画像処理プログラム Download PDFInfo
- Publication number
- JP7088176B2 JP7088176B2 JP2019517478A JP2019517478A JP7088176B2 JP 7088176 B2 JP7088176 B2 JP 7088176B2 JP 2019517478 A JP2019517478 A JP 2019517478A JP 2019517478 A JP2019517478 A JP 2019517478A JP 7088176 B2 JP7088176 B2 JP 7088176B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- tomographic
- image processing
- display information
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 158
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims description 183
- 238000001356 surgical procedure Methods 0.000 claims description 39
- 210000001508 eye Anatomy 0.000 description 65
- 238000010586 diagram Methods 0.000 description 55
- 239000012528 membrane Substances 0.000 description 22
- 239000002775 capsule Substances 0.000 description 21
- 210000004087 cornea Anatomy 0.000 description 16
- 210000000695 crystalline len Anatomy 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 238000012014 optical coherence tomography Methods 0.000 description 7
- 210000001525 retina Anatomy 0.000 description 7
- 230000002207 retinal effect Effects 0.000 description 7
- 208000002177 Cataract Diseases 0.000 description 5
- 208000001351 Epiretinal Membrane Diseases 0.000 description 5
- 208000031471 Macular fibrosis Diseases 0.000 description 5
- 206010025421 Macule Diseases 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 210000001585 trabecular meshwork Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 208000010412 Glaucoma Diseases 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000000871 endothelium corneal Anatomy 0.000 description 3
- 238000002054 transplantation Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000000873 fovea centralis Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000002271 resection Methods 0.000 description 2
- 210000003786 sclera Anatomy 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000003511 endothelial effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000004127 vitreous body Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/00736—Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
- A61F9/00745—Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments using mechanical vibrations, e.g. ultrasonic
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F9/00—Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
- A61F9/007—Methods or devices for eye surgery
- A61F9/00781—Apparatus for modifying intraocular pressure, e.g. for glaucoma treatment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00973—Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
- A61B2090/3735—Optical coherence tomography [OCT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/034—Recognition of patterns in medical or anatomical images of medical instruments
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physics & Mathematics (AREA)
- Vascular Medicine (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Description
上記制御部は、上記正面画像に含まれる術具の先端の位置に基づいてユーザによる指示を判断してもよい。
上記制御部は、上記正面画像に含まれる術具の種類を特定し、上記術具の種類に基づいて状況認識を行ってもよい。
上記制御部は、上記正面画像に含まれる術具の形状に基づいて断層情報を取得する断層面の位置である断層位置を決定してもよい。
上記制御部は、上記正面画像に含まれる眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
眼の部位に対する具体的な断層位置は手技に応じて設定することができる。
上記制御部は、上記正面画像に含まれる術具の形状と眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定してもよい。
上記制御部は、上記画像認識部による上記断層情報に対する画像認識結果に基づいて施術によって形成された切開縁を検出してもよい。
上記制御部は、上記画像認識によって検出された眼の部位に基づいて、上記切開縁の上記正面画像における位置を特定し、
上記表示情報生成部は、上記制御部によって特定された位置に上記切開縁を表す画像を重畳させた表示情報を生成してもよい。
表示情報生成部が、表示情報を生成し、
制御部が、選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する。
上記断層情報取得装置は、眼の断層情報を生成する断層情報取得部を備える。
上記正面画像撮像装置は、眼を撮像して正面画像を生成する正面画像取得部を備える。
上記画像処理装置は、上記正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、選定された手技に応じて、上記断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部とを備える。
図1は、本実施形態に係る画像処理システム100の構成を示すブロック図である。同図に示すように、画像処理システム100は、画像情報取得部101、画像認識部102、インターフェース部103、制御部104、表示情報生成部105及び表示部106を具備する。また、画像認識部102、インターフェース部103、制御部104及び表示情報生成部105は画像処理装置120の機能的構成である。
図3は、正面画像取得部1011が取得する正面画像(以下、正面画像G)の例であり、図4は、断層情報取得部1012が取得する断層画像(以下、断層画像F)の例である。図4に示す断層画像は、図3に示す断層面の位置(以下、断層位置P)において取得された画像である。
図5は、画像処理システム100の手技に応じた動作モードを示す表である。同図に示すように、術式には、PEA(phacoemulsification and aspiration:超音波水晶体乳化吸引術)、PPV(pars plana vitrectomy:経毛様体扁平部硝子体切除)、ERM(epi-retinal membrane:網膜上膜)除去、MIGS(minimally invasive glaucoma surgery:低侵襲緑内障手術)、Device1設置、DSAEK(Descemet's stripping automated endothelial keratoplasty:角膜内皮移植)等がある。
手技の選定ステップ(St101)の詳細について説明する。上記のように制御部104は、ユーザの指示及び状況認識のいずれか一方又は両方に基づいて手技を認定する。
図7乃至図9は、ユーザ指示に基づく手技の選定を示す模式図であり、網膜硝子体手術の一種である、黄斑上膜(ERM)に対する硝子体切除術(PPV)における膜剥離の手技の選定の例である。
図10乃至図12は、ユーザ指示及び状況認識に基づく手技の選定を示す模式図であり、白内障手術の一種である超音波水晶体乳化吸引術(PEA)における創口作成の手技の選定の例である。
図13は、状況認識に基づく手技の選定を示す模式図であり、網膜硝子体手術の一種である、黄斑上膜(ERM)に対する硝子体切除術(PPV)における膜剥離の手技の選定の例である。
動作モード設定ステップ(St102)の詳細について説明する。上記のように制御部104は、手技を選定すると、当該手技の実施に適した動作モードで動作するように断層情報取得部1012及び表示情報生成部105のいずれか一方又は両方を制御する。
画像処理システム100においては上述のようにして制御部104が手技を選定し、手技に応じた動作モードを設定する。以下ではそれぞれの手技に対応する動作モードについて説明する。
[術式:白内障PEA]
(創口作成)
創口作成では眼外から角膜301(図4参照)の中心の方向に向かって切開を行う。このため制御部104は、図12に示すように正面画像における断層位置Pを術具T先端と角膜中心(図中A)を結ぶ面とし、面の長さは両端で少し延ばす。深さ方向の断層位置Pは、例えば隅角307の高さを中心とする。制御部104は、この断層位置Pの断層画像を取得するように断層情報取得部1012を制御する。これにより断層画像を参照して術具の挿入確度が適切であるか否か、創口が完全に形成されているか否か等を容易に把握することが可能となる。
図14は、前嚢切開での正面画像Gにおける断層位置Pを示す模式図である。前嚢切開時には前嚢303aの視認性が悪く、切開がどこまで進んだかわかりにくい。このため、制御部104は、図14に示すように、角膜中心Aを中心とする直径3~4mm程度の円を断層位置Pとして、矢印の始点から終点までを走査するように断層情報取得部1012を制御する。深さ方向の断層位置Pは例えば前嚢303aの高さを中心とする。図15は、断層位置Pについて取得された断層画像である。同図に示すように切開終了範囲(前嚢303aが剥離された範囲)を分かりやすくすることができる。
図16は、前嚢切開での正面画像Gにおける断層位置Pを示す模式図である。前嚢切開時には、前嚢303aの視認性が悪いため、切開終了範囲のみではなく、切開の縁が角膜中心からどのような距離にあるかを確認したい場合もある。このため、制御部104は、図16に示すように、角膜中心Aから角膜輪部306を結ぶ面を断層位置Pとし、この線を矢印Lで示すように角膜中心Aを中心として周期的に回転させる。深さ方向の断層位置Pは例えば前嚢303aの高さを中心とする。制御部104は、回転する断層位置Pの各角度での断層画像を取得するように断層情報取得部1012を制御する。
図19は、溝掘りでの正面画像Gにおける断層位置P1及びP2を示す模式図である。溝掘りでは術具の長手方向に沿って手前から奥まで術具を進め、水晶体303の核を掘り進める。この際に深さ情報の不足から誤って後嚢303b(図4参照)に術具を進め、破損させてしまうことがある。このため、制御部104は、図19に示すように、術具Tの先端を通過し、術具Tの長手方向に沿った面を断層位置P1とする。
図20は、核分割での正面画像Gにおける断層位置Pを示す模式図である。核分割ではPhaco tip(Phacoemulsification Tip:水晶体乳化チップ)とフックの双方が十分に深い位置にあることが重要であるが、意図せず浅い位置にある状態で分割を試行して失敗することがある。このため、制御部104は、図20に示すようにPhaco tipT2とフックT1の双方の先端を通る面を断層位置Pとする。深さ方向の断層位置Pは、例えば両術具の深さ位置の平均が断層面の中心となるようにする。
核吸引では術具先端と水晶体303の位置関係の把握が重要となる。このため、制御部104は、図19に示すように術具Tの先端を通過し、術具Tの長手方向に沿って伸びる面を断層位置P1とし、術具Tの先端を通過し、術具Tの長手方向と一定角度(例えば90度)で交差する面を断層位置P2とする。深さ方向の断層位置P1及びP2は、例えば術具先端位置の深さを中心とする。また、後嚢303bの頂点(図4中、水晶体303の下向きに凸の頂点)の高さが断層面の下端の少し上となるようにしてもよい。
(硝子体切除)
図21は、硝子体切除での正面画像Gにおける断層位置P1及びP2を示す模式図である。硝子体切除では術具の先端は比較的広い範囲を移動する。このため、制御部104は、図21に示すように術具Tの先端を通過し、術具Tの長手方向に沿って伸びる面を断層位置P1とし、術具Tの先端を通過し、術具Tの長手方向と一定角度(例えば90度)で交差する面を断層位置P2とする。深さ方向の断層位置P1及びP2は、例えば術具先端位置の深さを中心とする。
図23は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。膜処理では術具先端と網膜の深さの関係を把握したい場合がある。このため、制御部104は、図23に示すように術具Tの先端を通過し、術具Tの長手方向に沿って伸びる面を断層位置P1とし、術具Tの先端を通過し、術具Tの長手方向と一定角度(例えば90度)で交差する面を断層位置P2とする。深さ方向の断層位置P1及びP2は、例えば網膜の表面深さが断層面の下端の少し上となるようにする。
図24は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。膜処理では、特定の部分(例えば黄斑部311の位置)を常に注視しておきたい場合がある。このため、制御部104は、上記「膜処理1」の手法で断層位置P1及びP2を術具先端に追随させ、断層位置P1及びP2が注視対象の位置に導かれた後に、フットスイッチ等による指示を受けて断層位置P1及びP2を注視対象の位置(図では黄斑部中心窩311a)に固定することができる。図24は術具の移動後にも注視対象の位置に固定された断層位置P1及びP2を示す。
図25は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。上記膜処理2の場合において、断層位置P1及びP2の微調整を行いたい場合がある。このため、制御部104は、フットスイッチ等による指示を受けて断層位置P1及びP2の位置や向きを微調整することができる。図25の例では図24の状態から断層位置P1及びP2の向きが微調整されている。
図26は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。上記膜処理2又は膜処理3の場合において、眼の動きによって断層位置P1及びP2が注視対象の位置からずれてしまう場合がある。このため、制御部104は、フットスイッチ等による指示を受けて画像処理により注視対象の位置をトラッキングし、断層位置P1及びP2を注視対象の位置に追随させてもよい。図26の例では図25の状態から正面画像Gにおける注視対象(黄斑部311)の位置がずれているが、断層位置P1及びP2は注視対象に追随して移動している。
図27は、膜処理での正面画像Gにおける断層位置P1及びP2を示す模式図である。膜処理では注視対象は黄斑部や視神経乳頭などの眼の特定の部位となることが多い。そこで制御部104は、フットスイッチ等による指示を受けて眼の特定の部位を基準として予め定められた断層位置P1及びP2を用いてもよい。図27の例では黄斑部中心窩311aを中心とし、中心窩311aと視神経乳頭312の中心を結ぶ面を断層位置P1、断層位置P1に直交する面を断層位置P2としている。
(MIGS1)
図28は、MIGSでの正面画像Gにおける断層位置Pを示す模式図である。MIGS(低侵襲緑内障手術)では、繊維柱帯をバイパスするインプラント等を留置する際には施術位置の繊維柱帯部分の把握が重要である。施術位置へのアクセスは対角部分に作成した創口301aを介して行われる。制御部104は、創口301aの位置をトラッキングしておき、その位置と対角の位置となる繊維柱帯付近に、小さなボリューム状の断層情報(連続的に撮像された断層画像から構成されたボリュームデータ)が取得されるように断層位置Pを設定する。
図29は、MIGSでの眼とボリュームデータ取得位置の関係を示す模式図である。MIGSで広範囲の繊維柱帯にアクセスする手技の際等おいて制御部104は、図29に示すように繊維柱帯の全周360°分を含むリング状(例えばドーナツ状)の断層位置Pにおいてボリュームデータを取得するようにしてもよい。
(DSAEK)
図30は、DSAEKでの正面画像Gにおける断層位置Pを示す模式図である。同図に示すようにDSAEK(角膜内皮移植)では移植片を患者に移植する際、患者の角膜と移植片の間の隙間を棒状の術具Tによって撫でることで減らしていくが、隙間がなくなったか否かを確認するには撫で終わった部分の確認を行う必要がある。同図において術具Tの進行方向を矢印で示す。図31は、一般的な固定断層(図30中、断層位置Q)で取得される断層画像の例であり、角膜301及び移植片313を含む。
制御部104は、正面画像取得部1011用の顕微鏡の倍率が変更された場合には、その拡大倍率に応じて断層位置Pを調整してもよい。図32は断層位置P1及びP2の調整を示す模式図である。顕微鏡の倍率が図32(a)から図32(b)のように拡大されると、制御部104は正面画像Gにおいて断層位置P1及びP2が占める範囲が変化しないようにスケールを調整することができる。また、制御部104は、図32(c)に示すように正面画像Gにおいて画枠に対して断層位置P1及びP2が占める範囲が変化しないように断層位置P1及びP2のスケールを調整してもよい。
術具先端や眼の部位の検出結果が時間方向で誤差により微小に変動することがある。また、術具先端等の動きが不連続に変化することがある。上記のような場合には、制御部104は術具先端等の検出位置に対して時間方向の平滑化フィルタを適用することで断層位置Pのばらつきを抑えることができる。フィルタのオン、オフは図7や図10のようにメニュー表示を用いて選択してもよいし、フットスイッチなどを用いて選択してもよい。
(正面画像における断層取得位置の提示)
上記のように表示情報生成部105は制御部104による制御を受けて断層位置を正面画像に重畳させ、表示情報を生成する。これまでの説明のように正面画像に断層位置を表す断層線を表示(図9参照)してもよいが、この線によって術野視認性が低減する場合もある。このため、表示情報生成部105は、図33に示すように断層線の端点付近に断層位置を示す画像Rを重畳させてもよい。この画像Rは同図に示すような矢印形状であってもよく、他の形状であってもよい。
表示情報生成部105は、断層位置の深さを示す表示情報を生成することができる。図35及び図36は、断層位置の深さを示す画像の例である。表示情報生成部105は、図35に示すように、眼を表す画像(例えば模式図)にインジケーターBを配置し、断層の相対深さを線状に表現することができる。また、表示情報生成部105は、図36に示すように、眼を表す画像(例えば模式図)に断層の相対位置を図形Cで表現することもできる。
表示情報生成部105は、正面画像と断層画像を含む画像を表示情報として生成することができる。図37乃至図39は、正面画像G、断層画像F1及び断層画像F2を含む画像である。断層画像F1は断層位置P1において取得され、断層画像G2は断層位置P2において取得された断層画像である。
図37に示すように、断層の位置や向きによらず固定の位置や角度(多くの場合には画像周縁に対して垂直や水平)で断層画像が配置されることが一般的である。
表示情報生成部105は、図38に示すように、断層の向きと断層画像の向きを揃える(断層位置P1と断層画像F1の周縁を平行とし、断層位置P2と断層画像F2の周縁を平行とする)ことで、断層位置と断層画像の対応関係をわかりやすくすることができる。
また、図40は表示情報に配置される断層画像の範囲を示す模式図である。図40(a)に示す範囲H1は、図39(a)に示す断層画像F1として取得される範囲であり、図40(b)に示す範囲H2は図39(b)に示す断層画像F1として取得される範囲である。
図30及び図31において説明したように、DSAEKにおいて、患者角膜と移植片との間隙を削除する手技における断層情報取得方法において、術者が十分に間隙を削減できたと判断した後に間隙の様子を確認したい場合がある。図42は、表示情報として表示される動画の模式図である。制御部104は、図42に示すように、例えば、手技において術具で角膜を撫でる最後の一撫でについて前述の方法で取得した断層画像を保持しておき、表示情報生成部105はこれを動画として再生することができる。これにより術者が間隙の様子を容易に確認することが可能となる。
図43(a)は断層情報取得部1012によって取得されるボリュームデータの例であり、図43(b)は、同ボリュームデータから生成された断層画像の例である。制御部104は、同様に最後の一撫でに関する断層画像を保持しておき、これをもとに図43(a)に示すようなボリュームデータを生成することができる。また、制御部104は、同ボリュームデータから術者の指示などに従って図43(b)に示すように任意の断層画像を表示させることで、術者が間隙の様子を容易に確認することが可能となる。
(深さ位置の予測)
制御部104は、術具先端の深さを断層画像における術具先端位置から求めることができるが、断層画像中に術具先端が含まれない場合には、過去の断層画像における先端位置の動きなどから予測により求めることも可能である。制御部104は、最後に断層画像に術具先端が存在した際の深さを現在の術具先端の深さとしてもよいし、深さ方向の速度等も考慮して予測しても良い。
制御部104は、図16において説明したように断層位置を走査する場合、ユーザによる操作入力を受けて術具先端、角膜輪部等の眼の特定部位等からの走査位置(中心等)のオフセット等を術前および術中に随時変更することが可能である。また、制御部104は、ユーザによる操作入力を受けて走査の長さを術前および術中に随時変更することができる。
上記説明における角膜中心は瞳孔中心により置き換えてもよい。
上記説明においては主に取得した断層をユーザへの提示に用いているが、断層情報からの危険検出など、他の目的に用いることも可能である。
画像処理システム100における動作モードの選択は、上記のように制御部104が選定した手技に対応する動作モードを選択することを基本とする。さらに画像処理システム100は直接にユーザが動作モードの指定を行えるような構成を有していてもよく、断層取得の方法や断層位置の提示方法、断層画像の提示方法などを個別に直接指定できる構成を有していてもよい。
図44は、画像処理装置120のハードウェア構成を示す模式図である。同図に示すように画像処理装置120はハードウェア構成として、CPU121、メモリ122、ストレージ123及び入出力部(I/O)124を有する。これらはバス125によって互いに接続されている。
眼を撮像した画像である正面画像に対して画像認識を実行する画像認識部と、
表示情報を生成する表示情報生成部と、
選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部と
を具備する画像処理装置。
上記(1)に記載の画像処理装置であって、
上記制御部は、ユーザによる指示を受けて手技を選定する
画像処理装置。
上記(1)に記載の画像処理装置であって、
上記制御部は、ユーザによる指示と、上記正面画像に対する状況認識に基づいて手技を選定する
画像処理装置。
上記(1)に記載の画像処理装置であって、
上記制御部は、上記正面画像に対する状況認識に基づいて手技を選定する
画像処理装置。
上記(2)又は(3)に記載の画像処理装置であって、
上記制御部は、上記画像認識部による認識結果を利用してユーザによる指示を判断する
画像処理装置。
上記(3)又は(4)に記載の画像処理装置であって、
請求項3又は4に記載の画像処理装置であって、
上記制御部は、上記画像認識部による認識結果を利用して状況認識を行う
画像処理装置。
上記(5)に記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の先端の位置に基づいてユーザによる指示を判断する
画像処理装置。
上記(6)に記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の種類を特定し、上記術具の種類に基づいて状況認識を行う
画像処理装置。
上記(8)に記載の画像処理装置であって、
上記制御部は、上記術具の種類と上記正面画像の特徴に基づいて状況認識を行う
画像処理装置。
上記(1)乃至(9)のいずれか一つに記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具を認識し、
上記制御部は、上記正面画像に含まれる術具の形状に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。
上記(1)乃至(9)のいずれか一つに記載の画像処理装置であって、
請求項1に記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる眼の部位を認識し、
上記制御部は、上記正面画像に含まれる眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。
上記(1)乃至(9)のいずれか一つに記載の画像処理装置であって、
上記画像認識部は、上記正面画像に含まれる術具と眼の部位を認識し、
上記制御部は、上記正面画像に含まれる術具の形状と眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。
上記(1)乃至(12)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の位置である断層位置に基づいて上記表示情報における上記断層情報の位置を変更する
画像処理装置。
上記(1)乃至(13)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の向きに基づいて上記表示情報における上記断層情報の向きを変更する
画像処理装置。
上記(1)乃至(14)のいずれか一つに記載の画像処理装置であって、
請求項1に記載の画像処理装置であって、
上記画像認識部は、上記断層情報に対して画像認識を実行し、
上記制御部は、上記画像認識部による上記断層情報に対する画像認識結果に基づいて施術によって形成された切開縁を検出する
画像処理装置。
上記(15)に記載の画像処理装置であって、
上記画像認識部は、上記正面画像において眼の部位を認識し、
上記制御部は、上記画像認識によって検出された眼の部位に基づいて、上記切開縁の上記正面画像における位置を特定し、
上記表示情報生成部は、上記制御部によって特定された位置に上記切開縁を表す画像を重畳させた表示情報を生成する
画像処理装置。
上記(1)乃至(16)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記正面画像に断層情報を取得する断層面の位置を示す断層線の端点を示す画像を重畳させた表示情報を生成する
画像処理装置。
上記(1)乃至(17)のいずれか一つに記載の画像処理装置であって、
上記表示情報生成部は、上記正面画像に断層情報を取得する断層面の位置を示す断層線を表す加工を施して表示情報を生成する
画像処理装置。
画像認識部が、眼を撮像した画像である正面画像に対して画像認識を実行し、
表示情報生成部が、表示情報を生成し、
制御部が、選定された手技に応じて、眼の断層情報を取得する断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する
画像処理方法。
眼の断層情報を生成する断層情報取得部を備える断層情報取得装置と、
眼を撮像して正面画像を生成する正面画像取得部を備える正面画像撮像装置と、
上記正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、選定された手技に応じて、上記断層情報取得部及び上記表示情報生成部の少なくとも一方を制御する制御部とを備える画像処理装置と
を具備する画像処理システム。
101…画像情報取得部
102…画像認識部
103…インターフェース部
104…制御部
105…表示情報生成部
106…表示部
1011…正面画像取得部
1012…断層情報取得部
Claims (16)
- 眼を撮像した画像である正面画像に対して画像認識を実行する画像認識部と、
表示情報を生成する表示情報生成部と、
ユーザによる指示又は前記正面画像の特徴に基づいて、順に進行する複数の手技からなる術式を選定し、
選定した前記術式に応じて前記表示情報生成部を制御して生成させた表示情報に対して行われるユーザの指示、及び、前記画像認識部による画像認識結果の少なくとも一方に基づいて、前記複数の手技から1つの手技を選定し、
選定した手技に応じた動作モードで動作するように、眼の断層情報を取得する断層情報取得部及び前記表示情報生成部の少なくとも一方を制御し、
ユーザからの手技の完了の指示に基づいて、次の手技に応じた動作モードで動作するように、前記断層情報取得部及び前記表示情報生成部の少なくとも一方を制御する
制御部と
を具備する画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記動作モードには、断層情報の取得方法、断層情報の提示方法及びGUI(Graphical User Interface)の提示方法が含まれる
画像処理装置。 - 請求項1又は2に記載の画像処理装置であって、
前記制御部は、前記画像認識部による認識結果を利用してユーザによる指示を判断する
画像処理装置。 - 請求項3に記載の画像処理装置であって、
前記画像認識部は、前記正面画像に含まれる術具を認識し、
前記制御部は、前記正面画像に含まれる術具の先端の位置に基づいてユーザによる指示を判断する
画像処理装置。 - 請求項1又は2に記載の画像処理装置であって、
前記画像認識部は、前記正面画像に含まれる術具を認識し、
前記制御部は、前記正面画像に含まれる術具の種類を特定し、前記術具の種類に基づいて前記複数の手技から1つの手技を選定する
画像処理装置。 - 請求項1から5のいずれか一項に記載の画像処理装置であって、
前記画像認識部は、前記正面画像に含まれる術具を認識し、
前記制御部は、前記正面画像に含まれる術具の形状に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。 - 請求項1から5のいずれか一項に記載の画像処理装置であって、
前記画像認識部は、前記正面画像に含まれる眼の部位を認識し、
前記制御部は、前記正面画像に含まれる眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。 - 請求項1から5のいずれか一項に記載の画像処理装置であって、
前記画像認識部は、前記正面画像に含まれる術具と眼の部位を認識し、
前記制御部は、前記正面画像に含まれる術具の形状と眼の部位に基づいて断層情報を取得する断層面の位置である断層位置を決定する
画像処理装置。 - 請求項1から8のいずれか一項に記載の画像処理装置であって、
前記表示情報生成部は、前記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の位置である断層位置に基づいて前記表示情報における前記断層情報の位置を変更する
画像処理装置。 - 請求項1から9のいずれか一項に記載の画像処理装置であって、
前記表示情報生成部は、前記断層情報取得部によって取得された断層情報を含む表示情報を生成し、断層情報を取得する断層面の向きに基づいて前記表示情報における前記断層情報の向きを変更する
画像処理装置。 - 請求項1から10のいずれか一項に記載の画像処理装置であって、
前記画像認識部は、前記断層情報に対して画像認識を実行し、
前記制御部は、前記画像認識部による前記断層情報に対する画像認識結果に基づいて施術によって形成された切開縁を検出する
画像処理装置。 - 請求項11に記載の画像処理装置であって、
前記画像認識部は、前記正面画像において眼の部位を認識し、
前記制御部は、前記画像認識によって検出された眼の部位に基づいて、前記切開縁の前記正面画像における位置を特定し、
前記表示情報生成部は、前記制御部によって特定された位置に前記切開縁を表す画像を重畳させた表示情報を生成する
画像処理装置。 - 請求項1から12のいずれか一項に記載の画像処理装置であって、
前記表示情報生成部は、前記正面画像に断層情報を取得する断層面の位置を示す断層線の端点を示す画像を重畳させた表示情報を生成する
画像処理装置。 - 請求項1から13のいずれか一項に記載の画像処理装置であって、
前記表示情報生成部は、前記正面画像に断層情報を取得する断層面の位置を示す断層線を表す加工を施して表示情報を生成する
画像処理装置。 - 画像認識部が、眼を撮像した画像である正面画像に対して画像認識を実行し、
表示情報生成部が、表示情報を生成し、
制御部が、
ユーザによる指示又は前記正面画像の特徴に基づいて、順に進行する複数の手技からなる術式を選定し、
選定した前記術式に応じて前記表示情報生成部を制御して生成させた表示情報に対して行われるユーザの指示、及び、前記画像認識部による画像認識結果の少なくとも一方に基づいて、前記複数の手技から1つの手技を選定し、
選定した手技に応じた動作モードで動作するように、眼の断層情報を取得する断層情報取得部及び前記表示情報生成部の少なくとも一方を制御し、
ユーザからの手技の完了の指示に基づいて、次の手技に応じた動作モードで動作するように、前記断層情報取得部及び前記表示情報生成部の少なくとも一方を制御する
画像処理方法。 - 眼の断層情報を生成する断層情報取得部を備える断層情報取得装置と、
眼を撮像して正面画像を生成する正面画像取得部を備える正面画像撮像装置と、
前記正面画像に対して画像認識を実行する画像認識部と、表示情報を生成する表示情報生成部と、制御部とを備える画像処理装置と
を具備する画像処理システムであって、
前記制御部は、
ユーザによる指示又は前記正面画像の特徴に基づいて、順に進行する複数の手技からなる術式を選定し、
選定した前記術式に応じて前記表示情報生成部を制御して生成させた表示情報に対して行われるユーザの指示、及び、前記画像認識部による画像認識結果の少なくとも一方に基づいて、前記複数の手技から1つの手技を選定し、
選定した手技に応じた動作モードで動作するように、眼の断層情報を取得する断層情報取得部及び前記表示情報生成部の少なくとも一方を制御し、
ユーザからの手技の完了の指示に基づいて、次の手技に応じた動作モードで動作するように、前記断層情報取得部及び前記表示情報生成部の少なくとも一方を制御する
画像処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017092978 | 2017-05-09 | ||
JP2017092978 | 2017-05-09 | ||
PCT/JP2018/010738 WO2018207466A1 (ja) | 2017-05-09 | 2018-03-19 | 画像処理装置、画像処理方法及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018207466A1 JPWO2018207466A1 (ja) | 2020-03-12 |
JP7088176B2 true JP7088176B2 (ja) | 2022-06-21 |
Family
ID=64104438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019517478A Active JP7088176B2 (ja) | 2017-05-09 | 2018-03-19 | 画像処理装置、画像処理方法及び画像処理プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10993838B2 (ja) |
EP (1) | EP3607922B1 (ja) |
JP (1) | JP7088176B2 (ja) |
WO (1) | WO2018207466A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230368380A1 (en) * | 2020-09-21 | 2023-11-16 | Carl Zeiss Meditec, Inc. | Device for positioning an implant in a target area of an eye |
JPWO2022091431A1 (ja) * | 2020-10-27 | 2022-05-05 | ||
JP2022115321A (ja) * | 2021-01-28 | 2022-08-09 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用制御装置及び医療用観察システム |
JP2022116559A (ja) * | 2021-01-29 | 2022-08-10 | ソニーグループ株式会社 | 画像処理装置、画像処理方法及び手術顕微鏡システム |
JP2022116438A (ja) * | 2021-01-29 | 2022-08-10 | ソニーグループ株式会社 | 制御装置、制御システム及び制御方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120184846A1 (en) | 2011-01-19 | 2012-07-19 | Duke University | Imaging and visualization systems, instruments, and methods using optical coherence tomography |
JP2016073409A (ja) | 2014-10-03 | 2016-05-12 | ソニー株式会社 | 情報処理装置、情報処理方法及び手術顕微鏡装置 |
JP2016532483A (ja) | 2013-07-29 | 2016-10-20 | バイオプティジェン, インコーポレイテッドBioptigen, Inc. | 外科手術用手技光干渉断層計及び関連するシステム及びその方法 |
US20160331584A1 (en) | 2015-05-14 | 2016-11-17 | Novartis Ag | Surgical tool tracking to control surgical system |
WO2017065018A1 (ja) | 2015-10-15 | 2017-04-20 | ソニー株式会社 | 画像処理装置、画像処理方法、および手術顕微鏡 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5098426A (en) * | 1989-02-06 | 1992-03-24 | Phoenix Laser Systems, Inc. | Method and apparatus for precision laser surgery |
US8363783B2 (en) * | 2007-06-04 | 2013-01-29 | Oraya Therapeutics, Inc. | Method and device for ocular alignment and coupling of ocular structures |
US10524822B2 (en) * | 2009-03-06 | 2020-01-07 | Procept Biorobotics Corporation | Image-guided eye surgery apparatus |
US10383765B2 (en) * | 2012-04-24 | 2019-08-20 | Auris Health, Inc. | Apparatus and method for a global coordinate system for use in robotic surgery |
US9827054B2 (en) | 2014-03-14 | 2017-11-28 | Synaptive Medical (Barbados) Inc. | Intelligent positioning system and methods therefore |
CN106028911A (zh) * | 2014-03-04 | 2016-10-12 | 南加利福尼亚大学 | 具有延长的持续时间的光学相干断层扫描(oct)系统 |
DE102014007908A1 (de) | 2014-05-27 | 2015-12-03 | Carl Zeiss Meditec Ag | Chirurgie-System |
DE102014007909A1 (de) | 2014-05-27 | 2015-12-03 | Carl Zeiss Meditec Ag | Chirurgisches Mikroskop |
DE102015000383B4 (de) | 2015-01-13 | 2023-06-15 | Carl Zeiss Meditec Ag | Chirurgisches Mikroskop |
US20180299658A1 (en) * | 2015-04-23 | 2018-10-18 | Duke University | Systems and methods of optical coherence tomography stereoscopic imaging for improved microsurgery visualization |
JP2016214781A (ja) | 2015-05-26 | 2016-12-22 | ソニー株式会社 | 手術システム、並びに画像処理装置および方法 |
-
2018
- 2018-03-19 US US16/609,564 patent/US10993838B2/en active Active
- 2018-03-19 EP EP18798797.9A patent/EP3607922B1/en active Active
- 2018-03-19 JP JP2019517478A patent/JP7088176B2/ja active Active
- 2018-03-19 WO PCT/JP2018/010738 patent/WO2018207466A1/ja unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120184846A1 (en) | 2011-01-19 | 2012-07-19 | Duke University | Imaging and visualization systems, instruments, and methods using optical coherence tomography |
JP2016532483A (ja) | 2013-07-29 | 2016-10-20 | バイオプティジェン, インコーポレイテッドBioptigen, Inc. | 外科手術用手技光干渉断層計及び関連するシステム及びその方法 |
JP2016073409A (ja) | 2014-10-03 | 2016-05-12 | ソニー株式会社 | 情報処理装置、情報処理方法及び手術顕微鏡装置 |
US20160331584A1 (en) | 2015-05-14 | 2016-11-17 | Novartis Ag | Surgical tool tracking to control surgical system |
WO2017065018A1 (ja) | 2015-10-15 | 2017-04-20 | ソニー株式会社 | 画像処理装置、画像処理方法、および手術顕微鏡 |
Non-Patent Citations (1)
Title |
---|
ROODAKI, Hessam, et al.,Introducing Augmented Reality to Optical Coherence Tomography in Ophthalmic Microsurgery,2015 IEEE International Symposium on Mixed and Augmented Reality (ISMAR),IEEE,2015年,pp. 1-6 |
Also Published As
Publication number | Publication date |
---|---|
EP3607922B1 (en) | 2022-07-20 |
JPWO2018207466A1 (ja) | 2020-03-12 |
EP3607922A4 (en) | 2020-03-25 |
WO2018207466A1 (ja) | 2018-11-15 |
US20200146885A1 (en) | 2020-05-14 |
US10993838B2 (en) | 2021-05-04 |
EP3607922A1 (en) | 2020-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7088176B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
US11918515B2 (en) | Methods and systems for OCT guided glaucoma surgery | |
US11819457B2 (en) | Methods and systems for OCT guided glaucoma surgery | |
KR101552297B1 (ko) | 레이저-보조 눈-수술 치료 시스템을 위한 장치 및 방법 | |
CN106714662B (zh) | 信息处理设备、信息处理方法、以及手术显微镜设备 | |
JP6819223B2 (ja) | 眼科情報処理装置、眼科情報処理プログラム、および眼科手術システム | |
EP4238484A1 (en) | Ophthalmological observation device, method for controlling same, program, and storage medium | |
US20240103260A1 (en) | Control device, control system, and control method | |
US20220148165A1 (en) | Surgical microscope system, image processing method, program, and image processing device | |
JP2018175790A (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220112 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7088176 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |