JP2023534449A - 眼科手術用のデジタル画像最適化 - Google Patents
眼科手術用のデジタル画像最適化 Download PDFInfo
- Publication number
- JP2023534449A JP2023534449A JP2023501891A JP2023501891A JP2023534449A JP 2023534449 A JP2023534449 A JP 2023534449A JP 2023501891 A JP2023501891 A JP 2023501891A JP 2023501891 A JP2023501891 A JP 2023501891A JP 2023534449 A JP2023534449 A JP 2023534449A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- digital image
- digital
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 239
- 238000001356 surgical procedure Methods 0.000 title claims description 168
- 238000012545 processing Methods 0.000 claims abstract description 155
- 238000010801 machine learning Methods 0.000 claims abstract description 111
- 238000000034 method Methods 0.000 claims description 158
- 238000012549 training Methods 0.000 claims description 79
- 238000012800 visualization Methods 0.000 claims description 69
- 230000002207 retinal effect Effects 0.000 claims description 60
- 230000003287 optical effect Effects 0.000 claims description 32
- 230000004075 alteration Effects 0.000 claims description 30
- 239000003550 marker Substances 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 230000004313 glare Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 17
- 239000013307 optical fiber Substances 0.000 claims description 15
- 210000001957 retinal vein Anatomy 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 11
- 210000001525 retina Anatomy 0.000 claims description 9
- 230000010354 integration Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 claims description 6
- 230000006403 short-term memory Effects 0.000 claims description 6
- 210000003462 vein Anatomy 0.000 claims description 6
- 238000006722 reduction reaction Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 description 38
- 239000003795 chemical substances by application Substances 0.000 description 18
- 238000005286 illumination Methods 0.000 description 14
- 238000003860 storage Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 239000000835 fiber Substances 0.000 description 9
- 239000011521 glass Substances 0.000 description 7
- 230000004438 eyesight Effects 0.000 description 5
- 230000007787 long-term memory Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000012014 optical coherence tomography Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 208000002177 Cataract Diseases 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000004410 intraocular pressure Effects 0.000 description 3
- 229910044991 metal oxide Inorganic materials 0.000 description 3
- 150000004706 metal oxides Chemical class 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 206010038848 Retinal detachment Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000004264 retinal detachment Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 210000004127 vitreous body Anatomy 0.000 description 2
- 229910052724 xenon Inorganic materials 0.000 description 2
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 2
- 208000006069 Corneal Opacity Diseases 0.000 description 1
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 206010013700 Drug hypersensitivity Diseases 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 208000022873 Ocular disease Diseases 0.000 description 1
- 208000002367 Retinal Perforations Diseases 0.000 description 1
- 208000034698 Vitreous haemorrhage Diseases 0.000 description 1
- 208000034700 Vitreous opacities Diseases 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 210000002808 connective tissue Anatomy 0.000 description 1
- 231100000269 corneal opacity Toxicity 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 208000029233 macular holes Diseases 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910001507 metal halide Inorganic materials 0.000 description 1
- 150000005309 metal halides Chemical class 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004233 retinal vasculature Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 229910001220 stainless steel Inorganic materials 0.000 description 1
- 239000010935 stainless steel Substances 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/13—Ophthalmic microscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/306—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/309—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
- A61B90/96—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Radiology & Medical Imaging (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Physiology (AREA)
- Ophthalmology & Optometry (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Optics & Photonics (AREA)
- Urology & Nephrology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Prostheses (AREA)
Abstract
本開示は、眼から反射された光を検出し、検出された光に対応する信号をプロセッサに送信する少なくとも1つのセンサを含むカメラを含むデジタル画像最適化システムを提供する。システムは、プロセッサを含み、命令を実行して眼のデジタル画像を生成する画像得処理システムを更に含む。画像処理システムはまた、命令を実行して、トレーニング済み機械学習モデルを含むデジタル画像最適化アルゴリズムを眼のデジタル画像に適用して、眼の最適化されたデジタル画像を生成する。システムは、眼の最適化されたデジタル画像を表示するデジタル画像を更に含む。
Description
本開示は、眼科手術及び手術用機器に関し、より具体的には、眼科手術でのデジタル視覚化を改善するためのデジタル画像最適化システム及び関連する方法に関する。
眼科手術は、眼又は眼の任意の部分に対して実行される手術である。眼科手術は、毎年、数万人の患者の視力を保護し且つ改善させる。しかしながら、眼の僅かな変化に対しても視力が敏感であり、多くの眼構造の特性が微細且つ精緻であるため、眼科手術は、実行が困難であり、些細若しくは稀な手術ミスを減らすか、又は手術スキルの精度が僅かに向上するだけで手術後の患者の視力に顕著な差が生じる場合がある。
眼科手術の一種である硝子体網膜手術は、硝子体液、網膜、及び硝子体網膜膜など、眼の内部を含む様々な繊細な手術を包含する。とりわけ、外膜、糖尿病性網膜症、硝子体出血、黄斑円孔、網膜剥離、白内障手術の合併症を含む、多くの眼疾患の治療において視覚感覚性能を改善するために、異なる硝子体網膜外科手術が、時にはレーザと共に使用される。
硝子体網膜手術などの眼科手術中、眼科医は通常、接眼レンズを備えた非電子の光学的手術用顕微鏡を使用して、手術を受けている眼の拡大画像を観察する。より最近では、硝子体網膜の外科医は、硝子体網膜手術中の視覚化を支援するために、接眼レンズなしのデジタル画像システムを使用する場合がある。これらのシステムには、外科医が偏光眼鏡、デジタル接眼レンズ、又はヘッドマウントディスプレイを使用してディスプレイ画面上で網膜を観察することを可能にする、2D相補型金属酸化物半導体(CMOS)シングルチップのペア又は3チップセンサを備えた三次元(3D)高ダイナミックレンジ(「HDR」)カメラシステムが含まれ得る。ディスプレイ画面により、接眼レンズを使用して手術を観察する必要から解放し、手術室内の他の人が外科医とまったく同じように見ることを可能にする。このシステムはまた、従来の光学アナログ手術用顕微鏡と比較して、高倍率下でのデジタル画像の改善及び被写界深度の拡大を可能にし、それにより眼の視覚化の改善を可能にする。
本開示は、眼科手術でのデジタル視覚化を改善するデジタル画像最適化システム及び関連する方法を提供する。デジタル画像最適化システムは、眼から反射された光を検出し、検出された光に対応する信号をプロセッサに送信する少なくとも1つのセンサを含むカメラを含む。デジタル画像最適化システムは、プロセッサを含む画像処理システムも含む。画像処理システムは、命令を実行して、眼のデジタル画像を生成し、命令を実行して、トレーニング済み機械学習モデルを含むデジタル画像最適化アルゴリズムを眼のデジタル画像に適用して、眼の最適化されたデジタル画像を生成する。デジタル画像最適化システムは、眼の最適化されたデジタル画像を表示するデジタルディスプレイも含む。
デジタル画像最適化システム及びその使用方法は、以下の追加の特徴を含み得る。i)デジタル画像最適化アルゴリズムは、眼のデジタル画像における器具グレア、光学収差、硝子体混濁、又はそれらの任意の組合せを少なくとも部分的に低減して、眼の最適化されたデジタル画像を生成し得、ii)眼の最適化デジタル画像は、眼のデジタル画像以上のコントラスト、鮮鋭度、明瞭度、ダイナミックレンジ、又はそれらの任意の組合せを有し得、iii)眼の最適化されたデジタル画像は、眼のデジタル画像以下のノイズ、歪み、ビネット、又はそれらの任意の組合せを有し得、iv)デジタル画像最適化アルゴリズムは、補間、多重露光画像ノイズ低減、又はそれらの組合せを利用して、眼の最適化されたデジタル画像を生成し得、v)トレーニング済み機械学習モデルは、赤色ブーストライブラリからの複数のトレーニング画像を使用してトレーニング済みであることができ、vi)トレーニング済み機械学習モデルは、手術開始時に捕捉された眼の複数のデジタル画像と、手術終了時に捕捉された眼の複数の対応するデジタル画像とを使用してトレーニングされていることができ、vii)デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得る。
本開示は、他眼から反射された光を検出し、検出された光に対応する信号をプロセッサに送信する少なくとも1つのセンサを含むカメラを含むデジタル画像最適化システムを更に提供する。少なくとも1つのセンサはまた、術眼から反射された光も検出し、検出された光に対応する信号をプロセッサに送信する。デジタル画像最適化システムは、プロセッサを含む画像処理システムも含む。画像処理システムは命令を実行して、他眼のテンプレートデジタル画像を生成し、命令を実行して、テンプレートデジタル画像のデジタル鏡像を生成し、命令を実行して、術眼の作業デジタル画像を生成し、命令を実行して、デジタル鏡像を作業デジタル画像と位置合わせして、網膜アーケードアライメントテンプレートを生成する。デジタル画像最適化システムは、作業デジタル画像及び網膜アーケードアライメントテンプレートを表示するデジタルディスプレイも含む。
デジタル画像最適化システム及びその使用方法は、以下の追加の特徴を含み得る。i)網膜アーケードアライメントテンプレートは、作業デジタル画像へのオーバーレイとして表示し得、ii)テンプレートデジタル画像は、他眼の網膜、他眼の網膜中心静脈、他眼の網膜アーケード、他眼の視神経円板、又はそれらの任意の組合せである眼構造を含み得、iii)作業デジタル画像は、術眼の網膜、術眼の網膜中心静脈、術眼の網膜アーケード、術眼の視神経円板、又はそれらの組合せを含み得、iv)作業デジタル画像は、他眼のテンプレートデジタル画像の視野と同等の術眼の視野を含み得、v)作業デジタル画像へのデジタル鏡像の位置合わせは、他眼の視神経円板及び術眼の視神経円板、他眼の網膜中心静脈及び術眼の網膜中心静脈、他眼の動脈静脈交差部及び術眼の動脈静脈交差部、又はそれらの任意の組合せである眼構造を位置合わせすることを含み得、vi)デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得る。
本開示は、光ファイバを含む内視鏡を含むデジタル画像最適化システムを更に提供する。デジタル画像最適化システムは、眼の内部から反射され、光ファイバを伝播する光を検出する少なくとも1つのセンサを含むカメラも含む。センサは、検出された光に対応する信号をプロセッサに送信する。デジタル画像最適化システムは、プロセッサを含む画像処理システムも含む。画像処理システムは、命令を時刻して、眼の内視鏡デジタル画像を生成し、命令を実行して、トレーニング済み機械学習モデルを含む内視鏡デジタル画像最適化アルゴリズムを眼の内視鏡デジタル画像に適用して、眼の最適化された内視鏡デジタル画像を生成する。デジタル画像最適化システムは、眼の最適化された内視鏡デジタル画像を表示するデジタルディスプレイも含む。
デジタル画像最適化システム及びその使用方法は、以下の追加の特徴を含み得る。i)内視鏡デジタル画像最適化アルゴリズムは、補間、多重露光画像ノイズ低減、又はそれらの組合せを利用して、眼の最適化された内視鏡デジタル画像を生成し得、ii)機械学習モデルは、画像処理法を使用して首尾良く最適化された眼の複数の内視鏡デジタル画像を含む複数のトレーニング画像を使用してトレーニング済みであることができ、iii)内視鏡デジタル画像最適化アルゴリズムは単一画像超解像を利用して、眼の最適化された内視鏡デジタル画像を生成し得、iv)単一画像超解像はベリーディープ超解像ニューラルネットワークを使用し得、v)内視鏡デジタル画像最適化アルゴリズムは、少なくとも部分的に、眼の内視鏡デジタル画像のノイズを低減し、解像度を上げ、デジタル画像の品質を改善し、又はそれらの任意の組合せを行い得、vi)デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得る。
本開示は、デジタル画像最適化システムを含む最適化ネットワークを更に提供する。デジタル画像最適化システムは、眼から反射された光を検出し、検出された光に対応する信号をプロセッサに送信する少なくとも1つのセンサを含むカメラを含む。デジタル画像最適化システムは、第1のプロセッサを含み、命令を時刻して眼のデジタル画像を生成する第1の画像処理システムを更に含む。デジタル画像最適化システムは、デジタルディスプレイを更に含む。最適化ネットワークは、デジタル画像最適化システム及びデジタル画像管理システムに通信可能に結合された通信ネットワークも含む。最適化ネットワークは、眼のデジタル画像をデジタル画像管理システムに送信する。最適化ネットワークは、デジタル画像管理システムも含む。デジタル画像管理システムは、第2のプロセッサを含み、トレーニング済み機械学習モデルを含む第2の画像処理システムを含む。第2の画像処理システムは、命令を実行して、トレーニング済み機械学習モデルを使用して眼のデジタル画像を処理し、眼の最適化されたデジタル画像を計算し、眼の最適化されたデジタル画像をデジタルディスプレイに送信する。デジタルディスプレイは、眼の最適化されたデジタル画像を表示する。
最適化ネットワーク及びその使用方法は、以下の追加の特徴を含み得る。i)第2の画像処理システムは、第1の画像処理システムの一部としてローカルに記憶し得、ii)第2の画像処理システムはサーバで動作し得、iii)第2の画像処理システムは、クラウドベースのデジタル画像最適化サービスを提供し得、iv)トレーニング済み機械学習モデルは、複数のトレーニング画像を使用してトレーニング済みであり得、v)複数のトレーニング画像は、手術開始時に捕捉された眼の複数のデジタル画像と、手術終了時に捕捉された同じ眼の複数のペアのデジタル画像とを含み得、vi)複数のトレーニング画像は、画像処理法を使用して首尾良く最適化された眼の複数の内視鏡デジタル画像を含み得、複数のトレーニング画像は、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)を使用して捕捉されたことが可能であり、vii)複数のトレーニング画像は、通信ネットワークを使用してデジタル画像管理システムにアップロードし得、viii)トレーニング済み機械学習モデルは、畳み込みニューラルネットワーク及び少なくとも1つの長短期メモリユニットを含む統合アーキテクチャを使用してトレーニングされたことが可能であり、ix)デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得る。
本開示は、機械可読情報を含む、患者に固定される識別マーカを含むデジタルタイムアウトシステムを更に提供する。デジタルタイムアウトシステムは、機械可読情報を取得し、機械可読情報に対応する信号をプロセッサに送信する少なくとも1つのセンサを含むカメラも含む。デジタルタイムアウトシステムは、プロセッサを含み、機械可読情報を処理して患者データを特定する画像処理システムも含む。画像処理システムはまた、患者データと、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間の不一致、一致、又はそれらの組合せを判断する。
デジタルタイムアウトシステム及びその使用方法は、以下の追加の特徴を含み得る。i)デジタルタイムアウトシステムは、患者データと、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間の不一致、一致、又はそれらの組合せを表示するデジタルディスプレイを更に含み得、ii)識別マーカは患者の眼の上に固定し得、iii)識別マーカはリムーバブル転写式タトゥー、パッチ、ステッカー、テープ、又はそれらの任意の組合せであり得、iv)識別マーカはロケータを更に含み得、v)機械可読情報は一次元バーコード、多次元バーコード、クイックレスポンスコード、記号、又はそれらの任意の組合せであり得、vi)デジタルタイムアウトシステムは、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得、vii)患者データは、患者と関連する識別情報、患者と関連する医療情報、索引付け情報、又はそれらの任意の組合せである、患者と関連する情報を含み得、viii)カメラは、眼から反射された光を検出し、検出された光に対応する信号を第1のプロセッサに送信し得、画像処理システムは、命令を実行して眼のデジタル画像を生成し得、ix)システムは、デジタルタイムアウトシステム及びデジタル画像管理システムに通信可能に結合された通信ネットワークを含み得る。通信ネットワークは、眼のデジタル画像をデジタル画像管理システムに送信し得る。デジタル画像管理システムは、第2のプロセッサ及びトレーニング済み機械学習モデルを含む第2の画像処理システムを含み得る。機械可読データは、眼のデジタル画像と関連し、デジタル画像管理システムに記憶された索引付け情報を含み得、x)トレーニング済み機械学習モデルは、眼のデジタル画像を含む複数のトレーニング画像を使用してトレーニング済みであり得る。複数のトレーニング画像は、眼のデジタル画像と関連する索引付け情報に基づいて選択済みであり得る。
本開示は、カメラを用いて眼のデジタル画像を捕捉し、画像処理システムを使用してデジタル画像最適化アルゴリズムを適用し、眼の最適化されたデジタル画像を生成し、眼の最適化されたデジタル画像をデジタルディスプレイに表示することにより、眼のデジタル画像を最適化する方法を更に提供する。デジタル画像最適化アルゴリズムは、少なくとも部分的に、眼のデジタル画像における器具グレア、光学収差、硝子体混濁、又はそれらの任意の組合せを低減して、眼の最適化されたデジタル画像を生成し得る。デジタル画像最適化アルゴリズムは、トレーニング済み機械学習モデルであり得る。トレーニング済み機械学習モデルは、手術開始時に捕捉された眼の複数のデジタル画像と、手術終了時に捕捉された眼の複数の対応するデジタル画像とを使用してトレーニング済みであり得る。カメラは、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得る。
本開示は、手術開始時に眼の複数の入力デジタル画像を捕捉し、手術終了時に眼の複数の出力デジタル画像を捕捉し、眼の複数の入力デジタル画像及び眼の複数の出力デジタル多像をトレーニング画像として使用して、機械学習モデルをトレーニングし、トレーニング済み機械学習モデルを使用して、デジタル画像最適化アルゴリズムとして使用することにより、デジタル画像最適化アルゴリズムを生成する方法を更に提供する。
本開示は、他眼のデジタル画像を捕捉し、術眼のデジタル画像を捕捉し、他眼のデジタル画像の鏡像を生成し、他眼のデジタル画像の鏡像を術眼のデジタル画像と位置合わせして、網膜アーケードアライメントテンプレートを生成し、網膜アーケードアライメントテンプレートを術眼のデジタル画像へのオーバーレイとしてデジタルディスプレイに表示し、網膜アーケードアライメントテンプレートを使用して術眼に眼科手術を実行することにより、眼のデジタル画像を最適化する方法を更に提供する。他眼のデジタル画像の鏡像は、視神経円板、網膜中心静脈、動脈静脈交差部、分岐静脈、又はそれらの任意の組合せを位置合わせすることにより、術眼のデジタル画像と位置合わせし得る。
本開示は、内視鏡を使用して眼の内視鏡デジタル画像を捕捉し、内視鏡デジタル画像最適化アルゴリズムを適用して、眼の最適化された内視鏡デジタル画像を生成し、眼の最適化された内視鏡デジタル画像をデジタルディスプレイに表示することにより、眼の内視鏡デジタル画像を最適化する方法を更に提供する。内視鏡デジタル画像最適化アルゴリズムは、補間、多重露光ノイズ低減、機械学習、深層学習、又はそれらの任意の組合せを使用し得る。
本開示は、眼の複数の内視鏡デジタル画像を捕捉し、画像処理法を使用して眼の複数の内視鏡デジタル画像を最適化して、眼の複数の最適化された内視鏡デジタル画像を生成し、眼の複数の内視鏡デジタル画像を入力画像として使用し、眼の複数の最適化された内視鏡デジタル画像を出力画像として使用して、機械学習モデルをトレーニングし、トレーニング済み機械学習モデルを内視鏡デジタル画像最適化アルゴリズムとして使用することにより、内視鏡デジタル画像最適化アルゴリズムを生成する方法を更に提供する。
本開示は、画像処理システムを使用して、複数の入力画像及び複数の対応する出力画像を含む複数のトレーニング画像を統合アーキテクチャに入力し、畳み込みニューラルネットワークを使用して、複数の入力画像の特徴表現を生成し、統合アーキテクチャを使用して、眼の複数の予測された最適化デジタル画像と複数の対応する出力画像との間の複数の仮説的差分を計算し、複数の仮説的差分と、複数の入力画像と複数の対応する出力画像との間で計算された複数の差分との間の損失を計算し、全体損失が予め定義された閾値よりも小さいか否かを評価し、全体損失が予め定義された閾値よりも小さくない場合、統合アーキテクチャのパラメータを更新し、全体損失が予め定義された閾値よりも小さい場合、統合アーキテクチャのパラメータを記憶し、トレーニングを終了することにより、機械学習モデルをトレーニングする方法を更に提供する。損失は、損失関数を使用して計算し得る。損失関数は平滑L1損失関数であり得る。複数の仮説的差分は、複数の入力画像の特徴表現を使用して計算し得る。機械学習モデルがトレーニングされると、画像処理システムはサーバで動作し得る。画像処理システムは、クラウドベースのデジタル画像最適化サービスを提供し得る。
本開示は、カメラを使用して、患者に固定された識別マーカにプリントされた機械可読情報を取得し、画像処理システムを使用して機械可読情報を処理し、機械可読情報に基づいて患者の識別情報の正確性を判断し、患者の識別情報が不正確である場合、計画されている医療処置を停止し、患者の識別情報が正確である場合、機械可読情報に基づいて、計画されている医療処置が正確であると判断し、計画されている医療処置が不正確である場合、計画されている医療処置を停止し、計画されている医療処置が正確である場合、計画されている医療処置を実行することにより、デジタルタイムアウトを実行する方法を更に提供する。
本開示は、デジタル画像最適化システムを使用して眼のデジタル画像を捕捉し、眼のデジタル画像に処理された機械可読情報を関連付け、眼のデジタル画像を使用して機械学習モデルをトレーニングし、トレーニング済み機械学習モデルを使用して眼のデジタル画像を処理し、画像処理システムを使用して眼の最適化されたデジタル画像を生成し、眼の最適化されたデジタル画像をデジタルディスプレイに表示することにより、眼のデジタル画像を最適化する方法を更に提供する。眼のデジタル画像は、処理された機械可読情報に基づいて1組のトレーニング画像への包含に選択し得る。
デジタル画像最適化システム及びその使用方法の態様は、明らかに相互に排他的でない限り、互いに組み合わせることができる。加えて、デジタル画像最適化システム及び上述のその関連する方法の追加の特徴もまた、明らかに相互に排他的でない限り、互いに組み合わせることができる。
本開示並びにその特徴及び利点をより完全に理解するために、ここで、添付図面と併せて、以下の説明に対して参照が行われるが、これらの図面は縮尺通りではなく、同様の数字は同様の特徴を指す。
本開示は、眼科手術でのデジタル視覚化を改善するためのデジタル画像最適化を含むシステム及び関連する方法を提供する。
眼科医は、眼を視覚化する際に、固有の課題に直面する。特に、医療処置中の収差は眼のデジタル画像の品質を低下させる恐れがある。例えば、患者の瞳孔を通して得られた任意のビューは光学収差を受け、光学収差は眼のデジタル画像を歪ませ得る。光学収差は、眼疾患又は以前の手術によって引き起こされる場合があり、これが外科医によって観察される収差のある画像をもたらす、角膜の非球面性又は眼内レンズインプラントを引き起こす。硝子体混濁もデジタル画像の品質を低下させる恐れがある。加えて、眼内に挿入されるステンレス鋼機器は、術中に眼を見るとき、画質を低下させるグレアを生み出す恐れがある。他の例では、約30,000ピクセルの内視鏡デジタル画像等の低解像度デジタル画像が、100万ピクセル超の高解像度デジタルディスプレイに表示されることがある。これは、不良な画質の内視鏡デジタル画像に繋がる恐れがある。
不良な画質は、眼の内部を視覚化する外科医の能力を妨害し、手術をより困難にする場合がある。アナログシステムでは、収差の影響を補正する方法は非常に限られており、その多くは簡単に補正できない。デジタル視覚化システムでは、種々の補正手段が可能であり、それにより、外科医及び眼科手術を補佐する他の人員に提示される眼のデジタル画像を改善し得る。しかしながら、現行のシステム及び方法は、眼のデジタル画像の品質改善に、機械学習モデルを含み得る最適化アルゴリズムを利用しない場合がある。さらに、現行のシステム及び方法は、最適化アルゴリズムで利用するために、眼のデジタル画像の目録作成するために識別マーカを利用しない場合がある。そのような場合、眼のデジタル画像の画質は低下し得る。例えば、眼のデジタル画像は、コントラスト、鮮鋭度、明瞭度、及びダイナミックレンジが低下し得、ノイズ、歪み、及びビネットが増大し得る。画質の低下は、眼科手術中の合併症リスクを上げ得る。
本開示のデジタル画像最適化システム及び方法は、眼科手術でのデジタル視覚化を改善することにより、より高速で安全且つより効率的な医療処置を提供し得る。本明細書に開示されるデジタル画像最適化システム及び方法は、他のシステム及び方法によって提供されるデジタル画像と比較して器具グレア、光学収差、硝子体混濁、又はそれらの任意の組合せを低下させた、最適化されたデジタル画像を提供することによって眼科手術でのデジタル視覚化を改善し得る。本明細書に開示されるデジタル画像最適化システム及び方法は、術中、網膜アタッチメントのアライメントのための網膜アーケードアライメントテンプレートを提供することにより、現行のシステム及び方法と比較して眼科手術でのデジタル視覚化を改善し得る。本明細書に開示されるデジタル画像最適化システム及び方法は、超解像度デジタル画像である最適化されたデジタル画像を提供することにより、眼科手術でのデジタル視覚化を改善し得る。本開示のシステム及び方法は、眼のデジタル画像を最適化するために機械学習モデルを含むことにより、現行のシステム及び方法と比較して眼科手術でのデジタル視覚化を改善し得る。本明細書に開示されるデジタル画像最適化システム及び方法は、機械学習モデルをトレーニングするために、トレーニング画像を提供することにより、眼科手術でのデジタル視覚化を改善し得る。トレーニング画像は、複数の医療処置からの複数の眼の複数のデジタル画像であり得る。本明細書に開示されるデジタル画像最適化システム及び方法は、クラウドベースのデジタル画像最適化サービスを提供することにより、眼科手術でのデジタル視覚化を改善し得る。本明細書に開示されるデジタル画像最適化システム及び方法は、デジタルタイムアウトを提供することによって眼科手術でのデジタル視覚化を改善し得る。デジタルタイムアウトは、患者と関連する医療情報が、外科医、手術室内のスタッフ、又はそれらの組合せに提供される情報と一致することの計算チェックを含み得る。
本明細書に開示されるシステム及び方法は、眼のデジタル画像のコントラスト、鮮鋭度、明瞭度、及びダイナミックレンジを改善し得、眼のデジタル画像のノイズ、歪み、及びビネットを低減し得るデジタル画像最適化システムを提供することにより、眼科手術でのデジタル視覚化を改善し得る。デジタル画像最適化システムは、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。例えば、眼のデジタル画像は、カメラ又は内視鏡を用いて捕捉し得る。本明細書に開示されるシステム及び方法は、機械学習モデルを使用して、眼のデジタル画像を最適化し得る。本明細書に開示されるシステム及び方法は、網膜アーケードアライメントテンプレートを使用して、術中、異なる段階で捕捉された同じ眼のデジタル画像を位置合わせし、最適化されたデジタル画像を硝子体切除に続く網膜の再付着に提供し得る。本明細書に開示されるシステム及び方法は、クラウドベースのデジタル画像最適化サービスを可能にする最適化ネットワークを提供することもできる。最適化ネットワークは、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。本明細書に開示されるシステム及び方法は、眼のデジタル画像についての機械可読情報を含むデジタルタイムアウトシステムを提供することもできる。機械可読情報は、最適化ネットワークに眼のデジタル画像を記憶するための記録管理及び機械学習モデルをトレーニングするためのトレーニング画像の選択に有用であり得る。デジタルタイムアウトシステムは、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。
これより図1を参照すると、デジタル画像最適化システム100は、カメラ150、画像処理システム170、及びデジタルディスプレイ190を含み得る。画像処理システム170は、眼101の最適化されたデジタル画像を提供し得る。カメラ150は、眼101のデジタル画像を捕捉し得る。カメラ150によって捕捉される眼101のデジタル画像は、視野160を含み得る。視野160は、眼101の拡大ビューを含んでもよく、黄斑、硝子体液、又は眼101の他の領域の高倍率ビューを含んでもよい。視野160は外科器具105を含むこともできる。外科器具105はカニューレであってもよく、又は眼科手術で使用される別の外科ツールであってもよい。
カメラ150は、デジタルカメラ、HDRカメラ、3Dカメラ、又はそれらの任意の組合せであり得る。カメラ150は、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。カメラ150はまた、顕微鏡に結合されたカメラであってもよい。カメラ150は、顕微鏡の接眼レンズに取って代わってもよく、第5世代の画像キャプチャモジュール(ICM5)3D手術用カメラであってもよい。カメラ150は、眼101(図示せず)の立体デジタル像を提供するように構成し得る。カメラ150はレンズ121を含んでもよい。レンズ121はまた、オプトメカニカルフォーカスレンズ、マニュアルフォーカスレンズ、又はそれらの任意の組合わせであってもよい。カメラ150は、電荷結合デバイス(CCD)センサ又は相補型金属酸化物半導体(CMOS)センサであり得る少なくとも1つの画像センサ152を含んでもよい。カメラ150は、モノクロカメラ又はカラーカメラであってもよく、少なくとも1つの画像センサ152は、モノクロ画像センサ又はカラー画像センサであってもよい。少なくとも1つの画像センサ152は、例えばベイヤーフィルタ等のカラーフィルタアレイを備えた画像センサであってもよく、又はカラーフィルタアレイを備えていない画像センサであってもよい。
デジタル画像最適化システム100は、可視光照明源155を含み得る。可視光照明源155は、カメラ150の可視光照明源であり得る。可視光照明源155は眼内照明器(endoilluminator)であり得る。可視光照明源155は、キセノン源、白色LED光源、又は他の任意の適切な可視光源を含み得る。可視光照明源155は、眼101の内部構造を照明し得る。
可視光照明源155によって放出され、外科器具105から反射された光は、器具グレア110を生じさせ得る。器具グレア110は、他の照明源によって放出された光によって生じることもある。器具グレア110は、カメラ150によって捕捉される眼101のデジタル画像においてノイズ又は歪みとして現れ得る。
可視光照明源155によって放出され、眼101の内部から反射された光は、光学収差120による影響を受けることもある。光学収差120は、長時間の医療処置若しくは眼の欠陥によって生じ得る角膜混濁又は白内障若しくは眼内血液によって生じ得る水晶体混濁によって生じ得る。光学収差120は、眼101の他の特徴、外科セットアップ、又はそれらの組合せによって生じることもある。光学収差120は、カメラ150によって捕捉された眼101のデジタル画像のコントラスト、鮮鋭度、明瞭度、及びダイナミックレンジを低減し得る。
可視光照明源155によって放出され、眼101から反射された光は、硝子体混濁130の影響を受け得、この影響は例えば、カメラ150によって捕捉された眼101のデジタル画像において混濁又はフォグとして現れ得る。
カメラ150によって捕捉されたデジタル画像は、画像処理システム170によって処理し得る。画像処理システム170は、プロセッサ180を含み得る。カメラ150は、少なくとも1つの画像センサ152を使用して眼101の内部からレンズ121内に反射された光を検出することができ、検出された光に対応する信号をプロセッサ180に送ることができる。プロセッサ180は、命令を実行して、眼101のデジタル画像を生成し得る。画像処理システム170は、メモリ媒体181を含むこともできる。眼101のデジタル画像は、メモリ媒体181に記憶し得る。
プロセッサ180は、命令を実行して、デジタル画像最適化アルゴリズムを眼101のデジタル画像に適用して、眼の最適化されたデジタル画像191を生成し得る。デジタル画像最適化アルゴリズムは、トレーニング済みの機械学習モデルであるアルゴリズムであり得る。機械学習モデルは、論じるように、明示的にプログラムせずに、経験から学習され発展したデジタル画像最適化アルゴリズムを開発できるようにし得る。一例では、機械学習モデルは、過去の手術からのデジタル画像の「赤色ブースト」ライブラリをトレーニング画像として使用してトレーニングし得る。赤色ブーストライブラリは、眼の不良な赤色反射の画像及び眼の明るい赤色反射の画像を含み得る。赤色ブーストライブラリでトレーニングすることにより、機械学習モデルは、眼の最適化されたデジタル画像191を予測することが可能であり得る。デジタル画像最適化アルゴリズムは代替的には、別の画像強調技法、例えば補間又は多重露光画像ノイズ低減を利用するアルゴリズムであり得る。
デジタル画像最適化アルゴリズムは、カメラ150によって捕捉された眼101のデジタル画像における器具グレア110、光学収差120、硝子体混濁130、又はそれらの任意の組合せを少なくとも部分的に低減して、眼の最適化されたデジタル画像191を生成し得る。眼の最適化されたデジタル画像191では、デジタル最適化アルゴリズムが適用されていない、カメラ150によって捕捉された眼101のデジタル画像よりも少ない器具グレア110、光学収差120、硝子体混濁130、又はそれらの任意の組合せを有し得る。
プロセッサ180は、例えばフィールドプログラマブルゲートアレイ(FPGA)、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、グラフィックス処理ユニット(GPU)、特定用途向け集積回路(ASIC)、又はプログラム命令及び/又はプロセスデータを解釈且つ/又は実行するように構成された他の任意のデジタル若しくはアナログ回路を含み得る。
プロセッサ180は、命令を記憶且つ/又は実行することができる任意の物理デバイスを含み得る。プロセッサ180は、プロセッサ命令を実行して、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数のプロセス、及び/又は1つ又は複数の方法の少なくとも一部を実施し得る。例えば、プロセッサ180は、命令を実行して、眼101のデジタル画像を生成し得る。プロセッサ180は、メモリ媒体181から命令を受信するように構成され得る。一例では、プロセッサ180は、メモリ媒体181を含み得る。別の例では、メモリ媒体181は、プロセッサ180の外部にあり得る。メモリ媒体は命令を記憶し得る。メモリ媒体181により記憶された命令は、プロセッサ180により実行可能であり得、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数の方法、及び/又は1つ又は複数のプロセスの少なくとも一部に従い複数の命令により構成、コーディング、且つ/又は符号化され得る。メモリ媒体181は、プロセッサ180によって実行可能であり、カメラ150によって捕捉された眼101のデジタル画像にデジタル画像最適化アルゴリズムを適用し得る命令を記憶し得る。
FPGAは、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数のプロセス、及び/又は1つ又は複数の方法の少なくとも一部を実施するように構成、コーディング、且つ/又は符号化され得る。例えば、FPGAは、眼101のデジタル画像を生成するように構成、コーディング、且つ/又は符号化され得る。ASICは、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数のプロセス、及び/又は1つ又は複数の方法の少なくとも一部を実施するように構成され得る。例えば、ASICは、眼101のデジタル画像を生成するように構成、コーディング、且つ/又は符号化され得る。DSPは、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数のプロセス、及び/又は1つ又は複数の方法の少なくとも一部を実施するように構成、コーディング、且つ/又は符号化され得る。例えば、DSPは、眼101のデジタル画像を生成するように構成、コーディング、且つ/又は符号化され得る。
単一のデバイスが、プロセッサ180及び画像処理システム170を含んでもよく、又はプロセッサ180は、画像処理システム170とは別体であってもよい。一例では、単一のコンピュータシステムが、プロセッサ180及び画像処理システム170を含み得る。別の例では、デバイスが、プロセッサ180及び画像処理システム170を含み得る集積回路を含み得る。代替的には、プロセッサ180及び画像処理システム170は、手術用コンソールに組み込まれ得る。
プロセッサ180は、メモリ媒体181に記憶されたプログラム命令及び/又はプロセスデータを解釈且つ/又は実行し得る。メモリ媒体181は、部分的又は全体的に、アプリケーションメモリ、システムメモリ、又はその両方として構成され得る。メモリ媒体181は、1つ又は複数のメモリデバイスを保持且つ/又は収容するように構成された任意のシステム、デバイス、又は装置を含み得る。各メモリデバイスは、プログラム命令及び/又はデータを一定期間保持するように構成された任意のシステム、任意のモジュール、又は任意の装置(例えば、コンピュータ可読媒体)を含み得る。記載された1つ又は複数のサーバ、電子デバイス、又は他の機械は、関連する機械の機能を実行するためのプログラム命令を記憶且つ実行し得る1つ又は複数の同様のかかるプロセッサ又はメモリを含み得る。
デジタル画像最適化システム100は、デジタルディスプレイ190を含み得る。デジタルディスプレイ190は、眼科手術で使用可能である十分な解像度で眼101のデジタル画像を表示することができる任意のタイプのスクリーン又はプロジェクタを含み得る。例えば、デジタル画像を提示する従来の硝子体網膜外科システムで使用されるタイプのディスプレイを含む、眼科手術に関連して使用される任意のタイプのスクリーン又はプロジェクタを含み得る。デジタルディスプレイ190は、眼の最適化されたデジタル画像191を表示し得る。これは、最適化されない眼101のデジタル画像よりも器具グレア110、光学収差120、硝子体混濁130、又はそれらの任意の組合せが少ない眼のデジタル画像を提供することにより、眼科手術でのデジタル視覚化を改善し得る。デジタルディスプレイ190は、眼101のデジタル画像と眼の最適化されたデジタル画像191との結合デジタル画像であるデジタル画像を表示し得る。結合デジタル画像はプロセッサ180によって生成し得る。結合画像に表示される眼101のデジタル画像と眼の最適化されたデジタル画像191との割合は、例えばコントローラ192によって制御されるスライダバーを使用して外科医によって制御し得る。このようにして、外科医は、手術中、最適化されたデジタル画像が視覚化に使用される程度を制御することができる。
デジタルディスプレイ190は、単一の画像又は立体視的観察用に2つの画像を表示することができる。デジタルディスプレイ190は、デジタルディスプレイ、スクリーン、ヘッドアップディスプレイ、ヘッドマウントディスプレイ、又はそれらの任意の組合せであってもよく、また、複数のディスプレイを含んでもよい。デジタルディスプレイ190は、フラットパネルディスプレイ又は超高精細3Dフラットパネルディスプレイであってもよい。デジタルディスプレイ190は、3D有機発光ダイオード(OLED)手術用ディスプレイであってもよい。デジタルディスプレイ190上に表示される画像は、パッシブ円偏光眼鏡を通して観察することができる。デジタルディスプレイ190は、ピクチャインピクチャディスプレイであってもよい。デジタルディスプレイ190は、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。
デジタルディスプレイ190は、プロセッサ180又は他のプロセッサによって生成された眼の最適化されたデジタル画像191及びプロセッサ180又は他のプロセッサによって生成された他の情報を表示し得る。そのような情報には、手術用パラメータ、手術モード、流量、眼圧、内視鏡ビデオ、OCT画像、警告、デジタル画像、色分け、拡張現実情報等のグラフィック情報又はテキスト情報が含まれ得る。プロセッサ180は、円偏光眼鏡、デジタル接眼レンズ、又はヘッドマウントディスプレイを用いて見ることができる、デジタルディスプレイ190での表示に向けて、カメラ150を使用して作られたビデオをリフォーマットし得る。
デジタル最適化アルゴリズムは、機械学習モデルを使用して生成し得る。機械学習モデルは、論じるように、複数トレーニング画像を使用してトレーニングし得る。トレーニング画像は、図2A~図2Dに示されるように、手術開始時に捕捉されたデジタル画像及び手術終了時に捕捉されたデジタル画像を含み得る。手術開始時に捕捉されたデジタル画像は、眼の最悪視覚化を提供し得る。これは、デジタル画像が器具グレア110、光学収差120、硝子体混濁130、又はそれらの任意の組合せを含むためであり得る。手術終了時に捕捉された同じ眼のデジタル画像は、眼の最良視覚化を提供し得る。これは、器具グレア110、光学収差120、硝子体混濁130、又はそれらの任意の組合せ等のノイズ又は歪みの原因の多くがなくなったためであり得る。したがって、複数の眼にわたり手術開始時に捕捉された複数のデジタル画像及び手術終了時に捕捉された眼の複数の対応するデジタル画像を使用して機械学習モデルをトレーニングすることにより、手術開始時に捕捉された入力デジタル画像から、手術終了時に捕捉されるデジタル画像を予測するデジタル最適化アルゴリズムを生成し得る。必要であれば、手術開始時に捕捉された眼のデジタル画像は、視神経円板、網膜アーケード、又はそれらの組合せを使用して、手術終了時に捕捉される眼のデジタル画像と位置合わせし得る。これは、位置合わせし、画像を比較するための見当を提供し得る。
例えば、手術開始時の眼のデジタル画像201は、図2Aに示されるように、手術開始時にカメラ150によって捕捉された眼101のデジタル画像であり得る。手術開始時の眼のデジタル画像201は、例えば可視光照明源155によって放出され、外科器具105から反射された光によって生じた器具グレア110を含み得る。器具グレア110は、手術開始時の眼のデジタル画像201においてノイズ又は歪みとして現れ得る。手術開始時の眼のデジタル画像201は、可視光照明源155によって放出され、眼101の内部から反射された光によって生じる光学収差120を含むこともある。光学収差120は、例えば混濁した水晶体220によって生じ得る。光学収差120は、手術開始時の眼のデジタル画像201のコントラスト、鮮鋭度、明瞭度、及びダイナミックレンジを低減し得る。
手術終了時の眼のデジタル画像202は、図2Bに示されるように、手術終了時にカメラ150によって捕捉された眼101のデジタル画像であり得る。手術終了時、外科器具105は眼101から少なくとも部分的に取り出されている可能性がある。したがって、手術終了時の眼のデジタル画像202は、器具グレア110が少ないか、又は器具グレア110を含まない可能性がある。手術終了時、混濁した水晶体220は人工水晶体221と少なくとも部分的に置換されている可能性がある。したがって、手術終了時の眼のデジタル画像202は、光学収差120が少ないか、又は光学収差120を含まない可能性がある。手術終了時の眼のデジタル画像202は、手術開始時の眼のデジタル画像と比較して改善したコントラスト、鮮鋭度、明瞭度、及びダイナミックレンジを有し得、ひいてはノイズ、歪み、及びビネットが低下し得る。
別の例では、手術開始時の眼のデジタル画像203は、図2Cに示されるように、手術開始時にカメラ150によって捕捉された眼101のデジタル画像であり得る。手術開始時の眼のデジタル画像203は、可視光照明源155によって放出され、硝子体210から反射された光によって生じる硝子体混濁130を含み得る。硝子体混濁130は、手術開始時の眼のデジタル画像203においてノイズ又は歪みとして現れ得る。手術開始時の眼のデジタル画像203は、可視光照明源155によって放出され、眼101の内部から反射された光によって生じる光学収差120を含むこともある。光学収差120は血液211によって生じることもある。光学収差120は、手術開始時の眼のデジタル画像203のコントラスト、鮮鋭度、明瞭度、及びダイナミックレンジを低下させる恐れがある。
手術終了時の眼のデジタル画像204は、図2Dに示されるように、手術終了時にカメラ150によって捕捉された眼101のデジタル画像であり得る。手術終了時、硝子体210は眼101から少なくとも部分的に取り出されている可能性がある。したがって、手術終了時の眼のデジタル画像204は、硝子体混濁130が少ないか、又は硝子体混濁130を含まない可能性がある。手術終了時、血液211も少なくとも部分的にと除去されている可能性がある。したがって、手術終了時の眼のデジタル画像204は、光学収差120が少ないか、又は光学収差120を含まない可能性がある。手術終了時の眼のデジタル画像204は、手術開始時の眼のデジタル画像203と比較して、改善したコントラスト、鮮鋭度、明瞭度、及びダイナミックレンジを有し得、ひいてはノイズ、歪み、及びビネットが低下し得る。
手術開始時の眼の複数のデジタル画像及び手術終了時の同じ眼の複数のデジタル画像はそれぞれ、機械学習モデルをトレーニングするための1組のトレーニング画像における入力画像及び出力画像として使用し得る。例えば、入力画像は手術開始時の眼のデジタル画像201であり得、出力画像は手術終了時の眼のデジタル画像202であり得る。機械学習モデルは、論じるように、入力画像から特徴を抽出し、抽出された特徴間の関係関数及び入力画像と出力画像との間の差を学習することに基づいてトレーニングし得る。トレーニング済みの機械学習モデルは、デジタル画像最適化アルゴリズムとして使用し得る。
デジタル画像最適化アルゴリズムは、メモリ媒体181を使用してプロセッサ180で実行され、手術開始時の眼のデジタル画像、例えば手術開始時の眼のデジタル画像201又は手術開始時の眼のデジタル画像203を最適化するプロセッサ命令を生成し得る。プロセッサ180は、命令を実行して、眼の最適化されたデジタル画像191を生成し得る。眼の最適化されたデジタル画像191は、手術終了時の眼のデジタル画像、例えば手術終了時の眼のデジタル画像202又は手術終了時の眼のデジタル画像204と同等の、改善された画質を有し得る。眼の最適化されたデジタル画像191は、眼101のデジタル画像と比較して、改善したコントラスト、改善した鮮鋭度、改善した明瞭度、改善したダイナミックレンジ、低下したノイズ、低下した歪み、低下したビネット、又はそれらの任意の組合せを有し得る。
図3は、眼のデジタル画像を最適化して、眼科手術でのデジタル視覚化を改善する方法のフローチャートを提示する。ステップ300において、眼のデジタル画像が捕捉される。眼のデジタル画像は、カメラ150等のカメラによって捕捉し得る。眼のデジタル画像は、手術開始時に捕捉し得るとともに、手術開始時の眼のデジタル画像201等のデジタル画像であり得、又は眼のデジタル画像は術中に捕捉し得る。眼のデジタル画像は、器具グレア110等の器具グレア、光学収差120等の光学収差、硝子体混濁130等の硝子体混濁、又はそれらの任意の組合せを有し得る。ステップ310において、デジタル画像最適化アルゴリズムは眼のデジタル画像に適用されて、眼の最適化されたデジタル画像191等の眼の最適化されたデジタル画像を生成する。デジタル画像最適化アルゴリズムは、トレーニング済み機械学習モデルであり得る。ステップ320において、眼の最適化されたデジタル画像は、デジタルディスプレイ190等のデジタルディスプレイに表示される。
図4は、機械学習モデルを使用して、眼科手術でのデジタル視覚化を改善するデジタル画像最適化アルゴリズムを生成する方法のフローチャートを提示する。ステップ400において、カメラ150によって捕捉される手術開始時の眼のデジタル画像201等の眼の入力デジタル画像が手術開始時に捕捉される。ステップ410において、カメラ150によって捕捉される手術終了時の眼のデジタル画像202等の同じ眼の出力デジタル画像が手術終了時に捕捉される。ステップ420において、手術開始時の眼の入力デジタル画像及び手術終了時に捕捉された眼の出力デジタル画像はそれぞれ、1組のトレーニング画像における入力画像及び出力画像として使用されて、機械学習モデルをトレーニングする。ステップ430において、複数の患者の複数の入力画像及び出力画像についてステップ400~420を繰り返す。これらの画像は、広範囲の外科医及び眼科病院から収集し得る。複数の入力画像及び出力画像を使用して、入力画像のみ、例えば手術開始時の眼のデジタル画像のみが提供される場合、出力画像、例えば手術終了時の眼のデジタル画像を予測するように機械学習モデルをトレーニングし得る。ステップ440において、トレーニング済み機械学習モデルをデジタル画像最適化アルゴリズムとして使用して、眼のデジタル画像を改良し得る。
代替の例において、デジタル画像最適化システム500は、図5に示されるように、網膜アーケードアライメントテンプレートを提供することによって眼科手術でのデジタル視覚化を改善し得る。網膜アーケードは、網膜の脈管構造を含み得る。網膜アーケードは、耳側アーケード導管を含み得る。網膜アーケードを位置合わせすることにより、術中、異なる段階で捕捉された同じ眼のデジタル画像を位置合わせし得る。代替的には、他眼502(手術されない健康な眼)の網膜アーケードのデジタル鏡像の同じ患者の術眼501のデジタル画像への位置合わせは、術中、網膜アーケードアライメントテンプレートを提供し得る。これは、術眼の最適化されたデジタル画像を提供し得る。他眼は右眼であり得、術眼は同じ患者の左眼であり得る。代替的には、他眼は右眼であり得、術眼は同じ患者の左眼であり得る。
例えば、硝子体切除術中、術眼のデジタル画像への他眼の網膜アーケードの重ねられた位置合わせされたデジタル画像を使用して、網膜アーケードアライメントテンプレートを網膜再付着に提供することにより、デジタル視覚化を改善し得る。これは、少なくとも部分的に、硝子体切除術に続く環状歪み(cyclo-distortion)を防止して、網膜剥離を正し得る。他眼の網膜アーケードのパターンは、任意の他の眼と比較して、術眼の網膜アーケードのパターンと最も良く類似し得る。位置合わせは、図5に示されるように、デジタル視覚化システムを使用して術中に行われ得る。視覚化システムは、2D又は3D視覚化システムであり得る。
デジタル画像最適化システム500は、カメラ550、画像処理システム570、及びデジタルディスプレイ590を含み得る。手術用カメラ550は、デジタルカメラ、HDRカメラ、3Dカメラ、又はそれらの任意の組合せであり得る。カメラ550は、NGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であり得る。カメラ550はまた、顕微鏡に結合されたカメラであってもよい。カメラ550は、顕微鏡の接眼レンズに取って代わってもよく、第5世代の画像キャプチャモジュール(ICM5)3D手術用カメラであってもよい。カメラ550は、術眼501又は他眼502(図示せず)の立体デジタル画像を提供するように構成し得る。カメラ550は、レンズ521を含んでもよい。レンズ521はまた、オプトメカニカルフォーカスレンズ、マニュアルフォーカスレンズ、又はそれらの任意の組合せであってもよい。カメラ550は、電荷結合デバイス(CCD)センサ又は相補型金属酸化物半導体(CMOS)センサであり得る少なくとも1つの画像センサ552を含んでもよい。カメラ550はモノクロカメラ又はカラーカメラであってもよく、少なくとも1つの画像センサ552は、モノクロ画像センサ又はカラー画像センサであってもよい。少なくとも1つの画像センサ552は、例えばベイヤーフィルタ等のカラーフィルタアレイを備えた画像センサであってもよく、又はカラーフィルタアレイを備えていない画像センサであってもよい。代替的には、カメラ550によって捕捉される画像は、光学コヒーレンストモグラフィ(OCT)画像、多/超スペクトル画像、超音波画像、又はそれらの任意の組合せであり得る。
カメラ550によって捕捉される術眼501又は他眼502のデジタル画像は、視野560を含み得る。視野560は、術眼501又は他眼502の拡大ビューを含み得、網膜アーケード又は術眼501若しくは他眼502の他の領域の高倍率ビューを含み得る。
術前、カメラ550は、他眼502の眼底のテンプレートデジタル画像592を捕捉し得る。テンプレートデジタル画像592は、他眼の網膜のデジタル画像510、他眼の網膜中心静脈のデジタル画像512、他眼の網膜アーケードのデジタル画像515、他眼の視神経円板のデジタル画像517、又はそれらの任意の組合せを含み得る。術中、カメラ550は、術眼501の眼底の作業デジタル画像591を捕捉し得る。作業デジタル画像591は、他眼502のテンプレートデジタル画像592の視野560と同等の術眼501の視野560を有し得る。作業デジタル画像591は、術眼の網膜のデジタル画像509、術眼の網膜中心静脈のデジタル画像511、術眼の網膜アーケードのデジタル画像514、術眼の視神経円板のデジタル画像516、又はそれらの任意の組合せを含み得る。
カメラ550によって捕捉されたデジタル画像は、画像処理システム570によって処理し得る。画像処理システム570は、プロセッサ580を含み得る。カメラ550は、少なくとも1つの画像センサ552を使用して、術眼501又は他眼502の内部からレンズ521内に反射された光を検出し得、画像センサ552は、検出された光に対応する信号をプロセッサ580に送信し得る。プロセッサ580は、命令を実行して、術眼501の作業デジタル画像591、他眼502のテンプレートデジタル画像592、又はそれらの組合せを生成し得る。画像処理システム570は、メモリ媒体581を含むこともできる。作業デジタル画像591、テンプレートデジタル画像592、又はそれらの組合せは、メモリ媒体581に記憶し得る。
プロセッサ580は命令を実行して、テンプレートデジタル画像592のデジタル鏡像593を作成し得る。プロセッサ580は命令を実行して、デジタル鏡像593を作業デジタル画像591と位置合わせして、網膜アーケードアライメントテンプレート594を生成し得る。プロセッサ580は命令を実行して、他眼の視神経円板517を術眼の視神経円板516と位置合わせし、他眼の網膜中心静脈を術眼の網膜中心静脈と位置合わせすることにより、又はそれらの組合せにより、デジタル鏡像593を作業デジタル画像591と位置合わせし得る。プロセッサ580は命令を実行して、動脈静脈交差部(図示せず)、分岐静脈(図示せず)、又はそれらの組合せを位置合わせすることにより、デジタル鏡像593を作業デジタル画像591と位置合わせすることもできる。プロセッサ580はプロセッサ180と同様であり得る。
デジタルディスプレイ590は、眼科手術で使用可能である十分な解像度で術眼501のデジタル画像を表示することができる任意のタイプのスクリーン又はプロジェクタを含み得る。例えば、デジタル画像を提示する従来の硝子体網膜外科システムで使用されるタイプのディスプレイを含む、眼科手術に関連して使用される任意のタイプのスクリーン又はプロジェクタを含み得る。デジタルディスプレイ590はデジタルディスプレイ190と同様であり得る。
デジタルディスプレイ590は、作業デジタル画像591、テンプレートデジタル画像592、デジタル鏡像593、網膜アーケードアライメントテンプレート594、又はそれらの任意の組合せを表示し得る。デジタルディスプレイ590は、作業デジタル画像591及び網膜アーケードアライメントテンプレート594のオーバーレイを表示し得る。これは、網膜アーケードアライメントテンプレート594を網膜再付着のために提供することにより、眼科手術でのデジタル視覚化を改善し得る。網膜アーケードアライメントテンプレート594のオーバーレイを有する作業デジタル画像591は、作業デジタル画像591単独と比較して、眼の最適化されたデジタル画像を表し得る。デジタルディスプレイ590は、網膜アーケードアライメントテンプレート594と作業デジタル画像591との結合デジタル画像であるデジタル画像を表示し得る。結合デジタル画像はプロセッサ580によって生成し得る。結合画像に表示される作業デジタル画像591と網膜アーケードアライメントテンプレート594と割合は、例えばコントローラ595によって制御されるスライダバーを使用して外科医によって制御し得る。このようにして、外科医は、術中、網膜アーケードアライメントテンプレート594が視覚化に使用される程度を制御し得る。
デジタルディスプレイ590は、単一の画像又は立体視的観察用に2つの画像を表示することができる。デジタルディスプレイ590は、デジタルディスプレイ、スクリーン、ヘッドアップディスプレイ、ヘッドマウントディスプレイ、又はそれらの任意の組合せであってもよく、また、複数のディスプレイを含んでもよい。デジタルディスプレイ590は、フラットパネルディスプレイ又は超高精細3Dフラットパネルディスプレイであってもよい。デジタルディスプレイ590は、3D有機発光ダイオード(OLED)手術用ディスプレイであってもよい。デジタルディスプレイ590上に表示される画像は、パッシブ円偏光眼鏡を通して観察することができる。デジタルディスプレイ590は、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。
代替的には、デジタルディスプレイ590は、ピクチャインピクチャディスプレイであってもよく、少なくとも2つのデジタル画像を同時に表示し得る。例えば、デジタルディスプレイ590は、作業デジタル画像591及び網膜アーケードアライメントテンプレート594を同時に表示し得る。作業デジタル画像591はメイン画像として表示し得、網膜アーケードアライメントテンプレート594は差し込み位置に表示し得る。代替的には、作業デジタル画像591はメイン画像として表示し得、網膜アーケードアライメントテンプレート594のオーバーレイを有する作業デジタル画像591は差し込み位置に表示し得る。
デジタルディスプレイ590は、プロセッサ580又は他のプロセッサによって生成された作業デジタル画像591、テンプレートデジタル画像592、デジタル鏡像593、網膜アーケードアライメントテンプレート594、又はそれらの任意の組合せと、プロセッサ580又は他のプロセッサによって生成された他の情報とを表示し得る。そのような情報には、手術用パラメータ、手術モード、流量、眼圧、内視鏡ビデオ、OCT画像、警告、デジタル画像、色分け、拡張現実情報等のグラフィック情報又はテキスト情報が含まれ得る。プロセッサ580は、円偏光眼鏡、デジタル接眼レンズ、又はヘッドマウントディスプレイを用いて見ることができる、デジタルディスプレイ590での表示に向けて、カメラ550を使用して作られたビデオをリフォーマットし得る。
デジタル画像最適化システム500は、硝子体切除術後、網膜アーケードアライメントテンプレート594を網膜再付着のために提供することにより、眼のデジタル画像を最適化するのに使用し得る。画像処理システム570は、網膜が網膜アーケードアライメントテンプレート594を使用して再付着中であるとき、網膜の任意の位置合わせずれを検出し得る。網膜の位置合わせずれは、例えば軟質先端部カニューレを使用して調整し得る。画像処理システム570を使用して、位置合わせずれの程度を定量化することもできる。位置合わせずれの程度は、数学的、グラフィカル的、又はそれらの組合せで定量化されて、網膜再付着の外科医の評価について通知し得る。数学的情報、グラフィカル情報、又はそれらの組合せは、デジタル画像最適化システム500によって更に使用されて、手術のアライメントの動きを外科医に示唆し得る。
図6は、網膜アーケードアライメントテンプレートを使用することにより、眼のデジタル画像を最適化して、眼科手術でのデジタル視覚化を改善する方法のフローチャートを提示する。ステップ600において、術前、テンプレートデジタル画像592等の他眼のデジタル画像が捕捉される。ステップ610において、術中、作業デジタル画像591等の術眼のデジタル画像が捕捉される。ステップ620において、デジタル鏡像593等の他眼のデジタル画像の鏡像が生成される。ステップ630において、他眼のデジタル画像の鏡像は、網膜アーケードの特徴を使用して術眼のデジタル画像に位置合わせされて、網膜アーケードアライメントテンプレート594等の網膜アーケードアライメントテンプレートを生成する。例えば、デジタル画像は、視神経円板、網膜中心静脈、動脈静脈交差部、分岐静脈、又はそれらの任意の組合せを位置合わせすることによって位置合わせし得る。デジタル画像は2D又は3Dで位置合わせし得る。ステップ640において、網膜アーケードアライメントテンプレートは、術眼のデジタル画像へのオーバーレイとして表示される。ステップ650において、眼科手術が、網膜アーケードアライメントテンプレートを使用して術眼に対して実行される。網膜アーケードアライメントテンプレートを使用して改善されたデジタル視覚化から恩恵を受ける眼科処置の一例には、硝子体切除術に続く網膜の再付着があり得る。
別の代替の例では、デジタル画像最適化システム700は、図7に示されるように、眼の内視鏡デジタル画像の超解像度最適化を提供することにより、眼科手術でのデジタル画像を改善し得る。これは、低解像度デジタル画像、例えば約30,000ピクセルの内視鏡デジタル画像の解像度を上げることにより、眼科手術でのデジタル視覚化を改善し得る。これにより、低解像度デジタル画像を高解像度デジタルディスプレイ、例えば100万ピクセルを越えるデジタルディスプレイに改善された画質で表示することができる。
これより図7を参照すると、デジタル画像最適化システム700は、内視鏡715、光ファイバ740、光ファイバ光源741、カメラ750、画像処理システム770、及びデジタルディスプレイ790を含み得る。画像処理システム770は、プロセッサ780及びメモリ媒体781を更に含み得る。デジタル画像最適化システム700は、眼101の最適化された内視鏡デジタル画像791を提供して、眼科手術でのデジタル視覚化を改善し得る。
内視鏡715は、眼101に挿入し得る。内視鏡715は、眼101の内部の所望の視野760が、最適化された内視鏡デジタル画像791に捕捉されるように位置決めし得る。光ファイバ740は、内視鏡715内に位置決めし得、内視鏡715の先端部まで延在し得る。光ファイバ740は約30,000本の画像ファイバを含み得る。代替的には、光ファイバ740は、任意の適した数の画像ファイバを含んで、内視鏡715を使用して眼101の所望の最適化された内視鏡デジタル画像791を提供し得る。
光ファイバ740は光ファイバ光源741に結合し得る。光ファイバ光源741は、レーザ源、狭帯域レーザ源、広帯域レーザ源、スーパーコンティニュームレーザ源、白熱電球、ハロゲン電球、金属ハロゲン化物電球、キセノン電球、水銀蒸気電球、発光ダイオード(LED)、レーザエンジン、他の適したソース、又はそれらの任意の組合せであり得る。眼101の内部から反射された光は、光ファイバ740内の画像ファイバを伝播し得、カメラ750によって検出し得る。デジタル画像最適化システム700は、カメラ750(図示せず)に加えて内視鏡715の接眼レンズを含むこともできる。
カメラ750は、少なくとも1つのカメラセンサ752を含み得る。少なくとも1つのカメラセンサ752は、相補型金属酸化物半導体(CMOS)センサ又は電荷結合デバイス(CCD)センサであり得る。カメラ750は、モノクロカメラ又はカラーカメラであってもよく、少なくとも1つのカメラセンサ752は、モノクロ画像センサ又はカラー画像センサであってもよい。少なくとも1つのカメラセンサ752は、眼101の内部から反射された光であり得る、光ファイバ740によって伝播する光を使用してデジタル画像を捕捉し得る。少なくとも1つのカメラセンサ752は、眼101の内視鏡デジタル画像であり得る、眼101のデジタル画像を捕捉し得る。
光ファイバ740、光ファイバ光源741、カメラ750、及び少なくとも1つのカメラセンサ752は、制御デバイス742によって制御し得る。例えば、制御デバイス742は、光ファイバ光源741の強度、少なくとも1つのカメラセンサ752の感度、又はそれらの任意の組合せを調整し得る。図7は、デジタル画像最適化システム700内に1つの内視鏡715を示しているが、デジタル画像最適化システム700は複数の内視鏡715、光ファイバ740、カメラ750、及びカメラセンサ752を含んでもよい。この場合、複数の内視鏡715を眼101の複数の位置に挿入して、眼の複数の内視鏡デジタル画像を提供し得る。
デジタル画像最適化システム700は、画像処理システム770を含み得る。少なくとも1つのカメラセンサ752によって捕捉されたデジタル画像は、画像処理システム770によって処理し得る。画像処理システム770はプロセッサ780を含み得る。カメラ750は、少なくとも1つのカメラ画像センサ752を使用して、眼101の内部から反射され、光ファイバ740によって伝播する光を検出し、検出された光に対応する信号をプロセッサ780に送信し得る。プロセッサ780は命令を実行して、眼101の内視鏡デジタル画像を生成し得る。
カメラ750によって捕捉された眼101の内視鏡デジタル画像は、画像処理システム770によって処理し得る。画像処理システム770は、メモリ媒体781を含むこともできる。眼101の内視鏡デジタル画像は、メモリ媒体781に記憶し得る。プロセッサ780は命令を実行して、内視鏡デジタル画像最適化アルゴリズムを眼101の内視鏡デジタル画像に適用して、眼の最適化された内視鏡デジタル画像791を生成し得る。眼の最適化された内視鏡デジタル画像791は、眼の超解像度デジタル画像であり得る。超解像度デジタル画像は、眼の低解像度内視鏡デジタル画像をアップスケーリングして、眼の高解像度内視鏡デジタル画像を生成することによって生成し得る。説明するように、眼の最適化された内視鏡デジタル画像791の生成に使用し得る方法の例には、限定ではなく、補間、多重露光画像ノイズ低減、機械学習、深層学習、又はそれらの任意の組合せがある。例えば補間法を使用すると、機械学習法を使用する場合よりも高速に、眼の最適化された内視鏡デジタル画像791を生成することができる。例えば機械学習法を使用すると、補間法を使用する場合よりも改善された、眼の最適化された内視鏡デジタル画像791を生成することができる。
内視鏡デジタル画像最適化アルゴリズムは、補間を使用して眼の最適化された内視鏡デジタル画像791を生成し得る。例えば、内視鏡デジタル画像最適化アルゴリズムは、眼101の内視鏡デジタル画像中の低品質対象ピクセルをコントラスト、鮮鋭度、明瞭度、又はそれらの任意の組合せがより高い隣接ピクセルで置換することにより、眼の最適化された内視鏡デジタル画像791を生成し得る。低品質対象ピクセルは、予期される色を表示しないピクセル、特定の色を永久的に表示するピクセル、永久的に白色のピクセル、永久的に黒色のピクセル、永久的に「ホットピクセル」として表示するピクセル、デッドピクセル、又はそれらの任意の組合せであり得る。対象ピクセルは、変更中の領域が概して小さい場合、いかなる目立つ画像歪みもなくピクセル画質を最適化するように変更し得る。内視鏡デジタル画像最適化アルゴリズムに含むことができる補間法の例には、限定ではなく、最近傍補間、線形補間、双線形補間、双三次補間、異方性フィルタリング、又はそれらの任意の組合せがあり得る。
別の例では、内視鏡デジタル画像最適化アルゴリズムは、多重露光画像ノイズ低減を使用して眼の最適化された内視鏡デジタル画像791を生成し得る。内視鏡715は、眼101の複数の内視鏡デジタル画像を結合して、眼の単一の最適化された内視鏡デジタル画像791を与えるように、対照領域にわたって外科医によって動的に走査し得る。
内視鏡デジタル画像最適化アルゴリズムは、機械学習モデルを使用してトレーニングし得る。機械学習モデルは、論じたように、複数のトレーニング画像を使用してトレーニングし得、複数のトレーニング画像は、上述した画像処理法の1つ等の画像処理法を使用して首尾良く最適化された眼の複数の内視鏡デジタル画像であり得る。例えば、眼の内視鏡デジタル画像の最適化は、外科医が眼の最適化された内視鏡デジタル画像を使用して手術を首尾良く完了した場合、成功したと見なし得る。
更なる例では、内視鏡デジタル画像最適化アルゴリズムは、深層学習法を使用して眼の最適化された内視鏡デジタル画像791を生成し得る。例えば、内視鏡デジタル画像最適化アルゴリズムは、深層学習を使用して単一画像超解像(SISR)を利用し得る。SISRは、単一の低解像度デジタル画像から高解像度デジタル画像を生成するプロセスであり得る。一例では、ベリーディープ超解像(VDSR)ニューラルネットワークをSISRに使用し得る。VDSRニューラルネットワークは、低解像度デジタル画像と高解像度デジタル画像との間のマッピングを学習し得る。一般に、同じ対象の低解像度デジタル画像及び高解像度デジタル画像は、同様の画像内容を有し得る。低解像度デジタル画像は、高周波詳細において高解像度デジタル画像と異なり得る。同じ対象の高解像度画像と高解像度画像のサイズに一致するようにアップスケーリングされた低解像度画像との間のピクセル値の差分は、残差画像と呼ぶことができる。VDSRニューラルネットワークは、眼の内視鏡デジタル画像の低解像度及び高解像度ペアの1組のトレーニング画像から残差画像を推定するように学習し得る。眼の高解像度内視鏡デジタル画像は、推定された残差画像を眼のアップスケーリングされた低解像度内視鏡デジタル画像に追加することにより、眼の低解像度内視鏡デジタル画像から再構築し得る。VDSRニューラルネットワークを使用することにより、SISRは、眼101の低解像度内視鏡デジタル画像から眼101の高解像度内視鏡デジタル画像を復元し得る。眼101の高解像度内視鏡デジタル画像は、眼の最適化された内視鏡デジタル画像791であり得る。代替として、SISRを実行するために、他の適したニューラルネットワークが内視鏡デジタル画像最適化アルゴリズムによって使用され得る。
内視鏡デジタル画像最適化アルゴリズムは、少なくとも部分的に、カメラ750によって捕捉された眼101の内視鏡デジタル画像のノイズ低減、解像度増大、デジタル画質改善、又はそれらの任意の組合せを行い得る。例えば、眼の最適化された内視鏡デジタル画像791は、内視鏡デジタル最適化アルゴリズムが適用されなかった、カメラ750によって捕捉された眼101の内視鏡デジタル画像と比較して、増大したコントラスト、鮮鋭度、明瞭度、ダイナミックレンジ、又はそれらの任意の組合せを有し得る。デジタル画像最適化システム700は内視鏡715を含むが、眼の超解像度デジタル画像は、カメラ、例えばカメラ150又はカメラ550等のカメラを用いて捕捉された眼のデジタル画像にも等しく提供することができる。
最適化された内視鏡デジタル画像791は、デジタルディスプレイ790に表示し得る。デジタルディスプレイ790は、眼科手術で使用可能である十分な解像度で、最適化された内視鏡デジタル画像791を表示可能な任意のタイプのスクリーン又はプロジェクタを含み得る。例えば、デジタル画像を提示する従来の硝子体網膜外科システムで使用されるタイプのディスプレイを含む、眼科手術に関連して使用される任意のタイプのスクリーン又はプロジェクタを含み得る。デジタルディスプレイ790は、最適化された内視鏡デジタル画像791を、眼101の別のデジタル画像、例えば眼の最適化されたデジタル画像191と同時に表示し得る。デジタルディスプレイ790は、眼101の内視鏡デジタル画像と最適化された内視鏡デジタル画像791との結合デジタル画像であるデジタル画像を表示し得る。結合デジタル画像はプロセッサ780によって生成し得る。結合画像に表示される眼101の内視鏡デジタル画像と眼の最適化された内視鏡デジタル画像791との割合は、例えばコントローラ792によって制御されるスライダバーを使用して外科医によって制御し得る。このようにして、外科医は、手術中、最適化された内視鏡デジタル画像791が視覚化に使用される程度を制御することができる。
デジタルディスプレイ790は、単一の画像又は立体視的観察用に2つの画像を表示することができる。デジタルディスプレイ790は、デジタルディスプレイ、スクリーン、ヘッドアップディスプレイ、ヘッドマウントディスプレイ、又はそれらの任意の組合せであってもよく、また、複数のディスプレイを含んでもよい。デジタルディスプレイ790は、フラットパネルディスプレイ又は超高精細3Dフラットパネルディスプレイであってもよい。デジタルディスプレイ790は、3D有機発光ダイオード(OLED)手術用ディスプレイであってもよい。デジタルディスプレイ790上に表示される画像は、パッシブ円偏光眼鏡を通して観察することができる。デジタルディスプレイ790は、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。
代替的には、デジタルディスプレイ790は、ピクチャインピクチャディスプレイであってもよく、少なくとも2つのデジタル画像を同時に表示し得る。例えば、デジタルディスプレイ790は、最適化された内視鏡デジタル画像791及び眼の最適化されたデジタル画像191等の眼101の別のデジタル画像を同時に表示し得る。最適化された内視鏡デジタル画像791は、メイン画像として表示し得、眼101の別のデジタル画像は差し込み位置に表示し得る。代替的には、眼101の別のデジタル画像はメイン画像として表示し得、最適化された内視鏡デジタル画像791は差し込み位置に表示し得る。
デジタルディスプレイ790は、プロセッサ780又は別のプロセッサによって生成された、最適化された内視鏡デジタル画像791と、プロセッサ780又は別のプロセッサによって生成された他の情報とを表示し得る。そのような情報には、手術用パラメータ、手術モード、流量、眼圧、内視鏡ビデオ、OCT画像、警告、デジタル画像、色分け、拡張現実情報等のグラフィック情報又はテキスト情報が含まれ得る。プロセッサ780は、円偏光眼鏡、デジタル接眼レンズ、又はヘッドマウントディスプレイを用いて見ることができる、デジタルディスプレイ790での表示に向けて、カメラ750を使用して作られたビデオをリフォーマットし得る。
図8は、内視鏡デジタル画像最適化アルゴリズムを使用することにより、眼の内視鏡デジタル画像を最適化して、眼科手術でのデジタル視覚化を改善する方法のフローチャートを提示する。ステップ800において、患者の眼の内視鏡デジタル画像が、内視鏡715等の内視鏡を使用して捕捉される。ステップ810において、内視鏡デジタル画像最適化アルゴリズムが眼の内視鏡デジタル画像に適用されて、眼の最適化された内視鏡デジタル画像791等の眼の最適化された内視鏡デジタル画像を生成する。内視鏡デジタル画像最適化アルゴリズムは、補間、多重露光画像ノイズ低減、機械学習、深層学習、又はそれらの任意の組合せを使用し得る。ステップ820において、眼の最適化された内視鏡デジタル画像は、デジタルディスプレイ790等のデジタルディスプレイに表示される。
図9は、眼科手術でのデジタル視覚化を改善する、機械学習モデルを使用して内視鏡デジタル画像最適化アルゴリズムを生成する方法のフローチャートを提示する。ステップ900において、内視鏡715によって捕捉された眼101の内視鏡デジタル画像等の患者の眼の内視鏡デジタル画像が捕捉される。ステップ910において、眼の内視鏡デジタル画像は、補間、多重露光画像ノイズ低減、又はそれらの組合せ等の画像処理法を使用して最適化されて、眼の最適化された内視鏡デジタル画像791等の眼の最適化された内視鏡デジタル画像を生成する。眼の内視鏡デジタル画像の最適化は、外科医が眼の最適化された内視鏡デジタル画像を使用して手術を首尾良く完了した場合、成功したと見なし得る。ステップ920において、眼の内視鏡デジタル画像及び眼の最適化された内視鏡デジタル画像はそれぞれ、機械学習モデルをトレーニングするための1組のトレーニング画像における入力画像及び出力画像として使用される。ステップ930において、ステップ900~920が、複数の患者の内視鏡デジタル画像の複数の入力画像及び出力画像に対して繰り返される。これらの画像は、広範囲の外科医及び眼科病院から収集し得る。複数の入力画像及び出力画像を使用して、入力画像のみ、例えば眼の内視鏡デジタル画像のみが提供される場合、出力画像、例えば眼の最適化された内視鏡デジタル画像を予測するように機械学習モデルをトレーニングし得る。ステップ940において、トレーニング済み機械学習モデルを内視鏡デジタル画像最適化アルゴリズムとして使用して、眼の内視鏡デジタル画像を改良し得る。
デジタル画像最適化システム100、デジタル画像最適化システム500、及びデジタル画像最適化システム700は、図10に示されるように、最適化ネットワーク1000と併せて使用し得る。最適化ネットワーク1000は、通信ネットワーク1010及びデジタル画像管理システム1015を更に含み得る。図10は、デジタル画像管理システム1015を使用して、眼101のデジタル画像から眼の最適化されたデジタル画像1191を生成する一例を示す。図10は最適化ネットワーク1000においてカメラ150を含むが、最適化ネットワーク1000は代替的には、内視鏡715等の内視鏡又は任意の他の適した眼科視覚化システムを含み得る。デジタル画像管理システム1015は、通信ネットワーク1010を経由して画像処理システム170等のローカル画像処理システムと通信し得る。代替的には、デジタル画像管理システム1015は、画像処理システム170等のローカル画像処理システムの一部であってもよく、又はこれを含んでもよい。
デジタル画像管理システム1015は、眼101の複数のトレーニング画像を使用して、機械学習モデルをトレーニングし得る。例えば、デジタル画像管理システム1015は、手術開始時に捕捉された眼の複数のデジタル画像及び手術終了時に捕捉された同じ眼の複数のペアになったデジタル画像、例えば手術開始時の眼のデジタル画像201及び手術終了時の眼のデジタル画像202を使用して、機械学習モデルをオフラインでトレーニングし得る。デジタル画像管理システム1015は代替的には、画像処理法を使用して首尾良く最適化された眼の複数の内視鏡デジタル画像を使用して、機械学習モデルをオフラインでトレーニングし得る。機械学習モデルのトレーニングに使用されるトレーニング画像は、通信ネットワーク1010を介してデジタル画像管理システム1015にアップロードし得る。機械学習モデルのトレーニングに使用される画像は、デジタル支援硝子体網膜手術システム、例えばNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)を使用して捕捉し得る。機械学習モデルのトレーニングに使用される画像は、複数の外科医によって捕捉し得る。機械学習モデルのトレーニングに使用される画像は、複数の場所における複数の患者の画像であり得る。機械学習モデルのトレーニングに使用される画像は、同様の解像度の画像、同様のカメラを用いて捕捉された画像、同様の医療処置中に捕捉された画像、又はそれらの任意の組合せであり得る。
術中、デジタル画像管理システム1015は、トレーニング済み機械学習モデルを使用して眼101のデジタル画像を処理して、眼の最適化されたデジタル画像1191を生成し得る。眼の最適化されたデジタル画像1191は、デジタル画像管理システム1015によって処理されていない、カメラ150によって捕捉された眼のデジタル画像よりも低い器具グレア、低い光学収差、低い硝子体混濁、又はそれらの任意の組合せを有し得る。眼の最適化デジタル画像1191は、デジタル画像管理システム1015によって処理されていない、カメラ150によって捕捉された眼101のデジタル画像よりも高いコントラスト、鮮鋭度、明瞭度、ダイナミックレンジ、又はそれらの任意の組合せを有し得る。
図11は、眼の最適化されたデジタル画像1191であり得る眼の最適化されたデジタル画像を特定する解決策の一例を示す。デジタル画像管理システム1015は画像処理システム1170を含み得、画像処理システム1170は、プロセッサ1180、メモリ媒体1181、及び機械学習モデル1025を更に含み得る。画像処理システム1170は、眼101のデジタル画像における情報に基づいて差分を計算し、差分を眼101のデジタル画像と結合することにより、眼101のデジタル画像から眼の最適化されたデジタル画像を特定し得る。差分は、眼101のデジタル画像の生のピクセルデータに基づいて計算し得る。例えば、眼101のデジタル画像は、手術開始時、デジタル画像最適化システム100によって捕捉し得る。眼101のデジタル画像は、器具グレア、光学収差、硝子体混濁、又はそれらの任意の組合せを含み得る。画像処理システム1170は、眼101のデジタル画像の生のピクセルデータに基づいて差分を計算し得る。差分は、機械学習モデル1025を使用して計算し得る。画像処理システム1170は更に、眼101のデジタル画像を差分と結合することによって眼の最適化されたデジタル画像を特定し得る。
図11に示されるように、デジタル画像最適化システム100は、眼101のデジタル画像を捕捉し、それを画像処理システム1170に送信し得る。デジタル画像最適化システム100は、通信ネットワーク1010等の通信ネットワークを使用して、眼101のデジタル画像を画像処理システム1170に送信し得る。画像処理システム1170は、デジタル画像管理システム1015に含まれ得る。したがって、画像処理システム1170は、リモート眼科視覚化システムから捕捉された眼のデジタル画像を処理して、最適化されたデジタル画像を生成し得る。代替的には、画像処理システム1170は、トレーニングされると、眼科視覚化システムにローカルに、例えばデジタル画像最適化システム100内の画像処理システム170に記憶し得る。この例では、画像処理システム1170は、眼101のデジタル画像をローカルで最適化し得る。
画像処理システム1170は、機械学習モデル1025を使用して眼101のデジタル画像の差分を計算し得る。機械学習モデル1025は、図11に示されるように、複数のトレーニング画像1030を使用してトレーニングし得る。複数の眼1101のトレーニング画像1030を取得し得る。各組のトレーニング画像1030は、例えば手術開始時の眼のデジタル画像201であり得る入力画像と、例えば手術終了時の眼のデジタル画像202であり得る出力画像とを含む。画像処理システム1170は、トレーニング画像1030にアクセスして、機械学習モデル1025をトレーニングし得る。機械学習モデル1025は、(1)入力画像から特徴を抽出し、(2)抽出された特徴と、入力画像と出力画像との間の差分との間の関係関数を学習することに基づいてトレーニングし得る。したがって、入力画像のみが提供される場合、機械学習モデル1025を使用して、出力画像を予測し得る。代替的には、任意の適したトレーニング画像1030を任意の適した様式で取得して、眼のデジタル画像を最適化するように機械学習モデル1025をトレーニングし得る。
図12は、眼のデジタル画像における情報に基づいて差分を計算するため、例えば手術開始時の眼のデジタル画像201と手術終了時の眼のデジタル画像202との間の差分を計算するための機械学習モデル1025の一例の統合アーキテクチャ1200を示す。統合アーキテクチャ1200は、畳み込みニューラルネットワーク(CNN)1210と、少なくとも1つの長短期メモリユニット(LSTM)1220とを含み得る。畳み込みニューラルネットワーク1210は、画像の解析に有効であり得る一種の深層フィードフォワード人工ニューラルネットワークを含み得る。畳み込みニューラルネットワーク1210は、必要な前処理が最小である多様な多層パーセプトロンを使用し得る。多層パーセプトロンは、その重み共有アーキテクチャ及び平行移動(translation)不変特性により、シフト不変又は空間不変人工ニューラルネットワークとしても知られている。畳み込みニューラルネットワーク1210は複数の連続層を含み得る。少なくとも1つの長短期メモリユニット1220は、リカレントニューラルネットワークを含み得、リカレントニューラルネットワークは、最終的にはより大きなリカレントニューラルネットワークの構築構成要素又は隠れ層のブロックとして使用し得る。長短期メモリユニット1220は、従来のリカレントニューラルネットワークにおける接続と同様のリカレント接続を含み得るため、それ自体がリカレントネットワークであり得る。畳み込みニューラルネットワーク1210及び少なくとも1つの長短期メモリユニット1220は統合し得る。統合は、畳み込みニューラルネットワーク1210の複数の連続層のうちの最後の後に少なくとも1つの長短期メモリユニット1220を挿入することによって達成し得る。畳み込みニューラルネットワーク1210は、全結合層1211である最後の連続層を含み得る。少なくとも1つの長短期メモリユニット1220は、全結合層1211の後に挿入し得る。少なくとも1つの長短期メモリユニット1220は、眼のデジタル画像の生のピクセルデータ、例えば画像幅、画像長さ、カラーチャネルデータ、又はそれらの任意の組合せに対応し得る。少なくとも1つの長短期メモリユニット1220の出力は、出力ベクトル1230であり得る。画像処理システム1170は、出力ベクトル1230を使用して、眼のデジタル画像における情報に基づいて差分を計算し得る。代替として、画像処理システム1170は、機械学習モデル1025のトレーニングに任意の適したアーキテクチャを使用し得る。
画像処理システム1170は、畳み込みニューラルネットワーク1210を使用して複数のトレーニング画像1030を処理することにより、複数のトレーニング画像1030の特徴表現を生成し得る。畳み込みニューラルネットワーク1210は、予めトレーニングされた分類ネットワークに基づき得る。例えば、予めトレーニングされた分類ネットワークは、残差ネットワークを含み得る。画像処理システム1170は、予めトレーニングされた分類ネットワークの最後の全結合層1211を変更することにより、畳み込みニューラルネットワーク1210を実施し得る。画像処理システム1170は、畳み込みニューラルネットワーク1210の出力を複数のトレーニング画像1030の生成された特徴表現として使用し得る。特徴表現の一例は数値ベクトルであり得る。画像処理システム1170は、畳み込みニューラルネットワーク1210の出力を少なくとも1つの長短期メモリユニット1220の入力として使用することもできる。代替として、特徴表現は、任意の適した様式で任意の適した畳み込みニューラルネットワークを使用して生成し得る。
画像処理システム1170は、複数のトレーニング画像1030の特徴表現と、トレーニング画像1030の入力画像及びシステム画像のペア間の差分との間の関係関数を学習し得る。関係関数の学習は、機械学習統合アーキテクチャ1200及び特定の損失関数に基づき得る。関係関数は写像関数を含み得る。写像関数の入力は、入力画像の特徴表現及び入力画像と対応する出力画像との間の差分を含み得る。写像関数の出力は、眼の予測された仮説的最適化デジタル画像と対応する出力画像との間の差分を含み得る。差分は、デジタル画像の生のピクセルデータ、例えば画像幅、画像長さ、カラーチャネルデータ、又はそれらの任意の組合せに対応する値を含み得る。写像関数は、特定の損失関数に更に基づき得る。例えば、損失関数は平滑L1損失関数であり得る。任意の変数xについて、平滑L1損失関数は、
として定義し得る。代替として、画像処理システム1170は、任意の適した関係関数を任意の適した様式で学習し得る。
図13は、機械学習モデル1025等の機械学習モデルをトレーニングする方法のフローチャートを提示する。ステップ1300において、画像処理システム1170等の画像処理システムは、トレーニング画像1030等の複数のトレーニング画像を統合アーキテクチャ1200等の統合アーキテクチャに入力し得る。複数のトレーニング画像は、複数の入力画像及び複数の対応する出力画像を含み得る。入力画像は例えば、手術開始時の眼のデジタル画像201であり得、出力画像は例えば、手術終了時の眼のデジタル画像202であり得る。ステップ1310において、画像処理システムは畳み込みニューラルネットワーク1210等の畳み込みニューラルネットワークを使用して、複数のトレーニング画像のうちの複数の入力画像の特徴表現を生成し得る。ステップ1320において、画像処理システムは統合アーキテクチャを使用して、眼の複数の予測された最適化デジタル画像と対応する出力画像との間の複数の仮説的差分を計算し得る。複数の仮説的差分は、複数の対応する入力画像の特徴表現を使用して計算し得る。ステップ1330において、画像処理システムは、複数の仮説的差分と、複数の入力画像と複数の対応する出力画像との間で計算された複数の差分との間の損失を計算し得る。損失は損失関数を使用して計算し得、損失関数は平滑L1損失関数を含み得る。ステップ1340において、画像処理システムは、全体損失が予め定義された閾値よりも小さいか否かを評価し得る。全体損失が予め定義された閾値よりも小さくない場合、画像処理システムはステップ1350に進み得る。ステップ1350において、画像処理システムは統合アーキテクチャのパラメータを更新し得る。次いでステップ1310~1340のサイクルを繰り返し得る。全体損失が予め定義された閾値よりも小さい場合、画像処理システムはステップ1360に進み得る。ステップ1360において、画像処理システムは、統合アーキテクチャのパラメータを記憶し、トレーニングを終了し得る。これは、機械学習モデルが収束したためであり得る。代替的には、眼のデジタル画像を最適化するように機械学習モデルをトレーニングする任意の適した方法を使用し得る。
画像処理システム1170は、デジタル画像管理システム1015と関連するシステムでトレーニングし得る。トレーニングされると、画像処理システム1170はサーバで動作し得、クラウドベースのデジタル画像処理サービスに使用し得る。代替的には、トレーニングされると、画像処理システム1170をローカル眼科視覚化システムに配布し得る。これは、デジタル画像最適化システム100、デジタル画像最適化システム500、デジタル画像最適化システム700、又はそれらの任意の組合せ等のローカルデジタル画像最適化システムを含み得る。
例えば、トレーニング済みの画像処理システム1170は、眼のデジタル画像を受信し得る。眼のデジタル画像は、カメラ150等のカメラによって捕捉されてもよく、又は内視鏡715等の内視鏡によって捕捉されてもよい。画像処理システム1170は、トレーニング済み機械学習モデル1025を使用して眼のデジタル画像を処理することにより、眼の最適化されたデジタル画像を計算し得る。画像処理システム1170はまず、例えば畳み込みニューラルネットワーク1210を使用して、トレーニング済み機械学習モデル1025を使用して眼のデジタル画像を処理することにより、眼のデジタル画像の特徴表現を生成し得る。次いで画像処理システム1170は、例えば少なくとも1つの長短期メモリユニット1220を使用して、トレーニング済み機械学習モデルを使用して、生成された特徴表現及び眼のデジタル画像を処理し得る。次いで画像処理システム1170は、眼のデジタル画像と眼の予測された最適化デジタル画像との間の差分を出力し得る。画像処理システム1170はこの差分を使用して、眼のデジタル画像から眼の最適化されたデジタル画像を計算し得る。代替的には、画像処理システム1170は、眼の任意のデジタル画像の最適化されたデジタル画像を任意の適した様式で計算し得る。
デジタル画像最適化システム100、デジタル画像最適化システム500、デジタル画像最適化システム700、及び最適化ネットワーク1000は、図14に示されるように、デジタルタイムアウトシステム1400と併せて使用し得る。デジタルタイムアウトシステム1400は、識別マーカ1405、カメラ1450、画像処理システム1470、デジタルディスプレイ1490、通信ネットワーク1010、及びデジタル画像管理システム1015を含み得る。画像処理システム1470は、プロセッサ1480及びメモリ媒体1481を更に含み得る。
カメラ1450は、カメラ150等のカメラであり得る。カメラ1450は、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。デジタルディスプレイ1490は、デジタルディスプレイ190等のディスプレイであり得る。デジタルディスプレイ1490は、デジタル支援硝子体網膜手術(「DAVS」)システムの構成要素であってもよく、又はNGENUITY(登録商標)3D視覚化システム(Novartis AG Corp.,Switzerland)の構成要素であってもよい。
識別マーカ1405は患者1410に固定し得る。識別マーカ1405は、患者1410の眼101の上に固定し得る。識別マーカ1405は、患者1410の手術を受ける眼101の上に固定し得る。代替的には、識別マーカ1405は、患者1410の、手術を促進する任意の位置に固定し得る。識別マーカ1405は、リムーバブル転写式タトゥー、パッチ、ステッカー、テープ、又はそれらの任意の組合せであり得る。識別マーカ1405は、落ち得ないマーカ、滲み得ないマーカ、誤って適用され得ないマーカ、又はそれらの組合せであるような、患者1410に固定される任意の他の適したマーカであってもよい。
識別マーカ1405は白色背景又は黒色背景であり得る。代替的には、識別マーカ1405は白色背景を背にした黒色であり得る。識別マーカ1405は、例えば十字形等のロケータ1430を含んでもよい。カメラ1450はロケータ1430を識別し、ロケータ1430に相対した特定の位置にそれ自体を位置決めし得る。カメラ1450はロボット制御されるカメラであり得る。カメラ1450は、6つの自由度で動作することができる。ロケータ1430は、カメラ1450が患者1410の眼101の上にそれ自体を自動的に配置できるようにし得る。
識別マーカ1405は、患者1410と関連する機械可読情報1420を含み得る。例えば、機械可読情報1420は、バーコード等の機械可読マークを含み得る。バーコードは一次元バーコードであり得る。バーコードは多次元バーコードであり得る。バーコードはクイックレスポンス(QR)コード1425であり得る。別の例において、機械可読情報1420は記号であり得、又は記号を含み得る。記号は、光学文字認識(OCR)プロセス及び/又はシステムを介して処理し得る手書き言語(例えば英語、独語、仏語、中国語、ロシア語等)の文字であり得、又はそれを含み得る。
機械可読情報1420は、患者1410と関連する情報の記憶に使用し得る。患者1410と関連する情報は、患者1410と関連する識別情報を含み得る。識別情報は、中でも特に氏名、生年月日、及び政府識別番号の1つ又は複数を含み得る。患者1410と関連する情報は、患者1410と関連する医療情報を含むこともできる。患者1410と関連する医療情報は、中でも特に、医療処置、投薬リスト、患者1410の医師、医療処置の対象である患者1410の部位、1つ又は複数の薬物アレルギー、診断、及び医療処置での患者1410の向きの1つ又は複数を含み得る。患者1410と関連する医療情報は、手術する眼、例えば右眼又は左眼を含み得る。別の例において、患者1410と関連する情報は索引付け情報を含み得る。索引付け情報は、患者1410と関連する情報を記憶するデータベース及び/又はストレージデバイスへの索引付けに使用し得る。索引付け情報は、患者1410と関連する情報を記憶するデータベース及び/又はストレージデバイスから、患者1410と関連する情報を検索するのに使用し得るキーとして使用し得、又はそのキーの作成に使用し得る。
機械可読情報1420は、任意の種類のサポート媒体フォーマットで、例えば紙、布、プラスチックカード、ステッカー、又はそれらの任意の組合せで、識別マーカ1405上にプリントし得る。機械可読情報1420は、バーコード並びに/或いはカスタム光学コード及び/又はマークを含み得る。カメラ1450は、識別マーカ1405のデジタル画像を捕捉し、信号をプロセッサ1480に送信し得る。カメラ1450は、患者1410の手術する眼101のデジタル画像を捕捉し、信号をプロセッサ1480に送信してもよい。カメラ1450は、機械可読情報1420を取得してもよい。機械可読情報1420は、プロセッサ1480を使用して画像処理システム1470によって処理し得る。患者1410の眼101のデジタル画像も、プロセッサ1480を使用して画像処理システム1470によって処理し得る。カメラ1450は、手術室において識別マーカ1405を認識することによって機械可読情報1420を自動的に取得し得る。機械可読情報1420は、カメラ1450が機械可読情報1420を取得すると、カメラ1450の自動ホワイトバランス色較正を開始し得る。
機械可読情報1420の処理は、1つ又は複数の画像を処理して、機械可読情報1420を介して記憶された情報を特定することを含み得る。例えば、1つ又は複数の画像は、医療処置と関連する情報を含む1つ又は複数のバーコードを含み得る。1つ又は複数のバーコードは、本明細書に記載される情報を含み得、機械可読情報1420の処理は、機械可読情報1420から医療処置と関連する情報を検索することを含み得る。
機械可読情報1420はプロセッサ1480を使用して処理されて、患者データを特定し得る。一例では、機械可読情報1420は患者データを含み得る。別の例では、機械可読情報1420を処理して患者データを特定することは、ストレージデバイスから患者の1つ又は複数の部位を検索することを含み得る。ストレージデバイスから検索される患者データは、計画されている医療処置についての情報、前の眼科手術若しくは検査からの画像データ、前の眼科手術若しくは検査からの診断データ、前の眼の状態についての情報、又はそれらの任意の組合せを含み得る。検索された患者データは、デジタルディスプレイ1490に表示し得る。検索された患者データは、デジタルディスプレイ1490にピクチャインピクチャディスプレイとして表示し得る。機械可読情報1420は、暗号化された情報を含み得る。例えば、機械可読情報1420を処理して患者データを特定することは、機械可読情報1420を介して記憶された情報を復号化して、患者データを特定することを含み得る。
機械可読情報1420は、手術開始時に読み取り得る。機械可読情報1420は、手術終了時に読み取り得る。代替的には、機械可読情報1420は術中の必要な任意のときに読み取り得る。機械可読情報1420の読み取りは、デジタルタイムアウトを開始し得る。デジタルタイムアウトは、患者1410と関連する情報が、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報と一致することの計算チェックを提供し得る。デジタルタイムアウトは、患者1410と関連する情報と比較した、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報における任意のエラーを検出するのに使用し得る。例えば、デジタルタイムアウトは、患者の識別情報、計画されている医療処置、手術する眼、又はそれらの任意の組合せのパリティチェックの外科的均等物を提供し得る。
デジタルタイムアウトは、患者1410の識別情報を確認し得る。デジタルタイムアウト中、画像処理システム1470は、機械可読情報1420に記憶された患者1410と関連する識別情報を外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報と比較し得る。デジタルタイムアウト中、画像処理システム1470は機械可読情報1420を使用して、患者の眼の画像を検索し、この画像を、カメラ1450を用いて捕捉された患者1410の眼101のデジタル画像と比較し得る。これは、患者1410の身元を確認し得る。
デジタルタイムアウトは、患者1410に計画されている医療処置を確認し得る。デジタルタイムアウト中、画像処理システム1470は、患者1410と関連する医療情報において提供される、手術する眼の識別情報を、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報における手術する眼の識別情報と比較し得る。デジタルタイムアウト中、画像処理システム1470は、実行しようとしている医療処置を、患者1410と関連する医療情報に記録されている、計画されている医療処置と比較し得る。
画像処理システム1470は、機械可読情報1420によって提供される患者1410と関連する情報と、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間の不一致を特定し得る。画像処理システム1470は、患者1410と関連する情報と、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間の一致を特定し得る。画像処理システム1470は、患者1410と関連する情報と、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間の不一致、一致、又はそれらの組合せを、デジタルディスプレイ1490上に表示することによって特定し得る。代替的には、画像処理システム1470は、任意の適した手段を使用して、患者1410と関連する情報と、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間の不一致、一致、又はそれらの組合せを報告し得る。患者1410と関連する情報と、外科医、手術室内のスタッフ、又はそれらの組合せに提供された情報との間に不一致が存在する場合、デジタルタイムアウトシステム1400は、外科医が医療機器、例えばカメラ1450を使用するのを阻止し得る。
機械可読情報1420は、最適化ネットワーク、例えば最適化ネットワーク1000において利用することもできる。機械可読情報1420は、眼101の対応する特定のデジタル画像と関連し得、又はそれと共にデジタル的に記憶し得る索引付け情報を含み得る。例えば、機械可読情報1420によって提供される索引付け情報は、患者1410の眼101の対応するデジタル画像と共にデジタル画像管理システム1015にデジタル的に記憶し得る。デジタル画像管理システム1015は、眼101のデジタル画像から眼の最適化されたデジタル画像1491を生成し得る。デジタル画像管理システム1015は、通信ネットワーク1010を経由して画像処理システム1470等のローカル画像処理システムと通信し得る。
デジタル画像管理システム1015は、トレーニング画像1030等の1組のトレーニング画像における眼101の患者デジタル画像を使用して、機械学習モデル1025等の機械学習モデルをトレーニングし得る、画像処理システム1170等の画像処理システムを含み得る。機械可読情報1420によって提供される患者1410と関連する情報は、眼101の患者デジタル画像についての追加情報を提供し得る。これは、最適化ネットワークに眼のデジタル画像を記憶するための記録管理において有用であり得る。機械可読情報1420によって提供される患者1410と関連する情報は、機械学習モデルをトレーニングするためにトレーニング画像を選択するに当たっても有用であり得る眼101の患者デジタル画像についての追加情報を提供し得る。例えば、性別、年齢、眼の状態、又はそれらの任意の組合せ等の情報を使用して、眼の最適化された画像を計算するようにトレーニングされた画像処理システムを提供するために、トレーニング画像として選択される眼のデジタル画像をフィルタリングし得る。
図15は、デジタルタイムアウトを実行する方法のフローチャートを提示する。ステップ1500において、識別マーカ1405にプリントされた機械可読情報1420等の機械可読情報をカメラ1450等のカメラによって取得し得る。ステップ1510において、例えば画像処理システム1470によって機械可読情報を処理する。ステップ1520において、手術室内の外科医、スタッフ、又はそれらの組合せに提供された情報と比較した患者の識別情報の正確性が、機械可読情報に基づいて判断される。患者の識別情報の正確性は、患者と関連付けられ識別情報、例えば患者1410と関連する識別情報を、例えばその日の医療処置にスケジュールされた患者のリストであり得る手術室内の外科医、スタッフ、又はそれらの組合せに提供された情報と比較することによって判断し得る。ステップ1530において、患者の識別情報が不正確である場合、計画された医療処置は停止される。ステップ1540において、患者の識別情報が正確である場合、手術室内の外科医、スタッフ、又はそれらの組合せに提供された情報と比較した、計画されている医療処置の正確性が、機械可読情報に基づいて決定される。計画されている医療処置の正確性は、患者と関連する医療情報、例えば患者1410と関連する医療情報を、例えばその日にスケジュールされた医療処置のリストであり得る手術室内の外科医、スタッフ、又はそれらの組合せに提供された情報と比較することにより、判断し得る。ステップ1550において、計画されている医療処置が不正確である場合、計画されている医療処置は停止される。ステップ1560において、計画されている医療処置が正確である場合、計画されている医療処置は実行される。
図16は、眼科手術での眼のデジタル画像を最適化する方法のフローチャートを提示する。ステップ1600において、眼101のデジタル画像等の眼のデジタル画像が、デジタル画像最適化システムによって捕捉される。デジタル画像最適化システムは、例えばデジタル画像最適化システム100であり得、眼のデジタル画像は、例えばカメラ150によって捕捉し得る。別の例では、デジタル画像最適化システムは、デジタル画像最適化システム500であり得、眼のデジタル画像はカメラ550によって捕捉し得る。代替的には、デジタル画像最適化システムは、デジタル画像最適化システム700であり得、眼のデジタル画像は、内視鏡715等の内視鏡によって捕捉し得る。ステップ1610において、眼のデジタル画像は、処理された機械可読情報、例えば機械可読情報1420と関連付けられる。機械可読情報は、デジタルタイムアウト、例えばデジタルタイムアウトシステム1400を使用して開始されるデジタルタイムアウト中、眼のデジタル画像が捕捉されたとき、処理することが可能であり得る。機械可読情報は、眼が眼のデジタル画像にある患者と関連する情報を含み得る。ステップ1620において、眼のデジタル画像を使用して、最適化ネットワーク1000における機械学習モデル1025等の機械学習モデルをトレーニングする。例えば、眼のデジタル画像は、トレーニング画像1030等の複数のトレーニング画像に入力として含まれ得る。眼のデジタル画像は、処理された機械可読情報に基づいて、トレーニング画像1030への包含に選択された可能性がある。ステップ1630において、眼のデジタル画像は、トレーニング済み機械学習モデル、例えばトレーニング済み機械学習モデル1025によって処理される。代替の例では、ステップ1630はステップ1600から又は機械学習モデルが既にトレーニングされている場合にはステップ1610から直接続き得る。ステップ1640において、眼の最適化されたデジタル画像が、画像処理システム、例えば画像処理システム1170によって生成される。ステップ1650において、眼の最適化されたデジタル画像はデジタルディスプレイに表示される。例えば、最適化されたデジタル画像は、デジタルディスプレイ190、デジタルディスプレイ590、デジタルディスプレイ790、又はデジタルディスプレイ1490に表示し得る。
デジタル画像最適化システム100、デジタル画像最適化システム500、デジタル画像最適化システム700、最適化ネットワーク1000、又はデジタルタイムアウトシステム1400は、図1700に示されるように、コンピュータシステム1700と組み合わせて使用し得る。コンピュータシステム1700は、プロセッサ1710、揮発性メモリ媒体1720、不揮発性メモリ媒体1730、及び入力/出力(I/O)デバイス1740を含み得る。揮発性メモリ媒体1720、不揮発性メモリ媒体1730、及びI/Oデバイス1740は、プロセッサ1710に通信可能に結合され得る。
用語「メモリ媒体」は「メモリ」、「記憶デバイス」、「メモリデバイス」、「コンピュータ可読媒体」、及び/又は「有形計算機可読記憶媒体」を意味する場合がある。例えば、メモリ媒体は、ハードディスクドライブを含む直接アクセス記憶デバイス、テープディスクドライブなどのシーケンシャルアクセス記憶デバイス、コンパクトディスク(CD)、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、CD-ROM、デジタル多用途ディスク(DVD)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリ、非一時的媒体、又はそれらの任意の組合せ等の記憶媒体を限定なしに含み得る。図17に示すように、不揮発性メモリ媒体1730は、プロセッサ命令1732を含み得る。プロセッサ命令1732は、プロセッサ1710により実行され得る。一例では、プロセッサ命令1732の1つ又は複数の部分は、不揮発性メモリ媒体1730を介して実行され得る。別の例では、プロセッサ命令1732の1つ又は複数の部分は、揮発性メモリ媒体1720を介して実行され得る。プロセッサ命令1732の1つ又は複数の部分は、揮発性メモリ媒体1720に転送され得る。
プロセッサ1710は、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数のプロセス、及び/又は1つ又は複数の方法の少なくとも一部を実行するに当たりプロセッサ命令1732を実行することができる。例えば、プロセッサ命令1732は、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数の方法、及び/又は1つ又は複数のプロセスの少なくとも一部に従い複数の命令により構成、コーディング、及び/又は符号化され得る。プロセッサ1710は単一のプロセッサとして示されているが、プロセッサ1710は、複数のプロセッサであってもよく、又は複数のプロセッサを含んでもよい。記憶媒体及びメモリ媒体のうち1つ又は複数は、ソフトウェア製品、プログラム製品、及び/又は製造品であり得る。例えば、ソフトウェア製品、プログラム製品、及び/又は製造品は、本明細書に記載の1つ又は複数のシステム、1つ又は複数のフローチャート、1つ又は複数の方法、及び/又は1つ又は複数のプロセスの少なくとも一部に従い、プロセッサにより実行可能な命令により構成、コーディング、且つ/又は符号化され得る。
プロセッサ1710は、メモリ媒体に保存された、及び/又はネットワークを介して受信されたプログラム命令、処理データ、又はその両方を解釈及び実行すべく動作可能な任意の適当なシステム、デバイス、又は装置を含んでいてもよい。プロセッサ1710は更に、1つ又は複数のマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、又はプログラム命令、プロセスデータ、若しくはその両方を解釈及び実行すべく構成された他の回路を含んでいてよい。
I/Oデバイス1740は、ユーザからの入力及びユーザへの出力を可能にすることによりユーザがコンピュータシステム1700及び関連する要素と対話することを許可、許諾、且つ/又は可能にする任意の1つ又は複数の機器を含んでいてもよい。ユーザからの入力を容易にすることにより、ユーザがコンピュータシステム1700を操作及び/又は制御できるようになり、ユーザへの出力を容易にすることにより、コンピュータシステム1700がユーザの操作及び/又は制御の効果を表示できるようになる。例えば、I/Oデバイス1740は、ユーザがデータ、命令、又はその両方をコンピュータシステム1700に入力できるように、及び別途コンピュータシステム1700及びその関連する構成要素を操作及び/又は制御できるようにする。I/Oデバイスは、ユーザインターフェースデバイス、例えばキーボード、マウス、タッチスクリーン、ジョイスティック、手持ちレンズ、ツール追跡デバイス、座標入力デバイス、又はシステムでの使用に適した他の任意のI/Oデバイス等を含み得る。
I/Oデバイス1740は、プロセッサ1710が本明細書に記載の1つ又は複数のシステム、プロセス、及び/又は方法の少なくとも一部を実施することを容易にし、及び/又は許可し得る、特に、1つ又は複数のバス、1つ又は複数のシリアルデバイス、及び/又は1つ又は複数のネットワークインターフェースを含み得る。一例において、I/Oデバイス1740は、プロセッサ1710が外部記憶装置と通信することを促進及び/又は許可することができるストレージインターフェースを含み得る。記憶装置インターフェースは、特に、ユニバーサルシリアルバス(USB)インターフェース、SATA(シリアルATA)インターフェース、PATA(パラレルATA)インターフェース、及び小型計算機システムインターフェース(SCSI)の1つ又は複数を含み得る。第2の例では、I/Oデバイス1740は、プロセッサ1710がネットワークと通信することを促進及び/又は可能にし得るネットワークインターフェースを含み得る。I/Oデバイス1740は、無線ネットワークインターフェース及び有線ネットワークインターフェースのうちの1つ又は複数を含み得る。第3の例では、I/Oデバイス1740は、特に、ペリフェラルコンポーネントインタコネクト(PCI)インターフェース、PCIエクスプレス(PCIe)インターフェース、シリアルペリフェラルインタコネクト(SPI)インターフェース、及び集積回路間(I2C)インターフェースのうちの1つ又は複数を含み得る。第4の例では、I/Oデバイス1740は、プロセッサ1710が1つ又は複数のセンサとデータを通信できるようにし得る回路を含み得る。第5の例では、I/Oデバイス1740は、プロセッサ1710が、特に、ディスプレイ1750及びデジタル画像最適化システム100の1つ又は複数とデータを通信することを容易にし、且つ/又は可能にすることができる。図17に示すように、I/Oデバイス1740は、ネットワーク1770に結合され得る。例えば、I/Oデバイス1740はネットワークインターフェースを含み得る。別の例では、ネットワーク1770はネットワーク1010を含み得る。
ネットワーク1770は、有線ネットワーク、無線ネットワーク、光ネットワーク、又はそれらの任意の組合せを含み得る。ネットワーク1770は、様々な種類の通信ネットワーク含んでいてもよく、且つ/又はこれらに結合されていてもよい。例えば、ネットワーク1770は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、公衆交換電話網(PSTN)、セルラ電話ネットワーク、衛星電話ネットワーク、又はそれらの任意の組合せを含み得、及び/又はそれに結合され得る。WANは、プライベートWAN、コーポレートWAN、パブリックWAN、又はそれらの任意の組合せを含み得る。
図17はデジタル画像最適化システム100の外部にあるものとしてコンピュータシステム1700を示すが、デジタル画像最適化システム100はコンピュータシステム1700を含んでもよい。例えば、プロセッサ1710は、プロセッサ180であってもよく、又はプロセッサ180を含んでもよい。
図18A~図18Cは、医療システム1800の一例を示している。図18Aに示されるように、医療システム1800はデジタル画像最適化システム100を含み得る。代替的には、医療システム1800は、デジタル画像最適化システム500、デジタル画像最適化システム700、最適化ネットワーク1000、デジタルタイムアウトシステム1400、又はそれらの任意の組合せを含み得る。図18Bに示されるように、医療システム1800は、デジタル画像最適化システム100及びコンピュータシステム1700を含み得る。デジタル画像最適化システム100は、コンピュータシステム1700と通信可能に結合し得る。図18Cに示されるように、医療システム1800は、コンピュータシステム1700を含み得るデジタル画像最適化システム100を含み得る。
デジタル画像最適化システム100、デジタル画像最適化システム500、デジタル画像最適化システム700、最適化ネットワーク1000、デジタルタイムアウトシステム1400、コンピュータシステム1700、医療システム1800、及びそれらの構成要素は、明らかに相互に排他的でない限り、本明細書に記載の視覚化ツール及びシステムの他の要素と組み合わせることができる。例えば、デジタル画像最適化システム500はデジタルタイムアウトシステム1400と組み合わせることができ、本明細書に記載の他の最適化システム、視覚化システム、コンピュータシステム、及び医療システムと併用することができる。
上記の開示した主題は、例示的と見なされるべきであり、限定的と見なされるべきではなく、添付の特許請求の範囲は、本開示の真の趣旨及び範囲内にあるそのような全ての修正形態、改良形態及び他の実施形態を網羅することが意図されている。例えば、デジタル画像最適化システムは、眼科手術でのデジタル視覚化を改善するために最も一般的に必要とされるが、普通ならば手術とは見なされない純粋な診断手順等の別の手順で有用である場合、本明細書に記載のシステム及び方法を採用することができる。
Claims (64)
- デジタル画像最適化システムであって、
眼から反射された光を検出し、前記検出された光に対応する信号をプロセッサに送信するように動作可能な少なくとも1つのセンサを備えたカメラと、
前記プロセッサを備えた画像処理システムであって、
命令を実行して、前記眼のデジタル画像を生成すること及び
命令を実行して、トレーニング済み機械学習モデルを含むデジタル画像最適化アルゴリズムを前記眼の前記デジタル画像に適用して、前記眼の最適化されたデジタル画像を生成することを行うように動作可能な画像処理システムと、
前記眼の前記最適化されたデジタル画像を表示するように動作可能なデジタルディスプレイと、を備えるデジタル画像最適化システム。 - 前記デジタル画像最適化アルゴリズムは、前記眼の前記デジタル画像における器具グレア、光学収差、硝子体混濁、又はそれらの任意の組合せを少なくとも部分的に低減して、前記眼の前記最適化されたデジタル画像を生成する、請求項1に記載のデジタル画像最適化システム。
- 前記眼の前記最適化されたデジタル画像は、前記眼の前記デジタル画像以上のコントラスト、鮮鋭度、明瞭度、ダイナミックレンジ、又はそれらの任意の組合せを有する、請求項1に記載のデジタル画像最適化システム。
- 前記眼の前記最適化されたデジタル画像は、前記眼の前記デジタル画像以下のノイズ、歪み、ビネット、又はそれらの任意の組合せを有する、請求項1に記載のデジタル画像最適化システム。
- 前記デジタル画像最適化アルゴリズムは、補間、多重露光画像ノイズ低減、又はそれらの組合せを利用して、前記眼の前記最適化されたデジタル画像を生成する、請求項1に記載のデジタル画像最適化システム。
- 前記トレーニング済み機械学習モデルは、赤色ブーストライブラリからの複数のトレーニング画像を使用してトレーニングされた、請求項1に記載のデジタル画像最適化システム。
- 前記トレーニング済み機械学習モデルは、手術の開始時に捕捉された前記眼の複数のデジタル画像と、前記手術の終了時に捕捉された前記眼の複数の対応するデジタル画像とを使用してトレーニングされた、請求項1に記載のデジタル画像最適化システム。
- 前記デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システムの構成要素である、請求項1に記載のデジタル画像最適化システム。
- デジタル画像最適化システムであって、
少なくとも1つのセンサを備えたカメラであって、前記少なくとも1つのセンサは、
他眼から反射された光を検出し、前記検出された光に対応する信号をプロセッサに送信すること及び
術眼から反射された光を検出し、前記検出された光に対応する信号をプロセッサに送信することを行うように動作可能である、カメラと、
前記プロセッサを備えた画像処理システムであって、
命令を実行して、前記他眼のテンプレートデジタル画像を生成すること、
命令を実行して、前記テンプレートデジタル画像のデジタル鏡像を生成すること、
命令を実行して、前記術眼の作業デジタル画像を生成すること、及び
命令を実行して、前記デジタル鏡像を前記作業デジタル画像と位置合わせして、網膜アーケードアライメントテンプレートを生成することを行うように動作可能な画像処理システムと、
前記作業デジタル画像及び前記網膜アーケードアリアメントテンプレートを表示するように動作可能なデジタルディスプレイと、を備えるデジタル画像最適化システム。 - 前記網膜アーケードアライメントテンプレートは、前記作業デジタル画像へのオーバーレイとして表示される、請求項9に記載のデジタル画像最適化システム。
- 前記テンプレートデジタル画像は、前記他眼の網膜、前記他眼の網膜中心静脈、前記他眼の網膜アーケード、前記他眼の視神経円板、又はそれらの任意の組合せである眼構造を含む、請求項9に記載のデジタル画像最適化システム。
- 前記作業デジタル画像は、前記術眼の網膜、前記術眼の網膜中心静脈、前記術眼の網膜アーケード、前記術眼の視神経円板、又はそれらの任意の組合せである眼構造を含む、請求項9に記載のデジタル画像最適化システム。
- 前記作業デジタル画像は、前記他眼の前記テンプレートデジタル画像の視野と同等の前記術眼の視野を含む、請求項9に記載のデジタル画像最適化システム。
- 前記作業デジタル画像への前記デジタル画像の位置合わせは、前記他眼の視神経円板及び前記術眼の視神経円板、前記他眼の網膜中心静脈及び前記術眼の網膜中心静脈、前記他眼の動脈静脈交差部及び前記術眼の動脈静脈交差部、前記他眼の分岐静脈及び前記術眼の分岐静脈、又はそれらの任意の組合せである眼構造の位置合わせを含む、請求項9に記載のデジタル画像最適化システム。
- 前記デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システムの構成要素である、請求項9に記載のデジタル画像最適化システム。
- デジタル画像最適化システムであって、
光ファイバを含む内視鏡と、
眼の内部から反射され、前記光ファイバを伝播した光を検出し、前記検出された光に対応する信号をプロセッサに送信するように動作可能な少なくとも1つのセンサを備えたカメラと、
前記プロセッサを備えた画像処理システムであって、
命令を実行して、前記眼の内視鏡デジタル画像を生成すること及び
命令を実行して、トレーイング済み機械学習モデルを含む内視鏡デジタル画像最適化アルゴリズムを前記眼の前記内視鏡デジタル画像に適用し、前記眼の最適化された内視鏡デジタル画像を生成することを行うように動作可能な画像処理システムと、
前記眼の前記最適化されたデジタル画像を表示するように動作可能なデジタルディスプレイと、を備えるデジタル画像最適化システム。 - 前記内視鏡デジタル画像最適化アルゴリズムは、補間、多重露光画像ノイズ低減、又はそれらの組合せを利用して、前記眼の最適化された内視鏡デジタル画像を生成する、請求項16に記載のデジタル画像最適化システム。
- 前記機械学習モデルは、画像処理法を使用して首尾良く最適化された複数の前記眼の前記内視鏡デジタル画像を含む複数のトレーニング画像を使用してトレーニングされた、請求項16に記載のデジタル画像最適化システム。
- 前記内視鏡デジタル画像最適化アルゴリズムは、単一画像超解像を利用して、前記眼の前記最適化された内視鏡デジタル画像を生成する、請求項16に記載のデジタル画像最適化システム。
- 前記単一画像超解像はベリーディープ超解像ニューラルネットワークを使用する、請求項19に記載のデジタル画像最適化システム。
- 前記内視鏡デジタル画像最適化アルゴリズムは、少なくとも部分的に前記眼の前記内視鏡デジタル画像のノイズを低減し、解像度を上げ、デジタル画像品質を改善し、又はそれらの任意の組合せを行う、請求項16に記載のデジタル画像最適化システム。
- 前記デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システムの構成要素である、請求項16に記載のデジタル画像最適化システム。
- 最適化ネットワークであって、
デジタル画像最適化システムであって、
眼から反射された光を検出し、検出された光に対応する信号を第1のプロセッサに送信するように動作可能な少なくとも1つのセンサを備えたカメラ、
前記第1のプロセッサを備え、命令を実行して前記眼のデジタル画像を生成するように動作可能な第1の画像処理システム、及び
デジタルディスプレイを備えたデジタル画像最適化システムと、
前記デジタル画像最適化システム及びデジタル画像管理システムに通信可能に結合され、前記眼の前記デジタル画像を前記デジタル画像管理システムに送信するように動作可能な通信ネットワークと、を備え、
前記デジタル画像管理システムは、
第2のプロセッサ及びトレーニング済み機械学習モデルを備えた第2の画像処理システムを備え、
前記第2の画像処理システムは、命令を実行して、前記トレーニング済み機械学習モデルを使用して前記眼の前記デジタル画像を処理し、前記眼の最適化されたデジタル画像を計算し、前記眼の前記最適化されたデジタル画像を前記デジタルディスプレイに送信するように動作可能であり、
前記デジタルディスプレイは、前記眼の前記最適化されたデジタル画像を表示するように動作可能である、最適化ネットワーク。 - 前記第2の画像処理システムは、前記第1の画像処理システムの一部としてローカルに記憶される、請求項23に記載の最適化ネットワーク。
- 前記第2の画像処理システムはサーバ上で動作する、請求項23に記載の最適化ネットワーク。
- 前記第2の画像処理システムは、クラウドベースのデジタル画像最適化サービスを提供する、請求項25に記載の最適化ネットワーク。
- 前記トレーニング済み機械学習モデルは、複数のトレーニング画像を使用してトレーニングされた、請求項23に記載の最適化ネットワーク。
- 前記複数のトレーニング画像は、手術の開始時に捕捉された前記眼の複数のデジタル画像と、前記手術の終了時に捕捉された同じ前記眼の複数のペア画像を含む、請求項27に記載の最適化ネットワーク。
- 前記複数のトレーニング画像は、画像処理法を使用して首尾良く最適化された前記眼の複数の内視鏡デジタル画像を含む、請求項27に記載の最適化ネットワーク。
- 前記複数のトレーニング画像は、NGENUITY(登録商標)3D視覚化システムを使用して捕捉された、請求項27に記載の最適化ネットワーク。
- 前記複数のトレーニング画像は、前記通信ネットワークを使用して前記デジタル画像管理システムにアップロードされる、請求項27に記載の最適化ネットワーク。
- 前記トレーニング済み機械学習モデルは、統合アーキテクチャを使用してトレーニングされ、前記統合アーキテクチャは、
畳み込みニューラルネットワーク及び
少なくとも1つの長短期メモリユニットを含む、請求項23に記載の最適化ネットワーク。 - 前記デジタル画像最適化システムは、NGENUITY(登録商標)3D視覚化システムの構成要素である、請求項23に記載の最適化ネットワーク。
- デジタルタイムアウトシステムであって、
機械可読情報を含む、患者に固定された識別マーカと、
前記機械可読情報を取得し、前記機械可読情報に対応する信号をプロセッサに送信するように動作可能な少なくとも1つのセンサを備えたカメラと、
前記プロセッサを備えた画像処理システムであって、
前記機械可読情報を処理して患者データを特定すること及び
患者データと手術室内の外科医、スタッフ、又はそれらの組合せに提供される情報の不一致、一致、又はそれらの組合せを特定することを行うように動作可能な画像処理システムと、を備えるデジタルタイムアウトシステム。 - 患者データと手術室内の外科医、スタッフ、又はそれらの組合せに提供される情報の不一致、一致、又はそれらの組合せを表示するように動作可能なデジタルディスプレイを更に備えた請求項34に記載のデジタルタイムアウトシステム。
- 前記識別マーカは前記患者の眼の上に固定される、請求項34に記載のデジタルタイムアウトシステム。
- 前記識別マーカは、リムーバブル転写式タトゥー、パッチ、ステッカー、テープ、又はそれらの任意の組合せである、請求項34に記載のデジタルタイムアウトシステム。
- 前記識別マーカはロケータを更に含む、請求項34に記載のデジタルタイムアウトシステム。
- 前記機械可読情報は一次元バーコード、多次元バーコード、クイックリスポンスコード、シンボル、又はそれらの任意の組合せである、請求項34に記載のデジタルタイムアウトシステム。
- 前記デジタルタイムアウトシステムは、NGENUITY(登録商標)3D視覚化システムの構成要素である、請求項34に記載のデジタルタイムアウトシステム。
- 前記患者データは、前記患者と関連する識別情報、前記患者と関連する医療情報、索引付け情報、又はそれらの任意の組合せである前記患者と関連する情報を含む、請求項34に記載のデジタルタイムアウトシステム。
- 前記カメラは、眼から反射された光を検出し、前記検出された光に対応する信号を第1のプロセッサに送信するように更に動作可能であり、前記画像処理システムは、命令を実行して、前記眼のデジタル画像を生成するように更に動作可能である、請求項34に記載のデジタルタイムアウトシステム。
- 前記デジタルタイムアウトシステム及びデジタル画像管理システムに通信可能に結合された通信ネットワークを更に備え、前記通信ネットワークは、前記眼の前記デジタル画像を前記デジタル画像管理システムに送信するように動作可能であり、
前記デジタル画像管理システムは、第2のプロセッサ及びトレーニング済み機械学習モデルを含む第2の画像処理システムを含み、
前記機械可読データは、前記眼の前記デジタル画像と関連し、前記デジタル画像管理システムに記憶された索引付け情報を含む、請求項42に記載のデジタルタイムアウトシステム。 - 前記トレーニング済み機械学習モデルは、前記眼の前記デジタル画像を含む複数のトレーニング画像を使用してトレーニングされており、前記複数のトレーニング画像は、前記眼の前記デジタル画像と関連する前記索引付け情報に基づいて選択された、請求項43に記載のデジタルタイムアウトシステム。
- 眼のデジタル画像を最適化する方法であって、
カメラを用いて眼のデジタル画像を捕捉することと、
画像処理システムを使用してデジタル画像最適化アルゴリズムを適用し、前記眼の最適化されたデジタル画像を生成することと、
前記眼の前記最適化されたデジタル画像をデジタルディスプレイに表示することと、を含む、方法。 - 前記デジタル画像最適化アルゴリズムは、少なくとも部分的に、前記眼の前記デジタル画像における器具グレア、光学収差、硝子体混濁、又はそれらの任意の組合せを低減して、前記眼の前記最適化されたデジタル画像を生成する、請求項45に記載の方法。
- 前記デジタル画像最適化アルゴリズムは、トレーニング髄機械学習モデルである、請求項45に記載の方法。
- 前記トレーニング済み機械学習モデルは、手術開始時に捕捉された前記眼の複数のデジタル画像と、手術終了時に捕捉された前記眼の複数の対応するデジタル画像とを使用してトレーニングされた、請求項47に記載の方法。
- 前記カメラは、NGENUITY(登録商標)3D視覚化システムの構成要素である、請求項45に記載の方法。
- デジタル画像最適化アルゴリズムを生成する方法であって、
手術の開始時に眼の複数の入力デジタル画像を捕捉することと、
前記手術の終了時に前記眼の複数の出力デジタル画像を捕捉することと、
前記眼の前記複数の入力デジタル画像及び前記眼の前記複数の出力デジタル画像をトレーニング画像として使用して、機械学習モデルをトレーニングすることと、
前記トレーニング済みの機械学習モデルをデジタル画像最適化アルゴリズムとして使用することと、を含む、方法。 - 眼のデジタル画像を最適化する方法であって、
他眼のデジタル画像を捕捉することと、
術眼のデジタル画像を捕捉することと、
前記他眼の前記デジタル画像の鏡像を生成することと、
前記他眼の前記デジタル画像の前記鏡像を前記術眼の前記デジタル画像と位置合わせして、網膜アーケードアライメントテンプレートを生成することと、
前記網膜アーケードアライメントテンプレートを前記術眼の前記デジタル画像へのオーバーレイとしてデジタルディスプレイに表示することと、
前記網膜アーケードアライメントテンプレートを使用して前記術眼に眼科手術を実行することと、を含む、方法。 - 前記他眼の前記デジタル画像の前記鏡像は、視神経円板、網膜中心静脈、動脈静脈交差部、分岐静脈、又はそれらの任意の組合せを位置合わせすることにより、前記術眼の前記デジタル画像と位置合わせされる、請求項51に記載の方法。
- 眼の内視鏡デジタル画像を最適化する方法であって、
内視鏡を使用して眼の内視鏡デジタル画像を捕捉することと、
内視鏡デジタル画像最適化アルゴリズムを適用して、前記眼の最適化された内視鏡デジタル画像を生成することと、
前記眼の前記最適化された内視鏡デジタル画像をデジタルディスプレイに表示することと、を含む、方法。 - 前記内視鏡デジタル画像最適化アルゴリズムは、補間、多重露光ノイズ低減、機械学習、深層学習、又はそれらの任意の組合せを使用する、請求項53に記載の方法。
- 内視鏡デジタル画像最適化アルゴリズムを生成する方法であって、
眼の複数の内視鏡デジタル画像を捕捉することと、
画像処理法を使用して前記眼の前記複数の内視鏡デジタル画像を最適化して、前記眼の複数の最適化された内視鏡デジタル画像を生成することと、
前記眼の前記複数の内視鏡デジタル画像を入力画像として使用し、前記眼の複数の前記最適化された内視鏡デジタル画像を出力画像として使用して、機械学習モデルをトレーニングすることと、
前記トレーニング済み機械学習モデルを内視鏡デジタル画像最適化アルゴリズムとして使用することと、を含む、方法。 - 機械学習モデルをトレーニングする方法であって、
画像処理システムを使用して、複数の入力画像及び複数の対応する出力画像を含む複数のトレーニング画像を統合アーキテクチャに入力することと、
畳み込みニューラルネットワークを使用して、前記複数の入力画像の特徴表現を生成することと、
前記統合アーキテクチャを使用して、眼の複数の予測された最適化デジタル画像と複数の対応する出力画像との間の複数の仮説的差分を計算することと、 前記複数の仮説的差分と、前記複数の入力画像と前記複数の対応する出力画像との間で計算された複数の差分との間の損失を計算することと、
全体損失が予め定義された閾値よりも小さいか否かを評価することと、
前記全体損失が前記予め定義された閾値よりも小さくない場合、前記統合アーキテクチャのパラメータを更新することと、
前記全体損失が前記予め定義された閾値よりも小さい場合、前記統合アーキテクチャの前記パラメータを記憶し、トレーニングを終了することと、を含む、方法。 - 前記損失は、損失関数を使用して計算される、請求項56に記載の方法。
- 前記損失関数は平滑L1損失関数である、請求項57に記載の方法。
- 前記複数の仮説的差分は、前記複数の入力画像の前記特徴表現を使用して計算される、請求項56に記載の方法。
- 前記機械学習モデルがトレーニングされると、前記画像処理システムはサーバで動作する、請求項56に記載の方法。
- 前記画像処理システムは、クラウドベースのデジタル画像最適化サービスを提供する、請求項60に記載の方法。
- デジタルタイムアウトを実行する方法であって、
カメラを使用して、患者に固定された識別マーカにプリントされた機械可読情報を取得することと、
画像処理システムを使用して前記機械可読情報を処理することと、
前記機械可読情報に基づいて前記患者の識別情報の正確性を判断することと、
前記患者の前記識別情報が不正確である場合、計画されている医療処置を停止することと、
前記患者の前記識別情報が正確である場合、前記機械可読情報に基づいて、前記計画されている医療処置が正確であると判断することと、
前記計画されている医療処置が不正確である場合、前記計画されている医療処置を停止することと、
前記計画されている医療処置が正確である場合、前記計画されている医療処置を実行することと、を含む、方法。 - 眼のデジタル画像を最適化する方法であって、
デジタル画像最適化システムを使用して眼のデジタル画像を捕捉することと、
前記眼の前記デジタル画像に処理された機械可読情報を関連付けることと、
前記眼の前記デジタル画像を使用して機械学習モデルをトレーニングすることと、
トレーニング済み機械学習モデルを使用して前記眼の前記デジタル画像を処理することと、
画像処理システムを使用して前記眼の最適化されたデジタル画像を生成することと、
前記眼の前記最適化されたデジタル画像をデジタルディスプレイに表示することと、を含む、方法。 - 前記眼の前記デジタル画像は、前記処理された機械可読情報に基づいて1組のトレーニング画像への包含に選択される、請求項63に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063052373P | 2020-07-15 | 2020-07-15 | |
US63/052,373 | 2020-07-15 | ||
PCT/IB2021/056373 WO2022013794A1 (en) | 2020-07-15 | 2021-07-14 | Digital image optimization for ophthalmic surgery |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023534449A true JP2023534449A (ja) | 2023-08-09 |
Family
ID=76971952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023501891A Pending JP2023534449A (ja) | 2020-07-15 | 2021-07-14 | 眼科手術用のデジタル画像最適化 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220020118A1 (ja) |
EP (1) | EP4181765A1 (ja) |
JP (1) | JP2023534449A (ja) |
CN (1) | CN116194033A (ja) |
AU (1) | AU2021307604A1 (ja) |
CA (1) | CA3182998A1 (ja) |
WO (1) | WO2022013794A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112584738B (zh) * | 2018-08-30 | 2024-04-23 | 奥林巴斯株式会社 | 记录装置、图像观察装置、观察系统、观察系统的控制方法及存储介质 |
WO2022130048A1 (en) * | 2020-12-17 | 2022-06-23 | Alcon Inc. | System and method for enhancing visualization of an eye image |
WO2024039586A1 (en) * | 2022-08-15 | 2024-02-22 | Intuitive Surgical Operations, Inc. | Systems and methods for detecting and mitigating extraneous light at a scene |
CN116721094B (zh) * | 2023-08-03 | 2023-12-19 | 济南邦德激光股份有限公司 | 一种复杂背景下的视觉图形识别方法、系统及激光切割机 |
CN117745808B (zh) * | 2024-02-19 | 2024-05-03 | 南通市计量检定测试所 | 一种基于摄影测量的心电图像定位比对方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9849034B2 (en) * | 2011-11-07 | 2017-12-26 | Alcon Research, Ltd. | Retinal laser surgery |
US20140163389A1 (en) * | 2012-12-10 | 2014-06-12 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | In vivo detection of eosinophils |
US9560959B1 (en) * | 2015-09-18 | 2017-02-07 | Novartis Ag | Control of scanning images during vitreoretinal surgery |
US9649021B1 (en) * | 2015-11-16 | 2017-05-16 | Novartis Ag | Resolution enhancement of OCT images during vitreoretinal surgery |
JP6867117B2 (ja) * | 2016-07-08 | 2021-04-28 | 株式会社トプコン | 医用画像処理方法及び医用画像処理装置 |
JP6929047B2 (ja) * | 2016-11-24 | 2021-09-01 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
US10841514B2 (en) * | 2018-03-20 | 2020-11-17 | Endovigilant Inc | Endoscopy video feature enhancement platform |
KR102507711B1 (ko) * | 2018-06-15 | 2023-03-10 | 캐논 가부시끼가이샤 | 의료용 화상 처리 장치, 의료용 화상 처리 방법, 및 컴퓨터 판독가능 매체 |
US10818398B2 (en) * | 2018-07-27 | 2020-10-27 | University Of Miami | System and method for AI-based eye condition determinations |
JP7250653B2 (ja) * | 2018-10-10 | 2023-04-03 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
KR20210134638A (ko) * | 2019-03-29 | 2021-11-10 | 인텔 코포레이션 | 자율 차량 시스템 |
-
2021
- 2021-07-14 AU AU2021307604A patent/AU2021307604A1/en active Pending
- 2021-07-14 EP EP21743268.1A patent/EP4181765A1/en active Pending
- 2021-07-14 CN CN202180061057.0A patent/CN116194033A/zh active Pending
- 2021-07-14 CA CA3182998A patent/CA3182998A1/en active Pending
- 2021-07-14 WO PCT/IB2021/056373 patent/WO2022013794A1/en unknown
- 2021-07-14 JP JP2023501891A patent/JP2023534449A/ja active Pending
- 2021-07-15 US US17/376,694 patent/US20220020118A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022013794A1 (en) | 2022-01-20 |
CA3182998A1 (en) | 2022-01-20 |
EP4181765A1 (en) | 2023-05-24 |
US20220020118A1 (en) | 2022-01-20 |
AU2021307604A1 (en) | 2023-01-19 |
CN116194033A (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220020118A1 (en) | Digital Image Optimization For Ophthalmic Surgery | |
Fuhl et al. | Non-intrusive practitioner pupil detection for unmodified microscope oculars | |
KR20160010864A (ko) | 검안경 | |
JP7321678B2 (ja) | スリットランプ顕微鏡及び眼科システム | |
JP6974338B2 (ja) | 網膜硝子体oct画像の解像度向上 | |
JP7228342B2 (ja) | スリットランプ顕微鏡及び眼科システム | |
Yang et al. | Artificial intelligence in ophthalmopathy and ultra-wide field image: A survey | |
KR102267509B1 (ko) | 달팽이관에서의 미세 혈류 측정 방법 및 장치 | |
JP5073377B2 (ja) | 眼科測定装置 | |
JP7154044B2 (ja) | スリットランプ顕微鏡及び眼科システム | |
JP2023016933A (ja) | 眼科装置、眼科装置の制御方法、及びプログラム | |
JP7332463B2 (ja) | 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム | |
WO2020005053A1 (es) | Sistema portátil para la identificación de casos potenciales de edema macular diabético mediante procesamiento de imagen e inteligencia artificial | |
WO2021256130A1 (ja) | スリットランプ顕微鏡 | |
JP2019208852A (ja) | 眼科画像処理装置、および眼科画像処理プログラム | |
JP2022050738A (ja) | スリットランプ顕微鏡システム | |
WO2021261103A1 (ja) | スリットランプ顕微鏡 | |
US20210093177A1 (en) | Tip camera systems and methods for vitreoretinal surgery | |
JP2022035168A (ja) | スリットランプ顕微鏡システム | |
JP7345610B2 (ja) | スリットランプ顕微鏡 | |
US20230301511A1 (en) | Slit lamp microscope | |
JP2022048413A (ja) | スリットランプ顕微鏡システム | |
US20240099577A1 (en) | System for imaging and diagnosis of retinal diseases | |
Twa | Structural classification of glaucomatous optic neuropathy | |
Eivazi | Eye gaze patterns in micro-neurosurgery: from remote to ocular-based eye tracker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A525 Effective date: 20230112 |