WO2021060702A1 - 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법 - Google Patents

인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법 Download PDF

Info

Publication number
WO2021060702A1
WO2021060702A1 PCT/KR2020/010740 KR2020010740W WO2021060702A1 WO 2021060702 A1 WO2021060702 A1 WO 2021060702A1 KR 2020010740 W KR2020010740 W KR 2020010740W WO 2021060702 A1 WO2021060702 A1 WO 2021060702A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
lens
artificial
multifocal
artificial lens
Prior art date
Application number
PCT/KR2020/010740
Other languages
English (en)
French (fr)
Inventor
장동진
황호식
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Publication of WO2021060702A1 publication Critical patent/WO2021060702A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring

Definitions

  • the present invention relates to a system for simulating a field of view seen when an artificial lens is inserted, and more particularly, to a system and method for simulating a field of view seen when an artificial lens is inserted through machine learning.
  • the inventors of the present invention have invented a mobile model eye that can be moved and can simulate a field of view when an artificial intraocular lens is inserted even outdoors.
  • a mobile model eye is used, there is a limitation that the patient can only experience the place and object where the model eye acquired the image in advance.
  • An embodiment of the present invention is to provide a simulation system and method in which a patient can experience a field of view seen when an artificial lens is inserted in various environments before an intraocular lens implantation procedure.
  • An embodiment of the present invention is to provide a simulation system and method capable of simulating a field of view in which the effect of a multifocal IOL is reflected even without directly acquiring an optical image through an optical model eye.
  • an image conversion device for simulation of a field of view seen when an artificial lens is inserted, a first image acquired through a single focal lens and a second image acquired through a multifocal intraocular lens are respectively received.
  • a collecting unit A learning unit that analyzes a correlation between the first image and the second image through machine learning;
  • An image conversion that converts the input unit into which the third image acquired through the single focal lens is input and the third image into a virtual fourth image implemented as a multifocal artificial lens based on the correlation analyzed by the learning unit.
  • an image conversion simulation device that simulates the field of view seen when the artificial lens is inserted, including the part.
  • the first image and the second image may be obtained through an optical simulation device including an artificial cornea, an artificial lens installed at the rear end of the artificial cornea, and a camera installed at the rear end of the artificial lens.
  • the artificial lens may be installed to be replaceable.
  • the learning unit may build an artificial neural network to perform machine learning.
  • the learning unit may be updated by inputting the second image and the first image to the input unit and comparing the virtual second image converted by the image conversion unit to feed back a difference.
  • the collection unit may receive a plurality of second images obtained by varying the focal length of the multifocal intraocular lens.
  • the learning unit may additionally analyze a correlation between the focal length and the second image through machine learning.
  • the image conversion unit converts the third image into a virtual fourth image implemented with a multifocal artificial lens having a selectable focal length by additionally considering the correlation between the focal length and the second image. I can.
  • the range of the selectable focal length may be continuous.
  • a display unit for displaying the fourth image to a user through an output unit may be further included.
  • the display unit may show the user a virtual fourth image implemented as a multifocal artificial lens having a focal length selected by the user.
  • a method of performing a simulation by converting an image of a field of view viewed when an artificial lens is inserted comprising: acquiring a first image through a single focus artificial lens; Obtaining a second image through a multifocal intraocular lens; Analyzing a correlation between the first image and the second image through machine learning; Inputting a third image acquired through a single focal lens; And converting the third image into a virtual fourth image embodied as a multifocal IOL based on the correlation.
  • a method of converting and simulating a field of view viewed when the IOL is inserted is provided.
  • a plurality of second images may be obtained by varying the focal length of the multifocal intraocular lens.
  • the correlation between the focal length and the second image may be additionally analyzed through machine learning.
  • the step of converting the third image into a virtual fourth image implemented with a multifocal IOL may include a correlation between the focal length and the second image in addition to the correlation between the first image and the second image.
  • the third image can be converted into a virtual fourth image implemented with a multifocal artificial lens having a selectable focal length.
  • a system for simulating a field of view seen when an artificial lens is inserted including an optical simulation device and an image conversion simulation device, wherein the optical simulation device includes an artificial cornea module having an artificial cornea therein. ; An artificial lens module installed at the rear end of the artificial cornea module and having an intraocular lens inside, and a camera module installed at the rear end of the artificial lens module and receiving light that has passed through the artificial cornea and the artificial lens, and the image conversion
  • the simulation apparatus includes: a collection unit for receiving a first image acquired through a single focal IOL and a second image acquired through a multifocal IOL; A learning unit that analyzes a correlation between the first image and the second image through machine learning; An input unit for inputting a third image acquired through a single focal lens; And an image conversion unit converting the third image into a virtual fourth image implemented as a multifocal artificial lens based on the correlation analyzed by the learning unit.
  • a system is provided.
  • the field of view by the multifocal IOL even without optical simulation equipment It is efficient because it can be simulated.
  • an optical image can be converted into an image reflecting an artificial lens effect without limitation of a photographed location and a photographed time, a simulation without spatial and temporal restrictions can be provided.
  • an optical image captured in an environment familiar or familiar to a patient can be converted into an image reflecting the artificial lens effect, a more lively simulation can be provided.
  • the present invention since it is possible to immediately experience a change in the field of view according to the focal length of the intraocular lens, it is effective in selecting the optimal intraocular lens suitable for the patient.
  • FIG. 1 is a block diagram of a simulation system according to an embodiment of the present invention.
  • FIGS. 2 and 3 are configuration diagrams and cross-sectional views illustrating a mobile optical simulation apparatus of a simulation system according to an embodiment of the present invention.
  • FIG. 4 is a cross-sectional view showing an artificial lens module of a mobile optical simulation device of a simulation system according to an embodiment of the present invention.
  • 5 and 6 are optical images obtained through a single focal intraocular lens and a multifocal intraocular lens, respectively, in a mobile optical simulation device.
  • FIG. 7 is a block diagram showing an image conversion simulation apparatus of a simulation system according to an embodiment of the present invention.
  • FIG. 8 is a flowchart of a method of simulating a field of view displayed when an artificial lens is inserted in a simulation system according to an embodiment of the present invention.
  • Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform specific functions.
  • the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function.
  • the functional blocks of the present disclosure may be implemented in various programming or scripting languages. Functional blocks may be implemented as an algorithm executed on one or more processors.
  • the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” can be used widely, and are not limited to mechanical and physical configurations.
  • the simulation system 1 is a system that simulates the field of view seen when an artificial lens is inserted.
  • a general optical image is converted to an image through an algorithm learned by machine learning, and is displayed when the artificial lens is inserted. It relates to a system that virtually simulates the field of view.
  • 1 is a block diagram of a simulation system according to an embodiment of the present invention.
  • 2 and 3 are configuration diagrams and cross-sectional views illustrating a mobile optical simulation apparatus of a simulation system according to an embodiment of the present invention.
  • 4 is a cross-sectional view showing an artificial lens module of a mobile optical simulation device of a simulation system according to an embodiment of the present invention.
  • 5 and 6 are optical images obtained by attaching a single focal IOL and a multifocal IOL to a mobile optical simulation device, respectively.
  • a simulation system 1 includes an optical simulation device 100 and an image conversion simulation device 200.
  • the optical simulation device 100 is a device for optically simulating the field of view that the patient sees after the intraocular lens is inserted, and generates an optical image reflecting the insertion effect of the intraocular lens 121 and 122. Therefore, the optical simulation device 100 learns the correlation between the image conversion simulation device 200 to be described later between the first image 10 by the single focal lens and the second image 20 by the multifocal intraocular lens.
  • the first image 10 and the second image 20 may be provided to the image conversion simulation apparatus 200 for analysis.
  • the optical simulation device 100 may exist by being connected to the image conversion simulation device 200 and a wired/wireless communication device, or separate from the image conversion simulation device 200 and exist as a separate device.
  • the optical simulation apparatus 100 of the simulation system 1 includes an artificial corneal module 110, an artificial lens module 120, and a camera module 130.
  • the artificial corneal module 110, the intraocular lens module 120, and the camera module 130 may be arranged in a row in that order.
  • the artificial cornea module 110 is disposed in front of the intraocular lens module 120 and an artificial cornea (not shown) is provided therein.
  • an artificial cornea (not shown) is provided therein.
  • the artificial corneal module 110 may be installed to be able to move forward and backward by the guide member 140 to be described later. have.
  • the intraocular lens module 120 is disposed between the artificial corneal module 110 and the camera module 130 and fixed therein. And an aqueous solution 123 surrounding the artificial lens 121 and 122.
  • the optical simulation device 100 is configured as a movable optical simulation device, the intraocular lens module 120 is also installed so that it can be moved forward and backward by the guide member 140 to be described later. Can be.
  • the intraocular lenses 121 and 122 are intraocular lenses that are inserted when the patient removes the lens due to cataracts or corrects refractive errors, and the single-focal intraocular lens 121 or the multifocal intraocular lens 122 ) Can be.
  • the short focal intraocular lens 121 may have a single focal point among a long distance, an intermediate distance, and a short distance.
  • the multifocal intraocular lens 122 may have two or more focal points at a distance, an intermediate distance, and a near distance.
  • the optical image generated by the optical simulation apparatus 100 may vary according to the type of the mounted artificial lens 121 and 122. That is, the optical simulation apparatus 100 is equipped with the single focal IOL 121 to generate the first image 10 or the multifocal IOL 122 is mounted to generate the second image 20.
  • FIGS. 5A and 5B are a first image 10 obtained by mounting a single focal intraocular lens 121
  • FIGS. 6A and 6B are a second image 20 obtained by mounting a multifocal intraocular lens 122.
  • the camera module 130 is disposed after the artificial corneal module 110 and the intraocular lens module 120.
  • the camera module 130 generates an optical image by receiving light that has passed through the artificial corneal module 110 and the artificial lens module 120.
  • the camera module 130 may include a general CCD (Charge Coupled Device) camera.
  • the optical simulation device 100 may be installed in a fixed place.
  • the evaluation of the intraocular lens by the optical simulation device 100 may be performed by a predetermined target in an indoor space such as an optical laboratory.
  • the optical simulation apparatus 100 of the simulation system 1 may be formed to be movable.
  • the optical simulation device 100 includes a plurality of guide members 140, and the artificial corneal module 110, the artificial lens module 120, and the camera module 130 are arranged in a line on the guide member 140. Can be placed.
  • the artificial corneal module 110 and the intraocular lens module 120 are of course installed so as to be able to move back and forth under the guidance of the guide member 140.
  • the optical simulation device 100 capable of moving as described above has the advantage of being able to perform an IOL evaluation outdoors and check the field of view at night time.
  • FIG. 7 is a block diagram showing an image conversion simulation apparatus of a simulation system according to an embodiment of the present invention.
  • the image conversion simulation device 200 is a device for virtually simulating a field of view that a patient sees after insertion of the intraocular lens 121 and 122 through an algorithm, and includes at least one processor. It can be a device.
  • the image conversion simulation apparatus 200 generates a virtual image in which the insertion effect of the artificial lens 121 and 122 is reflected.
  • the image conversion simulation apparatus 200 is a device that converts an image 30 arbitrarily selected into a virtual image 40 such as an optical image captured by inserting a multifocal artificial lens 122.
  • the image conversion simulation apparatus 200 may perform machine learning.
  • the image conversion simulation apparatus 200 of the simulation system 1 includes a collection unit 210, a learning unit 220, an input unit 230, and an image conversion. It may include a unit 240.
  • the collection unit 210 collects the first image 10 and the second image 20 obtained by attaching the artificial lens to the optical simulation device 100 with respect to the same object at the same location.
  • the first image 10 is acquired through the single focal IOL 121
  • the second image is acquired through the multifocal IOL 122.
  • the first image 10 and the second image 20 corresponding thereto form a pair with each other, and a plurality of pairs may be collected.
  • the learning effect of the learning unit 220 to be described later may be improved.
  • the collection unit 210 may collect a plurality of second images 20 obtained by varying only the focal length of the multifocal intraocular lens 122 at the same position as the first image 10 acquired for the same object. have.
  • the optical simulation device 100 of the simulation system 1 may replace the already provided intraocular lens module 120 with an intraocular lens module 120 having a different focal length. .
  • the collection unit 210 may collect five second images 20 obtained by varying only the focal length of the multifocal intraocular lens at the same position as the first image 10 acquired for the same object. . At this time, the position of the image formed due to the different focal length may also be changed, so that five different second images 20 may be generated.
  • the learning unit 220 analyzes a correlation between the first image 10 and the second image 20 accumulated by the collection unit 210 through machine learning.
  • machine learning refers to an algorithm that repeatedly learns from specific sample data, finds potential features in specific sample data, and applies the learning results to new data to predict the future according to the discovered features. do.
  • machine learning may be based on a learning model using one or more artificial neural networks.
  • the artificial neural network analyzes what is the difference between the first image 10 and the second image 20 input to the artificial neural network based on artificial intelligence, and generates a virtual second image 20. It may contain a set of algorithms for learning the method.
  • the artificial neural network differs from the data of the first image 10 and the second image 20 based on supervised learning using the data of the first image 10 as an input value. It is possible to learn how to generate the virtual second image 20 by analyzing what is.
  • the artificial neural network self-learns the type of data necessary to analyze what is the difference from the first image 10 data to the second image 20 without any other maps, thereby providing a virtual first image from the first image 10. 2 It can be based on unsupervised learning to discover patterns for generating the image 21. That is, a method of generating the virtual second image 20 may be learned based on unsupervised learning.
  • the learning model of the learning unit 220 may learn a method of generating a virtual second image 21 from the first image 10 using a Generative Adversarial Network (GAN).
  • GAN Generative Adversarial Network
  • the learning model may include a plurality of models such as a generation model and a classification model.
  • the generation model learns a process of generating a virtual second image 21 by transforming the first image 10.
  • the classification model is the actual second image 20 obtained from the optical simulation device and the virtual second image 21 obtained by the generated model, whether the input image is the actual second image 20 or a virtual second image ( 21) Learn the process of classifying cognition.
  • the classification model can classify the actual second image 20 as a real image and the virtual second image 21 as a virtual image, and can learn by itself in a direction to increase the accuracy of the classification.
  • the virtual second image 21 is classified as the actual second image 20.
  • the generation model can be trained to produce an image similar to the actual second image 20 as much as possible.
  • the artificial neural network performs reinforcement learning using feedback on whether the virtual second image 21 generated based on one or more learning models is close to the actual second image 20.
  • the learning model of the learning unit 220 includes a virtual second image 20 and an actual second image 20 generated by an image conversion unit 240 to be described later from a first image 10. ) Is compared to extract differences, and the learning model of the learning unit 220 may be self-updated to reduce the differences.
  • a reading model in addition to the generation model and the classification model may be additionally provided for reinforcement learning.
  • the read model may determine a difference between the actual second image 20 and the virtual second image 21 and provide feedback to the generated model and the classification model.
  • the learning model including the generative model and the classification model can update the learning model by itself.
  • the learning unit 220 corresponds to a single first image 10, and a plurality of second images 20 obtained by mounting a plurality of multifocal IOLs 122 having different focal lengths and the The correlation between focal lengths can be further analyzed through machine learning.
  • machine learning may be based on a learning model using one or more artificial neural networks.
  • the correlation between the above-described first image 10 and the second image 20, the correlation between the second image 20 and the focal length may be comprehensively analyzed by a single learning model, or a plurality of It can also be analyzed individually by a learning model.
  • the learning unit 220 is a method of generating a virtual second image 21 according to an arbitrary focal length by analyzing what is the difference between the plurality of second images 20 according to the focal length based on the learning model. can do.
  • the focal length values of the multifocal intraocular lens 122 for each of the plurality of second images 20 acquired with respect to the same object at the same location are discontinuous from each other.
  • the learning model is a method of estimating the second image 21 expected to be acquired by a multifocal IOL having a focal length between the discontinuous values based on the correlation. Can learn.
  • a range of a focal length selectable among discontinuous focal lengths may be continuous.
  • the third image 30 obtained by mounting a single focal lens may be input to the input unit 230.
  • the single focus lens may be an optical lens mounted on a general camera, and means not a multifocal lens. Therefore, the third image 30 may be a normal photograph or image that the patient can easily encounter in daily life.
  • the third image 30 may be provided by the patient, and in particular, may be an image photographed of a place or object that the patient wants to check before implantation of the multifocal IOL 122.
  • the image conversion unit 240 converts the third image 30 into a fourth image 40 in which a vision viewed when an artificial lens is inserted is virtually implemented.
  • the image conversion unit 240 is based on the correlation between the first image 10, the second image 20 or the focal length that have already been analyzed by the learning unit 220, the third image 30 Is converted to the fourth image 40. That is, the image conversion unit 240 may convert the third image into the fourth image 40 by using the learning model already learned by the learning unit 220.
  • the image conversion unit 240 may generate a different fourth image 40 according to the focal length of the multifocal intraocular lens 122 selected by the patient.
  • the fourth image 40 for an arbitrary focal length is a virtual image estimated based on the correlation between the focal length of the multifocal IOL 122 and the second image 20 learned in advance by the learning model. It is an image.
  • the patient can derive the focal length of the multifocal IOL 122 suitable for the patient by comparing the fourth images 40 for a plurality of focal lengths.
  • the display unit 250 outputs the fourth image 40 through an output means so that the user can view the fourth image 40.
  • the output means is a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light emitting diode (OLED), a flexible display, a 3D display, and an e-ink display. ) May include at least one of.
  • the display unit 250 may output the fourth image 40 according to the focal length selected by the user. That is, when the user selects a desired focal length, the display unit 250 may receive and output the fourth image 40 corresponding thereto from the image conversion unit 240. Accordingly, the user may indirectly experience the multifocal intraocular lens 122 having various focal lengths, and through this process, the user can select an optimal multifocal intraocular lens 122 suitable for the user.
  • FIG. 8 is a flowchart of a method of simulating a field of view seen when an artificial lens is inserted in the simulation system 1 according to an embodiment of the present invention.
  • the method of simulating the field of view seen when the artificial lens is inserted in the simulation system 1 includes the step of acquiring a first image by mounting a single-focal intraocular lens (S10). ; Acquiring a second image by mounting a multifocal intraocular lens on the same object as the first image (S20); Analyzing a correlation between the first image and the second image through machine learning (S30); Inputting a third image obtained by mounting a single focal lens (S40); Based on the correlation, a step (S50) of converting the third image into a fourth image in which a field of view viewed when the intraocular lens is inserted is virtually embodied.
  • the first image 10 is an optical image obtained through the single focal IOL 121
  • the second image 20 is an optical image obtained through the multifocal IOL 122.
  • the first image 10 is performed by the movable optical simulation device 100 having a plurality of guide members 140.
  • the second image 20 may be obtained.
  • the acquisition of the first image 10 and the second image 20 is not limited to that of the mobile optical simulation device 100. It is sufficient if the optical simulation device 100 can generate the first image 10 or the second image 20 by having an artificial corneal module 110, an artificial lens module 120, and a camera module 130, The shape of the optical simulation device 100 is not limited to a specific structure.
  • a plurality of second images 20 are obtained by varying only the focal length of the multifocal IOL 122 with respect to the same object at the same location. ) Can be obtained.
  • Analyzing the correlation between the first image and the second image through machine learning is an image including a collection unit 210, a learning unit 220, an input unit 230, and an image conversion unit 240 It is performed by the transformation simulation device 200.
  • the image conversion simulation device 200 may perform machine learning using one or more learning models, and analyze the correlation between the first image 10 and the second image 20 through such machine learning. I can.
  • the image conversion simulation apparatus 200 compares the actual second image 20 and the virtual second image 20 generated by inputting the first image 10 into the input unit 230 to determine the difference. It can extract and update the learning model itself to reduce the differences.
  • the third image 30 photographed by a general camera is input to the image conversion simulation apparatus 200. 230).
  • the third image 30 is taken by a general camera, and refers to an optical image obtained by mounting a single focal lens instead of a multifocal lens.
  • the third image 30 is not limited to photographing locations such as indoors and outdoors, and is not limited to photographing times such as daytime and nighttime.
  • the step (S50) of converting the third image into a fourth image in which the field of view seen when the artificial lens is inserted based on the correlation (S50) the first image analyzed by the learning model ( 10) Based on the correlation between the second image 20, the third image 30 is converted into a fourth image 40 that simulates the field of view viewed by the patient when the multifocal IOL 122 is inserted. Let it.
  • the image conversion unit 240 is performed between the focal length and the second image 20.
  • the fourth image 40 reflecting the effect of the selected focal length may be generated by additionally considering the correlation of.
  • the image conversion simulation apparatus 200 of the simulation system 1 uses a conventional third image 30 to reflect the effect of the multifocal artificial lens 122. There is an advantage of being able to generate 4 images 40.
  • the patient may experience a more realistic multifocal intraocular lens 122 effect.
  • the image conversion simulation apparatus 200 may convert the third image 30 related to daily life such as night driving into the fourth image 40. Accordingly, the patient may experience indirectly the night light bleeding phenomenon that is commonly experienced after insertion of the multifocal IOL 122 and select whether to insert the multifocal IOL 122.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Mathematical Physics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Prostheses (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치가 개시된다. 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치로서, 단초점 인공수정체를 통하여 획득된 제1이미지와 다초점 인공수정체를 통하여 획득된 제2이미지를 각각 수신하는 수집부; 상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 학습부; 단초점 렌즈를 통하여 획득된 제3이미지가 입력되는 입력부 및 상기 제3이미지를, 상기 학습부에서 분석된 상기 상관관계에 기초하여 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시키는 이미지 변환부를 포함할 수 있다.

Description

인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법
본 발명은 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템에 관한 것으로, 보다 상세하게는, 기계 학습을 통해 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법에 관한 것이다.
일반적으로, 백내장 수술 시 혼탁한 수정체를 제거하고 인공수정체를 삽입한다. 최근에는 단초점 인공수정체뿐만 아니라 2개 이상의 초점거리를 가진 다초점 인공수정체도 많이 사용되고 있다. 다초점 인공수정체를 삽입하면 먼 거리와 가까운 거리의 물체를 모두 명확하게 볼 수 있다고 한다.
그러나 인공수정체 삽입술 후 시야의 질에 대한 불만으로 환자는 종종 인공수정체 제거술을 받는다. 따라서 환자가 인공수정체 삽입술 전에 인공수정체에 따른 시야를 미리 경험하고 수술여부를 판단할 수 있는 과정이 필요하다.
이와 관련하여 다초점 인공수정체를 넣은 환자가 수술 전에 실제로 어떻게 세상을 보는지 객관적으로 평가할 수 있는 방법이 없다. 광학 실험실에서 모델아이(model eye)에 다초점 인공수정체를 삽입하고 표준화된 시표를 이용하여 테스트하는 방법이 있으나 이는 실제의 환경과 차이가 있기 때문에 정확한 시뮬레이션 이미지를 환자에게 전달하기 어려운 문제점이 있었다.
이에 본 발명의 발명자는 이동이 가능하여 실외에서도 인공수정체를 삽입 시 시야를 시뮬레이션 할 수 있는 이동형 모델아이를 발명한 바 있다. 다만 이동형 모델아이를 이용하더라도 환자는 모델아이가 사전에 이미지를 획득하였던 장소 및 대상에 국한하여 경험할 수 밖에 없는 한계가 존재한다.
본 발명의 일 실시예는 환자가 인공수정체 삽입술 전에 다양한 환경에서 대하여 인공수정체 삽입시 보여지는 시야를 경험할 수 있는 시뮬레이션 시스템 및 방법을 제공하고자 한다.
본 발명의 일 실시예는 광학적 모델아이를 통해 광학이미지를 직접 획득하지 않더라도 다초점 인공수정체에 의한 효과가 반영된 시야를 시뮬레이션 할 수 있는 시뮬레이션 시스템 및 방법을 제공하고자 한다.
본 발명의 일 측면에 따르면, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션하는 장치로서, 단초점 인공수정체를 통하여 획득된 제1이미지와 다초점 인공수정체를 통하여 획득된 제2이미지를 각각 수신하는 수집부; 상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 학습부; 단초점 렌즈를 통하여 획득된 제3이미지가 입력되는 입력부 및 상기 제3이미지를, 상기 학습부에서 분석된 상기 상관관계에 기초하여 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시키는 이미지 변환부를 포함하는, 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 이미지변환 시뮬레이션 장치가 제공된다.
이때, 상기 제1이미지 및 상기 제2이미지는 인공각막, 상기 인공각막 후단에 설치되는 인공수정체 및 상기 인공수정체 후단에 설치되는 카메라를 포함하는 광학 시뮬레이션 장치를 통해 획득될 수 있다.
이때, 상기 인공수정체는 교체 가능하게 설치될 수 있다.
이때, 상기 학습부는 인공신경망을 구축하여 기계 학습 할 수 있다.
이때, 상기 학습부는 상기 제2이미지와 상기 제1이미지를 상기 입력부에 입력하여 상기 이미지 변환부에 의해 변환된 가상의 제2이미지를 서로 비교하여 차이를 피드백함으로써 갱신될 수 있다.
이때, 상기 수집부는 다초점 인공수정체의 초점거리를 달리하여 획득된 복수개의 제2이미지를 수신할 수 있다.
이때, 상기 학습부는 상기 초점거리와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 추가적으로 분석할 수 있다.
이때, 상기 이미지 변환부는 상기 초점거리와 상기 제2이미지 사이의 상관관계를 추가적으로 고려함으로써, 상기 제3이미지를, 선택 가능한 초점거리를 갖는 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시킬 수 있다.
이때, 상기 선택 가능한 초점거리의 범위는 연속적일 수 있다.
이때, 상기 제4이미지를 출력수단을 통해 사용자에게 보여주는 디스플레이부를 더 포함할 수 있다.
이때, 상기 디스플레이부는 상기 사용자가 선택한 초점거리를 갖는 다초점 인공 수정체로 구현된 가상의 제4이미지를 사용자에게 보여줄 수 있다.
본 발명의 다른 측면에 따르면, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법으로서, 단초점 인공수정체를 통하여 제1이미지를 획득하는 단계; 다초점 인공수정체를 통하여 제2이미지를 획득하는 단계; 상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 단계; 단초점 렌즈를 통하여 획득된 제3이미지를 입력하는 단계; 및 상기 상관관계에 기초하여 상기 제3이미지를 다초점 인공수정체로 구현된 가상의 제4이미지로 변환시키는 단계를 포함하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법이 제공된다.
이때, 상기 다초점 인공수정체를 통하여 제2이미지를 획득하는 단계는, 상기 다초점 인공수정체의 초점거리를 달리하여 복수개의 제2이미지를 획득할 수 있다.
이때, 상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 단계는, 상기 초점거리와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 추가적으로 분석할 수 있다.
이때, 상기 제3이미지를 다초점 인공수정체로 구현된 가상의 제4이미지로 변환시키는 단계는, 상기 제1이미지와 상기 제2이미지 사이의 상관관계 외 상기 초점거리와 상기 제2이미지 사이의 상관관계를 추가적으로 고려함으로써, 상기 제3이미지를, 선택 가능한 초점거리를 갖는 다초점 인공수정체로 구현된 가상의 제4이미지로 변환시킬 수 있다.
본 발명의 또 다른 측면에 따르면, 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템으로서, 광학 시뮬레이션 장치와 이미지변환 시뮬레이션 장치를 포함하고, 상기 광학 시뮬레이션 장치는, 내부에 인공각막이 구비된 인공각막 모듈; 상기 인공각막 모듈 후단에 설치되며 내부에 인공수정체가 구비된 인공수정체 모듈 및 상기 인공수정체 모듈 후단에 설치되며 상기 인공각막 및 상기 인공수정체를 통과한 광을 수광하는 카메라 모듈을 포함하고, 상기 이미지변환 시뮬레이션 장치는, 단초점 인공수정체를 통하여 획득된 제1이미지와 다초점 인공수정체를 통하여 획득된 제2이미지를 각각 수신하는 수집부; 상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 학습부; 단초점 렌즈를 통하여 획득된 제3이미지가 입력되는 입력부; 및 상기 제3이미지를, 상기 학습부에서 분석된 상기 상관관계에 기초하여 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시키는 이미지 변환부를 포함하는, 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템이 제공된다.
본 발명의 일 실시예에 따르면, 기계 학습을 통해 학습된 알고리즘을 통해 임의의 이미지를 다초점 인공수정체에 의한 효과가 반영된 가상의 이미지를 변환함으로써, 광학적 시뮬레이션 장비가 없더라도 다초점 인공수정체에 의한 시야를 시뮬레이션 할 수 있어 효율적이다.
본 발명의 일 실시예에 따르면, 구비된 광학 이미지가 촬영된 장소와 촬영된 시간의 제한 없이 인공수정체 효과가 반영된 이미지로 변환시킬 수 있으므로 공간적, 시간적 제약이 없는 시뮬레이션을 제공할 수 있다.
본 발명의 일 실시예에 따르면, 환자에게 익숙하거나, 친숙한 환경에서 촬영된 광학이미지를 인공수정체 효과가 반영된 이미지로 변환시킬 수 있으므로 보다 생동감 있는 시뮬레이션을 제공할 수 있다.
본 발명의 일 실시예에 따르면, 인공수정체의 초점거리에 따른 시야의 변화를 즉각적으로 경험할 수 있으므로, 환자에게 적합한 최적의 인공수정체 선정 시 효과적이다.
도 1은 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 구성도이다.
도 2 및 도 3는 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 이동형 광학 시뮬레이션 장치를 나타낸 구성도 및 단면도이다.
도 4는 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 이동형 광학 시뮬레이션 장치의 인공수정체 모듈을 도시한 단면도이다.
도 5 및 도 6은 이동형 광학 시뮬레이션 장치에 각각 단초점 인공수정체와 다초점 인공수정체를 통하여 획득된 광학 이미지이다.
도 7은 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 이미지변환 시뮬레이션 장치를 나타낸 구성도이다.
도 8는 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 방법의 순서도이다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙였다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)은 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템으로서, 특히 일반적인 광학 이미지를 기계 학습으로 학습된 알고리즘을 통해 이미지 변환하여, 인공수정체 삽입시 보여지는 시야를 가상으로 시뮬레이션 하는 시스템에 관한 것이다.
도 1은 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 구성도이다. 도 2 및 도 3는 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 이동형 광학 시뮬레이션 장치를 나타낸 구성도 및 단면도이다. 도 4는 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 이동형 광학 시뮬레이션 장치의 인공수정체 모듈을 도시한 단면도이다. 도 5 및 도 6은 이동형 광학 시뮬레이션 장치에 각각 단초점 인공수정체와 다초점 인공수정체를 장착하여 획득된 광학 이미지이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)은 광학 시뮬레이션 장치(100)와 이미지변환 시뮬레이션 장치(200)를 포함한다.
광학 시뮬레이션 장치(100)는 인공수정체 삽입 후 환자가 보게 되는 시야를 광학적으로 시뮬레이션 하기 위한 장치로서 인공수정체(121,122)의 삽입 효과가 반영된 광학 이미지를 생성한다. 따라서 광학 시뮬레이션 장치(100)는 후술할 이미지변환 시뮬레이션 장치(200)가 단초점 인공수정체에 의한 제1이미지(10)와 다초점 인공수정체에 의한 제2이미지(20) 사이의 상관관계를 학습하여 분석할 수 있도록 이미지변환 시뮬레이션 장치(200)에 제1이미지(10) 및 제2이미지(20)를 제공하여 줄 수 있다.
이때, 광학 시뮬레이션 장치(100)는 이미지변환 시뮬레이션 장치(200)와 유무선 통신장치로 연결되어 존재하거나, 또는 이미지변환 시뮬레이션 장치(200)와 서로 분리되어 별도의 장치로 존재할 수 있다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 광학 시뮬레이션 장치(100)는 인공각막 모듈(110), 인공수정체 모듈(120) 및 카메라 모듈(130)을 포함한다. 이때 인공각막 모듈(110), 인공수정체 모듈(120) 및 카메라 모듈(130) 순으로 일렬로 배치될 수 있다.
먼저 인공각막 모듈(110)은 인공수정체 모듈(120)의 전방에 배치되고 내부에는 인공각막(미도시)이 구비된다. 이때, 도 2에 도시된 바와 같이 광학 시뮬레이션 장치(100)가 이동이 가능한 형태로 형성될 경우, 인공각막 모듈(110)은 후술할 가이드 부재(140)의 안내에 의해 전후진 가능하도록 설치될 수도 있다.
본 발명의 일 실시예에서, 도 2 및 도 3을 참조하면, 인공수정체 모듈(120)은 인공각막 모듈(110)과 카메라 모듈(130) 사이에 배치되고, 내부에 고정된 인공수정체(121,122)와 인공수정체(121, 122)를 감싸는 수용액체(123)를 포함한다. 다시 도 3를 참조하면, 광학 시뮬레이션 장치(100)가 만약 이동이 가능한 광학 시뮬레이션 장치로 구성될 경우, 인공수정체 모듈(120)도 마찬가지로 후술할 가이드 부재(140)의 안내에 의해 전후진 가능하도록 설치될 수 있다.
이때, 인공수정체(121,122)는 환자가 백내장 등으로 수정체를 적출했을 경우 또는 굴절 이상을 교정하기 위한 경우 삽입하는 안내 렌즈(Intraocular lens)로서, 단초점 인공수정체(121) 또는 다초점 인공수정체(122) 일 수 있다.
단초점 인공수정체(121) 는 원거리, 중간거리 및 근거리 중 단일한 하나의 초점을 가질 수 있다. 반면 다초점 인공수정체(122)는 원거리, 중간거리 및 근거리에 두 개 이상의 초점을 가질 수 있다.
이때 장착된 인공수정체(121,122)의 종류에 따라 광학 시뮬레이션 장치(100)에 의해 생성되는 광학 이미지가 달라질 수 있다. 즉, 광학 시뮬레이션 장치(100)는 단초점 인공수정체(121)가 장착되어 제1이미지(10)를 생성하거나 또는 다초점 인공수정체(122)가 장착되어 제2이미지(20)를 생성한다.
일례로, 도 5a, 5b는 단초점 인공수정체(121)를 장착하여 획득된 제1이미지(10)이며, 도 6a, 6b는 다초점 인공수정체(122)를 장착하여 획득된 제2이미지(20)의 예시를 나타낸 도면이다. 도 5 및 도 6을 서로 비교하면, 다초점 인공수정체(122)에 의한 제2이미지(20)에서는 주간 눈부심 현상 또는 야간 빛번짐 현상과 같은 특유의 현상을 확인할 수 있다.
본 발명의 일 실시예에서, 카메라 모듈(130)은 인공각막 모듈(110), 인공수정체 모듈(120) 다음에 배치된다. 이때, 카메라 모듈(130)은 인공각막 모듈(110)과 인공수정체 모듈(120)를 통과한 광을 수광하여 광학 이미지를 생성한다. 이때, 카메라 모듈(130)은 일반적인 CCD(Charge Coupled Device) 카메라를 구비할 수 있다.
한편, 광학 시뮬레이션 장치(100)는 고정된 장소에 설치될 수 있다. 이때, 광학 시뮬레이션 장치(100)에 의한 인공수정체 평가는 광학 실험실과 같은 실내 공간에서 미리 정해진 시표에 의해 이루어 질 수 있다.
이와 달리, 도 3를 참조하면, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 광학 시뮬레이션 장치(100)는 이동이 가능하도록 형성될 수 있다. 보다 상세히, 광학 시뮬레이션 장치(100)는 복수개의 가이드 부재(140)를 구비하고, 상기 가이드 부재(140)에 인공각막 모듈(110), 인공수정체 모듈(120) 및 카메라 모듈(130)이 일렬로 배치될 수 있다. 이때, 인공각막 모듈(110), 인공 수정체 모듈(120)은 가이드 부재(140)의 안내에 의해 전후진 가능하도록 설치됨은 물론이다.
이와 같이 이동이 가능한 광학 시뮬레이션 장치(100)는 인공수정체 평가를 실외에서 수행할 수 있고, 야간 시간의 시야를 확인할 수 있다는 장점이 있다.
도 7은 본 발명의 일 실시예에 따른 시뮬레이션 시스템의 이미지변환 시뮬레이션 장치를 나타낸 구성도이다.
본 발명의 일 실시예에서, 이미지변환 시뮬레이션 장치(200)는 인공수정체(121, 122) 삽입 후 환자가 보게 되는 시야를 알고리즘을 통해 가상으로 시뮬레이션 하기 위한 장치로서, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치일 수 있다.
이미지변환 시뮬레이션 장치(200)는 인공수정체(121, 122)의 삽입 효과가 반영된 가상의 이미지를 생성한다. 보다 상세히, 이미지변환 시뮬레이션 장치(200)는 임의로 선택된 이미지(30)를 마치 다초점 인공수정체(122)를 삽입하여 촬영된 광학 이미지와 같은 가상의 이미지(40)로 변환시켜 주는 장치이다. 보다 정밀하게 광학 이미지를 변환시키기 위해서 이미지변환 시뮬레이션 장치(200)는 기계 학습을 수행할 수 있다.
도 1 및 도 7을 참조하면, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 이미지변환 시뮬레이션 장치(200)는 수집부(210), 학습부(220), 입력부(230) 및 이미지 변환부(240)를 포함할 수 있다.
수집부(210)는 동일한 위치에서, 동일한 대상에 대하여 광학 시뮬레이션 장치(100)에 인공수정체를 장착하여 획득된 제1이미지(10)와 제2이미지(20)를 수집한다. 이때 제1이미지(10)는 단초점 인공수정체(121)를 통하여 획득되며, 제2이미지는 다초점 인공수정체(122)를 통하여 획득된다. 이때 제1이미지(10)와 이에 대응되는 제2이미지(20)는 서로 쌍을 이루며 복수 개의 쌍이 수집될 수 있다. 수집되는 제1이미지(10) 및 제2이미지(20)가 많을수록 후술할 학습부(220)의 학습효과가 향상될 수 있다.
한편 수집부(210)는 동일한 대상에 대하여 획득된 제1이미지(10)와 동일한 위치에서 다초점 인공수정체(122)의 초점거리만 달리하여 획득된 복수 개의 제2이미지(20)를 수집할 수 있다.
이를 위해, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 광학 시뮬레이션 장치(100)는 이미 구비된 인공수정체 모듈(120)을 다른 초점거리를 가진 인공수정체 모듈(120)로 교체할 수 있다.
예를 들어 수집부(210)는 동일한 대상에 대하여 획득된 제1이미지(10)와 동일한 위치에서 다초점 인공수정체의 초점거리만 달리하여 획득된 5개의 제2이미지(20)를 수집할 수 있다. 이때 상이한 초점거리로 인해 맺히는 상의 위치도 변화되어 서로 다른 5개의 제2이미지(20)가 생성될 수 있다.
본 발명의 일 실시예에서, 학습부(220)는 수집부(210)에 의하여 축적된 제1이미지(10) 및 제2이미지(20) 사이의 상관관계를 기계 학습을 통해 분석한다. 이때, 기계 학습이란 특정한 샘플 데이터로부터 반복적으로 학습을 행하고, 특정한 샘플 데이터에 잠재하는 특징을 찾아내고, 학습 결과를 새로운 데이터에 적용시킴으로써, 그 발견된 특징에 따라서 장래를 예측할 수 있게 하는 알고리즘을 의미한다.
본 발명의 일 실시예에서, 기계 학습은 하나 이상의 인공신경망을 이용한 학습 모델에 기초할 수 있다. 이때, 인공신경망은 인공지능(Artificial Intelligence)에 기초하여 인공신경망에 입력된 제1이미지(10)로부터 제2이미지(20)와의 차이점이 무엇인지 분석하여 가상의 제2이미지(20)를 생성하는 방법을 학습하는 알고리즘의 집합을 포함할 수 있다.
예를 들어, 인공신경망은, 소정의 제1이미지(10)의 데이터를 입력 값으로 하는 지도 학습(supervised learning)에 기초하여, 제1이미지(10) 데이터로부터 제2이미지(20)와의 차이점이 무엇인지 분석하여 가상의 제2이미지(20)를 생성하는 방법을 학습할 수 있다.
또한, 인공신경망은, 별다른 지도 없이 제1이미지(10) 데이터로부터 제2이미지(20)와의 차이점이 무엇인지 분석하기 위해 필요한 데이터의 종류를 스스로 학습함으로써, 제1이미지(10)로부터 가상의 제2이미지(21)를 생성하기 위한 패턴을 발견하는 비지도 학습(unsupervised learning)에 기초할 수 있다. 즉 비지도 학습에 기초하여 가상의 제2이미지(20)를 생성하는 방법을 학습할 수 있다.
일례로, 학습부(220)의 학습모델은 GAN(Generative Adversarial Network)을 이용하여 제1이미지(10)로부터 가상의 제2이미지(21)를 생성하는 방법을 학습할 수 있다. 이때, 학습모델은 생성모델, 분류모델과 같이 복수의 모델을 포함할 수 있다.
보다 상세히, 생성모델은 제1이미지(10)를 변환시켜 가상의 제2이미지(21)를 생성하는 과정을 학습한다. 분류모델은 광학 시뮬레이션 장치로부터 획득된 실제 제2이미지(20)와 생성모델에 의하여 획득된 가상의 제2이미지(21) 중 입력된 이미지가 실제 제2이미지(20)인지 가상의 제2이미지(21)인지 분류하는 과정을 학습한다. 이 과정을 통해 분류 모델은 실제 제2이미지(20)를 실제 이미지로, 가상의 제2이미지(21)를 가상 이미지로 분류할 수 있게 되며, 분류의 정확도를 높이는 방향으로 스스로 학습할 수 있다. 이때, 분류모델을 먼저 학습시킨 후, 생성모델에서 만들어낸 가상의 제2이미지(21)를 분류모델에 입력하였을 때, 가상의 제2이미지(21)를 실제 제2이미지(20)라고 분류할 만큼 실제 제2이미지(20)와 유사한 이미지를 만들어 내도록 생성모델을 학습시킬 수 있다.
또한, 예를 들어, 인공신경망은, 하나 이상의 학습모델에 기초하여 생성한 가상의 제2이미지(21)가 실제의 제2이미지(20)에 가까운 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 이용할 수 있다. 도 7을 참조하면, 학습부(220)의 학습모델은 제1이미지(10)로부터 후술할 이미지 변환부(240)에 의하여 생성된 가상의 제2이미지(20)와 실제의 제2이미지(20)를 비교하여 차이점을 추출하고, 차이점을 감소시키도록 학습부(220)의 학습모델을 스스로 갱신할 수 있다.
본 발명의 일 실시예에서, 일례로, 강화 학습을 위해 상기 생성모델과 분류모델 외 판독모델을 추가로 구비할 수 있다. 이때, 판독모델은 실제 제2이미지(20)와 가상의 제2이미지(21) 사이의 차이를 판별하여 생성모델과 분류모델에 피드백을 제공할 수 있다. 이와 같은 과정을 통해 생성모델과 분류모델을 포함하는 학습모델은 스스로 학습모델을 갱신할 수 있다.
한편, 학습부(220)는 단일한 제1이미지(10)에 대응되며, 서로 다른 초점거리를 갖는 복수의 다초점 인공수정체(122)를 장착하여 획득된 복수의 제2이미지(20)와 상기 초점거리 사이의 상관관계를 기계 학습을 통해 추가적으로 분석할 수 있다. 이때, 기계 학습은 하나 이상의 인공신경망을 이용한 학습모델에 기초할 수 있음은 물론이다. 또한 전술한 제1이미지(10)와 제2이미지(20) 사이의 상관관계, 제2이미지(20)와 초점거리 사이의 상관관계는 단일한 학습모델에 의하여 종합적으로 분석될 수도 있고, 복수의 학습모델에 의하여 개별적으로 분석될 수도 있다.
또한 학습부(220)는, 학습모델에 기초하여 초점거리에 따른 복수의 제2이미지(20)의 차이점이 무엇인지 분석하여 임의의 초점거리에 따른 가상의 제2이미지(21)를 생성하는 방법을 할 수 있다.
보다 상세히, 동일한 위치에서 동일한 대상에 대하여 획득된 복수의 제2이미지(20) 각각에 대한 다초점 인공수정체(122)의 초점거리 값은 서로 불연속한다. 그러나, 본 발명의 일 실시예에서, 학습모델은 상기 상관관계에 기초하여 상기 불연속적인 값 사이의 초점거리를 갖는 다초점 인공수정체에 의하여 획득될 것이라 예상되는 제2이미지(21)를 추정하는 방법을 학습 할 수 있다. 여기서, 불연속적인 초점거리 사이에서 선택 가능한 초점거리의 범위는 연속적일 수 있다.
본 발명의 일 실시예에서, 입력부(230)에는 단초점 렌즈를 장착하여 획득된 제3이미지(30)가 입력될 수 있다. 이때, 단초점 렌즈란 일반카메라에 장착되는 광학 렌즈 일 수 있으며, 다초점 렌즈가 아닌 것을 의미한다. 따라서 제3이미지(30)는 환자가 일상 생활 속에서 쉽게 접할 수 있는 통상의 사진 또는 이미지 일 수 있다. 또한 제3이미지(30)는 환자에 의하여 제공될 수도 있으며, 특히 다초점 인공수정체(122) 삽입술을 앞둔 환자가 확인하기를 원하는 장소 또는 대상이 촬영된 이미지 일 수 있다.
본 발명의 일 실시예에서, 이미지 변환부(240)는 제3이미지(30)를 인공수정체 삽입시 보여지는 시야(vision)가 가상으로 구현된 제4이미지(40)로 변환시킨다. 이때, 이미지 변환부(240)는 이미 학습부(220)에 의해 분석된 바 있는 제1이미지(10), 제2이미지(20) 또는 초점거리 사이의 상관관계에 기초하여 제3이미지(30)를 제4이미지(40)로 변환시킨다. 즉, 이미지 변환부(240)는 학습부(220)에 의해 이미 학습된 학습모델을 이용하여 제3이미지를 제4이미지(40)로 변환시킬 수 있다.
이미지 변환부(240)는 환자가 선택하는 다초점 인공수정체(122)의 초점거리에 따라 상이한 제4이미지(40)를 생성할 수 있다. 이때, 임의의 초점거리에 대한 제4이미지(40)는 사전에 학습모델이 학습한 다초점 인공수정체(122)의 초점거리와 제2이미지(20) 사이의 상관관계에 기초하여 추정된 가상의 이미지이다. 이와 같은 과정을 통하여 환자는 복수의 초점거리에 대한 제4이미지(40)를 서로 비교함으로써, 자신에게 적합한 최적의 다초점 인공수정체(122)의 초점거리를 도출할 수 있다.
본 발명의 일 실시예에서, 디스플레이부(250)는 사용자가 제4이미지(40)를 볼 수 있도록 출력수단을 통해 제4이미지(40)를 출력한다. 이때, 출력수단은 액정 디스플레이(LCD), 박막 트랜지스터 액정 디스플레이(TFT LCD), 유기 발광 다이오드(OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
이때, 디스플레이부(250)은 사용자가 선택한 초점거리에 따른 제4이미지(40)를 출력할 수 있다. 즉, 사용자는 원하는 초점거리를 선택하면, 디스플레이부(250)는 이에 대응되는 제4이미지(40)를 이미지 변환부(240)로부터 전달받아 출력할 수 있다. 따라서 사용자는 다양한 초점거리의 다초점 인공수정체(122)를 간접적으로 경험해 볼 수 있으며, 이 과정을 통하여 자신에게 적합한 최적의 다초점 인공수정체(122)를 선택할 수 있다.
이하 도면을 달리하여, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)를 이용하여 다초점 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 방법을 설명한다.
도 8는 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 방법의 순서도이다.
도 8를 참조하면, 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 방법은, 단초점 인공수정체를 장착하여 제1이미지를 획득하는 단계(S10); 제1이미지와 동일한 대상에 대하여 다초점 인공수정체를 장착하여 제2이미지를 획득하는 단계(S20); 제1이미지와 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 단계(S30); 단초점 렌즈를 장착하여 획득된 제3이미지를 입력하는 단계(S40); 상기 상관관계에 기초하여 제3이미지를 인공수정체 삽입시 보여지는 시야가 가상으로 구현된 제4이미지로 변환시키는 단계(S50)를 포함할 수 있다.
살펴본 바와 같이, 제1이미지(10)는 단초점 인공수정체(121)를 통하여 획득된 광학 이미지이며, 제2이미지(20)는 다초점 인공수정체(122)를 통하여 획득된 광학 이미지이다.
이때, 제1이미지(10)와 제2이미지(20)를 획득하는 단계(S10, S20)에서는, 복수의 가이드 부재(140)를 구비한 이동형 광학 시뮬레이션 장치(100)에 의하여 제1이미지(10) 또는 제2이미지(20)가 획득될 수 있다. 그러나, 본 발명의 일 실시예에서, 제1이미지(10)와 제2이미지(20)의 획득이 이동형 광학 시뮬레이션 장치(100)에 의한 것으로 한정되는 것은 아니다. 광학 시뮬레이션 장치(100)는 인공각막 모듈(110), 인공수정체 모듈(120) 및 카메라 모듈(130)을 구비하여 제1이미지(10) 또는 제2이미지(20)를 생성할 수 있으면 충분하며, 광학 시뮬레이션 장치(100)의 형태가 특정 구조로 한정되는 것은 아니다.
본 발명의 일 실시예에서, 제2이미지(20)를 획득하는 단계(S20)에서는 동일한 위치에서, 동일한 대상에 대하여 다초점 인공수정체(122)의 초점거리만 달리하여 복수 개의 제2이미지(20)를 획득할 수 있다.
제1이미지와 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 단계(S30)는 수집부(210), 학습부(220), 입력부(230) 및 이미지 변환부(240)를 포함하는 이미지변환 시뮬레이션 장치(200)에 의하여 수행된다. 이때, 이미지변환 시뮬레이션 장치(200)는 하나 이상의 학습모델을 이용하여 기계 학습을 수행할 수 있으며, 이와 같은 기계 학습을 통해 제1이미지(10)와 제2이미지(20)의 상관관계를 분석할 수 있다. 또한 학습과정 중 이미지변환 시뮬레이션 장치(200)는 실제의 제2이미지(20)와 제1이미지(10)를 입력부(230)에 입력하여 생성된 가상의 제2이미지(20)를 비교하여 차이점을 추출하고, 차이점을 감소시키도록 학습모델을 스스로 갱신할 수 있다.
만약 제2이미지(20)를 획득하는 단계(S20)에서 초점거리만 달리하여 복수 개의 제2이미지(20)를 획득된 경우, 초점거리와 제2이미지(20) 사이의 상관관계를 추가적으로 분석하고 적립할 수 있다.
본 발명의 일 실시예에서, 단초점 렌즈를 장착하여 획득된 제3이미지를 입력하는 단계(S40)에서는 이미지변환 시뮬레이션 장치(200)에 일반적인 카메라에 의해 촬영된 제3이미지(30)를 입력부(230)에 입력한다. 이때, 제3이미지(30)는 일반적인 카메라에 의해 촬영된 것으로, 다초점 렌즈가 아닌 단초점 렌즈를 장착하여 획득된 광학 이미지를 의미한다. 또한 제3이미지(30)는 실내, 실외 등 촬영 장소에 국한되지 않으며, 주간, 야간 등 촬영 시간에 국한되지 않는다.
본 발명의 일 실시예에서, 상기 상관관계에 기초하여 제3이미지를 인공수정체 삽입시 보여지는 시야가 가상으로 구현된 제4이미지로 변환시키는 단계(S50)에서는 학습모델이 분석한 제1이미지(10)와 제2이미지(20) 사이의 상관관계에 기초하여 제3이미지(30)를 다초점 인공수정체(122)가 삽입되었을 때 환자가 바라보는 시야를 모사한 제4이미지(40)로 변환시킨다.
만약 제2이미지(20)를 획득하는 단계(S20)에서 초점거리만 달리하여 복수 개의 제2이미지(20)를 획득된 경우, 이미지 변환부(240)는 초점거리와 제2이미지(20) 사이의 상관관계도 추가적으로 고려하여 선택된 초점거리의 효과가 반영된 제4이미지(40)를 생성할 수 있다. 이때, 환자가 선택할 수 있는 초점거리의 범위가 연속적으로 분포하는 것은 물론이다.
살펴본 바와 같이 본 발명의 일 실시예에 따른 시뮬레이션 시스템(1)의 이미지변환 시뮬레이션 장치(200)는 통상의 제3이미지(30)를 이용하여 다초점 인공수정체(122)의 효과가 반영된 가상의 제4이미지(40)를 생성할 수 있는 장점이 있다.
그 결과 환자는 보다 현실감 있는 다초점 인공수정체(122) 효과를 경험할 수 있다. 일례로, 이미지변환 시뮬레이션 장치(200)는 야간 운전과 같은 일상과 관련된 제3이미지(30)를 제4이미지(40)로 변환시킬 수 있다. 따라서 환자는 다초점 인공수정체(122) 삽입 후 흔히 겪을 수 있는 야간 빛번짐 현상을 간접체험 해보고 다초점 인공수정체(122)를 삽입할 지 여부를 선택할 수 있다.
이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다.

Claims (16)

  1. 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치로서,
    단초점 인공수정체를 통하여 획득된 제1이미지와 다초점 인공수정체를 통하여 획득된 제2이미지를 각각 수신하는 수집부;
    상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 학습부;
    단초점 렌즈를 통하여 획득된 제3이미지가 입력되는 입력부 및
    상기 제3이미지를, 상기 학습부에서 분석된 상기 상관관계에 기초하여 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시키는 이미지 변환부를 포함하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  2. 제1항에 있어서,
    상기 제1이미지 및 상기 제2이미지는 인공각막, 상기 인공각막 후단에 설치되는 인공수정체 및 상기 인공수정체 후단에 설치되는 카메라를 포함하는 광학 시뮬레이션 장치를 통해 획득되는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  3. 제2항에 있어서,
    상기 인공수정체는 교체 가능하게 설치되는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  4. 제1항에 있어서,
    상기 학습부는 인공신경망을 구축하여 기계 학습하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  5. 제4항에 있어서,
    상기 학습부는 상기 제2이미지와 상기 제1이미지를 상기 입력부에 입력하여 상기 이미지 변환부에 의해 변환된 가상의 제2이미지를 서로 비교하여 차이를 피드백함으로써 갱신되는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  6. 제1항에 있어서,
    상기 수집부는 다초점 인공수정체의 초점거리를 달리하여 획득된 복수개의 제2이미지를 수신하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  7. 제6항에 있어서,
    상기 학습부는 상기 초점거리와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 추가적으로 분석하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  8. 제7항에 있어서,
    상기 이미지 변환부는 상기 초점거리와 상기 제2이미지 사이의 상관관계를 추가적으로 고려함으로써, 상기 제3이미지를, 선택 가능한 초점거리를 갖는 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시키는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  9. 제8항에 있어서,
    상기 선택 가능한 초점거리의 범위는 연속적인, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  10. 제1항에 있어서,
    상기 제4이미지를 출력수단을 통해 사용자에게 보여주는 디스플레이부를 더 포함하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  11. 제10항에 있어서,
    상기 디스플레이부는 상기 사용자가 선택한 초점거리를 갖는 다초점 인공 수정체로 구현된 가상의 제4이미지를 사용자에게 보여주는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 장치.
  12. 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법으로서,
    단초점 인공수정체를 통하여 제1이미지를 획득하는 단계;
    다초점 인공수정체를 통하여 제2이미지를 획득하는 단계;
    상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 단계;
    단초점 렌즈를 통하여 획득된 제3이미지를 입력하는 단계; 및
    상기 상관관계에 기초하여 상기 제3이미지를 다초점 인공수정체로 구현된 가상의 제4이미지로 변환시키는 단계를 포함하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법.
  13. 제12항에 있어서,
    상기 다초점 인공수정체를 통하여 제2이미지를 획득하는 단계는, 상기 다초점 인공수정체의 초점거리를 달리하여 복수개의 제2이미지를 획득하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법.
  14. 제13항에 있어서,
    상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 단계는, 상기 초점거리와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 추가적으로 분석하는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법.
  15. 제14항에 있어서,
    상기 제3이미지를 다초점 인공수정체로 구현된 가상의 제4이미지로 변환시키는 단계는, 상기 제1이미지와 상기 제2이미지 사이의 상관관계 외 상기 초점거리와 상기 제2이미지 사이의 상관관계를 추가적으로 고려함으로써, 상기 제3이미지를, 선택 가능한 초점거리를 갖는 다초점 인공수정체로 구현된 가상의 제4이미지로 변환시키는, 인공수정체 삽입시 보여지는 시야를 이미지 변환하여 시뮬레이션 하는 방법.
  16. 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템으로서,
    광학 시뮬레이션 장치와 이미지변환 시뮬레이션 장치를 포함하고,
    상기 광학 시뮬레이션 장치는, 내부에 인공각막이 구비된 인공각막 모듈; 상기 인공각막 모듈 후단에 설치되며 내부에 인공수정체가 구비된 인공수정체 모듈 및 상기 인공수정체 모듈 후단에 설치되며 상기 인공각막 및 상기 인공수정체를 통과한 광을 수광하는 카메라 모듈을 포함하고,
    상기 이미지변환 시뮬레이션 장치는, 단초점 인공수정체를 통하여 획득된 제1이미지와 다초점 인공수정체를 통하여 획득된 제2이미지를 각각 수신하는 수집부; 상기 제1이미지와 상기 제2이미지 사이의 상관관계를 기계 학습을 통해 분석하는 학습부; 단초점 렌즈를 통하여 획득된 제3이미지가 입력되는 입력부; 및 상기 제3이미지를, 상기 학습부에서 분석된 상기 상관관계에 기초하여 다초점 인공 수정체로 구현된 가상의 제4이미지로 변환시키는 이미지 변환부를 포함하는, 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템.
PCT/KR2020/010740 2019-09-24 2020-08-13 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법 WO2021060702A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0117392 2019-09-24
KR1020190117392A KR102087787B1 (ko) 2019-09-24 2019-09-24 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법

Publications (1)

Publication Number Publication Date
WO2021060702A1 true WO2021060702A1 (ko) 2021-04-01

Family

ID=69809748

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/010740 WO2021060702A1 (ko) 2019-09-24 2020-08-13 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR102087787B1 (ko)
WO (1) WO2021060702A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087787B1 (ko) * 2019-09-24 2020-03-11 가톨릭대학교 산학협력단 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법
KR20230163701A (ko) * 2022-05-24 2023-12-01 경상국립대학교산학협력단 렌즈 시뮬레이션 방법 및 그 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS647576B2 (ko) * 1981-11-09 1989-02-09 Mitsui Sekyu Kagaku Kogyo Kk
US5532770A (en) * 1995-04-18 1996-07-02 Schneider; Richard T. Apparatus and methods for evaluating vision through an intraocular lens
JP3814017B2 (ja) * 1996-05-31 2006-08-23 Hoyaヘルスケア株式会社 眼光学系のシミュレーション装置
JP2013015345A (ja) * 2011-06-30 2013-01-24 Nidek Co Ltd 眼内レンズ検査装置
KR102087787B1 (ko) * 2019-09-24 2020-03-11 가톨릭대학교 산학협력단 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6407576B2 (ja) * 2013-06-14 2018-10-17 興和株式会社 模型眼モジュール、これを用いた眼内レンズ検査装置及び眼内レンズ検査方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS647576B2 (ko) * 1981-11-09 1989-02-09 Mitsui Sekyu Kagaku Kogyo Kk
US5532770A (en) * 1995-04-18 1996-07-02 Schneider; Richard T. Apparatus and methods for evaluating vision through an intraocular lens
JP3814017B2 (ja) * 1996-05-31 2006-08-23 Hoyaヘルスケア株式会社 眼光学系のシミュレーション装置
JP2013015345A (ja) * 2011-06-30 2013-01-24 Nidek Co Ltd 眼内レンズ検査装置
KR102087787B1 (ko) * 2019-09-24 2020-03-11 가톨릭대학교 산학협력단 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법

Also Published As

Publication number Publication date
KR102087787B1 (ko) 2020-03-11

Similar Documents

Publication Publication Date Title
WO2021060702A1 (ko) 인공수정체 삽입시 보여지는 시야를 시뮬레이션 하는 시스템 및 방법
WO2019208848A1 (ko) 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템
CN110007455B (zh) 病理显微镜、显示模组、控制方法、装置及存储介质
WO2019132168A1 (ko) 수술영상데이터 학습시스템
WO2018169330A1 (en) Systems and methods for determining defects in visual field of a user
CN107890335A (zh) 用于确定眼睛折射的方法和装置
CN106999024B (zh) 摄像系统
CN105045420B (zh) 操作终端和操作方法
CN104545791A (zh) 照相机、眼科摄像设备以及眼科系统
CN104980647B (zh) 图像处理装置、摄像装置、判定方法以及驱动方法
US11321618B2 (en) Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method
CN104076481A (zh) 自动聚焦方法及其设备
US11436470B2 (en) Generating simulated image training data
WO2019190076A1 (ko) 시선 추적 방법 및 이를 수행하기 위한 단말
WO2019168264A1 (ko) 전자 장치 및 그 제어 방법
CN113092489A (zh) 一种电池外观缺陷的检测系统及方法
WO2022265197A1 (ko) 인공지능에 기반하여 내시경 영상을 분석하기 위한 방법 및 장치
CN111401183A (zh) 基于人工智能的细胞体监控方法、系统、装置和电子设备
CN100443041C (zh) 具有测量功能的内窥镜系统及其测量方法
WO2021132824A1 (ko) 집적영상 현미경 시스템에서의 3차원 영상 디스플레이 방법 및 이를 구현하는 집적영상 현미경 시스템
CN112992336A (zh) 一种病理智能诊断系统
JP2018124814A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
CN108369332A (zh) 显微镜观察系统、显微镜观察方法和显微镜观察程序
WO2021256595A1 (ko) 시력 검사 장치, 방법 및 컴퓨터 판독 가능 저장 매체에 저장된 프로그램
WO2020222385A1 (ko) 인공수정체 모듈 및 이를 이용한 이동형 모델아이 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20869699

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20869699

Country of ref document: EP

Kind code of ref document: A1