KR102697147B1 - Control Method of Enhanced Imaging System for an Operating Endoscopic Microscope - Google Patents
Control Method of Enhanced Imaging System for an Operating Endoscopic Microscope Download PDFInfo
- Publication number
- KR102697147B1 KR102697147B1 KR1020220022581A KR20220022581A KR102697147B1 KR 102697147 B1 KR102697147 B1 KR 102697147B1 KR 1020220022581 A KR1020220022581 A KR 1020220022581A KR 20220022581 A KR20220022581 A KR 20220022581A KR 102697147 B1 KR102697147 B1 KR 102697147B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- microscope
- bright
- endoscopic
- field image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000003384 imaging method Methods 0.000 title 1
- 238000001000 micrograph Methods 0.000 claims abstract description 100
- 239000002131 composite material Substances 0.000 claims abstract description 39
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 26
- 230000009466 transformation Effects 0.000 claims description 19
- 239000007850 fluorescent dye Substances 0.000 claims description 10
- 238000002073 fluorescence micrograph Methods 0.000 claims description 8
- 239000000523 sample Substances 0.000 description 23
- 206010028980 Neoplasm Diseases 0.000 description 21
- 201000011510 cancer Diseases 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000001356 surgical procedure Methods 0.000 description 8
- 210000004027 cell Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 239000000975 dye Substances 0.000 description 5
- 238000010186 staining Methods 0.000 description 5
- 230000003902 lesion Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000002271 resection Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002512 chemotherapy Methods 0.000 description 2
- 238000004624 confocal microscopy Methods 0.000 description 2
- 238000002405 diagnostic procedure Methods 0.000 description 2
- 238000004043 dyeing Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 244000005700 microbiome Species 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000007447 staining method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003242 anti bacterial agent Substances 0.000 description 1
- 229940088710 antibiotic agent Drugs 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 description 1
- 238000001917 fluorescence detection Methods 0.000 description 1
- 238000000799 fluorescence microscopy Methods 0.000 description 1
- 238000012757 fluorescence staining Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011272 standard treatment Methods 0.000 description 1
- 210000004895 subcellular structure Anatomy 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000095—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00188—Optical arrangements with focusing or zooming features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/043—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3132—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Microscoopes, Condenser (AREA)
Abstract
발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법은, 제1광원을 통하여 명시야 영상을 획득하는 단계, 제2광원을 통하여 현미경 영상을 획득하는 단계, 상기 현미경 영상을 획득하기 위하여 현미경 윈도우를 시료에 접촉시키는 단계, 상기 현미경 영상의 상대 위치를 계산하는 단계, 상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계 및, 상기 합성 영상을 출력하는 단계를 포함하는 내시경현미경을 포함한다.A method for controlling an endoscopic device including an endoscopic microscope according to the invention includes an endoscopic microscope, including the steps of obtaining a bright field image through a first light source, obtaining a microscope image through a second light source, bringing a microscope window into contact with a sample to obtain the microscope image, calculating a relative position of the microscope image, generating a composite image by synthesizing the bright field image and the microscope image, and outputting the composite image.
Description
본 발명은 개선된 수술용 내시경현미경의 영상 획득 시스템 및 이의 제어 방법에 대한 것이다.The present invention relates to an improved image acquisition system for a surgical endoscopic microscope and a control method thereof.
또한, 본 발명은 수술 집도의를 위하여 수술 부위(암조직)와 여타 부위(정상 조직) 사이를 손쉽게 구별하고 수술 내시경현미경의 이동 중 장치 위치나 그 이동 경로 등을 보다 직관이고 명확하게 파악할 수 있도록, 명시야 영상과 레이저 광원 기반의 현미경 영상(또는 공초점 형광 영상)을 동시에 우수한 영상 품질(투명도나 화면 전환 시의 영상 해상도 개선 등)로 보여줄 수 있는 내시경현미경용 헤드 하드웨어 및 그 제어프로세스 기술에 대한 것이다.In addition, the present invention relates to an endoscope head hardware and a control process technology thereof that can simultaneously display a brightfield image and a laser light source-based microscope image (or confocal fluorescence image) with excellent image quality (such as improved transparency or image resolution when switching screens) so that a surgical surgeon can easily distinguish between a surgical site (cancer tissue) and another site (normal tissue) and more intuitively and clearly understand the device position or movement path during movement of the endoscope.
암 환자는 항암, 방사선, 외과적 수술 요법으로 치료된다. 그 중에서 외과적 수술 요법은 수술 집도의가 수술 현미경 혹은 내시경현미경 등을 통해 확인하면서 암 조직을 완전히 제거한다. 최근에는 환자의 수술 예후에 유리하도록 최소한의 절제를 통해서 인체 내부의 암 조직을 확인하면서 제거하기 위해서 내시경현미경을 사용하는 경우가 많다. 내시경현미경의 영상에서 정상조직과 암 조직의 구분을 용이하게 하기 위해서 암에 반응하는 형광 물질을 주입하고 2개의 다른 필터를 가진 렌즈를 사용해서 명시야 영상과 형광 영상을 획득하고 이를 동기화해서 합성 영상을 보여주는 기술이 연구되고 있다. 하지만, 내시경현미경의 렌즈 배율의 제한으로 미세한 크기의 암 조직을 확인하기 어렵고 정상조직과 암 조직 경계를 구분하기 어렵다. Cancer patients are treated with chemotherapy, radiation, and surgical treatment. Among them, surgical treatment completely removes cancer tissue while the surgeon confirms it through a surgical microscope or endoscopic microscope. Recently, endoscopic microscopes are often used to confirm and remove cancer tissue inside the body through minimal resection to improve the patient's surgical prognosis. In order to easily distinguish between normal tissue and cancer tissue in endoscopic microscope images, a technology is being studied to inject a fluorescent substance that reacts to cancer, acquire a brightfield image and a fluorescent image using two different filters, and synchronize them to display a composite image. However, due to the limited magnification of the endoscopic microscope lens, it is difficult to confirm microscopic cancer tissue and to distinguish the border between normal and cancer tissue.
전자 현미경과 비교하여 광학 현미경의 장점은 미생물이나 조직의 변화를 살아있는 상태로 찍을 수 있다는 것이다. 전자 현미경의 경우 고배율·고해상도로 관찰할 수 있다는 장점이 있지만 시료를 관찰하기 위해서는 시료를 금속 코팅과 같은 전처리 과정을 거쳐야 하고 진공상태에서 측정해야 하기 때문에 관찰 후 시료가 손상될 수 있다. 공초점 레이저 주사 현미경은 기존의 광학 현미경에 비하여 약1.4배 정도 더 좋은 해상도를 가지며, 미생물이나 조직을 살아 있는 상태로 찍을 수 있다는 장점을 가지고 있다.The advantage of optical microscopes over electron microscopes is that they can capture changes in microorganisms or tissues while they are still alive. Electron microscopes have the advantage of high magnification and high resolution, but because they require preprocessing such as metal coating to observe the sample, and must be measured under a vacuum, the sample may be damaged after observation. Confocal laser scanning microscopes have a resolution that is about 1.4 times better than conventional optical microscopes, and have the advantage of being able to capture microorganisms or tissues while they are still alive.
특히, 생명 과학 분야에서의 공초점 현미경은 좀 더 중요한 의미를 지닌다. 공초점 현미경은 깊이 방향 측정이 가능하기 때문에 비침습적으로 세포 내부를 측정하는 것이 가능하다. 즉, 세포나 조직의 구조적인 변화를 측정함으로써 초기 단계의 변화나 병변을 밝히는 중요한 실험 장비이다. 최근 생명 과학 분야에서 세포나 세포 이하의 단위에서 일어나는 다이내믹한 현상에 대한 연구가 주를 이루고 있다. 이러한 생물학적 다이내믹 현상은 굉장히 빠른 속도로 일어나기 때문에 이를 측정할 수 있는 장비의 수요가 급증하고 있다.In particular, confocal microscopy has a more important meaning in the field of life science. Since confocal microscopy can measure depth, it is possible to measure the inside of cells noninvasively. In other words, it is an important experimental device that reveals changes or lesions in the early stages by measuring structural changes in cells or tissues. Recently, research on dynamic phenomena occurring at the cell or subcellular level is the main focus in the field of life science. Since these biological dynamic phenomena occur at a very fast speed, the demand for equipment that can measure them is rapidly increasing.
공초점 현미경의 원리는 도 1에 나타난 원리도를 보면 이해할 수 있다. 먼저 광원(light source)으로 부터 나온 광선(beam)이 광선 분할기(beam splitter)에 의해 반사되어 광선이 대물렌즈(objective lens)를 향하게 된다. 대물렌즈를 통과한 광선은 시료에 있는 초점면(focal plane)에 맺히게 되며 초점면에 맺힌 광선은 시료의 특성에 따라 반사, 투과 혹은 굴절을 하게 된다. 이러한 광학 현상에 의해 초점면이 아닌 다른 위치에서도 광선이 나오게 된다. 시료상에서 반사되는 광선들은 다시 대물렌즈를 거쳐서 광선 분할기를 통과하여 검출기(detector) 방향으로 가게 된다. 이 때, 초점과 공액점(conjugate point)상에 존재한 공간 여과기(핀홀, pinhole)에 의해 초점면에서 반사된 광선만이 검출기에 도달하게 되고, 그 외 다른 곳에서 반사된 광선들은 공간 여과기(pinhole)에 의해서 차단되어 검출되지 않기 때문에 최종 영상에는 아무런 영향을 주지 못한다. 이렇게 핀홀의 위치에 해당하는 시현상의 공액점의 정보만을 얻어 내기 때문에 공초점(confocal)이라고 한다.The principle of the confocal microscope can be understood by looking at the principle diagram shown in Figure 1. First, a beam from a light source is reflected by a beam splitter and directed toward the objective lens. The beam that passes through the objective lens is focused on the focal plane on the sample, and the beam focused on the focal plane is reflected, transmitted, or refracted depending on the characteristics of the sample. Due to this optical phenomenon, light is emitted from other locations than the focal plane. The light reflected on the sample passes through the objective lens again, the beam splitter, and then goes toward the detector. At this time, only the light reflected from the focal plane reaches the detector due to the spatial filter (pinhole) located at the focus and conjugate point, and the light reflected from other locations is blocked by the spatial filter (pinhole) and is not detected, so it has no effect on the final image. Because it only obtains information on the conjugate point of the visual phenomenon corresponding to the position of the pinhole, it is called confocal.
이러한 공초점 현미경의 가장 큰 장점은 비 초점면에서의 빛의 정보를 제거한다는 것과 3차원 정보를 획득할 수 있다는 것인데, 한편 세포 이하 단위 구조를 관찰하는데 충분한 분해능을 제공하지 못한다는 것이다. The greatest advantage of these confocal microscopes is that they eliminate light information from non-focus planes and can acquire three-dimensional information, but on the other hand, they do not provide sufficient resolution for observing subcellular structures.
이는 공초점 형광 영상 이외의 현미경 영상을 사용하는 현미경이나 내시경현미경에서도 개선해야 되는 과제이다.This is a task that needs to be improved in microscopes and endoscopic microscopes that use microscopic images other than confocal fluorescence images.
본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 본 발명의 일 목적은 암 조직 절제 수술에서, 레이저 광원 기반의 현미경 영상이나 공초점 영상(수술 부위의 미세 영상)과 수술 범위를 포함한 넓은 뷰의 영상(명시야 영상)을 합성해서 함께 보여주도록 하여 수술의 정밀성과 효율성을 높일 수 있는 내시경 현미경과 이의 제어 기술을 제공하고자 하는 것이다.The present invention has been made to solve the problems of the above-described prior art, and one object of the present invention is to provide an endoscopic microscope and a control technology thereof which can improve the precision and efficiency of surgery by synthesizing and displaying together a laser light source-based microscopic image or confocal image (microscopic image of the surgical site) and a wide view image (bright field image) including the surgical range during cancer tissue resection surgery.
또한, 정상 조직과 암 조직의 경계를 보다 명확하게 구별할 수 있는 내시경 현미경과 이의 제어 기술을 제공하고자 하는 것이다.In addition, it is intended to provide an endoscopic microscope and its control technology that can more clearly distinguish the boundary between normal tissue and cancer tissue.
본 발명에 따른 내시경현미경 영상 획득 시스템은, 조직이나 수술부위를 전체적으로 볼 수 있는 명시야 영상을 구현할 수 있는 제1광원, 상기 조직이나 수술부위의 세부를 볼 수 있는 레이저 광원 기반의 현미경 영상을 구현할 수 있는 제2광원, 및 상기 현미경 영상을 획득하기 위하여 시료에 접촉하는 현미경 윈도우를 포함하는 내시경현미경용 헤드와; 상기 현미경 영상의 상대 위치를 계산하는 계산부와; 상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 합성 영상 생성부와; 상기 합성 영상을 출력하는 출력부를 포함한다.An endoscopic microscope image acquisition system according to the present invention comprises: an endoscopic microscope head including a first light source capable of implementing a brightfield image capable of viewing a tissue or surgical site as a whole, a second light source capable of implementing a laser light source-based microscope image capable of viewing details of the tissue or surgical site, and a microscope window that contacts a sample to acquire the microscope image; a calculation unit that calculates a relative position of the microscope image; a composite image generation unit that generates a composite image by synthesizing the brightfield image and the microscope image; and an output unit that outputs the composite image.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 현미경 윈도우는 상기 시료에 접촉되어 영상을 획득하고 이후 제 위치로 후퇴하도록 구성될 수 있다.In the endoscopic microscope image acquisition system according to the present invention, the microscope window can be configured to contact the sample to acquire an image and then retract into position.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 합성 영상 생성부는, 상기 현미경 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산해서 상기 명시야 영상 위에 상기 현미경 영상의 투명도를 조절해서 상기 현미경 영상을 상기 명시야 영상에 겹쳐서 상기 출력부를 통하여 출력하는 합성 영상 제어부를 포함할 수 있다.In the endoscopic microscope image acquisition system according to the present invention, the synthetic image generation unit may include a synthetic image control unit that calculates coordinates at which the microscope image is acquired from coordinates of the bright-field image, adjusts transparency of the microscope image on top of the bright-field image, and superimposes the microscope image on the bright-field image and outputs it through the output unit.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 합성 영상 생성부는, 상기 현미경 영상이 획득된 시점의 초기 위치에서 x축, y축, z축의 거리 이동을 계산해서 변경된 명시야 영상에 주기적으로 업데이트해서 합성된 영상을 생성하는 합성 영상 갱신부를 포함할 수 있다. In the endoscopic microscope image acquisition system according to the present invention, the synthetic image generation unit may include a synthetic image update unit that calculates the distance movement in the x-axis, y-axis, and z-axis from the initial position at the time point when the microscope image was acquired and periodically updates the changed bright field image to generate a synthetic image.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 현미경 영상을 획득한 제1 시점의 위치를 그 이후의 제2 시점의 명시야 영상에서 찾을 수 없는 경우에는 상기 현미경 영상이 상기 명시야 영상으로부터 위치 벗어남을 별도로 출력하고 겹쳐진 현미경 영상은 제거하고 명시야 영상만 출력하도록 구성될 수 있다. In the endoscopic microscope image acquisition system according to the present invention, if the location of the first time point at which the microscope image was acquired cannot be found in the bright-field image of the second time point thereafter, the microscope image may be configured to separately output a position deviation from the bright-field image, remove the overlapping microscope images, and output only the bright-field image.
본 발명의 내시경 장치는 앞서와 같은 내시경현미경 영상 획득 시스템과, 상기 내시경현미경용 헤드와 분리 가능하게 연결되는 케이블을 포함한다.The endoscopic device of the present invention includes an endoscopic microscope image acquisition system as described above and a cable detachably connected to the endoscopic microscope head.
본 발명의 내시경 시스템은, 앞서와 같은 내시경 장치와, 상기 내시경 장치와 상기 케이블을 통하여 전기적으로 연결되어 상기 출력부가 출력한 합성 영상을 표시할 수 있는 디스플레이를 포함한다.The endoscope system of the present invention includes an endoscope device as described above, and a display that is electrically connected to the endoscope device through the cable and can display a composite image output by the output unit.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 현미경 윈도우는 고정된 각도 안에서 전면으로 돌출되도록 이동하면서 조직에 접촉하도록 구성될 수 있다. In the endoscopic microscope image acquisition system according to the present invention, the microscope window can be configured to contact the tissue while moving so as to protrude forward within a fixed angle.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 현미경 영상의 투명도는 상기 명시야 영상을 통해 조직 구조와 위치를 판단할 수 있는 상태까지 조절될 수 있다.In the endoscopic microscope image acquisition system according to the present invention, the transparency of the microscope image can be adjusted to a state where the tissue structure and location can be determined through the bright field image.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 현미경 영상이 획득된 시점의 초기 위치에서 x축, y축, z축의 거리 이동을 계산하기 위하여, 상기 현미경 영상을 찍었던 순간에 조직의 조직 구조 정보가 담긴 명시야 영상을 같이 획득해서 기준 이미지로 저장하고, 이후 이동한 위치에서 다시 새로운 명시야 영상을 획득해서 상기 기준 이미지와 상기 이동한 위치에서 획득한 이미지의 특징점을 추출하여 x, y 방향의 이동과 z축의 거리 이동을 계산하도록 구성될 수 있다.In the endoscopic microscope image acquisition system according to the present invention, in order to calculate the distance movement in the x-axis, y-axis, and z-axis from the initial position at the time point when the microscope image is acquired, a bright-field image containing tissue structure information is acquired together at the moment when the microscope image is taken and stored as a reference image, and thereafter, a new bright-field image is acquired again at a moved position, and feature points of the reference image and the image acquired at the moved position are extracted to calculate the movement in the x and y directions and the distance movement in the z-axis.
본 발명에 따른 내시경현미경 영상 획득 시스템에서는, 상기 기준 이미지로 저장된 명시야 영상이 기준 점수를 통과하지 못하는 경우 명시야 영상만 출력되도록 구성되고, 상기 기준 이미지로 저장된 명시야 영상이 기준 점수를 통과한 경우에 한하여 상기 합성 영상 생성부로 하여금 합성 영상을 생성하도록 구성될 수 있다.In the endoscopic microscope image acquisition system according to the present invention, only a bright field image may be output when the bright field image saved as the reference image does not pass the reference score, and the synthetic image generation unit may be configured to generate a synthetic image only when the bright field image saved as the reference image passes the reference score.
본 발명의 또 다른 내시경현미경 영상 획득 시스템은 조직이나 수술부위를 전체적으로 볼 수 있는 명시야 영상을 구현할 수 있는 제1광원, 상기 조직이나 수술부위의 세부를 볼 수 있는 공초점 영상을 구현할 수 있는 제2광원, 및 상기 공초점 영상을 획득하기 위하여 시료에 접촉하는 공초점 윈도우를 포함하는 내시경현미경용 헤드와; 상기 공초점 영상의 상대 위치를 계산하는 계산부와; 상기 명시야 영상과 상기 공초점 영상을 합성하여 합성 영상을 생성하는 합성 영상 생성부와; 상기 합성 영상을 출력하는 출력부를 포함한다.Another endoscopic microscope image acquisition system of the present invention comprises: an endoscopic microscope head including a first light source capable of implementing a brightfield image capable of viewing a tissue or surgical site as a whole, a second light source capable of implementing a confocal image capable of viewing details of the tissue or surgical site, and a confocal window that contacts a sample to acquire the confocal image; a calculation unit that calculates a relative position of the confocal image; a composite image generation unit that generates a composite image by synthesizing the brightfield image and the confocal image; and an output unit that outputs the composite image.
본 발명의 또 다른 내시경 장치는, 앞서와 같은 또 다른 내시경현미경 영상 획득 시스템과, 상기 내시경현미경용 헤드와 분리 가능하게 연결되는 케이블을 포함한다.Another endoscopic device of the present invention comprises another endoscopic microscope image acquisition system as described above, and a cable detachably connected to the endoscopic microscope head.
본 발명의 또 다른 내시경 장치에서는, 상기 형광 영상을 얻기 위하여 상기 시료에 형광 염색 물질을 도포하기 위한 노즐을 추가로 포함할 수 있다.Another endoscopic device of the present invention may further include a nozzle for applying a fluorescent dye to the sample to obtain the fluorescent image.
본 발명의 앞서와 같은 내시경현미경 영상 획득 시스템들에서는, 상기 제1광원은 복수개의 LED로 구성되어 그림자 발생을 방지하도록 구성될 수 있다.In the above endoscopic microscope image acquisition systems of the present invention, the first light source may be configured to include a plurality of LEDs to prevent the occurrence of shadows.
본 발명의 내시경현미경 영상 획득 시스템에서는, 상기 합성 영상 생성부는 상기 레이저 광원 기반의 현미경 영상과 상기 명시야 영상의 합성 영상을 생성하는데 있어서, 2개의 영상(즉, 상기 레이저 광원 기반의 현미경 영상과 상기 명시야 영상)을 합성한 후에도 상기 명시야 영상에서 조직의 구조가 확인이 가능하도록 상기 레이저 광원 기반의 현미경 영상의 픽셀값에 가중치(α)를 반영하고, 상기 명시야 영상의 픽셀값에는 (1-α)를 반영하도록 구성될 수 있다.In the endoscopic microscope image acquisition system of the present invention, the composite image generation unit may be configured to reflect a weight (α) to the pixel values of the laser light source-based microscope image and (1-α) to the pixel values of the bright field image so that the structure of a tissue can be confirmed in the bright field image even after synthesizing the two images (i.e., the laser light source-based microscope image and the bright field image).
본 발명의 또 다른 내시경현미경 영상 획득 시스템에서는, 상기 합성 영상 생성부는 상기 공초점 영상과 상기 명시야 영상의 합성 영상을 생성하는데 있어서, 2개의 영상(즉, 상기 공초점 영상과 상기 명시야 영상)을 합성한 후에도 상기 명시야 영상에서 조직의 구조가 확인이 가능하도록 상기 공초점 영상의 픽셀값에 가중치(α)를 반영하고, 상기 명시야 영상의 픽셀값에는 (1-α)를 반영하도록 구성될 수 있다.In another endoscopic microscope image acquisition system of the present invention, the composite image generation unit may be configured to reflect a weight (α) to the pixel values of the confocal image and to reflect (1-α) to the pixel values of the bright field image so that the structure of the tissue can be confirmed in the bright field image even after synthesizing the two images (i.e., the confocal image and the bright field image) when generating a composite image of the confocal image and the bright field image.
본 발명의 내시경현미경 영상 획득 시스템에서는, 상기 현미경 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산하는 것은 다음의 수식에 의하여 수행되도록 구성될 수 있다.In the endoscopic microscope image acquisition system of the present invention, calculating the coordinates at which the microscope image is acquired from the bright field image coordinates can be performed by the following formula.
수식formula
여기서, Here,
x0: 2d transformation 하기 전에 현미경 영상 좌표계에서의 x 방향 픽셀 위치 값 x 0 : x-direction pixel position value in the microscope image coordinate system before 2D transformation
y0: 2d transformation 하기 전에 현미경 영상 좌표계에서의 y 방향 픽셀 위치 값 y 0 : y-direction pixel position value in the microscope image coordinate system before 2D transformation
x1: 2d transformation 이후에 명시야 영상 좌표계에서의 x 방향 픽셀 위치 값 x 1 : x-direction pixel position value in the bright-field image coordinate system after 2D transformation
y1: 2d transformation 이후에 명시야 영상 좌표계에서의 y 방향 픽셀 위치 값y 1 : y direction pixel position value in the bright field image coordinate system after 2d transformation
Sx: x축 방향으로의 scaling 값 Sx: scaling value in the x-axis direction
Sy: y축 방향으로의 scaling 값 Sy: scaling value in the y-axis direction
θ: rotation 각도 θ: rotation angle
tx: x축 방향으로의 이동 거리 tx: distance moved in the x-axis direction
ty: y축 방향으로의 이동 거리ty: distance moved in the y-axis direction
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법은, 제1광원을 통하여 명시야 영상을 획득하는 단계, 제2광원을 통하여 공초점 영상을 획득하는 단계, 상기 공초점 영상을 획득하기 위하여 공초점 윈도우를 시료에 접촉시키는 단계, 상기 공초점 영상의 상대 위치를 계산하는 단계, 상기 명시야 영상과 상기 공초점 영상을 합성하여 합성 영상을 생성하는 단계 및, 상기 합성 영상을 출력하는 단계를 포함하는 내시경현미경을 포함한다.A method for controlling an endoscopic device including an endoscopic microscope according to the present invention includes an endoscopic microscope including the steps of obtaining a bright-field image through a first light source, obtaining a confocal image through a second light source, bringing a confocal window into contact with a sample to obtain the confocal image, calculating a relative position of the confocal image, generating a composite image by synthesizing the bright-field image and the confocal image, and outputting the composite image.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 공초점 영상을 획득하기 위하여 공초점 윈도우를 시료에 접촉시키는 단계는, 상기 공초점 윈도우가 상기 시료에 접촉되어 영상을 획득하고 이후 제 위치로 후퇴하는 단계를 포함할 수 있다.In a control method for an endoscopic device including an endoscopic microscope according to the present invention, the step of bringing a confocal window into contact with a sample to obtain the confocal image may include a step of bringing the confocal window into contact with the sample to obtain an image and thereafter moving it back into its original position.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 공초점 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산하는 단계를 추가적으로 포함하고, 이 때, 상기 합성 영상을 출력하는 단계에서는, 상기 계산된 공초점 영상의 좌표를 이용하여 상기 명시야 영상 위에 상기 공초점 영상의 투명도를 조절해서 상기 공초점 영상을 상기 명시야 영상에 겹쳐서 출력하도록 구성될 수 있다.A method for controlling an endoscopic device including an endoscopic microscope according to the present invention additionally includes a step of calculating coordinates at which the confocal image is acquired from coordinates of the bright-field image, and at this time, in the step of outputting the composite image, the coordinates of the calculated confocal image may be used to adjust transparency of the confocal image on top of the bright-field image so as to output the confocal image by overlapping it with the bright-field image.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 공초점 영상이 획득된 시점의 초기 위치에서 x축, y축, z축의 거리 이동을 계산하는 단계를 추가적으로 포함하고, 이 때, 상기 합성 영상을 출력하는 단계에서는, 상기 거리 이동의 계산값을 변경된 명시야 영상에 주기적으로 업데이트해서 합성된 영상을 생성할 수 있다.A method for controlling an endoscopic device including an endoscopic microscope according to the present invention additionally includes a step of calculating a distance movement in the x-axis, y-axis, and z-axis from an initial position at a time point when the confocal image is acquired, and at this time, in the step of outputting the synthesized image, the calculated value of the distance movement can be periodically updated to a changed bright field image to generate a synthesized image.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 합성 영상을 출력하는 단계에서는, 상기 공초점 영상을 획득한 제1 시점의 위치를 그 이후의 제2 시점의 명시야 영상에서 찾을 수 없는 경우에는 상기 공초점 영상이 상기 명시야 영상으로부터 위치 벗어남을 별도로 출력하고 겹쳐진 공초점 영상은 제거하고 명시야 영상만 출력하도록 구성될 수 있다.In a control method of an endoscopic device including an endoscope according to the present invention, in the step of outputting the composite image, if the position of the first time point at which the confocal image was acquired cannot be found in the bright-field image of the second time point thereafter, the confocal image may be configured to separately output a position deviation from the bright-field image, remove the overlapping confocal image, and output only the bright-field image.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 공초점 윈도우는 고정된 각도 안에서 전면으로 돌출되도록 이동하면서 조직에 접촉하도록 구성될 수 있다.In a control method of an endoscopic device including an endoscopic microscope according to the present invention, the confocal window can be configured to move so as to protrude forward within a fixed angle and contact a tissue.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 공초점 영상의 투명도는 상기 명시야 영상을 통해 조직 구조와 위치를 판단할 수 있는 상태까지 조절되도록 구성될 수 있다.In a control method of an endoscopic device including an endoscopic microscope according to the present invention, the transparency of the confocal image can be configured to be adjusted to a state where the tissue structure and location can be determined through the bright field image.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 공초점 영상이 획득된 시점의 초기 위치에서 x축, y축, z축의 거리 이동을 계산하기 위하여, 상기 공초점 영상을 찍었던 순간에 조직의 조직 구조 정보가 담긴 명시야 영상을 같이 획득해서 기준 이미지로 저장하고, 이후 이동한 위치에서 다시 새로운 명시야 영상을 획득해서 상기 기준 이미지와 상기 이동한 위치에서 획득한 이미지의 특징점을 추출하여 x, y 방향의 이동과 z축의 거리 이동을 계산하도록 구성될 수 있다.In a control method of an endoscopic device including an endoscopic microscope according to the present invention, in order to calculate the distance movement in the x-axis, y-axis, and z-axis from the initial position at the time point when the confocal image is acquired, a bright-field image containing tissue structure information is acquired together at the moment when the confocal image is taken and stored as a reference image, and thereafter, a new bright-field image is acquired again at a moved position, and feature points of the reference image and the image acquired at the moved position are extracted to calculate the movement in the x and y directions and the distance movement in the z-axis.
본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 제어방법에서는, 상기 기준 이미지로 저장된 명시야 영상이 기준 점수를 통과하지 못하는 경우 명시야 영상만 출력되도록 구성되고, 상기 기준 이미지로 저장된 명시야 영상이 기준 점수를 통과한 경우에 한하여 상기 합성 영상 생성부로 하여금 합성 영상을 생성하도록 구성될 수 있다.In a control method of an endoscopic device including an endoscopic microscope according to the present invention, only a bright field image may be output when the bright field image stored as the reference image does not pass a reference score, and the synthetic image generation unit may be configured to generate a synthetic image only when the bright field image stored as the reference image passes a reference score.
또한, 본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 다른 제어방법은, 제1광원을 통하여 명시야 영상을 획득하는 단계, 제2광원을 통하여 레이저 광원 기반의 현미경 영상을 획득하는 단계, 상기 현미경 영상을 획득하기 위하여 현미경 윈도우를 시료에 접촉시키는 단계, 상기 현미경 영상의 상대 위치를 계산하는 단계, 상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계 및, 상기 합성 영상을 출력하는 단계를 포함할 수 있다.In addition, another control method of an endoscopic device including an endoscopic microscope according to the present invention may include a step of obtaining a bright field image through a first light source, a step of obtaining a laser light source-based microscope image through a second light source, a step of contacting a microscope window with a sample to obtain the microscope image, a step of calculating a relative position of the microscope image, a step of generating a composite image by synthesizing the bright field image and the microscope image, and a step of outputting the composite image.
또한, 본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 다른 제어방법은, 상기 명시야 영상과 상기 공초점 영상을 합성하여 합성 영상을 생성하는 단계는 상기 공초점 영상과 상기 명시야 영상의 합성 영상을 생성하는데 있어서, 2개의 영상(즉, 상기 공초점 영상과 상기 명시야 영상)을 합성한 후에도 상기 명시야 영상에서 조직의 구조가 확인이 가능하도록 상기 공초점 영상의 픽셀값에 가중치(α)를 반영하고, 상기 명시야 영상의 픽셀값에는 (1-α)를 반영하도록 구성될 수 있다.In addition, another control method of an endoscopic device including an endoscopic microscope according to the present invention, the step of generating a composite image by synthesizing the bright-field image and the confocal image may be configured such that, in generating a composite image of the confocal image and the bright-field image, a weight (α) is reflected in the pixel values of the confocal image so that the structure of the tissue can be confirmed in the bright-field image even after synthesizing the two images (i.e., the confocal image and the bright-field image), and (1-α) is reflected in the pixel values of the bright-field image.
또한, 본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 다른 제어방법은, 상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계는 상기 현미경 영상과 상기 명시야 영상의 합성 영상을 생성하는데 있어서, 2개의 영상(즉, 상기 현미경 영상과 상기 명시야 영상)을 합성한 후에도 상기 명시야 영상에서 조직의 구조가 확인이 가능하도록 상기 레이저 광원 기반의 현미경 영상의 픽셀값에 가중치(α)를 반영하고, 상기 명시야 영상의 픽셀값에는 (1-α)를 반영하도록 구성될 수 있다.In addition, another control method of an endoscopic device including an endoscopic microscope according to the present invention, the step of generating a composite image by synthesizing the bright-field image and the microscope image may be configured such that, in generating a composite image of the microscope image and the bright-field image, a weight (α) is reflected to the pixel values of the microscope image based on the laser light source so that the structure of the tissue can be confirmed in the bright-field image even after synthesizing the two images (i.e., the microscope image and the bright-field image), and (1-α) is reflected to the pixel values of the bright-field image.
또한, 본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 다른 제어방법은, 상기 공초점 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산하는 단계는 다음의 수식에 의하여 수행되도록 구성될 수 있다.In addition, another control method of an endoscopic device including an endoscopic microscope according to the present invention may be configured such that the step of calculating the coordinates at which the confocal image is acquired from the coordinates of the bright field image is performed by the following formula.
수식formula
여기서, Here,
x0: 2d transformation 하기 전에 공초점 영상 좌표계에서의 x 방향 픽셀 위치 값 x 0 : x-direction pixel position value in the confocal image coordinate system before 2D transformation
y0: 2d transformation 하기 전에 공초점 영상 좌표계에서의 y 방향 픽셀 위치 값 y 0 : y-direction pixel position value in the confocal image coordinate system before 2D transformation
x1: 2d transformation 이후에 명시야 영상 좌표계에서의 x 방향 픽셀 위치 값 x 1 : x-direction pixel position value in the bright-field image coordinate system after 2D transformation
y1: 2d transformation 이후에 명시야 영상 좌표계에서의 y 방향 픽셀 위치 값y 1 : y direction pixel position value in the bright field image coordinate system after 2d transformation
Sx: x축 방향으로의 scaling 값 Sx: scaling value in the x-axis direction
Sy: y축 방향으로의 scaling 값 Sy: scaling value in the y-axis direction
θ: rotation 각도 θ: rotation angle
tx: x축 방향으로의 이동 거리 tx: distance moved in the x-axis direction
ty: y축 방향으로의 이동 거리ty: distance moved in the y-axis direction
또한, 본 발명에 따른 내시경현미경을 포함하는 내시경 장치의 다른 제어방법은, 상기 공초점 영상은 시료가 방출하는 형광을 수집하여 획득되는 형광 영상이고, 상기 형광 영상을 얻기 위하여 상기 내시경현미경의 노즐을 통하여 상기 시료에 형광 염색 물질을 도포하기 위한 단계를 추가로 포함하도록 구성될 수 있다.In addition, another control method of an endoscopic device including an endoscopic microscope according to the present invention may be configured to further include a step of applying a fluorescent dye to the sample through a nozzle of the endoscopic microscope to obtain the fluorescence image, wherein the confocal image is a fluorescence image obtained by collecting fluorescence emitted from the sample.
본 발명에 따른 개선된 수술용 내시경현미경의 영상 획득 시스템 및 이의 제어 방법에 따르면, 암 환자의 외과적 수술 치료를 위해 수술 중에 집도의가 내시경을 통해 고해상도의 레이저 광원 기반의 현미경 영상 또는 공초점 영상을 명시야 영상과 같이 확인할 수 있게 되는 바, 명시야 영상으로는 확인이 어려운 세포 수준의 암 검출이 가능해진다.According to the improved image acquisition system of a surgical endoscopic microscope and the control method thereof according to the present invention, the surgeon can confirm a high-resolution laser light source-based microscopic image or confocal image through the endoscope as a brightfield image during surgery for surgical treatment of a cancer patient, thereby enabling detection of cancer at the cellular level that is difficult to confirm with a brightfield image.
또한, 레이저 광원 기반의 현미경 영상 또는 공초점 형광 영상을 명시야 영상과 같이 1개의 화면에서 실시간으로 확인이 가능하게 되어, 수술 집도의가 조직 절제를 하거나 조직에 위치를 기억하기 위한 마킹이 가능해지면서 정확하게 암 조직을 제거를 할 수 있다.In addition, laser light source-based microscopic images or confocal fluorescence images can be viewed in real time on a single screen, like brightfield images, allowing surgeons to cut tissue or mark tissue to remember its location, enabling accurate removal of cancerous tissue.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 공초점 현미경의 원리를 설명하는 도면.
도 2a는 본 발명에 따른 내시경현미경용 헤드의 물리적 형상의 예시적 실시예를 보여주는 도면.
도 2b는 본 발명에 따른 내시경현미경용 헤드의 공초점 윈도우의 작동 방식을 설명하는 개념도.
도 3은 본 발명에 따른 내시경현미경용 헤드를 포함하는 내시경현미경 영상 획득 시스템의 예시적 실시예의 구성요소를 보여주는 도식도.
도 4는 본 발명에 따른 내시경현미경 영상 획득 시스템의 예시적 실시예의 합성 영상 생성부의 세부 구성요소를 보여주는 도식도.
도 5는 본 발명에 따른 내시경현미경 영상 획득 시스템의 제어 방법의 예시적 실시예의 흐름도.
도 6은 본 발명에 따른 내시경 시스템의 구성을 보여주는 도식도.
도 7은 본 발명에 따른 내시경현미경 영상 획득 시스템의 제어 방법의 다른 실시예의 흐름도. Figure 1 is a drawing explaining the principle of a confocal microscope.
FIG. 2a is a drawing showing an exemplary embodiment of the physical shape of a head for an endoscopic microscope according to the present invention.
Figure 2b is a conceptual diagram explaining the operation method of the confocal window of the head for an endoscopic microscope according to the present invention.
FIG. 3 is a schematic diagram showing components of an exemplary embodiment of an endoscopic microscope image acquisition system including an endoscopic microscope head according to the present invention.
FIG. 4 is a schematic diagram showing detailed components of a synthetic image generation unit of an exemplary embodiment of an endoscopic microscope image acquisition system according to the present invention.
Figure 5 is a flow chart of an exemplary embodiment of a control method for an endoscopic microscope image acquisition system according to the present invention.
Figure 6 is a schematic diagram showing the configuration of an endoscope system according to the present invention.
Figure 7 is a flow chart of another embodiment of a control method for an endoscopic microscope image acquisition system according to the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention, and the method for achieving them, will become clear with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and these embodiments are provided only to make the disclosure of the present invention complete and to fully inform a person skilled in the art of the scope of the invention, and the present invention is defined only by the scope of the claims.
본 명세서 전체에 걸쳐 대응되는 구성요소에는 유사한 형태의 도면부호를 부과하였다.Corresponding components are given similar reference numerals throughout this specification.
본 명세서에서 "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다. 본 명세서에서 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.In this specification, "and/or" includes each and every combination of one or more of the items mentioned. In this specification, the singular also includes the plural unless specifically stated otherwise. Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in the sense that they are commonly understood by those of ordinary skill in the art. In addition, terms defined in the dictionary shall not be ideally or excessively interpreted unless explicitly specifically defined.
앞서와 같은 발명의 목적을 달성하기 위하여 내시경현미경용 헤드에 명시야 영상을 얻을 수 있는 렌즈와 세포의 구조적 정보까지 확인이 가능한 공초점 렌즈를 같이 구성할 있다. 이를 통하면 2개의 렌즈가 같이 구성되면서 동시에 2가지 영상을 얻을 수 있다. 하지만, 공초점 렌즈를 통해서는 mm수준의 매우 적은 Field of view에서만 실시간으로 영상을 획득할 수 있기 때문에 공초점 렌즈로 고해상도 영상을 얻어도 명시야 영상에서 해당 위치를 파악할 수 없기 때문에 수술 집도의가 조직 절제를 하거나 조직에 위치를 기억하기 위하여 마킹하는 등과 같은 대응을 하기에는 어려운 문제점이 있는데, 본 발명의 주요 목적 중에 하나는 이를 개선하고자 하는 것인 바 이하 상세히 도면을 참조하여 설명한다. In order to achieve the purpose of the invention as described above, a lens capable of obtaining a bright-field image and a confocal lens capable of confirming the structural information of cells can be configured together in an endoscopic microscope head. Through this, two lenses can be configured together to obtain two images at the same time. However, since real-time images can be obtained only in a very small field of view of the mm level through the confocal lens, even if a high-resolution image is obtained with the confocal lens, there is a problem that it is difficult for a surgeon to respond, such as resecting tissue or marking tissue to remember the location. One of the main purposes of the present invention is to improve this, which will be described in detail below with reference to the drawings.
본 명세서에서는 편의상 중복 설명을 피하기 위하여 형광 물질을 사용하는 공초점 영상을 기준으로 설명을 하나, 본 발명의 모든 기재는 형광 물질을 사용하는 경우에만 수반될 수 있는 노즐(160), 생체조직의 세포에 형광 염색 물질을 염색하는 단계(S310) 등의 기재를 제외하고는 공초점 방식이 아닌 레이저 광원 기반의 현미경 영상에도 모두 적용된다. 한편, 레이저 광원 기반의 현미경 영상은 당연히 공초점 영상(마찬가지로 레이저 방식임)을 포함하는 개념으로 이해되어야 한다.In this specification, for convenience's sake and to avoid redundant explanation, the description is based on a confocal image using a fluorescent material. However, all descriptions of the present invention are applicable to a laser light source-based microscope image that is not a confocal method, except for descriptions of a nozzle (160) that may be included only when a fluorescent material is used, a step (S310) of staining cells of a living tissue with a fluorescent dye, etc. Meanwhile, a laser light source-based microscope image should be understood as a concept that naturally includes a confocal image (also a laser method).
도 2 및 도 3을 참조하면, 본 발명에 따른 내시경현미경용 헤드(100)는, 명시야 영상을 구현할 수 있는 제1광원(110, 120), 공초점 영상을 구현할 수 있는 제2광원(132), 상기 공초점 영상을 획득하기 위하여 시료에 접촉하는 공초점 대물렌즈(131)를 포함한다.Referring to FIGS. 2 and 3, an endoscopic microscope head (100) according to the present invention includes a first light source (110, 120) capable of implementing a bright field image, a second light source (132) capable of implementing a confocal image, and a confocal objective lens (131) that contacts a sample to obtain the confocal image.
또한, 본 발명의 내시경현미경 영상 획득 시스템(1000)은 위와 같은 헤드(100)와, 상기 공초점 영상의 상대 위치를 계산하는 계산부(140), 상기 명시야 영상과 상기 공초점 영상을 합성하여 합성 영상을 생성하는 합성 영상 생성부(150) 및, 상기 합성 영상을 출력하는 출력부(180)를 포함한다.In addition, the endoscopic microscope image acquisition system (1000) of the present invention includes a head (100) as described above, a calculation unit (140) that calculates the relative position of the confocal image, a synthetic image generation unit (150) that generates a synthetic image by synthesizing the bright field image and the confocal image, and an output unit (180) that outputs the synthetic image.
상기 본 발명에 따른 내시경현미경용 헤드(100)의 광원 2개(110, 120)는 각각 LED 1개를 이용하여 구성될 수 있고, 공초점 영상을 구현할 수 있는 제2광원(132)은 400~800nm 파장영역의 레이저를 조사하도록 구성될 수 있다.The two light sources (110, 120) of the head (100) for the endoscopic microscope according to the present invention may each be configured using one LED, and the second light source (132) capable of implementing a confocal image may be configured to irradiate a laser having a wavelength range of 400 to 800 nm.
본 발명에서는 명시야 영상을 얻을 수 있는 제1광원(110, 120)이 복수개로, 예를 들어서 도 2a에서와 같이 2개(도면부호 110, 120)로 구성되는 것이 바람직한데, 그 이유는 제1광원(110, 120)은 LED로 구성되기 때문에, 레이저 광원으로 구성되는 공초점 영상을 구현할 수 있는 제2광원(132)과 달리 그림자 발생을 방지할 필요가 있기 때문이다. 하지만, 본 발명의 명시야 영상을 얻을 수 있는 제1광원이 반드시 복수개 또는 2개의 광원으로 한정되는 것은 아니며 단수의 제1광원으로 구성될 수도 있다.In the present invention, it is preferable that the first light source (110, 120) capable of obtaining a bright-field image is composed of a plurality of first light sources, for example, two (reference numerals 110, 120) as in FIG. 2a. This is because the first light source (110, 120) is composed of an LED, and thus, unlike the second light source (132) capable of implementing a confocal image composed of a laser light source, it is necessary to prevent the occurrence of a shadow. However, the first light source capable of obtaining a bright-field image of the present invention is not necessarily limited to a plurality of or two light sources, and may be composed of a single first light source.
상기 제1광원(110, 120)은 통상적으로 본 기술분야에서의 별도의 광학렌즈(또는 광원렌즈)를 포함하는 개념으로 이해되며, 따라서 상기 제1광원(110, 120)은 광원의 빛을 조사하는 광학렌즈 자체 또는 이를 포함하는 구성으로 이해되어야 한다.The above first light source (110, 120) is generally understood as a concept including a separate optical lens (or light source lens) in the present technical field, and therefore the first light source (110, 120) should be understood as the optical lens itself that irradiates light from the light source or a configuration including the optical lens.
한편, 상기 제2광원(132)도 제1광원(110, 120)과 마찬가지로 본 기술분야에서의 별도의 광학렌즈를 포함하는 개념으로 이해되어야 하고, 추가로 본 명세서에서는 공초점 영상을 구현할 수 있는 제2광원(132)에 있어서 광원의 빛을 조사하는 광학렌즈와 구별하여 시료에 접하는 대물렌즈, 즉 공초점 대물렌즈(131)를 별도로 도2a 및 도 2b에서 도면부호 131로 표시하였으며, 편의상 이 둘을 포함하는 구성을 공초점 윈도우(130)로 표기하였다. 하지만, 일반적으로는 본 기술분야에서 공초점 윈도우(130), 공초점 대물렌즈(131), 공초점 윈도우의 제2광원(132)은 서로 교환 가능한 용어로서 통용되는 바, 본 명세서에서도 이들 용어를 필요에 따라서 혼용하여 사용하였다. Meanwhile, the second light source (132) should also be understood as a concept including a separate optical lens in the present technical field, just like the first light source (110, 120), and additionally, in the present specification, in the second light source (132) capable of implementing a confocal image, the objective lens that contacts the sample, that is, the confocal objective lens (131), is separately indicated as the reference numeral 131 in FIGS. 2A and 2B to distinguish it from the optical lens that irradiates the light of the light source, and for convenience, the configuration including the two is expressed as a confocal window (130). However, in general, in the present technical field, the terms confocal window (130), confocal objective lens (131), and second light source (132) of the confocal window are used interchangeably, and thus, in the present specification, these terms are used interchangeably as necessary.
또한, 도 3에서는 도시되지 않았지만 내시경현미경용 헤드(100)에는 형광 염색 물질을 사용하여 형광 신호를 얻기 위해서 염색 물질을 도포하는 노즐(160)이 도 2a에서와 같이 포함되어 있도록 구성될 수 있다. In addition, although not shown in FIG. 3, the head (100) for an endoscope microscope may be configured to include a nozzle (160) for applying a dyeing substance to obtain a fluorescent signal using the fluorescent dyeing substance, as in FIG. 2a.
엄밀히는 상기 노즐(160)은 상기 내시경현미경용 헤드(100)와는 구별되는 구성요소로서, 상기 내시경현미경용 헤드(100)를 분리가능하게 연결하는 케이블(300)과 함께 내시경 장치를 구성한다고 설명할 수도 있다. 상기 '분리가능하게 연결'이라는 용어는 '광학적 연결'을 포함한다. Strictly speaking, the above nozzle (160) is a component distinct from the above endoscope head (100), and can be described as forming an endoscope device together with a cable (300) that detachably connects the above endoscope head (100). The term 'detachably connected' includes 'optically connected'.
또한, 상기 제1광원(110, 120)에는 광원렌즈가 내시경현미경용 헤드(100) 후방에 배치되어 광학적으로 연결된다. 상기 광원렌즈는 상기 광원(110, 120)으로부터의 빛이 통과하여 시료를 비추도록 하는 것이다.In addition, the first light source (110, 120) is optically connected to a light source lens positioned at the rear of the endoscope microscope head (100). The light source lens allows light from the light source (110, 120) to pass through and illuminate a sample.
또한, 상기 케이블(300)과 상기 내시경현미경 영상 획득 시스템(1000)을 포함한 것을 본 명세서에서는 내시경 장치로 호칭하고, 상기 출력부(180)부가 출력한 합성 영상을 표시할 수 있는 디스플레이(200)를 포함하는 물리적 하드웨어를 내시경 시스템으로 본 명세서 호칭한다(도 6 참조). 앞서와 같이 내시경현미경용 헤드(100)는 상기 내시경현미경 영상 획득 시스템(1000)의 일요소로 이해되어야 한다.In addition, the cable (300) and the endoscopic microscope image acquisition system (1000) included in the present specification are referred to as an endoscopic device, and the physical hardware including a display (200) capable of displaying a composite image output by the output unit (180) is referred to as an endoscopic system in the present specification (see FIG. 6). As described above, the endoscopic microscope head (100) should be understood as an element of the endoscopic microscope image acquisition system (1000).
상기 형광 신호는 공초점 영상의 정확도를 향상시키기 위한 것으로서, 본 발명에 있어서 공초점 영상을 얻기 위하여 형광 신호를 반드시 가해야만 하는 것은 아니고, 즉, 형광 염색 물질을 반드시 사용하여야 하는 것은 아니며, 선택적으로 형광 신호를 더하지 않고 공초점 영상을 얻도록 구성할 수 있으며, 그렇기 때문에 이 경우에는 형광 신호를 얻기 위해서 염색 물질을 도포하는 노즐(160)을 채용하지 않는 것도 가능하다. 이런 점에서 공통의 기본적 요소를 보여주는 본 발명에 따른 내시경현미경 영상 획득 시스템(1000)의 내부 시스템의 예시적 실시예의 구성요소를 보여주는 도식도인 도 3에서는 그러한 노즐(160)을 도시하지 않았다.The above fluorescence signal is intended to improve the accuracy of the confocal image, and in the present invention, it is not necessary to necessarily add a fluorescence signal to obtain a confocal image, that is, it is not necessary to necessarily use a fluorescent dye, and it is possible to obtain a confocal image without optionally adding a fluorescence signal, and therefore, in this case, it is also possible to not employ a nozzle (160) for applying a dye to obtain a fluorescence signal. In this respect, FIG. 3, which is a schematic diagram showing components of an exemplary embodiment of an internal system of an endoscopic microscope image acquisition system (1000) according to the present invention showing common basic elements, does not illustrate such a nozzle (160).
또한, 본 발명의 내시경현미경용 헤드(100)는 상기 광원(110, 120)에 의하여 광원렌즈를 통하여 조사된 광에 의하여 형성된 시편의 명시야 영상을 1차적으로 형성하는 대물렌즈(170)가 포함된다.In addition, the endoscope microscope head (100) of the present invention includes an objective lens (170) that primarily forms a bright field image of a specimen formed by light irradiated through a light source lens by the light source (110, 120).
상기 노즐(160)과 마찬가지로 대물렌즈(170)는 내시경현미경용 헤드(100)의 순수한 하드웨어적 또는 물리적 구성요소로서 내시경현미경 영상 획득 시스템(1000)의 시스템 제어적 구성요소를 설명하는 도 3에서는 별도로 도시하지 않았으며, 반대로 계산부(140), 합성 영상 생성부(150), 출력부(180)는 순수한 시스템 제어적 구성요소로서 도 2에는 별도로 도시하지 않았는 바, 내시경현미경 영상 획득 시스템(1000)의 하드웨어적 및 소프트웨어적 구성의 이해는 도 2와 도 3을 종합적으로 고려하여야 한다.As with the above nozzle (160), the objective lens (170) is a pure hardware or physical component of the endoscopic microscope head (100) and is not separately illustrated in FIG. 3, which describes the system control components of the endoscopic microscope image acquisition system (1000). Conversely, the calculation unit (140), the synthetic image generation unit (150), and the output unit (180) are pure system control components and are not separately illustrated in FIG. 2. Therefore, understanding the hardware and software configuration of the endoscopic microscope image acquisition system (1000) should comprehensively consider FIGS. 2 and 3.
또한, 명시야 영상을 얻음과 동시에 형광 신호를 고해상도 공초점 영상으로 얻기 위해서 공초점 광학 렌즈를 접촉하도록 하는 공초점 대물렌즈 가이드(133)와 렌즈 위치 변경을 위한 구동시스템부(132)를 추가로 포함하도록 구성될 수 있다.In addition, the device may be configured to additionally include a confocal objective lens guide (133) for contacting a confocal optical lens to obtain a high-resolution confocal image of a fluorescence signal while simultaneously obtaining a bright-field image, and a driving system unit (132) for changing the position of the lens.
상기 구동시스템부(132)는 제2광원과 일체화될 수 있는 구성으로서 동일한 도면부호를 부가하였으나, 시스템 구성에 따라서는 제2광원과 구동시스템부를 별도의 구성으로 하는 것도 가능하다.The above driving system unit (132) is configured to be integrated with the second light source and is given the same drawing symbol, but depending on the system configuration, the second light source and the driving system unit may be configured as separate units.
본 발명에 따른 내시경현미경 영상 획득 시스템(1000)의 각 구성요소들은, 상호간에 어느 하나의 구성요소가 다른 하나의 구성요소의 기능과 역할을 포함할 수도 있으나, 반대로 어느 하나의 구성요소의 기능과 역할이 2개 이상의 복수의 구성요소에 의하여 수행되도록 구성될 수도 있다.Each component of the endoscopic microscope image acquisition system (1000) according to the present invention may include the function and role of one component among the other components, but conversely, the function and role of one component may be configured to be performed by two or more components.
도 5, 도 7 등을 참조하여 본 발명에서 수술용 내시경현미경의 영상 획득 시스템을 제어하는 방법을 설명한다. A method for controlling an image acquisition system of a surgical endoscopic microscope in the present invention is described with reference to FIGS. 5 and 7, etc.
본 발명에 따른 내시경현미경의 영상 획득 시스템을 제어하는 방법 또는 내시경현미경을 포함하는 내시경 장치를 제어하는 방법(도 5 참조)은, 제1광원을 통하여 명시야 영상을 획득하는 단계(S210), 제2광원을 통하여 공초점 영상을 획득하는 단계(S220), 상기 공초점 영상을 획득하기 위하여 공초점 윈도우(엄밀히는 공초점 대물렌즈)를 시료에 접촉시키는 단계(S230), 상기 공초점 영상의 상대 위치를 계산하는 단계(S240), 상기 명시야 영상과 상기 공초점 영상을 합성하여 합성 영상을 생성하는 단계(S250), 상기 합성 영상을 출력하는 단계(S260)를 포함한다.A method for controlling an image acquisition system of an endoscopic microscope according to the present invention or a method for controlling an endoscopic device including an endoscopic microscope (see FIG. 5) includes a step of acquiring a bright-field image through a first light source (S210), a step of acquiring a confocal image through a second light source (S220), a step of bringing a confocal window (strictly speaking, a confocal objective lens) into contact with a sample to acquire the confocal image (S230), a step of calculating a relative position of the confocal image (S240), a step of generating a composite image by synthesizing the bright-field image and the confocal image (S250), and a step of outputting the composite image (S260).
도 7의 본 발명에 따른 내시경현미경의 영상 획득 시스템을 제어하는 방법 또는 내시경현미경을 포함하는 내시경 장치를 제어하는 방법은 도 5의 방법을 일부는 축약하여 표현하고 일부는 세분화 내지 별도 제어 조건을 포함하여 나타낸 것인데, 도 7의 방법에서는 생체조직의 세포에 형광 염색 물질을 염색하는 단계(S310)를 추가적으로 포함하는데, 이는 엄밀하는 내시경현미경의 영상 획득 시스템을 제어하는 방법 또는 내시경현미경을 포함하는 내시경 장치를 제어하는 방법이라기 보다는 그러한 영상 획득을 위한 사전 작업의 단계로서 이해될 수 있다.A method for controlling an image acquisition system of an endoscope microscope according to the present invention of FIG. 7 or a method for controlling an endoscopic device including an endoscope microscope is a partial abbreviation of the method of FIG. 5 and a partial abbreviation thereof and includes detailed or separate control conditions. The method of FIG. 7 additionally includes a step (S310) of staining cells of a living tissue with a fluorescent dye. This can be understood as a step of preliminary work for such image acquisition rather than a method for controlling an image acquisition system of an endoscope microscope or a method for controlling an endoscopic device including an endoscope microscope.
또한, 공초점 영상 획득/영상처리(S320)는 도 5에서 제2광원을 통하여 공초점 영상을 획득하는 단계(S220), 상기 공초점 영상을 획득하기 위하여 공초점 윈도우를 시료에 접촉시키는 단계(S230)와 대응되는 것이다. 또한, 명시야 영상 획득 단계(S340)는 도 5에서 제1광원을 통하여 명시야 영상을 획득하는 단계(S210)와 대응될 수 있다.In addition, the confocal image acquisition/image processing (S320) corresponds to the step of acquiring a confocal image through the second light source in Fig. 5 (S220) and the step of bringing the confocal window into contact with the sample to acquire the confocal image (S230). In addition, the brightfield image acquisition step (S340) may correspond to the step of acquiring a brightfield image through the first light source in Fig. 5 (S210).
중요한 것은 도 7의 실시예에서는 기준 명시야 영상과 특징점 매칭에서 기준 점수 통과여부에 따라서(S350) 출력부(180)가 명시야 영상만을 출력할 수도 있고(S370), 합성 영상 생성부(150)가 명시야 영상과 공초점 영상의 합성 영상을 생성한 후(S360) 그러한 합성 영상을 비로서 출력부(180)가 출력하도록 할 수 있다(S380).What is important is that in the embodiment of Fig. 7, depending on whether the reference score is passed in matching the reference bright field image and the feature point (S350), the output unit (180) may output only the bright field image (S370), or the synthetic image generation unit (150) may generate a synthetic image of the bright field image and the confocal image (S360), and then the output unit (180) may output the synthetic image only (S380).
위와 같이 기준 점수를 사용해서 통과 여부를 정하는 목적은 특징점 매칭 알고리즘은 2개의 영상에서 특징이 동일하지 않아도 특징을 추출해서 최대한 비슷한 값들끼리 매칭을 하는 경우가 발생할 수 있는데 이는 정확도(정밀도)를 저하시키므로 이러한 경우를 제한하기 위한 것이다.The purpose of using the criterion score as above to determine whether to pass or fail is to limit cases where the feature matching algorithm extracts features from two images that are not identical and matches values that are as similar as possible, which reduces accuracy (precision).
한편, 명시야 영상은 수술 집도의가 볼 수 있도록 실시간으로 모니터에서 출력된다. 명시야 영상 field of view안에서 형광으로 염색된 조직 구성 정보를 얻기 위해서 형광 염색 물질 노즐에서 염색 물질이 조직에 도포된다. 공초점 영상은 신체 조직의 세부 영상으로서 이를 위하여 신체 조직에 접촉해서 영상을 획득해야 하기 때문에 도 2b에서와 같이 공초점 윈도우(130)가 고정된 각도 안에서 전면으로 돌출되도록 이동하면서 조직에 접촉한다. Meanwhile, the bright field image is output on the monitor in real time so that the surgeon can view it. In order to obtain the tissue composition information dyed with fluorescent dye in the field of view of the bright field image, a dye is applied to the tissue from a fluorescent dye nozzle. The confocal image is a detailed image of the body tissue, and to obtain the image, the confocal window (130) moves to protrude forward within a fixed angle and contacts the tissue, as shown in Fig. 2b.
본 발명에서 상기 공초점 윈도우(130)가 고정된 각도 안에서 전면으로 돌출되도록 이동하면서 조직에 접촉하는 이유는 접촉을 해야 높은 NA(numerical aperture)로 고해상도 영상을 얻을 수 있기 때문이고, 고정된 각도로 움직이는 이유는 명시야 영상과 공초점 영상을 결합할 때 좌표계 변환을 위함이다. 즉, 각도가 임의로 변경되면 좌표계를 예상할 수 없기 때문이다. 이때, 고정된 각도라는 것은 공초점 대물렌즈(131)가 상하방향, 즉 도 2b를 바라보는 방향에서 좌우 방향으로는 이동하고, 좌우방향, 즉 도 2b를 바라보는 방향에서 상하방향으로는 움직일 수 없다는 것을 의미한다. 도 2b에서 윗 도면은 공초점 대물렌즈(131)가 돌출된 것을, 즉, 시료에 가깝에 접근할 때의 모습을, 아래 도면은 공초점 대물렌즈(131)가 후퇴한 것을, 즉 시료에서 멀어질 때의 모습을 보여준다.In the present invention, the reason why the confocal window (130) moves so as to protrude forward within a fixed angle and contacts the tissue is because a high-resolution image with a high numerical aperture (NA) can be obtained only when contact is made, and the reason why it moves at a fixed angle is to transform the coordinate system when combining a bright-field image and a confocal image. That is, if the angle is arbitrarily changed, the coordinate system cannot be predicted. At this time, the fixed angle means that the confocal objective lens (131) moves left and right in the up-and-down direction, that is, the direction looking at FIG. 2b, and cannot move up and down in the left and right direction, that is, the direction looking at FIG. 2b. The upper drawing in FIG. 2b shows the appearance when the confocal objective lens (131) protrudes, that is, approaches closely to the sample, and the lower drawing shows the appearance when the confocal objective lens (131) recedes, that is, moves away from the sample.
상기 공초점 대물렌즈(131)는 조직의 미세(세포) 영상을 얻기 위한 대물렌즈로서, 명시야 영상을 얻기 위한 대물렌즈(170)와 구별된다.The above confocal objective lens (131) is an objective lens for obtaining microscopic (cellular) images of tissues, and is distinguished from an objective lens (170) for obtaining bright-field images.
한편, 신체 조직에 접촉되면 공초점 영상은 한 위치(일정 Field of view)에서 1초 이내에 촬영을 끝내고 이와 동시에 공초점 윈도우(130)는 도 2b에의 아래 도면에서와 같이 초기 위치인 후면으로 이동한다. 공초점 영상이 획득된 좌표를 명시야 영상 좌표에서 계산해서 명시야 영상 위에 공초점 영상의 투명도를 조절해서 겹쳐서 보여주는데, 이를 위하여 도 4에 도시된 바와 같이 합성 영상 제어부(1510)가 내시경현미경용 헤드(100)의 합성 영상 생성부(150)에 포함될 수 있다. Meanwhile, when in contact with body tissue, the confocal image finishes capturing within 1 second at one position (a certain field of view), and at the same time, the confocal window (130) moves to the rear, which is the initial position, as shown in the lower drawing of FIG. 2B. The coordinates at which the confocal image is acquired are calculated from the coordinates of the bright-field image, and the transparency of the confocal image is adjusted and superimposed on the bright-field image to show it. To this end, as illustrated in FIG. 4, a synthetic image control unit (1510) may be included in the synthetic image generation unit (150) of the endoscopic microscope head (100).
상기 공초점 영상의 투명도는 명시야 영상을 통해 조직 구조와 위치를 판단할 수 있는 상태까지 공초점 영상의 투명도를 조절하도록 구성될 수 있다. 공초점 영상은 원본 영상이 아닌 이미지 처리와 딥러닝 연산을 거쳐서 확률맵을 히트맵 형태로 표현한 영상으로 구성될 수 있다. 즉, 각 위치에서 암 조직일 확률을 표현한 확률맵을 히트맵 형태로 표현하는 것이다.The transparency of the above confocal image can be configured to adjust the transparency of the confocal image to a state where the tissue structure and location can be determined through the bright field image. The confocal image can be configured as an image that expresses a probability map in the form of a heat map through image processing and deep learning operations rather than the original image. In other words, the probability map expressing the probability of cancer tissue at each location is expressed in the form of a heat map.
수술 집도의에 의해서 내시경현미경용 헤드(100)가 흔들리고 좌우, 앞뒤로 위치가 변함에 따라서 공초점 영상을 찍었던 순간의 위치에서 변화가 발생한다. 이 때 합성 영상 생성부(150)의 합성 영상 갱신부(1520)가 공초점 영상을 찍었던 순간의 초기 위치에서 x, y 방향의 이동과 z축의 거리 이동을 계산해서 변경된 명시야 영상에 주기적으로 업데이트해서 겹친 영상을 보여줄 수 있다. 추가로 획득되는 공초점 영상도 동일한 방법으로 명시야 영상과 겹쳐서 보여주도록 구성될 수 있다. 또한, 초기 공초점 영상을 획득한 시점의 위치를 현재 명시야 영상에서 찾을 수 없는 경우에는 위치 벗어남을 모니터에 출력하고 겹쳐진 공초점 영상은 제거하고 명시야 영상만 모니터에 출력할 수 있도록 구성될 수 있다.As the endoscope head (100) is shaken and changes position left and right and front and back by the surgical surgeon, a change occurs in the position at the time the confocal image was taken. At this time, the synthetic image update unit (1520) of the synthetic image generation unit (150) calculates the movement in the x and y directions and the distance movement in the z axis from the initial position at the time the confocal image was taken, and periodically updates the changed bright-field image to show an overlapping image. Additionally, the acquired confocal image can be configured to be shown overlapping with the bright-field image in the same way. In addition, if the position at the time when the initial confocal image was acquired cannot be found in the current bright-field image, a position deviation can be output to the monitor, the overlapping confocal image can be removed, and only the bright-field image can be output to the monitor.
한편, 상기 겹쳐진 공초점 영상이 의미하는 것은, 어느 시점에서 공초점 영상과 명시야 영상이 합성되어 보여졌는데, 이후 그 공초점 영상이 화면에서 찾을 수 없는 위치로 이동된 경우 그 합성 영상 상에서의 명시야 영상과 합성한 공초점 영상을 의미한다. Meanwhile, the above-mentioned overlapping confocal image means that at some point, a confocal image and a brightfield image were synthesized and displayed, and then, when the confocal image was moved to a position where it cannot be found on the screen, it means a confocal image synthesized with the brightfield image on the synthesized image.
본 명세서에서는 명시야 영상에 "공초점 영상"이 합성되는 것을 기준으로 설명을 하였으나, 이는 예시적 기재에 불과하고 시편의 영상을 획득할 수 있다면 일체의 레이저 광원 기반의 현미경 영상을 포괄적으로 포함하는 것으로 이해되어야 한다.Although this specification has been described based on the synthesis of a “confocal image” into a bright-field image, this is only an exemplary description and should be understood to comprehensively include any laser light source-based microscopic image as long as it can obtain an image of the specimen.
한편, 공초점 영상을 찍었던 순간의 초기 위치에서 x, y 방향의 이동과 z축의 거리 이동을 계산할 때, 그 거리 이동 계산 방법은, 공초점 영상을 찍었던 순간에 조직의 조직 구조 정보가 담긴 명시야 영상을 같이 획득해서 기준 이미지로 가지고 있는다. 이동한 위치에서 다시 명시야 영상을 획득해서 기준 이미지와 최근 이동한 위치에서 획득한 이미지의 특징점을 추출하고 특징점 매칭 알고리즘을 사용하여 x, y 방향의 이동과 z축의 거리 이동을 계산한다.Meanwhile, when calculating the movement in the x, y directions and the distance movement in the z-axis from the initial position at the moment the confocal image was taken, the method for calculating the distance movement is to acquire a bright-field image containing the tissue structure information at the moment the confocal image was taken as a reference image. Acquire a bright-field image again at the moved position, extract feature points of the reference image and the image acquired at the most recently moved position, and calculate the movement in the x, y directions and the distance movement in the z-axis using a feature point matching algorithm.
위의 계산 후, 공초점 영상을 명시야 영상에 주기적으로 업데이트를 할 때, 그 구체적인 주기와 업데이트 하는 방법에 대해서 살펴보면, 명시야 영상을 위해 사용하는 카메라의 가장 느린 프레임 속도를 10 frame/s라고 기준으로 정했을 때, 실제 사용자에게 보여주는 명시야 영상의 프레임 속도를 5 frame/s로 낮추고 영상을 통한 특징점 매칭 알고리즘 계산 속도를 고려하여 5 frame/s 이상으로 업데이트한다. 업데이트 방법은 화면에 합성한 이미지를 가장 최근에 합성한 이미지로 대체하여 보여준다.After the above calculation, let's look at the specific cycle and updating method when periodically updating the confocal image to the brightfield image. When the slowest frame speed of the camera used for the brightfield image is set as 10 frames/s, the frame speed of the brightfield image actually shown to the user is lowered to 5 frames/s, and the update is made to 5 frames/s or more considering the calculation speed of the feature matching algorithm through the image. The update method is to replace the image synthesized on the screen with the most recently synthesized image and display it.
본 발명에서, 위와 같이 프레임 속도를 늦춰서(10 → 5 frames/s) 업데이트 하는 이유는 카메라의 영상 속도가 10 frame/s는 되야지 사람이 인지하기에 어색하지 않은 속도인데, 그에 절반에 해당하는 속도를 업데이트하는 속도의 기준으로 정한 것은, 영상이 획득되는 시간에 영상 처리하는 시간을 더하면 10 frame/s 보다는 느릴 수 밖에 없기 때문이다.In the present invention, the reason for slowing down the frame rate (10 → 5 frames/s) and updating as described above is that the camera's video speed needs to be 10 frames/s to be a speed that is not awkward for humans to perceive, and the reason why the speed corresponding to half of that was set as the standard for the update speed is that if the video processing time is added to the video acquisition time, it cannot but be slower than 10 frames/s.
즉, 카메라에서 영상이 얻어지는 속도는 1장에 0.1초(10frame/s)라고 할 때, 영상을 얻고 영상 처리(좌표 변환, 합성)를 하는데 대략 0.1초 정도 시간이 추가로 걸린다고 하면 실제로 디스플레이 화면에 업데이트하는데까지는 0.1초+0.1초 = 0.2초(5frame/s)로 느려지게 된다. In other words, if the speed at which images are acquired from the camera is 0.1 seconds per frame (10 frames/s), and it takes about 0.1 seconds more to acquire the image and perform image processing (coordinate conversion, composition), the actual time it takes to update on the display screen will be 0.1 seconds + 0.1 seconds = 0.2 seconds (5 frames/s), which is slower.
카메라의 가장 느린 속도를 기준으로 잡았기 때문에 10 frame/s로 위에서는 계산했지만 그 이상으로도 획득도 물론 가능하다. 예를 들면 20 frame/s로도 사용은 할 수 있다. 하지만 20 frame/s의 경우, 영상획득에 0.05초 걸리고 영상 처리 하는데 0.1초가 걸린다면 앞에서 획득한 영상들이 점점 시간에 밀려서 쌓이는 문제가 생긴다.Since it is based on the slowest speed of the camera, it was calculated as 10 frames/s above, but of course it is possible to acquire more than that. For example, it can be used at 20 frames/s. However, in the case of 20 frames/s, if it takes 0.05 seconds to acquire the image and 0.1 seconds to process the image, there will be a problem that the previously acquired images will pile up due to time delay.
한편, 상기 카메라는 명시야 영상을 획득하기 위한 것으로서 대물렌즈(170)와는 별도의 구성요소로 포함될 수 있다. 대물렌즈(170)를 통해 얻어진 상을 상기 카메라를 통해 디지털 신호로 전환해서 계산부(140)나 생성부(150)를 포함하는 PC 등의 장치에서 분석, 후 처리를 할 수 있다.Meanwhile, the camera is intended to obtain a bright field image and may be included as a separate component from the objective lens (170). The image obtained through the objective lens (170) may be converted into a digital signal through the camera and analyzed and post-processed in a device such as a PC including a calculation unit (140) or a generation unit (150).
또한, 상기 특징점 매칭 알고리즘을 사용하는 목적은 다른 시점에 다른 위치에서 얻어진 2개의 명시야 영상에서 동일한 조직의 구조를 각각의 영상에서 찾아내기 위해 영상적으로 특이성이 있는 위치를 추출하기 위한 것이며, 이를 통해 앞의 시점에서 얻어진 명시야 영상에서 다음 명시야 영상으로 x,y,z축 방향이 얼마나 변화가 생겼는지 알 수 있도록 하기 위한 것인데, 상기 특징점 매칭 알고리즘은 일반적으로 영상의 밝기 변화의 기울기를 통해 특징점을 추출하고 매칭하는 알고리즘으로 구성될 수 있다.In addition, the purpose of using the above-described feature point matching algorithm is to extract locations that are image-specific in order to find the same tissue structure in each image from two bright field images obtained at different locations at different times, thereby allowing one to know how much the x, y, and z-axis directions have changed from the bright field image obtained at the previous time to the next bright field image. The above-described feature point matching algorithm can generally be configured as an algorithm that extracts and matches feature points through the slope of the brightness change of the image.
본 발명에서는, 실시간으로 좌표계를 보상하면서 영상을 업데이트하는 알고리즘을 채용하는 것을 일 특징으로 하는데, 본 발명의 알고리즘은 아래에서 설명된 좌표계 변환 공식을 통해 좌표계를 변환하고 영상을 합성하는 합성 공식을 통해 영상을 합성하여 사용자가 볼 수 있도록 화면에 보여주는 것으로서 실시간 좌표계 보상을 하면서 영상을 업데이트하는 알고리즘이다.The present invention is characterized by employing an algorithm for updating an image while compensating for a coordinate system in real time. The algorithm of the present invention is an algorithm for updating an image while compensating for a coordinate system in real time by transforming a coordinate system through a coordinate system transformation formula described below, synthesizing an image through a synthesis formula for synthesizing an image, and displaying it on a screen so that a user can view it.
본 발명에서는, 좌표계로 맞춘 2개의 영상을 합성하기 위해 픽셀 단위로 2개의 이미지 값을 더하고 더할 때 하기 식 1에서와 같이 가중치(α값)를 고려하여 계산하도록 구성될 수 있다.In the present invention, in order to synthesize two images aligned in a coordinate system, two image values are added in pixel units, and when adding, a weight (α value) can be considered and calculated as in Equation 1 below.
식 1: 합성 결과 픽셀 값 g(x, y) 계산식Equation 1: Calculation formula for the composite result pixel value g(x, y)
여기서,Here,
x, y: 이미지에서 각 픽셀의 위치 값x, y: location values of each pixel in the image
g(x,y): 합성된 영상의 각 픽셀의 값g(x,y): value of each pixel in the synthesized image
fo(x,y): 명시야 영상의 각 픽셀의 값 f o (x,y): value of each pixel in the bright field image
f1(x,y): 공초점 영상의 각 픽셀의 값f 1 (x,y): value of each pixel in the confocal image
α: 가중치α: weight
α값은 2개의 영상을 합성한 후에도 명시야 영상에서 조직의 구조가 확인이 가능하며 암 조직 유무의 확률 히트맵 표현이 가능하도록 선택된다. 상기 α값을 사용하여 명시야 영상과 공초점 영상의 값의 비율을 조절하여 2개 영상의 픽셀 값을 조절하고 조절된 2개의 값을 합해서 영상을 만들 수 있으며, 그 개념적 예를 도식화하면 아래와 같다.The α value is selected so that the structure of the tissue can be confirmed in the brightfield image even after synthesizing the two images, and so that a probability heat map of the presence or absence of cancer tissue can be expressed. Using the α value, the ratio of the values of the brightfield image and the confocal image can be adjusted, and the pixel values of the two images can be adjusted, and the two adjusted values can be combined to create an image. A conceptual example of this is diagrammed as follows.
[그림 1: 합성 결과 픽셀 값 g(x, y) 계산식에 따른 명시야 영상과 공초점 영상의 합성 개념][Figure 1: Concept of synthesizing bright-field and confocal images according to the calculation formula for the pixel value g(x, y) of the synthesizing result]
또한, 본 발명에서는, 공초점 영상이 획득된 좌표를 명시야 영상 좌표에서 계산할 때, 공초점 영상에서 명시야 영상 사이의 scaling 값(즉, 명시야 영상과 공초점 영상의 배율(확대 혹은 축소) 값), rotation 각도, 이동 거리(x, y) 값을 알고 있을 때, 하기 식 2를 통해 공초점 영상의 각 픽셀마다 2d transformation 변환을 계산하여 명시야 영상 좌표계에서의 공초점 영상을 획득하도록 구성될 수 있다.In addition, in the present invention, when calculating the coordinates at which a confocal image is acquired in the bright-field image coordinates, when the scaling value between the bright-field image and the confocal image (i.e., the magnification (enlargement or reduction) value of the bright-field image and the confocal image), the rotation angle, and the movement distance (x, y) value are known, a confocal image in the bright-field image coordinate system can be obtained by calculating a 2D transformation for each pixel of the confocal image through Equation 2 below.
식 2:Equation 2:
여기서, Here,
x0: 2d transformation 하기 전에 공초점 영상 좌표계에서의 x 방향 픽셀 위치 값 x 0 : x-direction pixel position value in the confocal image coordinate system before 2D transformation
y0: 2d transformation 하기 전에 공초점 영상 좌표계에서의 y 방향 픽셀 위치 값 y 0 : y-direction pixel position value in the confocal image coordinate system before 2D transformation
x1: 2d transformation 이후에 명시야 영상 좌표계에서의 x 방향 픽셀 위치 값 x 1 : x-direction pixel position value in the bright-field image coordinate system after 2D transformation
y1: 2d transformation 이후에 명시야 영상 좌표계에서의 y 방향 픽셀 위치 값y 1 : y direction pixel position value in the bright field image coordinate system after 2d transformation
Sx: x축 방향으로의 scaling 값 Sx: scaling value in the x-axis direction
Sy: y축 방향으로의 scaling 값 Sy: scaling value in the y-axis direction
θ: rotation 각도 θ: rotation angle
tx: x축 방향으로의 이동 거리 tx: distance moved in the x-axis direction
ty: y축 방향으로의 이동 거리ty: distance moved in the y-axis direction
상기 rotation 각도는 명시야 영상에 대한 공초점 영상의 회전 각도를 의미하는데, 공초점 윈도우(130)를 사용해 대물렌즈(170)가 공초점 대물렌즈 가이드(133)에 따라 움직이며 회전 각도가 발생할 수 있다.The above rotation angle refers to the rotation angle of the confocal image with respect to the bright field image, and the rotation angle can be generated by moving the objective lens (170) along the confocal objective lens guide (133) using the confocal window (130).
상기 식 2와 관련하여, 보다 구체적으로, 공초점 영상의 좌표 값 위치를 명시야 영상 좌표계에 해당하는 위치로 변환하기 위해서 좌표 값 x0, y0을 위에서 설명한 각 변수들을 대입해서 좌표 값 x1, y1를 계산하고, 그리고 x0, y0 좌표에 해당하는 공초점 영상의 픽셀 값을 x1, y1 위치에 대입하여 영상의 좌표계 변환을 수행한다.With respect to the above equation 2, more specifically, in order to transform the coordinate value position of the confocal image into the position corresponding to the bright-field image coordinate system, the coordinate values x 0 , y 0 are substituted into each variable described above to calculate the coordinate values x 1 , y 1 , and then the pixel value of the confocal image corresponding to the coordinates x 0 , y 0 is substituted into the position x 1 , y 1 to perform the coordinate system transformation of the image.
한편, 생물학 연구에서 많이 활용되고 있는 형광 물질을 이용한 염색, 형광 영상 및 측정 방법은 생체조직의 병변을 검경하는 방법의 핵심기술이며, 생물의 생체기관 중 특정 관심부위만을 형광 발현시켜 진단검사에 유용하게 사용되고 있다.Meanwhile, staining, fluorescence imaging, and measurement methods using fluorescent materials, which are widely used in biological research, are core technologies for examining lesions in biological tissues, and are useful for diagnostic testing by causing only specific areas of interest among biological organs to express fluorescence.
현재 인체 대상 형광 염색물질로는 ICG와 fluorescein만이 혈관 염색에 사용되고 있으며, 체내의 안정성이 확보된 항생제와 같은 생체 조직 염색 물질을 활용한 형광파장을 활용한 시도가 있다. 하지만, 상기의 기술은 발현하는 여기광이 자외선 영역을 활용한 형광 특성을 나타내어 인체 내 세포 등에서 질병의 원인균을 판단하는 데에는 활용되지 못하고 있다. Currently, only ICG and fluorescein are used as human target fluorescent dyes for blood vessel staining, and there are attempts to utilize fluorescent wavelengths using biological tissue staining materials such as antibiotics that have secured stability in the body. However, the above technology cannot be used to determine the cause of disease in cells in the human body, etc., because the excited light exhibits fluorescent characteristics using the ultraviolet range.
암은 전세계적으로 사망률 1위를 차지하고 있으며, 암의 표준치료법은 수술, 화학요법, 방사선치료법으로 알려져 있다. 이중 수술적요법이 암환자의 생존율을 높이는데 크게 기여하고 있어서 의료계에서는 가장 선호하는 기술로 보고되어진다. 의료행위를 수행하는 중 암의 병소 절제하는 방법은 숙련된 기술이 있음에도 불구하고 병리진단실의 조직학적 분석이 필수적이다. 이때, 사용되는 염색방법은 육안관찰이 가능한 헤마토신-에오신 염색법등이 포함되지만, 아직까지 형광검출법을 활용한 방법은 임상적용이 어려운 상태이다. 이러한 이유는 병변검색에 형광염색 및 발광시약의 적용이 어렵고, 진단방법의 표준화가 어렵기 때문이다. 따라서 본 연구자들은 단광자 및 다광자를 활용하여 생검조직에서 신속하게 암조직의 존재 유무를 판단하는 기술을 개발하여 이와 같은 문제를 개선한 것이다. Cancer ranks first in mortality worldwide, and the standard treatments for cancer are known to be surgery, chemotherapy, and radiotherapy. Among them, surgical treatment greatly contributes to increasing the survival rate of cancer patients, and is reported to be the most preferred technique in the medical field. The method of removing cancer lesions during medical treatment requires histological analysis in a pathology laboratory, even though skilled techniques are required. At this time, staining methods used include hematocin-eosin staining methods that allow visual observation, but methods using fluorescence detection methods are still difficult to apply clinically. This is because it is difficult to apply fluorescence staining and luminescent reagents to lesion search, and it is difficult to standardize diagnostic methods. Therefore, the researchers developed a technology to quickly determine the presence or absence of cancer tissue in biopsy tissue using single-photon and multi-photon to improve this problem.
통상적으로, 본 발명에 따른 내시경현미경에 있어서 염색 물질이 조직에 도포 후, 영상을 찍기까지 기다려하는 시간은 인체 조직에 따라 다르지만, 1분에서 5분 사이이다.Typically, in the endoscopic microscope according to the present invention, the waiting time from when the dye is applied to the tissue until an image is taken varies depending on the human tissue, but is between 1 and 5 minutes.
본 발명의 내시경현미경에 대한 기술은 핸드헬드 타입의 수술현미경이나 핸드헬드 타입의 외과용 프로드(Hand-held surgical probe)에도 적용될 수 있다.The technology of the endoscopic microscope of the present invention can also be applied to a hand-held type surgical microscope or a hand-held surgical probe.
또한, 단순한 검진 목적의 내시경이 아니라 조직 절제 등을 위한 수술현미경 기술은 종국에는 인체의 조직 내로 침투하는 것이 필요하므로 본 발명의 내시경현미경의 범주에 포함되는 것으로 이해되어야 타당하다.In addition, it is reasonable to understand that surgical microscope technology for tissue resection, etc., rather than simply an endoscope for examination purposes, is included in the category of the endoscopic microscope of the present invention because it ultimately requires penetration into the tissue of the human body.
또한, 본 발명에 따르면 명시야 영상과 공초점 영상은 디스플레이 모드를 나눠서 항상 합성해서 하나의 상으로 나타내는 모드와 2개로 디스플레이 화면을 분리해서 명시야 영상과 공초점 영상을 각각 표시하는 모드가 존재하고 사용자의 선호도에 따라 중간에 모드를 바꿔가면서 사용 가능하도록 구성될 수 있다.In addition, according to the present invention, there is a mode in which the bright field image and the confocal image are always synthesized and displayed as a single image by dividing the display mode, and a mode in which the display screen is divided into two and the bright field image and the confocal image are displayed respectively, and the mode can be configured to be switched in the middle according to the user's preference.
또한, 본 발명은 종래 기술에서 명시야 영상과 형광 영상이 1개의 광학 렌즈를 통해 광원과 필터를 다르게 하면서 같은 좌표계 상의 2개의 영상을 얻어서 합성 영상을 구하는 것과 달리, 2개의 다른 광학 렌즈에서 얻은 2개의 영상을 합성할 수 있다.In addition, unlike the conventional technology in which a brightfield image and a fluorescence image are obtained as two images on the same coordinate system through one optical lens with different light sources and filters to obtain a composite image, the present invention can synthesize two images obtained from two different optical lenses.
본 발명에서는, 암시야 영상은 고해상도 영상으로 한 번에 볼 수 있는 영역이 2mm 이내로 매우 적은 영역이어서 암시야 영상만 보면서는 전체적인 영역에서 지금 보고 있는 위치를 파악하기가 어려워 수술 도구를 통한 조직 절제가 어려워서 전체적인 영역을 명시야 영상으로 보면서 조직 절제를 하도록 구성할 수 있어서, 수술편의성과 정확성이 크게 향상될 수 있다.In the present invention, since the dark-field image is a high-resolution image and the area that can be viewed at one time is a very small area of less than 2 mm, it is difficult to determine the current location in the entire area by looking only at the dark-field image, making it difficult to resect tissue using a surgical tool. Therefore, it is possible to resect tissue while looking at the entire area with a bright-field image, so that surgical convenience and accuracy can be greatly improved.
마지막으로 본 발명의 내시경현미경의 작동 과정을 설명하면, 내시경현미경의 전원이 켜지면서 LED광원인 제1광원(110,120)에서 백색광이 조사되고 광학 렌즈인 대물렌즈(170)를 통해 획득된 조직의 구조 정보가 카메라를 통해서 10 frame/s 로 또는 그 이상으로 영상 정보로 획득된다. 이 영상 정보를 확인하면서 암 조직 주변으로 내시경현미경의 위치를 조절하고 암 조직 주변에서 노즐(160)에 연결된 트리거 장치를 통해 트리거를 하면 상기 노즐(160)을 통해 미량의 형광 염색 물질 또는 조직 염색 물질이 조직에 도포된다. 조직에 (형광) 염색 물질이 흡수된 후에(1~2분) 공초점 영상을 얻기 위해 공초점 대물렌즈(131)가 조직에 접촉할 수 있도록 공초점 대물렌즈(131)를 제어부를 통해서 돌출시킨다. 공초점 대물렌즈(131)가 조직에 접촉됨을 명시야 영상으로 확인하면 제어부를 통해서 공초점 영상 획득을 시작시킨다. 내시경현미경의 위치를 바꾸면서 의심되는 부위에 앞에서 설명된 방법을 반복하여 암 조직 여부를 판단한다.Finally, the operation process of the endoscope microscope of the present invention will be explained. When the endoscope microscope is turned on, white light is irradiated from the first light source (110, 120), which is an LED light source, and the structural information of the tissue acquired through the objective lens (170), which is an optical lens, is acquired as image information at 10 frames/s or more through the camera. While confirming this image information, the position of the endoscope microscope is adjusted around the cancer tissue, and when a trigger device connected to the nozzle (160) is triggered around the cancer tissue, a small amount of fluorescent dye or tissue dye is applied to the tissue through the nozzle (160). After the (fluorescent) dye is absorbed into the tissue (1 to 2 minutes), the confocal objective lens (131) is protruded through the control unit so that it can come into contact with the tissue to obtain a confocal image. When it is confirmed through a bright-field image that the confocal objective lens (131) is in contact with the tissue, the acquisition of the confocal image is started through the control unit. By changing the position of the endoscopic microscope and repeating the method described above on the suspicious area, the presence or absence of cancerous tissue is determined.
본 발명에서 사용하는 '내시경현미경'이라는 용어는 내시현미경, 현미내시경, 현미경내시경 등으로 사용되기도 하며, 통상적으로 내시경현미경은 내시경에 현미경이 결합되어 내시경이 탐사하는 조직의 모습을 확대하여 관찰 내지 촬영할 수 있는 것으로 이해될 수 있다.The term 'endoscopic microscope' used in the present invention is also used as an endoscopic microscope, a microendoscopic microscope, a microscope endoscope, etc., and can be generally understood as an endoscope with a microscope attached to it that can observe or photograph the appearance of a tissue being explored by the endoscope in an enlarged manner.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명하였지만, 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. Although the embodiments of the present invention have been described in detail with reference to the attached drawings, it will be understood by those skilled in the art that the present invention may be implemented in other specific forms without changing the technical idea or essential features thereof. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.
또한, 첨부한 도면은 본 발명의 기술적 사상을 설명하기 위하여, 스케일에 따라 도시하지 않고, 부분적으로 확대 및 축소하여 도시되었다.In addition, the attached drawings are not drawn to scale, but are partially enlarged and reduced to illustrate the technical idea of the present invention.
또한 이상 설명한 본 발명의 시스템이나 방법이나 장치의 구성 요소와 단계들을 선택적으로 결합한 실시예 역시 본 발명의 권리범위에 속한다는 것은 당연하다.It is also obvious that embodiments that selectively combine components and steps of the system, method, or device of the present invention described above also fall within the scope of the present invention.
100: 내시경 헤드
110, 120: 제1광원
130: 공초점 윈도우/ 현미경 윈도우
131: 공초점 대물렌즈/ 현미경 대물렌즈
132: 제2광원
133: 공초점 대물렌즈 가이드/ 현미경 대물렌즈 가이드
140: 계산부
150: 합성 영상 생성부
160: 노즐
170: 대물렌즈
180: 출력부
1000: 내시경현미경 영상 획득 시스템100: Endoscope head
110, 120: First light source
130: Confocal window/microscope window
131: Confocal objective/microscope objective
132: Second light source
133: Confocal Objective Guide/ Microscope Objective Guide
140: Calculator
150: Synthetic image generation unit
160: Nozzle
170: Objective lens
180: Output section
1000: Endoscopic Microscope Image Acquisition System
Claims (14)
제2광원을 통하여 현미경 영상을 획득하는 단계,
상기 현미경 영상을 획득하기 위하여 현미경 윈도우를 시료에 접촉시키는 단계,
상기 현미경 영상의 상대 위치를 계산하는 단계,
상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계 및,
상기 합성 영상을 출력하는 단계를 포함하며,
상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계는 상기 현미경 영상과 상기 명시야 영상의 합성 영상을 생성하는데 있어서, 2개의 영상(즉, 상기 현미경 영상과 상기 명시야 영상)을 합성한 후에도 상기 명시야 영상에서 조직의 구조가 확인이 가능하도록 상기 현미경 영상의 픽셀값에 가중치(α)를 반영하고, 상기 명시야 영상의 픽셀값에는 (1-α)를 반영하도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법.Step of obtaining a bright field image through the first light source;
Step of obtaining a microscope image through a second light source;
A step of bringing the microscope window into contact with the sample to obtain the above microscope image,
A step of calculating the relative position of the above microscope images,
A step of generating a composite image by synthesizing the above bright field image and the above microscope image, and
A step of outputting the above composite image is included,
A method for controlling an endoscopic device including an endoscopic microscope, characterized in that the step of generating a composite image by synthesizing the above-described bright-field image and the above-described microscope image is configured to reflect a weight (α) to the pixel values of the above-described microscope image so that the structure of the tissue can still be confirmed in the above-described bright-field image even after synthesizing the two images (i.e., the above-described microscope image and the above-described bright-field image), and to reflect (1-α) to the pixel values of the above-described bright-field image.
상기 현미경 영상을 획득하기 위하여 현미경 윈도우를 시료에 접촉시키는 단계는,
상기 현미경 윈도우가 상기 시료에 접촉되어 영상을 획득하고 이후 제 위치로 후퇴하는 단계를 포함하는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법.In the first paragraph,
The step of bringing the microscope window into contact with the sample to obtain the above microscope image is:
A control method for an endoscopic device including an endoscopic microscope, characterized in that it includes a step of the microscope window contacting the sample to acquire an image and then retracting into position.
상기 현미경 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산하는 단계를 추가적으로 포함하고,
이 때, 상기 합성 영상을 출력하는 단계에서는, 상기 계산된 현미경 영상의 좌표를 이용하여 상기 명시야 영상 위에 상기 현미경 영상의 투명도를 조절해서 상기 현미경 영상을 상기 명시야 영상에 겹쳐서 출력하는 것을 특징으로 내시경현미경을 포함하는 내시경 장치의 제어방법.In the first paragraph,
Additionally comprising a step of calculating the coordinates at which the above microscope image is acquired from the coordinates of the bright field image,
At this time, in the step of outputting the composite image, the control method of an endoscopic device including an endoscopic microscope is characterized in that the coordinates of the calculated microscope image are used to adjust the transparency of the microscope image on the bright field image and the microscope image is output by overlapping it on the bright field image.
상기 현미경 영상이 획득된 시점의 초기 위치에서 x축, y축, z축의 거리 이동을 계산하는 단계 단계를 추가적으로 포함하고,
이 때, 상기 합성 영상을 출력하는 단계에서는, 상기 거리 이동의 계산값을 변경된 명시야 영상에 주기적으로 업데이트해서 합성된 영상을 생성하는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법.In the first paragraph,
It additionally includes a step of calculating the distance movement along the x-axis, y-axis, and z-axis from the initial position at the time when the above microscope image was acquired,
At this time, in the step of outputting the synthesized image, a control method for an endoscopic device including an endoscopic microscope is characterized in that the calculated value of the distance movement is periodically updated to the changed bright field image to generate a synthesized image.
상기 합성 영상을 출력하는 단계에서는, 상기 현미경 영상을 획득한 제1 시점의 위치를 그 이후의 제2 시점의 명시야 영상에서 찾을 수 없는 경우에는 상기 현미경 영상이 상기 명시야 영상으로부터 위치 벗어남을 별도로 출력하고 겹쳐진 현미경 영상은 제거하고 명시야 영상만 출력하도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법.In the first paragraph,
A control method for an endoscopic device including an endoscopic microscope, characterized in that in the step of outputting the above-mentioned composite image, if the location of the first time point at which the above-mentioned microscope image was acquired cannot be found in the bright-field image of the second time point thereafter, the microscope image is separately output as being out of position from the bright-field image, the overlapping microscope images are removed, and only the bright-field image is output.
상기 현미경 윈도우는 고정된 각도 안에서 전면으로 돌출되도록 이동하면서 조직에 접촉하도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법. In the first paragraph,
A control method for an endoscopic device including an endoscopic microscope, wherein the microscope window is configured to contact a tissue while moving so as to protrude forward within a fixed angle.
상기 현미경 영상의 투명도는 상기 명시야 영상을 통해 조직 구조와 위치를 판단할 수 있는 상태까지 조절되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법. In the third paragraph,
A control method for an endoscopic device including an endoscopic microscope, characterized in that the transparency of the above-mentioned microscopic image is adjusted to a state where the tissue structure and location can be judged through the above-mentioned bright-field image.
상기 현미경 영상이 획득된 시점의 초기 위치에서 x축, y축, z축의 거리 이동을 계산하기 위하여, 상기 현미경 영상을 찍었던 순간에 조직의 조직 구조 정보가 담긴 명시야 영상을 같이 획득해서 기준 이미지로 저장하고, 이후 이동한 위치에서 다시 새로운 명시야 영상을 획득해서 상기 기준 이미지와 상기 이동한 위치에서 획득한 이미지의 특징점을 추출하여 x, y 방향의 이동과 z축의 거리 이동을 계산하도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법. In paragraph 4,
A control method for an endoscopic device including an endoscopic microscope, characterized in that the method comprises: acquiring a bright field image containing information on the tissue structure at the moment when the microscope image was taken in order to calculate the distance movement in the x-axis, y-axis, and z-axis from the initial position at the time when the microscope image was acquired, storing the image as a reference image, and then acquiring a new bright field image again at the moved position, extracting feature points of the reference image and the image acquired at the moved position to calculate the movement in the x-axis, y-axis, and the distance movement in the z-axis.
상기 기준 이미지로 저장된 명시야 영상이 기준 점수를 통과하지 못하는 경우 명시야 영상만 출력되도록 구성되고,
상기 기준 이미지로 저장된 명시야 영상이 기준 점수를 통과한 경우에 한하여 상기 합성 영상 생성부로 하여금 합성 영상을 생성하도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법. In Article 8,
If the bright field image saved as the above reference image does not pass the reference score, only the bright field image is configured to be output.
A control method for an endoscopic device including an endoscopic microscope, characterized in that the synthetic image generating unit is configured to generate a synthetic image only when the bright field image saved as the above-mentioned reference image passes the reference score.
제2광원을 통하여 레이저 광원 기반의 현미경 영상을 획득하는 단계,
상기 현미경 영상을 획득하기 위하여 현미경 윈도우를 시료에 접촉시키는 단계,
상기 현미경 영상의 상대 위치를 계산하는 단계,
상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계 및,
상기 합성 영상을 출력하는 단계를 포함하며,
상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계는 상기 현미경 영상과 상기 명시야 영상의 합성 영상을 생성하는데 있어서, 2개의 영상(즉, 상기 현미경 영상과 상기 명시야 영상)을 합성한 후에도 상기 명시야 영상에서 조직의 구조가 확인이 가능하도록 상기 레이저 광원 기반의 현미경 영상의 픽셀값에 가중치(α)를 반영하고, 상기 명시야 영상의 픽셀값에는 (1-α)를 반영하도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법.Step of obtaining a bright field image through the first light source;
A step of obtaining a laser light source-based microscope image through a second light source;
A step of bringing the microscope window into contact with the sample to obtain the above microscope image,
A step of calculating the relative position of the above microscope images,
A step of generating a composite image by synthesizing the above bright field image and the above microscope image, and
A step of outputting the above composite image is included,
A method for controlling an endoscopic device including an endoscopic microscope, wherein the step of generating a composite image by synthesizing the above-described bright-field image and the above-described microscope image is configured to reflect a weight (α) to the pixel values of the laser light source-based microscope image so that the structure of the tissue can still be confirmed in the bright-field image even after synthesizing the two images (i.e., the above-described microscope image and the above-described bright-field image), and to reflect (1-α) to the pixel values of the above-described bright-field image.
제2광원을 통하여 현미경 영상을 획득하는 단계,
상기 현미경 영상을 획득하기 위하여 현미경 윈도우를 시료에 접촉시키는 단계,
상기 현미경 영상의 상대 위치를 계산하는 단계,
상기 명시야 영상과 상기 현미경 영상을 합성하여 합성 영상을 생성하는 단계 및,
상기 합성 영상을 출력하는 단계를 포함하고,
상기 현미경 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산하는 단계를 추가적으로 포함하고,
이 때, 상기 합성 영상을 출력하는 단계에서는, 상기 계산된 현미경 영상의 좌표를 이용하여 상기 명시야 영상 위에 상기 현미경 영상의 투명도를 조절해서 상기 현미경 영상을 상기 명시야 영상에 겹쳐서 출력하며,
상기 현미경 영상이 획득된 좌표를 상기 명시야 영상 좌표에서 계산하는 단계는 다음의 수식에 의하여 수행되도록 구성되는 것을 특징으로 하는 내시경현미경을 포함하는 내시경 장치의 제어방법.
수식
여기서,
x0: 2d transformation 하기 전에 현미경 영상 좌표계에서의 x 방향 픽셀 위치 값
y0: 2d transformation 하기 전에 현미경 영상 좌표계에서의 y 방향 픽셀 위치 값
x1: 2d transformation 이후에 명시야 영상 좌표계에서의 x 방향 픽셀 위치 값
y1: 2d transformation 이후에 명시야 영상 좌표계에서의 y 방향 픽셀 위치 값
Sx: x축 방향으로의 scaling 값
Sy: y축 방향으로의 scaling 값
θ: rotation 각도
tx: x축 방향으로의 이동 거리
ty: y축 방향으로의 이동 거리Step of obtaining a bright field image through the first light source;
Step of obtaining a microscope image through a second light source;
A step of bringing the microscope window into contact with the sample to obtain the above microscope image,
A step of calculating the relative position of the above microscope images,
A step of generating a composite image by synthesizing the above bright field image and the above microscope image, and
comprising a step of outputting the above composite image,
Additionally comprising a step of calculating the coordinates at which the above microscope image is acquired from the coordinates of the bright field image,
At this time, in the step of outputting the composite image, the coordinates of the calculated microscope image are used to adjust the transparency of the microscope image on top of the bright field image, and the microscope image is output by overlapping it on the bright field image.
A control method for an endoscopic device including an endoscopic microscope, characterized in that the step of calculating the coordinates of the acquired microscope image from the coordinates of the bright field image is configured to be performed by the following formula.
formula
Here,
x 0 : x-direction pixel position value in the microscope image coordinate system before 2D transformation
y 0 : y-direction pixel position value in the microscope image coordinate system before 2D transformation
x 1 : x-direction pixel position value in the bright-field image coordinate system after 2D transformation
y 1 : y direction pixel position value in the bright field image coordinate system after 2d transformation
Sx: scaling value in the x-axis direction
Sy: scaling value in the y-axis direction
θ: rotation angle
tx: distance moved in the x-axis direction
ty: distance moved in the y-axis direction
상기 현미경 영상은 시료가 방출하는 형광을 수집하여 획득되는 형광 영상이고,
상기 형광 영상을 얻기 위하여 상기 내시경현미경의 노즐을 통하여 상기 시료에 형광 염색 물질을 도포하기 위한 단계를 추가로 포함하는 것을 특징으로 하는, 내시경현미경을 포함하는 내시경 장치의 제어방법.In the first paragraph,
The above microscope image is a fluorescence image obtained by collecting the fluorescence emitted by the sample.
A control method for an endoscopic device including an endoscopic microscope, characterized in that it further includes a step of applying a fluorescent dye to the sample through a nozzle of the endoscopic microscope to obtain the fluorescence image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220022581A KR102697147B1 (en) | 2022-02-21 | 2022-02-21 | Control Method of Enhanced Imaging System for an Operating Endoscopic Microscope |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220022581A KR102697147B1 (en) | 2022-02-21 | 2022-02-21 | Control Method of Enhanced Imaging System for an Operating Endoscopic Microscope |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230125677A KR20230125677A (en) | 2023-08-29 |
KR102697147B1 true KR102697147B1 (en) | 2024-08-21 |
Family
ID=87802500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220022581A KR102697147B1 (en) | 2022-02-21 | 2022-02-21 | Control Method of Enhanced Imaging System for an Operating Endoscopic Microscope |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102697147B1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102194463B1 (en) * | 2012-08-14 | 2020-12-23 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | Systems and methods for registration of multiple vision systems |
KR102117273B1 (en) * | 2013-03-21 | 2020-06-01 | 삼성전자주식회사 | Surgical robot system and method for controlling the same |
KR101784063B1 (en) * | 2015-08-03 | 2017-10-11 | 국립암센터 | Pen-type medical fluorescence image device and system which registers multiple fluorescent images using the same |
KR102203843B1 (en) | 2018-07-26 | 2021-01-15 | 재단법인 아산사회복지재단 | Head for endoscope, medical endoscope and medical micro scope |
KR102135105B1 (en) * | 2018-07-26 | 2020-07-17 | 재단법인 아산사회복지재단 | Optical module for medical endoscope, medical endoscope system |
KR102294739B1 (en) * | 2020-01-10 | 2021-08-30 | 주식회사 인트로메딕 | System and method for identifying the position of capsule endoscope based on location information of capsule endoscope |
-
2022
- 2022-02-21 KR KR1020220022581A patent/KR102697147B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20230125677A (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nehal et al. | Skin imaging with reflectance confocal microscopy | |
Le Goualher et al. | Towards optical biopsies with an integrated fibered confocal fluorescence microscope | |
US20070121196A1 (en) | Method and apparatus for method for viewing and analyzing of one or more biological samples with progressively increasing resolutions | |
US20100261958A1 (en) | Multi-path, multi-magnification, non-confocal fluorescence emission endoscopy apparatus and methods | |
US10595770B2 (en) | Imaging platform based on nonlinear optical microscopy for rapid scanning large areas of tissue | |
KR101898220B1 (en) | Confocal microscopy and method of processing image using the same | |
Kirkbride et al. | The application of laser scanning confocal microscopy to the examination of hairs and textile fibers: An initial investigation | |
US20230333360A1 (en) | Point-Of-Care Microscope for Real-Time Acquisition of Volumetric Histological Images In Vivo | |
KR102697147B1 (en) | Control Method of Enhanced Imaging System for an Operating Endoscopic Microscope | |
KR102697146B1 (en) | Enhanced Imaging System for an Operating Endoscopic Microscope | |
JP2011062348A (en) | Endoscope system | |
CN210055953U (en) | Variable-focus cavity endoscope detection device and laser scanning cavity endoscope | |
KR101986658B1 (en) | Method of acquiring an image of a biological sample | |
CN109938683B (en) | Variable focus cavity endoscope detection device and laser scanning cavity endoscope | |
Winkler et al. | High resolution macroscopy (HRMac) of the eye using nonlinear optical imaging | |
Cicchi et al. | Two-photon imaging and spectroscopy of fresh human colon biopsies | |
AU2013204570B2 (en) | Method and apparatus for method for viewing and analyzing of one or more biological samples with progressively increasing resolutions | |
Gmitro et al. | Optical biopsy with confocal microendoscopy | |
Patel et al. | Developing SCAPE microscopy for real-time, 3D cellular imaging at the point-of-care | |
Liu et al. | Two-photon imaging of rabbit mammary tissue with 3D reconstruction | |
Taylor et al. | Prospective gating for 3D imaging of the beating zebrafish heart in embryonic development studies | |
Patel et al. | High-speed, 3D SCAPE Microscopy of Fresh Tissues for in situ Histopathology | |
US20190234941A1 (en) | System, method and computer readable medium for imaging large areas with microscopic resolution | |
US20190227054A1 (en) | System, method and computer readable medium for microscopic imaging | |
CN118215968A (en) | System for characterizing a region of interest of biological tissue |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |