KR101789677B1 - Observing device for telemedicine, Image processing device including the same and System having the same - Google Patents
Observing device for telemedicine, Image processing device including the same and System having the same Download PDFInfo
- Publication number
- KR101789677B1 KR101789677B1 KR1020160042376A KR20160042376A KR101789677B1 KR 101789677 B1 KR101789677 B1 KR 101789677B1 KR 1020160042376 A KR1020160042376 A KR 1020160042376A KR 20160042376 A KR20160042376 A KR 20160042376A KR 101789677 B1 KR101789677 B1 KR 101789677B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- unit
- light
- image data
- terminal
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00188—Optical arrangements with focusing or zooming features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/042—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Physiology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Endoscopes (AREA)
- Studio Devices (AREA)
Abstract
본 발명은, 헤드부의 탈착이 가능하고 헤드부의 구조에 의해 초점거리가 조절되는 관찰경과 이를 포함하는 원격진료가 가능한 이미지데이터처리시스템에 관한 것에 관한 것으로, 대상의 내부를 촬영하는 관찰경에 있어서, 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 광취득부를 포함하는 헤드부 및 헤드부에 결합되고, 광신호를 수신하여 이미지데이터를 생성하는 기능을 구비하는 본체부를 포함하여 이루어지고, 헤드부는 본체부로부터 분리될 수 있는 것을 특징으로 하는 관찰경을 제공한다.The present invention relates to a telemedicine-enabled image data processing system capable of attaching and detaching a head part and having a focal length controlled by a structure of a head part and a telemedicine processing system including the same, And a main body unit coupled to the head unit and including a light acquisition unit for acquiring light reflected from the inside of the object and generating an optical signal, and a function for receiving the optical signal and generating image data, And the head part can be separated from the main body part.
Description
본 발명은, 원격진료를 위한 관찰경과 이를 포함하는 영상처리장치 및 시스템에 관한 것으로, 더욱 상세하게는, 헤드부의 탈착이 가능하고 헤드부의 구조에 의해 초점거리가 조절되는 관찰경과 이를 포함하는 원격진료가 가능한 이미지데이터처리시스템에 관한 것이다.BACKGROUND OF THE
관찰경은 대상의 내부에 삽입된 관찰경의 튜브를 통해 대상의 내부를 촬영함으로써 사용자가 대상의 내부를 관찰할 수 있게 하는 장치이다. 관찰경은 건물 내벽이나 기계 장치 내부에 경성 또는 연성이 있는 튜브가 삽입되어 사용될 수 있을 뿐만 아니라, 인간이나 동물의 내부에 니들 형태나 고무관 형태, 플라스틱 팁 형태의 튜브가 삽입되어 사용될 수도 있다. 특히 관찰경이 인체에 사용되는 경우, 개복 수술이나 절개 수술 없이도 인체의 내부(기관지, 식도, 흉강, 심장, 위, 장, 복강, 방광, 항문, 비강, 고막 등)를 검사할 수 있으므로, 여러 가지 질병의 진단에 유용하게 사용될 수 있다.The observer is a device that enables the user to observe the inside of the object by photographing the inside of the object through a tube of the observer inserted into the object. In addition to the use of a rigid or flexible tube inserted into the inside of a building or inside a machine, observation tubes may be used in the form of a needle, a rubber tube, or a plastic tip in the interior of a human or animal. Especially, when the observer is used in the human body, it is possible to examine the inside of the human body (bronchial, esophagus, thoracic cavity, heart, stomach, intestine, abdominal cavity, bladder, anus, nasal cavity, It can be useful for diagnosis of diseases.
관찰경은 튜브가 대상의 내부에 삽입되기 때문에 튜브나 그 부근의 오염이 문제된다. 특히 수술실 등에서 인체의 내부에 튜브를 삽입하는 경우 높은 수준의 청결이 요구된다. 그러나 통상의 관찰경은 그 복잡한 구조 및 디자인 때문에 살균이나 소독이 매우 까다롭다.Since the tube is inserted into the interior of the object, contamination of the tube or its vicinity is a problem. In particular, when the tube is inserted into the human body in the operating room, a high level of cleanliness is required. However, conventional observation is complicated because of its complicated structure and design.
따라서 관찰경은 세척, 살균 또는 소독에 용이한 구조를 가질 필요가 있다. 이와 관련하여 대한민국 등록특허 0449349호(발명의 명칭 : 개선된유연성삽입튜브를갖는내시경, 이하 종래기술 1이라 한다.)에서는 내부공간을 감싸는 튜브형의 생체적합성 탄성 외피로 이루어지는 가요성 삽입튜브를 갖는 가요성 내시경에 있어서, 상기 삽입 튜브는 외피와 내부 공산 사이에 증기 배리어를 더 포함하여, 증기가 주위대기로부터 외피를 통과하여 내부 공간으로 유입되는 것이 증기 배리어에 의해 방지되고, 또한 증기가 내부 공간 내의 물질과 반응하여 탄성 외피에 해로운 물질을 생성하는 것을 방지하는 것을 특징으로 하는 가요성 삽입튜브를 갖는 가요성 내시경이 개시되어 있다.Therefore, the observation surface needs to have a structure that is easy to clean, sterilize or disinfect. In this connection, Korean Patent No. 0449349 (entitled "Endoscope having an Improved Flexible Insertion Tube", hereinafter referred to as "
한편 근래에는 IT 시장의 변화가 매우 빠르고, 뉴스에서는 연일 새로운 스마트 기기들의 출시 소식과 스마트 기술 관련 뉴스들이 쏟아지고 있다. 특히 센서 기술, 무선통신기술 등의 발전으로 스마트 기기를 이용하여 사용자 스스로 건강을 관리하거나 원격모니터링시스템 또는 원격진료시스템이 개발되는 등 헬스케어 시장이 급변하고 있다. 원격진료와 관련하여, 대한민국 등록특허 1512068호(발명의 명칭 : 원격 진료 서비스 시스템 및 방법, 이하 종래기술 2라 한다.)에서는 원격 진료 서비스 방법에 있어서, 휴대용 단말기의 카메라를 통하여 원격 진료 서비스 대상에 대한 영상을 획득하는 과정과, 상기 획득된 영상에 대한 계층적 관계를 갖는 복수의 문진정보를 포함하는 환자 상태를 수집하는 과정과, 상기 획득된 영상으로부터 원격 진료 서비스 타입을 인식하고, 상기 인식된 서비스 타입에 해당하는 분석을 수행하여 분석 결과 데이터를 생성하는 과정과, 상기 생성된 분석 결과 데이터에 상기 수집된 환자 상태를 매칭하여 네트워크를 통해 연동된 적어도 하나 이상의 서비스 서버를 통해 브로드캐스팅하는 과정과, 상기 연동된 각 서비스 서버를 통해 브로드캐스팅된 데이터에 대한 결과를 검색하고 이를 수집하여 상기 휴대용 단말기에 표시하는 과정을 포함하고, 상기 문진 정보는, 상기 휴대용 단말기를 조작하여 사용자로부터 선택된 진료 서비스 타입별 혹은 상기 인식된 원격 진료 서비스 타입별 기 설정된 다수의 질문에 대해 입력된 답변을 포함하고, 상기 휴대용 단말기와 통신하고, 다수의 의료 서비스 타입별 특화된 다수의 서비스 서버와 연동된 원격 진료 서비스 서버는 상기 서비스 서버를 통해 검색된 결과 데이터에서 어느 하나의 데이터가 선택되면 상기 연동된 각 서비스 서버를 통해 수집된 해당 데이터에 대한 평가 이력을 상기 휴대용 단말기에 동시에 표시하는 과정을 포함하고, 상기 평가 이력은, 원격 진료 서비스 서버가 각 서비스 서버별 제공되는 데이터에 대한 만족도를 원격 진료 서비스 완료 후 혹은 서비스 중 사용자로부터 수집하여 수집된 데이터 품질에 대한 이력으로 해당 서비스 서버와 대응되게 맵핑하여 저장, 관리되는 것이고, 상기 서비스 서버별 수집된 데이터는, 상기 인식된 서비스 타입에 해당하는 증상에 따라 특화된 의료 서비스 데이터이고, 상기 특화된 의료 서비스 데이터는 장루를 치료할 파우치 제품을 추천하는 의료 서비스 데이터, 상처를 관리하는 간호술 및 암에 관련된 영양, 운동, 생활 습관 권고 내용, 의료 상담에 관련된 데이터를 포함함을 특징으로 하는 원격 진료 서비스 방법이 개시되어 있다.On the other hand, the IT market has changed very rapidly in recent years, and news of new smart devices and smart technology related news are poured in each day. Especially, as the development of sensor technology and wireless communication technology, the healthcare market is rapidly changing, such as the self-management of health by using smart devices or the development of remote monitoring system or telemedicine system. In connection with telemedicine, Korean Patent No. 1512068 (titled "Telemedicine Service System and Method, hereinafter referred to as Prior Art 2") discloses a telemedicine service method in which telemedicine services are provided through a camera of a portable terminal A step of acquiring a medical image for the acquired image, a step for acquiring a patient condition including a plurality of document information having a hierarchical relationship with the acquired image, a step of recognizing a telemedicine service type from the acquired image, The method comprising: generating analysis result data by performing an analysis corresponding to a service type; broadcasting the generated analysis result data through at least one service server coupled through a network by matching the collected patient state; , A result for data broadcast through each of the interworking service servers And displaying the collected information on the portable terminal. The inquiry information may include at least one of a plurality of predetermined questions for each of the service types selected by the user or the recognized remote service type by operating the portable terminal A telemedicine service server communicating with the portable terminal and interworking with a plurality of service servers specialized for a plurality of medical service types, selects one of the data from the result data retrieved through the service server And simultaneously displaying an evaluation history of the corresponding data collected through the interworking service servers on the portable terminal, wherein the evaluation history indicates that the telemedicine service server has satisfied the satisfaction with the data provided for each service server After the telemedicine service is completed or during service Wherein the data collected by the service server is stored and managed in correspondence with the corresponding service server as a history of the collected data collected from the user and the data collected by the service server is managed by the medical service data specialized according to the symptom corresponding to the recognized service type , And the specialized medical service data includes data related to medical service data recommending a pouch product to treat an intestinal tract, nursing care for managing wounds, nutrition, exercise, lifestyle recommendation contents related to cancer, and medical consultation A remote medical service method is disclosed.
본 발명이 이루고자 하는 기술적 과제는 종래기술 1이 살균 및 소독 정도에 한계가 있다는 제1문제점, 종래기술 1은 초점거리를 사용자가 조절할 수 없다는 제2문제점, 종래기술 1은 가요성 튜브만을 사용하여 여러 분야에 응용하기 어렵다는 제3문제점, 종래기술 1은 살균 및 소독 문제를 개선하기 위한 발명이나 내시경이 획득한 이미지를 수술실 등 청결이 요구되는 장소에서 확인하는 경우 여전히 내시경의 오염 문제가 있다는 제4문제점, 종래기술 1은 내시경이 획득한 이미지를 여러 사람이 공유할 수 없다는 제5문제점, 종래기술 1에 의해 사용자가 어떠한 피드백도 받을 수 없다는 제6문제점 및 종래기술 2는 종래기술 1과는 달리 사용자가 원격진료를 받을 수 있다는 장점이 있으나 휴대용 단말기의 카메라를 이용하여 창상 부위 등에 대한 원격진료에 그친다는 제7문제점을 해결하려 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to solve the above problems. The third problem that it is difficult to apply to various fields, the
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. There will be.
상기 문제점을 해결하기 위해 안출되는 본 발명은, 대상의 내부를 촬영하는 관찰경에 있어서, 상기 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 광취득부를 포함하는 헤드부 및 상기 헤드부에 결합되고, 상기 광신호를 수신하여 이미지데이터를 생성하는 기능을 구비하는 본체부를 포함하여 이루어지고, 상기 헤드부는 상기 본체부로부터 분리될 수 있는 것을 특징으로 하는 관찰경을 제공한다.According to an aspect of the present invention, there is provided a head unit including a light acquiring unit that acquires light reflected from the inside of the object and generates an optical signal, And a main body having a function of receiving the optical signal and generating image data, wherein the head part can be separated from the main body part.
또한, 본 발명의 일실시예에 따르면, 상기 헤드부는 초점거리(focal length)를 조절하는 기능을 구비하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the head unit may include a function of adjusting a focal length.
또한, 본 발명의 일실시예에 따르면, 상기 헤드부는 회전운동을 직선운동으로 변환하는 구조를 구비하고, 상기 구조에 의하여 상기 초점거리(focal length)가 조절되는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the head unit may include a structure for converting a rotational motion into a linear motion, and the focal length may be adjusted by the structure.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 광신호를 수신하여 이미지신호를 생성하는 이미지센서를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include an image sensor that receives the optical signal and generates an image signal.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 이미지신호를 처리하여 상기 이미지데이터를 생성하는 이미지프로세서부를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body further includes an image processor for processing the image signal to generate the image data.
또한, 본 발명의 일실시예에 따르면, 상기 헤드부는 렌즈 및 복수 개의 광섬유를 포함하고, 상기 대상의 내부에 삽입되어 상기 반사되는 광을 상기 광취득부로 전달하는 튜브를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the head further includes a lens and a plurality of optical fibers, and a tube inserted into the object to transmit the reflected light to the light acquiring unit .
또한, 본 발명의 일실시예에 따르면, 상기 렌즈는 어안렌즈 또는 광각렌즈인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the lens may be a fish-eye lens or a wide-angle lens.
또한, 본 발명의 일실시예에 따르면, 상기 이미지프로세서부는 상기 이미지신호를 수신하여 왜곡이미지를 보정하는 이미지보정부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the image processor may include an image corrector receiving the image signal and correcting the distorted image.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 이미지데이터를 디스플레이하는 디스플레이부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include a display unit for displaying the image data.
또한, 본 발명의 일실시예에 따르면, 상기 디스플레이부는 고정식 또는 탈착식 디스플레이부인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the display unit may be a fixed or detachable display unit.
또한, 본 발명의 일실시예에 따르면, 상기 디스플레이부는 접이식 디스플레이부인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the display unit may be a folding display unit.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 이미지데이터를 외부기기로 전달하는 통신부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include a communication unit for transmitting the image data to an external device.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 사용자의 녹화요청에 따라 상기 이미지데이터가 녹화파일로 저장되는 메모리부를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body further includes a memory unit storing the image data as a recording file according to a user's recording request.
또한, 본 발명의 일실시예에 따르면, 상기 사용자는 상기 녹화파일을 상기 통신부에 연결되는 유에스비플래시 드라이브(USB flash drive) 또는 메모리카드에 다운로드할 수 있는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the user can download the recording file to a USB flash drive or a memory card connected to the communication unit.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 대상의 내부에 조사될 광을 생성하는 광원부를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body may include a light source for generating light to be irradiated inside the object.
또한, 본 발명은 상기 관찰경 및 상기 통신부로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템을 제공한다.The present invention also provides an observation light system comprising the observation light and a terminal receiving the image data from the communication unit through wired or wireless communication means.
또한, 본 발명의 일실시예에 따르면, 상기 무선통신수단은 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상인 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the wireless communication means may be an infrared (IR) communication, a radio frequency (RF) communication, a wireless LAN, a Wi-Fi, a WiBro, , Bluetooth, directivity and short range wireless communication (NFC).
또한, 본 발명의 일실시예에 따르면, 상기 관찰경 및 상기 단말은 상기 유선 또는 무선통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the observation scene and the terminal share the image data through mirroring by the wired or wireless communication means.
또한, 본 발명의 일실시예에 따르면, 상기 본체부는 상기 단말이 거치되는 거치부를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the main body further includes a mounting portion on which the terminal is mounted.
또한, 본 발명은 상기 관찰경, 상기 관찰경과 제1통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제1단말 및 상기 제1단말과 제2통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제2단말을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템을 제공한다.In addition, the present invention provides a method for controlling the mirroring by the first terminal sharing the image data and mirroring by the first terminal and the second communication means through mirroring by the observation light, the observation progressing first communication means And a second terminal sharing the image data through the second terminal.
또한, 본 발명은 상기 관찰경 및 상기 통신부로부터 상기 이미지데이터를 전달받아 저장하는 서버를 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템을 제공한다.Further, the present invention provides an observation light system comprising a server for receiving and storing the observation image and the image data from the communication unit.
또한, 본 발명의 일실시예에 따르면, 상기 서버로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말을 더 포함하여 이루어지는 것을 특징으로 할 수 있다.In addition, according to an embodiment of the present invention, the image forming apparatus may further include a terminal for receiving the image data from the server through wired or wireless communication means.
또한, 본 발명의 일실시예에 따르면, 원격의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경의 사용자에게 제공하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, a remote doctor analyzes image data transmitted to the server or the terminal, and provides analysis results to a user of the observation terminal.
또한, 본 발명의 일실시예에 따르면, 가상의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경의 사용자에게 제공하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the virtual doctor may analyze the image data transmitted to the server or the terminal, and provide analysis results to the user of the observation field.
또한, 본 발명의 일실시예에 따르면, 상기 서버 또는 상기 단말은 상기 사용자의 아이디를 인증하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the server or the terminal authenticates the identity of the user.
또한, 본 발명의 일실시예에 따르면, 상기 서버 또는 상기 단말은 상기 관찰경의 아이디를 인증하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the server or the terminal authenticates the ID of the observation point.
또한, 본 발명은 상기 관찰경을 이용하여 대상의 내부를 관찰하는 방법에 있어서, 광원부가 대상의 내부에 조사될 광을 생성하는 단계, 생성된 광이 대상의 내부에 조사되는 단계, 광취득부가 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 단계, 이미지센서가 생성된 광신호를 수신하여 이미지신호를 생성하는 단계, 이미지프로세서부가 생성된 이미지신호를 처리하여 이미지데이터를 생성하는 단계 및 디스플레이부가 생성된 이미지데이터를 디스플레이하는 단계를 포함하여 이루어지는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법을 제공한다.Further, the present invention provides a method for observing an interior of an object using the observation light, comprising the steps of: generating light to be irradiated inside the object; Receiving light reflected from the inside of the object to generate an optical signal, receiving the optical signal generated by the image sensor to generate an image signal, processing the image signal generated by the image processor unit to generate image data And displaying the generated image data. The present invention also provides a method for observing an inside of an object using the object to be observed.
또한, 본 발명의 일실시예에 따르면, 상기 이미지프로세서부가 생성된 이미지신호를 처리하여 이미지데이터를 생성하는 단계는, 이미지보정부가 생성된 이미지신호를 수신하는 단계, 이미지보정부가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계 및 이미지데이터생성부가 보정이미지에 관한 이미지데이터를 생성하는 단계를 포함하여 구성되는 것을 특징으로 할 수 있다.Further, according to an embodiment of the present invention, the step of processing the image signal generated by the image processor section to generate image data may include the steps of receiving an image signal in which the image correction section has been generated, Generating the correction image, and generating the image data regarding the correction image by the image data generation unit.
또한, 본 발명의 일실시예에 따르면, 상기 이미지보정부가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계는, 이미지보정부가 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행하는 단계를 포함하는 것을 특징으로 할 수 있다.Further, according to an embodiment of the present invention, the step of correcting the distorted image by the image correcting unit to generate the corrected image includes the step of performing the geometric correction of the distorted image using the distortion correcting algorithm by the image correcting unit .
또한, 본 발명의 일실시예에 따르면, 상기 왜곡보정알고리즘은 초점거리(focal length), 주점(principal point), 방사왜곡상수(radial distortion coefficient) 및 접선왜곡상수(tangential distortion coefficient) 중 하나 이상을 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, the distortion correction algorithm may further include at least one of a focal length, a principal point, a radial distortion coefficient, and a tangential distortion coefficient And the like.
또한, 본 발명의 일실시예에 따르면, 상기 이미지보정부가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계는, 상기 이미지보정부가 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행하는 단계 이후에, 이미지보정부가 왜곡이미지로부터 소실점좌표를 추출하는 단계, 이미지보정부가 소실점좌표로부터 프로젝션알고리즘을 구성하는 보정계수를 산출하는 단계 및 이미지보정부가 프로젝션알고리즘을 이용하여 보정이미지를 생성하는 단계를 더 포함하고, 프로젝션알고리즘은 수학식 1로 표현되는 것을 특징으로 할 수 있다.Further, according to an embodiment of the present invention, the step of correcting the distorted image by the image correcting unit to generate the corrected image may further include, after the step of performing the geometric correction of the distorted image using the distortion correcting algorithm, Further comprising the steps of: extracting vanishing point coordinates from the distorted image; calculating a correction coefficient constituting a projection algorithm from the vanishing point coordinates of the image correcting unit; and generating the corrected image using the image correcting unit projection algorithm, The projection algorithm is characterized by being expressed by Equation (1).
또한, 본 발명의 일실시예에 따르면, 보정계수는 수학식 2로 표현되는 것을 특징으로 할 수 있다.Also, according to an embodiment of the present invention, the correction coefficient may be expressed by Equation (2).
본 발명은 헤드부의 탈착이 가능하여 헤드부나 본체부의 세척, 살균 또는 소독이 용이하다는 제1효과, 사용자가 초점거리를 조절할 수 있어 사용자가 원하는 화질의 이미지를 획득할 수 있다는 제2효과, 다양한 형태의 튜브를 사용하여 여러 분야에 응용할 수 있다는 제3효과, 관찰경과 무선통신수단에 의해 연결되는 단말로 이미지를 확인할 수 있으므로 디스플레이부 오염의 문제가 해결되고 편의성이 향상된다는 제4효과, 관찰경이 획득한 이미지를 실시간으로 공유하거나 녹화하여 사후에 얻을 수 있다는 제5효과, 관찰경이 획득한 이미지에 기초하여 사용자는 이와 관련된 피드백을 받을 수 있다는 제6효과, 제 6효과와 관련하여 특히 사용자 및/또는 대상 환자의 신체 내부의 이미지에 기초한 원격진료가 가능하다는 제7효과, 관찰경이 획득한 이미지를 원격지에서 확인할 수 있다는 제8효과, 관찰경이 획득한 이미지가 서버에 저장되어 획득된 이미지에 대한 접근성이 용이하다는 제9효과 및 관찰경이 획득한 이미지가 서버에 축적되는 경우 축적된 이미지데이터를 빅데이터 분석이나 치료예후비교에 응용할 수 있다는 제10효과를 갖는다.Disclosure of Invention Technical Problem [10] The present invention has a first effect that a head part and a body part can be easily cleaned, sterilized or disinfected because the head part can be attached and detached, a second effect that a user can adjust a focal distance, A fourth effect that the problem of contamination of the display unit can be solved and the convenience can be improved because the image can be confirmed by the terminal connected by the observation and progress wireless communication means, A fifth effect that an image can be shared or recorded in real time in real time, a sixth effect that a user can receive feedback related to the obtained image based on the image acquired by the observation, The seventh effect that telemedicine based on the internal image of the patient can be performed, The eighth effect that the acquired image is stored in the server and is easily accessible to the acquired image, and the eighth effect that the acquired image is stored in the server, It has a tenth effect that it can be applied to data analysis or comparison of treatment prognosis.
본 발명의 실시예에 따르면 본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the composition of the invention described in the claims.
도 1은 본 발명인 관찰경의 일실시예를 나타내는 블록도.
도 2는 프로젝션알고리즘을 적용하기 전의 왜곡이미지를 나타내는 모식도.
도 3은 본 발명인 관찰경시스템의 일실시예를 나타내는 구조도.
도 4는 본 발명인 관찰경시스템의 일실시예를 나타내는 구조도.
도 5는 본 발명인 관찰경시스템의 일실시예를 나타내는 구조도.
도 6은 본 발명인 관찰경의 실시예를 나타내는 사시도.
도 7은 본 발명인 관찰경의 실시예를 나타내는 사시도.
도 8은 본 발명인 관찰경의 실시예를 나타내는 사시단면도.
도 9는 실시예로서, 본 발명인 관찰경의 헤드부를 나타내는 사시도.
도 10은 실시예로서, 본 발명인 관찰경의 락커를 나타내는 사시도.
도 11은 실시예로서, 본 발명인 관찰경의 헤드부를 나타내는 사시도.
도 12는 실시예로서, 본 발명인 관찰경의 헤드부를 나타내는 사시도.1 is a block diagram showing one embodiment of an observation scope of the present invention.
Fig. 2 is a schematic diagram showing a distorted image before applying the projection algorithm; Fig.
3 is a structural view showing an embodiment of an observation light system according to the present invention.
4 is a structural view showing an embodiment of an observation light system according to the present invention.
5 is a structural view showing an embodiment of an observation light system according to the present invention.
6 is a perspective view showing an embodiment of a viewing mirror according to the present invention.
FIG. 7 is a perspective view showing an embodiment of the observation mirror according to the present invention. FIG.
8 is an oblique sectional view showing an embodiment of the observation mirror according to the present invention.
Fig. 9 is a perspective view showing a head part of an observation scope according to the present invention as an embodiment. Fig.
Fig. 10 is a perspective view showing a rocker of the observation scope according to the present invention as an embodiment. Fig.
11 is a perspective view showing a head part of an observation mirror according to the present invention as an embodiment.
12 is a perspective view showing a head part of an observation mirror according to the present invention as an embodiment;
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" (connected, connected, coupled) with another part, it is not only the case where it is "directly connected" "Is included. Also, when an element is referred to as "comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 발명의 관찰경(1)은 대상의 내부를 촬영하는 장치로서, 대상의 내부에 광을 조사한 다음 대상의 내부로부터 반사되는 광을 취득하여 이미지데이터를 생성한다. 여기서 대상의 내부는 환자의 신체 부위, 동물의 신체 부위, 건물 내벽, 배관 내부 또는 챠량 내부가 될 수 있고, 이하 같으나, 이에 한정하는 것은 아니다. 관찰경(1)은 헤드부(10) 및 본체부(20)를 포함하여 이루어지는데, 헤드부(10)는 광취득부(110)를 포함하고, 광방출부(120)나 튜브(180)를 더 포함할 수 있다. 헤드부(10)에 결합된 본체부(20)는 헤드부(10)로부터 전달되는 광신호를 수신하여 이미지데이터를 생성하는 기능 등을 구비하고, 이미지센서(210), 이미지프로세서부(220), 메모리부(230), 디스플레이부(240), 통신부(250) 및 광원부(260) 중 하나 이상을 포함할 수 있다. 도 1은 관찰경(1)의 일실시예를 블록도로 도시하고 있어, 관찰경(1)의 구성뿐만 아니라 관찰경(1)을 이용하여 대상의 내부를 관찰하는 방법까지 한눈에 파악할 수 있다. 이하, 도 1을 참조하여 관찰경(1)을 이루는 각 구성요소별로 상술하기로 하며, 이를 통해 관찰경(1)을 이용하여 대상의 내부를 관찰하는 방법도 함께 파악될 수 있을 것이다.The observation light (1) of the present invention is an apparatus for photographing the interior of an object. The object is irradiated with light, and then light reflected from the inside of the object is acquired to generate image data. Here, the interior of the object may be the body part of the patient, the body part of the animal, the inner wall of the building, the inside of the pipe, or the inside of the pipe, and is not limited thereto. The
튜브(180)는 대상의 내부에 삽입되는 것으로, 사용자는 관찰경(1)으로 대상의 내부를 관찰함에 있어 튜브(180)를 대상의 내부에 삽입하여 대상의 내부의 이미지를 관찰할 수 있다. 튜브(180)는 대상의 피부를 찔러 들어갈 수 있는 니들(needle) 타입, 경성 타입(예를 들어, 일직선의 금속관이나 검이경의 삽입 부분), 연성 타입(예를 들어, 고무로 되어 있어 자유자재로 휘어지는 것) 또는 경성 타입과 연성 타입의 중간 타입(경성 또는 연성이 경성 타입과 연성 타입의 중간 정도인 것)의 튜브(180)가 될 수 있으나, 이에 한정하는 것은 아니다. 튜브(180)는 렌즈 및 복수 개의 광섬유를 포함하고, 튜브(180)가 대상의 내부에 삽입되면, 후술할 광원부(260)가 생성한 광이 튜브(180)의 복수 개의 광섬유 중 일부(이하, 발광라인이라고 하기로 한다.) 및 렌즈를 통과하여 대상의 내부에 도달하고, 대상의 내부로부터 반사된 광은 다시 튜브(180)의 렌즈 및 복수 개의 광섬유 중 나머지(이하, 촬영라인이라고 하기로 한다.)를 통과하여 관찰경(1) 내부에서 소정의 방식으로 처리된다. 렌즈는 표준렌즈, 망원렌즈, 마이크로렌즈, 광각렌즈 및 어안렌즈 중 하나 이상이 될 수 있으나, 이에 한정하는 것은 아니다.The
광원부(260)는 대상의 내부에 조사될 광을 생성한다. 광원부(260)는 레이저발광다이오드(Laser Emitting Diode, LED) 또는 레이저다이오드(Laser Diode, LD)를 광원으로 하는 램프를 포함할 수 있으나, 광원을 이에 한정하는 것은 아니다. 또한 광원부(260)는 레이저발광다이오드(Laser Emitting Diode, LED) 램프가 UV-Blue 대역의 레이저를 출사하는 경우, 유리나 세라믹 소재로 구성된 색변환플레이트를 더 포함하여 UV-Blue 대역의 레이저를 백색광으로 변환시킬 수 있으나, 광원부(260)의 구성을 이러한 것들에 한정하는 것은 아니다.The
광방출부(120)는 광원부(260)에 결합되어 광원부(260)가 생성한 광을 대상의 내부에 조사한다. 광원부(260)가 생성한 광은 광방출부(120)에 연결된 발광라인을 통해 대상의 내부에 조사된다. 즉, 도 1은 광원부(260)가 생성한 광이 대상의 내부에 조사되는 것을 간단히 화살표로 도시하고 있으나, 구체적으로는 광원부(260)가 생성한 광은 광원부(260)에 결합된 광방출부(120), 광방출부(120)에 연결된 발광라인, 렌즈, 대상의 내부로 순차적으로 전달될 수 있는 것이다.The
광취득부(110)는 대상의 내부로부터 반사되는 광을 취득한다. 도 1은 대상의 내부로부터 반사되는 광이 헤드부(10)에 도달함을 간단히 화살표로 도시하고 있으나, 구체적으로는 대상의 내부로부터 반사되는 광은 렌즈, 촬영라인, 촬영라인에 연결된 광취득부(110)로 순차적으로 전달될 수 있는 것이다. 그리고 대상의 내부로부터 반사되는 광을 취득한 광취득부(110)는 광신호를 생성하여 후술하는 이미지센서(210)로 전달한다.The
지금까지 헤드부(10)의 구성요소인 튜브(180), 광방출부(120) 및 광취득부(110)에 대해 설명하였고, 본체부(20)의 구성요소 중에서는 광원부(260)만 설명하였는데, 본체부(20)의 이미지센서(210)에 대해 설명하기 전에 헤드부(10)의 탈착에 대하여 설명하기로 한다. The
사용자가 관찰경(1)을 사용하여 대상의 내부를 관찰함에 있어서, 헤드부(10)와 본체부(20)가 결합된 관찰경(1)을 사용하나, 헤드부(10)는 본체부(20)로부터 분리될 수 있다. 종래의 기술들은 통상 헤드부(10)를 본체부(20)로부터 분리하는 것이 용이하지 않았다. 왜냐하면 종래의 기술들은 통상 튜브(180)의 광섬유(촬영라인)가 본체부(20)의 이미지프로세서부(220)까지 뻗어 있었기 때문이다. 그러나 본 발명은 발광라인에 연결된 광방출부(120)를 광원부(260)에 결합하거나 광원부(260)로부터 분리할 수 있고, 촬영라인에 연결된 광취득부(110)는 이미지센서(210) 또는 이미지프로세서부(220)와 이격되어 있기 때문에, 발광라인, 광방출부(120), 촬영라인, 광취득부(110)를 포함하는 헤드부(10)는 광원부(260)를 포함하는 본체부(20)로부터 분리될 수 있다. 두 번째로, 관찰경(1)은 헤드부(10) 및 본체부(20) 외에 헤드부(10)와 본체부(20)를 연결하는 연결부(30)를 포함하고, 연결부(30)의 구조가 헤드부(10)의 분리 및 결합을 가능하게 한다. 연결부(30)는 헤드부(10)를 본체부(20)로부터 당기면 헤드부(10)가 분리되고, 헤드부(10)를 본체부(20) 쪽으로 밀면 헤드부(10)가 결합되는 단순한 구조를 가질 수도 있으나, 이런 구조는 사용자가 관찰경(1)을 사용하는 도중에 헤드부(10)가 본체부(20)로부터 분리될 수 있으므로, 연결부(30)는 헤드부(10)의 분리 및 결합이 가능하면서도 헤드부(10)를 본체부(20)에 결합하였을 때 헤드부(10)가 고정되는 구조를 가지는 것이 바람직하고, 이러한 구조는 여러 가지가 있을 수 있으며, 이 중 하나의 예를 후술하는 실시예에서 설명하기로 한다.The user uses the
헤드부(10)는 초점거리(focal length)를 조절하는 기능을 구비하는데, 초점거리(focal length)는 튜브(180)의 렌즈로부터 본체부(20)의 이미지센서(210)까지의 거리를 의미한다. 사용자는 여러 가지 형태의 헤드부(10)를 본체부(20)에 결합할 수 있고, 여러 가지 형태의 튜브(180)를 헤드부(10)의 다른 구성요소에 결합할 수 있으며, 여러 가지 종류의 렌즈를 튜브(180)의 구성요소로서 사용할 수 있다. 따라서 헤드부(10)의 형태, 튜브(180)의 형태 및 렌즈의 종류 중 하나 이상의 요인에 의하여 초점거리가 달라질 수 있기 때문에 관찰경(1)은 이러한 초점거리를 조절하는 기능을 구비할 필요가 있다. 전술한 바와 같이, 연결부(30)가 헤드부(10)를 본체부(20)로부터 당기면 헤드부(10)가 분리되고, 헤드부(10)를 본체부(20) 쪽으로 밀면 헤드부(10)가 결합되는 단순한 구조를 가지는 경우, 헤드부(10)를 분리 또는 결합하는 과정에서 헤드부(10)를 앞·뒤로 움직이는 것이 가능하므로 헤드부(10)를 앞으로 당기면 초점거리가 길어지고, 헤드부(10)를 뒤로 밀면 초점거리가 짧아질 수 있다. 또한 연결부(30)의 구조와는 관계없이, 헤드부(10)가 갖춘 소정의 구조에 의해 초점거리가 조절될 수 있으며, 이러한 구조는 랙앤피니언(rack and pinion)기어와 같은 회전운동을 직선운동으로 변환하는 구조일 수 있으나, 이에 한정하는 것은 아니다. 회전운동을 직선운동으로 변환하는 구조 중 하나의 예는 후술하는 실시예에서 설명하기로 한다.The
이미지센서(210)는 도 1에 도시된 바와 같이 광취득부(110)로부터 광신호를 수신하여 전기신호인 이미지신호를 생성한다. 이미지센서(210)는 상보성금속산화물반도체(Complementary Metal Oxide Semiconductor, CMOS) 또는 전하결합소자(Charge Coupled Device, CCD)일 수 있으나, 이에 한정하는 것은 아니다. 이미지센서(210)는 필요에 따라 VGA, SVGA 또는 SXGA에 해당하는 화소를 가질 수 있으나, 이에 한정하는 것은 아니다.The
이미지프로세서부(220)는 도 1에 도시된 바와 같이 이미지센서(210)가 생성한 이미지신호를 처리하여 이미지데이터를 생성한다. 구체적으로 이미지프로세서부(220)는 신호변환부(221), 이미지보정부(222) 및 이미지데이터생성부(223) 중 하나 이상을 포함할 수 있다.The
신호변환부(221)는 이미지센서(210)가 아날로그 이미지신호를 생성한 경우, 이를 디지털 이미지신호로 변환한다. 또한 필요에 따라 노이즈 제거를 한 후에 디지털 이미지신호로 변환할 수도 있으며, YUV, RGB 등의 색좌표계를 변환할 수도 있다.When the
이미지보정부(222)는 이미지센서(210) 또는 신호변환부(221)로부터 이미지신호를 수신한 다음, 왜곡이미지를 보정하여 보정이미지를 생성한다. 이미지보정부(222)는 통상적인 컬러보정이나 감마보정을 수행할 수 있을 뿐만 아니라, 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행할 수 있고, 프로젝션알고리즘을 이용하여 왜곡이미지의 원근효과를 제거할 수 있다. 보정의 순서는 기하학적 보정을 수행한 다음에, 원근효과를 제거하는 것이 바람직하다.The
기하학적 보정과 원근효과 제거는 어안렌즈나 광각렌즈를 사용할 경우 특히 효과적인 보정방법이다. 어안렌즈와 광각렌즈는 표준렌즈보다 초점거리가 짧은 렌즈로서, 어안렌즈는 화각이 최소 120도를 넘는 렌즈로 광범위한 영역의 이미지 획득을 가능하게 하고, 광각렌즈는 화각이 60도에서 120도 정도인 렌즈로 어안렌즈만큼은 아니지만 이 역시 넓은 이미지 획득을 가능하게 한다. 그러나 어안렌즈나 광각렌즈는 화각이 넓기 때문에 사물을 왜곡시키고 원근감을 과장시킨다. 따라서 어안렌즈나 광각렌즈를 사용하여 대상의 내부를 관찰하는 경우, 대상의 내부가 왜곡되고, 관심 영역의 주변부에 대해 원근감이 발생하여 대상의 내부의 정확한 상태를 판단하기 곤란하다.Geometric correction and removal of perspective effects are particularly effective when using fisheye lenses or wide-angle lenses. The fisheye lens and the wide angle lens have a shorter focal length than the standard lens. The fisheye lens allows a wide range of image acquisition with a lens having a field angle of at least 120 degrees, and the wide angle lens has an angle of view of 60 to 120 degrees It is not as good as a fisheye lens, but it also enables wide image acquisition. However, a fisheye lens or a wide-angle lens has a wide angle of view, distorting objects and exaggerating perspective. Therefore, when the inside of a subject is observed using a fisheye lens or a wide-angle lens, the inside of the subject is distorted and a perspective is generated about the periphery of the area of interest, making it difficult to determine the accurate state of the inside of the subject.
먼저 기하학적 보정에 대하여 살펴본다. 실제 렌즈는 완벽할 수 없으며 왜곡이 존재하는데, 수학적으로 이상적인 포물선렌즈보다 구면렌즈를 만드는 것이 훨씬 쉬우며, 렌즈와 이미지센서(210)를 완벽하게 정렬하는 것도 쉬운 일이 아니기 때문이다. 렌즈의 왜곡에는 크게 방사왜곡(radial distortion)과 접선왜곡(tangential distortion)이 있다. 방사왜곡은 렌즈의 모양에 의해서 발생하는 왜곡으로 일반적으로 이미지센서(210) 가장자리 부근에서 픽셀의 위치가 볼록하게 왜곡되는 현상을 말한다. 이러한 볼록 현상은 '술통 왜곡'이라고도 하며, 어안효과의 원인이 되기도 한다. 접선왜곡은 이미지센서(210)와 렌즈가 평행하지 않아서 발생하는 왜곡으로 관찰경(1) 제조과정에서 생긴다. 왜곡보정알고리즘은 초점거리(focal length), 주점(principal point), 방사왜곡상수(radial distortion coefficient) 및 접선왜곡상수(tangential distortion coefficient) 중 하나 이상을 포함하는 함수로 나타낼 수 있고, 이미지보정부(222)는 왜곡보정알고리즘을 이용하여 방사왜곡(radial distortion)이나 접선왜곡(tangential distortion)과 같은 기하학적 왜곡을 보정할 수 있다. 기하학적 보정은 공지된 이론으로서, 영상처리분야의 당업자라면 더 이상의 상세한 설명 없이도 이해할 수 있을 것이다.Let us first look at geometric correction. The actual lens is incomplete and there is distortion, because it is much easier to make a spherical lens than an ideal mathematically parabolic lens, and it is not easy to align the lens and
다음으로 원근효과 제거에 대하여 살펴본다. 도 2는 왜곡이미지의 일실시예를 나타낸 것으로서, 기하학적 보정이 완료되었지만, 원근효과 때문에 각 변이 휘어진 사각형을 도시하고 있다. 이렇게 각 변이 휘어진 사각형 이미지가 생성된 것은, 직사각형을 카메라로 촬영하는 경우 직사각형에서 카메라와의 거리가 가까운 부분은 크게 나타나고 카메라와의 거리가 먼 부분은 작게 나타나서, 원근감이 생성되었기 때문인데, 관찰경(1)이 대상의 내부를 촬영함에 있어서도 대상의 내부에 대해 원근감이 적용된 이미지가 획득된다면 대상의 내부의 정확한 형태를 파악하기 어렵게 된다. 따라서 왜곡이미지의 원근효과를 제거할 필요가 있는데, 그 첫 번째 단계로 이미지보정부(222)가 왜곡이미지로부터 소실점좌표를 추출한다. 도 2에서는 직선 AB와 직선 DC가 연장되어 만나는 제1소실점 P1(XP1, YP1)과 직선 AD와 직선 BC가 연장되어 만나는 제2소실점 P2(XP2, YP2)를 추출한다. 도 2에서는 제1소실점 P1은 x축 상에 위치하고, 제2소실점 P2는 y축 상에 위치하는 것으로 하였다. 두 번째 단계로 이미지보정부(222)가 소실점좌표로부터 프로젝션알고리즘을 구성하는 보정계수를 산출한다. 이를 위해 먼저 하기 수학식 3과 같이 프로젝션매트릭스 [P]를 생성한다.Next, we will look at removing the perspective effect. Fig. 2 shows an embodiment of a distorted image, in which geometric correction has been completed, but a rectangle in which each side is warped due to the perspective effect is shown. The reason why the rectangle image is formed with each of the sides is that when the rectangle is photographed by the camera, the portion near the distance from the camera is large in the rectangle and the portion far from the camera is small and the perspective is generated. (1) Even if the inside of the object is photographed, if an image in which the perspective is applied to the inside of the object is acquired, it is difficult to grasp the exact form of the inside of the object. Therefore, it is necessary to remove the perspective effect of the distorted image. In the first step, the
[수학식 3]&Quot; (3) "
(a, b는 보정계수이고, 이하 같다.)(a and b are correction coefficients, and are the same hereinafter).
수학식 3의 프로젝션매트릭스 [P]는 원본매트릭스 [A]에 매트릭스 [B]를 곱함으로써 생성되는 매트릭스로, 3차원 상의 공간이미지를 2차원 상의 평면이미지로 변환하는 매트릭스이다. 그리고 보정계수 a, b는 보정이미지 좌표 (X, Y)로부터 왜곡이미지 좌표 (x, y)를 추출하기 위해 필요한 파라미터이다.The projection matrix [P] of Equation (3) is a matrix generated by multiplying the original matrix [A] by the matrix [B], and is a matrix for converting the three-dimensional space image into a two-dimensional plane image. The correction coefficients a and b are parameters necessary to extract the distorted image coordinates (x, y) from the corrected image coordinates (X, Y).
3차원 상의 임의의 한 점을 프로젝션매트릭스 [P]를 통하여 변환하면 하기 수학식 4와 같이 나타낼 수 있다.If an arbitrary point on the three-dimensional plane is transformed through the projection matrix [P], the following equation (4) can be obtained.
[수학식 4]&Quot; (4) "
그리고 수학식 4의 3열과 4열을 기본벡터 형식으로 나타내기 위하여 수학식 4를 (ax+by+1)로 나누면 하기 수학식 5와 같이 나타낼 수 있다.In order to express the third and fourth columns of Equation (4) as a basic vector form, the equation (4) can be expressed as Equation (5) by dividing the equation (4) by (ax + by + 1).
[수학식 5]&Quot; (5) "
여기서, 수학식 5의 마지막 줄에 나타낸 것처럼, x/(ax+by+1)와 y/(ax+by+1)은 각각 X, Y로 치환하여 나타낼 수 있다. 즉, [X, Y, 0, 1]은 3차원 상의 임의의 한 점 [x, y, z, 1]이 프로젝션매트릭스 [P]를 통하여 변환된 2차원 상의 점이고, 여기서 각 매트릭스의 4열은 보정계수 a, b를 산출하기 위한 기본벡터이다. 한편 도 2에서 제1소실점 P1(XP1, YP1)과 제2소실점 P2(XP2, YP2)는 각각 x축과 y축 상의 점으로 표시되었으므로 x축 상의 단위벡터 [1, 0, 0, 0]과 y축 상의 단위벡터 [0, 1, 0, 0]을 프로젝션매트릭스 [P]를 통하여 변환하면 하기 수학식 6과 같이 나타낼 수 있다.Here, x / (ax + by + 1) and y / (ax + by + 1) can be replaced by X and Y, respectively, as shown in the last line of Equation (5). That is, [X, Y, 0, 1] is a point on a two-dimensional transformed through a projection matrix [P], where an arbitrary point [x, y, z, 1] on a three- Is a basic vector for calculating the correction coefficients a and b. In FIG. 2, since the first vanishing point P1 (X P1 , Y P1 ) and the second vanishing point P2 (X P2 , Y P2 ) are represented by points on the x and y axes, , 0] and the y-axis unit vector [0, 1, 0, 0] through the projection matrix [P]
[수학식 6]&Quot; (6) "
그리고 수학식 6의 3열과 4열을 기본벡터 형식으로 나타내기 위하여 수학식 6의 1행을 a로 나누고, 2행을 b로 나누면 하기 수학식 7과 같이 나타낼 수 있다.In order to express the third and fourth columns of Equation 6 in the basic vector form, the first row of Equation 6 is divided by a, and the second row is divided by b.
[수학식 7]&Quot; (7) "
(XP1은 제1소실점을 x축 상에 위치시켰을 때 제1소실점의 x좌표이고, YP2 는 제2소실점을 y축 상에 위치시켰을 때 제2소실점의 y좌표이며, 이하 같다.)(Where X P1 is the x coordinate of the first vanishing point when the first vanishing point is located on the x axis and Y P2 is the y coordinate of the second vanishing point when the second vanishing point is located on the y axis,
그리고 수학식 7로부터 하기 수학식 2의 관계를 얻을 수 있다.From Equation (7), the following Equation (2) can be obtained.
[수학식 2]&Quot; (2) "
한편 상기 수학식 5를 정리하면, 하기 수학식 8과 같이 나타낼 수 있다.Meanwhile, the equation (5) can be summarized as the following equation (8).
[수학식 8]&Quot; (8) "
그리고 수학식 8의 연립방정식을 풀면 하기 수학식 1과 같은 프로젝션알고리즘을 생성할 수 있다.Then, by solving the simultaneous equations of Equation (8), a projection algorithm such as Equation (1) can be generated.
[수학식 1][Equation 1]
(x, y : 왜곡이미지 좌표, X, Y : 보정이미지 좌표, a, b : 보정계수)(x, y: distorted image coordinates, X, Y: corrected image coordinates, a, b: correction coefficient)
수학식 1로 표현되는 프로젝션알고리즘은 보정계수 a, b 대신에 수학식 2에서 산출한 1/XP1, 1/YP2를 대입하여 이용할 수 있다. 그리고 이러한 수학식 1을 이용함으로써 보정이미지 좌표 (X, Y)로부터 왜곡이미지 좌표 (x, y)를 추출하여 왜곡이미지의 화소를 보정이미지의 화소에 배치할 수 있다. 이는 인버스매핑(inverse mapping) 방식으로 미리 보정이미지를 가정하고 보정이미지의 화소가 왜곡이미지의 어느 화소와 매칭되는지를 찾는 방식이다. 이렇게 이미지보정부(222)는 수학식 1을 이용하는 인버스매핑(inverse mapping) 방식으로 보정이미지를 생성한다. 사용자는 생성된 보정이미지에 원근효과가 기대한 만큼 제거되지 않은 경우, 보정계수 a, b를 조절하여 이미지보정부(222)가 새로운 보정이미지를 생성하도록 할 수 있다.The projection algorithm expressed by Equation (1) can be used by substituting 1 / X P1 , 1 / Y P2 calculated in Equation (2) instead of the correction coefficients a and b. The distortion image coordinates (x, y) can be extracted from the corrected image coordinates (X, Y) by using the equation (1), and the pixels of the distorted image can be arranged in the pixels of the corrected image. This is a method of inversely mapping a correction image in advance and assuming a pixel of the corrected image to match with the pixel of the distorted image. In this way, the
이미지데이터생성부(223)는 이미지보정부(222)가 생성한 보정이미지에 관하여 이미지데이터를 생성한다. 이미지데이터생성부(223)는 보정이미지를 후술할 디스플레이부(240)의 사이즈에 맞게 스케일링하여 이미지데이터를 생성할 수 있고, 필요에 따라 스케일링된 보정이미지를 압축부호화하는 인코더를 구비하여 스케일링하여 생성한 이미지데이터를 압축할 수도 있다.The image
메모리부(230)는 도 1에 도시된 바와 같이 이미지프로세서부(220)에 의해 이미지데이터가 저장되는 영역이다. 메모리부(230)는 플레시메모리타입(flash memory type), 하드디스크타입(hard disk type), 멀티미디어카드마이크로타입(multimedia card micro type), 카드타입의 메모리(예를 들어 SD메모리, XD메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기디스크 및 광디스크 중 하나 이상이 될 수 있으나, 이에 한정하는 것은 아니다. 또한 사용자가 관찰경(1)이 촬영하는 이미지를 녹화하길 원하는 경우, 이러한 사용자의 녹화요청에 따라 이미지데이터는 메모리부(230)에서 녹화파일로 저장될 수도 있다. 또한 전술한 왜곡보정알고리즘이나 프로젝션알고리즘이 메모리부(230)에 저장되어 이미지보정부(222)가 왜곡이미지를 보정할 때 메모리부(230)에 저장된 상기 알고리즘을 참조할 수 있으며, 이미지보정부(222)는 특히 왜곡이미지의 원근효과를 제거할 때 보정계수를 산출하여 산출된 보정계수가 적용된 프로젝션알고리즘을 메모리부(230)에 저장할 수 있다.The
디스플레이부(240)는 도 1에 도시된 바와 같이 이미지프로세서부(220)가 생성한 이미지데이터를 디스플레이한다. 디스플레이부(240)는 액정디스플레이(Liquid Crystal Display, LCD), 유기발광다이오드(Organic Light Emitting Diode, OLED), 전계발광디스플레이(Electro Luminescent Display, ELD), 플라즈마디스플레이패널(Plasma Display Panel, PDP), 전계방출디스플레이(Field Emission Display, FED) 및 전기영동디스플레이(Electro Phoretic Display, EPD) 중 선택되는 하나의 디스플레이장치를 포함할 수 있으나, 이에 한정하는 것은 아니다. 디스플레이부(240)는 디스플레이장치가 본체부(20)에 고정되어 있는 고정식 디스플레이부(240)일 수 있고, 디스플레이장치를 탈착할 수 있는 탈착식 디스플레이부(240)일 수도 있다. 탈착식 디스플레이부(240)의 경우, 본체부(20)에 디스플레이장치가 거치되는 거치부(미도시)가 구비될 수 있다. 또한 디스플레이부(240)는, 커버를 구비하여 커버를 접으면 디스플레이장치의 화면을 덮게 되고 커버를 펴면 디스플레이장치의 화면이 보이게 되는, 접이식 디스플레이부(240)일 수도 있다.The
통신부(250)는 도 1에 도시된 바와 같이 이미지프로세서부(220)가 생성한 이미지데이터를 외부기기로 전달하며, 이로 인해 후술하는 원격진료가 가능하다. 통신부(250)는 이미지데이터를 외부기기로 유선으로 전달할 수도 있고, 이를 위해 USB포트 또는 메모리카드슬롯을 구비할 수 있으나, 이에 한정하는 것은 아니다. 또한 통신부(250)는 이미지데이터를 외부기기로 무선으로 전달할 수도 있고, 이 경우 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상의 무선통신수단을 이용할 수 있으나, 이에 한정하는 것은 아니다. 사용자의 녹화요청에 따라 이미지데이터가 녹화파일로 저장된 경우, 사용자는 통신부(250)의 USB포트에 유에스비플래시 드라이브(USB flash drive)를 연결하거나 통신부(250)의 메모리카드슬롯에 메모리카드를 연결하여 녹화파일을 다운로드할 수 있다.The
이미지프로세서부(220)는 이미지데이터의 빠른 저장과 독출을 위해 DMA(Direct Memory Access)컨트롤러(미도시)를 포함하여, DMA(Direct Memory Access) 방식으로 메모리부(230), 디스플레이부(240), 통신부(250) 및 이미지프로세서부(220) 간에 이미지데이터를 수수할 수 있다.The
본 발명의 관찰경시스템은 관찰경(1) 및 단말을 포함하여 이루어지며, 도 3 내지 도 5는 관찰경시스템의 일실시예를 도시하고 있다. 이하, 도 3 내지 도 5를 참조하여 관찰경시스템을 이루는 각 구성요소별로 상술하기로 한다.The observation light system of the present invention comprises an observation light source (1) and a terminal, and Figs. 3 to 5 show an embodiment of an observation light source system. Hereinafter, each component constituting the observation light system will be described in detail with reference to FIGS. 3 to 5. FIG.
관찰경(1)은 전술한 바와 같이, 대상의 내부에 광을 조사한 다음 대상의 내부로부터 반사되는 광을 취득하여 이미지데이터를 생성하는 장치로서, 헤드부(10) 및 본체부(20)를 포함하여 이루어진다.As described above, the
단말은 관찰경(1)과 유선 또는 무선통신수단을 통하여 연결되는 기기이다. 유선통신수단은 소정의 케이블일 수 있고, 무선통신수단은 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상일 수 있으나, 다른 유선 또는 무선통신수단을 배제하는 것은 아니다. 단말은 유선단말 또는 무선단말일 수 있고, 도 3은 관찰경(1)과 무선통신수단을 통하여 연결되는 유선단말과 무선단말을 도시하고 있다. 유선단말은 개인컴퓨터(Personal Computer, PC) 및/또는 노트북(notebook)일 수 있고, 이하 같으나, 이에 한정하는 것은 아니다. 무선단말은 개인통신단말기(Personal Communication System, PCS), GSM(Global System for Mobile communications)단말기, 개인디지털셀룰러단말기(Personal Digital Cellular, PDC), PHS(Personal Handyphone System)단말기, 개인정보단말기(Personal Digital Assistant, PDA), 스마트폰(smart phone), 텔레매틱스(telematics) 및 무선데이터통신단말기, 휴대인터넷단말 중 하나 이상이 될 수 있을 뿐만 아니라, 의사가 착용하는 안경도 무선통신모듈을 구비하여 이미지데이터를 전달받을 수 있으므로, 무선단말을 어떤 형태로든 한정하지 않으며, 이하 같다. 관찰경(1)의 본체부(20)가 통신부(250)를 포함하는 경우, 단말은 통신부(250)로부터 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는다. 또한 관찰경(1)의 본체부(20)는 단말이 거치되는 거치부(미도시)를 포함하여, 단말이 거치부에 거치된 상태에서 관찰경(1)에서 단말로 유선 또는 무선통신수단을 통한 이미지데이터 전달이 이루어질 수 있다.The terminal is a device connected to the
관찰경(1) 및 단말은 상기 유선 또는 무선통신수단에 의한 미러링(mirroring)을 통하여 복수 개의 기능을 공유할 수 있다. 예를 들어 관찰경(1)의 본체부(20)가 디스플레이부(240)를 포함하는 경우, 디스플레이부(240)에서 디스플레이되는 화면이 스트리밍(streaming)을 통해 단말로 동일하게 출력될 수 있다.The
관찰경시스템에서 단말은 복수 개의 단말기를 의미할 수도 있으므로, 관찰경시스템은 관찰경(1), 제1단말 및 제2단말을 포함하여 이루어질 수 있다. 관찰경(1) 및 제1단말은 제1통신수단에 의한 미러링(mirroring)을 통하여 복수 개의 기능을 공유할 수 있고, 제1단말 및 제2단말은 제2통신수단에 의한 미러링(mirroring)을 통하여 복수 개의 기능을 공유할 수 있다. 예를 들어 관찰경(1)의 본체부(20)가 디스플레이부(240)를 포함하는 경우, 디스플레이부(240)에서 디스플레이되는 화면이 스트리밍(streaming)을 통해 제1단말로 동일하게 출력될 수 있고, 제1단말에서 출력되는 화면이 스트리밍(streaming)을 통해 제2단말로 동일하게 출력될 수 있다. 제1통신수단은 상기 유선 또는 무선통신수단일 수 있고, 제2통신수단도 상기 유선 또는 무선통신수단일 수 있으며, 제1단말은 상기 유선단말 또는 상기 무선단말일 수 있고, 제2단말도 상기 유선단말 또는 상기 무선단말일 수 있다. 도 4는 관찰경(1)과 무선통신수단을 통하여 연결되는 제1무선단말 및 제1무선단말과 무선통신수단을 통하여 연결되는 제2무선단말을 도시하고 있다. 제1단말 및 제2단말 간의 미러링(mirroring)은 제2단말이 제1단말에 기능 공유를 위한 요청을 전송하고 요청을 수신한 제1단말이 응답함으로써 이루어질 수 있으나, 이러한 방식에 한정하는 것은 아니다. 특히 관찰경(1) 및 제1단말보다 제1단말 및 제2단말이 더 많은 기능을 공유할 수 있는데, 전술한 화면뿐만 아니라, 오디오, 스케치, 파일, 카메라, 위치, 음성통화, 영상통화, 채팅 등을 공유할 수 있다.Since the terminal may refer to a plurality of terminals in the observation light system, the observation light system may include the
관찰경시스템에서 단말이 관찰경(1)으로부터 원거리에 위치하는 경우, 단말은 관찰경(1)과 WCDMA, HSDPA, CDMA2000, 와이브로(WiBro), 와이맥스(WiMax), LTE, LTE-Advanced 및 와이파이(Wi-Fi) 중 하나 이상 무선통신수단을 이용하여 접속하는 인터넷을 통하여 연결될 수 있으나, 다른 무선통신수단을 배제하지 않음은 물론이다. 도 5는 관찰경(1) 및 관찰경(1)으로부터 원거리에 위치하는 단말이 연결되는 모습을 도시하고 있다. 관찰경(1)과 단말 간에는 하나 이상의 게이트웨이(예를 들어, 유·무선 공유기에 설정된 게이트웨이, 인터넷제공사의 게이트웨이 등)나 하나 이상의 액세스포인트(예를 들어, 무선중계기, 기지국 등)가 존재할 수 있으며, 관찰경(1)이 디지털신호로 이미지데이터를 송출하는 경우 감쇠한 디지털신호를 재생하는 리피터가 하나 이상 존재할 수 있다.When the terminal is located at a distance from the
본 발명의 관찰경시스템은 관찰경(1) 및 서버를 포함하여 이루어질 수도 있으며, 도 5는 이러한 관찰경시스템의 일실시예를 도시하고 있다. 이러한 관찰경시스템에서 관찰경(1)과 유선 또는 무선네트워크 상의 서버가 연결되어, 관찰경(1)의 통신부(250)로부터 전달된 이미지데이터가 서버에 저장될 수 있다. 서버에 저장된 이미지데이터는 환자, 의사, 기타 관계인이 소정의 수단을 통하여 이용할 수 있으며, 이러한 관점에서 관찰경시스템은 관찰경(1) 및 서버 외에 서버로부터 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말을 더 포함하여 이루어질 수 있다. 여기서 단말은 유선단말 또는 무선단말일 수 있다. 이러한 관찰경시스템은 도 5에 도시된 바와 같이, 관찰경(1)과 인터넷을 통하여 연결되는 서버 사이에 하나 이상의 게이트웨이(예를 들어, 유·무선 공유기에 설정된 게이트웨이, 인터넷제공사의 게이트웨이 등)나 하나 이상의 액세스포인트(예를 들어, 무선중계기, 기지국 등)가 존재할 수 있으며, 관찰경(1)이 디지털신호로 이미지데이터를 송출하는 경우 감쇠한 디지털신호를 재생하는 리피터가 하나 이상 존재할 수 있다.The observation light system of the present invention may comprise an
또한 이러한 관찰경시스템에서, 원격진료가 이루어질 수 있다. 관찰경(1)으로부터 원거리에 위치하는 의사인 원격의사가 서버 또는 단말에 전달된 이미지데이터를 분석하여 분석결과 및/또는 이와 관련된 처방을 관찰경(1)의 사용자에게 제공하거나, 서버 또는 단말에 설치된 이미지데이터 분석 프로그램인 가상의사가 서버 또는 단말에 전달된 이미지데이터를 분석하여 분석결과 및/또는 이와 관련된 처방을 관찰경(1)의 사용자에게 제공할 수도 있다. 이 경우 서버 또는 단말은, 관찰경(1) 사용자의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 분석결과 및/또는 이와 관련된 처방이 전달되게 할 수 있고, 관찰경(1)의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 분석결과 및/또는 이와 관련된 처방이 전달되게 할 수도 있다.Also, in such an observation system, telemedicine can be performed. A remote doctor, who is a doctor located remotely from the
또한 이러한 관찰경시스템에서, 다량의 이미지데이터가 서버 또는 단말에 축적되는 경우 축적된 이미지데이터는 빅데이터 분석이나 치료예후비교에 사용될 수 있고, 빅데이터 분석 결과나 치료예후비교 결과가 관찰경(1)의 사용자에게 제공될 수 있다. 이 경우 서버 또는 단말은, 관찰경(1) 사용자의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 빅데이터 분석 결과나 치료예후비교 결과가 전달되게 할 수 있고, 관찰경(1)의 아이디를 인증하여 관찰경(1) 사용자가 소유하는 단말로 빅데이터 분석 결과나 치료예후비교 결과가 전달되게 할 수도 있다.Also, in this observation system, when a large amount of image data is accumulated in a server or a terminal, accumulated image data can be used for big data analysis or comparison of treatment outcome, Quot;). ≪ / RTI > In this case, the server or the terminal can authenticate the user ID of the observer (1) so that the result of the big data analysis or the comparison of the treatment outcome can be transmitted to the terminal owned by the observer (1) (1) may allow the user of the observer (1) to transmit the results of the big data analysis or the comparison of the treatment prognosis.
이하, 앞에서 도 1을 참조하여 상술하였던 본 발명의 관찰경(1)에 관하여 실시예를 상술하기로 한다. 앞에서 명확하지 않았던 부분은 하기의 실시예를 통하여 명확하게 이해될 수 있을 것이다.Hereinafter, examples of the
[실시예][Example]
<관찰경(1)의 전반적인 구조><Overall Structure of Observation Light (1)> [
도 6 내지 도 8에 도시된 것과 같은 관찰경(1)을 제조하였다. 제조된 관찰경(1)은 전체적으로 권총 형상으로서, 사용자가 튜브(180)를 연결하고 파지하여 사용할 수 있도록 되어 있다. 제조된 관찰경(1)은 헤드부(10), 본체부(20) 및 연결부(30)로 나눌 수 있고, 도 6 및 도 7에서는 제조된 관찰경(1)의 외형을, 도 8에서는 제조된 관찰경(1)의 내부를 도시하고 있다. 도 6에 도시된 헤드부(10)와 본체부(20)가 결합된 관찰경(1)은 도 7에 도시된 바와 같이 헤드부(10)와 본체부(20)를 분리할 수 있도록 되어 있다.An
헤드부(10)는 도 8에 도시된 광취득부(110), 광방출부(120), 튜브(180), 도 7에 도시된 튜브홀더(130), 턴슬라이더(150), 고정부(160), 고정부홈(170), 도 6 내지 도 8에는 도시하지 않았지만 튜브홀더(130)와 턴슬라이더(150) 사이에 위치하는 턴가이드(140)를 포함하여 이루어진다. 또한 도 6 내지 도 8에는 도시하지 않았지만 튜브홀더(130)는 튜브홀더돌기(131)를 포함하고, 턴가이드(140)는 안내면(141)을 포함하며, 턴슬라이더(150)는 턴슬라이더홈(151)을 포함한다. 튜브홀더(130)는 도 7에 도시된 바와 같이 홀(hole)을 포함하는데, 사용자는 도 8에 도시된 바와 같이 이 홀(hole)에 튜브(180)를 삽입하여 관찰경(1)을 사용할 수 있다. 고정부(160)는 회전하지 않고 고정된 부분이며, 나머지 부분 중 전술하지 않은 부분에 대하여는 후술한다.The
본체부(20)는 도 8에 도시된 이미지센서(210), 이미지프로세서부(220), 광원부(260), 도 7에 도시된 디스플레이부(240), 하우징부(270), 손잡이부(280), 도 6 내지 도 8에는 도시하지 않았지만 메모리부(230), 통신부(250)를 포함하여 이루어진다. 하우징부(270)는 이미지센서(210), 이미지프로세서부(220), 메모리부(230), 통신부(250), 광원부(260) 등을 수용한다. 손잡이부(280)는 사용자가 파지하는 부분이며, 나머지 부분에 대하여는 전술하였다.The
연결부(30)는 도 7에 도시된 바와 같이 헤드부(10) 일측에 형성되는 핀(310) 및 본체부(20) 일측에 형성되는 락커(320)를 포함하여 이루어지고, 헤드부(10)와 본체부(20)를 연결한다. 또한 도 6 내지 도 8에는 도시하지 않았지만 락커(320)는 락커홈(321), 락커외벽(322) 및 락커내벽(323)을 포함한다.7, the
<헤드부(10)의 탈착>≪ Dismounting of the
도 6 및 도 7에 도시된 헤드부(10)의 탈착은 연결부(30)의 핀(310)과 락커(320)가 분리 또는 결합하는 구조에 의해 가능하다. 도 9 및 도 10은 연결부(30)의 구조를 상세히 도시하고 있고, 헤드부(10)의 탈착의 설명에 불필요한 부분은 도시하지 않았다. 사용자는 핀(310)을 락커홈(321)에 삽입하고, 락커(320)를 시계 방향 또는 반시계 방향으로 회전시켜 헤드부(10)와 본체부(20)를 결합할 수 있다. 도 9에서 사용자가 핀(310)을 락커홈(321)에 삽입하면 고정부홈(170)이 락커외벽(322)에 맞물리게 되고, 이 상태는 아직 사용자가 헤드부(10)를 앞·뒤로 움직이면 헤드부(10)를 본체부(20)로부터 분리할 수 있는 상태이다. 이 상태에서 사용자가 락커(320)를 시계 방향 또는 반시계 방향으로 회전시키면, 락커홈(321)에 삽입된 핀(310)이 도 10에 도시된 락커내벽(323)에 막혀 헤드부(10)가 본체부(20)로부터 분리될 수 없는 상태가 된다. 또한 사용자는 이 상태에서 락커(320)를 시계 방향 또는 반시계 방향으로 회전시켜 락커홈(321)과 핀(310)을 정렬하고, 헤드부(10)를 앞으로 당김으로써 헤드부(10)를 본체부(20)로부터 분리할 수 있다.The attachment and detachment of the
<초점거리 조절><Focal length adjustment>
초점거리는 헤드부(10)가 갖춘 회전운동을 직선운동으로 변환하는 구조에 의하여 조절될 수 있고, 이러한 헤드부(10)의 구조를 도 11 및 도 12에서 상세히 도시하고 있으며, 초점거리 조절의 설명에 불필요한 부분은 도시하지 않았다. 도 11 및 도 12에 도시된 바와 같이, 헤드부(10)는 튜브홀더돌기(131)를 포함하고 좁은 선단과 넓은 후단을 가지는 튜브홀더(130), 안내면(141)을 포함하고 튜브홀더(130)의 일부를 둘러싸는 턴가이드(140), 튜브홀더돌기(131)에 맞물리는 턴슬라이더홈(151)을 포함하고 턴가이드(140)의 일부를 둘러싸는 턴슬라이더(150)를 포함하는 구조를 갖추고 있다. 사용자가 턴슬라이더(150)를 반시계 방향으로 회전시키면, 턴슬라이더홈(151)이 튜브홀더돌기(131)에 힘을 가하게 되면서 튜브홀더(130)가 반시계 방향으로 회전하며 뒤로 움직이게 되고(여기서 튜브홀더돌기(131)는 안내면(141)을 따라 이동함.), 초점거리는 짧아진다. 반대로, 사용자가 턴슬라이더(150)를 시계 방향으로 회전시키면, 턴슬라이더홈(151)이 튜브홀더돌기(131)에 힘을 가하게 되면서 튜브홀더(130)가 시계 방향으로 회전하며 앞으로 움직이게 되고(여기서 튜브홀더돌기(131)는 안내면(141)을 따라 이동함.), 초점거리는 길어진다. 여기서 턴가이드(140)와 도 11 및 도 12에는 도시되지 않은 고정부(160)는 움직이지 않는다. 즉 턴슬라이더(150)의 회전운동이 튜브홀더(130)의 직선운동으로 변환되면서 초점거리가 조절되는 것이다.The focal length can be adjusted by a structure for converting the rotational motion of the
본 발명을 첨부된 도면과 함께 설명하였으나, 이는 본 발명의 요지를 포함하는 다양한 실시 형태 중의 하나의 실시예에 불과하며, 당업계에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 하는 데에 그 목적이 있는 것으로, 본 발명은 상기 설명된 실시예에만 국한되는 것이 아님은 명확하다. 따라서, 본 발명의 보호범위는 하기의 청구범위에 의해 해석되어야 하며, 본 발명의 요지를 벗어나지 않는 범위 내에서의 변경, 치환, 대체 등에 의해 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함될 것이다. 또한, 도면의 일부 구성은 구성을 보다 명확하게 설명하기 위한 것으로 실제보다 과장되거나 축소되어 제공된 것임을 명확히 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it should be understood that various changes and modifications will be apparent to those skilled in the art. Obviously, the invention is not limited to the embodiments described above. Accordingly, the scope of protection of the present invention should be construed according to the following claims, and all technical ideas which fall within the scope of equivalence by alteration, substitution, substitution, and the like within the scope of the present invention, Range. In addition, it should be clarified that some configurations of the drawings are intended to explain the configuration more clearly and are provided in an exaggerated or reduced size than the actual configuration.
1 : 관찰경
10 : 헤드부
110 : 광취득부
120 : 광방출부
130 : 튜브홀더
131 : 튜브홀더돌기
140 : 턴가이드
141 : 안내면
150 : 턴슬라이더
151 : 턴슬라이더홈
160 : 고정부
170 : 고정부홈
180 : 튜브
20 : 본체부
210 : 이미지센서
220 : 이미지프로세서부
221 : 신호변환부
222 : 이미지보정부
223 : 이미지데이터생성부
230 : 메모리부
240 : 디스플레이부
250 : 통신부
260 : 광원부
270 : 하우징부
280 : 손잡이부
30 : 연결부
310 : 핀
320 : 락커
321 : 락커홈
322 : 락커외벽
323 : 락커내벽1: Observation light
10:
110:
120: light emitting portion
130: tube holder
131: projection of the tube holder
140: Turn guide
141: guide surface
150: turn slider
151: Turn slider groove
160:
170: Higher government home
180: tube
20:
210: Image sensor
220: image processor unit
221: Signal conversion section
222: image correction unit
223: Image data generation unit
230: memory unit
240:
250:
260: Light source
270:
280: Handle portion
30: Connection
310: pin
320: Rocker
321: Locker home
322: Locker outer wall
323: Locker inner wall
Claims (32)
상기 대상의 내부로부터 반사되는 광을 취득하여 광신호를 생성하는 광취득부(110)를 포함하는 헤드부(10); 및
상기 헤드부(10)에 결합되고, 상기 광취득부(110)로부터 광신호를 수신하여 이미지신호를 생성하는 이미지센서(210) 및 상기 이미지센서(210)가 생성한 이미지신호를 처리하여 이미지데이터를 생성하는 이미지프로세서부(220)를 포함하는 본체부(20);
를 포함하여 이루어지고,
상기 헤드부(10)는 상기 본체부(20)로부터 분리될 수 있으며,
상기 이미지프로세서부(220)는 이미지보정부(222)를 더 포함하여, 상기 이미지센서(210)로부터 이미지신호를 수신한 후 왜곡보정알고리즘을 이용한 왜곡이미지의 기하학적 보정을 수행하도록 이루어지는 것을 특징으로 하는 관찰경.
In the observation light (1) for photographing the inside of the object,
A head part (10) including a light acquisition part (110) for acquiring light reflected from the inside of the object and generating an optical signal; And
An image sensor 210 coupled to the head unit 10 and configured to receive an optical signal from the light acquisition unit 110 to generate an image signal and an image sensor 210 to process the image signal generated by the image sensor 210, A main body unit 20 including an image processor unit 220 for generating an image;
, ≪ / RTI >
The head portion 10 may be detached from the main body portion 20,
The image processor 220 may further include an image corrector 222 to perform geometric correction of a distorted image using a distortion correction algorithm after receiving an image signal from the image sensor 210 Observations.
상기 헤드부(10)는 초점거리(focal length)를 조절하는 기능을 구비하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
Characterized in that the head part (10) has a function of adjusting a focal length.
상기 헤드부(10)는 회전운동을 직선운동으로 변환하는 구조를 구비하고, 상기 구조에 의하여 상기 초점거리(focal length)가 조절되는 것을 특징으로 하는 관찰경.
The method of claim 2,
Characterized in that the head part (10) has a structure for converting a rotational motion into a linear motion, and the focal length is adjusted by the structure.
상기 헤드부(10)는,
렌즈 및 복수 개의 광섬유를 포함하고, 상기 대상의 내부에 삽입되어 상기 반사되는 광을 상기 광취득부(110)로 전달하는 튜브(180)를 더 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The head portion (10)
Further comprising a lens (180) including a lens and a plurality of optical fibers, the tube (180) being inserted into the object and transmitting the reflected light to the light acquiring unit (110).
상기 렌즈는 어안렌즈 또는 광각렌즈인 것을 특징으로 하는 관찰경.
The method of claim 6,
Wherein the lens is a fish-eye lens or a wide-angle lens.
상기 본체부(20)는,
상기 이미지데이터를 디스플레이하는 디스플레이부(240)를 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The main body part (20)
And a display unit (240) for displaying the image data.
상기 디스플레이부(240)는 고정식 또는 탈착식 디스플레이부(240)인 것을 특징으로 하는 관찰경.
The method of claim 9,
Wherein the display unit (240) is a fixed or detachable display unit (240).
상기 디스플레이부(240)는 접이식 디스플레이부(240)인 것을 특징으로 하는 관찰경.
The method of claim 9,
Wherein the display unit (240) is a foldable display unit (240).
상기 본체부(20)는,
상기 이미지데이터를 외부기기로 전달하는 통신부(250)를 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The main body part (20)
And a communication unit (250) for transmitting the image data to an external device.
상기 본체부(20)는,
사용자의 녹화요청에 따라 상기 이미지데이터가 녹화파일로 저장되는 메모리부(230)를 더 포함하는 것을 특징으로 하는 관찰경.
The method of claim 12,
The main body part (20)
Further comprising a memory unit (230) storing the image data as a recording file according to a user's recording request.
상기 사용자는 상기 녹화파일을 상기 통신부(250)에 연결되는 유에스비플래시 드라이브(USB flash drive) 또는 메모리카드에 다운로드할 수 있는 것을 특징으로 하는 관찰경.
14. The method of claim 13,
The user can download the recording file to a USB flash drive or a memory card connected to the communication unit 250. [
상기 본체부(20)는,
상기 대상의 내부에 조사될 광을 생성하는 광원부(260)를 포함하는 것을 특징으로 하는 관찰경.
The method according to claim 1,
The main body part (20)
And a light source unit (260) for generating light to be irradiated inside the object.
상기 통신부(250)로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말;
을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
The observation light (1) of claim 12; And
A terminal for receiving the image data from the communication unit 250 through wired or wireless communication means;
And a second light source.
상기 무선통신수단은 적외선(IR)통신, 라디오주파수(RF)통신, 무선랜, 와이파이(Wi-Fi), 와이브로(WiBro), 초광대역통신(UWB), 블루투스, 직비 및 근거리무선통신(NFC) 중 하나 이상인 것을 특징으로 하는 관찰경시스템.
18. The method of claim 16,
The wireless communication means may be an infrared (IR) communication, a radio frequency (RF) communication, a wireless LAN, a Wi-Fi, a WiBro, an ultra wideband (UWB), a Bluetooth, Or more. ≪ / RTI >
상기 관찰경(1) 및 상기 단말은 상기 유선 또는 무선통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 것을 특징으로 하는 관찰경시스템.
18. The method of claim 16,
Wherein the observation light (1) and the terminal share the image data through mirroring by the wired or wireless communication means.
상기 본체부(20)는,
상기 단말이 거치되는 거치부를 더 포함하는 것을 특징으로 하는 관찰경시스템.
18. The method of claim 16,
The main body part (20)
Further comprising a mounting portion on which the terminal is mounted.
상기 관찰경(1)과 제1통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제1단말; 및
상기 제1단말과 제2통신수단에 의한 미러링(mirroring)을 통하여 상기 이미지데이터를 공유하는 제2단말;
을 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
(1) of claim 1;
A first terminal sharing the image data through the observation light (1) and mirroring by a first communication means; And
A second terminal sharing the image data through mirroring by the first terminal and the second communication means;
And a second light source.
상기 통신부(250)로부터 상기 이미지데이터를 전달받아 저장하는 서버;
를 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
The observation light (1) of claim 12; And
A server for receiving and storing the image data from the communication unit 250;
And a second light source.
상기 서버로부터 상기 이미지데이터를 유선 또는 무선통신수단을 통하여 전달받는 단말;
을 더 포함하여 이루어지는 것을 특징으로 하는 관찰경시스템.
23. The method of claim 21,
A terminal for receiving the image data from the server through wired or wireless communication means;
Further comprising: a light source;
원격의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경(1)의 사용자에게 제공하는 것을 특징으로 하는 관찰경시스템.
23. The method of claim 22,
Wherein the remote doctor analyzes the image data transmitted to the server or the terminal and provides the analysis result to the user of the observer (1).
가상의사가 상기 서버 또는 상기 단말에 전달된 이미지데이터를 분석하여 분석결과를 상기 관찰경(1)의 사용자에게 제공하는 것을 특징으로 하는 관찰경시스템.
23. The method of claim 22,
Wherein the virtual doctor analyzes the image data transmitted to the server or the terminal and provides the analysis result to the user of the observation light (1).
상기 서버 또는 상기 단말은 상기 사용자의 아이디를 인증하는 것을 특징으로 하는 관찰경시스템.
The method of claim 23 or 24,
Wherein the server or the terminal authenticates the identity of the user.
상기 서버 또는 상기 단말은 상기 관찰경(1)의 아이디를 인증하는 것을 특징으로 하는 관찰경시스템.
The method of claim 23 or 24,
Wherein the server or the terminal authenticates the identity of the observer (1).
(I) 광원부(260)가 상기 대상의 내부에 조사될 광을 생성하는 단계;
(II) 상기 (I)단계에서 생성된 광이 상기 대상의 내부에 조사되는 단계;
(III) 상기 광취득부(110)가 상기 대상의 내부로부터 반사되는 광을 취득하여 상기 광신호를 생성하는 단계;
(IV) 이미지센서(210)가 상기 (III)단계에서 생성된 광신호를 수신하여 이미지신호를 생성하는 단계;
(V) 이미지프로세서부(220)가 상기 (IV)단계에서 생성된 이미지신호를 처리하여 상기 이미지데이터를 생성하는 단계; 및
(VI) 디스플레이부(240)가 상기 (V)단계에서 생성된 이미지데이터를 디스플레이하는 단계;
를 포함하여 이루어지는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
A method for observing the inside of an object using the object (1) of claim 1,
(I) generating light to be irradiated inside the object;
(II) irradiating light generated in the step (I) inside the object;
(III) obtaining the light reflected from the inside of the object by the light acquisition unit 110 to generate the optical signal;
(IV) receiving the optical signal generated in the step (III) by the image sensor 210 to generate an image signal;
(V) the image processor 220 processes the image signal generated in the step (IV) to generate the image data; And
(VI) displaying the image data generated in the step (V);
And observing the inside of the object using the observation object.
상기 (V)단계는,
(V-1) 이미지보정부(222)가 상기 이미지신호를 수신하는 단계;
(V-2) 상기 이미지보정부(222)가 왜곡이미지를 보정하여 보정이미지를 생성하는 단계; 및
(V-3) 이미지데이터생성부(223)가 상기 보정이미지에 관한 이미지데이터를 생성하는 단계;
를 포함하여 구성되는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
28. The method of claim 27,
The step (V)
(V-1) image correcting unit 222 receiving the image signal;
(V-2) the image correcting unit 222 corrects the distorted image to generate a corrected image; And
(V-3) generating image data related to the corrected image by the image data generating unit 223;
And observing the interior of the object using the observation object.
상기 (V-2)단계는,
(V-2-1) 상기 이미지보정부(222)가 왜곡보정알고리즘을 이용하여 왜곡이미지의 기하학적 보정을 수행하는 단계;
를 포함하는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
29. The method of claim 28,
The step (V-2)
(V-2-1) The image correcting unit 222 performs a geometric correction of a distorted image using a distortion correction algorithm;
And observing the inside of the object using the observation object.
상기 왜곡보정알고리즘은 초점거리(focal length), 주점(principal point), 방사왜곡상수(radial distortion coefficient) 및 접선왜곡상수(tangential distortion coefficient) 중 하나 이상을 포함하는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
29. The method of claim 29,
Wherein the distortion correction algorithm includes at least one of a focal length, a principal point, a radial distortion coefficient, and a tangential distortion coefficient. How to observe the interior of the object.
상기 (V-2)단계는 상기 (V-2-1)단계 이후에,
(V-2-2) 상기 이미지보정부(222)가 상기 왜곡이미지로부터 소실점좌표를 추출하는 단계;
(V-2-3) 상기 이미지보정부(222)가 상기 소실점좌표로부터 프로젝션알고리즘을 구성하는 보정계수를 산출하는 단계; 및
(V-2-4) 상기 이미지보정부(222)가 상기 프로젝션알고리즘을 이용하여 보정이미지를 생성하는 단계;
를 더 포함하고,
상기 프로젝션알고리즘은 하기 수학식 1로 표현되는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
[수학식 1]
(x, y : 왜곡이미지 좌표, X, Y : 보정이미지 좌표, a, b : 보정계수)
29. The method of claim 29,
In the step (V-2), after the step (V-2-1)
(V-2-2) extracting vanishing point coordinates from the distorted image by the image correcting unit 222;
(V-2-3) calculating the correction coefficient constituting the projection algorithm from the vanishing point coordinates by the image correction unit 222; And
(V-2-4) The image correction unit 222 generates a correction image using the projection algorithm;
Further comprising:
Wherein the projection algorithm is expressed by the following equation (1): " (1) "
[Equation 1]
(x, y: distorted image coordinates, X, Y: corrected image coordinates, a, b: correction coefficient)
상기 보정계수는 하기 수학식 2로 표현되는 것을 특징으로 하는 관찰경을 이용하여 대상의 내부를 관찰하는 방법.
[수학식 2]
(XP1 : 제1소실점을 x축 상에 위치시켰을 때 제1소실점의 x좌표, YP2 : 제2소실점을 y축 상에 위치시켰을 때 제2소실점의 y좌표)
32. The method of claim 31,
Wherein the correction coefficient is expressed by the following equation (2): " (2) "
&Quot; (2) "
(X P1 : x coordinate of the first vanishing point when the first vanishing point is located on the x axis, Y P2 : y coordinate of the second vanishing point when the second vanishing point is positioned on the y axis)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160042376A KR101789677B1 (en) | 2016-04-06 | 2016-04-06 | Observing device for telemedicine, Image processing device including the same and System having the same |
PCT/KR2017/003648 WO2017176021A1 (en) | 2016-04-06 | 2017-04-03 | Observation scope for remote medical examination, and image processing device and sysyem comprising same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160042376A KR101789677B1 (en) | 2016-04-06 | 2016-04-06 | Observing device for telemedicine, Image processing device including the same and System having the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170114811A KR20170114811A (en) | 2017-10-16 |
KR101789677B1 true KR101789677B1 (en) | 2017-10-25 |
Family
ID=60001570
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160042376A KR101789677B1 (en) | 2016-04-06 | 2016-04-06 | Observing device for telemedicine, Image processing device including the same and System having the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101789677B1 (en) |
WO (1) | WO2017176021A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000139819A (en) * | 1998-09-01 | 2000-05-23 | Olympus Optical Co Ltd | Endoscope |
KR101444485B1 (en) * | 2006-11-16 | 2014-09-24 | 스트리커 코포레이션 | Wireless endoscopic camera |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040047258A (en) * | 2002-11-29 | 2004-06-05 | 아람휴비스(주) | Multipurpose Multi-Scope and Use Method Thereof |
KR20040049036A (en) * | 2002-12-03 | 2004-06-11 | 김영철 | Medical instrument with Microscopic Camera |
KR101023937B1 (en) * | 2010-10-19 | 2011-03-21 | 주식회사메드스타 | Detachable type medical image dianostic apparatus and method |
-
2016
- 2016-04-06 KR KR1020160042376A patent/KR101789677B1/en active IP Right Grant
-
2017
- 2017-04-03 WO PCT/KR2017/003648 patent/WO2017176021A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000139819A (en) * | 1998-09-01 | 2000-05-23 | Olympus Optical Co Ltd | Endoscope |
KR101444485B1 (en) * | 2006-11-16 | 2014-09-24 | 스트리커 코포레이션 | Wireless endoscopic camera |
Also Published As
Publication number | Publication date |
---|---|
KR20170114811A (en) | 2017-10-16 |
WO2017176021A1 (en) | 2017-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102247114B (en) | Image processing apparatus and image processing method | |
CN104367296B (en) | Hand-held size with integrated distal end display minimizes diagnostic device | |
CN104756093B (en) | For mobile or network equipment interchangeable wireless sensing device | |
JP6329715B1 (en) | Endoscope system and endoscope | |
JP5949592B2 (en) | Endoscope and endoscope apparatus | |
US20110251456A1 (en) | Method and Apparatus For Viewing A Body Cavity | |
CN108042090B (en) | Medical endoscope system configured with artificial intelligence chip and image processing method | |
WO2015056106A2 (en) | Endoscope having disposable illumination and camera module | |
KR101758977B1 (en) | The diagnostic imaging apparatus and method for transmitting a diagnostic image to external system thereby | |
CN110811499A (en) | Borescope and related methods and systems | |
JP6140100B2 (en) | Endoscope apparatus, image processing apparatus, and operation method of endoscope apparatus | |
US10729309B2 (en) | Endoscope system | |
US20190246887A1 (en) | Capsule endoscope apparatus for reproducing 3d image, operation method for same capsule endoscope, receiver for reproducing 3d image in association with capsule endoscope, method for reproducing 3d image by receiver in association with capsule endoscope, and capsule endoscope system | |
WO2016117036A1 (en) | Image processing device, image processing device operation method, image processing device operation program and endoscope device | |
US20210209398A1 (en) | Medical image processing apparatus, processor device, medical image processing method, and program | |
CN108885335B (en) | Medical stereoscopic viewing device, medical stereoscopic viewing method, and program | |
US20240188790A1 (en) | Medical display controlling apparatus and display controlling method | |
KR101789677B1 (en) | Observing device for telemedicine, Image processing device including the same and System having the same | |
JP6352673B2 (en) | Endoscope apparatus and operation method of endoscope apparatus | |
CN117204791A (en) | Endoscopic instrument guiding method and system | |
KR101417361B1 (en) | Capsule endoscope system | |
KR101930509B1 (en) | Separable drug infusion device for telemedicine, Image processing device including the same, and System having the same | |
KR101666482B1 (en) | Portable image capturing device and system | |
KR20180015810A (en) | All-in-one drug infusion device for telemedicine, Image processing device including the same, and System having the same | |
JP6444506B2 (en) | Image display control device, display device, and image display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |