KR102495838B1 - Method, apparatus and computer program for controlling endoscope based on medical image - Google Patents

Method, apparatus and computer program for controlling endoscope based on medical image Download PDF

Info

Publication number
KR102495838B1
KR102495838B1 KR1020220129409A KR20220129409A KR102495838B1 KR 102495838 B1 KR102495838 B1 KR 102495838B1 KR 1020220129409 A KR1020220129409 A KR 1020220129409A KR 20220129409 A KR20220129409 A KR 20220129409A KR 102495838 B1 KR102495838 B1 KR 102495838B1
Authority
KR
South Korea
Prior art keywords
scope
medical image
controlling
reference position
endoscope
Prior art date
Application number
KR1020220129409A
Other languages
Korean (ko)
Inventor
이치원
김명준
고석규
Original Assignee
주식회사 메디인테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디인테크 filed Critical 주식회사 메디인테크
Priority to KR1020220129409A priority Critical patent/KR102495838B1/en
Application granted granted Critical
Publication of KR102495838B1 publication Critical patent/KR102495838B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2733Oesophagoscopes

Abstract

According to an embodiment of the present disclosure, provided is a method of controlling an endoscope performed by a computing device including at least one processor, which includes the steps of: calculating a distance from an end of a scope to a first reference position based on medical images captured by the endoscope and positional information of the end of the scope of the endoscope; and controlling the end of the scope so that the end of the scope reaches the first reference position based on the distance. Accordingly, medical staff can control the location and degree of bending of an endoscopic scope according to a region to be photographed while performing an endoscopic procedure.

Description

의료 영상 기반으로 내시경 장치를 제어하기 위한 방법, 장치 및 컴퓨터 프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR CONTROLLING ENDOSCOPE BASED ON MEDICAL IMAGE}METHOD, APPARATUS AND COMPUTER PROGRAM FOR CONTROLLING ENDOSCOPE BASED ON MEDICAL IMAGE}

본 개시는 내시경 장치를 제어하기 위한 방법, 장치 및 컴퓨터 프로그램에 관한 것으로서, 구체적으로 내시경 촬영 수행 시 의료 영상 기반으로 내시경 스코프의 위치 및 벤딩을 제어하는 의료 영상 기반으로 내시경 장치를 제어하기 위한 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.The present disclosure relates to a method, apparatus, and computer program for controlling an endoscopic apparatus, and more specifically, a method for controlling an endoscopic apparatus based on a medical image for controlling the position and bending of an endoscopic scope based on a medical image when performing endoscopic imaging; It relates to devices and computer programs.

내시경은 수술을 하거나 부검을 하지 않고 스코프를 신체에 삽입하여 장기를 관찰하는 의료기구를 통칭한다. 내시경은 인체 내부로 스코프를 삽입하고, 빛을 조사하여 내벽의 표면에서 반사된 빛을 가시화한다. 목적 및 신체 부위에 따라 내시경의 종류가 구분되며, 크게 내시경 관이 금속으로 형성된 경성 내시경(Rigid Endoscope)과 소화기 내시경으로 대표되는 연성 내시경(flexible endoscope)으로 구분될 수 있다.Endoscopy is a collective term for medical devices that observe organs by inserting a scope into the body without performing surgery or autopsy. In the endoscope, a scope is inserted into the human body, and light is irradiated to visualize the light reflected from the surface of the inner wall. Types of endoscopes are classified according to the purpose and body part, and can be largely divided into a rigid endoscope in which an endoscope tube is formed of metal and a flexible endoscope represented by a digestive endoscope.

연성 내시경 장치는 내부에 다양한 장치들을 포함하므로 충격에 약하고, 연성 내시경이 삽입되는 소화기 내부 역시 매우 연약한 조직이며 비정형적인 형태를 띤다. 또한 환자에 따라 소화기 내부의 형태가 상이하므로 경험이 많은 의료진이라고 하더라도 내시경 삽입 과정이 쉽지 않을 수 있다. 이러한 상황에서 의료진은 내시경을 안전하게 삽입하고, 병변을 탐색해야 하므로 고도의 집중력이 요구된다. Since the flexible endoscope device includes various devices inside, it is vulnerable to impact, and the inside of the digestive tract into which the flexible endoscope is inserted is also a very soft tissue and has an atypical shape. In addition, since the shape of the inside of the digestive tract differs depending on the patient, it may not be easy to insert the endoscope even for experienced medical staff. In this situation, a high level of concentration is required because the medical staff must safely insert the endoscope and explore the lesion.

내시경 스코프의 방향 및 벤딩의 정도는 내시경 시술자의 조작에 의해서 제어되며, 이때 스코프 내 와이어의 장력으로 인해 내시경 시술을 반복적으로 수행하는 경우 내시경 시술자의 피로도는 더욱 증가할 수밖에 없다. The direction and degree of bending of the endoscopic scope are controlled by the manipulation of the endoscopic operator. In this case, when the endoscopic procedure is repeatedly performed due to the tension of the wire in the scope, the degree of fatigue of the endoscopic operator inevitably increases.

대한민국 등록특허공보 제10-2185886호 (2020.11.26)Republic of Korea Patent Registration No. 10-2185886 (2020.11.26)

본 개시는 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 내시경 촬영 수행 시 의료 영상 기반으로 내시경 스코프의 위치 및 벤딩을 제어하는 의료 영상 기반으로 내시경 장치를 제어하기 위한 방법, 장치 및 컴퓨터 프로그램에 관한 것이다. The present disclosure is directed to solving the above-described problems of the prior art, and relates to a method, apparatus, and computer program for controlling an endoscope device based on medical images to control the position and bending of an endoscope scope based on medical images during endoscopic imaging. will be.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨팅 장치에 의해 수행되는 내시경 장치의 제어 방법이 개시된다. 상기 방법은 상기 내시경 장치로부터 촬영된 의료 영상 및 상기 내시경 장치의 스코프 끝단의 위치 정보를 기초로, 상기 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산하는 단계 및 상기 거리를 기초로 상기 스코프 끝단이 상기 제1 기준 위치에 도달하도록 상기 스코프 끝단을 제어하는 단계를 포함하는 것을 특징으로 한다.A control method of an endoscope apparatus performed by a computing device according to an embodiment of the present disclosure for realizing the above object is disclosed. The method includes calculating a distance from the end of the scope to a first reference position based on a medical image taken from the endoscope device and positional information of the end of the scope of the endoscope device, and based on the distance, the end of the scope is and controlling the end of the scope to reach the first reference position.

대안적으로, 상기 계산하는 단계는, 상기 의료 영상 및 상기 위치 정보를 기초로 학습된 제1 인공지능 모델을 이용하여 상기 의료 영상에서 상기 제1 기준 위치를 파악하는 단계를 포함하는 것을 특징으로 한다.Alternatively, the calculating may include determining the first reference position in the medical image using a first artificial intelligence model learned based on the medical image and the location information. .

대안적으로, 상기 제1 인공지능 모델은, 상기 의료 영상, 상기 의료 영상에 대한 상기 스코프의 x축 운동을 제어하는 제1 모터의 엔코더 값, 상기 의료 영상에 대한 상기 스코프의 y축 운동을 제어하는 제2 모터의 엔코더 값, 상기 스코프 끝단에 설치된 자세 센서로부터 획득한 6차원 자세 정보 및 상기 의료 영상에 대한 신체 부위의 매칭 정보를 포함하는 학습 데이터를 이용하여 상기 의료 영상에서 상기 신체 부위를 추론하도록 학습된 모델인 것을 특징으로 한다.Alternatively, the first artificial intelligence model controls the medical image, an encoder value of a first motor for controlling an x-axis motion of the scope with respect to the medical image, and a y-axis motion of the scope with respect to the medical image. The body part is inferred from the medical image by using learning data including the encoder value of the second motor, 6-dimensional posture information obtained from a posture sensor installed at the end of the scope, and matching information of the body part with respect to the medical image. It is characterized in that it is a model learned to do.

대안적으로, 상기 제어하는 단계는, 상기 의료 영상의 중앙 지점과 상기 의료 영상에서의 상기 제1 기준 위치까지의 거리를 실제 좌표로 변환하는 단계 및 상기 실제 좌표를 기초로 상기 스코프의 각 축의 운동에 대한 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 한다.Alternatively, the controlling may include converting a distance between a central point of the medical image and the first reference position in the medical image into real coordinates, and moving each axis of the scope based on the real coordinates. It is characterized in that it comprises the step of generating a control signal for.

대안적으로, 상기 제어 신호는, 상기 스코프의 x축 운동을 제어하는 제1 모터에 대한 제1 제어 신호 및 상기 스코프의 y축 운동을 제어하는 제2 모터에 대한 제2 제어 신호를 포함하는 것을 특징으로 한다.Alternatively, the control signal comprises a first control signal for a first motor for controlling the x-axis motion of the scope and a second control signal for a second motor for controlling the y-axis motion for the scope. to be characterized

대안적으로, 상기 제어하는 단계는, 상기 스코프 끝단이 신체 내벽과 소정의 거리만큼 이격되도록 상기 스코프의 벤딩 정도를 제어하는 단계를 포함하는 것을 특징으로 한다.Alternatively, the controlling may include controlling a degree of bending of the scope so that an end of the scope is separated from an inner wall of the body by a predetermined distance.

대안적으로, 상기 벤딩 정도를 제어하는 단계는, 상기 스코프 끝단이 제2 기준 위치에 도달하면 상기 스코프의 벤딩 정도를 제어하는 동작을 시작하는 단계를 포함하는 것을 특징으로 한다.Alternatively, the controlling of the degree of bending may include starting an operation of controlling the degree of bending of the scope when an end of the scope reaches a second reference position.

대안적으로, 상기 제2 기준 위치는 식도를 포함하는 것을 특징으로 한다.Alternatively, the second reference location may include the esophagus.

대안적으로, 상기 스코프의 벤딩 정도를 제어하는 단계는, 상기 스코프가 상기 의료 영상에서 어두운 영역을 향하도록 상기 스코프의 벤딩 방향을 결정하는 단계를 포함하는 것을 특징으로 한다.Alternatively, controlling the degree of bending of the scope may include determining a bending direction of the scope so that the scope faces a dark region in the medical image.

대안적으로, 상기 스코프의 벤딩 정도를 제어하는 단계는, 상기 의료 영상을 기초로 상기 신체 내벽을 판단하도록 학습된 제2 인공지능 모델을 이용하여 상기 스코프의 벤딩 방향을 결정하는 단계를 포함하는 것을 특징으로 한다.Alternatively, controlling the degree of bending of the scope may include determining a bending direction of the scope using a second artificial intelligence model learned to determine the inner wall of the body based on the medical image. to be characterized

대안적으로, 상기 제1 기준 위치는 후두를 포함하는 것을 특징으로 한다.Alternatively, the first reference location may include the larynx.

대안적으로, 상기 의료 영상을 기초로 상기 스코프 끝단이 환자의 구강에 삽입된 것으로 판단되면, 자동 제어 모드로 전환하는 단계를 더 포함하는 것을 특징으로 한다.Alternatively, the method may further include switching to an automatic control mode when it is determined that the end of the scope is inserted into the oral cavity of the patient based on the medical image.

대안적으로, 상기 스코프 끝단이 제3 기준 위치에 도달하면, 수동 제어 모드로 전환하는 단계를 더 포함하는 것을 특징으로 한다.Alternatively, the method may further include switching to a manual control mode when the end of the scope reaches the third reference position.

대안적으로, 상기 제3 기준 위치는 들문을 포함하는 것을 특징으로 한다.Alternatively, the third reference position may include false statements.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 내시경 장치를 제어하기 위한 컴퓨팅 장치가 개시된다. 상기 장치는, 상기 내시경 장치로부터 촬영된 의료 영상 및 상기 내시경 장치의 스코프 끝단의 위치 정보를 저장하는 메모리 및 상기 의료 영상 및 상기 위치 정보를 기초로, 상기 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산하고, 상기 거리를 기초로 상기 스코프 끝단이 상기 제1 기준 위치에 도달하도록 상기 스코프 끝단을 제어하는 프로세서를 포함하는 것을 특징으로 한다.A computing device for controlling an endoscope device is disclosed according to an embodiment of the present disclosure for realizing the above object. The device may include a memory for storing a medical image captured by the endoscope device and location information of the end of the scope of the endoscope device, and a distance from the end of the scope to a first reference position based on the medical image and the location information. and a processor for calculating and controlling the end of the scope so that the end of the scope reaches the first reference position based on the distance.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램(program)이 개시된다. 상기 컴퓨터 프로그램은 하나 이상의 프로세서(processor)에서 실행되는 경우, 내시경 장치를 제어하기 위한 동작들을 수행하도록 한다. 이때, 상기 동작들은, 상기 내시경 장치로부터 촬영된 의료 영상 및 상기 내시경 장치의 스코프 끝단의 위치 정보를 기초로, 상기 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산하는 동작 및 상기 거리를 기초로 상기 스코프 끝단이 상기 제1 기준 위치에 도달하도록 상기 스코프 끝단을 제어하는 동작을 포함하는 것을 특징으로 한다.A computer program stored in a computer readable storage medium is disclosed according to an embodiment of the present disclosure for realizing the above object. When the computer program is executed on one or more processors, operations for controlling the endoscope apparatus are performed. In this case, the operations may include an operation of calculating a distance from the end of the scope to a first reference position based on a medical image captured from the endoscope device and location information of the end of the scope of the endoscope device, and based on the distance and controlling an end of the scope so that the end of the scope reaches the first reference position.

본 개시의 실시예에 따르면, 의료진이 내시경 시술을 수행하는 동안 촬영 부위에 따라 내시경 스코프의 위치 및 벤딩 정도를 제어함으로써 내시경 스코프가 원하는 신체 부위에 도달하도록 하여, 의료진의 편의성을 향상시킬 수 있다. According to an embodiment of the present disclosure, the convenience of the medical staff can be improved by allowing the endoscopic scope to reach a desired body part by controlling the location and degree of bending of the endoscopic scope according to the capturing region while the medical staff performs the endoscopic procedure.

도 1은 본 개시의 일 실시예에 따른 내시경 시스템의 블록도이다.
도 2는 본 개시의 일 실시예에 따른 내시경 장치의 블록도이다.
도 3은 본 개시의 일 실시예에 따른 내시경 스코프의 제어 방법을 나타내는 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 내시경 스코프의 자동 제어 모드의 동작을 나타내는 흐름도이다.
도 5는 본 개시의 일 실시예에 따른 내시경 스코프의 벤딩 제어 방법을 나타내는 흐름도이다.
1 is a block diagram of an endoscope system according to an embodiment of the present disclosure.
2 is a block diagram of an endoscope device according to an embodiment of the present disclosure.
3 is a flowchart illustrating a method of controlling an endoscope scope according to an embodiment of the present disclosure.
4 is a flowchart illustrating an operation of an automatic control mode of an endoscope scope according to an embodiment of the present disclosure.
5 is a flowchart illustrating a method for controlling bending of an endoscope scope according to an embodiment of the present disclosure.

아래에서는 첨부한 도면을 참조하여 본 개시의 기술 분야에서 통상의 지식을 가진 자(이하, 당업자)가 용이하게 실시할 수 있도록 본 개시의 실시예가 상세히 설명된다. 본 개시에서 제시된 실시예들은 당업자가 본 개시의 내용을 이용하거나 또는 실시할 수 있도록 제공된다. 따라서, 본 개시의 실시예들에 대한 다양한 변형들은 당업자에게 명백할 것이다. 즉, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며, 이하의 실시예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail so that those skilled in the art (hereinafter, those skilled in the art) can easily practice with reference to the accompanying drawings. The embodiments presented in this disclosure are provided so that those skilled in the art can use or practice the contents of this disclosure. Accordingly, various modifications to the embodiments of the present disclosure will be apparent to those skilled in the art. That is, the present disclosure may be implemented in many different forms, and is not limited to the following embodiments.

본 개시의 명세서 전체에 걸쳐 동일하거나 유사한 도면 부호는 동일하거나 유사한 구성요소를 지칭한다. 또한, 본 개시를 명확하게 설명하기 위해서, 도면에서 본 개시에 대한 설명과 관계없는 부분의 도면 부호는 생략될 수 있다.Same or similar reference numerals designate the same or similar elements throughout the specification of this disclosure. In addition, in order to clearly describe the present disclosure, reference numerals of parts not related to the description of the present disclosure may be omitted in the drawings.

본 개시에서 사용되는 "또는" 이라는 용어는 배타적 "또는" 이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 본 개시에서 달리 특정되지 않거나 문맥상 그 의미가 명확하지 않은 경우, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 이해되어야 한다. 예를 들어, 본 개시에서 달리 특정되지 않거나 문맥상 그 의미가 명확하지 않은 경우, "X는 A 또는 B를 이용한다"는 X가 A를 이용하거나, X가 B를 이용하거나, 혹은 X가 A 및 B 모두를 이용하는 경우 중 어느 하나로 해석될 수 있다. The term “or” as used in this disclosure is intended to mean an inclusive “or” rather than an exclusive “or”. That is, unless otherwise specified in this disclosure or the meaning is not clear from the context, "X employs A or B" should be understood to mean one of the natural inclusive substitutions. For example, unless otherwise specified in this disclosure or where the meaning is not clear from the context, "X employs A or B" means that X employs A, X employs B, or X employs A and It can be interpreted as any one of the cases of using all of B.

본 개시에서 사용되는 "및/또는" 이라는 용어는 열거된 관련 개념들 중 하나 이상의 개념의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.The term “and/or” as used in this disclosure should be understood to refer to and include all possible combinations of one or more of the listed related concepts.

본 개시에서 사용되는 "포함한다" 및/또는 "포함하는" 이라는 용어는, 특정 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는" 이라는 용어는, 하나 이상의 다른 특징, 다른 구성요소 및/또는 이들에 대한 조합의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. The terms "comprises" and/or "comprising" as used in this disclosure should be understood to mean that certain features and/or elements are present. However, it should be understood that the terms "comprising" and/or "comprising" do not exclude the presence or addition of one or more other features, other elements, and/or combinations thereof.

본 개시에서 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 단수는 일반적으로 "하나 또는 그 이상"을 포함할 수 있는 것으로 해석되어야 한다. Unless otherwise specified in this disclosure, or where the context clearly indicates that a singular form is indicated, the singular shall generally be construed as possibly including “one or more.”

본 개시에서 사용되는 "제 N(N은 자연수)" 이라는 용어는 본 개시의 구성요소들을 기능적 관점, 구조적 관점, 혹은 설명의 편의 등 소정의 기준에 따라 상호 구별하기 위해 사용되는 표현으로 이해될 수 있다. 예를 들어, 본 개시에서 서로 다른 기능적 역할을 수행하는 구성요소들은 제1 구성요소 혹은 제2 구성요소로 구별될 수 있다. 다만, 본 개시의 기술적 사상 내에서 실질적으로 동일하나 설명의 편의를 위해 구분되어야 하는 구성요소들도 제1 구성요소 혹은 제2 구성요소로 구별될 수도 있다.The term "Nth (N is a natural number)" used in the present disclosure can be understood as an expression used to distinguish the components of the present disclosure from each other according to a predetermined criterion such as a functional point of view, a structural point of view, or explanatory convenience. there is. For example, components performing different functional roles in the present disclosure may be classified as first components or second components. However, elements that are substantially the same within the technical spirit of the present disclosure but should be distinguished for convenience of description may also be distinguished as a first element or a second element.

한편, 본 개시에서 사용되는 용어 "모듈(module)", 또는 "부(unit)"는 컴퓨터 관련 엔티티(entity), 펌웨어(firmware), 소프트웨어(software) 혹은 그 일부, 하드웨어(hardware) 혹은 그 일부, 소프트웨어와 하드웨어의 조합 등과 같이 컴퓨팅 자원을 처리하는 독립적인 기능 단위를 지칭하는 용어로 이해될 수 있다. 이때, "모듈", 또는 "부"는 단일 요소로 구성된 단위일 수도 있고, 복수의 요소들의 조합 혹은 집합으로 표현되는 단위일 수도 있다. 예를 들어, 협의의 개념으로서 "모듈", 또는 "부"는 컴퓨팅 장치의 하드웨어 요소 또는 그 집합, 소프트웨어의 특정 기능을 수행하는 응용 프로그램, 소프트웨어 실행을 통해 구현되는 처리 과정(procedure), 또는 프로그램 실행을 위한 명령어 집합 등을 지칭할 수 있다. 또한, 광의의 개념으로서 "모듈", 또는 "부"는 시스템을 구성하는 컴퓨팅 장치 그 자체, 또는 컴퓨팅 장치에서 실행되는 애플리케이션 등을 지칭할 수 있다. 다만, 상술한 개념은 하나의 예시일 뿐이므로, "모듈", 또는 "부"의 개념은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.Meanwhile, the term "module" or "unit" used in the present disclosure refers to a computer-related entity, firmware, software or part thereof, hardware or part thereof. , It can be understood as a term referring to an independent functional unit that processes computing resources, such as a combination of software and hardware. In this case, a “module” or “unit” may be a unit composed of a single element or a unit expressed as a combination or set of a plurality of elements. For example, as a narrow concept, a "module" or "unit" is a hardware element or set thereof of a computing device, an application program that performs a specific function of software, a process implemented through software execution, or a program. It may refer to a set of instructions for execution. Also, as a concept in a broad sense, a “module” or “unit” may refer to a computing device constituting a system or an application executed in the computing device. However, since the above concept is only an example, the concept of “module” or “unit” may be defined in various ways within a range understandable by those skilled in the art based on the content of the present disclosure.

본 개시에서 사용되는 "모델(model)" 이라는 용어는 특정 문제를 해결하기 위해 수학적 개념과 언어를 사용하여 구현되는 시스템, 특정 문제를 해결하기 위한 소프트웨어 단위의 집합, 혹은 특정 문제를 해결하기 위한 처리 과정에 관한 추상화 모형으로 이해될 수 있다. 예를 들어, 신경망(neural network) "모델" 은 학습을 통해 문제 해결 능력을 갖는 신경망으로 구현되는 시스템 전반을 지칭할 수 있다. 이때, 신경망은 노드(node) 혹은 뉴런(neuron)을 연결하는 파라미터(parameter)를 학습을 통해 최적화하여 문제 해결 능력을 가질 수 있다. 신경망 "모델" 은 단일 신경망을 포함할 수도 있고, 복수의 신경망들이 조합된 신경망 집합을 포함할 수도 있다.The term "model" used in this disclosure refers to a system implemented using mathematical concepts and language to solve a specific problem, a set of software units to solve a specific problem, or a process to solve a specific problem. It can be understood as an abstract model for a process. For example, a neural network “model” may refer to an overall system implemented as a neural network having problem-solving capabilities through learning. At this time, the neural network may have problem solving ability by optimizing parameters connecting nodes or neurons through learning. A neural network "model" may include a single neural network or may include a neural network set in which a plurality of neural networks are combined.

본 개시에서 사용되는 "영상"이라는 용어는 이산적 이미지 요소들로 구성된 다차원 데이터를 지칭할 수 있다. 다시 말해, "영상"은 사람의 눈으로 볼 수 있는 대상의 디지털 표현물을 지칭하는 용어로 이해될 수 있다. 예를 들어, "영상"은 2차원 이미지에서 픽셀에 해당하는 요소들로 구성된 다차원 데이터를 지칭할 수 있다. The term "image" used in this disclosure may refer to multidimensional data composed of discrete image elements. In other words, "image" can be understood as a term referring to a digital representation of an object that is visible to the human eye. For example, “image” may refer to multidimensional data composed of elements corresponding to pixels in a 2D image.

전술한 용어의 설명은 본 개시의 이해를 돕기 위한 것이다. 따라서, 전술한 용어를 본 개시의 내용을 한정하는 사항으로 명시적으로 기재하지 않은 경우, 본 개시의 내용을 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Explanations of the foregoing terms are intended to facilitate understanding of the present disclosure. Therefore, it should be noted that, when the above terms are not explicitly described as matters limiting the content of the present disclosure, the content of the present disclosure is not used in the sense of limiting the technical idea.

도 1은 본 개시의 일 실시예에 따른 내시경 시스템의 블록도이다.1 is a block diagram of an endoscope system according to an embodiment of the present disclosure.

도 1을 참조하면, 내시경 시스템(10)은 의료 영상을 획득하는 내시경 장치(100)와 내시경 장치(100)로부터 의료 영상을 수신하여 분석하고, 의료 영상을 기초로 내시경 장치(100)를 제어하는 컴퓨팅 장치(200)를 포함한다. 내시경 장치(100)의 구성에 대해서는 도 2를 통해 자세히 후술한다. Referring to FIG. 1 , an endoscope system 10 includes an endoscope apparatus 100 that acquires medical images, receives and analyzes medical images from the endoscope apparatus 100, and controls the endoscope apparatus 100 based on the medical images. Computing device 200 is included. The configuration of the endoscope device 100 will be described later in detail with reference to FIG. 2 .

본 개시의 일 실시예에 따른 컴퓨팅 장치(200)는 데이터의 종합적인 처리 및 연산을 수행하는 하드웨어 장치 혹은 하드웨어 장치의 일부일 수도 있고, 통신 네트워크로 연결되는 소프트웨어 기반의 컴퓨팅 환경일 수도 있다. 예를 들어, 컴퓨팅 장치(200)는 집약적 데이터 처리 기능을 수행하고 자원을 공유하는 주체인 서버일 수도 있고, 서버와의 상호 작용을 통해 자원을 공유하는 클라이언트(client)일 수도 있다. 또한, 컴퓨팅 장치(200)는 복수의 서버들 및 클라이언트들이 상호 작용하여 데이터를 종합적으로 처리할 수 있도록 하는 클라우드 시스템(cloud system)일 수도 있다. 상술한 기재는 컴퓨팅 장치(200)의 종류와 관련된 하나의 예시일 뿐이므로, 컴퓨팅 장치(200)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다. 상술한 기재는 컴퓨팅 장치(200)의 종류와 관련된 하나의 예시일 뿐이므로, 컴퓨팅 장치(200)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The computing device 200 according to an embodiment of the present disclosure may be a hardware device or part of a hardware device that performs comprehensive processing and calculation of data, or may be a software-based computing environment connected through a communication network. For example, the computing device 200 may be a server that performs intensive data processing functions and shares resources, or may be a client that shares resources through interaction with the server. In addition, the computing device 200 may be a cloud system in which a plurality of servers and clients interact with each other to comprehensively process data. Since the above description is only one example related to the type of the computing device 200, the type of the computing device 200 may be configured in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure. Since the above description is only one example related to the type of the computing device 200, the type of the computing device 200 may be configured in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(200)는 프로세서(processor)(210), 메모리(memory)(220), 및 네트워크부(network unit)(230)를 포함할 수 있다. 다만, 도 1은 하나의 예시일 뿐이므로, 컴퓨팅 장치(200)는 컴퓨팅 환경을 구현하기 위한 다른 구성들을 포함할 수 있다. 또한, 상기 개시된 구성들 중 일부만이 컴퓨팅 장치(200)에 포함될 수도 있다.Referring to FIG. 1 , a computing device 200 according to an embodiment of the present disclosure may include a processor 210, a memory 220, and a network unit 230. there is. However, since FIG. 1 is only an example, the computing device 200 may include other configurations for implementing a computing environment. Also, only some of the components disclosed above may be included in the computing device 200 .

본 개시의 일 실시예에 따른 프로세서(210)는 컴퓨팅 연산을 수행하기 위한 하드웨어 및/또는 소프트웨어를 포함하는 구성 단위로 이해될 수 있다. 예를 들어, 프로세서(210)는 컴퓨터 프로그램을 판독하여 기계 학습을 위한 데이터 처리를 수행할 수 있다. 프로세서(210)는 기계 학습을 위한 입력 데이터의 처리, 기계 학습을 위한 특징 추출, 역전파(backpropagation)에 기반한 오차 계산 등과 같은 연산 과정을 처리할 수 있다. 이와 같은 데이터 처리를 수행하기 위한 프로세서(210)는 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit), 주문형 반도체(ASIC: application specific integrated circuit), 혹은 필드 프로그래머블 게이트 어레이(FPGA: field programmable gate array) 등을 포함할 수 있다. 상술한 프로세서(210)의 종류는 하나의 예시일 뿐이므로, 프로세서(210)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The processor 210 according to an embodiment of the present disclosure may be understood as a unit including hardware and/or software for performing computing operations. For example, the processor 210 may read a computer program and process data for machine learning. The processor 210 may process input data processing for machine learning, feature extraction for machine learning, calculation of an error based on backpropagation, and the like. The processor 210 for performing such data processing includes a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), a tensor processing unit (TPU), and on-demand It may include a semiconductor (application specific integrated circuit (ASIC)) or a field programmable gate array (FPGA). Since the above-described type of processor 210 is just one example, the type of processor 210 may be variously configured within a range understandable by those skilled in the art based on the contents of the present disclosure.

프로세서(210)는 내시경 장치(100)로부터 촬영된 의료 영상 및 내시경 장치(100)의 스코프의 위치 정보를 획득하고, 이를 기초로 스코프가 신체 내부의 어떤 장기에 위치하고 있는지 또는 스코프가 촬영한 의료 영상이 어떤 장기에 관한 것인지 파악할 수 있다. 프로세서(210)는 스코프가 원하는 기준 위치에 도달하도록 스코프의 위치 또는 벤딩 방향을 제어할 수 있다. 프로세서(210)는 스코프가 신체 내벽을 손상시키지 않도록, 장기의 특성을 고려하여 벤딩 정도를 결정할 수 있다. 프로세서(210)는 의료 영상에서 스코프가 도달해야 할 기준 위치를 파악하고, 기준 위치에 도달하도록 스코프 끝단을 제어할 수 있다. 기준 위치는 복수개일 수 있으며, 신체 부위와 대응될 수 있다. 프로세서(210)는 스코프의 끝단을 제어하기 위해, 스코프의 각 축의 운동을 담당하는 구동부를 제어할 수 있다. The processor 210 acquires the medical image captured from the endoscope device 100 and position information of the scope of the endoscope device 100, and based on this, which organ the scope is located in the body or the medical image captured by the scope is obtained. You can figure out what organ this is for. The processor 210 may control the position or bending direction of the scope so that the scope reaches a desired reference position. The processor 210 may determine the degree of bending in consideration of characteristics of organs so that the scope does not damage the inner wall of the body. The processor 210 may determine a reference position to be reached by the scope in the medical image and control an end of the scope to reach the reference position. There may be a plurality of reference positions and may correspond to body parts. The processor 210 may control a driving unit responsible for movement of each axis of the scope in order to control the end of the scope.

프로세서(210)는 학습된 제1 인공지능 모델을 이용하여 의료 영상에서 기준 위치를 파악할 수 있다. 이를 위해 프로세서(210)는 의료 영상, 스코프의 자세 정보, 의료 영상에 대한 신체 부위 매칭 정보를 포함하는 학습 데이터를 이용하여 제1 인공지능 모델을 학습시킬 수 있다. 프로세서(210)는 학습된 제2 인공지능 모델을 이용하여 의료 영상에서 신체 내벽을 파악할 수 있다. 이를 위해 프로세서(210)는 의료 영상, 스코프의 자세 정보, 의료 영상에 대한 신체 내벽 매칭 정보를 포함하는 학습 데이터를 이용하여 제2 인공지능 모델을 학습시킬 수 있다.The processor 210 may determine the reference position in the medical image using the learned first artificial intelligence model. To this end, the processor 210 may train the first artificial intelligence model using learning data including medical images, posture information of the scope, and body part matching information for the medical images. The processor 210 may determine the inner wall of the body in the medical image by using the learned second artificial intelligence model. To this end, the processor 210 may train the second artificial intelligence model using training data including medical images, posture information of the scope, and matching information on the inner wall of the body with respect to the medical images.

신체 부위에 따라서, 프로세서(210)는 스코프의 위치 또는 벤딩을 결정하는 자동 제어 모드로 내시경 장치(100)를 동작시키거나, 수동 제어 모드로 내시경 장치(100)를 동작시킬 수 있다. Depending on the body part, the processor 210 may operate the endoscope apparatus 100 in an automatic control mode that determines the position or bending of the scope, or may operate the endoscope apparatus 100 in a manual control mode.

본 개시의 실시예에 따르면, 프로세서(210)는 의료 영상에서 촬영 중인 신체 부위를 판단하고, 신체 부위의 특성에 따라 내시경 스코프의 위치를 제어할 수 있다. 즉 의료진은 내시경 촬영을 위해 스코프의 방향, 벤딩 정도를 고려할 필요 없이 스코프를 신체 내부로 삽입하면 원하는 촬영 부위를 향하여 스코프가 움직이고 벤딩될 수 있다. 따라서 스코프를 조작하기 위해 필요한 물리적인 힘이 절감되어 의료진의 조작의 편의성이 매우 향상될 수 있다. 또한 필수 촬영부위에 대응되는 기준 위치를 향하여 스코프가 움직이므로 내시경 촬영 동안 필수 촬영부위를 누락할 여지가 줄어든다. According to an embodiment of the present disclosure, the processor 210 may determine a body part being captured in a medical image, and control the position of an endoscope scope according to characteristics of the body part. That is, when the scope is inserted into the body, the medical staff does not have to consider the direction and bending degree of the scope for endoscopic imaging, and the scope can be moved and bent toward a desired region for imaging. Therefore, the physical force required to manipulate the scope is reduced, and the convenience of operation by medical staff can be greatly improved. In addition, since the scope moves toward the reference position corresponding to the essential imaging area, the possibility of missing the essential imaging area during endoscopic imaging is reduced.

프로세서(210)는 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 또는 별다른 지도없이 데이터 인식을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 데이터 인식을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다. 또는 학습에 따른 데이터 인식의 결과가 올바른지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 제1 인공지능 모델 및 제2 인공지능 모델을 학습시킬 수 있다.The processor 210 may train the first artificial intelligence model and the second artificial intelligence model through supervised learning using the learning data as an input value. Alternatively, the first artificial intelligence model and the second artificial intelligence model can be trained through unsupervised learning that discovers the criteria for data recognition by self-learning the type of data necessary for data recognition without any guidance. there is. Alternatively, the first artificial intelligence model and the second artificial intelligence model may be trained through reinforcement learning using feedback about whether a result of data recognition according to learning is correct.

제1 인공지능 모델 및 제2 인공지능 모델은 적어도 하나의 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network), MLP(Multilayer Perceptron), CNN(Convolutional Neural Network), 트랜스포머(transformer)와 같은 방식의 네트워크 모델들을 포함할 수 있으나, 이에 한정되지 않는다. The first artificial intelligence model and the second artificial intelligence model may include at least one neural network. Neural networks are network models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), Bidirectional Recurrent Deep Neural Network (BRDNN), Multilayer Perceptron (MLP), Convolutional Neural Network (CNN), and Transformer. It may include, but is not limited to.

본 개시의 일 실시예에 따른 메모리(220)는 컴퓨팅 장치(200)에서 처리되는 데이터를 저장하고 관리하기 위한 하드웨어 및/또는 소프트웨어를 포함하는 구성 단위로 이해될 수 있다. 즉, 메모리(220)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 데이터 및 네트워크부(230)가 수신한 임의의 형태의 데이터를 저장할 수 있다. 예를 들어, 메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리, 램(RAM: random access memory), 에스램(SRAM: static random access memory), 롬(ROM: read-only memory), 이이피롬(EEPROM: electrically erasable programmable read-only memory), 피롬(PROM: programmable read-only memory), 자기 메모리, 자기 디스크, 또는 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 데이터를 소정의 체제로 통제하여 관리하는 데이터베이스(database) 시스템을 포함할 수도 있다. 상술한 메모리(220)의 종류는 하나의 예시일 뿐이므로, 메모리(220)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The memory 220 according to an embodiment of the present disclosure may be understood as a unit including hardware and/or software for storing and managing data processed by the computing device 200 . That is, the memory 220 may store any type of data generated or determined by the processor 210 and any type of data received by the network unit 230 . For example, the memory 220 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory, and random access memory (RAM). ), SRAM (static random access memory), ROM (read-only memory), EEPROM (electrically erasable programmable read-only memory), PROM (programmable read-only memory), magnetic memory , a magnetic disk, or an optical disk may include at least one type of storage medium. Also, the memory 220 may include a database system that controls and manages data in a predetermined system. Since the above-described type of memory 220 is just one example, the type of memory 220 may be configured in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

메모리(220)는 프로세서(210)가 연산을 수행하는데 필요한 데이터, 데이터의 조합, 및 프로세서(210)에서 실행 가능한 프로그램 코드(code) 등을 구조화 및 조직화하여 관리할 수 있다. 또한 메모리(220)는 프로세서(210)가 학습 데이터를 생성하도록 동작시키는 프로그램 코드를 저장할 수 있다.The memory 220 may organize and manage data necessary for the processor 210 to perform calculations, data combinations, program codes executable by the processor 210, and the like. Also, the memory 220 may store program codes that operate the processor 210 to generate learning data.

메모리(220)는 내시경 장치(100)로부터 촬영된 의료 영상 및 내시경 장치(100)의 스코프 끝단의 위치 정보를 저장할 수 있다. The memory 220 may store medical images captured by the endoscope device 100 and location information of the end of the scope of the endoscope device 100 .

본 개시의 일 실시예에 따른 네트워크부(230)는 임의의 형태의 공지된 유무선 통신 시스템을 통해 데이터를 송수신하는 구성 단위로 이해될 수 있다. 예를 들어, 네트워크부(230)는 근거리 통신망(LAN: local area network), 광대역 부호 분할 다중 접속(WCDMA: wideband code division multiple access), 엘티이(LTE: long term evolution), 와이브로(WiBro: wireless broadband internet), 5세대 이동통신(5G), 초광역대 무선통신(ultra wide-band), 지그비(ZigBee), 무선주파수(RF: radio frequency) 통신, 무선랜(wireless LAN), 와이파이(wireless fidelity), 근거리 무선통신(NFC: near field communication), 또는 블루투스(Bluetooth) 등과 같은 유무선 통신 시스템을 사용하여 데이터 송수신을 수행할 수 있다. 상술한 통신 시스템들은 하나의 예시일 뿐이므로, 네트워크부(230)의 데이터 송수신을 위한 유무선 통신 시스템은 상술한 예시 이외에 다양하게 적용될 수 있다.The network unit 230 according to an embodiment of the present disclosure may be understood as a unit that transmits and receives data through any type of known wired/wireless communication system. For example, the network unit 230 may include a local area network (LAN), wideband code division multiple access (WCDMA), long term evolution (LTE), and WiBro (wireless). broadband internet), 5th generation mobile communication (5G), ultra wide-band wireless communication, ZigBee, radio frequency (RF) communication, wireless LAN, wireless fidelity ), near field communication (NFC), or data transmission/reception may be performed using a wired/wireless communication system such as Bluetooth. Since the above-described communication systems are only examples, a wired/wireless communication system for data transmission and reception of the network unit 230 may be applied in various ways other than the above-described examples.

네트워크부(230)는 임의의 시스템 혹은 임의의 클라이언트 등과의 유무선 통신을 통해, 프로세서(210)가 연산을 수행하는데 필요한 데이터를 수신할 수 있다. 또한, 네트워크부(230)는 임의의 시스템 혹은 임의의 클라이언트 등과의 유무선 통신을 통해, 프로세서(210)의 연산을 통해 생성된 데이터를 송신할 수 있다. 예를 들어, 네트워크부(230)는 의료 영상 저장 전송 시스템, 의료 데이터의 표준화 등의 작업을 수행하는 클라우드 서버 또는 내시경 장치(100) 등과의 통신을 통해, 의료 영상을 수신할 수 있다. 네트워크부(230)는 전술한 시스템, 서버, 혹은 내시경 장치(100) 등과의 통신을 통해, 프로세서(210)의 연산을 통해 생성된 각종 데이터를 송신할 수 있다.The network unit 230 may receive data necessary for the processor 210 to perform calculations through wired/wireless communication with an arbitrary system or an arbitrary client. In addition, the network unit 230 may transmit data generated through the operation of the processor 210 through wired/wireless communication with an arbitrary system or an arbitrary client. For example, the network unit 230 may receive medical images through communication with a cloud server or the endoscope apparatus 100 that performs tasks such as a medical image storage and transmission system and standardization of medical data. The network unit 230 may transmit various types of data generated through the operation of the processor 210 through communication with the aforementioned system, server, or endoscope apparatus 100 .

한편 도 1에서 내시경 장치(100)와 컴퓨팅 장치(200)가 구분되는 것으로 표현되었으나, 이는 예시적인 것이며 컴퓨팅 장치(200)는 내시경 장치(100) 내부에 구비되어 내시경 장치(100)의 일부를 구성할 수도 있다.Meanwhile, although the endoscope device 100 and the computing device 200 are represented as being distinguished in FIG. 1, this is exemplary and the computing device 200 is provided inside the endoscope device 100 and constitutes a part of the endoscope device 100 You may.

도 2는 본 개시의 일 실시예에 따른 내시경 장치의 블록도이다.2 is a block diagram of an endoscope device according to an embodiment of the present disclosure.

도 2를 참조하면, 본 개시의 일 실시예에 따른 내시경 장치(100)는 연성 내시경(flexible endoscope), 구체적으로 소화기 내시경일 수 있다. 내시경 장치(100)는 소화기 내부를 촬영한 의료 영상을 획득할 수 있는 구성 및 필요한 경우 도구를 삽입하여 의료 영상을 보면서 치료 또는 처치를 수행할 수 있는 구성을 포함할 수 있다. Referring to FIG. 2 , the endoscope device 100 according to an embodiment of the present disclosure may be a flexible endoscope, specifically, a digestive endoscope. The endoscope device 100 may include a component capable of acquiring a medical image of the inside of a digestive tract and a component capable of performing treatment or treatment while viewing the medical image by inserting a tool, if necessary.

내시경 장치(100)는 출력부(110), 제어부(120), 구동부(130), 펌프부(140) 및 스코프(150)를 포함할 수 있다.The endoscope device 100 may include an output unit 110 , a control unit 120 , a driving unit 130 , a pump unit 140 and a scope 150 .

출력부(110)는 의료 영상을 표시하는 디스플레이를 포함할 수 있다. 출력부(110)는 액정 디스플레이(LCD: liquid crystal display), 박막 트랜지스터 액정 디스플레이(TFT LCD: thin film transistor-liquid crystal display), 유기 발광 다이오드(OLED: organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등과 같이 시각화 된 정보를 출력하거나 터치 스크린(touch screen)을 구현할 수 있는 디스플레이 모듈을 포함할 수 있다.The output unit 110 may include a display displaying medical images. The output unit 110 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. A display module capable of outputting visualized information or implementing a touch screen, such as a display, a 3D display, or the like, may be included.

출력부(110)는 의료 영상에 대한 정보를 제공하는 다양한 수단을 포함할 수 있다. 예를 들어 의료 영상에 대한 알람을 청각적으로 제공하는 스피커를 포함할 수 있다. The output unit 110 may include various means for providing information on medical images. For example, a speaker may be included to audibly provide an alarm for a medical image.

출력부(110)는 스코프(150)에서 획득한 의료 영상 또는 제어부(120)에서 처리된 의료 영상을 표시할 수 있다. 출력부(110)는 내시경 촬영이 수행되는 동안 내시경 스코프(150)의 이동 경로를 표시할 수 있다. 예를 들어 장기가 맵의 형태로 디스플레이되고, 장기 내부에서의 스코프(150)의 위치가 디스플레이될 수 있다. 장기 맵에서 스코프(150) 끝단의 현재 위치가 표시될 수 있고, 적어도 하나의 기준 위치가 표시될 수 있다. 기준 위치는 자동 제어 모드 또는 수동 제어 모드가 시작되는 위치를 의미할 수 있다. The output unit 110 may display a medical image acquired by the scope 150 or a medical image processed by the controller 120 . The output unit 110 may display a moving path of the endoscope scope 150 while endoscopic imaging is being performed. For example, an organ may be displayed in the form of a map, and a position of the scope 150 inside the organ may be displayed. In the long-term map, the current position of the tip of the scope 150 may be displayed, and at least one reference position may be displayed. The reference position may mean a position where an automatic control mode or a manual control mode starts.

출력부(110)는 스코프(150)의 현재 위치뿐만 아니라 벤딩 정도를 표시할 수 있다. 식도 등의 좁은 관 형태의 장기 내부에서, 장기 내벽에 스코프(150)가 닿지 않도록 스코프(150)가 벤딩될 필요가 있다. 스코프(150) 끝단에서 촬영되는 영상만으로 스코프(150)의 벤딩 정도를 직관적으로 파악하기 어렵다. 따라서 제어부(120) 또는 컴퓨팅 장치는 스코프(150)의 진입 방향과 의료 영상이 촬영하는 신체 부위를 고려하여 스코프(150)의 벤딩 정도를 계산할 수 있다. 제어부(120) 또는 컴퓨팅 장치는 구동부(130)의 와이어 장력을 기초로 벤딩 정도 또는 벤딩 방향을 계산할 수 있다. 출력부(110)는 벤딩 정도를 숫자, 컬러 코드 등의 시각적인 알람 또는 안내음 등의 청각적인 알람으로 제공할 수 있다. The output unit 110 may display the bending degree as well as the current position of the scope 150 . Inside a narrow tube-shaped organ such as the esophagus, the scope 150 needs to be bent so that the scope 150 does not touch the inner wall of the organ. It is difficult to intuitively grasp the degree of bending of the scope 150 only with an image captured at the end of the scope 150 . Accordingly, the controller 120 or the computing device may calculate the degree of bending of the scope 150 in consideration of an entry direction of the scope 150 and a body part where a medical image is captured. The controller 120 or the computing device may calculate the bending degree or bending direction based on the wire tension of the driving unit 130 . The output unit 110 may provide the degree of bending as a visual alarm such as a number or color code or an audible alarm such as a guide sound.

출력부(110)는 내시경 장치가 동작하는 동작 모드를 표시할 수 있다. 자동 제어 모드인 경우, 내시경 시술자의 조작이 무시됨을 안내하는 메시지를 디스플레이할 수 있다. 수동 제어 모드인 경우, 내시경 시술자에게 수동 제어 모드가 시작되기 소정의 시간 이전에 알람을 디스플레이할 수 있다. 이로써 내시경 시술자는 자동 제어 모드가 종료됨을 파악하고, 조작부(151)의 제어를 준비할 수 있다. The output unit 110 may display an operation mode in which the endoscope device operates. In the case of the automatic control mode, a message guiding that the operation of the endoscopist is ignored may be displayed. In the case of the manual control mode, an alarm may be displayed to an endoscopist before a predetermined time before the manual control mode starts. As a result, the endoscopist can recognize that the automatic control mode is terminated and prepare to control the manipulation unit 151 .

한편, 도 2에서는 하나의 출력부(110)가 도시되었으나 출력부(110)의 개수는 복수개일 수 있다. 이 경우 스코프(150)에서 획득한 의료 영상이 표시되는 출력부와 제어부(120)에 의해 처리된 정보가 표시되는 출력부가 구분될 수 있다.Meanwhile, although one output unit 110 is shown in FIG. 2 , the number of output units 110 may be plural. In this case, an output unit displaying medical images acquired by the scope 150 and an output unit displaying information processed by the control unit 120 may be distinguished.

제어부(120)는 내시경 장치(100)의 전반적인 동작을 제어할 수 있다. 제어부(120)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 예시적인 실시예에 따르면, 제어부(120)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치일 수 있다. 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치가 포함될 수 있으나, 본 개시의 기술적 사상이 이에 한정되는 것은 아니다.The controller 120 may control overall operations of the endoscope apparatus 100 . The controller 120 may include all types of devices capable of processing data. According to an exemplary embodiment, the control unit 120 may be a data processing device embedded in hardware having a physically structured circuit to perform functions expressed by codes or commands included in a program. As an example of a data processing unit built into hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC) , A processing device such as a field programmable gate array (FPGA) may be included, but the technical spirit of the present disclosure is not limited thereto.

제어부(120)는 스코프(150)와 연결되는 구동부(130)를 통해 스코프(150)의 움직임을 제어할 수 있다. 제어부(120)는 스코프(150)를 통해 소화기 내부를 촬영하기 위한 각종 제어 동작을 수행할 수 있다. 제어부(120)는 스코프(150)를 통해 획득한 의료 영상의 다양한 처리를 수행할 수 있다. 제어부(120)는 컴퓨팅 장치로부터 수신한 제어 신호에 기초하여 내시경 장치(100)를 제어할 수 있다. The control unit 120 may control the movement of the scope 150 through the driving unit 130 connected to the scope 150 . The controller 120 may perform various control operations for photographing the inside of the fire extinguisher through the scope 150 . The controller 120 may perform various processing of medical images obtained through the scope 150 . The controller 120 may control the endoscope device 100 based on a control signal received from the computing device.

구동부(130)는 스코프(150)가 신체 내부로 삽입되거나, 신체 내부에서 움직이는 과정에 필요한 동력을 제공할 수 있다. 예를 들어, 구동부(130)는 스코프(150) 내부의 와이어와 연결되는 복수의 모터 및 와이어의 장력을 조절하는 장력 조절부를 포함할 수 있다. 구동부(130)는 복수의 모터 각각의 동력을 제어하여 스코프(150)를 다양한 방향으로 제어할 수 있다.The drive unit 130 may provide power necessary for the scope 150 to be inserted into the body or to move within the body. For example, the driving unit 130 may include a plurality of motors connected to wires inside the scope 150 and a tension adjusting unit that adjusts the tension of the wires. The driving unit 130 may control the scope 150 in various directions by controlling power of each of the plurality of motors.

구동부(130)는 스코프(150)의 x축 운동을 결정하는 제1 모터, 스코프(150)의 y축 운동을 결정하는 제2 모터를 포함할 수 있다. 구동부(130)의 제어에 따라 스코프(150) 끝단의 x축 위치, y축 위치, 롤(roll), 피치(pitch), 요(yaw) 값이 결정될 수 있다. The driving unit 130 may include a first motor that determines the x-axis motion of the scope 150 and a second motor that determines the y-axis motion of the scope 150 . Under the control of the driving unit 130, the x-axis position, y-axis position, roll, pitch, and yaw values of the end of the scope 150 may be determined.

구동부(130)는 와이어의 장력을 조절함으로써 스코프(150)의 벤딩 방향 또는 벤딩 정도를 제어할 수 있다. 예를 들어 구동부(130)는 제어부(120)의 신호에 따라 장력을 증가시켜 스코프(150)의 벤딩 정도를 증가시키고, 장력을 감소시켜 스코프(150)의 벤딩 정도를 감소시킬 수 있다. 벤딩되는 부분은 삽입부(152)의 일부분일 수 있다. The driver 130 may control the bending direction or degree of bending of the scope 150 by adjusting the tension of the wire. For example, the driver 130 may increase the degree of bending of the scope 150 by increasing the tension according to a signal of the controller 120, and decrease the degree of bending of the scope 150 by decreasing the tension. The bent portion may be a portion of the insertion portion 152 .

펌프부(140)는 스코프(150)를 통해 신체 내부로 공기를 주입하는 에어 펌프, 음압 또는 진공을 제공하여 스코프(150)를 통해 신체 내부로부터 공기를 흡입하는 석션(suction) 펌프 및 스코프(150)를 통해 신체 내부로 세척수를 주입하는 워터 펌프 중 적어도 하나를 포함할 수 있다. 각 펌프는 유체의 흐름을 제어하기 위한 밸브를 포함할 수 있다. 펌프부(140)는 제어부(120)에 의해 개폐될 수 있다. 석션 펌프, 워터 펌프, 에어 펌프 중 적어도 하나는 컴퓨팅 장치의 제어 신호 또는 제어부(120)의 제어에 기초하여 개폐될 수 있다. The pump unit 140 includes an air pump that injects air into the body through the scope 150, a suction pump that sucks air from the inside of the body through the scope 150 by providing negative pressure or vacuum, and the scope 150. ) to inject washing water into the body. Each pump may include a valve to control the flow of fluid. The pump unit 140 may be opened and closed by the control unit 120 . At least one of the suction pump, water pump, and air pump may be opened or closed based on a control signal of the computing device or control of the controller 120 .

스코프(150)는 소화기 내부로 삽입되는 삽입부(152) 및 삽입부(152)의 움직임을 제어하고, 소화기 내부에서 각종 시술을 수행하도록 사용자로부터 입력을 수신하는 조작부(151)를 포함할 수 있다. The scope 150 may include an insertion unit 152 inserted into the fire extinguisher and a manipulation unit 151 that receives input from a user to control the movement of the insertion unit 152 and perform various procedures inside the fire extinguisher. .

삽입부(152)는 유연하게 휘어질 수 있도록 구성되며, 일단이 구동부(130)와 연결됨으로써 구동부(130)에 의해 휘어짐의 정도 또는 방향이 결정될 수 있다. 삽입부(152) 말단에서 의료 영상 촬영 및 시술이 이루어지므로, 스코프(150)는 삽입부(152) 말단까지 연장되는 여러 케이블 및 튜브를 포함할 수 있다. The insertion part 152 is configured to be flexible, and since one end is connected to the driving part 130, the degree or direction of bending can be determined by the driving part 130. Since medical imaging and procedures are performed at the end of the insertion part 152 , the scope 150 may include several cables and tubes extending to the end of the insertion part 152 .

스코프(150) 내부에 광원(153), 렌즈(154), 워킹 채널(155) 및 에어, 워터 채널(156)이 구비될 수 있다. 워킹 채널(155)을 통해 내시경 시술 과정에서 병변의 치료 및 처치를 위한 도구가 삽입될 수 있다. 에어, 워터 채널(156)을 통해 공기가 주입되고, 세척수가 공급될 수 있다. A light source 153, a lens 154, a working channel 155, and air and water channels 156 may be provided inside the scope 150. Through the working channel 155, tools for treatment and treatment of lesions may be inserted during an endoscopic procedure. Air may be injected through the air/water channel 156 and washing water may be supplied.

한편, 도 2에서는 세척수가 공급되는 통로로써 에어, 워터 채널(156)이 도시되었으나, 이에 제한되는 것은 아니다. 예시적으로 스코프(150) 내부에 별도의 워터젯 채널(미도시)이 구비될 수 있고, 워터젯 채널을 통해서도 세척수가 공급될 수 있다.Meanwhile, in FIG. 2 , air and water channels 156 are shown as passages through which washing water is supplied, but the present invention is not limited thereto. Illustratively, a separate water jet channel (not shown) may be provided inside the scope 150, and washing water may also be supplied through the water jet channel.

한편, 본 개시의 실시예에 따른 내시경 장치는 제1 인공지능 모델 및 제2 인공지능 모델을 학습시키기 위해 스코프(150) 끝단의 자세 정보를 획득하기 위한 자세 센서를 더 포함할 수 있다. 자세 센서는 스코프(150) 끝단에 구비되어 스코프(150) 끝단의 x축 위치, y축 위치, z축 위치를 포함하는 좌표 정보와 롤, 피치, 요를 포함하는 회전량을 측정할 수 있다. 자세 센서에서 획득한 자세 정보는 제1 인공지능 모델 및 제2 인공지능 모델의 학습 데이터로 사용되는 것이므로, 학습 데이터가 확보된 이후 추론 과정에서 자세 센서는 스코프(150) 끝단에서 제거될 수 있다. Meanwhile, the endoscope device according to an embodiment of the present disclosure may further include a posture sensor for obtaining posture information of the tip of the scope 150 in order to train the first artificial intelligence model and the second artificial intelligence model. The posture sensor is provided at the end of the scope 150 to measure coordinate information including the x-axis position, y-axis position, and z-axis position of the end of the scope 150 and rotational amounts including roll, pitch, and yaw. Since the posture information obtained from the posture sensor is used as training data for the first artificial intelligence model and the second artificial intelligence model, the posture sensor may be removed from the end of the scope 150 during an inference process after the learning data is secured.

조작부(151)는 내시경 시술자가 삽입부(152)의 조향을 제어하고, 워킹 채널(155) 및 에어, 워터 채널(156)을 통해 시술을 수행하도록 각종 기능들을 제공하는 복수의 입력 버튼들을 포함할 수 있다. The manipulation unit 151 may include a plurality of input buttons providing various functions so that an endoscopist controls the steering of the insertion unit 152 and performs a procedure through the working channel 155 and the air and water channels 156. can

자동 제어 모드에서, 내시경 시술자가 조작부(151)를 통해 삽입부(152)의 조향을 제어하는 경우, 제어부(120)는 조작부(151)의 입력을 무시할 수 있다. 수동 제어 모드에서, 조작부(151)의 입력이 반영될 수 있다. In the automatic control mode, when an endoscopist controls the steering of the insertion unit 152 through the manipulation unit 151, the controller 120 may ignore the input of the manipulation unit 151. In the manual control mode, the input of the manipulation unit 151 may be reflected.

한편, 전술한 제어부(120)의 동작은 구동부(130)에 의해서 수행될 수 있으며 이를 위해 구동부(130)는 마이크로프로세서, CPU 등의 필요한 처리 장치를 갖출 수 있다. 이 경우 제어부(120)는 스코프(150)를 통해 획득한 의료 영상의 처리를 수행하고, 구동부(130)는 컴퓨팅 장치로부터 수신한 제어 신호에 기초하여 내시경 장치(100)를 제어할 수 있다. Meanwhile, the operation of the control unit 120 described above may be performed by the driving unit 130, and for this purpose, the driving unit 130 may have a necessary processing device such as a microprocessor or CPU. In this case, the controller 120 may process the medical images acquired through the scope 150, and the driving unit 130 may control the endoscope device 100 based on a control signal received from the computing device.

도 3은 본 개시의 일 실시예에 따른 내시경 스코프의 제어 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method of controlling an endoscope scope according to an embodiment of the present disclosure.

도 3을 참조하면, 컴퓨팅 장치는 의료 영상 및 스코프 끝단의 위치 정보를 기초로 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산할 수 있다(S110). 예를 들어 제1 기준 위치는 후두를 포함할 수 있으나 반드시 이에 제한되는 것은 아니다. 제1 기준 위치는 내시경 시술자에 의해 설정될 수 있으며, 내시경 종류에 따라 설정될 수 있다. 제1 기준 위치는 필수 촬영부위 중 하나이거나, 임상적으로 특징이 있는 부위이거나, 영상에서 구별되는 이미지적 특징이 있는 부위일 수 있다.Referring to FIG. 3 , the computing device may calculate the distance from the end of the scope to the first reference position based on the medical image and the location information of the end of the scope (S110). For example, the first reference location may include the larynx, but is not necessarily limited thereto. The first reference position may be set by an endoscopist and may be set according to the type of endoscope. The first reference position may be one of essential imaging parts, a clinically characteristic part, or a part having distinctive image characteristics in an image.

컴퓨팅 장치는 스코프 끝단이 제1 기준 위치에 도달하도록 스코프 끝단을 제어할 수 있다(S120). 예를 들어 컴퓨팅 장치는 스코프 끝단의 위치를 영상의 특정 지점으로 간주하고, 해당 지점이 제1 기준 위치에 도달하도록 스코프 위치를 제어할 수 있다. 컴퓨팅 장치는 스코프 끝단이 제1 기준 위치에 도달하도록 스코프 내의 와이어에 연결된 구동부를 제어하기 위한 제어 신호를 생성할 수 있다. 컴퓨팅 장치는 스코프의 x축 운동을 제어하는 제1 모터, 스코프의 y축 운동을 제어하는 제2 모터를 각각 제어할 수 있다. The computing device may control the end of the scope so that the end reaches the first reference position (S120). For example, the computing device may regard the position of the tip of the scope as a specific point in the image and control the position of the scope so that the corresponding point reaches the first reference position. The computing device may generate a control signal for controlling a driving unit connected to a wire in the scope so that the end of the scope reaches the first reference position. The computing device may control the first motor for controlling the x-axis motion of the scope and the second motor for controlling the y-axis motion of the scope.

S110 단계 및 S120 단계는 기준 위치가 달라지면서 반복 수행될 수 있다. 즉 스코프 끝단이 제1 기준 위치에 도달한 경우, 컴퓨팅 장치는 새로운 기준 위치 예를 들어 제2 기준 위치를 설정하고 스코프 끝단이 제2 기준 위치에 도달하도록 스코프를 제어할 수 있다. Steps S110 and S120 may be repeatedly performed while the reference position is changed. That is, when the end of the scope reaches the first reference position, the computing device may set a new reference position, for example, a second reference position, and control the scope so that the end of the scope reaches the second reference position.

반복 수행은 스코프 끝단이 제3 기준 위치에 도달하는 경우에 종료될 수 있다. 이 경우 컴퓨팅 장치는 내시경 스코프가 내시경 시술자에 의해 제어되는 수동 제어 모드로 내시경 장치를 설정할 수 있다. The repeated execution may end when the end of the scope reaches the third reference position. In this case, the computing device may set the endoscope device to a manual control mode in which the endoscope scope is controlled by an endoscopist.

도 4는 본 개시의 일 실시예에 따른 내시경 스코프의 자동 제어 모드의 동작을 나타내는 흐름도이다.4 is a flowchart illustrating an operation of an automatic control mode of an endoscope scope according to an embodiment of the present disclosure.

도 4를 참조하면, 컴퓨팅 장치는 스코프 끝단이 환자의 구강에 삽입되었는지 판단할 수 있다(S210). 예를 들어 내시경 시술자는 조작부 또는 제어부를 통해 구강 삽입 여부를 직접 입력할 수 있다. 또는 컴퓨팅 장치는 스코프 끝단의 위치 정보 및 의료 영상을 기초로 구강 삽입 여부를 파악할 수 있다. 스코프가 구강에 삽입되면, 내시경 장치의 자동 제어 모드가 시작될 수 있으나, 자동 제어 모드의 시작 시점은 변경될 수 있다. Referring to FIG. 4 , the computing device may determine whether the end of the scope is inserted into the oral cavity of the patient (S210). For example, an endoscopist may directly input whether the endoscope is inserted into the oral cavity through a manipulation unit or a control unit. Alternatively, the computing device may determine whether the scope is inserted into the oral cavity based on location information of the end of the scope and medical images. When the scope is inserted into the oral cavity, the automatic control mode of the endoscope device may be started, but the start point of the automatic control mode may be changed.

컴퓨팅 장치는 의료 영상 및 스코프 끝단의 위치 정보를 기초로 제1 인공지능 모델을 이용하여 의료 영상에서 제1 기준 위치를 파악할 수 있다(S220).The computing device may determine the first reference position in the medical image by using the first artificial intelligence model based on the medical image and the location information of the end of the scope (S220).

예를 들어 제1 인공지능 모델은, 의료 영상, 의료 영상에 대한 스코프의 x축 운동을 제어하는 제1 모터의 엔코더 값, 의료 영상에 대한 스코프의 y축 운동을 제어하는 제2 모터의 엔코더 값, 스코프 끝단에 설치된 자세 센서로부터 획득한 6차원 자세 정보 상기 의료 영상에 대한 신체 부위의 매칭 정보를 포함하는 학습 데이터를 이용하여 학습될 수 있다. 제1 인공지능 모델은 의료 영상을 이용하여, 의료 영상에 나타나는 신체 부위를 추론하도록 학습된 모델일 수 있다. 따라서 제1 인공지능 모델은 의료 영상에서 제1 기준 위치뿐만 아니라, 다양한 신체 부위를 식별할 수 있다. 예를 들어 제1 인공지능 모델은 Fully Convolutional Network(FCN), Conditional Adversarial Network(CAN), Recurrent Neural Network(RNN), MC-CNN(Matching Cost-CNN) 등의 네트워크 구조를 가질 수 있다.For example, the first artificial intelligence model includes a medical image, an encoder value of a first motor that controls the scope's x-axis motion for the medical image, and an encoder value of a second motor that controls the scope's y-axis motion for the medical image. , 6-dimensional posture information acquired from a posture sensor installed at the end of the scope can be learned using learning data including matching information of body parts with respect to the medical image. The first artificial intelligence model may be a model learned to infer a body part appearing in a medical image by using a medical image. Accordingly, the first artificial intelligence model may identify various body parts as well as the first reference position in the medical image. For example, the first artificial intelligence model may have a network structure such as a fully convolutional network (FCN), a conditional adversarial network (CAN), a recurrent neural network (RNN), and a matching cost-CNN (MC-CNN).

컴퓨팅 장치는 제1 인공지능 모델을 이용하여, 의료 영상에 표시되는 신체 부위가 무엇인지 판단할 수 있다. 표시되는 신체 부위가 제1 기준 위치인 경우 다음 단계를 수행하고, 제1 기준 위치가 아닌 경우 내시경 촬영을 계속 진행할 수 있다. The computing device may determine which body part is displayed on the medical image by using the first artificial intelligence model. When the displayed body part is at the first reference position, the next step is performed, and when it is not at the first reference position, endoscopic imaging may continue.

컴퓨팅 장치는 의료 영상의 중앙 지점과 제1 기준 위치까지의 거리를 실제 좌표로 변환할 수 있다(S230). 컴퓨팅 장치는 의료 영상의 중앙 지점을 스코프 끝단의 위치로 간주할 수 있다. 이에 따라 의료 영상에서 이미지 상 중앙 지점과 제1 기준 위치까지의 거리가 실제 좌표계에서 스코프 끝단과 제1 기준 위치까지의 거리에 대응될 수 있다. 컴퓨팅 장치는 이미지상 좌표에서의 거리를 실제 좌표계에서의 거리로 변환할 수 있다. 이때 컴퓨팅 장치는 깊이(depth) 정보를 추가로 이용할 수 있다. 깊이 정보는 의료 영상으로부터 추출되거나, 내시경 끝단에 구비된 깊이 센서를 통해 획득될 수 있다. The computing device may convert the distance between the central point of the medical image and the first reference position into actual coordinates (S230). The computing device may regard the central point of the medical image as the position of the end of the scope. Accordingly, the distance between the central point on the image and the first reference position in the medical image may correspond to the distance between the end of the scope and the first reference position in the real coordinate system. The computing device may convert a distance in coordinates on an image into a distance in a real coordinate system. In this case, the computing device may additionally use depth information. Depth information may be extracted from a medical image or obtained through a depth sensor provided at the end of an endoscope.

컴퓨팅 장치는 실제 좌표를 기초로 스코프의 각 축의 운동에 대한 제어 신호를 생성할 수 있다(S240). 컴퓨팅 장치는 스코프의 각 축의 운동을 제어하는 모터들에 대한 제어 신호를 각각 생성할 수 있다. 또한 컴퓨팅 장치는 스코프의 방향에 대한 제어 신호를 생성할 수 있다. The computing device may generate control signals for movement of each axis of the scope based on the actual coordinates (S240). The computing device may generate control signals for motors that control movement of each axis of the scope. The computing device may also generate control signals for the scope's orientation.

컴퓨팅 장치는 스코프 끝단이 제3 기준 위치에 도달했는지 판단할 수 있다(S250). 제3 기준 위치는 예를 들어 들문(cardia)을 포함할 수 있으나 반드시 이에 제한되는 것은 아니다. 제3 기준 위치는 내시경 시술자에 의해 설정될 수 있으며, 내시경 종류에 따라 설정될 수 있다. 제3 기준 위치는 필수 촬영부위 중 하나일 수 있고, 임상적으로 특징이 있는 부위일 수 있고, 영상에서 구별되는 이미지적 특징이 있는 부위일 수 있다.The computing device may determine whether the end of the scope has reached the third reference position (S250). The third reference position may include, for example, a cardia, but is not necessarily limited thereto. The third reference position may be set by an endoscopist and may be set according to the type of endoscope. The third reference position may be one of essential imaging parts, may be a clinically characteristic part, or may be a part with distinctive image characteristics in an image.

컴퓨팅 장치는 내시경 장치를 수동 제어 모드로 전환할 수 있다(S260). 즉 컴퓨팅 장치는 수동 제어 모드를 개시하기 위한 위치를 제3 기준 위치로 설정할 수 있다. 제3 기준 위치는 내시경 촬영이 종료되는 부위에 대응되거나 자동 제어가 불가능한 부위에 대응될 수 있다. The computing device may switch the endoscope device to a manual control mode (S260). That is, the computing device may set the position for starting the manual control mode as the third reference position. The third reference position may correspond to a site where endoscopic imaging ends or to a site where automatic control is not possible.

도 5는 본 개시의 일 실시예에 따른 내시경 스코프의 벤딩 제어 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method for controlling bending of an endoscope scope according to an embodiment of the present disclosure.

도 5를 참조하면, 컴퓨팅 장치는 스코프 끝단이 신체 내벽과 소정의 거리만큼 이격되도록 스코프의 벤딩 정도를 제어할 수 있다. Referring to FIG. 5 , the computing device may control the degree of bending of the scope so that the end of the scope is separated from the inner wall of the body by a predetermined distance.

컴퓨팅 장치는 스코프 끝단이 제2 기준 위치에 도달했는지 확인할 수 있다(S310). 컴퓨팅 장치는 제1 인공지능 모델을 이용하여 스코프 끝단이 제2 기준 위치에 도달했는지 판단할 수 있다. 제2 기준 위치는 예를 들어 식도를 포함할 수 있으나 반드시 이에 제한되는 것은 아니다. 제2 기준 위치는 내시경 시술자에 의해 설정될 수 있으며, 내시경 종류에 따라 설정될 수 있다.The computing device may check whether the end of the scope has reached the second reference position (S310). The computing device may determine whether the end of the scope has reached the second reference position by using the first artificial intelligence model. The second reference location may include, for example, the esophagus, but is not necessarily limited thereto. The second reference position may be set by an endoscopist and may be set according to the type of endoscope.

컴퓨팅 장치는 스코프가 의료 영상에서 어두운 영역을 향하도록 스코프의 벤딩 방향을 결정할 수 있다(S320). 예를 들어, 스코프가 식도에 위치하는 경우 의료 영상에서 어두운 영역은 식도의 깊은 곳에 대응될 수 있고 밝은 부분은 식도의 내벽에 대응될 수 있다. 따라서 스코프가 밝은 부분을 향하도록 벤딩되는 경우 식도 내벽이 스코프에 의해 긁혀 내상이 발생할 수 있다. 따라서 컴퓨팅 장치는 스코프가 어두운 부분을 향하도록 벤딩시킴으로써 장기 내벽을 보호할 수 있다. The computing device may determine a bending direction of the scope so that the scope faces a dark area in the medical image (S320). For example, when the scope is positioned in the esophagus, a dark area in the medical image may correspond to a deep portion of the esophagus, and a bright portion may correspond to an inner wall of the esophagus. Therefore, when the scope is bent toward the bright area, the inner wall of the esophagus may be scratched by the scope, resulting in internal injury. Accordingly, the computing device may protect the inner wall of the organ by bending the scope toward the dark side.

식도의 깊은 곳을 정확히 파악하기 위해, 이미지 상에서 명도와 함께 형태 정보가 함께 이용될 수 있다. 예를 들어 컴퓨팅 장치는 의료 영상에서 명도가 기준값 이하인 부분의 형상 및 크기를 고려하여 식도의 깊은 곳을 판단할 수 있다.In order to accurately identify the depth of the esophagus, shape information along with brightness on the image may be used. For example, the computing device may determine the depth of the esophagus by considering the shape and size of a portion having brightness less than or equal to a reference value in the medical image.

컴퓨팅 장치는 의료 영상을 기초로 신체 내벽을 판단하도록 학습된 제2 인공지능 모델을 이용하여 스코프의 벤딩 방향을 결정할 수 있다(S330). 제2 인공지능 모델은 의료 영상을 기반으로 신체 내벽과 관(tunnel)을 파악하도록 학습된 모델일 수 있다. 제2 인공지능 모델은 Fully Convolutional Network(FCN), Conditional Adversarial Network(CAN), Recurrent Neural Network(RNN), MC-CNN(Matching Cost-CNN) 등의 네트워크 구조를 가질 수 있다.The computing device may determine the bending direction of the scope by using the second artificial intelligence model learned to determine the inner wall of the body based on the medical image (S330). The second artificial intelligence model may be a model learned to recognize the inner wall and tunnel of the body based on medical images. The second artificial intelligence model may have a network structure such as a fully convolutional network (FCN), a conditional adversarial network (CAN), a recurrent neural network (RNN), and a matching cost-CNN (MC-CNN).

컴퓨팅 장치는 S320 단계에서 영상처리 알고리즘을 통해 신체 내벽을 파악하거나, 제2 인공지능 모델을 이용할 수 있다. 즉 S320 단계 및 S330 단계는 선택적으로 수행될 수 있다.The computing device may identify the inner wall of the body through an image processing algorithm or use a second artificial intelligence model in step S320. That is, steps S320 and S330 may be selectively performed.

컴퓨팅 장치는 스코프 끝단이 신체 내벽과 소정의 거리만큼 이격되도록 스코프의 벤딩 정도를 제어할 수 있다(S340). 소정의 거리는 신체 장기의 특성에 따라 달라질 수 있다. 예를 들어 제2 기준 위치가 식도인 경우와 위인 경우, 식도와 위의 직경이 다르기 때문에 스코프가 이격되어야 하는 거리도 달라질 수 있다. 컴퓨팅 장치는 스코프 내 와이어의 장력을 조절함으로써 벤딩 정도를 제어할 수 있다. 컴퓨팅 장치는 추가적으로 벤딩 방향을 제어할 수 있다.The computing device may control the degree of bending of the scope so that the end of the scope is separated from the inner wall of the body by a predetermined distance (S340). The predetermined distance may vary depending on the characteristics of the body organ. For example, when the second reference position is the esophagus and the stomach, since the diameters of the esophagus and the stomach are different, the distance at which the scope should be separated may also be different. The computing device may control the degree of bending by adjusting the tension of the wire in the scope. The computing device may additionally control the bending direction.

S310 단계 내지 S340 단계는 자동 제어 모드에서 동작할 수 있다. 즉 제2 기준 위치에 도달했는지 판단하는 S310 단계가 생략되어, 자동 제어 모드의 전 단계에서 스코프의 벤딩 정도를 제어하는 동작이 병렬적으로 수행될 수 있다. Steps S310 to S340 may operate in an automatic control mode. That is, the step S310 of determining whether the second reference position has been reached is omitted, and an operation of controlling the degree of bending of the scope may be performed in parallel in all steps of the automatic control mode.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present disclosure described above is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present disclosure. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present disclosure. do.

10: 내시경 시스템
100: 내시경 장치
110: 출력부
120: 제어부
130: 구동부
140: 펌프부
150: 스코프
151: 조작부
152: 삽입부
153: 광원
154: 렌즈
155: 워킹 채널
156: 에어, 워터 채널
200: 컴퓨팅 장치
210: 프로세서
220: 메모리
230: 네트워크부
10: endoscope system
100: endoscope device
110: output unit
120: control unit
130: driving unit
140: pump unit
150: scope
151: control panel
152: insertion part
153: light source
154: lens
155: working channel
156: air, water channel
200: computing device
210: processor
220: memory
230: network unit

Claims (16)

적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는, 내시경 장치의 제어 방법으로서,
상기 내시경 장치로부터 촬영된 의료 영상 및 상기 내시경 장치의 스코프 끝단의 위치 정보를 기초로, 상기 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산하는 단계; 및
상기 거리를 기초로 상기 스코프 끝단이 상기 제1 기준 위치에 도달하도록 상기 스코프 끝단을 제어하는 단계;
를 포함하는 것을 특징으로 하는 방법.
A control method of an endoscope apparatus, performed by a computing device including at least one processor, comprising:
calculating a distance from an end of the scope to a first reference position based on a medical image captured by the endoscope and positional information of the end of the scope of the endoscope; and
controlling a tip of the scope to reach the first reference position based on the distance;
A method comprising a.
제1항에 있어서,
상기 계산하는 단계는,
상기 의료 영상 및 상기 위치 정보를 기초로 학습된 제1 인공지능 모델을 이용하여 상기 의료 영상에서 상기 제1 기준 위치를 파악하는 단계;
를 포함하는 것을 특징으로 하는 방법.
According to claim 1,
The calculation step is
identifying the first reference position in the medical image using a first artificial intelligence model learned based on the medical image and the location information;
A method comprising a.
제2항에 있어서,
상기 제1 인공지능 모델은,
상기 의료 영상, 상기 의료 영상에 대한 상기 스코프의 x축 운동을 제어하는 제1 모터의 엔코더 값, 상기 의료 영상에 대한 상기 스코프의 y축 운동을 제어하는 제2 모터의 엔코더 값, 상기 스코프 끝단에 설치된 자세 센서로부터 획득한 6차원 자세 정보 및 상기 의료 영상에 대한 신체 부위의 매칭 정보를 포함하는 학습 데이터를 이용하여 상기 의료 영상에서 상기 신체 부위를 추론하도록 학습된 모델인 것을 특징으로 하는 방법.
According to claim 2,
The first artificial intelligence model,
The encoder value of the first motor for controlling the x-axis motion of the scope with respect to the medical image and the medical image, the encoder value of the second motor for controlling the y-axis motion of the scope with respect to the medical image, at the end of the scope The method of claim 1 , wherein the model is learned to infer the body part from the medical image using learning data including 6-dimensional posture information acquired from an installed posture sensor and matching information of the body part with respect to the medical image.
제1항에 있어서,
상기 제어하는 단계는,
상기 의료 영상의 중앙 지점과 상기 의료 영상에서의 상기 제1 기준 위치까지의 거리를 실제 좌표로 변환하는 단계; 및
상기 실제 좌표를 기초로 상기 스코프의 각 축의 운동에 대한 제어 신호를 생성하는 단계;
를 포함하는 것을 특징으로 하는 방법.
According to claim 1,
The control step is
converting a distance between a central point of the medical image and the first reference position in the medical image into actual coordinates; and
generating control signals for movement of each axis of the scope based on the actual coordinates;
A method comprising a.
제4항에 있어서,
상기 제어 신호는,
상기 스코프의 x축 운동을 제어하는 제1 모터에 대한 제1 제어 신호 및 상기 스코프의 y축 운동을 제어하는 제2 모터에 대한 제2 제어 신호를 포함하는 것을 특징으로 하는 방법.
According to claim 4,
The control signal is
and a first control signal for a first motor for controlling an x-axis motion of the scope and a second control signal for a second motor for controlling a y-axis motion for the scope.
제1항에 있어서,
상기 제어하는 단계는,
상기 스코프 끝단이 신체 내벽과 소정의 거리만큼 이격되도록 상기 스코프의 벤딩 정도를 제어하는 단계;
를 포함하는 것을 특징으로 하는 방법.
According to claim 1,
The control step is
controlling a degree of bending of the scope so that an end of the scope is separated from an inner wall of the body by a predetermined distance;
A method comprising a.
제6항에 있어서,
상기 벤딩 정도를 제어하는 단계는,
상기 스코프 끝단이 제2 기준 위치에 도달하면 상기 스코프의 벤딩 정도를 제어하는 동작을 시작하는 단계;
를 포함하는 것을 특징으로 하는 방법.
According to claim 6,
In the step of controlling the degree of bending,
starting an operation of controlling a degree of bending of the scope when the end of the scope reaches a second reference position;
A method comprising a.
제7항에 있어서,
상기 제2 기준 위치는 식도를 포함하는 것을 특징으로 하는 방법.
According to claim 7,
The method of claim 1 , wherein the second reference location comprises the esophagus.
제6항에 있어서,
상기 스코프의 벤딩 정도를 제어하는 단계는,
상기 스코프가 상기 의료 영상에서 어두운 영역을 향하도록 상기 스코프의 벤딩 방향을 결정하는 단계;
를 포함하는 것을 특징으로 하는 방법.
According to claim 6,
The step of controlling the bending degree of the scope,
determining a bending direction of the scope so that the scope faces a dark area in the medical image;
A method comprising a.
제6항에 있어서,
상기 스코프의 벤딩 정도를 제어하는 단계는,
상기 의료 영상을 기초로 상기 신체 내벽을 판단하도록 학습된 제2 인공지능 모델을 이용하여 상기 스코프의 벤딩 방향을 결정하는 단계;
를 포함하는 것을 특징으로 하는 방법.
According to claim 6,
The step of controlling the bending degree of the scope,
determining a bending direction of the scope using a second artificial intelligence model learned to determine the inner wall of the body based on the medical image;
A method comprising a.
제1항에 있어서,
상기 제1 기준 위치는 후두를 포함하는 것을 특징으로 하는 방법.
According to claim 1,
The method of claim 1 , wherein the first reference location comprises the larynx.
제1항에 있어서,
상기 의료 영상을 기초로 상기 스코프 끝단이 환자의 구강에 삽입된 것으로 판단되면, 자동 제어 모드로 전환하는 단계;
를 더 포함하는 것을 특징으로 하는 방법.
According to claim 1,
switching to an automatic control mode when it is determined that the end of the scope is inserted into the oral cavity of the patient based on the medical image;
A method characterized in that it further comprises.
제1항에 있어서,
상기 스코프 끝단이 제3 기준 위치에 도달하면, 수동 제어 모드로 전환하는 단계;
를 더 포함하는 것을 특징으로 하는 방법.
According to claim 1,
switching to a manual control mode when the tip of the scope reaches a third reference position;
A method characterized in that it further comprises.
제13항에 있어서,
상기 제3 기준 위치는 들문을 포함하는 것을 특징으로 하는 방법.
According to claim 13,
The method of claim 1, wherein the third reference position comprises a false door.
내시경 장치를 제어하기 위한 컴퓨팅 장치로서,
상기 내시경 장치로부터 촬영된 의료 영상 및 상기 내시경 장치의 스코프 끝단의 위치 정보를 저장하는 메모리; 및
상기 의료 영상 및 상기 위치 정보를 기초로, 상기 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산하고, 상기 거리를 기초로 상기 스코프 끝단이 상기 제1 기준 위치에 도달하도록 상기 스코프 끝단을 제어하는 프로세서;
를 포함하는 것을 특징으로 하는 장치.
A computing device for controlling an endoscopy device, comprising:
a memory for storing a medical image captured by the endoscope device and positional information of an end of the scope of the endoscope device; and
A processor for calculating a distance from an end of the scope to a first reference position based on the medical image and the location information, and controlling an end of the scope to reach the first reference position based on the distance ;
A device comprising a.
컴퓨터 판독가능 저장 매체 저장된 컴퓨터 프로그램(program)으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서(processor)에서 실행되는 경우, 내시경 장치를 제어하기 위한 동작들을 수행하도록 하며,
상기 동작들은,
상기 내시경 장치로부터 촬영된 의료 영상 및 상기 내시경 장치의 스코프 끝단의 위치 정보를 기초로, 상기 스코프 끝단으로부터 제1 기준 위치까지의 거리를 계산하는 동작; 및
상기 거리를 기초로 상기 스코프 끝단이 상기 제1 기준 위치에 도달하도록 상기 스코프 끝단을 제어하는 동작;
을 포함하는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program stored on a computer readable storage medium, wherein the computer program, when executed on one or more processors, performs operations for controlling an endoscope device,
These actions are
calculating a distance from an end of the scope to a first reference position based on a medical image captured by the endoscope and positional information of the end of the scope of the endoscope; and
controlling an end of the scope to reach the first reference position based on the distance;
A computer program comprising a.
KR1020220129409A 2022-10-11 2022-10-11 Method, apparatus and computer program for controlling endoscope based on medical image KR102495838B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220129409A KR102495838B1 (en) 2022-10-11 2022-10-11 Method, apparatus and computer program for controlling endoscope based on medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220129409A KR102495838B1 (en) 2022-10-11 2022-10-11 Method, apparatus and computer program for controlling endoscope based on medical image

Publications (1)

Publication Number Publication Date
KR102495838B1 true KR102495838B1 (en) 2023-02-06

Family

ID=85224181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220129409A KR102495838B1 (en) 2022-10-11 2022-10-11 Method, apparatus and computer program for controlling endoscope based on medical image

Country Status (1)

Country Link
KR (1) KR102495838B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018138140A (en) * 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Endoscope apparatus
KR102185886B1 (en) 2020-05-22 2020-12-02 주식회사 웨이센 Colonoscopy image analysis method and apparatus using artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018138140A (en) * 2017-02-24 2018-09-06 ソニー・オリンパスメディカルソリューションズ株式会社 Endoscope apparatus
KR102185886B1 (en) 2020-05-22 2020-12-02 주식회사 웨이센 Colonoscopy image analysis method and apparatus using artificial intelligence

Similar Documents

Publication Publication Date Title
CN108685560B (en) Automated steering system and method for robotic endoscope
US11907849B2 (en) Information processing system, endoscope system, information storage medium, and information processing method
JP4274854B2 (en) Endoscope insertion shape analyzer
EP2289390A2 (en) Detection of endoscope inserting direction
CN112075914B (en) Capsule endoscopy system
US20200138269A1 (en) Insertion support device, insertion support method, and endoscope apparatus including insertion support device
CN110831476B (en) Tubular insertion device and method for operating same
CN111067468B (en) Method, apparatus, and storage medium for controlling endoscope system
JP7150997B2 (en) Information processing device, endoscope control device, method of operating information processing device, method of operating endoscope control device, and program
JP7292376B2 (en) Control device, trained model, and method of operation of endoscope movement support system
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
KR102495838B1 (en) Method, apparatus and computer program for controlling endoscope based on medical image
US20230282345A1 (en) Medical support system, medical support method, and computer program
KR102553961B1 (en) Method, apparatus and computer program for preventing blind spot in endoscopic procedure based on medical image
KR102496672B1 (en) Method, apparatus and computer program for controlling endoscope based on medical image
KR102584741B1 (en) Method, apparatus and computer program for controlling endoscope based on medical image
KR102639202B1 (en) Method, apparatus and computer program for controlling endoscope based on medical image
US11882365B2 (en) Continuum robot apparatus, method, and medium
US20220322917A1 (en) Endoscope processor, endoscope, and endoscope system
US20240016366A1 (en) Image diagnosis system for lesion
EP4322861A1 (en) Systems, methods and programs for estimating needle pose
CN110720882A (en) Endoscope system and endoscope operation control method
WO2023053333A1 (en) Processing system and information processing method
WO2024029502A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant